WO2021019788A1 - 処理装置、システム、生体認証システム、処理方法、及びコンピュータ可読媒体 - Google Patents

処理装置、システム、生体認証システム、処理方法、及びコンピュータ可読媒体 Download PDF

Info

Publication number
WO2021019788A1
WO2021019788A1 PCT/JP2019/030364 JP2019030364W WO2021019788A1 WO 2021019788 A1 WO2021019788 A1 WO 2021019788A1 JP 2019030364 W JP2019030364 W JP 2019030364W WO 2021019788 A1 WO2021019788 A1 WO 2021019788A1
Authority
WO
WIPO (PCT)
Prior art keywords
depth
striped pattern
image
sharpness
pattern sharpness
Prior art date
Application number
PCT/JP2019/030364
Other languages
English (en)
French (fr)
Inventor
善将 小野
中村 滋
充文 柴山
安部 淳一
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2019/030364 priority Critical patent/WO2021019788A1/ja
Priority to US17/630,228 priority patent/US20220277498A1/en
Priority to JP2021536594A priority patent/JP7197017B2/ja
Publication of WO2021019788A1 publication Critical patent/WO2021019788A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/006Inverse problem, transformation from projection-space into object-space, e.g. transform methods, back-projection, algebraic methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/005Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1324Sensors therefor by using geometrical optics, e.g. using prisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1341Sensing with light passing through the finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • G06V40/1359Extracting features related to ridge properties; Determining the fingerprint type, e.g. whorl or loop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • G06V40/1376Matching features related to ridge properties or fingerprint texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/456Optical coherence tomography [OCT]

Definitions

  • This disclosure relates to a processing device, a system, a biometric authentication system, a processing method, and a computer-readable medium for the purpose of improving authentication accuracy.
  • OCT optical coherence tomography
  • the object to be measured is measured by utilizing the interference between the scattered light from the inside of the object to be measured (hereinafter, also referred to as “backscattered light”) and the reference light when the light beam is applied to the object to be measured.
  • backscattered light the interference between the scattered light from the inside of the object to be measured
  • perform tomographic imaging near the surface of the light performs tomographic imaging near the surface of the light.
  • OCT technology has been put to practical use as a tomographic imaging device for the fundus in ophthalmic diagnosis, and its application is being studied as a non-invasive tomographic imaging device for various parts of the living body.
  • biometric authentication technology using two-dimensional image data of epidermal fingerprints is widely used.
  • the tomographic imaging data of the finger acquired by the OCT technique is the luminance data at the three-dimensional position. That is, in order to use the data acquired by the OCT technique for fingerprint authentication based on a conventional image, it is necessary to extract a two-dimensional image having fingerprint characteristics from the three-dimensional tomographic image data.
  • Non-Patent Documents 1 and 2 a dermis fingerprint image was acquired by averaging tomographic brightness images within a certain range in the depth direction in finger tomographic imaging data. However, for values in a certain range, a fixed value was used assuming a depth at which the dermal fingerprint can be visually recognized.
  • Patent Document 1 the brightness change in the depth direction is examined for each pixel of the tomographic image, and the depth at which the brightness has the second highest value is selected as the visible depth of the dermis fingerprint, whereby the depth and brightness are selected.
  • Image was used as a dermis fingerprint image.
  • Non-Patent Document 3 OCL (Orientation Century Level) indicating the unidirectionality of the fingerprint pattern in a small area is calculated for the epidermis and dermis fingerprint images. Then, the image for each small area was determined by fusing the epidermis and dermis fingerprint images based on the OCL value.
  • OCL Orientation Century Level
  • Non-Patent Documents 1 and 2 since the tomographic luminance image in a fixed depth range is averaged, individual differences in epidermis thickness are not taken into consideration. For example, if the epidermis is worn or thick due to occupational reasons, the dermis fingerprint may be averaged outside the clearly visible depth, and a clear dermis fingerprint image can be obtained. Have difficulty. Furthermore, since the interface between the clearly visible epidermis and the dermis of the dermis fingerprint is often distorted in the depth direction, the fingerprint image extracted at a uniform depth may be locally blurred.
  • Non-Patent Document 3 describes a method of obtaining a fingerprint image from two images of an epidermis and a dermis fingerprint, and obtains an optimum fingerprint image from a plurality of continuous tomographic images in the depth direction described in the present disclosure. It is different from the method of obtaining. Further, in a tomographic image continuous in the depth direction, the OCL calculated after dividing into regions is generally susceptible to noise, and there is a high possibility that a suboptimal depth is erroneously selected.
  • An object of the present disclosure is to provide a processing device, a system, a biometric authentication system, a processing method, and a computer-readable medium that solve any of the above-mentioned problems.
  • the processing apparatus is A means for calculating the depth dependence of the striped pattern sharpness in a plurality of regions on a plane perpendicular to the depth direction of the authentication target from the three-dimensional luminance data indicating the authentication target.
  • a fine-tuning means for selecting the corrected depth that is closest to the corrected depth and the stripe pattern sharpness is an extreme value.
  • a means for extracting an image having brightness based on the selected depth is provided.
  • the processing method is From the three-dimensional luminance data indicating the authentication target, a step of calculating the depth dependence of the striped pattern sharpness in a plurality of regions on a plane perpendicular to the depth direction of the authentication target, and The step of calculating the depth at which the striped pattern sharpness is the maximum value in the depth dependence of the striped pattern sharpness, and A step of modifying the calculated depth based on the depths of other regions located around each of the plurality of regions.
  • the non-transitory computer-readable medium in which the program is stored according to this disclosure is On the computer From the three-dimensional luminance data indicating the authentication target, a step of calculating the depth dependence of the striped pattern sharpness in a plurality of regions on a plane perpendicular to the depth direction of the authentication target, and The step of calculating the depth at which the striped pattern sharpness is the maximum value in the depth dependence of the striped pattern sharpness, and A step of modifying the calculated depth based on the depths of other regions located around each of the plurality of regions. A step of selecting the corrected depth, which is the closest to the corrected depth, and the extremum of the striped pattern sharpness. A step of extracting an image having brightness based on the selected depth is performed.
  • a processing device capable of acquiring a two-dimensional image from a three-dimensional tomographic image and extracting an image with high authentication accuracy and a high-speed image. Can be provided.
  • the authentication image extraction device 11 is a device for extracting an image or the like used for authentication such as a fingerprint, and details will be described in the following description of the embodiment.
  • the system 10 includes a measuring device 12, a flattening device 13, an authentication image extraction device 11, and an authentication device 14.
  • the measuring device 12 captures three-dimensional tomographic luminance data indicating the luminance in the three-dimensional space to be authenticated, including the OCT technology.
  • the subject of certification is not particularly limited and is diverse, but one specific example thereof is a part of a living body. A more specific example is the fingers of the hand.
  • the flattening device 13 flattens the curvature in the depth direction of the authentication target with respect to the three-dimensional tomographic luminance data acquired by the measuring device 12. Even if the measuring device 12 is non-contact or pressed against a glass surface or the like to acquire an authentication target, for example, a fingerprint, the roundness of the authentication target remains. Therefore, the flattening device 13 authenticates before the authentication image extraction process.
  • the curvature of the object in the depth direction is flattened to generate three-dimensional brightness data.
  • the authentication device 14 performs authentication using the extracted authentication image.
  • the authentication device 14 performs biometric authentication using, for example, a fingerprint image. Specifically, the authentication device 14 collates the tomographic image with the image data associated with the personal information, and compares the tomographic image with the image data to identify the individual.
  • the system 10 shown in FIG. 1 can authenticate a living body.
  • the authentication target is the finger of the hand. Further, the depth from the epidermis of the finger to the inside of the skin is referred to as the depth, the plane perpendicular to the depth direction is referred to as the XY plane, and the luminance image of the XY plane is referred to as a tomographic image.
  • FIG. 3 is a diagram illustrating an operation of extracting a fingerprint image based on a striped pattern sharpness in a region according to the first embodiment.
  • FIG. 3 is a diagram illustrating the operation of the process of extracting the authentication image by the depth dependence of the striped pattern sharpness according to the first embodiment of the present invention.
  • the data output from the measuring device 12 via the flattening device 13 shows the brightness at each position in the three-dimensional space, and as shown in the tomographic image group 100 shown in FIG. 3, the tomographic images 101 and 102 at each depth. , ... 10k, ..., can be expressed as 10n.
  • k is a natural number
  • n is the total number of tomographic images.
  • the tomographic image is divided into a plurality of regions on the XY plane, and the regions 101a and 101b mean regions belonging to the tomographic image 101.
  • the epidermal and dermis fingerprints on the fingers of the hand are most clearly shown at the interface between the air and the dermis and the interface between the epidermis and the dermis, respectively. Therefore, in the present application, as the depth for extracting various fingerprints, a depth having a high value of striped pattern sharpness of the tomographic image is selected. Further, in consideration of the possibility that the interface between the air, the epidermis and the dermis described above is distorted in the depth direction, the three-dimensional luminance data is divided into predetermined regions on the XY plane, and each region has a high value of striped pattern sharpness. Take the method of selecting the depth.
  • the fringe pattern sharpness is a feature quantity indicating that there are a plurality of stripes formed by light and dark in an image, such as OCL (Orientation Certy Level) used in Non-Patent Document 3, and the shapes are the same. Means that.
  • Examples of the striped pattern sharpness include OCL, RVU (Ridge Valley Infinity), FDA (Frequency Domain Analysis), and LCS (Local Clarity Score).
  • OCL is disclosed in Non-Patent Document 4.
  • the RVU shows uniformity in the width of the light and dark stripes within the small area.
  • the FDA exhibits a single frequency of striped patterns within a small region disclosed in Non-Patent Document 5.
  • the LCS shows the uniformity of the brightness of each bright and dark part of the stripe in the small region disclosed in Non-Patent Document 6.
  • OFL Orientation FLow
  • Depth dependence 110a and 110b of the striped pattern sharpness shown in FIG. 3 calculates the striped pattern sharpness in the same XY plane region as the regions 101a and 101b for the tomographic images 101 to 10n, and the depth dependence. It is shown in the graph as. In the graph 111a, the maximum value of the striped pattern sharpness exists at the depth 112a, and in the graph 111b, the maximum value of the striped pattern sharpness exists at the depth 112b.
  • FIG. 4 is a diagram illustrating an operation of optimizing the extraction depth by correcting the dissociated depth and selecting the local optimum value of the striped pattern sharpness according to the first embodiment.
  • FIG. 4 is a diagram illustrating an operation of optimizing the selection depth in a region according to the first embodiment of the present invention.
  • the depth images 120, 130, and 140 shown in FIG. 4 show depth images in which the depth selected in the divided region is a pixel.
  • the depth image 120 includes pixels 120a showing the depth 112a in the graph 111a shown in FIG. 3 and pixels 120b showing the depth 112b in the graph 111b. Similarly, an example is shown in which the depth at which the maximum value of the striped pattern sharpness is obtained is applied to the pixels for other regions as well.
  • the depth 112b of the region corresponding to the pixel 120b is significantly different from the depth of the pixels around the region corresponding to the pixel 120b.
  • the striped pattern is clear.
  • the depth at which the maximum value of the degree is taken is defined as the depth 112b.
  • the depth 113 is close to the depth 112a, and it is considered to be an accurate value as the depth for extracting various fingerprints. Therefore, if the depth at which the maximum value of the striped pattern sharpness is taken is the depth 112b, an error occurs.
  • the skin structure is located around the region so as to select a depth equal to or close to the surrounding depth.
  • means for correcting the depth of the region deviating from the depth of the surrounding region include image processing such as a median filter and a bilateral filter, and a filter using a spatial frequency such as a low-pass filter and a Wiener filter.
  • the depth image 130 shown in FIG. 4 shows an example in which the depth image 120 is subjected to a process of correcting the dissociated depth, and the depth indicated by the pixel 130b is converted to a value equivalent to the depth around the depth image 120.
  • the depth indicated by the pixel 130b was converted to the same depth 112a as the pixel 130a.
  • the depth indicated by the pixel 130b is the same value as the surrounding depth, but is not the optimum depth for the striped pattern sharpness. Therefore, in the graph 111b, the depth is finely adjusted by selecting the depth 113 at which the fringe pattern sharpness is the maximum value around the depth 112a.
  • the depth image 140 shown in FIG. 4 is the result of reusing the depth dependence of the striped pattern sharpness with respect to the depth image 130 and fine-tuning the optimum depth.
  • the depth 113 is selected, and the depth of the pixel 140b is converted to the same depth as the depth 113.
  • FIG. 5 is a flowchart illustrating a process of extracting a fingerprint image according to the first embodiment of the present invention.
  • the authentication image extraction device 11 acquires three-dimensional luminance data (step S101).
  • the authentication image extraction device 11 divides the three-dimensional luminance data into a plurality of regions with respect to the XY plane (step S102).
  • the shapes of the plurality of regions are diverse and do not have to be in a grid pattern.
  • the authentication image extraction device 11 calculates the depth dependence of the striped pattern sharpness in each region (step S103). It should be noted that the fringe pattern sharpness indicates a feature amount indicating that there are a plurality of fringes formed by light and dark in the image and have the same shape as described above, and OCL can be mentioned as an example.
  • the authentication image extraction device 11 selects the depth having the maximum value of the striped pattern sharpness in each area (step S104).
  • the authentication image extraction device 11 corrects the depth deviated from the depth in the surrounding region to this selected depth (step S105).
  • a process such as a median filter can be mentioned.
  • the authentication image extraction device 11 selects the depth at which the striped pattern sharpness has an extreme value in each region and the depth closest to the selected depth (step S106).
  • the authentication image extraction device 11 converts the depth information divided into regions to the same resolution as the fingerprint image, and smoothes the depth information (step S107).
  • the authentication image extraction device 11 performs image adjustment processing for biometric authentication such as bigradation and thinning (step S108).
  • the authentication image extraction system of the first embodiment divides the three-dimensional luminance data of the finger into each region of the XY surface, and optimizes the extraction depth by utilizing the striped pattern sharpness. Further, the authentication image extraction system can extract a clear fingerprint image at high speed by coarsely adjusting the depth by correcting the divergent depth and finely adjusting the depth by selecting the extreme value of the striped pattern sharpness. As a result, as compared with the methods of Non-Patent Documents 1 and 2, it is possible to extract images adaptively to individual differences in epidermis thickness, and it is possible to deal with distortion in the depth direction of the skin structure interface.
  • the noise immunity is high because the depth is determined not by the depth determination by a single pixel disclosed in Patent Document 1 but by the fringe pattern sharpness of an image having a plurality of pixels, and the data processing unit is also the number of regions, so that the speed is high. Processing becomes possible.
  • FIG. 6 is a diagram illustrating the operation of the depth image correction process according to the second embodiment of the present invention. That is, FIG. 6 is a diagram illustrating an operation of extracting a fingerprint image by repeating the correction process of the dissociated depth according to the second embodiment.
  • the depth image 200 shown in FIG. 6 shows a depth image after selecting the depth that takes the maximum value of the striped pattern sharpness in each region, similarly to the depth image 120 in the first embodiment.
  • the depth image 200 has a large number of pixels in the region of the dissociated depth, so that the dissociated depth may remain even if the depth correction process is performed once. Therefore, by repeatedly performing the process of correcting the dissociated depth and the process of selecting the depth having the extreme value of the striped pattern sharpness closest to the selected depth, a stable fingerprint image can be extracted even when there are many pixels of the dissociated depth. Enables processing.
  • the depth image 210 shown in FIG. 6 is a case where the dissociated depth is corrected once, and the pixel 200a is corrected so as to show a depth value of the same level as the surrounding pixels, for example, the pixel 210a. it can.
  • pixels indicating a depth deviated from the surroundings, such as pixel 210b remain. Therefore, by adding the process of correcting the dissociated depth again and the process of selecting the depth having the extreme value of the striped pattern sharpness that is in close contact with each other to obtain the depth image 220, the pixels 210b are equivalent to the surroundings like the pixels 220b. Can be depth.
  • FIG. 7 is a flowchart illustrating a process of extracting a fingerprint image according to a second embodiment of the present invention. As shown in FIG. 7, steps S101 to S104 are performed in the same manner as in the first embodiment.
  • the arrows shown by solid lines in FIGS. 7 and 9 and 11 showing the flowchart indicate the flow of the processing method.
  • the arrow indicated by the dotted line in the figure supplements the flow of data such as an image, and does not indicate the flow of the processing method.
  • step S104 the authentication image extraction device 11 holds the depth image output in steps S104 to S203 (step S201).
  • steps S105 and S106 are added to the depth image held in step S201 in the same manner as in the first embodiment.
  • the authentication image extraction device 11 calculates the difference between the depth image held in step S201 and the depth image after step S106 (step S202). Any method can be used as long as it is a means for calculating the difference between the two depth images.
  • step S203: Yes the authentication image extraction device 11 ends the correction process of the dissociated depth.
  • step S203: No the authentication image extraction device 11 returns to step S201 and repeats the correction process of the dissociated depth. After step S203, the authentication image extraction device 11 performs steps S107 and S108 in the same manner as in the first embodiment.
  • the coarse adjustment of the depth by the correction processing of the divergent depth and the selection of the depth having the extreme value of the striped pattern sharpness Repeat the fine adjustment of the depth by. As a result, even when the number of regions with different depths is large, stable extraction of a clear fingerprint image is possible.
  • the process of extracting the epidermal fingerprint and the dermis fingerprint is presented by limiting the search range of the target depth in the first and second embodiments.
  • the striped pattern sharpness has a maximum value at the depth of the interface between air and epidermis and between the epidermis and dermis, and corresponds to the epidermis fingerprint and the dermis fingerprint, respectively.
  • it is a form that converges to one maximum value, and two fingerprint images cannot be acquired. Therefore, in the present embodiment, a method of extracting two fingerprint images will be described by limiting the search range.
  • FIG. 8 is a diagram illustrating an operation of extracting a fingerprint image after limiting the search range of the extraction depth according to the third embodiment of the present invention.
  • the tomographic image group 300 shown in FIG. 8 is composed of tomographic images 301, 302, ..., 30k, ..., 30n at each depth. k is a natural number and n is the total number of tomographic images. Each tomographic image is divided into regions with respect to the XY plane, and the tomographic image 301 is composed of regions 3011, 3012, ..., 301 m. m is the total number of areas per tomographic image.
  • the depth dependence 310 of the striped pattern sharpness shown in FIG. 8 indicates the striped pattern sharpness of the tomographic image at each depth.
  • An example of striped pattern sharpness at each depth is the average value of OCL. If it is a tomographic image 301, it corresponds to a value obtained by averaging the OCL values for each area 3011 to 301 m.
  • the striped pattern sharpness has a maximum value at depths 312 and 313, which correspond to the average depth of the interface between air and epidermis and between epidermis and dermis, respectively.
  • depths 312 and 313 correspond to the average depth of the interface between air and epidermis and between epidermis and dermis, respectively.
  • the dermis fingerprint can be extracted according to the first and second embodiments.
  • FIG. 9 is a flowchart illustrating a process of extracting an authentication image according to a third embodiment of the present invention.
  • the authentication image extraction device 11 in the third embodiment performs step S101 in the same manner as in the first embodiment.
  • the authentication image extraction device 11 determines the search range of the depth in which the striped pattern exists (step S301).
  • the means for determining the search depth there is a method of using the depth at which the average value of OCL is the maximum value, but this is not the case.
  • the authentication image extraction device 11 extracts the three-dimensional luminance data within the range of the search depth determined in step S301 (step S302).
  • the authentication image extraction device 11 in the third embodiment performs the same processing as in the first embodiment from step S102 to step S108.
  • the authentication image extraction system of the third embodiment can acquire two types of fingerprints, an epidermal fingerprint and a dermis fingerprint, by limiting the range of the search depth.
  • the process of adaptively changing the range of the region divided into the XY planes by the finger to be recognized in the first to third embodiments is presented.
  • OCL is a quantity indicating that the striped pattern in the region is unidirectional, but when the range of the region is excessively expanded, the fingerprint in the region is not a striped pattern in one direction. On the contrary, when the range of the area is narrowed, the striped pattern disappears. Since the interval of the striped pattern varies from person to person, it is desirable that the interval can be adaptively changed by the finger to be recognized, not by a fixed range. Therefore, in the fourth embodiment, after estimating the spatial frequency of the fingerprint, the range of the region to be divided into the XY planes is determined, and the fingerprint extraction processing of the first to third embodiments is performed.
  • FIG. 10 is a diagram illustrating an operation of estimating the spatial frequency of a fingerprint according to a fourth embodiment of the present invention.
  • the tomographic image 400 showing the fingerprint shown in FIG. 10 shows a tomographic image of the corresponding depth after roughly estimating the depth at which the fingerprint exists.
  • a method for roughly estimating the depth a method for selecting a depth having a maximum OCL average value, a method having a maximum average brightness of a tomographic image, and the like as described in the third embodiment, etc. Can be mentioned.
  • the frequency image 410 is formed by Fourier transforming the tomographic image 400.
  • a ring 412 can be confirmed around the pixel 411 in the center of the image, and this ring corresponds to the spatial frequency of the fingerprint.
  • the frequency characteristic 420 is shown as a distance from the pixel 411 by averaging the pixel values belonging to the same distance from the pixel 411 in the center of the frequency image 410.
  • the probability shows the maximum value at the spatial frequency 422, and corresponds to the radius from the pixel 411 to the ring 412 in the center of the frequency image 410. In this way, it is possible to identify the spatial frequency 422 of the fingerprint. If the range of the region is specified so that a plurality of stripes are inserted based on the spatial frequency 422, adaptive operation becomes possible according to the fingers having different stripe intervals.
  • FIG. 11 is a flowchart illustrating a process of extracting an authentication image according to a fourth embodiment of the present invention.
  • the authentication image extraction device 11 in the fourth embodiment performs step S101 in the same manner as in the first embodiment.
  • the authentication image extraction device 11 calculates the spatial frequency of the fingerprint (step S401).
  • a means for calculating the spatial frequency of the fingerprint there is a method of roughly specifying the depth at which the fingerprint exists and then acquiring the spatial frequency of the tomographic image at that depth by using the Fourier transform, but the present invention is not limited to this.
  • the authentication image extraction device 11 determines the division range of the region to be divided on the XY plane based on the spatial frequency determined in step S401, and divides the three-dimensional luminance data into the region with respect to the XY plane (step S402). ).
  • the authentication image extraction device 11 in the fourth embodiment performs the same processing as in the first embodiment from step S103 to step S108.
  • the authentication image extraction system of the fourth embodiment performs a process of adaptively setting the range of the region to be divided into the XY surfaces after acquiring the spatial frequency of the fingerprint of the finger to be recognized. As a result, it is possible to stably extract a clear fingerprint image for fingers having different fingerprint frequencies.
  • the present invention has been described as a hardware configuration, but the present invention is not limited thereto.
  • the present invention can also realize the processing of each component by causing a CPU (Central Processing Unit) to execute a computer program.
  • a CPU Central Processing Unit
  • FIG. 12 is a diagram showing an example of the hardware configuration included in the authentication image extraction device 11.
  • the device 500 shown in FIG. 12 includes a processor 501 and a memory 502 together with an interface 503.
  • the authentication image extraction device 11 described in the above-described embodiment is realized by the processor 501 reading and executing the program stored in the memory 502. That is, this program is a program for causing the processor 501 to function as the authentication image extraction device 11 shown in FIG. 1 or a part thereof. It can be said that this program is a program for causing the authentication image extraction device 11 shown in FIG. 1 to execute processing in the authentication image extraction device 11 or a part thereof.
  • Non-temporary computer-readable media include various types of tangible storage media.
  • Examples of non-transitory computer-readable media include magnetic recording media (eg, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (eg, magneto-optical disks).
  • this example includes a CD-ROM (Read Only Memory), a CD-R, and a CD-R / W.
  • semiconductor memories eg, mask ROM, PROM, EPROM, flash ROM, RAM.
  • the program may also be supplied to the computer by various types of temporary computer readable media. Examples of temporary computer-readable media include electrical, optical, and electromagnetic waves.
  • the temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
  • the present invention may also take a form as a processing method.
  • a fine-tuning means for selecting the corrected depth that is closest to the corrected depth and the stripe pattern sharpness is an extreme value.
  • a processing device comprising.
  • (Appendix 2) A means for calculating the difference amount between the coarse adjustment depth information indicating the corrected depth and the fine adjustment depth information indicating the selected depth for each region. When the difference amount is equal to or greater than the threshold value, The coarse-tuning means re-corrects the modified depth based on the depth of the other regions located around each of the plurality of regions. The fine-tuning means reselects the re-corrected depth to a depth that is closest to the re-corrected depth and has extreme stripe sharpness. A means for calculating the difference amount between the re-coarse adjustment depth information indicating the re-corrected depth and the re-fine adjustment depth information indicating the re-selected depth for each region. Further provided is a means for extracting an image having the brightness based on the reselected depth when the difference amount falls below the threshold value.
  • the processing apparatus according to Appendix 1.
  • Appendix 3 A means for limiting the calculation of the depth dependence of the striped pattern sharpness to a specified depth is provided. Any processing apparatus according to Appendix 1 or 2.
  • the striped pattern sharpness indicates the uniformity of the brightness of each bright and dark part of the striped area in the region.
  • the coarse adjustment means uses a median filter.
  • the processing apparatus according to any one of Appendix 1 to 9.
  • the coarse adjustment means uses a bilateral filter.
  • the processing apparatus according to any one of Appendix 1 to 9.
  • the coarse adjustment means uses a filter for spatial frequency.
  • the processing apparatus according to any one of Appendix 1 to 9.
  • Appendix 13 A device that acquires 3D tomographic brightness data indicating the recognition target, The processing apparatus according to any one of Appendix 1 to 12 is provided. Acquire a tomographic image having a striped pattern inside the recognition target. system.
  • Appendix 14 A device that acquires 3D tomographic brightness data indicating the living body to be recognized, and The processing apparatus according to any one of Appendix 1 to 12 and A processing device for collating a tomographic image having a striped pattern inside the recognition target with image data linked to personal information is provided. An individual is identified by comparing the tomographic image and the image data. Biometric authentication system.

Abstract

3次元断層撮像画像から2次元の画像を取得し、認証精度の高い画像及び高速な画像の抽出が可能な処理装置を提供する。処理装置(11)は、認証対象を示す3次元輝度データ(100)から、前記認証対象の深さ方向に対して垂直な平面上の複数の領域(120b)において縞模様鮮明度の深度依存性(110a)を算出する手段と、前記縞模様鮮明度の深度依存性(111b)において前記縞模様鮮明度が最大値である深度(112b)を算出する手段と、前記複数の領域(120b)のそれぞれの周囲に位置する他の領域(120a)の深度(112a)に基づき、前記算出した深度(112b)を修正する粗調整手段と、前記修正した深度(130b)を、前記修正した深度に最も近く、前記縞模様鮮明度が極値である深度(113)を、選択する微調整手段と、前記選択された深度(113)に基づき、輝度を有する画像を抽出する手段とを備える。

Description

処理装置、システム、生体認証システム、処理方法、及びコンピュータ可読媒体
 本開示は、認証精度向上を目的とした処理装置、システム、生体認証システム、処理方法及びコンピュータ可読媒体に関する。
 測定対象物の表面近傍の断層撮像を行う技術として、光コヒーレンス・トモグラフィー(Optical Coherence Tomography: OCT)技術がある。当該OCT技術では、光ビームを測定対象物に照射した際の測定対象物の内部からの散乱光(以下、「後方散乱光」とも称する)と参照光との干渉を利用して、測定対象物の表面近傍の断層撮像を行う。近年、当該OCT技術の医療診断や工業製品検査への適用が拡大している。
 OCT技術は、これまでに、眼科診断における眼底の断層撮像装置として実用化されると共に、生体の様々な部位に対する非侵襲の断層撮像装置として適用検討が進められている。本開示では、OCT技術を活用した真皮指紋読取の技術に着目する。
 指紋を生体情報として利用する技術として、表皮指紋の2次元の画像データによる生体認証技術が広く利用されている。一方で、OCT技術で取得した指の断層撮像データは3次元の位置における輝度データである。すなわち、OCT技術で取得したデータを従来の画像に基づいた指紋認証に利用するためには、3次元の断層撮像データから指紋の特徴を有する2次元の画像を抽出する必要がある。
 本発明に関連して、非特許文献1及び2では指の断層撮像データにおいて、深さ方向に対し一定範囲内の断層輝度画像を平均化することで真皮指紋画像を取得していた。ただし、一定の範囲の値については真皮指紋を視認可能な深さを仮定し、固定値を使用していた。
 特許文献1では、断層画像の各画素に対して深度方向の輝度変化を調べ、輝度が2番目に高い値をとる深度を、真皮指紋を視認可能な深度として選択することで、その深度及び輝度の画像を真皮指紋画像として使用していた。
 非特許文献3では、表皮及び真皮指紋画像に対して、小領域における指紋模様の一方向性を示すOCL(Orientation Certainty Level)を算出する。そして、OCLの値を元に表皮及び真皮指紋画像を融合することで、小領域ごとの画像を決定していた。
米国特許出願公開第2017/0083742号
A.Bossen, R. Lehmann and C. Meier, "Internal fingerprint identification with optical coherence tomography", IEEE Photonics Technology Letters, vol.22, no.7, 2010 M.Liu and T. Buma, "Biometric mapping of fingertip eccrine glands with optical coherence tomography", IEEE Photonics Technology Letters, vol.22, no.22, 2010 L. Darlow and J. Connan, "Efficient internal and surface fingerprint extraction and blending using optical coherence tomography", Applied Optics, Vol. 54, No. 31, (2015) E. Lim, et. al., "Fingerprint image quality analysis", ICIP 2004, vol. 2, 1241-1244, (2004) E. Lim, X. Jiang and W. Yau, "Fingerprint quality and validity analysis", ICIP 2002, vol. 1, 469-472, (2002) T. Chen X. Jiang and W. Yau, "Fingerprint image quality analysis", ICIP 2004, vol. 1, 1253-1256, (2004)
 上述の非特許文献1及び2では、固定した深度の範囲の断層輝度画像に対し平均化処理を行うため、表皮厚の個人差が考慮されない。例えば、職業の都合上、表皮が摩耗している、もしくは厚い場合には、真皮指紋を明確に視認可能な深度から外れた範囲で平均化する可能性があり、鮮明な真皮指紋画像の取得が困難である。更に、真皮指紋の明瞭に見える表皮と真皮の界面は深度方向に歪むことが多いため、一律な深度で抽出した指紋画像は局所的にぼやける可能性がある。
 上述の特許文献1では、断層画像の画素単位で真皮指紋の明確に見える深度を判定するため、OCT技術の測定装置本体等に起因するノイズによる影響を受けやすく、誤った深度を判定する可能性が高い。更に、断層画像の画素単位で深度の判定処理を行うため、真皮指紋画像を抽出するまでに時間を要する。
 上述の非特許文献3では、表皮及び真皮指紋の2枚の画像から指紋画像を得る手法を説明しており、本開示に記載する深度方向に連続した複数枚の断層画像から最適な指紋画像を得る手法とは異なる。更に、深度方向に連続した断層画像において、領域に分割した後で算出するOCLは一般的にノイズの影響を受けやすく、最適ではない深度を誤選択する可能性が高い。
 本開示の目的は、上述した課題のいずれかを解決する処理装置、システム、生体認証システム、処理方法、及びコンピュータ可読媒体を提供することにある。
 本開示に係る処理装置は、
 認証対象を示す3次元輝度データから、前記認証対象の深さ方向に対して垂直な平面上の複数の領域において縞模様鮮明度の深度依存性を算出する手段と、
 前記縞模様鮮明度の深度依存性において前記縞模様鮮明度が最大値である深度を算出する手段と、
 前記複数の領域のそれぞれの周囲に位置する他の領域の深度に基づき、前記算出した深度を修正する粗調整手段と、
 前記修正した深度を、前記修正した深度に最も近く、前記縞模様鮮明度が極値である深度を、選択する微調整手段と、
 前記選択された深度に基づき、輝度を有する画像を抽出する手段と、を備える。
 本開示に係る処理方法は、
 認証対象を示す3次元輝度データから、前記認証対象の深さ方向に対して垂直な平面上の複数の領域において縞模様鮮明度の深度依存性を算出するステップと、
 前記縞模様鮮明度の深度依存性において前記縞模様鮮明度が最大値である深度を算出するステップと、
 前記複数の領域のそれぞれの周囲に位置する他の領域の深度に基づき、前記算出した深度を修正するステップと、
 前記修正した深度を、前記修正した深度に最も近く、前記縞模様鮮明度が極値である深度を、選択するステップと、
 前記選択された深度に基づき、輝度を有する画像を抽出するステップと、を備える。
 本開示に係る、プログラムが格納された非一時的なコンピュータ可読媒体は、
 コンピュータに、
 認証対象を示す3次元輝度データから、前記認証対象の深さ方向に対して垂直な平面上の複数の領域において縞模様鮮明度の深度依存性を算出するステップと、
 前記縞模様鮮明度の深度依存性において前記縞模様鮮明度が最大値である深度を算出するステップと、
 前記複数の領域のそれぞれの周囲に位置する他の領域の深度に基づき、前記算出した深度を修正するステップと、
 前記修正した深度を、前記修正した深度に最も近く、前記縞模様鮮明度が極値である深度を、選択するステップと、
 前記選択された深度に基づき、輝度を有する画像を抽出するステップと、を実行させる。
 本開示によれば、3次元断層撮像画像から2次元の画像を取得し、認証精度の高い画像及び高速な画像の抽出が可能な処理装置、システム、生体認証システム、処理方法及びコンピュータ可読媒体を提供することができる。
実施の形態に係る指紋画像抽出処理装置を例示するブロック図である。 実施の形態に係るシステムを例示するブロック図である。 第1の実施の形態に係る、領域における縞模様鮮明度に基づき指紋画像を抽出する動作を例示する図である。 第1の実施の形態に係る、乖離した深度の修正及び縞模様鮮明度の局所最適値の選択により抽出深度を最適化する動作を例示する図である。 第1の実施の形態に係る指紋画像を抽出する処理を例示するフローチャートである。 第2の実施の形態に係る、乖離した深度の修正処理を反復することで指紋画像を抽出する動作を例示する図である。 第2の実施の形態に係る指紋画像を抽出する処理を例示するフローチャートである。 第3の実施の形態に係る、探索深度の範囲を限定した後で指紋画像を抽出する動作を例示する図である。 第3の実施の形態に係る指紋画像を抽出する処理を例示するフローチャートである。 第4の実施の形態に係る、指紋の空間周波数を推定する処理の動作を例示する図である。 第4の実施の形態に係る認証用画像を抽出する処理を例示するフローチャートである。 認証画像抽出装置に含まれるハードウェア構成の一例を示す図である。
 以下、図面を参照して本発明の実施の形態について説明する。
 図1に示すように、実施の形態に係る認証用画像抽出装置11は、指紋などの認証に使用する画像等を抽出する装置であり、以降の実施形態の説明において詳細を記す。図2に示すように、実施の形態に係るシステム10は、測定装置12と、平坦化装置13と、認証用画像抽出装置11と、認証装置14とを備える。
 測定装置12は、OCT技術を含む、認証される認証対象の3次元空間上の輝度を示す3次元断層輝度データを取り込む。認証対象は、特に限定されず、多種多様なものであるが、その一具体例は、生体の一部位である。より具体的な一例として、手の指が挙げられる。平坦化装置13は、測定装置12で取得した3次元断層輝度データに対して認証対象の深度方向の湾曲を平坦化する。測定装置12が非接触もしくはガラス面等に押し付けて認証対象、例えば、指紋を取得する装置であっても認証対象の丸みは残るため、平坦化装置13は、認証用画像の抽出処理前に認証対象の深度方向の湾曲を平坦化し、3次元輝度データを生成する。認証装置14は、抽出された認証用画像を用いて認証を実施する。認証装置14は、例えば、指紋画像を用いて生体認証を実施する。具体的には、認証装置14は、断層画像と、個人情報に紐づいた画像データとを照合し、断層画像と画像データとを比較して個人を特定する。図1に示すシステム10は、生体の認証を行うことができる。
 以降の実施の形態の説明では、認証対象は、手の指である。また、指の表皮から皮膚内部の深さを深度と表記し、その深度方向に垂直な面をXY面と表記し、XY面の輝度画像を断層画像と表記する。
(第1の実施形態)
 図3は、第1の実施の形態に係る、領域における縞模様鮮明度に基づき指紋画像を抽出する動作を例示する図である。言い換えると、図3は、本発明の第1の実施形態に係る、縞模様鮮明度の深度依存性により認証用画像を抽出する処理の動作を例示する図である。測定装置12から平坦化装置13を経て出力されたデータは、3次元空間上の各位置における輝度を示し、図3に示される断層画像群100に示すように、各深度における断層画像101、102、…10k、…、10nとして表せる。kは自然数であり、nは断層画像の総枚数である。断層画像はXY面で複数の領域に分割されており、領域101a、101bは断層画像101に属する領域を意味する。
 手の指における表皮指紋及び真皮指紋は、それぞれ空気と表皮の界面、表皮と真皮の界面で最も明確に示される。そこで、本願では、各種指紋を抽出する深度として、断層画像の縞模様鮮明度が高い値を有する深度を選択する。更に、先述の空気、表皮及び真皮の界面が深度方向に歪む可能性を考慮して、3次元輝度データをXY面で所定の領域に分割し、各領域で縞模様鮮明度の高い値を有する深度を選択する方法をとる。
 ここで縞模様鮮明度とは、非特許文献3で使用されたOCL(Orientation Certainty Level)等、画像内の明暗で形成される縞が複数存在し、同様の形であることを示す特徴量のことを意味する。縞模様鮮明度の例として、OCL、RVU(Ridge Valley Uniformity)、FDA(Frequency Domain Analysis)、LCS(Local Clarity Score)が挙げられる。当該OCLは、非特許文献4に開示されている。当該RVUは、小領域内における明暗の縞の幅について一様性を示す。当該FDAは、非特許文献5に開示の小領域内の縞模様の単一周波数性を示す。当該LCSは、非特許文献6に開示の小領域内の縞の明暗部ごとの輝度の一様性を示す。他の縞模様鮮明度の例として、周囲の小領域との縞の方向について連続性を示すOFL(Orientation FLow)が挙げられる。これらの評価指標を組み合わせて縞模様鮮明度として定義しても良い。
 図3に示される縞模様鮮明度の深度依存性110a、110bは、断層画像101から10nまでに対して、領域101a、101bと同じXY面の領域における縞模様鮮明度を計算し、深度依存性としてグラフに示したものである。グラフ111aでは縞模様鮮明度の最大値が深度112aに存在し、グラフ111bでは縞模様鮮明度の最大値が深度112bに存在する。
 図4は、第1の実施の形態に係る、乖離した深度の修正及び縞模様鮮明度の局所最適値の選択により抽出深度を最適化する動作を例示する図である。言い換えると、図4は、本発明の第1の実施形態に係る、領域における選択深度の最適化の動作を説明する図である。図4に示される深度画像120、130、140は、分割した領域で選択された深度を画素とする深度画像を示している。
 深度画像120は、図3に示されるグラフ111aにおける深度112aを示す画素120aと、グラフ111bにおける深度112bを示す画素120bとを含む。また、同様に他の領域に対しても縞模様鮮明度の最大値をとる深度を、画素に当てはめた例を示している。
 ここで、画素120bに対応する領域の深度112bは、画素120bに対応する領域の周囲の画素の深度と格段に差異がある。複数の領域に分割して特徴量を計算する際には、測定器等からのノイズの影響を十分に抑えることが難しく、例えば、グラフ111bのように画素120bに対応する領域において、縞模様鮮明度の最大値をとる深度を深度112bとした。しかし、深度113が深度112aに近く、各種指紋を抽出する深度として、正確な値と考えられる。よって、縞模様鮮明度の最大値をとる深度を深度112bとすると、誤差が生じる。そこで本願では、皮膚構造における界面の深度方向の歪み、又は変位が連続する傾向にあることに着目して、周囲の深度と同じ、又は近い深度を選択するように、その領域の周囲に位置する他の領域の深度から乖離した深度を修正する処理を施す。周囲の領域の深度と乖離した当該領域の深度を修正する手段として、メディアンフィルタ、バイラテラルフィルタ等の画像処理、ローパスフィルタ、ウィナーフィルタ等の空間周波数を利用したフィルタが例として挙げられる。
 図4に示される深度画像130は、深度画像120に対して乖離した深度を修正する処理を掛けた例を示しており、画素130bが示す深度は、その周囲の深度と同等の値へと変換されている。この例では、画素130bが示す深度は、画素130aと同じ深度112aに変換された。ここで、画素130bが示す深度は、周囲の深度と同様の値であるが、縞模様鮮明度の最適な深度でない。そこで、グラフ111bにおいて深度112a周囲で縞模様鮮明度が極大値となる深度113を選択することで、深度の微調整を施す。
 図4に示される深度画像140は、深度画像130に対して、縞模様鮮明度の深度依存性を再利用し、最適な深度の微調整を施した結果である。深度113を選択し、画素140bの深度は、深度113と同じ深度に変換されている。
 図5は本発明の第1の実施形態に係る指紋画像を抽出する処理を例示するフローチャートである。
 認証用画像抽出装置11は、3次元輝度データを取得する(ステップS101)。認証用画像抽出装置11は、3次元輝度データをXY面に対して複数の領域に分割する(ステップS102)。なお、この複数の領域の形状は、多種多様であり、格子状でなくても構わない。
 認証用画像抽出装置11は、各領域において縞模様鮮明度の深度依存性を算出する(ステップS103)。なお、縞模様鮮明度は先述のように画像内の明暗で形成される縞が複数存在し、同様の形であることを示す特徴量のことを示し、例としてOCLが挙げられる。
 認証用画像抽出装置11は、各領域において縞模様鮮明度の最大値を有する深度を選択する(ステップS104)。認証用画像抽出装置11は、周囲の領域における深度に対して乖離した深度を、この選択された深度に修正する(ステップS105)。なお、乖離した深度の修正方法は、深度画像であれば、例えば、メディアンフィルタのような処理が挙げられる。
 認証用画像抽出装置11は、各領域において縞模様鮮明度が極値を持つ深度、かつ選択深度から最近接する深度を選択する(ステップS106)。認証用画像抽出装置11は、領域に分割された深度情報を、指紋画像と同じ解像度まで変換し、深度情報を平滑化する(ステップS107)。認証用画像抽出装置11は、二階調化や細線化等の生体認証に向けた画像の調整処理を行う(ステップS108)。
 このように、第1の実施形態の認証用画像抽出システムは、指の3次元輝度データをXY面の領域ごとに分割し、縞模様鮮明度を利用して抽出深度を最適化する。さらに、当該認証用画像抽出システムは、乖離した深度の修正処理による深度の粗調整、及び縞模様鮮明度の極値選択による深度の微調整により、明瞭な指紋画像を高速に抽出できる。その結果、非特許文献1、2の手法と比較して、表皮厚の個人差に対し適応的に画像抽出が可能であり、皮膚構造界面の深度方向の歪みに対応可能である。
 更に、特許文献1に開示された単一画素による深度判定ではなく、複数の画素を有する画像の縞模様鮮明度から判定するためノイズ耐性が高く、データ処理単位も領域の数であるため高速な処理が可能となる。
 また、乖離した深度を修正する処理を加えることで、ノイズの寄与を受けやすい領域での深度最適化に対して、明瞭な指紋画像を安定的に抽出可能とする。
(第2の実施形態)
 第2の実施形態では、第1の実施形態における乖離した深度の修正処理を繰り返すことで、明瞭な指紋画像の抽出を安定化させる処理を提示する。図6は本発明の第2の実施形態に係る、深度画像の修正処理の動作を例示する図である。すなわち、図6は、第2の実施の形態に係る、乖離した深度の修正処理を反復することで指紋画像を抽出する動作を例示する図である。
 図6に示される深度画像200は、第1の実施形態における深度画像120と同様に、各領域で縞模様鮮明度の最大値をとる深度を選択した後の深度画像を示している。深度画像200は、深度画像120とは異なり、乖離した深度の領域の画素数が多いため、深度の修正処理を一度施しただけでは、乖離した深度が残留する可能性がある。そこで、乖離した深度の修正処理と、選択深度から最近接する縞模様鮮明度の極値有する深度を選択する処理を繰り返し施すことで、乖離した深度の画素が多い場合でも安定的な指紋画像の抽出処理を可能とする。
図6に示される深度画像210は、乖離した深度の修正処理を一度施した場合であり、画素200aは、例えば、画素210aのように、周囲の画素と同じ水準の深度値を示すように修正できる。しかし、例えば、画素210bのように、周囲から乖離した深度を示す画素が残留する。そこで、再度乖離した深度の修正処理、及び最近接する縞模様鮮明度の極値を有する深度を選択する処理を加え、深度画像220を得ることで、画素210bを画素220bのように周囲と同等の深度とできる。
 図7は本発明の第2の実施形態に係る指紋画像を抽出する処理を例示するフローチャートである。図7に示すように、ステップS101からステップS104までは、第1の実施形態と同様に行う。なお、図7及び、フローチャートを示す他の図9、11において実線で示された矢印は、処理方法のフローを示す。同図において点線で示された矢印は、画像などのデータのフローを補足して示すものであり、処理方法のフローを示すものではない。
 ステップS104の後、認証用画像抽出装置11は、ステップS104乃至ステップS203により出力された深度画像を保持する(ステップS201)。ステップS201で保持した深度画像に対して、第1の実施形態と同様にステップS105及びステップS106の処理を加える。
 ステップS106の後、認証用画像抽出装置11は、ステップS201にて保持した深度画像と、ステップS106の後の深度画像の差分を算出する(ステップS202)。2つの深度画像の差を算出する手段であれば、方法は問わない。
 認証用画像抽出装置11は、ステップS202にて算出した差分値が閾値を下回った場合(ステップS203:Yes)、乖離した深度の修正処理を終える。認証用画像抽出装置11は、ステップS202にて算出した差分値が閾値以上の場合(ステップS203:No)、ステップS201に戻り乖離した深度の修正処理を繰り返す。認証用画像抽出装置11は、ステップS203の後、第1の実施形態と同様にステップS107とステップS108を施す。
 このように、第2の実施形態の認証用画像抽出システムは、第1の実施形態に加え、乖離した深度の修正処理による深度の粗調整、及び縞模様鮮明度の極値を有する深度の選択による深度の微調整を繰り返す。その結果、深度の乖離する領域数が多い場合であっても、明瞭な指紋画像の安定的な抽出を可能にする。
(第3の実施形態)
 第3の実施形態では、第1乃至2の実施形態において対象とする深度の探索範囲を限定することで、表皮指紋及び真皮指紋を抽出する処理を提示する。一般的に指の3次元輝度データに対して、空気と表皮、表皮と真皮の界面の深度において、縞模様鮮明度は極大値をとり、それぞれ表皮指紋及び真皮指紋に対応する。第1乃至2の実施形態では、一つの極大値に収束する形態であり、2つの指紋画像を取得することができない。そのため、本実施形態では探索範囲をそれぞれ限定することで、2つの指紋画像を抽出する方法を説明する。
 図8は、本発明の第3の実施形態に係る、抽出深度の探索範囲を限定した後で指紋画像を抽出する動作を例示する図である。図8に示される断層画像群300は、各深度における断層画像301、302、…、30k、…、30nから構成される。kは自然数であり、nは断層画像の総枚数である。各断層画像はXY面に対して領域に分割されており、断層画像301は領域3011、3012、…、301mから構成される。mは断層画像1枚当たりの領域の総数である。
 図8に示される縞模様鮮明度の深度依存性310は、各深度における断層画像の縞模様鮮明度を示している。各深度における縞模様鮮明度の例として、OCLの平均値が挙げられる。断層画像301であれば、領域3011から301mごとのOCL値に対して平均をとった値に対応する。
 グラフ311では、深度312、313において縞模様鮮明度が極大値を有しており、それぞれ空気と表皮、表皮と真皮の界面の平均的な深度に対応する。例えば、深度312と313の中央値にあたる深度314から深い方向へ探索範囲を限定することで、第1乃至2の実施形態により真皮指紋の抽出が可能である。
 このように断層画像ごとに平均的な縞模様鮮明度を算出し比較することで、表皮、真皮指紋画像に対応する大まかな深度を推定し、各指紋画像を抽出することが可能である。断層画像の縞模様鮮明度を算出する手法として、OCLの平均値を用いて説明したが、縞模様鮮明度の他、輝度の極大値を用いても良い。
 図9は本発明の第3の実施形態に係る認証用画像を抽出する処理を例示するフローチャートである。第3の実施形態における認証用画像抽出装置11は、第1の実施形態と同様にステップS101を行う。続いて、認証用画像抽出装置11は、縞模様の存在する深度の探索範囲を決定する(ステップS301)。探索深度を決定する手段の例として、先述のOCLの平均値が極大値をとる深度を利用する方法が挙げられるが、この限りではない。
 続いて、認証用画像抽出装置11は、ステップS301で決定した探索深度の範囲で3次元輝度データを抽出する(ステップS302)。第3の実施形態における認証用画像抽出装置11は、ステップS102からステップS108まで第1の実施形態と同様の処理を行う。
 このように、第3の実施形態の認証用画像抽出システムは、探索する深度の範囲を限定することで、表皮指紋及び真皮指紋の2種の指紋を別々に取得できる。
(第4の実施形態)
 第4の実施形態では、第1乃至3の実施形態においてXY面に分割する領域の範囲を、認識対象の指によって適応的に変更する処理を提示する。例えば、OCLは領域内の縞模様が一方向であることを示す量であるが、領域の範囲を過度に広げた場合、領域内の指紋は一方向の縞模様ではなくなる。逆に領域の範囲を狭めた場合、縞模様は消失する。縞模様の間隔は個人によって異なるため、固定的な範囲ではなく、認識対象の指によって適応的に変更できることが望ましい。そこで、第4の実施形態では、指紋の空間周波数を推定した後で、XY面に分割する領域の範囲を決定し、第1乃至3の実施形態の指紋抽出処理を施す。
 図10は、本発明の第4の実施形態に係る、指紋の空間周波数を推定する動作を例示する図である。図10に示される指紋を示す断層画像400は、指紋の存在する深度を大まかに推定した後で、該当する深度の断層画像を示したものである。大まかに深度を推定する方法の例として、第3の実施形態に記載したような、OCL平均値が極大値を持つ深度、断層画像の輝度の平均値が極大値を持つ深度を選択する方法等が挙げられる。
 周波数画像410は、断層画像400をフーリエ変換して形成されたものである。周波数画像410では、画像中央の画素411周辺にリング412を確認することができ、このリングが指紋の空間周波数に対応する。
 周波数特性420は、周波数画像410中央の画素411から等距離に属する画素値を平均し、画素411からの距離として図示したものである。
 グラフ421では、空間周波数422において確率が極大値を示し、周波数画像410中央の画素411からリング412までの半径に対応する。このようにして、指紋の空間周波数422を特定することが可能である。この空間周波数422を元に複数本の縞が入るように領域の範囲を指定すれば、縞の間隔の異なる指に応じて適応的な動作が可能となる。
 図11は本発明の第4の実施形態に係る認証用画像を抽出する処理を例示するフローチャートである。第4の実施形態における認証用画像抽出装置11は、第1の実施形態と同様にステップS101を行う。認証用画像抽出装置11は、指紋の空間周波数を算出する(ステップS401)。指紋の空間周波数の算出手段として、指紋の存在する深度を大まかに特定した後で、その深度における断層画像の空間周波数をフーリエ変換を用いて取得する方法が挙げられるが、この限りではない。
 認証用画像抽出装置11は、ステップS401で決定した空間周波数を元に、XY面上で分割する領域の分割範囲を決定し、3次元輝度データをXY面に対して領域に分割する(ステップS402)。第4の実施形態における認証用画像抽出装置11は、ステップS103からステップS108まで第1の実施形態と同様の処理を行う。
 このように、第4の実施形態の認証用画像抽出システムは、認識対象の指の指紋の空間周波数を取得した後で、XY面に分割する領域の範囲を適応的に設定する処理を施す。その結果、指紋周波数の違う指に対して明瞭な指紋画像を安定的に抽出することが可能となる。
(他の実施の形態等)
 なお、上記の第1から第4までの実施の形態では、本発明をハードウェアの構成として説明したが、本発明はこれに限定されるものではない。本発明は、各構成要素の処理を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。
 例えば、上記実施の形態に係る認証用画像抽出装置11は、次のようなハードウェア構成を備えることができる。図12は、認証用画像抽出装置11に含まれるハードウェア構成の一例を示す図である。
 図12に示す装置500は、インタフェース503とともに、プロセッサ501及びメモリ502を備える。上述した実施の形態で説明した認証用画像抽出装置11は、プロセッサ501がメモリ502に記憶されたプログラムを読み込んで実行することにより実現される。つまり、このプログラムは、プロセッサ501を、図1に示す認証用画像抽出装置11又はその一部として機能させるためのプログラムである。このプログラムは、図1に示す認証用画像抽出装置11に、認証用画像抽出装置11又はその一部における処理を実行させるためのプログラムであると言える。
 上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータ(情報通知装置を含むコンピュータ)に供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)を含む。さらに、この例は、CD-ROM(Read Only Memory)、CD-R、CD-R/Wを含む。さらに、この例は、半導体メモリ(例えば、マスクROM、PROM、EPROM、フラッシュROM、RAM)を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 さらに、上述した様々な実施の形態において、認証用画像抽出装置11における処理の手順を説明したように、本発明は処理方法としての形態も採り得る。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
 認証対象を示す3次元輝度データから、前記認証対象の深さ方向に対して垂直な平面上の複数の領域において縞模様鮮明度の深度依存性を算出する手段と、
 前記縞模様鮮明度の深度依存性において前記縞模様鮮明度が最大値である深度を算出する手段と、
 前記複数の領域のそれぞれの周囲に位置する他の領域の深度に基づき、前記算出した深度を修正する粗調整手段と、
 前記修正した深度を、前記修正した深度に最も近く、前記縞模様鮮明度が極値である深度を、選択する微調整手段と、
 前記選択された深度に基づき、輝度を有する画像を抽出する手段と、
を備える処理装置。
(付記2)
 前記修正された深度を示す粗調整深度情報と、前記選択された深度を示す微調整深度情報との差分量を領域ごとに算出する手段と、
 前記差分量が閾値以上である場合、
 前記粗調整手段が、前記複数の領域のそれぞれの周囲に位置する他の領域の深度に基づき、前記修正された深度を再修正して、
 前記微調整手段が、前記再修正した深度を、前記再修正した深度に最も近く、前記縞模様鮮明度が極値である深度に再選択して、
 前記再修正された深度を示す再粗調整深度情報と、前記再選択された深度を示す再微調整深度情報との差分量を領域ごとに算出する手段と、
 前記差分量が閾値を下回った場合、前記再選択された深度に基づき、前記輝度を有する画像を抽出する手段と、をさらに備える、
付記1に記載の処理装置。
(付記3)
 前記縞模様鮮明度の深度依存性の算出を、指定した深度に限定する手段を備える、
付記1又は2に記載のいずれかの処理装置。
(付記4)
 前記領域の範囲を、前記3次元輝度データから縞模様の空間周波数を決定した上で算出する手段を備える、
付記1~3のいずれか1項に記載の処理装置。
(付記5)
 前記縞模様鮮明度は、前記領域における縞模様の一方向性を示す、
付記1~4のいずれか1項に記載の処理装置。
(付記6)
 前記縞模様鮮明度は、前記領域における空間周波数の単一性を示す、
付記1~4のいずれか1項に記載の処理装置。
(付記7)
 前記縞模様鮮明度は、前記領域における縞の明暗部ごとの輝度の一様性を示す、
付記1~4のいずれか1項に記載の処理装置。
(付記8)
 前記縞模様鮮明度は、前記領域における明暗の縞の幅に対して一様性を示す、
付記1~4のいずれか1項に記載の処理装置。
(付記9)
 前記縞模様鮮明度は、付記5~8のいずれか1項に記載の縞模様鮮明度の組合せによる、
付記1~4のいずれか1項に記載の処理装置。
(付記10)
 前記粗調整手段は、メディアンフィルタを使用する、
付記1~9のいずれか1項に記載の処理装置。
(付記11)
 前記粗調整手段は、バイラテラルフィルタを使用する、
付記1~9のいずれか1項に記載の処理装置。
(付記12)
 前記粗調整手段は、空間周波数に対するフィルタを使用する、
付記1~9のいずれか1項に記載の処理装置。
(付記13)
 認識対象を示す3次元断層輝度データを取得する装置と、
 付記1~12のいずれか1項に記載の処理装置と、を備え、
 前記認識対象の内部の縞状の文様を有する断層画像を取得する、
システム。
(付記14)
 認識対象である生体を示す3次元断層輝度データを取得する装置と、
 付記1~12のいずれか1項に記載の処理装置と、
 前記認識対象の内部の縞状の文様を有する断層画像と、個人情報に紐づいた画像データとを照合する処理装置とを備え、
 前記断層画像と前記画像データの比較により個人を特定する、
生体認証システム。
(付記15)
 認証対象を示す3次元輝度データから、前記認証対象の深さ方向に対して垂直な平面上の複数の領域において縞模様鮮明度の深度依存性を算出するステップと、
 前記縞模様鮮明度の深度依存性において前記縞模様鮮明度が最大値である深度を算出するステップと、
 前記複数の領域のそれぞれの周囲に位置する他の領域の深度に基づき、前記算出した深度を修正するステップと、
 前記修正した深度を、前記修正した深度に最も近く、前記縞模様鮮明度が極値である深度を、選択するステップと、
 前記選択された深度に基づき、輝度を有する画像を抽出するステップと、を備える処理方法。
(付記16)
 コンピュータに、
 認証対象を示す3次元輝度データから、前記認証対象の深さ方向に対して垂直な平面上の複数の領域において縞模様鮮明度の深度依存性を算出するステップと、
 前記縞模様鮮明度の深度依存性において前記縞模様鮮明度が最大値である深度を算出するステップと、
 前記複数の領域のそれぞれの周囲に位置する他の領域の深度に基づき、前記算出した深度を修正するステップと、
 前記修正した深度を、前記修正した深度に最も近く、前記縞模様鮮明度が極値である深度を、選択するステップと、
 前記選択された深度に基づき、輝度を有する画像を抽出するステップと、を実行させるプログラムが格納された非一時的なコンピュータ可読媒体。
10 システム
11 認証用画像抽出装置
12 測定装置
13 平坦化装置
14 認証装置
100、300 断層画像群
110a、110b、310 縞模様鮮明度の深度依存性
101、102、10k、10n、301、302、30k、30n、400 断層画像
101a、101b、3011、3012、301m 領域
120a、120b、130a、130b、140b、200a、210a、210b、220b、411 画素
111a、111b、311、421 グラフ
112a、112b、113、312、313、314 深度
412 リング
500 装置
501 プロセッサ
502 メモリ
503 インタフェース

Claims (16)

  1.  認証対象を示す3次元輝度データから、前記認証対象の深さ方向に対して垂直な平面上の複数の領域において縞模様鮮明度の深度依存性を算出する手段と、
     前記縞模様鮮明度の深度依存性において前記縞模様鮮明度が最大値である深度を算出する手段と、
     前記複数の領域のそれぞれの周囲に位置する他の領域の深度に基づき、前記算出した深度を修正する粗調整手段と、
     前記修正した深度を、前記修正した深度に最も近く、前記縞模様鮮明度が極値である深度を、選択する微調整手段と、
     前記選択された深度に基づき、輝度を有する画像を抽出する手段と、
    を備える処理装置。
  2.  前記修正された深度を示す粗調整深度情報と、前記選択された深度を示す微調整深度情報との差分量を領域ごとに算出する手段と、
     前記差分量が閾値以上である場合、
     前記粗調整手段が、前記複数の領域のそれぞれの周囲に位置する他の領域の深度に基づき、前記修正された深度を再修正して、
     前記微調整手段が、前記再修正した深度を、前記再修正した深度に最も近く、前記縞模様鮮明度が極値である深度に再選択して、
     前記再修正された深度を示す再粗調整深度情報と、前記再選択された深度を示す再微調整深度情報との差分量を領域ごとに算出する手段と、
     前記差分量が閾値を下回った場合、前記再選択された深度に基づき、前記輝度を有する画像を抽出する手段と、をさらに備える、
    請求項1に記載の処理装置。
  3.  前記縞模様鮮明度の深度依存性の算出を、指定した深度に限定する手段を備える、
    請求項1又は2に記載のいずれかの処理装置。
  4.  前記領域の範囲を、前記3次元輝度データから縞模様の空間周波数を決定した上で算出する手段を備える、
    請求項1~3のいずれか1項に記載の処理装置。
  5.  前記縞模様鮮明度は、前記領域における縞模様の一方向性を示す、
    請求項1~4のいずれか1項に記載の処理装置。
  6.  前記縞模様鮮明度は、前記領域における空間周波数の単一性を示す、
    請求項1~4のいずれか1項に記載の処理装置。
  7.  前記縞模様鮮明度は、前記領域における縞の明暗部ごとの輝度の一様性を示す、
    請求項1~4のいずれか1項に記載の処理装置。
  8.  前記縞模様鮮明度は、前記領域における明暗の縞の幅に対して一様性を示す、
    請求項1~4のいずれか1項に記載の処理装置。
  9.  前記縞模様鮮明度は、請求項5~8のいずれか1項に記載の縞模様鮮明度の組合せによる、
    請求項1~4のいずれか1項に記載の処理装置。
  10.  前記粗調整手段は、メディアンフィルタを使用する、
    請求項1~9のいずれか1項に記載の処理装置。
  11.  前記粗調整手段は、バイラテラルフィルタを使用する、
    請求項1~9のいずれか1項に記載の処理装置。
  12.  前記粗調整手段は、空間周波数に対するフィルタを使用する、
    請求項1~9のいずれか1項に記載の処理装置。
  13.  認識対象を示す3次元断層輝度データを取得する装置と、
     請求項1~12のいずれか1項に記載の処理装置と、を備え、
     前記認識対象の内部の縞状の文様を有する断層画像を取得する、
    システム。
  14.  認識対象である生体を示す3次元断層輝度データを取得する装置と、
     請求項1~12のいずれか1項に記載の処理装置と、
     前記認識対象の内部の縞状の文様を有する断層画像と、個人情報に紐づいた画像データとを照合する処理装置とを備え、
     前記断層画像と前記画像データの比較により個人を特定する、
    生体認証システム。
  15.  認証対象を示す3次元輝度データから、前記認証対象の深さ方向に対して垂直な平面上の複数の領域において縞模様鮮明度の深度依存性を算出するステップと、
     前記縞模様鮮明度の深度依存性において前記縞模様鮮明度が最大値である深度を算出するステップと、
     前記複数の領域のそれぞれの周囲に位置する他の領域の深度に基づき、前記算出した深度を修正するステップと、
     前記修正した深度を、前記修正した深度に最も近く、前記縞模様鮮明度が極値である深度を、選択するステップと、
     前記選択された深度に基づき、輝度を有する画像を抽出するステップと、を備える処理方法。
  16.  コンピュータに、
     認証対象を示す3次元輝度データから、前記認証対象の深さ方向に対して垂直な平面上の複数の領域において縞模様鮮明度の深度依存性を算出するステップと、
     前記縞模様鮮明度の深度依存性において前記縞模様鮮明度が最大値である深度を算出するステップと、
     前記複数の領域のそれぞれの周囲に位置する他の領域の深度に基づき、前記算出した深度を修正するステップと、
     前記修正した深度を、前記修正した深度に最も近く、前記縞模様鮮明度が極値である深度を、選択するステップと、
     前記選択された深度に基づき、輝度を有する画像を抽出するステップと、を実行させるプログラムが格納された非一時的なコンピュータ可読媒体。
PCT/JP2019/030364 2019-08-01 2019-08-01 処理装置、システム、生体認証システム、処理方法、及びコンピュータ可読媒体 WO2021019788A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2019/030364 WO2021019788A1 (ja) 2019-08-01 2019-08-01 処理装置、システム、生体認証システム、処理方法、及びコンピュータ可読媒体
US17/630,228 US20220277498A1 (en) 2019-08-01 2019-08-01 Processing apparatus, system, biometric authentication system, processing method, and computer readable medium
JP2021536594A JP7197017B2 (ja) 2019-08-01 2019-08-01 処理装置、システム、生体認証システム、処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/030364 WO2021019788A1 (ja) 2019-08-01 2019-08-01 処理装置、システム、生体認証システム、処理方法、及びコンピュータ可読媒体

Publications (1)

Publication Number Publication Date
WO2021019788A1 true WO2021019788A1 (ja) 2021-02-04

Family

ID=74228856

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/030364 WO2021019788A1 (ja) 2019-08-01 2019-08-01 処理装置、システム、生体認証システム、処理方法、及びコンピュータ可読媒体

Country Status (3)

Country Link
US (1) US20220277498A1 (ja)
JP (1) JP7197017B2 (ja)
WO (1) WO2021019788A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022196026A1 (ja) * 2021-03-17 2022-09-22 日本電気株式会社 情報処理装置、情報処理方法及び記憶媒体
WO2023119631A1 (ja) * 2021-12-24 2023-06-29 日本電気株式会社 光干渉断層撮像解析装置、光干渉断層撮像解析方法、及び記録媒体
WO2023166616A1 (ja) * 2022-03-02 2023-09-07 日本電気株式会社 画像処理装置、画像処理方法、及び、記録媒体
WO2023181357A1 (ja) * 2022-03-25 2023-09-28 日本電気株式会社 光干渉断層画像生成装置、光干渉断層画像生成方法、及び、記録媒体

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180063244A (ko) 2015-10-05 2018-06-11 비브이더블유 홀딩 에이쥐 마이크로구조 표면을 가지는 직물 및 직물을 포함하는 의류

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015026228A (ja) * 2013-07-26 2015-02-05 株式会社日立製作所 血管画像撮影装置及び端末
WO2016204176A1 (ja) * 2015-06-15 2016-12-22 日本電気株式会社 真皮画像情報処理装置、真皮画像情報処理方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015026228A (ja) * 2013-07-26 2015-02-05 株式会社日立製作所 血管画像撮影装置及び端末
WO2016204176A1 (ja) * 2015-06-15 2016-12-22 日本電気株式会社 真皮画像情報処理装置、真皮画像情報処理方法及びプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022196026A1 (ja) * 2021-03-17 2022-09-22 日本電気株式会社 情報処理装置、情報処理方法及び記憶媒体
WO2023119631A1 (ja) * 2021-12-24 2023-06-29 日本電気株式会社 光干渉断層撮像解析装置、光干渉断層撮像解析方法、及び記録媒体
WO2023166616A1 (ja) * 2022-03-02 2023-09-07 日本電気株式会社 画像処理装置、画像処理方法、及び、記録媒体
WO2023181357A1 (ja) * 2022-03-25 2023-09-28 日本電気株式会社 光干渉断層画像生成装置、光干渉断層画像生成方法、及び、記録媒体

Also Published As

Publication number Publication date
US20220277498A1 (en) 2022-09-01
JPWO2021019788A1 (ja) 2021-02-04
JP7197017B2 (ja) 2022-12-27

Similar Documents

Publication Publication Date Title
WO2021019788A1 (ja) 処理装置、システム、生体認証システム、処理方法、及びコンピュータ可読媒体
JP6081101B2 (ja) デプスフロムデフォーカス撮像用のシステムおよび方法
US9004685B2 (en) Image processing apparatus and method thereof
US8079711B2 (en) Method for finding the lateral position of the fovea in an SDOCT image volume
US10049470B2 (en) Method and apparatus for geometric correction of OCT data representing a scan obtained by means of optical coherence tomography imaging of a sample
JP2007072814A (ja) 画像処理装置及びその方法
JP2021527834A (ja) 本発明の皮膚異常領域のセグメンテーション及び測定のためのシステム及び方法
JP5554681B2 (ja) 物体表面の高さマップを求める方法及びその装置
US10524663B2 (en) Phase measurement, analysis, and correction methods for coherent imaging systems
US20180153395A1 (en) Image processing apparatus, imaging apparatus, image processing method, and computer readable storage medium
US10853621B2 (en) Dermal image information processing device, dermal image information processing method, and program
US9582732B2 (en) Method and apparatus for tomography imaging
JP2021529622A (ja) 網膜の光干渉断層撮影画像のセグメンテーションの方法及びコンピュータプログラム
US10229494B2 (en) Automated analysis of intravascular OCT image volumes
CN110956618A (zh) 一种基于变异系数法的ct图像小缺陷定量方法
JP7107425B2 (ja) 処理装置、指紋画像抽出処理装置、システム、処理方法、及びプログラム
US10080492B2 (en) Method and system for motion artefacts removal in optical coherence tomography
KR102039103B1 (ko) 이미지 처리를 위한 방법들 및 장치, 그리고 이미지 처리 장치를 갖는 레이저 스캐닝 검안경
Wagner et al. Model-driven 3-D regularisation for robust segmentation of the refractive corneal surfaces in spiral OCT scans
EP3375349B1 (en) Information processing apparatus, image generation method, and computer-readable medium
KR101613829B1 (ko) 미분 모아레를 이용한 3차원 형상 측정방법 및 장치
US20230035499A1 (en) Optical coherence tomography system for ophthalmology
US20220142471A1 (en) Volumetric OCT Image Data Processing
US20210404791A1 (en) Method for compensating the artifacts generated by moving measurement objects in measurement signals of swept-source oct systems
BR102020008930A2 (pt) Método e sistema de escaneamento inclusivo e anti-fraude de impressões digitais por tomografia de coerência ótica

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19939837

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021536594

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19939837

Country of ref document: EP

Kind code of ref document: A1