WO2023166616A1 - 画像処理装置、画像処理方法、及び、記録媒体 - Google Patents

画像処理装置、画像処理方法、及び、記録媒体 Download PDF

Info

Publication number
WO2023166616A1
WO2023166616A1 PCT/JP2022/008908 JP2022008908W WO2023166616A1 WO 2023166616 A1 WO2023166616 A1 WO 2023166616A1 JP 2022008908 W JP2022008908 W JP 2022008908W WO 2023166616 A1 WO2023166616 A1 WO 2023166616A1
Authority
WO
WIPO (PCT)
Prior art keywords
skin
pattern image
image processing
image
normal direction
Prior art date
Application number
PCT/JP2022/008908
Other languages
English (en)
French (fr)
Inventor
滋 中村
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2022/008908 priority Critical patent/WO2023166616A1/ja
Publication of WO2023166616A1 publication Critical patent/WO2023166616A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints

Definitions

  • This disclosure relates to the technical field of image processing apparatuses, image processing methods, and recording media.
  • Patent Literature 1 describes a fingerprint imaging device that acquires a fingerprint image of the epidermis without contact while passing the fingertip through a predetermined place without touching a glass plate or the like and uses it for biometric authentication.
  • Patent Documents 2 to 4 describe a fingerprint imaging device for performing three-dimensional tomographic imaging of a fingertip using optical coherence tomography (OCT) imaging technology, acquiring a fingerprint image of the dermis, and using it for biometric authentication. ing.
  • OCT optical coherence tomography
  • the object of this disclosure is to provide an image processing device, an image processing method, and a recording medium aimed at improving the techniques described in prior art documents.
  • One aspect of the image processing apparatus includes: acquisition means for acquiring three-dimensional brightness data of the skin generated by irradiating the skin of the finger with a light beam while two-dimensionally scanning and performing optical coherence tomography; A first extracting means for extracting a pattern image of the pattern of the skin from the three-dimensional luminance data of the skin; a second extracting means for extracting a normal direction of the surface of the skin from the three-dimensional luminance data of the skin; generating means for moving the positions of pixels included in the pattern image based on the normal direction and generating a post-movement pattern image.
  • One aspect of the image processing method acquires three-dimensional brightness data of the skin generated by irradiating the finger skin with a light beam while two-dimensionally scanning and performing optical coherence tomography, and obtaining three-dimensional brightness data of the skin.
  • a pattern image of the pattern of the skin is extracted from the original luminance data
  • a normal direction of the skin surface is extracted from the three-dimensional luminance data of the skin
  • the normal direction is included in the pattern image based on the normal direction. Then, the positions of the pixels to be moved are moved to generate a post-movement pattern image.
  • a computer acquires three-dimensional luminance data of the skin generated by performing optical coherence tomography by irradiating the skin of the finger with a light beam while scanning two-dimensionally, and obtaining the three-dimensional luminance data of the skin.
  • a pattern image of the pattern of the skin is extracted from the three-dimensional luminance data of the skin
  • a normal direction of the surface of the skin is extracted from the three-dimensional luminance data of the skin
  • the pattern image is extracted based on the normal direction
  • a computer program is recorded for executing an image processing method for moving the positions of pixels included in the pattern image and generating a post-movement pattern image.
  • FIG. 1 is a block diagram showing the configuration of an image processing apparatus according to the first embodiment.
  • FIG. 2 is a block diagram showing the configuration of an image processing apparatus according to the second embodiment.
  • FIG. 3 is a block diagram showing the configuration of the optical coherence tomographic imaging apparatus.
  • FIG. 4 is a diagram illustrating three-dimensional brightness data acquired in optical coherence tomography.
  • FIG. 5 is a flow chart showing the flow of image processing operations according to the second embodiment.
  • FIG. 6 is a conceptual diagram of pattern image generation according to the second embodiment.
  • FIG. 7 is a conceptual diagram of generation of a post-movement pattern image according to the second embodiment.
  • FIG. 8 is a diagram showing an example of an image processing operation according to the second embodiment.
  • FIG. 9 is a conceptual diagram of image processing operations according to the fourth embodiment.
  • FIG. 10 is a block diagram showing the configuration of an image processing apparatus according to the fifth embodiment.
  • a first embodiment of an image processing apparatus, an image processing method, and a recording medium will be described.
  • the image processing apparatus, image processing method, and recording medium according to the first embodiment will be described below using an image processing apparatus 1 to which the image processing apparatus, image processing method, and recording medium according to the first embodiment are applied. .
  • FIG. 1 is a block diagram showing the configuration of an image processing apparatus 1 according to the first embodiment.
  • the image processing device 1 includes an acquisition unit 11, a first extraction unit 12, a second extraction unit 13, and a generation unit .
  • the acquiring unit 11 acquires three-dimensional luminance data of the skin generated by performing optical coherence tomographic imaging by irradiating the finger skin with a light beam while two-dimensional scanning.
  • the first extraction unit 12 extracts a pattern image of the pattern of the skin from the three-dimensional luminance data of the skin.
  • the second extraction unit 13 extracts the normal direction of the surface of the skin from the three-dimensional luminance data of the skin.
  • the generation unit 14 moves the positions of the pixels included in the pattern image based on the normal direction of the skin surface, and generates a post-movement pattern image.
  • the comparative example converts the image acquired from the imaging device by the shape information acquired from a device different from the imaging device. By comparison, the pattern image can be properly generated based on the normal direction.
  • a second embodiment of an image processing apparatus, an image processing method, and a recording medium will be described.
  • the second embodiment of the image processing apparatus, image processing method, and recording medium will be described below using an image processing apparatus 2 to which the image processing apparatus, image processing method, and recording medium of the second embodiment are applied.
  • the image processing device 2 may be, for example, a computer such as a data processing server, desktop PC (Personal computer), notebook PC, tablet PC, or the like. [2-1: Configuration of image processing device 2]
  • FIG. 2 is a block diagram showing the configuration of the image processing device 2 according to the second embodiment.
  • the image processing device 2 includes an arithmetic device 21 and a storage device 22. Furthermore, the image processing device 2 may comprise a communication device 23 , an input device 24 and an output device 25 . However, the image processing device 2 does not have to include at least one of the communication device 23 , the input device 24 and the output device 25 . Arithmetic device 21 , storage device 22 , communication device 23 , input device 24 and output device 25 may be connected via data bus 26 .
  • the computing device 21 includes, for example, at least one of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and an FPGA (Field Programmable Gate Array). Arithmetic device 21 reads a computer program. For example, arithmetic device 21 may read a computer program stored in storage device 22 . For example, the computing device 21 reads a computer program stored in a computer-readable and non-temporary recording medium by a recording medium reading device (not shown) provided in the image processing device 2 (for example, an input device 24 to be described later). can be read using The computing device 21 may acquire (that is, download) a computer program from a device (not shown) arranged outside the image processing device 2 via the communication device 23 (or other communication device). may be read).
  • a recording medium reading device not shown
  • the computing device 21 may acquire (that is, download) a computer program from a device (not shown) arranged outside the image processing device 2 via the communication device 23 (or other communication device). may be read).
  • Arithmetic device 21 executes the read computer program. As a result, logical functional blocks for executing operations to be performed by the image processing apparatus 2 are realized in the arithmetic unit 21 . In other words, the arithmetic device 21 can function as a controller for realizing logical functional blocks for executing the operations (in other words, processing) that the image processing device 2 should perform.
  • FIG. 2 shows an example of logical functional blocks implemented within the arithmetic unit 21 for executing image processing operations.
  • the computing device 21 includes an acquisition unit 211 as a specific example of the “acquisition means”, a first extraction unit 212 as a specific example of the “first extraction means”, and a “first A second extraction unit 213, which is a specific example of 2 extraction means, and a generation unit 214, which is a specific example of 'generation means', are realized. Operations of the acquisition unit 211, the first extraction unit 212, the second extraction unit 213, and the generation unit 214 will be described later with reference to FIGS. 5 to 7.
  • FIG. 1 shows an example of logical functional blocks implemented within the arithmetic unit 21 for executing image processing operations.
  • the computing device 21 includes an acquisition unit 211 as a specific example of the “acquisition means”, a first extraction unit 212 as a specific example of the “first extraction means”, and a “first A second extraction unit 213, which is a specific example of 2 extraction means, and a generation
  • the storage device 22 can store desired data.
  • the storage device 22 may temporarily store computer programs executed by the arithmetic device 21 .
  • the storage device 22 may temporarily store data temporarily used by the arithmetic device 21 while the arithmetic device 21 is executing a computer program.
  • the storage device 22 may store data that the image processing device 2 saves for a long time.
  • the storage device 22 may include at least one of RAM (Random Access Memory), ROM (Read Only Memory), hard disk device, magneto-optical disk device, SSD (Solid State Drive), and disk array device. good. That is, the storage device 22 may include non-transitory recording media.
  • the communication device 23 can communicate with devices external to the image processing device 2 via a communication network (not shown).
  • the communication device 23 may be a communication interface based on standards such as Ethernet (registered trademark), Wi-Fi (registered trademark), and Bluetooth (registered trademark).
  • the communication device 23 may acquire three-dimensional information indicating the three-dimensional shape of the skin from the optical coherence tomography imaging device 100 via the communication network.
  • the optical coherence tomographic imaging apparatus 100 will be described later with reference to FIGS. 3 and 4.
  • the input device 24 is a device that receives input of information to the image processing device 2 from outside the image processing device 2 .
  • the input device 24 includes an operation device (for example, at least one of a keyboard, a mouse trackball, a touch panel, a pointing device such as a pen tablet, a button, etc.) that can be operated by an operator of the image processing device 2.
  • the input device 24 may include a reading device capable of reading information recorded as data on a recording medium that can be externally attached to the image processing device 2 .
  • the output device 25 is a device that outputs information to the outside of the image processing device 2 .
  • the output device 25 may output information as an image.
  • the output device 25 may include a display device (so-called display) capable of displaying an image showing information to be output. Examples of display devices include liquid crystal displays and OLED (Organic Light Emitting Diode) displays.
  • the output device 25 may output information as voice. That is, the output device 25 may include an audio device (so-called speaker) capable of outputting audio.
  • the output device 25 may output information on paper.
  • the output device 25 may include a printing device (so-called printer) capable of printing desired information on paper.
  • the input device 24 and the output device 25 may be integrally formed as a touch panel.
  • the hardware configuration shown in FIG. 2 is an example, and devices other than those shown in FIG. 2 may be added, or some devices may be omitted. Also, some devices may be replaced by other devices having similar functions. Also, some functions of the present embodiment may be provided by another device via a network. The functions of the present embodiment may be distributed and implemented in multiple devices. Alternatively, for example, the image processing device 2 and the optical coherence tomographic imaging device 100 may be an integrated device. Thus, the hardware configuration shown in FIG. 2 can be changed as appropriate.
  • the optical coherence tomography apparatus 100 performs optical coherence tomography by irradiating the skin of the finger with a light beam while scanning it two-dimensionally, and generates three-dimensional luminance data of the skin.
  • OCT imaging uses the interference between object light and reference light to identify the position of a portion (light scattering point) where object light is scattered in the measurement object in the optical axis direction, that is, the depth direction, and determines the position of the measurement object.
  • This is a technique for obtaining structural data spatially resolved in the depth direction inside the part.
  • OCT technology includes a Time Domain (TD-OCT) method and a Fourier Domain (FD-OCT) method.
  • TD-OCT Time Domain
  • FD-OCT Fourier Domain
  • an interference light spectrum in a wide wavelength band is measured when object light and reference light are caused to interfere, and the spectrum is Fourier-transformed to obtain structural data in the depth direction.
  • SD-OCT Spectral Domain
  • SS-OCT Swept Source
  • the optical coherence tomographic imaging apparatus 100 may have a configuration in which the palm is placed on the table with the palm facing upward and the image is captured from above, or may have a configuration in which the palm is oriented downward and the palm is held over the imaging device. . Alternatively, the image may be captured from above without placing the hand on the table with the palm facing upward. In this case, the mounting table may not be included in the optical coherence tomographic imaging apparatus 100 .
  • FIG. 3 is a diagram showing the configuration of the optical coherence tomographic imaging apparatus 100.
  • the optical coherence tomography apparatus 100 images a part such as a finger of a person based on a three-dimensional measurement technique such as OCT imaging, and generates three-dimensional luminance data including the inside of the skin.
  • a three-dimensional measurement technique such as OCT imaging
  • the configuration diagram shown in FIG. 3 merely shows an example of a measuring device using OCT imaging, and a measuring device having a configuration other than that shown in FIG. 3 may be used.
  • FIG. 3 illustrates an SS-OCT optical coherence tomographic imaging apparatus 100.
  • the optical coherence tomographic imaging apparatus 100 includes a wavelength swept laser light source 110 , an optical interference light receiving section 120 , a light beam scanning section 130 and a signal processing control section 140 .
  • the optical interference light receiving section 120 includes a circulator 121 , a splitter/merger 122 , a reference light mirror 123 , and a balance type light receiver 124 .
  • the light beam scanning section 130 includes a fiber collimator 131 and an irradiation optical system 132 .
  • the irradiation optical system 132 has a scanning mirror and a lens.
  • the wavelength swept laser light source 110 is a laser that emits light while sweeping the wavelength.
  • the wavelength-swept laser light source 110 generates and outputs wavelength-swept light pulses.
  • a wavelength-swept laser source 110 generates a light pulse whose wavelength is swept from 1250 nm to 1350 nm for a duration of 5 ⁇ s.
  • a wavelength swept laser source 110 generates light pulses with a repetition frequency of 100 kHz.
  • the optical coherence tomography apparatus 100 generates light pulses that repeat every 10 ⁇ s.
  • the light emitted from the wavelength-swept laser light source 110 passes through the light interference receiving section 120 and the light beam scanning section 130, is irradiated onto the measurement object O, and is scattered.
  • the optical interference receiver 120 photoelectrically converts part of the scattered light and outputs an electrical signal.
  • the signal processing control unit 140 processes the electrical signal output from the optical interference light receiving unit 120 into data, and sends the processed data to the image processing device 2 . [Operation of optical interference light receiving unit 120]
  • the splitter/merger 122 splits the light emitted from the wavelength swept laser light source 110 via the circulator 121 into the object light R1 and the reference light R2.
  • the object light R1 is irradiated to the measurement object O through the fiber collimator 131 and the irradiation optical system 132 .
  • the object light R1 scattered by the measurement object O is called object light R3.
  • the object beam R3 returns to the splitter/merger 122 .
  • the reference light R2 is applied to the reference light mirror 123 and reflected.
  • the reference light R2 reflected by the reference light mirror 123 is referred to as reference light R4.
  • the reference light R4 returns to the splitter/combiner 122.
  • the object light R3 scattered from the measurement object O and the reference light R4 reflected by the reference light mirror 123 interfere with each other at the splitter/merger 122 to generate interference light R5 and interference light R6. That is, the intensity ratio between the interference light R5 and the interference light R6 is determined by the phase difference between the object light R3 and the reference light R4.
  • the balanced photodetector 124 has two inputs, and the interference light R6 and the interference light R5 that has passed through the circulator 121 are input.
  • the balanced photodetector 124 outputs a voltage corresponding to the intensity difference between the interference light R5 and the interference light R6.
  • the voltage output from the balanced photodetector 124 is input to the signal processing controller 140 .
  • the signal processing control unit 140 generates interference light spectrum data based on information about changes in the wavelength of light emitted from the wavelength swept laser light source 110 and information about changes in the intensity ratio between the interference light R5 and the interference light R6. .
  • the signal processing control unit 140 Fourier-transforms the generated interference light spectrum data to acquire data indicating the intensity of the backscattered light (object light) at different depth positions in the depth direction (also referred to as the “Z direction”). do.
  • the signal processing control unit 140 is supplied with an electric signal with a repetition frequency of 100 kHz from the wavelength swept laser light source 110 as an A-scan trigger signal.
  • the signal processing control unit 140 thereby generates an A-scan waveform for each optical pulse repetition period of 10 ⁇ s.
  • the signal processing control unit 140 generates a waveform representing object light backscattering intensity at Nz points as the A-scan waveform.
  • the signal processing control unit 140 controls the irradiation optical system 132 according to the A scan trigger signal supplied from the wavelength swept laser light source 110 .
  • the irradiation optical system 132 scans the irradiation position of the object light R3 on the object O to be measured.
  • the irradiation optical system 132 moves the irradiation position of the object light R3 in the scanning line direction (also referred to as the “fast axis direction of scanning” and the “X direction”).
  • the signal processing control unit 140 repeats the A-scan operation for each irradiation position of the object light R3, and connects the A-scan waveforms for each irradiation position of the object light R3.
  • the signal processing control unit 140 acquires a two-dimensional intensity map of the backscattered light (object light) in the scanning line direction (X direction) and the depth direction (Z direction) as a tomographic image.
  • the operation of repeating the A-scan operation while moving in the scanning line direction (the fast axis direction of scanning, the X direction) and connecting the measurement results will be referred to as "B-scan".
  • the tomographic image obtained by the B scan is two-dimensional luminance data indicating the object light backscattering intensity of Nz ⁇ Nx points.
  • FIG. 4A illustrates one B-scan tomographic image. [C-scan]
  • the irradiation optical system 132 moves the irradiation position of the object light R3 not only in the scanning line direction (X direction) but also in the direction perpendicular to the scanning line (also called “slow axis direction of scanning” or “Y direction”).
  • the signal processing control unit 140 repeats the B scan operation and connects the B scan measurement results. Thereby, the signal processing control unit 140 acquires three-dimensional tomographic structure data.
  • C scan the operation of repeating the B scan operation while moving in the direction (Y direction) perpendicular to the scanning line and connecting the measurement results.
  • FIG. 4(b) is a conceptual diagram of a C scan operation in which the B scan operation is repeatedly performed while moving in the direction (Y direction) perpendicular to the scanning line.
  • FIG. 4(c) shows the skin curved surface Z (X, Y) obtained based on the skin position Z extraction result extracted for each value of the point (X, Y).
  • the OCT imaging can acquire a fingerprint image of the epidermis without contact, unlike the epidermal fingerprint imaging in which the fingertip is brought into contact with a glass plate or the like to take a fingerprint image, there is no influence of deformation at the time of contact.
  • a fingerprint image of the dermis can be obtained by OCT imaging. That is, a fingerprint image can be obtained without being affected by the condition of the epidermis, so that difficulty in reading epidermal fingerprints can be resolved. Also, it is hygienic because the fingertips do not come into contact with the glass plate or the like. Furthermore, it is also suitable for discovering altered epidermal fingerprints. [2-3: Image processing operation performed by image processing apparatus 2]
  • FIG. 5 is a flow chart showing the flow of image processing operations performed by the image processing apparatus 2 according to the second embodiment. This operation may be performed, for example, when the optical coherence tomographic imaging apparatus 100 generates new three-dimensional luminance data. Moreover, the three-dimensional brightness data is acquired in advance from the optical coherence tomographic imaging apparatus 100, and the three-dimensional brightness data stored in a storage medium such as the storage device 22 may be read and executed. [Acquisition Operation Performed by Acquisition Unit 211]
  • the acquisition unit 211 acquires three-dimensional luminance data of the skin (step S20).
  • the acquisition unit 211 may acquire three-dimensional luminance data representing the object light backscatter intensity at Nz ⁇ Nx ⁇ Ny points generated by the optical coherence tomography apparatus 100 .
  • the signal processing control unit 140 may acquire brightness data resolved into 256 points in the Z direction by analyzing the interference light spectrum of the object light and the reference light.
  • the irradiation optical system 132 may scan so as to irradiate 300 points in the fast axis direction (X direction) of scanning and 300 points in the slow axis direction (Y direction) of scanning so as to irradiate the object light beam.
  • the acquisition unit 211 may acquire three-dimensional luminance data representing a three-dimensional shape as shown in FIG. 4(c). [Extraction operation of pattern image performed by first extraction unit 212]
  • the first extraction unit 212 extracts the pattern image of the skin pattern from the three-dimensional luminance data of the skin (step S21).
  • the first extraction unit 212 may extract at least one of the fingerprint image of the epidermis and the fingerprint image of the dermis.
  • the first extraction unit 212 may extract a pattern image as illustrated in FIG. 4(d).
  • the first extraction unit 212 may orthographically project the curved surface of the epidermis of the finger to the tangent plane of the highest altitude point of the curved surface to extract at least one of the epidermal fingerprint image and the dermal fingerprint image.
  • FIG. 6A is a conceptual diagram of a non-contact pattern image 2Da when the curved surface CS of the epidermis of the finger is orthographically projected onto the tangent plane of the highest altitude point (4) of the curved surface CS.
  • the non-contact pattern image 2Da is a pattern image in which the same position on the XY plane irradiated with the light beam is reflected in the fingerprint image.
  • the distance on the non-contact pattern image 2Da differs from the distance on the curved surface of the epidermis of the finger.
  • the corresponding points on the curved surface of the finger epidermis are not equidistantly spaced, and the intervals are in the normal direction of the curved surface of the finger epidermis.
  • Dependent For example, as shown in FIG. 6A, positions (1) to (7) are equally spaced on the non-contact pattern image 2Da.
  • the normal direction of the position (4) is substantially the same as the Z-axis direction, and the difference between the normal directions of the positions (3) and (5) from the Z-axis direction makes the position (2) and the position (6)
  • the difference of the normal to the Z-axis direction is larger, and the difference of the normal to the Z-axis direction of the positions (1) and (7) is larger.
  • FIG. 6(b) is a conceptual diagram when a finger S is brought into contact with a glass plate or the like G to collect a fingerprint image.
  • FIG. 6B when the contact pattern image 2Db is collected by contacting the finger S with the glass plate or the like G, the distance on the contact pattern image 2Db and the distance on the curved surface of the epidermis S of the finger are approximately equal. Become.
  • fingerprint images collected in the past and registered in the fingerprint database are often acquired by touching a glass plate or pressing a finger against paper. It is often the contact pattern image 2Db.
  • the non-contact pattern image 2Da and the contact pattern image 2Db are collated, they often have different features even if they are patterns of the same person.
  • collation accuracy may be degraded, such as collation failure.
  • the fingerprints registered in are obtained by contact with a glass plate or pressed against paper.
  • the fingerprints registered in such a database there are about 14,000 people wanted by the International criminal police Organization (ICPO) and the Japanese police, and about 800,000 people who were deported from Japan in the past. It is said that there are many people, and there is a demand for a technology for acquiring fingerprint images that can be matched with high accuracy. Therefore, in order to meet this demand, as shown in FIG. A back-pattern image 2Dc is generated. [Extraction operation in the normal direction performed by the second extraction unit 213]
  • the second extraction unit 213 extracts the normal direction of the skin surface from the three-dimensional luminance data of the skin (step S22).
  • the second extraction unit 213 may analyze the skin shape based on the three-dimensional luminance data.
  • the second extraction unit 213 may extract the normal direction of the curved surface of the skin based on the three-dimensional coordinates of the skin position.
  • the X-direction angle and the Y-direction angle are calculated for the angle formed by the Z-axis and the normal direction of the curved surface.
  • the points in the neighborhood of a given position n may include at least one point adjacent to n.
  • the generation unit 214 moves the positions of the pixels included in the pattern image based on the normal direction, and generates the post-movement pattern image 2Dc (step S23).
  • the generation unit 214 may move the position of each pixel in the pattern image based on the normal direction of the position of the pixel included in the pattern image.
  • the generation unit 214 may move the positions of the pixels included in the pattern image based on the difference between the normal direction of the central portion of the pattern image and the normal direction of the positions of the pixels included in the pattern image.
  • the generation unit 214 corresponds to the contact pattern image 2Db based on the non-contact pattern image 2Da extracted by the first extraction unit 212 and the normal direction extracted by the second extraction unit 213 based on the skin shape analysis result.
  • a post-movement pattern image 2Dc may be generated.
  • FIG. 7 is a conceptual diagram of pixel movement processing.
  • the movement distance s may be calculated using the height difference d between the highest altitude point and the position n and the angle ⁇ of the normal direction at the position n with respect to the Z axis.
  • FIG. 7(a) illustrates the movement distance sx in the X direction.
  • FIG. 7(b) illustrates the moving distance sy in the Y direction.
  • FIGS. 7A and 7B illustrates a position F relatively far from the highest altitude point and a position N relatively close thereto.
  • the relatively far position F compared with the relatively near position N, each of the height difference d between the maximum altitude point and the position n, the angle ⁇ of the normal direction at the position n with respect to the Z axis, and the movement distance s becomes larger.
  • FIG. 7(c) is a conceptual diagram of the non-contact pattern image 2Da
  • FIG. 7(d) is a conceptual diagram of the post-movement pattern image 2Dc.
  • the further away from the center of the pattern image 2Dc after movement the greater the amount of movement of the positions of the pixels included in the pattern image.
  • a table in which the angle ⁇ and the movement distance s are associated with each other may be prepared in the storage device 22, for example.
  • the generation unit 214 may refer to the table to acquire movement distances corresponding to angles in the X direction and the Y direction, and move pixels in the X direction and the Y direction. [2-4: Actual conversion example]
  • FIG. 8 shows an example of an image when the grid image is actually converted by the above operation.
  • 8A shows an example of an image before conversion
  • FIG. 8B shows an example of an image generated by the generation unit 214.
  • FIG. 8(b) the distortion of the lattice is greater as the distance from the center is increased.
  • the distance between ridges and the width of the ridges become wider as the distance from the center of the image increases.
  • each pixel can be moved to an appropriate position. can be done.
  • the position of the pixel included in the pattern image is moved based on the difference between the normal direction of the central portion of the pattern image and the normal direction of the position of the pixel included in the pattern image, the pixel is appropriately moved. be able to.
  • a third embodiment of an image processing device, an image processing method, and a recording medium will be described.
  • the third embodiment of the image processing apparatus, image processing method, and recording medium will be described below using an image processing apparatus 3 to which the image processing apparatus, image processing method, and recording medium of the third embodiment are applied. .
  • the image processing apparatus 3 according to the third embodiment differs from the image processing apparatus 2 according to the second embodiment in the generation operation by the generation unit 214 .
  • Other features of the image processing device 3 may be the same as other features of the image processing device 2 .
  • the surface of the finger often has minute irregularities such as ridges and valleys.
  • a three-dimensional shape obtained by OCT imaging includes fine unevenness and often does not form a simple quadratic curve. Therefore, even for pixels far from the center of the image, there are cases where the normal direction is almost the same as the Z axis.
  • the central part of the image may be the highest altitude position in the image.
  • the central part of the image may be the most protruding part of the abdomen of the finger.
  • the normal direction at the center of the image may be substantially the same as the Z-axis.
  • the generation unit 214 increases the movement amount of the positions of the pixels included in the pattern image as the distance from the center of the pattern image increases.
  • the generation unit 214 may perform correction such that the larger the distance from the center where the pixel whose position in the Z-axis direction is closest to 0 is located, the greater the amount of movement of the pixel.
  • a fourth embodiment of an image processing device, an image processing method, and a recording medium will be described.
  • the image processing apparatus, image processing method, and recording medium according to the fourth embodiment will be described below using an image processing apparatus 4 to which the image processing apparatus, image processing method, and recording medium according to the fourth embodiment are applied. .
  • the image processing apparatus 4 according to the fourth embodiment differs from the image processing apparatus 2 according to the second embodiment and the image processing apparatus 3 according to the third embodiment in the generation operation by the generation unit 214 .
  • Other features of image processing device 4 may be the same as other features of image processing device 2 and image processing device 3 .
  • the generating unit 214 extracts the normal direction of the position of the pixel included in the pattern image, and corrects the extracted normal direction according to the distance from the center of the pattern image to the corresponding pixel.
  • the generation unit 214 may correct the angle so that the portion outside the predetermined angle range for each position is continuous with the surrounding angle.
  • range A, range B, range C, and range D may be set according to the proximity to the highest altitude point.
  • range A is set to a range in which X is 90 or more and less than 210.
  • the range B is set to a range in which X is 50 or more and less than 90 and a range in which X is 210 or more and less than 250.
  • Range C is set to a range in which X is 20 or more and less than 50 and a range in which X is 250 or more and less than 280.
  • the range D is set to a range of X equal to or greater than 0 and less than 20 and a range of X equal to or greater than 260 and less than 300.
  • the generation unit 214 may correct the normal direction so that the angle of the normal to the Z axis in range A is 0° or more and less than 5°.
  • the generator 214 may correct the direction of the normal to the Z-axis in the range B so that the angle of the normal to the Z-axis is 5° or more and less than 15°.
  • the generation unit 214 may correct the normal direction in range C so that the angle of the normal to the Z axis is 15° or more and less than 25°.
  • the generator 214 may correct the direction of the normal to the Z-axis in range D so that the angle of the normal to the Z-axis is 25° or more and less than 35°.
  • the neighboring positions are not limited to positions 10 pixels away from the relevant position, but may include, for example, positions 20 pixels away from the relevant position. [4-2: Technical effect of image processing device 4]
  • a fifth embodiment of an image processing apparatus, an image processing method, and a recording medium will be described.
  • the fifth embodiment of the image processing apparatus, image processing method, and recording medium will be described below using an image processing apparatus 5 to which the fifth embodiment of the image processing apparatus, image processing method, and recording medium is applied. .
  • FIG. 10 is a block diagram showing the configuration of the image processing device 5 according to the fifth embodiment.
  • the arithmetic device 21 does not include the matching unit 515.
  • the storage device 22 stores a fingerprint database DB in which registered pattern images are registered.
  • the storage device 22 may not store the fingerprint database DB.
  • Other features of image processing device 5 may be the same as other features of image processing devices 2-4.
  • the image processing device 5 uses the three-dimensional luminance data to generate a fingerprint image suitable for fingerprint authentication, registers the fingerprint image in advance in the fingerprint database DB, and performs biometric authentication by matching the fingerprint image. good.
  • the collation unit 515 collates the pattern image after movement 2Dc with a registered pattern image that has been registered in advance.
  • the collating unit 515 may collate the moved pattern image 2Dc generated by the generating unit 214 with the fingerprint image registered in the registered pattern image.
  • a fingerprint image measured and extracted by OCT imaging in a non-contact manner can be highly accurately matched with a fingerprint image collected in the past by a contact type and recorded in a database.
  • a high score may not be obtained by comparing the non-contact pattern image 2Da shown in FIG. 6(a) with the contact pattern image 2Db shown in FIG. 6(b).
  • a high score can be obtained by matching the back pattern image 2Dc with the contact pattern image 2Db shown in FIG. 6(b).
  • a generation engine that generates a post-movement pattern image may be constructed by machine learning using a mechanical mechanism.
  • the generation unit 214 may generate the post-movement pattern image using the generation engine.
  • the generated post-movement pattern image and the registered pattern image registered in advance are matched, and if they match, the position information of the matched feature points is acquired.
  • the position of the matched feature point, the difference between the position of the registered pattern image and the pattern image at the matched feature point (distance in the X direction and the Y direction), and the normal direction of the pattern image at the matched feature point may be used as learning data.
  • the difference corresponds to the amount of movement.
  • a generation engine may be generated by performing machine learning using the learning data.
  • the learning mechanism may cause the generation engine to learn the method of generating the post-movement pattern image based on the matching result between the contact pattern image and the post-movement pattern image generated by the generation unit 214 .
  • the generation engine may output the movement amount of the pixel when the pixel position of the pattern image and the normal direction of the pixel are input.
  • the learning data may be data containing information on the distance from the center of the fingerprint in addition to the position, difference, and normal method. [7: Labeling of fingerprint image]
  • a fingerprint image includes at least (1) a non-contact pattern image 2Da obtained by simply projecting a three-dimensional shape obtained by OCT imaging or the like onto a plane, and (2) a contact fingerprint image obtained by pressing a finger against a glass plate.
  • pattern images 2Db and (3) post-movement pattern images 2Dc obtained by processing the three-dimensional shape obtained by OCT imaging or the like in the same manner as in the state of (2). Therefore, according to each acquisition method, the fingerprint image may be labeled and registered in the fingerprint database. When fingerprints registered in the fingerprint database are used for authentication, the label may be referred to and authentication according to the acquisition method may be performed.
  • the biometric information to be subjected to optical coherence tomography has been described by exemplifying the finger skin pattern (fingerprint), but the biometric information is not limited to the fingerprint.
  • fingerprints iris, palmprints, and footprints may be used as biometric information, and optical coherence tomographic imaging of these biometric information may be applied. Since the iris is a muscle fiber, the feature amount of the iris can be acquired from an optical coherence tomographic image, and iris authentication may be performed using the feature amount.
  • a fingerprint may be a finger pattern or a toe pattern. In the case of optical coherence tomographic imaging of hand and foot patterns including fingerprints, light that passes through resin or the like may be used. [8: Appendices]
  • [Appendix 2] The image processing apparatus according to appendix 1, wherein the generating means moves the position of each pixel of the pattern image based on the normal direction of the position of the pixel included in the pattern image.
  • the generating means moves the positions of the pixels included in the pattern image based on the difference between the normal direction of the central portion of the pattern image and the normal direction of the positions of the pixels included in the pattern image.
  • the image processing device according to appendix 1 or 2.
  • [Appendix 4] 4 4. The image processing apparatus according to any one of Additions 1 to 3, wherein the generation means increases the amount of movement of the positions of the pixels included in the pattern image as they move away from the center of the pattern image.
  • the second extraction means extracts the normal direction of the position of the pixel included in the pattern image, and corrects the extracted normal direction according to the distance from the center of the pattern image to the corresponding pixel.
  • the image processing apparatus according to any one of Appendices 1 to 4.
  • Appendix 6 6.
  • Appendix 7 Acquiring three-dimensional brightness data of the skin generated by performing optical coherence tomography by irradiating the skin of the finger with a light beam while scanning two-dimensionally, extracting a pattern image of the pattern of the skin from the three-dimensional luminance data of the skin; Extracting the normal direction of the surface of the skin from the three-dimensional luminance data of the skin, An image processing method comprising moving the positions of pixels included in the pattern image based on the normal direction to generate a post-movement pattern image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

画像処理装置は、指の皮膚に対して光ビームを二次元走査しながら照射して光干渉断層撮像を行って生成した皮膚の三次元輝度データを取得する取得部11と、皮膚の三次元輝度データから、皮膚の紋様の紋様画像を抽出する第1抽出部12と、皮膚の三次元輝度データから、皮膚の表面の法線方向を抽出する第2抽出部213と、法線方向に基づいて、紋様画像に含まれる画素の位置を移動させ、移動後紋様画像を生成する生成部214とを備える。

Description

画像処理装置、画像処理方法、及び、記録媒体
 この開示は、画像処理装置、画像処理方法、及び、記録媒体の技術分野に関する。
 指先をガラス板等に接触させることなく所定の場所を通過させながら、非接触で表皮の指紋画像を取得し生体認証に用いるための指紋撮像装置が特許文献1に記載されている。光干渉断層(Optical Coherence Tomography:OCT)撮像技術を用いて、指先の三次元断層撮像を行い、真皮の指紋画像を取得し生体認証に用いるための指紋撮像装置が特許文献2~4に記載されている。
国際公開第2009/112717号 国際公開第2016/204176号 国際公開第2020/170439号 国際公開第2021/019788号
 この開示は、先行技術文献に記載された技術の改良を目的とする画像処理装置、画像処理方法、及び、記録媒体を提供することを課題とする。
 画像処理装置の一の態様は、指の皮膚に対して光ビームを二次元走査しながら照射して光干渉断層撮像を行って生成した前記皮膚の三次元輝度データを取得する取得手段と、前記皮膚の三次元輝度データから、前記皮膚の紋様の紋様画像を抽出する第1抽出手段と、前記皮膚の三次元輝度データから、前記皮膚の表面の法線方向を抽出する第2抽出手段と、前記法線方向に基づいて、前記紋様画像に含まれる画素の位置を移動させ、移動後紋様画像を生成する生成手段とを備える。
 画像処理方法の一の態様は、指の皮膚に対して光ビームを二次元走査しながら照射して光干渉断層撮像を行って生成した前記皮膚の三次元輝度データを取得し、前記皮膚の三次元輝度データから、前記皮膚の紋様の紋様画像を抽出し、前記皮膚の三次元輝度データから、前記皮膚の表面の法線方向を抽出し、前記法線方向に基づいて、前記紋様画像に含まれる画素の位置を移動させ、移動後紋様画像を生成する。
 記録媒体の一の態様は、コンピューターに、指の皮膚に対して光ビームを二次元走査しながら照射して光干渉断層撮像を行って生成した前記皮膚の三次元輝度データを取得し、前記皮膚の三次元輝度データから、前記皮膚の紋様の紋様画像を抽出し、前記皮膚の三次元輝度データから、前記皮膚の表面の法線方向を抽出し、前記法線方向に基づいて、前記紋様画像に含まれる画素の位置を移動させ、移動後紋様画像を生成する画像処理方法を実行させるためのコンピュータプログラムが記録されている。
図1は、第1実施形態における画像処理装置の構成を示すブロック図である。 図2は、第2実施形態における画像処理装置の構成を示すブロック図である。 図3は、光干渉断層撮像装置の構成を示すブロック図である。 図4は、光干渉断層撮像において取得される三次元輝度データを例示する図である。 図5は、第2実施形態に係る画像処理動作の流れ示すフローチャートである。 図6は、第2実施形態に係る紋様画像の生成の概念図である。 図7は、第2実施形態に係る移動後紋様画像の生成の概念図である。 図8は、第2実施形態に係る画像処理動作の実施例を示す図である。 図9は、第4実施形態に係る画像処理動作の概念図である。 図10は、第5実施形態における画像処理装置の構成を示すブロック図である。
 以下、図面を参照しながら、画像処理装置、画像処理方法、及び、記録媒体の実施形態について説明する。
 [1:第1実施形態]
 画像処理装置、画像処理方法、及び、記録媒体の第1実施形態について説明する。以下では、画像処理装置、画像処理方法、及び記録媒体の第1実施形態が適用された画像処理装置1を用いて、画像処理装置、画像処理方法、及び記録媒体の第1実施形態について説明する。
 [1-1:画像処理装置1の構成]
 図1を参照しながら、第1実施形態における画像処理装置1の構成について説明する。図1は、第1実施形態における画像処理装置1の構成を示すブロック図である。
 図1に示すように、画像処理装置1は、取得部11と、第1抽出部12と、第2抽出部13と、生成部14とを備える。取得部11は、指の皮膚に対して光ビームを二次元走査しながら照射して光干渉断層撮像を行って生成した皮膚の三次元輝度データを取得する。第1抽出部12は、皮膚の三次元輝度データから、皮膚の紋様の紋様画像を抽出する。第2抽出部13は、皮膚の三次元輝度データから、皮膚の表面の法線方向を抽出する。生成部14は、皮膚の表面の法線方向に基づいて、紋様画像に含まれる画素の位置を移動させ、移動後紋様画像を生成する。
 [1-2:画像処理装置1の技術的効果]
 画像処理装置は、同一の三次元輝度データから紋様画像と法線方向とを抽出するので、撮像装置から取得した画像を当該撮像装置とは異なる装置から取得した形状の情報により変換する比較例と比較して、法線方向に基づいて、適切に紋様画像を生成することができる。
 [2:第2実施形態]
 画像処理装置、画像処理方法、及び、記録媒体の第2実施形態について説明する。以下では、画像処理装置、画像処理方法、及び記録媒体の第2実施形態が適用された画像処理装置2を用いて、画像処理装置、画像処理方法、及び記録媒体の第2実施形態について説明する。
 画像処理装置2は、例えば、データ処理サーバ、デスクトップPC(Personal computer)、ノートPC、タブレットPC等のコンピュータであってもよい。
 [2-1:画像処理装置2の構成]
 図2を参照しながら、第2実施形態における画像処理装置2の構成について説明する。図2は、第2実施形態における画像処理装置2の構成を示すブロック図である。
 図2に示すように、画像処理装置2は、演算装置21と、記憶装置22とを備えている。更に、画像処理装置2は、通信装置23と、入力装置24と、出力装置25とを備えていてもよい。但し、画像処理装置2は、通信装置23、入力装置24及び出力装置25のうちの少なくとも1つを備えていなくてもよい。演算装置21と、記憶装置22と、通信装置23と、入力装置24と、出力装置25とは、データバス26を介して接続されていてもよい。
 演算装置21は、例えば、CPU(Central Processing Unit)、GPU(Graphics Proecssing Unit)及びFPGA(Field Programmable Gate Array)のうちの少なくとも1つを含む。演算装置21は、コンピュータプログラムを読み込む。例えば、演算装置21は、記憶装置22が記憶しているコンピュータプログラムを読み込んでもよい。例えば、演算装置21は、コンピュータで読み取り可能であって且つ一時的でない記録媒体が記憶しているコンピュータプログラムを、画像処理装置2が備える図示しない記録媒体読み取り装置(例えば、後述する入力装置24)を用いて読み込んでもよい。演算装置21は、通信装置23(或いは、その他の通信装置)を介して、画像処理装置2の外部に配置される不図示の装置からコンピュータプログラムを取得してもよい(つまり、ダウンロードしてもよい又は読み込んでもよい)。演算装置21は、読み込んだコンピュータプログラムを実行する。その結果、演算装置21内には、画像処理装置2が行うべき動作を実行するための論理的な機能ブロックが実現される。つまり、演算装置21は、画像処理装置2が行うべき動作(言い換えれば、処理)を実行するための論理的な機能ブロックを実現するためのコントローラとして機能可能である。
 図2には、画像処理動作を実行するために演算装置21内に実現される論理的な機能ブロックの一例が示されている。図2に示すように、演算装置21内には、「取得手段」の一具体例である取得部211と、「第1抽出手段」の一具体例である第1抽出部212と、「第2抽出手段」の一具体例である第2抽出部213と、「生成手段」の一具体例である生成部214とが実現される。取得部211、第1抽出部212、第2抽出部213、及び生成部214の夫々の動作については、図5~図7を参照して後述する。
 記憶装置22は、所望のデータを記憶可能である。例えば、記憶装置22は、演算装置21が実行するコンピュータプログラムを一時的に記憶していてもよい。記憶装置22は、演算装置21がコンピュータプログラムを実行している場合に演算装置21が一時的に使用するデータを一時的に記憶してもよい。記憶装置22は、画像処理装置2が長期的に保存するデータを記憶してもよい。尚、記憶装置22は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク装置、光磁気ディスク装置、SSD(Solid State Drive)及びディスクアレイ装置のうちの少なくとも1つを含んでいてもよい。つまり、記憶装置22は、一時的でない記録媒体を含んでいてもよい。
 通信装置23は、不図示の通信ネットワークを介して、画像処理装置2の外部の装置と通信可能である。通信装置23は、イーサネット(登録商標)、Wi-Fi(登録商標)、Bluetooth(登録商標)等の規格に基づく通信インターフェースであってもよい。通信装置23は、通信ネットワークを介して、皮膚の三次元形状を示す三次元情報を、光干渉断層撮像装置100から取得してもよい。光干渉断層撮像装置100については、図3及び図4を参照しながら後述する。
 入力装置24は、画像処理装置2の外部からの画像処理装置2に対する情報の入力を受け付ける装置である。例えば、入力装置24は、画像処理装置2のオペレータが操作可能な操作装置(例えば、キーボード、マウストラックボール、タッチパネル、ペンタブレット等のポインティングデバイス、ボタン等のうちの少なくとも1つ)を含んでいてもよい。例えば、入力装置24は画像処理装置2に対して外付け可能な記録媒体にデータとして記録されている情報を読み取り可能な読取装置を含んでいてもよい。
 出力装置25は、画像処理装置2の外部に対して情報を出力する装置である。例えば、出力装置25は、情報を画像として出力してもよい。つまり、出力装置25は、出力したい情報を示す画像を表示可能な表示装置(いわゆる、ディスプレイ)を含んでいてもよい。表示装置の例としては、液晶ディスプレイ、OLED(Organic Light Emitting Diode)ディスプレイ等が挙げられる。例えば、出力装置25は、情報を音声として出力してもよい。つまり、出力装置25は、音声を出力可能な音声装置(いわゆる、スピーカ)を含んでいてもよい。例えば、出力装置25は、紙面に情報を出力してもよい。つまり、出力装置25は、紙面に所望の情報を印刷可能な印刷装置(いわゆる、プリンタ)を含んでいてもよい。また、入力装置24及び出力装置25は、タッチパネルとして一体に形成されていてもよい。
 なお、図2に示されているハードウェア構成は一例であり、図2に示されている装置以外の装置が追加されていてもよく、一部の装置が設けられていなくてもよい。また、一部の装置が同様の機能を有する別の装置に置換されていてもよい。また、本実施形態の一部の機能がネットワークを介して他の装置により提供されてもよい。本実施形態の機能が複数の装置に分散されて実現されてもよい。又は、例えば、画像処理装置2と光干渉断層撮像装置100は一体の装置であってもよい。このように、図2に示されているハードウェア構成は適宜変更可能である。
 なお、以下、OCT撮像により生成した皮膚の三次元輝度データを用いる場合を説明するが、本実施形態では、他の方式で生成された皮膚の三次元形状を示す三次元情報を用いて、第1抽出動作、第2抽出動作、及び生成動作を行ってもよい。
 [2-2:光干渉断層撮像装置100]
 光干渉断層撮像装置100は、指の皮膚に対して光ビームを二次元走査しながら照射して光干渉断層撮像を行い、皮膚の三次元輝度データを生成する。
 OCT撮像は、物体光と参照光との干渉を利用することにより、測定対象物において物体光が散乱される部分(光散乱点)の光軸方向すなわち深さ方向における位置を特定し、測定対象部の内部の深さ方向に空間分解した構造データを得る技術である。OCT技術には、Time Domain(TD-OCT)方式、Fourier Domain(FD-OCT)方式がある。FD-OCT方式では、物体光と参照光とを干渉させる際に、広い波長帯域の干渉光スペクトルを測定し、これをフーリエ変換することで深さ方向の構造データを得る。干渉光スペクトルを得る方式として、分光器を用いるSpectral Domain(SD-OCT)方式と、波長を掃引する光源を用いるSwept Source(SS-OCT)方式とがある。
 さらに、測定対象物を当該測定対象物の深さ方向に垂直な面内方向に物体光R3の照射位置を走査することにより、当該面内方向に空間分解し、且つ、深さ方向に空間分解した断層構造データ、すなわち、測定対象物の三次元の断層構造データを得ることが可能になる。
 光干渉断層撮像装置100は、掌を上に向け手を載置台に置き、上部から撮像する構成であってもよいし、掌を下に向け、掌を撮像器にかざす構成であってもよい。また、掌を上に向け手を載置台に置かずに、上部から撮像する構成であってもよい。この場合、載置台は光干渉断層撮像装置100に含まれていなくてもよい。
 図3は、光干渉断層撮像装置100の構成を示す図である。光干渉断層撮像装置100は、OCT撮像等の三次元測定技術に基づいて人物の指等の部位を撮像し、皮膚の内部を含む三次元輝度データを生成する。なお、図3に示す構成図は、OCT撮像を用いた測定器の一例を示すものに過ぎず、図3に示した構成以外の構成の測定器であってもよい。
 図3は、SS-OCT方式の光干渉断層撮像装置100を例示する。図3に示すように、光干渉断層撮像装置100は、波長掃引レーザ光源110と、光干渉受光部120と、光ビーム走査部130と、信号処理制御部140とを備えている。光干渉受光部120は、サーキュレータ121と、分岐合流器122と、参照光ミラー123と、バランス型受光器124とを含んでいる。光ビーム走査部130は、ファイバコリメータ131と、照射光学系132とを含んでいる。照射光学系132は、走査ミラーとレンズとを有する。
 波長掃引レーザ光源110は、波長を掃引しながら光を出射するレーザである。波長掃引レーザ光源110は、波長掃引された光パルスを生成し、出力する。波長掃引レーザ光源110は、持続時間5μsの間に、波長が1250nmから1350nmまで掃引して光パルスを生成する。波長掃引レーザ光源110は、100kHzの繰り返し周波数の光パルスを生成する。光干渉断層撮像装置100は、10μs毎に繰り返す光パルスを生成する。
 波長掃引レーザ光源110から出射された光は、光干渉受光部120、及び光ビーム走査部130を経て、測定対象物Oに照射され散乱される。光干渉受光部120は、散乱された光の一部を光電変換し、電気信号を出力する。
 信号処理制御部140は、光干渉受光部120が出力した電気信号をデータ化処理し、データ化処理後のデータを、画像処理装置2に送る。
 [光干渉受光部120の動作]
 分岐合流器122は、サーキュレータ121を経由した、波長掃引レーザ光源110から出射された光を、物体光R1と参照光R2とに分岐する。
 物体光R1は、ファイバコリメータ131、及び照射光学系132を経て、測定対象物Oに照射される。測定対象物Oにおいて散乱された物体光R1を物体光R3と称する。物体光R3は、分岐合流器122に戻る。
 参照光R2は、参照光ミラー123に照射されて反射される。参照光ミラー123において反射された参照光R2を参照光R4と称する。参照光R4は、分岐合流器122に戻る。測定対象物Oから散乱された物体光R3と参照光ミラー123に反射された参照光R4とは、分岐合流器122において干渉し、干渉光R5、及び干渉光R6が生成される。すなわち、干渉光R5と干渉光R6との強度比は、物体光R3と参照光R4との位相差によって決定される。
 バランス型受光器124は、二入力であり、干渉光R6とサーキュレータ121を経た干渉光R5とが入力される。
 バランス型受光器124は、干渉光R5と干渉光R6との強度差に応じた電圧を出力する。バランス型受光器124が出力した電圧は、信号処理制御部140へ入力される。
 [Aスキャン]
 信号処理制御部140は、波長掃引レーザ光源110が出射する光の波長変化に関する情報、及び、干渉光R5と干渉光R6との強度比の変化に関する情報に基づいて、干渉光スペクトルデータを生成する。信号処理制御部140は、生成した干渉光スペクトルデータをフーリエ変換して、深さ方向(「Z方向」とも称する)の異なる深さ位置における後方散乱光(物体光)の強度を示すデータを取得する。
 以下、測定対象物Oにおける物体光R3の照射位置の深さ方向(Z方向)の後方散乱光(物体光)の強度を示すデータを取得する動作を、「Aスキャン」と称する。信号処理制御部140は、Aスキャントリガ信号としての、繰り返し周波数100kHzの電気信号が、波長掃引レーザ光源110から供給される。信号処理制御部140は、これにより、光パルスの繰り返し周期10μs毎にAスキャン波形を生成する。信号処理制御部140は、Aスキャン波形として、Nz箇所の物体光後方散乱強度を示す波形を生成する。
 [Bスキャン]
 信号処理制御部140は、波長掃引レーザ光源110から供給されたAスキャントリガ信号に応じて、照射光学系132を制御する。照射光学系132は、測定対象物O上における物体光R3の照射位置を走査する。照射光学系132は、物体光R3の照射位置を走査線方向(「走査の速軸方向」、及び「X方向」とも称する)に移動させる。
 信号処理制御部140は、物体光R3の照射位置毎にAスキャン動作を繰り返し行い、物体光R3の照射位置毎のAスキャン波形を接続する。これにより、信号処理制御部140は、走査線方向(X方向)と深さ方向(Z方向)との二次元の後方散乱光(物体光)の強度のマップを、断層画像として取得する。以下、走査線方向(走査の速軸方向、X方向)に移動しながら、Aスキャン動作を繰り返し行って、その測定結果を接続する動作を、「Bスキャン」と称する。Bスキャン毎の物体光R3の照射位置を、Nx箇所とすると、Bスキャンによる断層画像はNz×Nx点の物体光後方散乱強度を示す二次元輝度データである。図4(a)は、1枚のBスキャン断層画像を例示している。
 [Cスキャン]
 照射光学系132は、物体光R3の照射位置を、走査線方向(X方向)だけでなく、走査線に垂直な方向(「走査の遅軸方向」、「Y方向」ともよぶ)にも移動させる。信号処理制御部140は、Bスキャン動作を繰り返し行い、Bスキャン測定結果を接続する。これにより、信号処理制御部140は、三次元の断層構造データを取得する。以下、走査線に垂直な方向(Y方向)に移動しながら、Bスキャン動作を繰り返し行って、その測定結果を接続する動作を、「Cスキャン」と称する。Cスキャン毎に実施するBスキャン回数を、Ny回とした場合、Cスキャンによって得られる断層構造データは、Nz×Nx×Ny点の物体光後方散乱強度を示す三次元輝度データである。図4(b)は、走査線に垂直な方向(Y方向)に移動しながら、Bスキャン動作を繰り返し行うCスキャン動作の概念図である。図4(c)は、点(X,Y)の値毎に抽出した表皮位置Z抽出結果に基づき、得られる表皮曲面Z(X、Y)を示している。
 [OCT撮像の効果]
 OCT撮像により、非接触で表皮の指紋画像を取得できるので、指先をガラス板等に接触させて指紋画像を撮像する表皮指紋撮像とは異なり、接触の際の変形の影響を受けることもない。OCT撮像により、真皮の指紋画像を得ることができる。すなわち、表皮の状態に影響を受けずに、指紋画像を取得できるので、表皮指紋読取困難を解消することができる。また、指先をガラス板等に接触させないので、衛生的である。さらに、表皮指紋改変の見破りにも好適である。
 [2-3:画像処理装置2が行う画像処理動作]
 図5を参照して、第2実施形態における画像処理装置2が行う画像生成動作の流れを説明する。図5は、第2実施形態における画像処理装置2が行う画像処理動作の流れを示すフローチャートである。この動作は、例えば、光干渉断層撮像装置100が新たな三次元輝度データを生成した場合に実行されてもよい。また、三次元輝度データは光干渉断層撮像装置100からあらかじめ取得されており、記憶装置22等の記憶媒体に記憶されている三次元輝度データを読み出して実施してもよい。
 [取得部211が行う取得動作]
 取得部211は、皮膚の三次元輝度データを取得する(ステップS20)。取得部211は、光干渉断層撮像装置100が生成した、Nz×Nx×Ny点の物体光後方散乱強度を示す三次元輝度データを取得してもよい。
 例えば、Nx=300、Ny=300、Nz=256であってもよい。この場合、信号処理制御部140は、物体光と参照光の干渉光スペクトルを解析してZ方向に256箇所に分解した輝度データを取得してもよい。また、照射光学系132は、走査の速軸方向(X方向)において300箇所、走査の遅軸方向(Y方向)において300箇所、物体光ビームを照射するように走査してもよい。三次元輝度データは、Nx×Nz(=300×256)のBスキャン断層画像のNy(=300)枚の組と見なすことができる。取得部211は、図4(c)に示すような、三次元形状を示す三次元輝度データを取得してもよい。
 [第1抽出部212が行う紋様画像の抽出動作]
 第1抽出部212は、皮膚の三次元輝度データから、皮膚の紋様の紋様画像を抽出する(ステップS21)。第1抽出部212は、表皮の指紋画像、及び真皮の指紋画像の少なくとも一方を抽出してもよい。第1抽出部212は、図4(d)に例示するような紋様画像を抽出してもよい。
 第1抽出部212は、指の表皮の曲面を、当該曲面の標高最高点の接平面に対して正射投影して、表皮指紋画像、及び真皮指紋画像の少なくとも一方を抽出してもよい。図6(a)は、指の表皮の曲面CSを、曲面CSの標高最高点(4)の接平面に対して正射投影した場合の非接触紋様画像2Daの概念図である。非接触紋様画像2Daは、光ビームが照射されたXY面上の同じ位置が、指紋画像に反映した紋様画像である。したがって、非接触紋様画像2Da上の距離と、指の表皮の曲面上の距離とは異なる。例えば、非接触紋様画像2Da上に等間隔の点を設定した場合、これに対応する指の表皮の曲面上の点の間隔は等間隔ではなく、間隔は指の表皮の曲面の法線方向に依存する。
 例えば、図6(a)に示されるように、位置(1)~位置(7)は、非接触紋様画像2Da上では等間隔である。位置(4)の法線方向は、Z軸方向と略同じであり、位置(3)及び位置(5)の法線方向のZ軸方向との差異より、位置(2)及び位置(6)の法線方向のZ軸方向との差異の方が大きく、位置(1)及び位置(7)の法線方向のZ軸方向との差異の方がより大きい。そして、位置(4)から位置(3)又は位置(5)までの曲面上の点の間隔より、位置(3)から位置(2)又は位置(5)から位置(6)までの曲面上の点の間隔の方が広く、位置(2)から位置(1)又は位置(6)から位置(7)までの曲面上の点の間隔の方がより広い
 図6(b)は、指Sをガラス板等Gに接触させて指紋画像を採取する場合の概念図である。図6(b)に示すように、指Sをガラス板等Gに接触させて接触紋様画像2Dbを採取した場合、接触紋様画像2Db上の距離と指の表皮Sの曲面上の距離は概略等しくなる。
 ところで、指紋データベースに登録されている、過去に採取された指紋画像は、指をガラス板に接触させたり紙に押し付けたりして取得された場合が多く、図6(b)に示すような、接触紋様画像2Dbである場合が多い。非接触紋様画像2Daと接触紋様画像2Dbとを照合した場合、同一人物の紋様であった場合にも、異なる特徴を有する場合が多い。非接触紋様画像2Daを、接触紋様画像2Dbと照合した場合、同一人物の紋様であった場合にも、照合に失敗する等、照合精度が低下する場合がある。
 過去に採取された指紋との高精度な照合を可能にすることは重要な課題であり、例えば、日本の出入国管理においてブラックリストとしてデータベースに登録されている指紋との照合が行われる場合、データベースに登録されている指紋はガラス板に接触させたり紙に押し付けたりして得られたものである。このようなデータベースに登録されている指紋としては、国際刑事警察機構(ICPO)と日本の警察が指名手配した者約1.4万人分、過去に日本から強制退去となった者約80万人分あると言われており、これらと高精度で照合可能な指紋画像の取得技術の需要がある。そこで、この需要に対応すべく、図6(c)に示すように、後続ステップの動作において、各点(1)~(7)を、(1’)~(7’)に移動させた移動後紋様画像2Dcを生成する。
 [第2抽出部213が行う法線方向の抽出動作]
 第2抽出部213は、皮膚の三次元輝度データから、皮膚の表面の法線方向を抽出する(ステップS22)。第2抽出部213は、三次元輝度データに基づいて表皮形状を解析してもよい。第2抽出部213は、表皮位置の3次元座標に基づき、表皮の曲面の法線方向を抽出してもよい。
 所定の位置nの点(n,n,n)における、Z軸と曲面の法線方向がなす角について、X方向の角度とY方向の角度とをそれぞれ算出する。
 Z軸と曲面の位置nの法線方向がなすX方向の角度θは、所定の位置nの近傍の点の位置とのX方向の差分Δx、及びZ方向の差分Δzから、θ=arctan(Δx/Δz)と近似してもよい。同様に、Z軸と曲面の位置nの法線方向がなすY方向の角度θは、所定の位置nの近傍の点の位置とのY方向の差分Δy、及びZ方向の差分Δzから、θ=arctan(Δy/Δz)と近似してもよい。所定の位置nの近傍の点は、nに隣接する少なくとも1つの点を含んでいてもよい。
 [生成部214が行う画像生成動作]
 生成部214は、法線方向に基づいて、紋様画像に含まれる画素の位置を移動させ、移動後紋様画像2Dcを生成する(ステップS23)。生成部214は、紋様画像に含まれる画素の位置の法線方向に基づいて、紋様画像の各画素の位置を移動させてもよい。生成部214は、紋様画像の中心部の法線方向と、紋様画像に含まれる画素の位置の法線方向との差異に基づき、紋様画像に含まれる画素の位置を移動させてもよい。生成部214は、第1抽出部212が抽出した非接触紋様画像2Daと、第2抽出部213が表皮形状の解析結果に基づいて抽出した法線方向とに基づき、接触紋様画像2Dbに相当する移動後紋様画像2Dcを生成してもよい。
 図7は、画素の移動処理の概念図である。移動距離sは、標高最高点と位置nとの高さの差分dとZ軸に対する位置nにおける法線方向の角度θとを用いて算出してもよい。X方向の移動距離sは、s=d×tanθと算出してもよい。Y方向の移動距離sは、s=d×tanθと算出してもよい。すなわち、二次元画像における所定の位置nの画素(n,n)は、(n+d×tanθ,n+d×tanθ)に移動されてもよい。
 図7(a)は、X方向に関する移動距離sを例示している。図7(b)は、Y方向に関する移動距離sを例示している。図7(a)及び(b)の各々は、標高最高点と比較的遠い位置Fと比較的近い位置Nについて例示している。比較的遠い位置Fでは、比較的近い位置Nと比較して、標高最高点と位置nとの高さの差分d、Z軸に対する位置nにおける法線方向の角度θ、及び移動距離sの各々が大きくなる。
 図7(c)は、非接触紋様画像2Daの概念図であり、図7(d)は、移動後紋様画像2Dcの概念図である。図7(c)及び(d)に示されるように、移動後紋様画像2Dcにおける中心部から離れる程、紋様画像に含まれる画素の位置の移動量は大きくなる。
 また、角度θと移動距離sとを対応付けたテーブルを、例えば記憶装置22に用意しておいてもよい。生成部214は、当該テーブルを参照してX方向、及びY方向の角度に対応する移動距離を取得し、画素をX方向、Y方向に移動させてもよい。
 [2-4:実際の変換例]
 図8は、上述の動作により、実際に格子の画像を変換した場合の画像例を示す。図8(a)は変換前の画像例であり、図8(b)は、生成部214により生成された画像例である。図8(b)に示す画像例では、中心部から離れる程、格子の歪みが大きい。
 また、指紋画像を変換した場合は、隆線間の間隔、及び隆線の幅が、画像の中心部から離れる程、広くなる。
 [2-5:画像処理装置2の技術的効果]
 第2実施形態に係る画像処理装置2は、紋様画像に含まれる画素の位置の法線方向に基づいて、紋様画像の各画素の位置を移動させるので、各画素を適切な位置に移動させることができる。また、紋様画像の中心部の法線方向と、紋様画像に含まれる画素の位置の法線方向との差異に基づき、紋様画像に含まれる画素の位置を移動させるので、画素を適切に移動させることができる。
 [3:第3実施形態]
 画像処理装置、画像処理方法、及び、記録媒体の第3実施形態について説明する。以下では、画像処理装置、画像処理方法、及び記録媒体の第3実施形態が適用された画像処理装置3を用いて、画像処理装置、画像処理方法、及び記録媒体の第3実施形態について説明する。
 第3実施形態における画像処理装置3は、第2実施形態における画像処理装置2と比較して、生成部214による生成動作が異なる。画像処理装置3のその他の特徴は、画像処理装置2のその他の特徴と同一であってもよい。
 [3-1:画像処理装置3による生成動作]
 指の表面は、隆線、谷線等の微小な凹凸を有する場合が多い。OCT撮像により得られる三次元形状は、細かな凹凸を含み、単純な2次曲線とはならない場合が多い。したがって、画像の中心部から離れた画素であっても、法線方向がZ軸とほぼ同じになるような場合がある。画像の中心部とは、画像内において最も標高の高い位置であってもよい。画像の中心部とは、指の腹部の最も盛り上がった部分であってもよい。また、画像中心における法線方向は、Z軸と略同じ方向であってもよい。
 実際にガラス板等に指を押し付けた場合、画像の中心部から離れた位置において、指紋の位置は移動する。そこで、第3実施形態において、生成部214は、紋様画像の中心部から離れる程、紋様画像に含まれる画素の位置の移動量を大きくする。
 生成部214は、Z軸方向の位置が最も0に近い画素が位置する中心部からの距離が大きくなればなる程、画素の移動量が大きくなるよう補正してもよい。
 [3-2:画像処理装置3の技術的効果]
 画像内の中心部からの距離が大きくなればなるほど移動量が大きくなるよう補正するので、三次元形状が細かな凹凸を含む場合であっても、適切な移動後紋様画像を生成することができる。
 [4:第4実施形態]
 画像処理装置、画像処理方法、及び、記録媒体の第4実施形態について説明する。以下では、画像処理装置、画像処理方法、及び記録媒体の第4実施形態が適用された画像処理装置4を用いて、画像処理装置、画像処理方法、及び記録媒体の第4実施形態について説明する。
 第4実施形態における画像処理装置4は、第2実施形態における画像処理装置2、及び第3実施形態における画像処理装置3と比較して、生成部214による生成動作が異なる。画像処理装置4のその他の特徴は、画像処理装置2、及び画像処理装置3のその他の特徴と同一であってもよい。
 [4-1:画像処理装置4による生成動作]
 生成部214は、紋様画像に含まれる画素の位置の法線方向を抽出し、紋様画像の中心部から該当画素までの距離に応じて、抽出した法線方向を補正する。生成部214は、位置毎に予め定めた角度の範囲外の部分は、周囲の角度と連続的になるように角度を補正してもよい。
 例えば、図9に示すように、Bスキャン断層画像において、標高最高点から近さに応じて、範囲A、範囲B、範囲C、範囲Dを設定してもよい。図10に示す場合において、範囲Aを、Xが90以上、210未満の範囲に設定している。範囲Bを、Xが50以上、90未満の範囲、及びXが210以上、250未満の範囲に設定している。範囲Cを、Xが20以上、50未満の範囲、及びXが250以上、280未満の範囲に設定している。範囲Dを、Xが0以上、20未満の範囲、及びXが260以上、300未満の範囲に設定している。
 例えば、生成部214は、範囲Aにおいては、Z軸に対する法線の角度が、0°以上5°未満になるように、法線方向を補正してもよい。また、生成部214は、範囲Bにおいては、Z軸に対する法線の角度が、5°以上15°未満になるように、法線方向を補正してもよい。また、生成部214は、範囲Cにおいては、Z軸に対する法線の角度が、15°以上25°未満になるように、法線方向を補正してもよい。また、生成部214は、範囲Dにおいては、Z軸に対する法線の角度が、25°以上35°未満になるように、法線方向を補正してもよい。
 このような場合において、Xが150の位置(範囲A内)における法線方向が1°の場合、所定の角度の範囲(0°以上5°未満)内なので、生成部214は、抽出した法線方向に応じて画素を移動する。一方、Xが230の位置(範囲B内)における法線方向が1°の場合、所定の角度の範囲(5°以上15°未満)外なので、生成部214は、補正した法線方向に応じて画素を移動する。補正例として、例えば、生成部214は、Xが230の近傍の、Xが220の位置~Xが240の位置の法線方向の平均値を、Xが230の位置の補正後の法線方向としてもよい。又は、生成部214は、Xが230の近傍の、Xが220の位置の法線方向とXが240の位置の法線方向との平均値を、Xが230の位置の補正後の法線方向としてもよい。近傍の位置は、該当位置から10画素離れた位置までの位置に限らず、例えば該当位置から20画素離れた位置までを含んでもよい。
 [4-2:画像処理装置4の技術的効果]
 紋様画像の中心部から該当画素までの距離に応じて、抽出した法線方向を補正するので、三次元形状が細かな凹凸を含む場合であっても、適切な移動後紋様画像を生成することができる。
 [5:第5実施形態]
 画像処理装置、画像処理方法、及び、記録媒体の第5実施形態について説明する。以下では、画像処理装置、画像処理方法、及び記録媒体の第5実施形態が適用された画像処理装置5を用いて、画像処理装置、画像処理方法、及び記録媒体の第5実施形態について説明する。
 [5-1:画像処理装置5の構成]
 図10を参照しながら、第5実施形態における画像処理装置5の構成について説明する。図10は、第5実施形態における画像処理装置5の構成を示すブロック図である。
 図10に示すように、第5実施形態における画像処理装置5は、第2実施形態における画像処理装置2~第4実施形態における画像処理装置4と比較して、演算装置21が照合部515を備える点、記憶装置22が、登録紋様画像が登録されている指紋データベースDBを記憶する点で異なる。但し、記憶装置22が、指紋データベースDBを記憶していなくてもよい。画像処理装置5のその他の特徴は、画像処理装置2~画像処理装置4のその他の特徴と同一であってもよい。
 画像処理装置5は、三次元輝度データを用いて、指紋認証に適した指紋画像の生成し、当該指紋画像を予め指紋データベースDBに登録し、指紋画像の照合による生体認証の処理を行ってもよい。
 照合部515は、移動後紋様画像2Dcと、予め登録されている登録紋様画像とを照合する。照合部515は、生成部214が生成した移動後紋様画像2Dcと、登録紋様画像に登録されている指紋画像とを照合してもよい。OCT撮像により非接触で測定、及び抽出された指紋画像と、過去に接触型で採取されデータベースに記録された指紋画像との高精度な照合をすることができる。
 例えば、図6(a)に示す非接触紋様画像2Daと、図6(b)に示す接触紋様画像2Dbとの照合では高いスコアが得られない場合があるが、図6(c)に示す移動後紋様画像2Dcと、図6(b)に示す接触紋様画像2Dbとの照合では高いスコアが得ることができる。
 [5-2:画像処理装置4の技術的効果]
 非接触紋様画像2Daを移動後紋様画像2Dcに変換するので、接触紋様画像2Dbと照合した場合にも、精度よく照合することができる。
 [6:移動後紋様画像の生成の学習]
 なお、機械機構による機械学習によって、移動後紋様画像を生成する生成エンジンを構築してもよい。生成部214は、当該生成エンジンを用いて移動後紋様画像を生成してもよい。
 例えば、生成した移動後紋様画像と、予め登録されている登録紋様画像とを照合し、これらが一致した場合に、一致した特徴点の位置情報を取得する。一致した特徴点の位置と、当該一致した特徴点における登録紋様画像と紋様画像と位置との差分(X方向とY方向の距離)と、当該一致した特徴点における紋様画像の法線方向とを対応付けたデータを学習データとしてもよい。差分は、移動量に対応する。当該学習データを用いて機械学習させ、生成エンジンを生成してもよい。
 学習機構は、接触紋様画像と生成部214が生成した移動後紋様画像との照合結果とに基づいて、生成エンジンに移動後紋様画像の生成方法の学習を行わせてもよい。
 生成エンジンは、紋様画像の画素の位置とその画素の法線方向とが入力されると、画素の移動量を出力してもよい。
 学習データは、位置、差分、法線方法に加え、指紋中心からの距離の情報を含んだデータであってもよい。
 [7:指紋画像のラベリング]
 指紋画像は、少なくとも、(1)OCT撮像等により得られた三次元形状を単純に平面に投影して取得される非接触紋様画像2Da、(2)指をガラス板に押し付けて取得される接触紋様画像2Db、(3)OCT撮像等により得られた三次元形状を、(2)の状態と同様に加工して取得される移動後紋様画像2Dcが存在する。そこで、各々の取得方式に応じて、指紋画像にラベル付けを行って指紋データベースに登録してもよい。指紋データベースに登録された指紋がを打を認証に用いる際は、ラベルを参照し、取得方式に応じた認証を行ってもよい。
 なお、上述した各実施形態において、光干渉断層撮像の対象の生体情報として、指の皮膚の紋様(指紋)を例に挙げて説明を行ったが、生体情報は指紋に限らない。生体情報として、指紋の他に虹彩、掌紋、足紋を採用し、これら生体情報の光干渉断層撮像に適応してもよい。虹彩は筋繊維なので、光干渉断層画像から虹彩の特徴量を取得可能であり、当該特徴量を用いた虹彩認証を実施してもよい。指紋は、手の指の紋様であってもよく、足の指の紋様であってもよい。指紋を含む手や足の紋様を光干渉断層撮像する場合は、樹脂等を透過する光を用いてもよい。
 [8:付記]
 以上説明した実施形態に関して、更に以下の付記を開示する。
 [付記1]
 指の皮膚に対して光ビームを二次元走査しながら照射して光干渉断層撮像を行って生成した前記皮膚の三次元輝度データを取得する取得手段と、
 前記皮膚の三次元輝度データから、前記皮膚の紋様の紋様画像を抽出する第1抽出手段と、
 前記皮膚の三次元輝度データから、前記皮膚の表面の法線方向を抽出する第2抽出手段と、
 前記法線方向に基づいて、前記紋様画像に含まれる画素の位置を移動させ、移動後紋様画像を生成する生成手段と
 を備える画像処理装置。
 [付記2]
 前記生成手段は、前記紋様画像に含まれる画素の位置の前記法線方向に基づいて、前記紋様画像の各画素の位置を移動させる
 付記1に記載の画像処理装置。
 [付記3]
 前記生成手段は、前記紋様画像の中心部の前記法線方向と、前記紋様画像に含まれる画素の位置の前記法線方向との差異に基づき、前記紋様画像に含まれる画素の位置を移動させる
 付記1又は2に記載の画像処理装置。
 [付記4]
 前記生成手段は、前記紋様画像の中心部から離れる程、前記紋様画像に含まれる画素の位置の移動量を大きくする
 付記1~3の何れか1項に記載の画像処理装置。
 [付記5]
 前記第2抽出手段は、前記紋様画像に含まれる画素の位置の前記法線方向を抽出し、前記紋様画像の中心部から該当画素までの距離に応じて、抽出した前記法線方向を補正する
 付記1~4の何れか1項に記載の画像処理装置。
 [付記6]
 前記移動後紋様画像と、予め登録されている登録紋様画像とを照合する照合手段を更に備える
 付記1~5の何れか1項に記載の画像処理装置。
 [付記7]
 指の皮膚に対して光ビームを二次元走査しながら照射して光干渉断層撮像を行って生成した前記皮膚の三次元輝度データを取得し、
 前記皮膚の三次元輝度データから、前記皮膚の紋様の紋様画像を抽出し、
 前記皮膚の三次元輝度データから、前記皮膚の表面の法線方向を抽出し、
 前記法線方向に基づいて、前記紋様画像に含まれる画素の位置を移動させ、移動後紋様画像を生成する
 画像処理方法。
 [付記8]
 コンピューターに、
 指の皮膚に対して光ビームを二次元走査しながら照射して光干渉断層撮像を行って生成した前記皮膚の三次元輝度データを取得し、
 前記皮膚の三次元輝度データから、前記皮膚の紋様の紋様画像を抽出し、
 前記皮膚の三次元輝度データから、前記皮膚の表面の法線方向を抽出し、
 前記法線方向に基づいて、前記紋様画像に含まれる画素の位置を移動させ、移動後紋様画像を生成する
 画像処理方法を実行させるためのコンピュータプログラムが記録されている記録媒体。
 上述の各実施形態の構成要件の少なくとも一部は、上述の各実施形態の構成要件の少なくとも他の一部と適宜組み合わせることができる。上述の各実施形態の構成要件のうちの一部が用いられなくてもよい。また、法令で許容される限りにおいて、上述のこの開示で引用した全ての文献(例えば、公開公報)の開示を援用してこの開示の記載の一部とする。
 この開示は、請求の範囲及び明細書全体から読み取るこのできる技術的思想に反しない範囲で適宜変更可能である。そのような変更を伴う画像処理装置、画像処理方法、及び、記録媒体もまた、この開示の技術的思想に含まれる。
1,2,3,4,5 画像処理装置
11,211 取得部
12,212 第1抽出部
13,213 第2抽出部
14,214 生成部
515 照合部
100 光干渉断層撮像装置
110 波長掃引レーザ光源
120 光干渉受光部
130 光ビーム走査部
140 信号処理制御部
O 測定対象物
121 サーキュレータ
122 分岐合流器
123 参照光ミラー
124 バランス型受光器
131 ファイバコリメータ
132 照射光学系
R1 物体光
R2 参照光
R3 物体光
R4 参照光
R5 干渉光
R6 干渉光

Claims (8)

  1.  指の皮膚に対して光ビームを二次元走査しながら照射して光干渉断層撮像を行って生成した前記皮膚の三次元輝度データを取得する取得手段と、
     前記皮膚の三次元輝度データから、前記皮膚の紋様の紋様画像を抽出する第1抽出手段と、
     前記皮膚の三次元輝度データから、前記皮膚の表面の法線方向を抽出する第2抽出手段と、
     前記法線方向に基づいて、前記紋様画像に含まれる画素の位置を移動させ、移動後紋様画像を生成する生成手段と
     を備える画像処理装置。
  2.  前記生成手段は、前記紋様画像に含まれる画素の位置の前記法線方向に基づいて、前記紋様画像の各画素の位置を移動させる
     請求項1に記載の画像処理装置。
  3.  前記生成手段は、前記紋様画像の中心部の前記法線方向と、前記紋様画像に含まれる画素の位置の前記法線方向との差異に基づき、前記紋様画像に含まれる画素の位置を移動させる
     請求項1又は2に記載の画像処理装置。
  4.  前記生成手段は、前記紋様画像の中心部から離れる程、前記紋様画像に含まれる画素の位置の移動量を大きくする
     請求項1~3の何れか1項に記載の画像処理装置。
  5.  前記第2抽出手段は、前記紋様画像に含まれる画素の位置の前記法線方向を抽出し、前記紋様画像の中心部から該当画素までの距離に応じて、抽出した前記法線方向を補正する
     請求項1~4の何れか1項に記載の画像処理装置。
  6.  前記移動後紋様画像と、予め登録されている登録紋様画像とを照合する照合手段を更に備える
     請求項1~5の何れか1項に記載の画像処理装置。
  7.  指の皮膚に対して光ビームを二次元走査しながら照射して光干渉断層撮像を行って生成した前記皮膚の三次元輝度データを取得し、
     前記皮膚の三次元輝度データから、前記皮膚の紋様の紋様画像を抽出し、
     前記皮膚の三次元輝度データから、前記皮膚の表面の法線方向を抽出し、
     前記法線方向に基づいて、前記紋様画像に含まれる画素の位置を移動させ、移動後紋様画像を生成する
     画像処理方法。
  8.  コンピューターに、
     指の皮膚に対して光ビームを二次元走査しながら照射して光干渉断層撮像を行って生成した前記皮膚の三次元輝度データを取得し、
     前記皮膚の三次元輝度データから、前記皮膚の紋様の紋様画像を抽出し、
     前記皮膚の三次元輝度データから、前記皮膚の表面の法線方向を抽出し、
     前記法線方向に基づいて、前記紋様画像に含まれる画素の位置を移動させ、移動後紋様画像を生成する
     画像処理方法を実行させるためのコンピュータプログラムが記録されている記録媒体。
PCT/JP2022/008908 2022-03-02 2022-03-02 画像処理装置、画像処理方法、及び、記録媒体 WO2023166616A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/008908 WO2023166616A1 (ja) 2022-03-02 2022-03-02 画像処理装置、画像処理方法、及び、記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/008908 WO2023166616A1 (ja) 2022-03-02 2022-03-02 画像処理装置、画像処理方法、及び、記録媒体

Publications (1)

Publication Number Publication Date
WO2023166616A1 true WO2023166616A1 (ja) 2023-09-07

Family

ID=87883218

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/008908 WO2023166616A1 (ja) 2022-03-02 2022-03-02 画像処理装置、画像処理方法、及び、記録媒体

Country Status (1)

Country Link
WO (1) WO2023166616A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019109798A (ja) * 2017-12-20 2019-07-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
WO2021019788A1 (ja) * 2019-08-01 2021-02-04 日本電気株式会社 処理装置、システム、生体認証システム、処理方法、及びコンピュータ可読媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019109798A (ja) * 2017-12-20 2019-07-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
WO2021019788A1 (ja) * 2019-08-01 2021-02-04 日本電気株式会社 処理装置、システム、生体認証システム、処理方法、及びコンピュータ可読媒体

Similar Documents

Publication Publication Date Title
JP5340262B2 (ja) 皮下血流測定を利用した個人認証方法及び個人認証装置
Manfredi et al. Natural scenes in tactile texture
CN105342558B (zh) 一种基于光学相干断层扫描成像中相位误差的校正方法
US8907932B2 (en) Systems and methods for assessing the authenticity of dynamic handwritten signature
US10362933B2 (en) Ophthalmologic apparatus, tomographic image generation method, and program that determine an imaging region for capturing a plurality of tomographic images for generating an averaged tomographic image
US20070263906A1 (en) Personal Identification Method by Subcutaneous Bloodstream Measurement and Personal Identification Device
CN107788950B (zh) 基于自适应阈值分割的血流成像方法与系统
KR20070004892A (ko) 혈류 검출을 위한 장치 및 방법
Sun et al. Synchronous fingerprint acquisition system based on total internal reflection and optical coherence tomography
Jarocka et al. Human touch receptors are sensitive to spatial details on the scale of single fingerprint ridges
CN106137134B (zh) 多角度复合的血流成像方法及系统
US10820840B2 (en) Optical coherence tomography for identity verification
US11076776B2 (en) Apparatus and method for real-time tracking of bony structures
US20180224267A1 (en) Multiple Reference OCT System
CN106778663B (zh) 一种指纹识别系统
Wang et al. Robust motion tracking based on adaptive speckle decorrelation analysis of OCT signal
US9916433B2 (en) Condition authentication based upon temporal-spatial analysis of vibrational responsivity
WO2023166616A1 (ja) 画像処理装置、画像処理方法、及び、記録媒体
WO2015192700A1 (en) Method and device for tonometric blood pressure measurement
WO2021192117A1 (ja) 光干渉断層撮像装置
US9157727B2 (en) Image measuring method and image measuring apparatus
WO2023119631A1 (ja) 光干渉断層撮像解析装置、光干渉断層撮像解析方法、及び記録媒体
US11585654B2 (en) Texture detection apparatuses, systems, and methods for analysis
WO2023243458A1 (ja) 情報処理装置、情報処理方法、及び、記録媒体
US11892290B2 (en) Optical coherence tomography apparatus, imaging method, and non-transitory computer readable medium storing imaging program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22929762

Country of ref document: EP

Kind code of ref document: A1