WO2023119631A1 - 光干渉断層撮像解析装置、光干渉断層撮像解析方法、及び記録媒体 - Google Patents

光干渉断層撮像解析装置、光干渉断層撮像解析方法、及び記録媒体 Download PDF

Info

Publication number
WO2023119631A1
WO2023119631A1 PCT/JP2021/048237 JP2021048237W WO2023119631A1 WO 2023119631 A1 WO2023119631 A1 WO 2023119631A1 JP 2021048237 W JP2021048237 W JP 2021048237W WO 2023119631 A1 WO2023119631 A1 WO 2023119631A1
Authority
WO
WIPO (PCT)
Prior art keywords
skin
optical coherence
dimensional
coherence tomography
dimensional data
Prior art date
Application number
PCT/JP2021/048237
Other languages
English (en)
French (fr)
Inventor
滋 中村
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2021/048237 priority Critical patent/WO2023119631A1/ja
Publication of WO2023119631A1 publication Critical patent/WO2023119631A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • This disclosure relates to the technical field of an optical coherence tomography analysis apparatus, an optical coherence tomography analysis method, and a recording medium.
  • Patent Literature 1 discloses a fingerprint imaging device that acquires a fingerprint image of the epidermis in a non-contact manner while passing the fingertip through a predetermined place without contacting a glass plate or the like.
  • Patent Documents 2 to 4 disclose a fingerprint imaging device that obtains a fingerprint image of the dermis by performing three-dimensional tomography of a fingertip using Optical Coherence Tomography (OCT) technology.
  • OCT Optical Coherence Tomography
  • the purpose of this disclosure is to improve the technology disclosed in prior art documents.
  • optical coherence tomography analysis apparatus of this disclosure performs optical coherence tomography by irradiating the skin with a light beam while scanning it two-dimensionally, and acquiring means for acquiring three-dimensional luminance data of the skin.
  • position extracting means for extracting the epidermis position of the skin for each tomographic image obtained by scanning the light beam in the fast axis direction in the three-dimensional luminance data of the skin; and based on the extraction result of the epidermis position of the skin connecting means for generating connected three-dimensional data by connecting the tomographic images by adjusting relative positions between the tomographic images; flattening means for generating flattened three-dimensional data by executing conversion processing for flattening the epidermis; and extracting the skin pattern according to a predetermined extraction depth from the flattened three-dimensional data. and pattern extraction means.
  • One aspect of the optical coherence tomography analysis method of this disclosure is an optical coherence tomography analysis method executed by at least one computer, wherein the skin is irradiated with a light beam while two-dimensionally scanning the optical coherence tomography.
  • Imaging is performed to obtain the three-dimensional brightness data of the skin, the epidermis position of the skin is extracted for each tomographic image obtained by scanning the light beam in the fast axis direction in the three-dimensional brightness data of the skin, and the Connecting the tomographic images by adjusting the relative position between the tomographic images based on the extraction result of the epidermis position of the skin to generate connected three-dimensional data, and based on the extraction result of the epidermis position of the skin and generating flattened three-dimensional data by executing conversion processing for flattening the epidermis on the connected three-dimensional data, and extracting the pattern of the skin corresponding to a predetermined extraction depth from the flattened three-dimensional data.
  • One aspect of the recording medium of this disclosure is to irradiate at least one computer with a light beam while two-dimensionally scanning the skin to perform optical coherence tomography, acquire three-dimensional luminance data of the skin, For each tomographic image obtained by scanning the light beam in the fast axis direction in the three-dimensional luminance data of the skin, the epidermis position of the skin is extracted, and based on the extraction result of the epidermis position of the skin, between the tomographic images By connecting the tomographic images by adjusting the relative positions of the tomographic images, connecting three-dimensional data is generated, and based on the extraction result of the epidermis position of the skin, the epidermis is flattened with respect to the connecting three-dimensional data.
  • a computer program for executing an optical coherence tomography analysis method for generating flattened three-dimensional data by executing processing and extracting the skin pattern corresponding to a predetermined extraction depth from the flattened three-dimensional data. is recorded.
  • FIG. 1 is a block diagram showing a hardware configuration example of an optical coherence tomographic imaging analysis apparatus according to a first embodiment
  • FIG. It is a schematic diagram showing a configuration example of an optical coherence tomographic imaging unit according to the first embodiment.
  • 3 is a block diagram showing the functional configuration of an optical coherence tomography analysis unit according to the first embodiment;
  • FIG. 5 is a flow chart showing the flow of fingerprint extraction operation by the optical coherence tomography analysis unit according to the first embodiment;
  • FIG. 4 is a plan view showing an example of three-dimensional luminance data acquired by the optical coherence tomographic imaging unit according to the first embodiment;
  • FIG. 5 is a plan view showing an example of extraction of epidermis positions by the optical coherence tomography analysis unit according to the first embodiment
  • FIG. 4 is a three-dimensional view showing an example of connection of tomographic images by the optical coherence tomographic analysis unit according to the first embodiment
  • FIG. 7 is a plan view showing an example of flattening conversion processing by the optical coherence tomography analysis unit according to the first embodiment
  • FIG. 4 is a plan view showing an example of extraction of a fingerprint image by the optical coherence tomography analysis unit according to the first embodiment
  • FIG. 6 is a block diagram showing the configuration of an optical coherence tomographic imaging analysis apparatus according to a second embodiment
  • 9 is a flow chart showing the flow of matching operation by an optical coherence tomography analysis unit according to the second embodiment
  • FIG. 11 is a block diagram showing the configuration of an optical coherence tomographic imaging analysis apparatus according to a third embodiment
  • FIG. 11 is a block diagram showing the configuration of an optical coherence tomographic imaging analysis apparatus according to a fourth embodiment
  • FIG. 11 is a block diagram showing the configuration of an optical coherence tomographic imaging analysis apparatus according to a fifth embodiment
  • FIG. 1 An optical coherence tomography analysis apparatus according to the first embodiment will be described with reference to FIGS. 1 to 9.
  • FIG. 1 An optical coherence tomography analysis apparatus according to the first embodiment will be described with reference to FIGS. 1 to 9.
  • FIG. 1 An optical coherence tomography analysis apparatus according to the first embodiment will be described with reference to FIGS. 1 to 9.
  • FIG. 1 An optical coherence tomography analysis apparatus according to the first embodiment will be described with reference to FIGS. 1 to 9.
  • FIG. 1 is a block diagram showing a hardware configuration example of an optical coherence tomographic imaging analysis apparatus according to the first embodiment.
  • an optical coherence tomography analysis apparatus 1 images the skin of a living body using a three-dimensional measurement technique such as OCT, and the pattern of the skin is determined from the three-dimensional data obtained by imaging. Configured as an extractable device.
  • the type of skin pattern is not particularly limited, and may be, for example, a fingerprint or a palm print.
  • An optical coherence tomographic imaging analysis apparatus 1 according to the first embodiment includes an optical coherence tomographic imaging section 2 and an optical coherence tomographic analysis section 3 .
  • Each unit of the optical coherence tomographic imaging analysis apparatus 1 may be connected to each other via a bus, wiring, driving device, etc. (not shown).
  • the optical coherence tomography unit 2 is configured to be able to image the skin of a living body using a three-dimensional measurement technique such as OCT.
  • the optical coherence tomographic imaging unit 2 is configured to be able to output three-dimensional luminance data obtained by imaging to the optical coherence tomographic analysis unit 3 .
  • a specific configuration of the optical coherence tomographic imaging unit 2 will be described later in detail.
  • the optical coherence tomography analysis unit 3 analyzes the three-dimensional luminance data acquired from the optical coherence tomography unit 2, and is configured to be able to extract the pattern of the skin of the living body (for example, fingerprints of the epidermis and dermis). .
  • the optical coherence tomography analysis unit 3 can be, for example, a computer such as a data processing server, a desktop PC (Personal Computer), a notebook PC, and a tablet PC.
  • the optical coherence tomography analysis unit 3 includes a processor 101, a memory 102, a communication I/F (Interface) 103, an input device 104 and an output device 105 as a computer that performs calculation, control and storage.
  • the processor 101 is, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an FPGA (Field-Programmable Gate Array), an ASIC (Application Specific Integrated Circuit), etc.
  • a processing device comprising one or more arithmetic processing circuits. be.
  • the processor 101 performs predetermined calculations according to a program stored in the memory 102 or the like, and also has a function of controlling each part of the optical coherence tomography analysis unit 3 .
  • the memory 102 is a volatile storage medium that provides a temporary memory area required for the operation of the processor 101, and a non-volatile storage medium that non-temporarily stores information such as data to be processed and an operation program for the optical coherence tomography analysis unit 3. and a physical storage medium.
  • volatile storage media include RAM (Random Access Memory).
  • nonvolatile storage media include ROM (Read Only Memory), HDD (Hard Disk Drive), SSD (Solid State Drive), flash memory, and the like.
  • the communication I/F 103 is a communication interface based on standards such as Ethernet (registered trademark), Wi-Fi (registered trademark), and Bluetooth (registered trademark).
  • a communication I/F 103 is a module for communicating with other devices such as the optical coherence tomography unit 2 .
  • the input device 104 is a keyboard, pointing device, buttons, etc., and is used by the user to operate the optical coherence tomography analysis unit 3 .
  • pointing devices include mice, trackballs, touch panels, and pen tablets.
  • the output device 105 is, for example, a device that presents information to the user, such as a display device and a speaker.
  • Examples of display devices include liquid crystal displays and OLED (Organic Light Emitting Diode) displays.
  • the input device 104 and the output device 105 may be integrally formed as a touch panel.
  • the hardware configuration shown in FIG. 1 is an example, and devices other than these may be added, or some devices may be omitted. Also, some devices may be replaced by other devices having similar functions. Also, part of the functions of this embodiment may be provided by another device via a network, and the functions of this embodiment may be implemented by being distributed to a plurality of devices.
  • the optical coherence tomography section 2 and the optical coherence tomography analysis section 3 may be an integrated device.
  • the hardware configuration shown in FIG. 1 can be changed as appropriate.
  • FIG. 2 is a schematic diagram showing a configuration example of an optical coherence tomographic imaging unit according to the first embodiment. Note that the configuration diagram shown in FIG. 2 merely shows an example of a measuring device using the OCT technique, and other measuring device configurations may be used.
  • interference between object light and reference light is used to identify the position in the optical axis direction, that is, the depth direction of a portion of the object to be measured where the object light is scattered (light scattering point).
  • Structural data spatially resolved in the depth direction inside the part is obtained.
  • OCT technology includes a Time Domain (TD-OCT) method and a Fourier Domain (FD-OCT) method, but the FD-OCT method is more promising in terms of high speed and high sensitivity.
  • TD-OCT Time Domain
  • FD-OCT Fourier Domain
  • an interference light spectrum in a wide wavelength band is measured when object light and reference light are caused to interfere, and the spectrum is Fourier-transformed to obtain structural data in the depth direction.
  • Methods for obtaining an interference light spectrum include a Spectral Domain (SD-OCT) method using a spectroscope and a Swept Source (SS-OCT) method using a light source that sweeps the wavelength.
  • SD-OCT Spectral Domain
  • tomographic structure data that is, three-dimensional tomographic structure data of the object to be measured.
  • FIG. 2 shows an SS-OCT optical coherence tomographic imaging unit 2.
  • a wavelength-swept light pulse is generated by the wavelength-swept laser light source 201 .
  • the light emitted from the wavelength swept laser light source 201 passes through the light interference/light receiving unit 202 and the light beam scanning unit 203, is irradiated onto the measurement object 205, and is scattered. Part of this scattered light is returned to the light interference/light receiving unit 202 and photoelectrically converted.
  • the electrical signal output from the optical interference/light receiving unit 202 is processed into data by the signal processing/control unit 204 and sent to the optical coherence tomography analysis unit 3 .
  • a wavelength-swept laser light source 201 generates a light pulse whose wavelength increases from 1250 nm to 1350 nm for a duration of 5 ⁇ s, and generates this light pulse at a repetition rate of 100 kHz every 10 ⁇ s.
  • the light emitted from the wavelength swept laser light source 201 is input to the splitter/merger 212 via the circulator 211 .
  • the splitter/merger 212 splits the input light into an object beam R211 and a reference beam R221.
  • the object light R211 passes through a fiber collimator 215, an irradiation optical system 216 consisting of a scanning mirror and a lens, and irradiates an object 205 to be measured. Then, the object light R231 scattered by the measurement object 205 returns to the splitter/merger 212.
  • the reference light R 221 passes through the reference light mirror 213 and returns to the splitter/combiner 212 .
  • the object light R231 scattered from the measurement object 205 and the reference light R241 reflected from the reference light mirror 213 interfere with each other to generate interference light R251 and R261. That is, the intensity ratio between the interference light R251 and the interference light R261 is determined by the phase difference between the object light R231 and the reference light R241.
  • the interference light R251 passes through the circulator 211 and the interference light R261 is directly input to the two-input balanced photodetector 214 .
  • a voltage corresponding to the intensity difference between the interference light R251 and the interference light R261 is output from the balanced photodetector 214 and input to the signal processing/control unit 204 .
  • interference light spectrum data is generated based on the information about the wavelength change of the emitted light from the wavelength swept laser light source 201 and the information about the change of the intensity ratio between the interference lights R251 and R261. .
  • This interference light spectrum data is Fourier transformed to obtain data indicating the intensity of backscattered light (object light) at different positions in the depth direction (Z direction)
  • the operation of obtaining data indicating the intensity of backscattered light (object light) in the (Z direction) is referred to as an "A-scan").
  • an electrical signal with a repetition frequency of 100 kHz is supplied from the wavelength-swept laser light source 201 to the signal processing/controller 204 as an A-scan trigger signal.
  • the A-scan waveform a waveform representing object light backscattering intensity at Nz points is obtained.
  • the irradiation position of the object light beam R231 is scanned on the measurement object 205 by the irradiation optical system 216.
  • FIG. The signal processing/control unit 204 controls the irradiation optical system 216 in response to an A-scan trigger signal supplied from the wavelength swept laser light source 201 to shift the irradiation position of the object light beam R231 in the scanning line direction (scanning fast axis direction, X direction).
  • A-scan trigger signal supplied from the wavelength swept laser light source 201 to shift the irradiation position of the object light beam R231 in the scanning line direction (scanning fast axis direction, X direction).
  • B-scan the operation of repeating the A-scan operation in the scanning line direction (the fast axis direction of scanning, the X direction) and connecting the measurement results.
  • the object light beam irradiation position per B scan is Nx points
  • the tomographic image obtained by the B scan becomes two-dimensional luminance data indicating the object light backscattering intensity of Nz ⁇ Nx points.
  • the irradiation optical system 216 moves the irradiation position of the object light beam R231 not only in the scanning line direction but also in the direction perpendicular to the scanning line (the slow axis direction of scanning, the Y direction) while repeating the B scanning operation.
  • three-dimensional tomographic structure data can be obtained (hereinafter, the operation of repeatedly performing a B-scan operation in the direction perpendicular to the scanning line (Y direction) and connecting the measurement results is referred to as " C-scan").
  • the tomographic structure data obtained by the C-scan becomes three-dimensional luminance data representing the object light backscattering intensity at Nz ⁇ Nx ⁇ Ny points.
  • the time required for one B scan is 300 times of the A scan, so the time required for one B scan is 3 ms.
  • the time required for one scan is 900 ms because it is equivalent to 300 B scans.
  • FIG. 3 is a block diagram showing a functional configuration of an optical coherence tomography analysis unit according to the first embodiment
  • the optical coherence tomography analysis unit 3 includes functional blocks for realizing its functions, a three-dimensional luminance data acquisition unit 301, a skin position extraction unit 302, and a tomographic image A connection unit 303 , a flattening conversion processing unit 304 , and a fingerprint image extraction unit 305 are provided.
  • each of the three-dimensional luminance data acquisition unit 301, the skin position extraction unit 302, the tomographic image connection unit 303, the flattening conversion processing unit 304, and the fingerprint image extraction unit 305 is, for example, the above-described processor 101 (see FIG. 1). It may be realized by
  • the three-dimensional brightness data acquisition unit 301 is configured to be able to acquire three-dimensional brightness data obtained by measuring the skin of a living body with the optical coherence tomography unit 2 .
  • the three-dimensional brightness data acquisition unit 301 may acquire new three-dimensional brightness data by controlling the optical coherence tomography unit 2, or acquire three-dimensional brightness data previously acquired from a storage medium such as the memory 102. It may be read out to obtain three-dimensional luminance data.
  • the epidermal position extraction unit 302 Extract the epidermal position.
  • the epidermis position extraction unit 302 may, for example, extract coordinates indicating the epidermis position in the tomographic image.
  • the tomographic image connecting unit 303 is configured to be able to adjust the relative positions of the tomographic images and connect the tomographic images based on the epidermal position extracted by the epidermal position extracting unit 302 . More specifically, the tomographic image connecting unit 303 adjusts the relative position based on the extracted skin position so that the difference in the skin position between adjacent B-scan tomographic images becomes small. Then, the tomographic image connecting unit 303 connects the position-adjusted adjacent B-scan tomographic images to generate three-dimensional luminance data (hereinafter, appropriately referred to as “connected three-dimensional data”).
  • the flattening conversion processing unit 304 is configured to be able to execute conversion processing for flattening the skin of the connected three-dimensional data based on the skin position extracted by the skin position extracting unit 302 .
  • the flattening conversion processing unit 304 may flatten the skin by, for example, performing parallel movement in the Z direction (that is, the depth direction) to return the skin position to the origin.
  • Three-dimensional luminance data obtained by performing such conversion processing is hereinafter referred to as “flattened three-dimensional data”.
  • a fingerprint image extracting unit 305 can extract a fingerprint image (that is, a planar image showing skin patterns) corresponding to a predetermined extraction depth from the flattened three-dimensional data obtained by the flattening conversion processing unit 304. It is configured.
  • the extraction depth here is a value that is set in advance according to the extraction target, and for example, a value corresponding to the epidermis or a value corresponding to the dermis may be set.
  • the fingerprint image extraction unit 305 may extract a plurality of fingerprint images by changing the extraction depth from one flattened three-dimensional data.
  • the fingerprint image extraction unit 305 may also extract other data indicating the fingerprint (for example, the feature amount of the fingerprint).
  • FIG. 4 is a flow chart showing the flow of fingerprint extraction operation by the optical coherence tomography analysis unit according to the first embodiment.
  • the optical coherence tomography analysis unit 3 when the optical coherence tomography analysis unit 3 according to the first embodiment operates, first the three-dimensional brightness data acquisition unit 301 acquires the three-dimensional brightness, which is the measurement result of the optical coherence tomography unit 2 Data is acquired (step S11). The three-dimensional brightness data acquired by the three-dimensional brightness data acquisition section 301 is output to the epidermis position extraction section 302 .
  • the epidermis position extraction unit 302 extracts the epidermis position for each tomographic image from the three-dimensional luminance data acquired by the three-dimensional luminance data acquisition unit 301 (step S12). Information about the skin position extracted by the skin position extraction unit 302 is output to each of the tomographic image connection unit 303 and the flattening conversion processing unit 304 .
  • the tomographic image connecting unit 303 adjusts the relative position between the tomographic images based on the skin position extracted by the skin position extracting unit 302, and connects the tomographic images to generate connected three-dimensional data. (step S13).
  • the connected three-dimensional data generated by the tomographic image connecting unit 303 is output to the flattening conversion processing unit 304 .
  • the flattening conversion processing unit 304 executes conversion processing for flattening the skin of the connected three-dimensional data based on the skin position extracted by the skin position extracting unit 302 to generate flattened three-dimensional data. (Step S14).
  • the flattened three-dimensional data generated by the flattened conversion processing unit 304 is output to the fingerprint image extraction unit 305 .
  • the fingerprint image extraction unit 305 extracts a fingerprint image corresponding to a predetermined extraction depth from the flattened three-dimensional data obtained by the flattening conversion processing unit 304 (step S15).
  • the fingerprint image extraction unit 305 may register (store) the extracted fingerprint image as registration information.
  • verification processing using the registered fingerprint image for example, biometric authentication processing using fingerprints
  • a configuration that uses a fingerprint image for verification processing will be described in detail in another embodiment described later.
  • FIG. 5 is a plan view showing an example of three-dimensional brightness data acquired by the optical coherence tomographic imaging unit according to the first embodiment
  • FIG. 6 is a plan view showing an example of extraction of epidermis positions by the optical coherence tomography analysis unit according to the first embodiment.
  • FIG. 7 is a stereoscopic view showing an example of connection of tomographic images by the optical coherence tomographic analysis unit according to the first embodiment.
  • FIG. 8 is a plan view showing an example of flattening conversion processing by the optical coherence tomography analysis unit according to the first embodiment;
  • FIG. 9 is a plan view showing an example of fingerprint image extraction by the optical coherence tomography analysis unit according to the first embodiment.
  • the light beam scanning unit 203 of the optical coherence tomographic imaging unit 2 irradiates an object light beam at 300 points in the X direction, which is the fast axis direction of scanning, and 300 points in the Y direction, which is the slow axis direction of scanning. and obtain luminance data resolved into 256 points in the Z direction by analyzing the interference light spectrum of the object light and the reference light.
  • the three-dimensional luminance data of the living finger is generated. .
  • FIGS. 5A to 5C show three out of 300 B-scan tomographic images as an example of acquired three-dimensional luminance data.
  • the epidermis position extraction unit 302 extracts the coordinates of the epidermis position for each B-scan tomographic image.
  • FIGS. 6A to 6C show the results of extracting the epidermis position in three out of 300 B-scan tomographic images.
  • the Z value Zs' that maximizes the object light backscattering intensity (luminance) for each X value is selected.
  • the luminance is maximum at a position other than the skin.
  • the tomographic image connection unit 303 calculates the relative position between adjacent B-scan tomographic images. adjust.
  • the epidermis position curve extracted on the B-scan tomographic image is Zs(X)
  • the tomographic image connecting unit 303 generates connected three-dimensional data by connecting the tomographic images whose positions have been adjusted in this way (see FIG. 7).
  • a flattening conversion processing unit 304 performs conversion to flatten the skin position based on the extracted skin position for the connected three-dimensional data generated by the tomographic image connection unit 303 of the optical coherence tomography analysis unit 3. .
  • parallel movement in the Z direction is performed so that the skin position Zs extracted for each value of (X, Y) is taken as the origin.
  • the tomographic image connecting unit 303 obtains flattened three-dimensional data.
  • FIGS. 8(a) to 8(c) show the results of performing the epidermal flattening conversion process on three out of 300 B-scan tomographic images.
  • the fingerprint image extraction unit 305 extracts at least one of the epidermis fingerprint image and the dermis fingerprint image from the flattened three-dimensional data that has undergone the epidermis flattening conversion process.
  • the dermal fingerprint image may be extracted by selecting the Z position based on the feature amount of the image sliced on the XY plane. At this time, as an example of the feature quantity used, it is possible to extract the striped pattern visibility of a striped pattern such as a fingerprint.
  • the striped pattern definition can be a feature value such as OCL (Orientation Certainty Level), which indicates that there are many stripes formed by brightness and darkness in an image and that they have the same shape.
  • the fingerprint image extraction unit 305 extracts the luminance data on the XY plane at the Z value selected as the dermis position as a dermis fingerprint image.
  • the dermis position may be selected for each small area by dividing the XY plane into appropriate small areas.
  • the epidermal fingerprint image extracted by the above procedure is shown in FIG. 9(a), and the dermal fingerprint image is shown in FIG. 9(b).
  • the epidermis position of the finger is extracted for each B-scan tomographic image, and furthermore, considering that the epidermis is continuous, the adjacent B Adjust the relative position between the scan tomographic images.
  • the B scan obtained by one scan in the fast axis direction is short, the influence of finger movement is small. Therefore, according to the operation described above, three-dimensional luminance data can be obtained in which the influence of finger movement is greatly suppressed. Furthermore, by performing flattening conversion processing based on the extracted epidermis position, it becomes possible to extract dermal fingerprints and the like existing on the subcutaneous curved surface.
  • FIG. 10 An optical coherence tomography analysis apparatus 1 according to the second embodiment will be described with reference to FIGS. 10 and 11.
  • FIG. 10 It should be noted that the second embodiment may differ from the above-described first embodiment only in a part of the configuration and operation, and the other parts may be the same as those of the first embodiment. Therefore, in the following, portions different from the already described first embodiment will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 10 is a block diagram showing the configuration of an optical coherence tomography analysis apparatus according to the second embodiment.
  • symbol is attached
  • the optical coherence tomography imaging analysis apparatus 1 includes an optical coherence tomography imaging unit 2, an optical coherence tomography analysis unit 3, a registration information database (DB) 4, and a matching unit 5. and have. That is, the optical coherence tomography analysis apparatus 1 according to the second embodiment further includes a registration information database 4 and a matching unit 5 in addition to the configuration of the first embodiment described above (see FIG. 3). ing.
  • the registration information database 4 is configured as a database comprising, for example, a storage device, and stores the fingerprint image extracted by the fingerprint image extraction unit 305 (that is, the extracted skin pattern) as registration information used for matching. configured as possible. Further, the registration information database 4 is configured to be able to store conversion parameters in association with registration information.
  • the transformation parameter is a parameter related to transformation processing executed by the flattening transformation processing unit 304, and may indicate, for example, the amount of translation in the Z direction when the skin position is reset to the origin. More specifically, the conversion parameter is, for example, a second average value obtained by averaging a first average value, which is an average value of translation amounts in the Z direction in each tomographic image, for a plurality of tomographic images. good.
  • Various information stored in the registration information database 4 can be read by the collation unit 5 as appropriate.
  • the collation unit 5 collates a newly acquired fingerprint image (hereinafter referred to as a “collation image” as appropriate) with registration information stored in the registration information database 4 (that is, a pre-registered fingerprint image). It is configured to be able to execute matching processing to be performed. This collation processing may be performed as biometric authentication processing, for example. Moreover, the collation unit 5 according to the present embodiment is particularly configured to be able to execute collation processing based on the conversion parameters stored in the registration information database 4 . Specifically, the collation unit 5 may compare the transformation parameter related to the collation image and the transformation parameter associated with the registration information, and perform the collation processing in order of the smallest difference.
  • the matching process may be executed in order from the registered information whose conversion parameters are close to the matching image.
  • the matching unit 5 may compare the conversion parameter related to the matching image with the conversion parameter associated with the registered information, and exclude the image whose difference is greater than a predetermined value from the target of the matching process. In other words, registration information in which the matching image and the transformation parameters are far apart may not be used in the matching process.
  • the registration information database 4 and the collation unit 5 described above may be integrally configured by hardware common to the optical coherence tomography analysis unit 3 . That is, the registration information database 4 and the matching unit 5 may be configured as functional blocks of the optical coherence tomography analysis unit 3 .
  • FIG. 11 is a flow chart showing the flow of matching operation by the optical coherence tomography analysis unit according to the second embodiment.
  • the matching unit 5 first acquires a matching image (step S21).
  • the matching image is typically acquired via the optical coherence tomographic imaging unit 2 and the optical coherence tomographic analysis unit 3, but the matching unit 5 may acquire the matching image through another route.
  • the collation unit 5 acquires transformation parameters of the collation image (step S22). Then, the collating unit 5 excludes the registered information registered in the registered information database 4 whose difference in conversion parameter is equal to or greater than a predetermined value from the objects to be collated (step S23).
  • the predetermined value may be a preset value, or may be a value that can be changed by the user, for example. Specifically, a user who desires to perform matching processing with more images may increase the predetermined value to reduce the registration information that is out of the target of matching. Alternatively, a user who desires to perform matching processing with fewer images may reduce the predetermined value to increase the amount of registration information excluded from matching targets.
  • the collation unit 5 performs collation processing on the registration information to be collated (that is, the registration information not excluded from the collation target in step S23) in order from the difference in the transformation parameter from the collation image. To go. Note that the collation unit 5 may end the collation process when the collation is successful.
  • the optical coherence tomographic imaging analysis apparatus 1 executes fingerprint image matching processing based on conversion parameters. By doing so, it is possible to improve the accuracy of the matching process and the speed of the matching process as compared with the case where the matching process is executed without considering the conversion parameter.
  • FIG. 12 An optical coherence tomography analysis apparatus 1 according to the third embodiment will be described with reference to FIG. 12 .
  • the third embodiment may differ from the above-described first and second embodiments only in a part of the configuration and operation, and other parts may be the same as those of the first and second embodiments. . Therefore, in the following, portions different from the already described embodiments will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 12 is a block diagram showing the configuration of an optical coherence tomography analysis apparatus according to the third embodiment.
  • symbol is attached
  • the optical coherence tomography imaging analysis apparatus 1 according to the third embodiment includes an optical coherence tomography imaging unit 2, an optical coherence tomography analysis unit 3, a registration information database 4, and a matching unit 5. I have. That is, the optical coherence tomography analysis apparatus 1 according to the third embodiment is configured with the same components as those of the above-described second embodiment (see FIG. 10).
  • the registration information database 4 is configured to be able to store spatial resolution information indicating the spatial resolution when the registration information was obtained, in addition to the registration information (that is, the extracted fingerprint image).
  • the spatial resolution is the resolution when the optical coherence tomographic imaging unit 2 acquires three-dimensional luminance data.
  • the diameter of the light beam with which the skin of the living body is irradiated changes according to the depth direction. For example, when irradiating a finger in a non-contact state with a light beam, if the finger is bent, the distance to the finger changes depending on the irradiation position, so the diameter of the irradiated light beam changes according to the distance. As a result, the spatial resolution is not constant and can have high and low parts.
  • the registration information database 4 stores information indicating such spatial resolution in association with registration information.
  • the collation unit 5 includes a weighting unit 501 .
  • Weighting section 501 is configured to be able to perform weighting according to spatial resolution.
  • the weighting unit 501 may increase the weight of a portion with high spatial resolution or decrease the weight of a portion with low spatial resolution.
  • the distance at which the spatial resolution becomes high depends on the characteristics of the lens attached to the optical coherence tomographic imaging unit 2 .
  • the weighting unit 501 may hold a distance at which the spatial resolution is the highest in advance, and may perform weighting after determining a portion close to that distance as a portion having the high spatial resolution.
  • the matching process by the matching unit 5 is executed while considering the weight (in other words, spatial resolution) of each part. Specifically, a portion with a large weight (that is, a portion with high spatial resolution) has a large influence on the matching result, and a portion with a small weight (that is, a portion with low spatial resolution) has a small influence on the matching result. .
  • matching processing is executed after weighting according to spatial resolution. By doing so, it is possible to improve the accuracy of the matching process compared to the case where the matching process is executed without considering the spatial resolution.
  • FIG. 13 is a block diagram showing the configuration of an optical coherence tomography analysis apparatus according to the fourth embodiment.
  • symbol is attached
  • the optical coherence tomographic imaging analysis apparatus 1 according to the fourth embodiment includes an optical coherence tomographic imaging unit 2 and an optical coherence tomographic analysis unit 3. That is, the optical coherence tomography analysis apparatus 1 according to the fourth embodiment is configured with the same components as those of the above-described first embodiment (see FIG. 3).
  • the flattening conversion processing unit 304 includes a spatial resolution acquisition unit 3041.
  • the spatial resolution acquisition unit 3041 is configured to be able to acquire spatial resolution information indicating spatial resolution when acquiring three-dimensional luminance data in the optical coherence tomography unit 2 .
  • the spatial resolution information acquired by the spatial resolution acquisition unit 3041 is used for conversion processing in the flattening conversion processing unit 304 .
  • the flattening transform processing unit 304 may perform transform processing based on a portion with high spatial resolution.
  • the flattening transform processor 304 may identify the position in the image with the highest spatial resolution and perform the transform processing so that that portion serves as a reference (i.e., by resetting that portion to the origin). .
  • the transformation processing is normally executed based on the skin position.
  • the conversion process may be performed with reference to the dermis position).
  • conversion processing is performed with reference to a portion with high spatial resolution. In this way, it is possible to accurately specify the reference portion for flattening and execute the conversion process, thereby improving the accuracy of the conversion process.
  • FIG. 14 An optical coherence tomography analysis apparatus 1 according to the fifth embodiment will be described with reference to FIG. 14 .
  • the fifth embodiment may differ from the above-described first to fourth embodiments only in part in configuration and operation, and may be otherwise the same as the first and fourth embodiments. . Therefore, in the following, portions different from the already described embodiments will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 14 is a block diagram showing the configuration of an optical coherence tomography analysis apparatus according to the fifth embodiment.
  • symbol is attached
  • the optical coherence tomography imaging analysis apparatus 1 includes an optical coherence tomography imaging unit 2, an optical coherence tomography analysis unit 3, a registration information database 4, and a matching unit 5. I have. That is, the optical coherence tomography analysis apparatus 1 according to the fifth embodiment is configured with the same components as those of the above-described second embodiment (see FIG. 10) and third embodiment (see FIG. 12). .
  • the registration information database 4 is configured to be able to store three-dimensional data in addition to registration information (that is, extracted fingerprint images: two-dimensional data).
  • the three-dimensional data here is three-dimensional data (for example, data including a three-dimensional shape of a finger) related to the skin of a living body indicated by three-dimensional luminance data.
  • the three-dimensional data is stored in association with registration information.
  • the three-dimensional data may be data generated by connecting a plurality of tomographic images by the tomographic image connection unit 303 .
  • the registration information stored in the registration information database 4 and the three-dimensional data may be used for matching processing in the matching unit 5, respectively.
  • the matching unit 5 may select either one of the registered information and the three-dimensional data to perform matching processing.
  • the matching unit 5 uses registration information, which is two-dimensional data, for matching, and when three-dimensional data is acquired as a matching image, the matching unit 5 Three-dimensional data may be used for matching.
  • the matching unit 5 may perform matching processing using both the registered information and the three-dimensional data. Specifically, the matching unit 5 may determine that the matching is successful when both the registered information and the three-dimensional data match, and determine that the matching is unsuccessful when either one does not match.
  • the matching unit 5 may execute the matching process after narrowing down the registered information to be matched using the three-dimensional data. For example, the matching unit 5 calculates the distribution of the finger curvature and depth obtained from the three-dimensional data stored in the registration information database 4, and calculates the distribution of the finger curvature and depth obtained from the three-dimensional data for matching. Compare with the distribution of Then, if the distribution of the curvature and depth of the finger is greatly different, the matching unit 5 may exclude the registration information linked to the three-dimensional data from the target of matching. In other words, the matching process may be performed only for registered information associated with three-dimensional data having a similar finger curvature or depth distribution.
  • the registration information database stores two-dimensional data and three-dimensional data. By doing so, it is possible to improve the accuracy and speed of the matching process compared to the case of performing the matching process using only two-dimensional data.
  • a processing method is also implemented in which a program for operating the configuration of each embodiment described above is recorded on a recording medium, the program recorded on the recording medium is read as code, and executed by a computer. Included in the category of form. That is, a computer-readable recording medium is also included in the scope of each embodiment. In addition to the recording medium on which the above program is recorded, the program itself is also included in each embodiment.
  • a floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, CD-ROM, magnetic tape, non-volatile memory card, and ROM can be used as recording media.
  • the program recorded on the recording medium alone executes the process, but also the one that operates on the OS and executes the process in cooperation with other software and functions of the expansion board. included in the category of Furthermore, the program itself may be stored on the server, and part or all of the program may be downloaded from the server to the user terminal.
  • the optical coherence tomographic imaging analysis apparatus performs optical coherence tomographic imaging by irradiating the skin with a light beam while scanning it two-dimensionally, and acquires three-dimensional luminance data of the skin; position extracting means for extracting the epidermis position of the skin for each tomographic image obtained by scanning the light beam in the fast axis direction in the three-dimensional luminance data of the skin; connecting means for generating connected three-dimensional data by connecting the tomographic images by adjusting relative positions between the tomographic images; flattening means for generating flattened three-dimensional data by executing conversion processing for flattening the epidermis; and pattern extraction for extracting the skin pattern corresponding to a predetermined extraction depth from the flattened three-dimensional data.
  • An optical coherence tomography analysis apparatus comprising means. is.
  • the optical coherence tomography analysis apparatus includes storage means for storing the pattern of the skin extracted by the pattern extraction means as registration information, the newly acquired pattern of the skin, and the pattern stored in the storage means. and matching means for executing matching processing of the registered information and the storage means, wherein the storage means associates and stores the registration information and a transformation parameter related to the transformation processing executed by the flattening means.
  • the collation means is the optical coherence tomography analysis apparatus according to appendix 1, wherein the collation processing is executed based on the conversion parameter.
  • the optical coherence tomography analysis apparatus includes storage means for storing the pattern of the skin extracted by the pattern extraction means as registration information, the newly acquired pattern of the skin, and the pattern stored in the storage means. and a matching means for performing a matching process of the registered information, wherein the matching means performs weighting according to the spatial resolution when performing the optical coherence tomography, and performs the matching process. and the optical coherence tomographic imaging analysis apparatus according to appendix 1 or 2.
  • Appendix 4 In the optical coherence tomographic imaging analysis apparatus according to appendix 4, the flattening means executes the conversion processing with reference to a portion with high spatial resolution when the optical coherence tomography is performed, appendixes 1 to 3 It is an optical coherence tomography analysis apparatus according to any one of.
  • the optical coherence tomographic imaging analysis apparatus includes storage means for storing the skin pattern extracted by the pattern extraction means as registration information, the newly acquired skin pattern, and the newly acquired skin pattern stored in the storage means. and a matching means for performing a matching process of the registered information, the storage means stores the registered information and the connection three-dimensional data in a linked manner, and the matching means 5.
  • the optical coherence tomography analysis apparatus according to any one of appendices 1 to 4, wherein the matching process is performed using the connection three-dimensional data in addition to the registration information.
  • the optical coherence tomography analysis method according to appendix 6 is an optical coherence tomography analysis method executed by at least one computer, wherein the skin is irradiated with a light beam while two-dimensionally scanning to perform optical coherence tomography.
  • At least one computer performs optical coherence tomography by irradiating the skin with a light beam while scanning it two-dimensionally, obtaining three-dimensional luminance data of the skin, and obtaining the three-dimensional luminance data of the skin.
  • a computer program for executing an optical coherence tomography analysis method for generating flattened three-dimensional data and extracting the skin pattern corresponding to a predetermined extraction depth from the flattened three-dimensional data is recorded It is a recording medium that has been
  • Appendix 8 The computer program according to Appendix 8 performs optical coherence tomography by irradiating at least one computer with a light beam while two-dimensionally scanning the skin, obtaining three-dimensional luminance data of the skin, and obtaining the three-dimensional luminance data of the skin.
  • a computer program for executing an optical coherence tomography analysis method that, when executed, generates flattened three-dimensional data and extracts the skin pattern corresponding to a predetermined extraction depth from the flattened three-dimensional data.
  • the optical coherence tomography analysis system performs optical coherence tomography by irradiating the skin with a light beam while scanning it two-dimensionally, and acquires three-dimensional luminance data of the skin; position extracting means for extracting the epidermis position of the skin for each tomographic image obtained by scanning the light beam in the fast axis direction in the three-dimensional luminance data of the skin; connecting means for generating connected three-dimensional data by connecting the tomographic images by adjusting relative positions between the tomographic images; flattening means for generating flattened three-dimensional data by executing conversion processing for flattening the epidermis; and pattern extraction for extracting the skin pattern corresponding to a predetermined extraction depth from the flattened three-dimensional data.
  • An optical coherence tomography analysis system comprising means.
  • optical coherence tomographic imaging analysis device optical coherence tomographic imaging unit 3 optical coherence tomography analysis unit 4 registration information database 5 matching unit 101 processor 102 memory 103 communication interface 104 input device 105 output device 201 wavelength sweep laser light source 202 optical interference/light receiving unit 203 Light beam scanning unit 204 Signal processing/control unit 205 Measurement object 211 Circulator 212 Branching/combining device 213 Reference light mirror 214 Balanced photodetector 215 Fiber collimator 216 Irradiation optical system 301 Three-dimensional brightness data acquisition unit 302 Epidermis position extraction unit 303 Tomographic image connection unit 304 Flattening conversion processing unit 305 Fingerprint image extraction unit 501 Weighting unit 3041 Spatial resolution acquisition unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

光干渉断層撮像解析装置(10)は、光ビームを照射して光干渉断層撮像を行い、皮膚の三次元輝度データを取得する取得手段(301)と、皮膚の三次元輝度データにおいて光ビームの速軸方向の走査で得られる断層画像ごとに、皮膚の表皮位置を抽出する位置抽出手段(302)と、皮膚の表皮位置の抽出結果に基づいて、断層画像間の相対位置を調整して断層画像を接続することで、接続三次元データを生成する接続手段(303)と、皮膚の表皮位置の抽出結果に基づいて、接続三次元データに対して表皮を平坦化する変換処理を実行することで、平坦化三次元データを生成する平坦化手段(304)と、平坦化三次元データから、所定の抽出深度に応じた皮膚の紋様を抽出する紋様抽出手段(305)と、を備える。

Description

光干渉断層撮像解析装置、光干渉断層撮像解析方法、及び記録媒体
 この開示は、光干渉断層撮像解析装置、光干渉断層撮像解析方法、及び記録媒体の技術分野に関する。
 この種の装置として、生体の皮膚の紋様(例えば、指紋等)を撮像するものが知られている。例えば特許文献1では、指先をガラス板等に接触させることなく所定の場所を通過させながら、非接触で表皮の指紋画像を取得する指紋撮像装置が開示されている。また、特許文献2から4では、光干渉断層撮像(Optical Coherence Tomography、OCT)技術を用いて、指先の三次元断層撮像を行い、真皮の指紋画像を取得する指紋撮像装置が開示されている。
国際公開第2009/112717号 国際公開第2016/204176号 国際公開第2020/170439号 国際公開第2021/019788号
 この開示は、先行技術文献に開示された技術を改善することを目的とする。
 この開示の光干渉断層撮像解析装置の一の態様は、皮膚に対して光ビームを二次元走査しながら照射して光干渉断層撮像を行い、前記皮膚の三次元輝度データを取得する取得手段と、前記皮膚の三次元輝度データにおいて前記光ビームの速軸方向の走査で得られる断層画像ごとに、前記皮膚の表皮位置を抽出する位置抽出手段と、前記皮膚の表皮位置の抽出結果に基づいて、前記断層画像間の相対位置を調整して前記断層画像を接続することで、接続三次元データを生成する接続手段と、前記皮膚の表皮位置の抽出結果に基づいて、前記接続三次元データに対して表皮を平坦化する変換処理を実行することで、平坦化三次元データを生成する平坦化手段と、前記平坦化三次元データから、所定の抽出深度に応じた前記皮膚の紋様を抽出する紋様抽出手段と、を備える。
 この開示の光干渉断層撮像解析方法の一の態様は、少なくとも1つのコンピュータが実行する光干渉断層撮像解析方法であって、皮膚に対して光ビームを二次元走査しながら照射して光干渉断層撮像を行い、前記皮膚の三次元輝度データを取得し、前記皮膚の三次元輝度データにおいて前記光ビームの速軸方向の走査で得られる断層画像ごとに、前記皮膚の表皮位置を抽出し、前記皮膚の表皮位置の抽出結果に基づいて、前記断層画像間の相対位置を調整して前記断層画像を接続することで、接続三次元データを生成し、前記皮膚の表皮位置の抽出結果に基づいて、前記接続三次元データに対して表皮を平坦化する変換処理を実行することで、平坦化三次元データを生成し、前記平坦化三次元データから、所定の抽出深度に応じた前記皮膚の紋様を抽出する。
 この開示の記録媒体の一の態様は、少なくとも1つのコンピュータに、皮膚に対して光ビームを二次元走査しながら照射して光干渉断層撮像を行い、前記皮膚の三次元輝度データを取得し、前記皮膚の三次元輝度データにおいて前記光ビームの速軸方向の走査で得られる断層画像ごとに、前記皮膚の表皮位置を抽出し、前記皮膚の表皮位置の抽出結果に基づいて、前記断層画像間の相対位置を調整して前記断層画像を接続することで、接続三次元データを生成し、前記皮膚の表皮位置の抽出結果に基づいて、前記接続三次元データに対して表皮を平坦化する変換処理を実行することで、平坦化三次元データを生成し、前記平坦化三次元データから、所定の抽出深度に応じた前記皮膚の紋様を抽出する、光干渉断層撮像解析方法を実行させるコンピュータプログラムが記録されている。
第1実施形態に係る光干渉断層撮像解析装置のハードウェア構成例を示すブロック図である。 第1実施形態に係る光干渉断層撮像部の構成例を示す概略図である。 第1実施形態に係る光干渉断層解析部の機能的構成を示すブロック図である。 第1実施形態に係る光干渉断層解析部による指紋抽出動作の流れを示すフローチャートである。 第1実施形態に係る光干渉断層撮像部で取得される三次元輝度データの一例を示す平面図である。 第1実施形態に係る光干渉断層解析部による表皮位置の抽出例を示す平面図である。 第1実施形態に係る光干渉断層解析部による断層画像の接続例を示す立体図である。 第1実施形態に係る光干渉断層撮像解析部による平坦化変換処理の例を示す平面図である。 第1実施形態に係る光干渉断層解析部による指紋画像の抽出例を示す平面図である。 第2実施形態に係る光干渉断層撮像解析装置の構成を示すブロック図である。 第2実施形態に係る光干渉断層解析部による照合動作の流れを示すフローチャートである。 第3実施形態に係る光干渉断層撮像解析装置の構成を示すブロック図である。 第4実施形態に係る光干渉断層撮像解析装置の構成を示すブロック図である。 第5実施形態に係る光干渉断層撮像解析装置の構成を示すブロック図である。
 以下、図面を参照しながら、光干渉断層撮像解析装置、光干渉断層撮像解析方法、及び記録媒体の実施形態について説明する。
 <第1実施形態>
 第1実施形態に係る光干渉断層撮像解析装置について、図1から図9を参照して説明する。
 (ハードウェア構成)
 まず、図1を参照しながら、第1実施形態に係る光干渉断層撮像解析装置のハードウェア構成について説明する。図1は、第1実施形態に係る光干渉断層撮像解析装置のハードウェア構成例を示すブロック図である。
 図1において、第1実施形態に係る光干渉断層撮像解析装置1は、生体の皮膚をOCT等の三次元測定技術を用いて撮像し、撮像して得られた三次元データから皮膚の紋様を抽出可能な装置として構成されている。皮膚の紋様の種類は特に限定されるものではなく、例えば指紋や掌紋等であってよいが、以下では説明の便宜上、指紋を抽出するものとして説明を進める。第1実施形態に係る光干渉断層撮像解析装置1は、光干渉断層撮像部2と、光干渉断層解析部3とを備えて構成されている。なお、光干渉断層撮像解析装置1の各部は、不図示のバス、配線、駆動装置等を介して相互に接続されてよい。
 光干渉断層撮像部2は、OCT等の三次元測定技術を用いて、生体の皮膚を撮像可能に構成されている。光干渉断層撮像部2は、撮像によって得られた三次元輝度データを、光干渉断層解析部3に出力可能に構成されている。光干渉断層撮像部2の具体的な構成については、後に詳しく説明する。
 光干渉断層解析部3は、光干渉断層撮像部2から取得した三次元輝度データを解析することにより、生体の皮膚の紋様(例えば、表皮や真皮の指紋等)を抽出可能に構成されている。光干渉断層解析部3は、例えば、データ処理サーバ、デスクトップPC(Personal Computer)、ノートPC、及びタブレットPC等のコンピュータであり得る。光干渉断層解析部3は、演算、制御及び記憶を行うコンピュータとして、プロセッサ101、メモリ102、通信I/F(Interface)103、入力装置104及び出力装置105を備える。
 プロセッサ101は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(Field-Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)等の演算処理回路を1つ又は複数備える処理装置である。プロセッサ101は、メモリ102等に記憶されたプログラムに従って所定の演算を行うとともに、光干渉断層解析部3の各部を制御する機能をも有する。
 メモリ102は、プロセッサ101の動作に必要な一時的なメモリ領域を提供する揮発性記憶媒体と、処理対象のデータ、光干渉断層解析部3の動作プログラム等の情報を非一時的に記憶する不揮発性記憶媒体とを含み得る。揮発性記憶媒体の例としては、RAM(Random Access Memory)が挙げられる。不揮発性記憶媒体の例としては、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等が挙げられる。
 通信I/F103は、イーサネット(登録商標)、Wi-Fi(登録商標)、Bluetooth(登録商標)等の規格に基づく通信インターフェースである。通信I/F103は、光干渉断層撮像部2等の他の機器との通信を行うためのモジュールである。
 入力装置104は、キーボード、ポインティングデバイス、ボタン等であって、ユーザが光干渉断層解析部3を操作するために用いられる。ポインティングデバイスの例としては、マウス、トラックボール、タッチパネル、ペンタブレット等が挙げられる。
 出力装置105は、例えば、表示装置、スピーカ等のユーザに情報を提示する装置である。表示装置の例としては、液晶ディスプレイ、OLED(Organic Light Emitting Diode)ディスプレイ等が挙げられる。入力装置104及び出力装置105は、タッチパネルとして一体に形成されていてもよい。
 なお、図1に示されているハードウェア構成は一例であり、これら以外の装置が追加されていてもよく、一部の装置が設けられていなくてもよい。また、一部の装置が同様の機能を有する別の装置に置換されていてもよい。また、本実施形態の一部の機能がネットワークを介して他の装置により提供されてもよく、本実施形態の機能が複数の装置に分散されて実現されてもよい。例えば、光干渉断層撮像部2と光干渉断層解析部3は一体の装置であってもよい。このように、図1に示されているハードウェア構成は適宜変更可能である。
 (光干渉断層撮像部の構成)
 次に、図2を参照しながら、第1実施形態に係る光干渉断層撮像部2の構成について具体的に説明する。図2は、第1実施形態に係る光干渉断層撮像部の構成例を示す概略図である。なお、図2に示す構成図は、OCT技術を用いた測定器の一例を示すものに過ぎず、これ以外の測定器構成であってもよい。
 OCT技術では、物体光と参照光との干渉を利用することにより、測定対象物において物体光が散乱される部分(光散乱点)の光軸方向すなわち深さ方向における位置を特定し、測定対象部の内部の深さ方向に空間分解した構造データを得る。OCT技術には、Time Domain(TD-OCT)方式、Fourier Domain(FD-OCT)方式があるが、高速・高感度という点でFD-OCT方式の方が有望である。FD-OCT方式では、物体光と参照光とを干渉させる際に、広い波長帯域の干渉光スペクトルを測定し、これをフーリエ変換することで深さ方向の構造データを得る。干渉光スペクトルを得る方式として、分光器を用いるSpectral Domain(SD-OCT)方式と、波長を掃引する光源を用いるSwept Source(SS-OCT)方式がある。
 さらに、測定対象物を当該測定対象物の深さ方向に垂直な面内方向に物体光ビーム照射位置を走査することにより、当該面内方向に空間分解し、且つ、深さ方向に空間分解した断層構造データ、すなわち、測定対象物の三次元の断層構造データを得ることが可能になる。
 図2では、SS-OCT方式の光干渉断層撮像部2が示されている。光干渉断層撮像部2では、波長掃引レーザ光源201により、波長掃引された光パルスが生成される。波長掃引レーザ光源201から出射された光は、光干渉・受光部202、光ビーム走査部203を経て測定対象物205に照射され散乱される。この散乱光の一部が光干渉・受光部202に戻り光電変換される。光干渉・受光部202から出力される電気信号が信号処理・制御部204でデータ化処理され、光干渉断層解析部3に送られる。
 波長掃引レーザ光源201は、持続時間5μsの間に波長が1250nmから1350nmまで増加する光パルスを生成し、この光パルスを10μs毎に100kHz繰り返しで生成する。
 光干渉・受光部202では、波長掃引レーザ光源201から出射された光が、サーキュレータ211を経由して分岐合流器212に入力される。分岐合流器212では、入力された光が物体光R211と参照光R221に分岐される。物体光R211はファイバコリメータ215、走査ミラーとレンズから成る照射光学系216を経て、測定対象物205に照射される。そして、測定対象物205において散乱された物体光R231は、分岐合流器212へ戻る。他方、参照光R221は参照光ミラー213を経て、分岐合流器212へ戻る。したがって、分岐合流器212では、測定対象物205から散乱された物体光R231と、参照光ミラー213から反射された参照光R241とが干渉し、干渉光R251、R261が生成される。即ち、物体光R231と参照光R241との位相差によって干渉光R251と干渉光R261との強度比が決定される。干渉光R251はサーキュレータ211を経て、干渉光R261は直接に、二入力のバランス型受光器214へ入力される。バランス型受光器214からは干渉光R251と干渉光R261の強度差に応じた電圧が出力され、信号処理・制御部204へ入力される。
 信号処理・制御部204では、波長掃引レーザ光源201からの出射光の波長変化に関する情報と、干渉光R251とR261との強度比の変化に関する情報とに基づいて、干渉光スペクトルデータが生成される。この干渉光スペクトルデータは、フーリエ変換され、深さ方向(Z方向)の異なる位置における後方散乱光(物体光)の強度を示すデータを得る(以下、測定対象物205のある位置の深さ方向(Z方向)の後方散乱光(物体光)の強度を示すデータを得る動作を、「Aスキャン」と称する)。光パルスの繰り返し周期10μs毎にAスキャン波形を生成するため、波長掃引レーザ光源201から繰り返し周波数100kHzの電気信号がAスキャントリガ信号として信号処理・制御部204へ供給されている。Aスキャン波形として、Nz箇所の物体光後方散乱強度を示す波形が得られる。
 さらに、照射光学系216によって物体光ビームR231の照射位置が測定対象物205上で走査される。波長掃引レーザ光源201から供給されるAスキャントリガ信号に応じて信号処理・制御部204が照射光学系216を制御して、物体光ビームR231の照射位置を走査線方向(走査の速軸方向、X方向)に移動させる。Aスキャン動作を繰り返し行い、物体光ビーム照射位置毎のAスキャン波形を接続することにより、走査線方向と深さ方向との二次元の後方散乱光(物体光)の強度のマップが断層画像として得られる(以下、走査線方向(走査の速軸方向、X方向)にAスキャン動作を繰り返し行って、その測定結果を接続する動作を、「Bスキャン」と称する)。Bスキャンあたりの物体光ビーム照射位置をNx箇所とすると、Bスキャンによる断層画像はNz×Nx点の物体光後方散乱強度を示す二次元輝度データとなる。
 さらに、照射光学系216によって物体光ビームR231の照射位置を走査線方向だけでなく走査線に垂直な方向(走査の遅軸方向、Y方向)にも移動させながらBスキャン動作を繰り返し行い、Bスキャン測定結果を接続することにより、三次元の断層構造データが得られる(以下、走査線に垂直な方向(Y方向)にBスキャン動作を繰り返し行って、その測定結果を接続する動作を、「Cスキャン」と称する)。CスキャンあたりにBスキャン回数をNy回とすると、Cスキャンによって得られる断層構造データはNz×Nx×Ny点の物体光後方散乱強度を示す三次元輝度データとなる。
 X方向での物体光ビーム照射位置を例えば300箇所、Y方向での物体光ビーム照射位置を例えば300箇所とする場合、Bスキャン1回にかかる時間はAスキャン300回分であるので3ms、Cスキャン1回にかかる時間はBスキャン300回分であるので900msとなる。人物の指を非接触で測定する場合、3msの間に指が動く量を小さくすることは可能と思われるが、900msの間に指が動く量を小さくすることは難しい。
 (光干渉断層解析部の機能的構成)
 次に、図3を参照しながら、第1実施形態に係る光干渉断層解析部3の機能的構成について説明する。図3は、第1実施形態に係る光干渉断層解析部の機能的構成を示すブロック図である。
 図3に示すように、第1実施形態に係る光干渉断層解析部3は、その機能を実現するための機能ブロックとして、三次元輝度データ取得部301と、表皮位置抽出部302と、断層画像接続部303と、平坦化変換処理部304と、指紋画像抽出部305と、を備えている。なお、三次元輝度データ取得部301、表皮位置抽出部302、断層画像接続部303、平坦化変換処理部304、及び指紋画像抽出部305の各々は、例えば、上述したプロセッサ101(図1参照)によって実現されるものであってよい。
 三次元輝度データ取得部301は、生体の皮膚を光干渉断層撮像部2で測定することにより得られた三次元輝度データを取得可能に構成されている。三次元輝度データ取得部301は、光干渉断層撮像部2を制御して、新たに三次元輝度データを取得してもよいし、メモリ102等の記憶媒体から予め取得された三次元輝度データを読み出して、三次元輝度データを取得してもよい。
 表皮位置抽出部302は、三次元輝度データ取得部301で取得された三次元輝度データの断層画像ごと(具体的には、光ビームの速軸方向の走査で得られるBスキャン断層画像ごと)に表皮位置を抽出する。表皮位置抽出部302は、例えば、断層画像における表皮位置を示す座標を抽出してよい。
 断層画像接続部303は、表皮位置抽出部302で抽出された表皮位置に基づいて、断層画像間の相対的な位置を調整し、断層画像を接続することが可能に構成されている。より具体的には、断層画像接続部303は、抽出された表皮位置に基づいて、隣接するBスキャン断層画像同士で表皮位置の差分が小さくなるように相対的な位置を調整する。そして、断層画像接続部303は、位置を調整した隣接するBスキャン断層画像を接続していくことで、三次元輝度データ(以下、適宜「接続三次元データと称する」)を生成する。
 平坦化変換処理部304は、表皮位置抽出部302で抽出された表皮位置に基づいて、接続三次元データの表皮を平坦化する変換処理を実行可能に構成されている。平坦化変換処理部304は、例えば、表皮位置を原点に取り直すZ方向(即ち、深さ方向)の平行移動を行うことで、表皮を平坦化してよい。以下では、このような変換処理を行って得られる三次元輝度データを「平坦化三次元データ」と称する。
 指紋画像抽出部305は、平坦化変換処理部304で得られた平坦化三次元データから、所定の抽出深度に応じた指紋画像(即ち、皮膚の紋様を示す平面的な画像)を抽出可能に構成されている。ここでの抽出深度は、抽出対象に応じて予め設定されている値であり、例えば表皮に対応する値や、真皮に対応する値が設定されてよい。指紋画像抽出部305は、1つの平坦化三次元データから、抽出深度を変えて複数の指紋画像を抽出してよい。また、指紋画像抽出部305は、指紋画像に加えて又は代えて、指紋を示す他のデータ(例えば、指紋の特徴量)等を抽出するようにしてもよい。
 (動作の流れ)
 次に、図4を参照しながら、第1実施形態に係る光干渉断層解析部3よる、三次元輝度データから指紋画像を抽出する動作(以下、適宜「指紋抽出動作」と称する)の流れについて説明する。図4は、第1実施形態に係る光干渉断層解析部による指紋抽出動作の流れを示すフローチャートである。
 図4に示すように、第1実施形態に係る光干渉断層解析部3が動作する際には、まず三次元輝度データ取得部301が、光干渉断層撮像部2の測定結果である三次元輝度データを取得する(ステップS11)。三次元輝度データ取得部301で取得された三次元輝度データは、表皮位置抽出部302に出力される。
 続いて、表皮位置抽出部302が、三次元輝度データ取得部301で取得された三次元輝度データについて、断層画像ごとに表皮位置を抽出する(ステップS12)。表皮位置抽出部302で抽出された表皮位置に関する情報は、断層画像接続部303及び平坦化変換処理部304の各々に出力される。
 続いて、断層画像接続部303が、表皮位置抽出部302で抽出された表皮位置に基づいて断層画像間の相対的な位置を調整し、断層画像を接続することで、接続三次元データを生成する(ステップS13)。断層画像接続部303で生成された接続三次元データは、平坦化変換処理部304に出力される。
 続いて、平坦化変換処理部304が、表皮位置抽出部302で抽出された表皮位置に基づいて、接続三次元データの表皮を平坦化する変換処理を実行し、平坦化三次元データを生成する(ステップS14)。平坦化変換処理部304で生成された平坦化三次元データは、指紋画像抽出部305に出力される。
 続いて、指紋画像抽出部305が、平坦化変換処理部304で得られた平坦化三次元データから、所定の抽出深度に応じた指紋画像を抽出する(ステップS15)。指紋画像抽出部305は、抽出した指紋画像を登録情報として登録(記憶する)するようにしてもよい。この場合、登録した指紋画像を用いる照合処理(例えば、指紋を用いる生体認証処理)が実行されてもよい。指紋画像を照合処理に用いる構成については、後述する他の実施形態において詳しく説明する。
 (具体的な動作例)
 次に、図5から図6を参照しながら、上述した指紋抽出動作の具体的な動作例について説明する。図5は、第1実施形態に係る光干渉断層撮像部で取得される三次元輝度データの一例を示す平面図である。図6は、第1実施形態に係る光干渉断層解析部による表皮位置の抽出例を示す平面図である。図7は、第1実施形態に係る光干渉断層解析部による断層画像の接続例を示す立体図である。図8は、第1実施形態に係る光干渉断層撮像解析部による平坦化変換処理の例を示す平面図である。図9は、第1実施形態に係る光干渉断層解析部による指紋画像の抽出例を示す平面図である。
 光干渉断層撮像部2は、生体の指を非接触で撮像し、Nx=300、Ny=300、Nz=256の三次元輝度データを生成する。この撮像は、光干渉断層撮像部2の光ビーム走査部203において、走査の速軸方向であるX方向に300箇所、走査の遅軸方向であるY方向に300箇所、物体光ビームを照射するように設定し、物体光と参照光の干渉光スペクトルを解析してZ方向に256箇所に分解した輝度データを得ることにより行われ、その結果として生体の指の三次元輝度データが生成される。この三次元輝度データはNx×Nz=300×256のBスキャン断層画像Ny=300枚の組と見なすことができる。図5(a)乃至図5(c)では、取得された三次元輝度データの一例として、Bスキャン断層画像300枚のうちの3枚を示している。
 光干渉断層解析部3の三次元輝度データ取得部301で取得された三次元輝度データに対し、表皮位置抽出部302は、Bスキャン断層画像毎に表皮位置の座標を抽出する。図6(a)乃至図6(c)では、Bスキャン断層画像300枚のうちの3枚において表皮位置を抽出した結果を示している。指に対して非接触で物体光ビームを照射した場合、通常、表皮位置での物体光反射が最も強くなる。このため、横軸X、縦軸ZのBスキャン断層画像において、Xの値毎に物体光後方散乱強度(輝度)が最大となるZの値Zs’を選択する。ただし、しばしばノイズの影響で、表皮でない位置で輝度最大となる場合も多いため、表皮が連続であることを考慮した外れ値除去処理を行う。
  光干渉断層解析部3の表皮位置抽出部302において(X,Y)の値毎に抽出した表皮位置Zs抽出結果に基づき、断層画像接続部303は、隣接するBスキャン断層画像間の相対位置を調整する。Bスキャン断層画像上で抽出された表皮位置曲線をZs(X)としたとき、隣接する断層画像間での差分が最小となるように調整される。断層画像接続部303は、このように位置調整された断層画像同士を接続することで、接続三次元データを生成する(図7参照)。
 光干渉断層解析部3の断層画像接続部303で生成された接続三次元データに対し、平坦化変換処理部304は、抽出された表皮位置に基づき、表皮位置が平坦になるような変換を行う。すなわち、(X,Y)の値毎に抽出した表皮位置Zsを原点に取り直すZ方向の平行移動を行う。これにより、断層画像接続部303は、平坦化三次元データを得る。図8(a)乃至図8(c)では、Bスキャン断層画像300枚のうちの3枚において表皮平坦化変換処理を行った結果を示している。
 表皮平坦化変換処理を行った平坦化三次元データに対し、指紋画像抽出部305は、表皮指紋画像、及び真皮指紋画像の少なくとも一方を抽出する。表皮を基準にして変換処理を行った平坦化三次元データでは、Z=0が表皮の位置になる。このため、指紋画像抽出部305は、Z=0でのXY面上の輝度データを表皮指紋画像として抽出する。真皮指紋画像は、XY面でスライスした画像の特徴量に基づきZの位置を選択することによって抽出すればよい。この際、用いられる特徴量の一例としては、指紋等の縞模様について、縞模様鮮明度を抽出するものであり得る。縞模様鮮明度は、例えば、OCL(Orientation Certainty Level)等の、画像内の明暗で形成される縞が多数存在し、同様の形であることを示す特徴量であり得る。指紋画像抽出部305は、真皮位置として選択されたZの値でのXY面上の輝度データを真皮指紋画像として抽出する。真皮位置の選択はXY面を適当な小領域に分割して小領域毎に行っても良い。以上の手順により抽出された表皮指紋画像を図9(a)に、真皮指紋画像を図9(b)に示す。
 (技術的効果)
 次に、第1実施形態に係る光干渉断層撮像解析装置1によって得られる技術的効果について説明する。
 生体の皮膚を撮像する装置では、皮膚の状態によって良好な画像が得られない状況がしばしば生じ得る。例えば、表皮が汚れていたり、荒れていたり、皺が多かったりする場合には良好な画像が得られない。そして特に、OCT技術を用いる場合、光ビームをスキャンしながら三次元断層撮像データを生成するのに時間がかかるため、指を非接触で固定しない状態で測定しようとすると、光ビームスキャンの間に指の位置が動いてしまうという技術的問題が生ずる。また、指先をガラス板等に接触させずにスキャンする場合には、真皮指紋は皮下の曲面上にあり、これを平面的な指紋画像として高精度に抽出することは容易ではない。
 しかるに本実施形態に係る光干渉断層撮像解析装置1によれば、上述したように、Bスキャン断層画像毎に指の表皮位置を抽出し、さらに表皮は連続であることを考慮して隣接するBスキャン断層画像間の相対位置を調整する。ここで、速軸方向の走査1回で得られるBスキャンは短時間であるため指の動きの影響は小さい。よって、上述した動作によれば、指の動きの影響を大幅に抑制した三次元輝度データが得られる。さらに抽出した表皮位置に基づき、平坦化変換処理を行うことにより、皮下の曲面上に存在する真皮指紋等を抽出することが可能になる。
 <第2実施形態>
 第2実施形態に係る光干渉断層撮像解析装置1について、図10及び図11を参照して説明する。なお、第2実施形態は、上述した第1実施形態と比べて一部の構成及び動作が異なるのみで、その他の部分については第1実施形態と同一であってよい。このため、以下では、すでに説明した第1実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (装置構成)
 まず、図10を参照しながら、第2実施形態に係る光干渉断層撮像解析装置1の構成について説明する。図10は、第2実施形態に係る光干渉断層撮像解析装置の構成を示すブロック図である。なお、図10では、図3で示した構成要素と同様の要素に同一の符号を付している。
 図10に示すように、第2実施形態に係る光干渉断層撮像解析装置1は、光干渉断層撮像部2と、光干渉断層解析部3と、登録情報データベース(DB)4と、照合部5と、を備えている。即ち、第2実施形態に係る光干渉断層撮像解析装置1は、上述した第1実施形態の構成(図3参照)に加えて、登録情報データベース4と、照合部5とを更に備えて構成されている。
 登録情報データベース4は、例えば記憶装置からなるデータベースとして構成されており、指紋画像抽出部305で抽出された指紋画像(即ち、抽出された皮膚の紋様)を、照合の際に用いる登録情報として記憶可能に構成されている。また、登録情報データベース4は、登録情報に紐付けて、変換パラメータを記憶可能に構成されている。変換パラメータは、平坦化変換処理部304において実行される変換処理に関するパラメータであり、例えば表皮位置を原点に取り直す際の、Z方向の平行移動量を示すものであってよい。より具体的には、変換パラメータは、例えば、各断層画像の各々におけるZ方向の平行移動量の平均値である第1平均値を、複数の断層画像分で平均した第2平均値であってよい。登録情報データベース4に記憶されている各種情報は、照合部5によって適宜読み出し可能に構成されている。
 照合部5は、新たに取得された指紋画像(以下、適宜「照合画像」と称する)と、登録情報データベース4に記憶されている登録情報(即ち、予め登録された指紋画像)と、を照合する照合処理を実行可能に構成されている。この照合処理は、例えば生体認証処理として実行されてよい。また、本実施形態に係る照合部5は特に、登録情報データベース4に記憶された変換パラメータに基づいて、照合処理を実行可能に構成されている。具体的には、照合部5は、照合画像に関する変換パラメータと、登録情報に紐付いた変換パラメータと、を比較して、その差分が小さいものから照合処理を行うようにしてよい。即ち、照合画像と変換パラメータが近いとされた登録情報から順に照合処理を実行するようにしてよい。また、照合部5は、照合画像に関する変換パラメータと、登録情報に紐付いた変換パラメータと、を比較して、その差分が所定値より大きいものは、照合処理の対象から外すようにしてもよい。即ち、照合画像と変換パラメータがかけ離れている登録情報については、照合処理に用いないようにしてもよい。
 なお、上述した登録情報データベース4及び照合部5は、光干渉断層解析部3と共通するハードウェアによって一体的に構成されてよい。即ち、登録情報データベース4及び照合部5は、光干渉断層解析部3が有する機能ブロックとして構成されてもよい。
 (照合動作)
 次に、図11を参照しながら、第2実施形態に係る照合部5が実行する照合動作の流れについて説明する。図11は、第2実施形態に係る光干渉断層解析部による照合動作の流れを示すフローチャートである。
 図11に示すように、第2実施形態に係る照合部5による照合動作が開始されると、まず照合部5が照合画像を取得する(ステップS21)。なお、照合画像は、典型的には、光干渉断層撮像部2及び光干渉断層解析部3を介して取得されるが、照合部5は、他の経路で照合画像を取得してもよい。
 次に、照合部5は、照合画像の変換パラメータを取得する(ステップS22)。そして、照合部5は、登録情報データベース4に登録されている登録情報のうち、変換パラメータの差が所定値以上となる登録情報を、照合対象から外す(ステップS23)。なお、所定値は、予め設定された値であってよいが、例えばユーザが変更可能な値であってもよい。具体的には、より多くの画像との照合処理を実行したいと考えるユーザは、所定値を大きくし、照合対象から外れる登録情報を少なくしてよい。或いは、より少ない画像との照合処理を実行したいと考えるユーザは、所定値を小さくし、照合対象から外れる登録情報を多くしてもよい。
 続いて、照合部5は、照合対象である登録情報(即ち、ステップS23で照合対象から外されなかった登録情報)について、照合画像との変換パラメータの差が小さいものから順に照合処理を実行していく。なお、照合部5は、照合が成功した時点で照合処理を終了するようにしてよい。
 (技術的効果)
 次に、第2実施形態に係る光干渉断層撮像解析装置1によって得られる技術的効果について説明する。
 図10及び図11で説明したように、第2実施形態に係る光干渉断層撮像解析装置1では、変換パラメータに基づいて指紋画像の照合処理が実行される。このようにすれば、変換パラメータを考慮せずに照合処理を実行する場合と比べて、照合処理の精度及び照合処理の速度を向上させることが可能である。
 <第3実施形態>
 第3実施形態に係る光干渉断層撮像解析装置1について、図12を参照して説明する。なお、第3実施形態は、上述した第1及び第2実施形態と比べて一部の構成及び動作が異なるのみであり、その他の部分については第1及び第2実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (装置構成)
 まず、図12を参照しながら、第3実施形態に係る光干渉断層撮像解析装置1の構成について説明する。図12は、第3実施形態に係る光干渉断層撮像解析装置の構成を示すブロック図である。なお、図12では、図10で示した構成要素と同様の要素に同一の符号を付している。
 図12に示すように、第3実施形態に係る光干渉断層撮像解析装置1は、光干渉断層撮像部2と、光干渉断層解析部3と、登録情報データベース4と、照合部5と、を備えている。即ち、第3実施形態に係る光干渉断層撮像解析装置1は、上述した第2実施形態(図10参照)と同様の構成要素を備えて構成されている。
 ただし、第3実施形態に係る登録情報データベース4は、登録情報(即ち、抽出した指紋画像)に加えて、登録情報を取得した際の空間分解能を示す空間分解能情報を記憶可能に構成されている。空間分解能は、光干渉断層撮像部2において三次元輝度データを取得する際の分解能である。生体の皮膚に照射される光ビームは、深さ方向に応じてその径が変化する。例えば、非接触状態の指に光ビームを照射する場合、指が曲がっていると照射位置によって指までの距離が変わるため、距離に応じて照射される光ビームの径が変化する。その結果、空間分解能は一定とはならず、高い部分と低い部分とが生じ得る。登録情報データベース4は、このような空間分解能を示す情報を、登録情報と紐付けて記憶している。
 また、第3実施形態に係る照合部5は、重み付け部501を備えている。重み付け部501は、空間分解能に応じた重み付けを行うことが可能に構成されている。例えば、重み付け部501は、空間分解能が高い部分の重みを大きくしたり、空間分解能が低い部分の重みを小さくしたりしてよい。なお、空間分解能が高くなる距離は、光干渉断層撮像部2に装着しているレンズの特性に依存する。このため、重み付け部501は、予め空間分解能が最も高くなる距離を保持しておき、その距離に近い部分を空間分解能が高い部分と判定してから、重み付けを行うようにしてもよい。
 重み付け部501による重み付けの結果、照合部5による照合処理は、各部分の重み(言い換えれば、空間分解能)を考慮した状態で実行される。具体的には、重みが大きい部分(即ち、空間分解能が高い部分)の照合結果に与える影響が大きくなり、重みが小さい部分(即ち、空間分解能が低い部分)の照合結果に与える影響が小さくなる。
 (技術的効果)
 次に、第3実施形態に係る光干渉断層撮像解析装置1によって得られる技術的効果について説明する。
 図12で説明したように、第3実施形態に係る光干渉断層撮像解析装置1では、空間分解能に応じて重み付けをした上で照合処理が実行される。このようにすれば、空間分解能を考慮せずに照合処理を実行する場合と比べて、照合処理の精度を向上させることが可能である。
 <第4実施形態>
 第4実施形態に係る光干渉断層撮像解析装置1について、図13を参照して説明する。なお、第4実施形態は、上述した第1から第3実施形態と比べて一部の構成及び動作が異なるのみであり、その他の部分については第1から第3実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (装置構成)
 まず、図13を参照しながら、第4実施形態に係る光干渉断層撮像解析装置1の構成について説明する。図13は、第4実施形態に係る光干渉断層撮像解析装置の構成を示すブロック図である。なお、図13では、図3で示した構成要素と同様の要素に同一の符号を付している。
 図13に示すように、第4実施形態に係る光干渉断層撮像解析装置1は、光干渉断層撮像部2と、光干渉断層解析部3と、を備えている。即ち、第4実施形態に係る光干渉断層撮像解析装置1は、上述した第1実施形態(図3参照)と同様の構成要素を備えて構成されている。
 ただし、第4実施形態に係る平坦化変換処理部304は、空間分解能取得部3041を備えている。空間分解能取得部3041は、光干渉断層撮像部2において三次元輝度データを取得する際の空間分解能を示す空間分解能情報を取得可能に構成されている。空間分解能取得部3041で取得された空間分解能情報は、平坦化変換処理部304における変換処理に用いられる。具体的には、平坦化変換処理部304は、空間分解能が高い部分を基準にして変換処理を実行してよい。例えば、平坦化変換処理部304は、画像における空間分解能が最も高い位置を特定し、その部分が基準となるように(即ち、その部分を原点に取り直すことで)、変換処理を実行してよい。既に説明したように、通常、変換処理は表皮位置に基づいて実行されるが、本実施形態に係る平坦化変換処理部304では、表皮位置の空間分解能が低い場合、表皮位置とは異なる部分(例えば、真皮位置)を基準にして変換処理が実行されてもよい。
 (技術的効果)
 次に、第4実施形態に係る光干渉断層撮像解析装置1によって得られる技術的効果について説明する。
 図13で説明したように、第4実施形態に係る光干渉断層撮像解析装置1では、空間分解能が高い部分を基準にして変換処理が実行される。このようにすれば、平坦化する際の基準となる部分を正確に特定して変換処理を実行できるため、変換処理の精度を向上させることが可能である。
 <第5実施形態>
 第5実施形態に係る光干渉断層撮像解析装置1について、図14を参照して説明する。なお、第5実施形態は、上述した第1から第4実施形態と比べて一部の構成及び動作が異なるのみであり、その他の部分については第1及び第4実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (装置構成)
 まず、図14を参照しながら、第5実施形態に係る光干渉断層撮像解析装置1の構成について説明する。図14は、第5実施形態に係る光干渉断層撮像解析装置の構成を示すブロック図である。なお、図14では、図10で示した構成要素と同様の要素に同一の符号を付している。
 図14に示すように、第5実施形態に係る光干渉断層撮像解析装置1は、光干渉断層撮像部2と、光干渉断層解析部3と、登録情報データベース4と、照合部5と、を備えている。即ち、第5実施形態に係る光干渉断層撮像解析装置1は、上述した第2実施形態(図10参照)や第3実施形態(図12参照)と同様の構成要素を備えて構成されている。
 ただし、第5実施形態に係る登録情報データベース4は、登録情報(即ち、抽出した指紋画像:二次元データ)に加えて、三次元データを記憶可能に構成されている。ここでの三次元データは、三次元輝度データによって示される生体の皮膚に関する三次元データ(例えば、指の立体形状を含むデータ)である。三次元データは、登録情報と紐付いて記憶されている。三次元データは、断層画像接続部303によって複数の断層画像を接続して生成されるデータであってもよい。
 登録情報データベース4に記憶されている登録情報、及び三次元データは、それぞれ照合部5における照合処理に用いられてよい。例えば、照合部5は、登録情報及び三次元データのいずれか一方を選択して照合処理を実行してよい。具体的には、照合画像として二次元データが取得された場合、照合部5は二次元データである登録情報を照合に利用し、照合画像として三次元データが取得された場合、照合部5は三次元データを照合に利用するようにしてよい。
 或いは、照合部5は、登録情報及び三次元データの両方を用いて照合処理を実行するようにしてもよい。具体的には、照合部5は、登録情報及び三次元データの両方が一致する場合に照合成功と判定し、いずれか一方が一致しない場合には照合失敗と判定するようにしてもよい。
 或いは、照合部5は、三次元データを用いて照合対象となる登録情報を絞り込んだ後に、照合処理を実行するようにしてもよい。例えば、照合部5は、登録情報データベース4に記憶されている三次元データから得られる指の曲率や深さの分布を算出しておき、照合用の三次元データから得られる指の曲率や深さの分布と比較する。そして、照合部5は、指の曲率や深さの分布が大きくかけ離れている場合、その三次元データに紐づく登録情報を照合対象から外すようにしてもよい。言い換えれば、指の曲率や深さの分布が近い三次元データに紐づく登録情報のみを対象として照合処理を行うようにしてよい。
 (技術的効果)
 次に、第5実施形態に係る光干渉断層撮像解析装置1によって得られる技術的効果について説明する。
 図14で説明したように、第5実施形態に係る光干渉断層撮像解析装置1では、登録情報データベースが、二次元データと三次元データを記憶している。このようにすれば、二次元データのみを用いて照合処理を行う場合と比べて、照合処理の精度及び速度を向上させることが可能である。
 上述した各実施形態の機能を実現するように該実施形態の構成を動作させるプログラムを記録媒体に記録させ、該記録媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記録媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記録媒体はもちろん、そのプログラム自体も各実施形態に含まれる。
 記録媒体としては例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。また該記録媒体に記録されたプログラム単体で処理を実行しているものに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS上で動作して処理を実行するものも各実施形態の範疇に含まれる。更に、プログラム自体がサーバに記憶され、ユーザ端末にサーバからプログラムの一部または全てをダウンロード可能なようにしてもよい。
 <付記>
 以上説明した実施形態に関して、更に以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 付記1に記載の光干渉断層撮像解析装置は、皮膚に対して光ビームを二次元走査しながら照射して光干渉断層撮像を行い、前記皮膚の三次元輝度データを取得する取得手段と、前記皮膚の三次元輝度データにおいて前記光ビームの速軸方向の走査で得られる断層画像ごとに、前記皮膚の表皮位置を抽出する位置抽出手段と、前記皮膚の表皮位置の抽出結果に基づいて、前記断層画像間の相対位置を調整して前記断層画像を接続することで、接続三次元データを生成する接続手段と、前記皮膚の表皮位置の抽出結果に基づいて、前記接続三次元データに対して表皮を平坦化する変換処理を実行することで、平坦化三次元データを生成する平坦化手段と、前記平坦化三次元データから、所定の抽出深度に応じた前記皮膚の紋様を抽出する紋様抽出手段と、を備える光干渉断層撮像解析装置である。
である。
 (付記2)
 付記2に記載の光干渉断層撮像解析装置は、前記紋様抽出手段で抽出した前記皮膚の紋様を登録情報として記憶する記憶手段と、新たに取得した前記皮膚の紋様と、前記記憶手段に記憶された登録情報と、の照合処理を実行する照合手段と、を更に備え、前記記憶手段は、前記登録情報と、前記平坦化手段が実行する前記変換処理に関する変換パラメータと、を紐付けて記憶しており、前記照合手段は、前記変換パラメータに基づいて前記照合処理を実行する、付記1に記載の光干渉断層撮像解析装置である。
 (付記3)
 付記3に記載の光干渉断層撮像解析装置は、前記紋様抽出手段で抽出した前記皮膚の紋様を登録情報として記憶する記憶手段と、新たに取得した前記皮膚の紋様と、前記記憶手段に記憶された登録情報と、の照合処理を実行する照合手段と、を更に備え、前記照合手段は、前記光干渉断層撮像を行った際の空間分解能に応じた重み付けを行って、前記照合処理を実行する、付記1又は2に記載の光干渉断層撮像解析装置である。
 (付記4)
 付記4に記載の光干渉断層撮像解析装置は、前記平坦化手段は、前記光干渉断層撮像を行った際の空間分解能が高い部分を基準にして、前記変換処理を実行する、付記1から3のいずれか一項に記載の光干渉断層撮像解析装置である。
 (付記5)
 付記5に記載の光干渉断層撮像解析装置は、前記紋様抽出手段で抽出した前記皮膚の紋様を登録情報として記憶する記憶手段と、新たに取得した前記皮膚の紋様と、前記記憶手段に記憶された登録情報と、の照合処理を実行する照合手段と、を更に備え、前記記憶手段は、前記登録情報と、前記接続三次元データと、を紐付けて記憶しており、前記照合手段は、前記登録情報に加えて、前記接続三次元データを用いて前記照合処理を実行する、付記1から4のいずれか一項に記載の光干渉断層撮像解析装置である。
 (付記6)
 付記6に記載の光干渉断層撮像解析方法は、少なくとも1つのコンピュータが実行する光干渉断層撮像解析方法であって、皮膚に対して光ビームを二次元走査しながら照射して光干渉断層撮像を行い、前記皮膚の三次元輝度データを取得し、前記皮膚の三次元輝度データにおいて前記光ビームの速軸方向の走査で得られる断層画像ごとに、前記皮膚の表皮位置を抽出し、前記皮膚の表皮位置の抽出結果に基づいて、前記断層画像間の相対位置を調整して前記断層画像を接続することで、接続三次元データを生成し、前記皮膚の表皮位置の抽出結果に基づいて、前記接続三次元データに対して表皮を平坦化する変換処理を実行することで、平坦化三次元データを生成し、前記平坦化三次元データから、所定の抽出深度に応じた前記皮膚の紋様を抽出する、光干渉断層撮像解析方法である。
 (付記7)
 付記7に記載の記録媒体は、少なくとも1つのコンピュータに、皮膚に対して光ビームを二次元走査しながら照射して光干渉断層撮像を行い、前記皮膚の三次元輝度データを取得し、前記皮膚の三次元輝度データにおいて前記光ビームの速軸方向の走査で得られる断層画像ごとに、前記皮膚の表皮位置を抽出し、前記皮膚の表皮位置の抽出結果に基づいて、前記断層画像間の相対位置を調整して前記断層画像を接続することで、接続三次元データを生成し、前記皮膚の表皮位置の抽出結果に基づいて、前記接続三次元データに対して表皮を平坦化する変換処理を実行することで、平坦化三次元データを生成し、前記平坦化三次元データから、所定の抽出深度に応じた前記皮膚の紋様を抽出する、光干渉断層撮像解析方法を実行させるコンピュータプログラムが記録された記録媒体である。
 (付記8)
 付記8に記載のコンピュータプログラムは、少なくとも1つのコンピュータに、皮膚に対して光ビームを二次元走査しながら照射して光干渉断層撮像を行い、前記皮膚の三次元輝度データを取得し、前記皮膚の三次元輝度データにおいて前記光ビームの速軸方向の走査で得られる断層画像ごとに、前記皮膚の表皮位置を抽出し、前記皮膚の表皮位置の抽出結果に基づいて、前記断層画像間の相対位置を調整して前記断層画像を接続することで、接続三次元データを生成し、前記皮膚の表皮位置の抽出結果に基づいて、前記接続三次元データに対して表皮を平坦化する変換処理を実行することで、平坦化三次元データを生成し、前記平坦化三次元データから、所定の抽出深度に応じた前記皮膚の紋様を抽出する、光干渉断層撮像解析方法を実行させるコンピュータプログラムである。
 (付記9)
 付記9に記載の光干渉断層撮像解析システムは、皮膚に対して光ビームを二次元走査しながら照射して光干渉断層撮像を行い、前記皮膚の三次元輝度データを取得する取得手段と、前記皮膚の三次元輝度データにおいて前記光ビームの速軸方向の走査で得られる断層画像ごとに、前記皮膚の表皮位置を抽出する位置抽出手段と、前記皮膚の表皮位置の抽出結果に基づいて、前記断層画像間の相対位置を調整して前記断層画像を接続することで、接続三次元データを生成する接続手段と、前記皮膚の表皮位置の抽出結果に基づいて、前記接続三次元データに対して表皮を平坦化する変換処理を実行することで、平坦化三次元データを生成する平坦化手段と、前記平坦化三次元データから、所定の抽出深度に応じた前記皮膚の紋様を抽出する紋様抽出手段と、を備える光干渉断層撮像解析システムである。
 この開示は、請求の範囲及び明細書全体から読み取ることのできる発明の要旨又は思想に反しない範囲で適宜変更可能であり、そのような変更を伴う光干渉断層撮像解析装置、光干渉断層撮像解析方法、及び記録媒体もまたこの開示の技術思想に含まれる。
 1 光干渉断層撮像解析装置
 2 光干渉断層撮像部
 3 光干渉断層解析部
 4 登録情報データベース
 5 照合部
 101 プロセッサ
 102 メモリ
 103 通信インターフェース
 104 入力装置
 105 出力装置
 201 波長掃引レーザ光源
 202 光干渉・受光部
 203 光ビーム走査部
 204 信号処理・制御部
 205 測定対象物
 211 サーキュレータ
 212 分岐合流器
 213 参照光ミラー
 214 バランス型受光器
 215 ファイバコリメータ
 216 照射光学系
 301 三次元輝度データ取得部
 302 表皮位置抽出部
 303 断層画像接続部
 304 平坦化変換処理部
 305 指紋画像抽出部
 501 重み付け部
 3041 空間分解能取得部

Claims (7)

  1.  皮膚に対して光ビームを二次元走査しながら照射して光干渉断層撮像を行い、前記皮膚の三次元輝度データを取得する取得手段と、
     前記皮膚の三次元輝度データにおいて前記光ビームの速軸方向の走査で得られる断層画像ごとに、前記皮膚の表皮位置を抽出する位置抽出手段と、
     前記皮膚の表皮位置の抽出結果に基づいて、前記断層画像間の相対位置を調整して前記断層画像を接続することで、接続三次元データを生成する接続手段と、
     前記皮膚の表皮位置の抽出結果に基づいて、前記接続三次元データに対して表皮を平坦化する変換処理を実行することで、平坦化三次元データを生成する平坦化手段と、
     前記平坦化三次元データから、所定の抽出深度に応じた前記皮膚の紋様を抽出する紋様抽出手段と、
     を備える光干渉断層撮像解析装置。
  2.  前記紋様抽出手段で抽出した前記皮膚の紋様を登録情報として記憶する記憶手段と、
     新たに取得した前記皮膚の紋様と、前記記憶手段に記憶された登録情報と、の照合処理を実行する照合手段と、
     を更に備え、
     前記記憶手段は、前記登録情報と、前記平坦化手段が実行する前記変換処理に関する変換パラメータと、を紐付けて記憶しており、
     前記照合手段は、前記変換パラメータに基づいて前記照合処理を実行する、
     請求項1に記載の光干渉断層撮像解析装置。
  3.  前記紋様抽出手段で抽出した前記皮膚の紋様を登録情報として記憶する記憶手段と、
     新たに取得した前記皮膚の紋様と、前記記憶手段に記憶された登録情報と、の照合処理を実行する照合手段と、
     を更に備え、
     前記照合手段は、前記光干渉断層撮像を行った際の空間分解能に応じた重み付けを行って、前記照合処理を実行する、
     請求項1又は2に記載の光干渉断層撮像解析装置。
  4.  前記平坦化手段は、前記光干渉断層撮像を行った際の空間分解能が高い部分を基準にして、前記変換処理を実行する、
     請求項1から3のいずれか一項に記載の光干渉断層撮像解析装置。
  5.  前記紋様抽出手段で抽出した前記皮膚の紋様を登録情報として記憶する記憶手段と、
     新たに取得した前記皮膚の紋様と、前記記憶手段に記憶された登録情報と、の照合処理を実行する照合手段と、
     を更に備え、
     前記記憶手段は、前記登録情報と、前記接続三次元データと、を紐付けて記憶しており、
     前記照合手段は、前記登録情報に加えて、前記接続三次元データを用いて前記照合処理を実行する、
     請求項1から4のいずれか一項に記載の光干渉断層撮像解析装置。
  6.  少なくとも1つのコンピュータが実行する光干渉断層撮像解析方法であって、
     皮膚に対して光ビームを二次元走査しながら照射して光干渉断層撮像を行い、前記皮膚の三次元輝度データを取得し、
     前記皮膚の三次元輝度データにおいて前記光ビームの速軸方向の走査で得られる断層画像ごとに、前記皮膚の表皮位置を抽出し、
     前記皮膚の表皮位置の抽出結果に基づいて、前記断層画像間の相対位置を調整して前記断層画像を接続することで、接続三次元データを生成し、
     前記皮膚の表皮位置の抽出結果に基づいて、前記接続三次元データに対して表皮を平坦化する変換処理を実行することで、平坦化三次元データを生成し、
     前記平坦化三次元データから、所定の抽出深度に応じた前記皮膚の紋様を抽出する、
     光干渉断層撮像解析方法。
  7.  少なくとも1つのコンピュータに、
     皮膚に対して光ビームを二次元走査しながら照射して光干渉断層撮像を行い、前記皮膚の三次元輝度データを取得し、
     前記皮膚の三次元輝度データにおいて前記光ビームの速軸方向の走査で得られる断層画像ごとに、前記皮膚の表皮位置を抽出し、
     前記皮膚の表皮位置の抽出結果に基づいて、前記断層画像間の相対位置を調整して前記断層画像を接続することで、接続三次元データを生成し、
     前記皮膚の表皮位置の抽出結果に基づいて、前記接続三次元データに対して表皮を平坦化する変換処理を実行することで、平坦化三次元データを生成し、
     前記平坦化三次元データから、所定の抽出深度に応じた前記皮膚の紋様を抽出する、
     光干渉断層撮像解析方法を実行させるコンピュータプログラムが記録された記録媒体。
PCT/JP2021/048237 2021-12-24 2021-12-24 光干渉断層撮像解析装置、光干渉断層撮像解析方法、及び記録媒体 WO2023119631A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/048237 WO2023119631A1 (ja) 2021-12-24 2021-12-24 光干渉断層撮像解析装置、光干渉断層撮像解析方法、及び記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/048237 WO2023119631A1 (ja) 2021-12-24 2021-12-24 光干渉断層撮像解析装置、光干渉断層撮像解析方法、及び記録媒体

Publications (1)

Publication Number Publication Date
WO2023119631A1 true WO2023119631A1 (ja) 2023-06-29

Family

ID=86901820

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/048237 WO2023119631A1 (ja) 2021-12-24 2021-12-24 光干渉断層撮像解析装置、光干渉断層撮像解析方法、及び記録媒体

Country Status (1)

Country Link
WO (1) WO2023119631A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019519034A (ja) * 2016-06-10 2019-07-04 ジーアーソフト・カンパニー・リミテッド ファイルの属性情報を管理する方法及びコンピューティング装置{method for managing attribute information of file and computing device using the same}
WO2020170439A1 (ja) * 2019-02-22 2020-08-27 日本電気株式会社 処理装置、指紋画像抽出処理装置、システム、処理方法、及びコンピュータ可読媒体
WO2021019788A1 (ja) * 2019-08-01 2021-02-04 日本電気株式会社 処理装置、システム、生体認証システム、処理方法、及びコンピュータ可読媒体
WO2021192117A1 (ja) * 2020-03-25 2021-09-30 日本電気株式会社 光干渉断層撮像装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019519034A (ja) * 2016-06-10 2019-07-04 ジーアーソフト・カンパニー・リミテッド ファイルの属性情報を管理する方法及びコンピューティング装置{method for managing attribute information of file and computing device using the same}
WO2020170439A1 (ja) * 2019-02-22 2020-08-27 日本電気株式会社 処理装置、指紋画像抽出処理装置、システム、処理方法、及びコンピュータ可読媒体
WO2021019788A1 (ja) * 2019-08-01 2021-02-04 日本電気株式会社 処理装置、システム、生体認証システム、処理方法、及びコンピュータ可読媒体
WO2021192117A1 (ja) * 2020-03-25 2021-09-30 日本電気株式会社 光干渉断層撮像装置

Similar Documents

Publication Publication Date Title
US7809171B2 (en) Facial feature evaluation based on eye location
US7869663B2 (en) Methods, systems and computer program products for analyzing three dimensional data sets obtained from a sample
US20110150293A1 (en) Methods, Systems and Computer Program Products for Biometric Identification by Tissue Imaging Using Optical Coherence Tomography (OCT)
US9361518B2 (en) Methods, systems and computer program products for diagnosing conditions using unique codes generated from a multidimensional image of a sample
US12035978B2 (en) Method of determining a position and/or orientation of a hand-held device with respect to a subject, a corresponding apparatus and a computer program product
EP2911587B1 (en) Nir image guided targeting
JP7197017B2 (ja) 処理装置、システム、生体認証システム、処理方法、及びプログラム
US11076776B2 (en) Apparatus and method for real-time tracking of bony structures
KR102643438B1 (ko) 가짜 핑거프린트를 검출하는 방법
CN109843146B (zh) 光学相干断层成像术交叉视图成像
CN107004113A (zh) 用于获取多模式生物识别信息的系统和方法
US20140121527A1 (en) Apparatus and method for real-time tracking of bony structures
AU2016222454B2 (en) Method for characterizing material by analysis of speckles
US20200117780A1 (en) Multi-factor biometric authentication
WO2023119631A1 (ja) 光干渉断層撮像解析装置、光干渉断層撮像解析方法、及び記録媒体
US20230102868A1 (en) Optical coherence tomography (oct) apparatus and method for controlling an opticalcoherence tomography apparatus
WO2023166616A1 (ja) 画像処理装置、画像処理方法、及び、記録媒体
US11134840B2 (en) Ophthalmological device, ophthalmological image processing method, and storage medium
US11585654B2 (en) Texture detection apparatuses, systems, and methods for analysis
WO2023243458A1 (ja) 情報処理装置、情報処理方法、及び、記録媒体
WO2023188305A1 (ja) 情報処理装置、情報処理方法、及び、記録媒体
US11213200B2 (en) Topographical imaging using combined sensing inputs
WO2022196026A1 (ja) 情報処理装置、情報処理方法及び記憶媒体
US20210389116A1 (en) Optical coherence tomography apparatus, imaging method, and non-transitory computer readable medium storing imaging program
WO2024150627A1 (ja) 走査制御装置、走査システム、走査制御方法、記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21969062

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023568997

Country of ref document: JP