WO2010106913A1 - 光立体構造計測装置及びその構造情報処理方法 - Google Patents

光立体構造計測装置及びその構造情報処理方法 Download PDF

Info

Publication number
WO2010106913A1
WO2010106913A1 PCT/JP2010/053398 JP2010053398W WO2010106913A1 WO 2010106913 A1 WO2010106913 A1 WO 2010106913A1 JP 2010053398 W JP2010053398 W JP 2010053398W WO 2010106913 A1 WO2010106913 A1 WO 2010106913A1
Authority
WO
WIPO (PCT)
Prior art keywords
region
optical
dimensional structure
information
interest
Prior art date
Application number
PCT/JP2010/053398
Other languages
English (en)
French (fr)
Inventor
寺村 友一
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to US13/257,573 priority Critical patent/US8855750B2/en
Priority to CN201080012574.0A priority patent/CN102355861B/zh
Priority to EP10753408.3A priority patent/EP2409650B1/en
Publication of WO2010106913A1 publication Critical patent/WO2010106913A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02055Reduction or prevention of errors; Testing; Calibration
    • G01B9/02062Active error reduction, i.e. varying with time
    • G01B9/02067Active error reduction, i.e. varying with time by electronic control systems, i.e. using feedback acting on optics or light
    • G01B9/02069Synchronization of light source or manipulator and detector
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/1005Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring distances inside the eye, e.g. thickness of the cornea
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0066Optical coherence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0084Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02001Interferometers characterised by controlling or generating intrinsic radiation properties
    • G01B9/02002Interferometers characterised by controlling or generating intrinsic radiation properties using two or more frequencies
    • G01B9/02004Interferometers characterised by controlling or generating intrinsic radiation properties using two or more frequencies using frequency scans
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02083Interferometers characterised by particular signal processing and presentation
    • G01B9/02085Combining two or more images of different regions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02083Interferometers characterised by particular signal processing and presentation
    • G01B9/02088Matching signals with a database
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/0209Low-coherence interferometers
    • G01B9/02091Tomographic interferometers, e.g. based on optical coherence
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/47Scattering, i.e. diffuse reflection
    • G01N21/4795Scattering, i.e. diffuse reflection spatially resolved investigating of object in scattering medium
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2290/00Aspects of interferometers not specifically covered by any group under G01B9/02
    • G01B2290/65Spatial scanning object beam
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • the present invention relates to an optical three-dimensional structure measuring device and a structure information processing method thereof, and more particularly to an optical three-dimensional structure measuring device and a structure information processing method thereof that are characterized by a processing portion of structure information to be measured.
  • an optical tomographic image acquisition device using OCT Optical Coherence Tomography
  • This optical tomographic image acquisition apparatus divides low-coherent light emitted from a light source into measurement light and reference light, and then reflects or backscatters light from the measurement object when the measurement light is applied to the measurement object.
  • the light and the reference light are combined, and an optical tomographic image is acquired based on the intensity of the interference light between the reflected light and the reference light (Patent Document 1).
  • the reflected light and the backscattered light from the measurement object are collectively referred to as reflected light.
  • the above-mentioned OCT measurement is roughly divided into two types: TD-OCT (Time domain) OCT measurement and FD-OCT (Fourier domain OCT) measurement.
  • TD-OCT Time domain OCT measurement
  • FD-OCT Fullier domain OCT
  • the reflected light intensity distribution corresponding to the position in the depth direction of the measurement target (hereinafter referred to as the depth position) is obtained by measuring the interference light intensity while changing the optical path length of the reference light. Is the method.
  • the interference light intensity is measured for each spectral component of the light without changing the optical path lengths of the reference light and the signal light, and the obtained spectral interference intensity signal is Fourier transformed by a computer.
  • This is a method of obtaining a reflected light intensity distribution corresponding to a depth position by performing a representative frequency analysis.
  • it has been attracting attention as a technique that enables high-speed measurement by eliminating the need for mechanical scanning existing in TD-OCT.
  • SD-OCT Spectral Domain OCT
  • SS-OCT Session Source OCT
  • the SD-OCT apparatus uses broadband low-coherent light such as SLD (Super Luminescence Diode) or ASE (Amplified Spontaneous Emission) light source or white light as a light source, and uses a Michelson interferometer or the like to generate broadband low-coherent light. After splitting into measurement light and reference light, irradiate the measurement light on the object to be measured, cause the reflected light and reference light that have returned at that time to interfere with each other, and decompose this interference light into frequency components using a spectrometer.
  • SLD Super Luminescence Diode
  • ASE Amontaneous Emission
  • the interference light intensity for each frequency component is measured using a detector array in which elements such as photodiodes are arranged in an array, and the spectrum interference intensity signal obtained thereby is Fourier transformed by a computer to obtain an optical signal.
  • a tomographic image is constructed.
  • the SS-OCT apparatus uses a laser that temporally sweeps the optical frequency as a light source, causes reflected light and reference light to interfere with each other at each wavelength, and measures the time waveform of the signal corresponding to the temporal change of the optical frequency.
  • An optical tomographic image is constructed by Fourier-transforming the spectral interference intensity signal thus obtained with a computer.
  • OCT measurement is a method for acquiring an optical tomographic image of a specific region as described above.
  • an endoscope for example, a cancer lesion is observed by observation with a normal illumination endoscope or a special optical endoscope.
  • OCT measurement of the region it is possible to determine how far the cancerous lesion has infiltrated.
  • scanning the optical axis of the measurement light two-dimensionally three-dimensional information can be acquired together with depth information obtained by OCT measurement.
  • OCT for example, observes the depth of cancer in the esophagus.
  • a thin epithelial layer and a strong scattering basement membrane are depicted from the front, a slightly strong scattering mucosal lamina basement membrane in the back, a slightly low scattering mucosal lamina, a strongly scattering mucosal sublayer, and A low scattering muscle layer is depicted.
  • epithelial thickening appears when cancer occurs in the epithelial layer and proliferates.
  • a new blood vessel extends from a blood vessel in the submucosa layer toward the cancer toward the mucosa layer, and is formed around the cancer cell beyond the basement membrane.
  • the basement membrane breaks the basement membrane and infiltrates the lamina basement, and as it progresses, the infiltration depth increases into the mucosal muscularis, submucosa, and muscle layers.
  • Intraepithelial neoplasms Cancers that have not invaded the basement membrane are called “intraepithelial neoplasms” and are an indicator that they can be completely cured if they are removed.
  • intraepithelial neoplasms In order to find early cancer earlier and treat it minimally without risk of metastasis, it is important to determine whether it has invaded below the basement membrane. When invading beyond the basement membrane, it is important whether it exceeds the mucosal muscle as the next index. If the mucosal muscle is not exceeded, endoscopic resection is selected because of the low probability of metastasis. On the other hand, if the mucosal muscle plate is exceeded, the probability of metastasis increases, so thoracotomy or radiotherapy is selected.
  • a method of extracting a specific scattering intensity and extracting a layer structure by using OCT as an example is disclosed by OCT (Patent Document 2).
  • the layer structure is extracted by using a one-dimensional differential filter or the like in the depth direction to extract the layer structure or the boundary between layers.
  • a one-dimensional differential filter or the like in the depth direction to extract the layer structure or the boundary between layers.
  • the distribution of new blood vessels is a useful index for knowing the spread of cancer.
  • the conventional OCT measurement method only looks at whether the density of new blood vessels coming to the vicinity of the mucosal surface is outstanding compared to the surrounding normal part.
  • the conventional endoscopic observation method only looks at the new blood vessels coming to the vicinity of the mucosal surface.
  • the conventional methods have the disadvantages that, for example, it is difficult to distinguish from new blood vessels when they are inflamed and congested, and the visibility is poor when non-cancerous mucosa is covered on the mucous membrane. there were. For example, if a hole created when a new blood vessel exceeds the basement membrane can be directly seen, it is expected that the distribution of the new blood vessel inside the living body can be determined with higher accuracy, but there has been no such method.
  • the present invention has been made in view of such circumstances, and the continuity of the layer region can be easily identified from the structural information of the measurement object having the layer structure, and the structure in the shallow layer region can obscure the deep part. It is an object of the present invention to provide an optical three-dimensional structure measuring apparatus and a structure information processing method thereof that can reliably extract structured information of layered areas.
  • the optical three-dimensional structure measurement apparatus irradiates the measurement light in the depth direction of the stack of the measurement target having the layer structure, and two-dimensionally scans the optical axis of the measurement light. Then, in the optical three-dimensional structure measuring apparatus for acquiring the optical three-dimensional structure information of the measurement object, the optical three-dimensional structure information storage means for storing the optical three-dimensional structure information, and the optical three-dimensional structure information stored in the optical three-dimensional structure information storage means A specific layer extraction that compares the information value of the structure information with a predetermined threshold value, and extracts an area that is equal to or greater than a predetermined range in which the information value of the optical stereoscopic structure information is equal to or greater than the predetermined threshold value as the specific layer area of the measurement target Means, a missing area extracting means for extracting, as a missing area, an area in which the information value of the optical three-dimensional structure information is less than the predetermined threshold on the specific layer area, and calculating a size of
  • the specific layer extracting unit compares the information value of the optical three-dimensional structure information stored in the optical three-dimensional structure information storage unit with a predetermined threshold value, and is equal to or greater than the predetermined threshold value.
  • a region having a continuous range of information values of the optical three-dimensional structure information is extracted as the specific layer region to be measured, and the missing region extracting unit is configured to extract the information of the optical three-dimensional structure information on the specific layer region.
  • An area having a value less than the predetermined threshold is extracted as a missing area, the missing area range calculating means calculates the size of the missing area range, and the region of interest classification means determines the size of the missing area range.
  • the continuity of the layer region can be easily identified from the structural information of the measurement target having a layer structure, and is shallow Structure in the layer area There is an effect that the structure information of the obfuscated layer region of the deep can be reliably extracted by.
  • the optical three-dimensional structure measuring apparatus of the first aspect is such that the specific layer extracting means has an information value of the optical three-dimensional structure information equal to or greater than the predetermined threshold value.
  • the specific layer extracting means has an information value of the optical three-dimensional structure information equal to or greater than the predetermined threshold value.
  • a noise area erasing unit that erases the area as a noise area from the optical three-dimensional structure information.
  • the optical three-dimensional structure measuring apparatus of the first or second aspect wherein the computer graphic image constructs a computer graphic image by rendering the optical three-dimensional structure information It is preferable to further comprise construction means.
  • the optical three-dimensional structure measuring apparatus of the third aspect is characterized in that the specific layer region and the region of interest are attributed to the specific layer region and the region of interest.
  • the optical three-dimensional structure measuring apparatus As in the optical three-dimensional structure measuring apparatus according to the fifth aspect, the optical three-dimensional structure measuring apparatus according to the fourth aspect, wherein the computer graphic image constructing means, the computer graphic image constructing means, It is preferable to construct a projection image obtained by projecting the specific layer region from the depth direction as the computer graphic image.
  • the optical three-dimensional structure measuring apparatus As in the optical three-dimensional structure measuring apparatus according to the sixth aspect, the optical three-dimensional structure measuring apparatus according to the fourth or fifth aspect, wherein the computer graphic image constructing means renders the optical three-dimensional structure information to perform light It is preferable to construct a three-dimensional structure image as the computer graphic image.
  • the optical three-dimensional structure measuring apparatus As in the optical three-dimensional structure measuring apparatus according to the seventh aspect, the optical three-dimensional structure measuring apparatus according to any one of the fourth to sixth aspects, wherein the attribute adding means includes at least the predetermined range determination reference value It is preferable to have attribute control means for setting the attribute of the region of interest below the minimum range determination reference value to be the attribute of the specific layer region.
  • the optical three-dimensional structure measuring apparatus includes the minimum range determination reference value of the predetermined range determination reference values. It is preferable to add a plurality of different attributes for each region of interest classified by the region-of-interest classification unit based on a plurality of range determination reference values having larger values.
  • the optical three-dimensional structure measuring apparatus according to any one of the first to eighth aspects, wherein the measurement object is a biological mucosal tissue, and the region of interest classification means is Classifying the region of interest that is greater than or equal to the first range criterion value out of the predetermined range criterion values and less than the second range criterion value above the first range criterion value as a neovascular region It is preferable to do.
  • the region of interest classification means includes the second range of the predetermined range determination reference values. It is preferable to classify the region of interest equal to or greater than the determination reference value as a cancer infiltrating region.
  • optical three-dimensional structure measuring apparatus like the optical three-dimensional structure measuring apparatus according to the eleventh aspect, wherein the distribution of the new blood vessel region determined by the region-of-interest classification means is the specific layer region It is preferable to further comprise a new blood vessel distribution image generating means for generating a new blood vessel distribution image on the top.
  • optical three-dimensional structure measuring apparatus any one of the ninth to eleventh aspects, as in the optical three-dimensional structure measuring apparatus according to the twelfth aspect, wherein the specific layer region includes a basement membrane region and a mucous membrane of the biological mucosal tissue It is preferable to include at least one of the muscle plate regions.
  • the measurement light is irradiated in the depth direction of the stack of measurement objects having a layer structure, and the optical axis of the measurement light is two-dimensionally scanned to
  • the optical three-dimensional structure information storing step for storing the optical three-dimensional structure information and the optical three-dimensional structure information storing step are stored.
  • the information value of the optical three-dimensional structure information is compared with a predetermined threshold value, and an area that is equal to or greater than a predetermined range in which the information value of the optical three-dimensional structure information is equal to or greater than the predetermined threshold value is extracted as the specific layer area to be measured.
  • the specific layer extracting step compares the information value of the optical three-dimensional structure information stored in the optical three-dimensional structure information storing step with a predetermined threshold value. , An area of a predetermined range or more in which the information value of the optical three-dimensional structure information equal to or greater than the predetermined threshold is extracted as the specific layer area of the measurement target, and the missing area extraction step is performed on the specific layer area An area where the information value of the optical stereoscopic structure information is less than the predetermined threshold is extracted as a missing area, the missing area range calculating step calculates the size of the missing area range, and the region of interest classification step is the missing area By comparing the size of the range with a plurality of predetermined range determination reference values and classifying the missing region into a plurality of types of regions of interest, continuous layer regions can be obtained from the structure information of the measurement target having a layer structure. Can easily be identified, also it has the effect of structural information obfusc
  • the continuity of the layer region can be easily identified from the structural information of the measurement target having the layer structure, and the layer region whose depth is obscured by the structure in the shallow layer region. There is an effect that it is possible to extract the structural information of the.
  • FIG. 1 is a block diagram showing a configuration of an optical three-dimensional structure imaging apparatus according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing a modification of the scanning means in the optical three-dimensional structure imaging apparatus of FIG.
  • FIG. 3 is a block diagram showing a configuration of the signal processing unit of FIG.
  • FIG. 4 is a flowchart showing the flow of the three-dimensional CG image generation process of the optical three-dimensional structure imaging apparatus of FIG.
  • FIG. 5 is a diagram for explaining an example of a specific procedure for extracting a specific layer from an optical three-dimensional structure image and removing noise of the optical three-dimensional structure image by the specific layer extracting / noise removing unit in FIG. 3. .
  • FIG. 1 is a block diagram showing a configuration of an optical three-dimensional structure imaging apparatus according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing a modification of the scanning means in the optical three-dimensional structure imaging apparatus of FIG.
  • FIG. 3 is a block diagram showing a
  • FIG. 6 is a projection of the specific layer extracted by the specific layer extraction / noise removal unit of FIG.
  • FIG. 7 is a diagram illustrating the erasing of the region of interest A from the specific layer by the attribute addition / control unit in FIG. 3 according to the first embodiment.
  • FIG. 8 is a diagram illustrating an example of a computer graphic image generated by the rendering unit in FIG. 3 according to the first embodiment.
  • FIG. 9 is a diagram for explaining Example 2 of the procedure of FIG.
  • FIG. 10 is a projection of a specific layer in Example 2 extracted by the specific layer extraction / noise removal unit of FIG.
  • FIG. 11 is a diagram for explaining processing in the second embodiment of the region of interest in a specific layer by the attribute addition / control unit in FIG. 3.
  • FIG. 12 is a diagram illustrating an example of a computer graphic image generated in the second embodiment by the rendering unit in FIG.
  • FIG. 13 is a projection of a specific layer in Example 3 extracted by the specific layer extraction / noise removal unit of FIG.
  • FIG. 14 is a diagram illustrating an example of a computer graphic image generated by the rendering unit in FIG. 3 according to the third embodiment.
  • FIG. 15 is a diagram showing a distribution image of new blood vessels generated by the attribute addition / control unit of FIG.
  • FIG. 16 is a diagram in the case where the neovascular distribution image of FIG. 15 is superimposed on the basement membrane region.
  • FIG. 17 is a diagram showing a computer graphic image obtained by rendering the distribution image of the new blood vessels in FIG. 18 is a diagram in which the endoscopic image is superimposed on the projection view of FIG.
  • FIG. 1 is a block diagram showing a configuration of an optical three-dimensional structure imaging apparatus according to an embodiment of the present invention.
  • an optical three-dimensional structure imaging apparatus 1 which is an optical three-dimensional structure measuring apparatus is configured to scan a tomographic image of a measurement target such as a living tissue or a cell in a body cavity, for example, SS- This is obtained by OCT measurement, and includes an OCT light source 10, an OCT interferometer 30 having an interference information detection unit 70, a probe 40, a CG image generation unit 90, and a monitor 100.
  • the OCT light source 10 is a light source that emits laser light L in the infrared region while sweeping the frequency at a constant period.
  • the laser light L emitted from the OCT light source 10 is demultiplexed into the measurement light L1 and the reference light L2 by the optical demultiplexing unit 3 in the OCT interferometer 30.
  • the reference light L2 demultiplexed by the optical demultiplexing unit 3 is reflected by the optical path length adjusting unit 80 serving as reference light adjusting means via the circulator 5a.
  • the optical path length adjusting unit 80 changes the optical path length of the reference light L2 in order to adjust the position where the acquisition of tomographic images is started, and includes collimator lenses 81 and 82 and a reflection mirror 83.
  • the reference light L2 from the circulator 5a passes through the collimator lenses 81 and 82 and then is reflected by the reflection mirror 83.
  • the return light L2a of the reference light L2 is incident on the circulator 5a again through the collimator lenses 81 and 82.
  • the reflection mirror 83 is disposed on the movable stage 84, and the movable stage 84 is provided so as to be movable in the arrow A direction by the mirror moving unit 85.
  • the movable stage 84 moves in the direction of arrow A, the optical path length of the reference light L2 is changed.
  • the return light L2a of the reference light L2 from the optical path length adjustment unit 80 is guided to the optical multiplexing / demultiplexing unit 4 via the circulator 5a.
  • the measurement light L1 demultiplexed by the optical demultiplexing unit 3 is guided to the probe 40 via the circulator 5b and the optical fiber FB.
  • the measurement light L1 is emitted from the emission end of the probe 40 and applied to the measurement target T, and the return light L3 is incident on the probe 40 again and returns to the circulator 5b.
  • the probe 40 guides the incident measurement light L1 to the measurement target T via the optical rotary connector 41 and irradiates the measurement target T.
  • the probe 40 guides the return light L3 from the measurement target T when the measurement light L1 is irradiated on the measurement target T.
  • the probe 40 is optically rotated by a motor (not shown) in the optical scanning unit 42 as scanning means.
  • the fiber part ahead of the connector part 41 is configured to rotate, whereby the measurement light L1 is scanned circumferentially on the measurement target T, whereby a two-dimensional tomographic image on the ZY plane is obtained. Measurement is possible.
  • the tip of the probe 40 is advanced and retracted in a direction X perpendicular to the plane formed by the scanning circle of the measuring light L1 by a motor (not shown) in the optical scanning unit 42, thereby measuring an XYZ three-dimensional tomographic image. It is possible.
  • the probe 40 is detachably attached to the optical fiber FB by an optical connector (not shown).
  • FIG. 2 is a view showing a modification of the scanning means in the optical three-dimensional structure imaging apparatus of FIG.
  • a light transmission / reception unit 900 in which a high-speed scanning mirror M such as a lens L and a galvanometer mirror is arranged is provided on the fiber tip side.
  • Two-dimensional scanning may be performed by the high-speed scanning mirror M, and the condensing unit and the scanning unit may be configured to advance and retreat by a stage (not shown).
  • the measurement object may be scanned two-dimensionally with a stage.
  • these optical axis scanning mechanisms and measurement sample moving mechanisms may be combined.
  • the optical axis scanning of the OCT apparatus may be any of those using a galvano mirror as described above and a type of scanning by a stage.
  • the deflecting mirror may be rotated by a motor, or it may be fixed to a fiber and rotated for each fiber.
  • linear scanning may be performed using a MEMS (Micro Electro Mechanical Systems) mirror.
  • Reflected light (or backscattered light) L3 from the measurement target T is guided to the OCT interferometer 30, and is guided to the optical multiplexing / demultiplexing unit 4 by the OCT interferometer 30 via the circulator 5b.
  • the optical multiplexing / demultiplexing unit 4 multiplexes the reflected light (or backscattered light) L3 of the measurement light L1 and the return light L2a of the reference light L2, and outputs the combined light to the interference information detecting unit 70 side.
  • the interference information detection unit 70 generates the interference light L5 between the reflected light (or backscattered light) L3 of the measurement light L1 combined by the optical multiplexing / demultiplexing unit 4 and the return light L2a of the reference light L2 at a predetermined sampling frequency.
  • InGaAs photodetectors 71a and 71b that measure the light intensity of the interference light L5, and an interference light detector 72 that performs a balance detection of the detection value of the InGaAs photodetector 71a and the detection value of the InGaAs photodetector 71b. .
  • the interference light L5 is divided into two by the optical multiplexing / demultiplexing unit 4, detected by the InGaAs photodetectors 71a and 71b, and output to the interference light detection unit 72.
  • the interference light detection unit 72 performs Fourier transform on the interference light L5 in synchronization with the sweep trigger signal S of the OCT light source 10, thereby the intensity of the reflected light (or backscattered light) L3 at each depth position of the measurement target T. Is detected.
  • the CG image generation unit 90 is an optical three-dimensional structure information storage unit that uses the intensity of reflected light (or backscattered light) L3 at each depth position of the measurement target T detected by the interference light detection unit 72 as signal intensity information of interference information. Is stored in the memory 91.
  • the CG image generation unit 90 includes a signal processing unit 93 and a control unit 94 in addition to the memory 91.
  • the signal processing unit 93 generates an optical three-dimensional structure image composed of the structure information of the measurement target T based on the signal intensity information of the interference information stored in the memory 91.
  • the control unit 94 performs control of the signal processing unit 93, light emission control of the OCT light source 10, and control of the mirror moving unit 85 together.
  • FIG. 3 is a block diagram showing the configuration of the signal processing unit of FIG.
  • the signal processing unit 93 includes an optical three-dimensional structure image generation unit 120, a specific layer extraction / noise removal unit 121 as a specific layer extraction unit and a noise region elimination unit, and a missing region extraction as a missing region extraction unit.
  • a rendering unit 127 as a computer graphic image construction unit.
  • the light three-dimensional structure image generation unit 120 generates a light three-dimensional structure image composed of the structure information of the measurement target T based on the signal intensity information of the interference information stored in the memory 91.
  • the specific layer extraction / noise removal unit 121 compares the range of the continuous structure information with a predetermined threshold value, and in the case where the range of the continuous structure information is equal to or greater than the predetermined threshold, the optical three-dimensional structure image generation unit 120 A specific layer region (for example, a basement membrane region or a mucosal muscle plate region) of the constructed optical three-dimensional structure image is used, and if the range of continuous structural information is less than a predetermined threshold, the noise region of the measurement target T A noise area of the structure information is extracted, and the noise area is removed from the optical three-dimensional structure image.
  • a predetermined threshold value for example, a basement membrane region or a mucosal muscle plate region
  • the missing region extraction unit 122 extracts a missing region in which structure information is missing on the specific layer region extracted by the specific layer extraction / noise removal unit 121.
  • the missing region range calculation unit 123 calculates the size of the missing range extracted by the missing region extraction unit 122, for example, the area.
  • the region-of-interest classifying unit 124 compares the size of the missing range calculated by the missing region range calculating unit 123 with a predetermined range determination reference value, and compares the missing region with a plurality of regions of interest (for example, according to the size of the missing range). , Neovascular area, minute cancer infiltration area, advanced cancer infiltration area, etc.).
  • the threshold / reference value storage unit 125 stores a predetermined threshold used by the specific layer extraction / noise removal unit 121, a range determination reference value used by the region of interest classification unit 124, and the like.
  • the attribute addition / control unit 126 adds / sets attributes to the specific layer region extracted by the specific layer extraction / noise removal unit 121 and the region of interest classified by the region of interest classification unit 124.
  • the rendering unit 127 includes the optical stereoscopic structure image generated by the optical stereoscopic structure image generation unit 120, the specific layer region extracted by the specific layer extraction / noise removal unit 121, and the region of interest classified by the region of interest classification unit 124.
  • a computer graphic image is generated by rendering the structural information of the image.
  • the rendering unit 127 constructs a computer graphic image so that the specific layer region and the region of interest can be identified based on the attributes of the specific layer region and the region of interest added / set in the attribute addition / control unit 126. That is, the rendering unit 127 constructs a computer graphic image such as a light three-dimensional structure CG image by executing different coloring processing or enhancement processing based on the attributes of the specific layer region and the region of interest, for example.
  • the rendering unit 127 outputs the constructed computer graphic image to the monitor 100.
  • FIG. 4 is a flowchart showing the flow of the three-dimensional CG image generation process of the optical three-dimensional structure imaging apparatus of FIG.
  • the control unit 94 generates a light three-dimensional structure image composed of the structure information of the measurement target T based on the signal intensity information of the interference information stored in the memory 91 by the light three-dimensional structure image generation unit 120. (Step S1).
  • the optical three-dimensional structure image generation unit 120 performs a noise removal unit such as a low-pass filter or an averaging process in order to remove high-frequency noise having a size or less suitable for continuity determination.
  • control unit 94 uses the specific layer extraction / noise removal unit 121 based on the predetermined threshold value from the threshold value / reference value storage unit 125 to generate the optical stereoscopic structure image constructed by the optical stereoscopic structure image generation unit 120.
  • Layer structure information is extracted (step S2).
  • control unit 94 extracts noise information of the signal strength information of the interference information of the measurement target T based on a predetermined threshold value from the threshold value / reference value storage unit 125 by the specific layer extraction / noise removal unit 121. Noise information is removed from the optical three-dimensional structure image (step S3).
  • FIG. 5 is a diagram for explaining an example of a specific procedure for extracting the specific layer from the optical three-dimensional structure image and removing the noise of the optical three-dimensional structure image by the specific layer extracting / noise removing unit of FIG.
  • FIG. 6 is a projection of a specific layer extracted by the specific layer extraction / noise removal unit of FIG.
  • the esophagus in a living body includes, from the upper layer, the mucosal surface 150, the thin epithelial layer 151, the strongly scattering basement membrane 152, the slightly scattering mucosal intrinsic layer 153, and the slightly low scattering mucosal muscle. It has a layer structure such as a plate 154, a strongly scattering submucosa 155, and a muscle layer (not shown).
  • the thickness of the epithelial layer 151 increases and thickening appears in the epithelial layer 151.
  • the cancer first breaks through the basement membrane 152 and infiltrates the mucosal lamina 153, and further progresses to deepen the invasion depth into the mucosal muscle plate 154, the submucosa 155, and the muscle layer. In order to distinguish the presence or absence of cancer invasion, it is important to determine whether the cancer has infiltrated below the basement membrane 152.
  • the optical three-dimensional structure imaging apparatus 1 displays interference information as shown in part (B) of FIG. Signal strength information can be obtained.
  • the mucosa which is signal intensity information of interference information of the mucosal surface 150, epithelial layer 151, and basement membrane 152 in a cross section having the depth direction of the esophagus lamination.
  • Surface strength information 150a, epithelial layer strength information 151a, and basement membrane strength information 152a are schematically shown.
  • the epithelial layer 151 has capillaries 156 and the like.
  • the epithelial layer strength information 151a contains the capillaries 156.
  • Corresponding capillary strength information 156a is detected.
  • the capillary blood vessel strength information 156a becomes a shadow with respect to the lower layer during OCT measurement, and a missing portion 158a in which strength information is missing occurs in the basement membrane strength information 152a.
  • the noise component 157a may be generated in the epithelial layer strength information 151a.
  • the specific layer extraction / noise removal unit 121 determines the structure information of the mucosal surface 150, the epithelial layer 151, and the basement membrane 152 based on the signal intensity information of the interference information in step S2, the mucosal surface structure information 150b, The structure information 151b and the basement membrane structure information 152b are extracted.
  • structure information 156b and 157b of small regions due to capillaries or noise is extracted from the epithelial layer structure information 151b, and the basement membrane structure is extracted.
  • the information 152b a missing missing region 158b that is shadowed by a capillary vessel or the like is extracted.
  • step S2 the specific layer extraction / noise removal unit 121 determines the size of the range of continuous structure information (the length of the continuous structure information in the case of the part (C) in FIG. 5) and the threshold / reference value storage unit 125. Is compared with a predetermined threshold stored in the image, and when the size of the range of the continuous structure information is equal to or larger than the predetermined threshold, the optical stereoscopic structure image constructed by the optical stereoscopic structure image generation unit 120 is specified. The mucosal surface 150, the epithelial layer 151, and the basement membrane 152, which are layer regions, are extracted. The missing region 158b is extracted together with the epithelial layer 151.
  • step S3 the specific layer extraction / noise removal unit 121 extracts the noise region of the structure information of the measurement target T as the noise region when the size of the range of the continuous structure information is less than a predetermined threshold. . Then, the specific layer extraction / noise removal unit 121 removes this noise region from the optical three-dimensional structure image. That is, by the process of step S3, the specific layer extraction / noise removal unit 121 removes the small area structure information 156b and 157b shown in the part (C) of FIG. 5 from the optical stereoscopic structure image as a noise area.
  • the specific layer extraction / noise removal unit 121 removes the noise region composed of the structure information 156b and 157b as shown in FIG.
  • the epithelial layer region 151A and the basement membrane region 152A are extracted.
  • the missing region 158A is extracted together with the epithelial layer region 151A.
  • the two-dimensional cross-sectional image has been described in FIG. 5, but the specific layer extraction / noise removal unit 121 specifically performs the processing in steps S ⁇ b> 2 and S ⁇ b> 3 with an optical three-dimensional structure. Run on the entire image.
  • the specific layer extraction / noise removal unit 121 first extracts a point (extraction point) where the signal intensity information of the interference information becomes higher in the depth direction. This is performed for the entire three-dimensional image.
  • the specific layer extraction / noise removal unit 121 includes a continuous layer (for example, mucosal surface region 150A, epithelial layer region 151A, basement membrane region 152A) and other structures (for example, structure Information 156b, 157b: see FIG. 5C))).
  • a continuous layer for example, mucosal surface region 150A, epithelial layer region 151A, basement membrane region 152A
  • other structures for example, structure Information 156b, 157b: see FIG. 5C)
  • the specific layer extraction / noise removal unit 121 has an area (a size of a range of continuous structural information) of the projection diagram 170 in the projection diagram 170 as shown in FIG.
  • a continuous layer for example, mucosal surface region 150A, epithelial layer region 151A, basement membrane region 152A
  • Others for example, structural information 156b, 157b: see part (C) of FIG. 5 are regarded as noise regions and removed.
  • the controller 94 extracts a plurality of missing regions 158A generated on the projection 170 of the basement membrane region 152A shown in FIG. 6, for example, by the missing region extraction unit 122 (step S4). .
  • control unit 94 calculates the size, for example, the area of the missing region 158A extracted by the missing region extraction unit 122 in the missing region range calculation unit 123 (step S5).
  • control unit 94 compares the size of the missing region 158A calculated by the missing region range calculation unit 123 in the region-of-interest classification unit 124 with a predetermined range determination reference value from the threshold / reference value storage unit 125.
  • the region 158A is classified into a plurality of regions of interest (for example, a neovascular region, a minute cancer infiltrating region, an advanced cancer infiltrating region, etc.) according to the size of the missing range (step S6).
  • the region-of-interest classification unit 124 classifies the missing region 158A in the projection diagram 17 into a region of interest of a class corresponding to the diameter, for example.
  • the region-of-interest classification unit 124 has a region of interest A (for example, a normal capillary region or noise) having a diameter of less than 10 microns, a region of interest B (for example, a neovascular region) having a diameter of 10 to less than 200 microns, and a diameter of 200.
  • a region of micron or more and less than 1 mm is classified as a region of interest C (for example, a minute infiltration region), and a diameter of 1 mm or more is classified into a region of interest D (for example, a progressive infiltration region).
  • control unit 94 includes the specific layer region (mucosal surface region 150A, epithelial layer region 151A, basement membrane region 152A) and region of interest extracted by the specific layer extraction / noise removal unit 121 in the attribute addition / control unit 126.
  • An attribute is added / set to each region of interest classified by the classification unit 124 (step S7). For example, a color attribute is added / set to a specific layer region and each region of interest.
  • the control unit 94 causes the rendering unit 127 to generate the optical stereoscopic structure image generated by the optical stereoscopic structure image generation unit 120, the specific layer region extracted by the specific layer extraction / noise removal unit 121, and the region of interest classification unit 124.
  • the computer graphics image is generated by rendering the structural information of the region of interest classified according to (Step S8).
  • the rendering unit 127 constructs a computer graphic image so that the specific layer region and the region of interest can be identified based on the attributes of the specific layer region and the region of interest added / set in the attribute addition / control unit 126. That is, the rendering unit 127 constructs a computer graphic image by executing, for example, different coloring processing or enhancement processing based on the attributes of the specific layer region and the region of interest.
  • control unit 94 outputs the computer graphic image constructed by the rendering unit 127 to the monitor 100 and displays the computer graphic image on the monitor 100 (step S9).
  • FIG. 7 is a diagram for explaining deletion of the region of interest A from the specific layer by the attribute addition / control unit in FIG. 3 in the first embodiment
  • FIG. 8 is a computer graphic generated by the rendering unit in FIG. 3 in the first embodiment. It is a figure which shows an example of an image.
  • the region-of-interest classification unit 124 sets the region of interest A (eg, normal (Capillary region or noise).
  • the attribute addition / control unit 126 adds the same attribute as that of the basement membrane region 152A to the region of interest A in step S7, so that the region of interest A (missing region) is extracted from the basement membrane region 152A as shown in FIG. 158b) is deleted.
  • the rendering unit 127 performs the specific layer region (mucosal surface region 150A) in which the color attribute is added to the light three-dimensional structure image generated by the light three-dimensional structure image generation unit 120 as shown in FIG.
  • the computerized image 140 is generated by rendering the epithelial layer region 151A and the basement membrane region 152A). In this case, in the computer graphic image 140, the missing region 158 is deleted from the basement membrane region 152A.
  • Example 2> 9 is a diagram for explaining the second embodiment of the procedure of FIG. 5, and FIG. 10 is a projection view of the specific layer in the second embodiment extracted by the specific layer extracting / noise removing unit of FIG. 11 is a diagram for explaining processing in the second embodiment of the region of interest in a specific layer by the attribute addition / control unit in FIG. 3, and FIG. 12 is a computer in the second embodiment generated by the rendering unit in FIG. It is a figure which shows an example of a graphic image.
  • the processing contents in the parts (A) to (D) in FIG. 9 are the same as the processing contents in the parts (A) to (D) in FIG.
  • the region-of-interest classification unit 124 sets the missing region 180b due to the loss at, for example, a diameter of 1 mm or more in step S6. Is classified as a region of interest D (for example, a progressive infiltration region). Note that the region-of-interest classification unit 124 determines the region of interest A (for example, a normal capillary region) to be less than 10 microns, for example, in the same manner as in the first embodiment with respect to the missing region 158b in the portions (A) to (D) of FIG. or noise).
  • the region of interest A for example, a normal capillary region
  • the specific layer extraction / noise removal unit 121 has an area (the size of the range of continuous structural information) of the projection diagram 170 in the projection diagram 170 as shown in FIG. If the area is equal to or greater than a certain area (threshold value / predetermined threshold value stored in the reference value storage unit 125), a continuous layer (eg, mucosal surface region 150A, epithelial layer region 151A, basement membrane region 152A) is used. Others (for example, the structure information 156b and 157b) are regarded as noise regions and removed.
  • the attribute addition / control unit 126 adds the same attribute as the basement membrane region 152A to the region of interest A in the projection diagram 170, so that the region of interest A (missing from the basement membrane region 152A as shown in FIG. 11).
  • the region 158) is erased, and the missing region 180b is left on the basement membrane region 152A as a region of interest D (progressive infiltration region) having a diameter of 1 mm or more (step S7).
  • the rendering unit 127 includes a specific layer region (for example, an identifiable color attribute added to the optical stereoscopic structure image generated by the optical stereoscopic image generation unit 120).
  • the mucosal surface area 150A, the epithelial layer area 151A, and the basement membrane area 152A) are rendered to generate a computer graphic image 140.
  • the missing region 158 is deleted from the basement membrane region 152A, and the progress as the region of interest D (the missing region 180b) to which, for example, an identifiable color attribute is added on the basement membrane region 152A.
  • the infiltrated area will be rendered.
  • FIG. 13 is a projection of a specific layer in Example 3 extracted by the specific layer extraction / noise removal unit of FIG.
  • FIG. 14 is a diagram showing an example of a computer graphic image in the third embodiment generated by the rendering unit in FIG.
  • new blood vessels extend from the submucosa through the basement membrane to the mucosal epithelial layer to form IPCL (epithelial papillary vascular loop).
  • IPCL epithelial papillary vascular loop
  • the basement membrane is swollen and the cancer enters the submucosa.
  • New blood vessels are formed in a random direction toward the cancer.
  • a technique is used to determine the grade of cancer from the density distribution and shape of new blood vessels that can be seen through the surface, but only the new blood vessels that have come close to the mucosal surface are seen. .
  • Example 3 is an example for determining the distribution of new blood vessels inside the living body and observing the state of the basement membrane due to the new blood vessels.
  • the region-of-interest classification unit 124 classifies the missing region into, for example, regions of interest A to D in step S6.
  • the attribute addition / control unit 126 adds the same attribute as that of the basement membrane region 152A to the region of interest A in the projection diagram 170, so that the region of interest A (missing from the basement membrane region 152A as shown in FIG. 13).
  • the missing region 190b is a region of interest B (neovascular region) having a diameter of 10 microns or more and less than 200 microns
  • the missing region 191b is a region of interest C (microinvasion region) having a diameter of 200 microns or more and less than 1 mm
  • missing The region 192b is left on the basement membrane region 152A as a region of interest D (advanced infiltration region) having a diameter of 1 mm or more (step S7).
  • the rendering unit 127 adds a specific layer region (for example, an identifiable color attribute to the optical stereoscopic structure image generated by the optical stereoscopic image generation unit 120).
  • the mucosal surface area 150A, the epithelial layer area 151A, and the basement membrane area 152A) are rendered to generate a computer graphic image 140.
  • the missing region 158 is deleted from the basement membrane region 152A, and the regions of interest B to D (the missing region 190b, missing) to which, for example, an identifiable color attribute is added on the basement membrane region 152A.
  • the neovascular region, the minute infiltrating region, and the progressive infiltrating region as the region 191b and the missing region 192b) are rendered.
  • FIG. 15 is a diagram showing a distribution image of new blood vessels generated by the attribute addition / control unit in FIG. 3, and FIG. 16 is a diagram in the case where the distribution image of new blood vessels in FIG. 15 is superimposed on the basement membrane region. Further, FIG. 17 is a diagram showing a computer graphic image obtained by rendering the distribution image of the new blood vessels of FIG.
  • the attribute addition / control unit 126 of the third embodiment generates a new blood vessel distribution as a distribution image 200 as shown in FIG. 15, and the new blood vessel distribution image 200 as shown in FIG. It can be superimposed on the projected view 170 of the region 152A. Accordingly, the rendering unit 127 can generate a computer graphic image 140 as shown in FIG. 17 in which the distribution state of the new blood vessels on the basement membrane can be easily recognized, and cancer diagnosis can be performed more reliably. it can.
  • Example 3 the density of new blood vessels and the state of infiltration can be displayed in an easy-to-understand manner, particularly from the structure of the basement membrane.
  • the layer structure can be extracted more reliably even in the obscured region in the deep part due to the structure in the shallow region. It is also effective in diagnosing age-related macular degeneration, diabetic retinopathy, retinal vein occlusion, and neovascular glaucoma caused by neovascularization in the eye. In this case, the retina is extracted and observed instead of the basement membrane.
  • the continuity of the layer region can be easily identified from the structural information of the measurement object having the layer structure, and the structure of the layer region whose depth is obscured by the structure in the shallow layer region. Information can be extracted reliably.
  • FIG. 18 is a diagram superimposed on the projection image of FIG. 11 on the endoscopic image.
  • the probe 40 when the probe 40 is inserted into the forceps channel of the endoscope to perform endoscopic image observation and OCT measurement, as shown in FIG. 127 can superimpose the projection 170 on the endoscopic image 300 in a translucent state.
  • the rendering unit 127 can further improve cancer diagnosis by causing the monitor 100 to display an image in which the projection diagram 170 is superimposed on the endoscopic image 300 in a translucent state. .
  • NBI Narrow Band Imaging
  • FICE Fexible Spectral Imaging Color Enhancement
  • the basal membrane of the esophagus has been described as an example, in other digestive tracts, such as the stomach, small intestine, large intestine, and the like, if the mucosal muscle plate is extracted, the infiltration can be easily recognized.
  • digestive tract such as oral cavity, tongue, pharynx, stomach, small intestine, large intestine, bile duct with basement membrane, respiratory organs such as nasal cavity, larynx, bronchi, urinary organ such as bladder, ureter, urethra, uterus, vagina, etc. It can be applied to any tissue that changes the structure of a specific membrane or layer, such as the genital organs, skin, and the fundus having a layer structure.
  • SYMBOLS 1 Optical three-dimensional structure imaging device, 10 ... OCT light source, 30 ... OCT interferometer, 40 ... Probe, 70 ... Interference information detection part, 90 ... CG image generation part, 91 ... Memory, 93 ... Signal processing part, 94 ... Control unit 100... Monitor 120.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • General Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Automation & Control Theory (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Endoscopes (AREA)

Abstract

 光立体構造情報を格納する光立体構造情報記憶手段(91)と、 前記光立体構造情報記憶手段に格納された前記光立体構造情報の情報値を所定の閾値と比較し、前記所定の閾値以上の前記光立体構造情報の情報値が連続した所定の範囲以上の領域を前記測定対象の特定層領域として抽出する特定層抽出手段(121)と、前記特定層領域上にて、前記光立体構造情報の情報値が前記所定の閾値未満の領域を欠落領域として抽出する欠落領域抽出手段(122)と、前記欠落領域の範囲の大きさを算出する欠落領域範囲算出手段(123)と、前記欠落領域の範囲の大きさを複数の所定の範囲判定基準値と比較し、前記欠落領域を複数種類の関心領域に分類する関心領域分類手段(124)と、を備えた光立体構造計測装置。

Description

光立体構造計測装置及びその構造情報処理方法
 本発明は光立体構造計測装置及びその構造情報処理方法に係り、特に測定対象の構造情報の処理部分に特徴のある光立体構造計測装置及びその構造情報処理方法に関する。
 従来、生体組織の光断層画像を取得する際に、OCT(Optical Coherence Tomography)計測を利用した光断層画像取得装置が用いられることがある。この光断層画像取得装置は、光源から射出された低コヒーレント光を測定光と参照光とに分割した後、該測定光が測定対象に照射されたときの測定対象からの反射光、もしくは後方散乱光と参照光とを合波し、該反射光と参照光との干渉光の強度に基づいて光断層画像を取得するものである(特許文献1)。以下、測定対象からの反射光、後方散乱光をまとめて反射光と標記する。
 上記のOCT計測には、大きくわけてTD-OCT(Time domain OCT)計測とFD-OCT(Fourier Domain OCT)計測の2種類がある。TD-OCT計測は、参照光の光路長を変更しながら干渉光強度を測定することにより、測定対象の深さ方向の位置(以下、深さ位置という)に対応した反射光強度分布を取得する方法である。
 一方、FD-OCT計測は、参照光と信号光の光路長は変えることなく、光のスペクトル成分毎に干渉光強度を測定し、ここで得られたスペクトル干渉強度信号を計算機にてフーリエ変換に代表される周波数解析を行うことで、深さ位置に対応した反射光強度分布を取得する方法である。TD-OCTに存在する機械的な走査が不要となることで、高速な測定が可能となる手法として、近年注目されている。
 FD-OCT計測を行う装置構成で代表的な物としては、SD-OCT(Spectral Domain OCT)装置とSS-OCT(Swept Source OCT)の2種類が挙げられる。SD-OCT装置は、SLD(Super Luminescence Diode)やASE(Amplified Spontaneous Emission)光源、白色光といった広帯域の低コヒーレント光を光源に用い、マイケルソン型干渉計等を用いて、広帯域の低コヒーレント光を測定光と参照光とに分割した後、測定光を測定対象に照射させ、そのとき戻って来た反射光と参照光とを干渉させ、この干渉光をスペクトロメータを用いて各周波数成分に分解し、フォトダイオード等の素子がアレイ状に配列されたディテクタアレイを用いて各周波数成分毎の干渉光強度を測定し、これにより得られたスペクトル干渉強度信号を計算機でフーリエ変換することにより、光断層画像を構成するようにしたものである。
 一方、SS-OCT装置は、光周波数を時間的に掃引させるレーザを光源に用い、反射光と参照光とを各波長において干渉させ、光周波数の時間変化に対応した信号の時間波形を測定し、これにより得られたスペクトル干渉強度信号を計算機でフーリエ変換することにより光断層画像を構成するようにしたものである。
 ところで、OCT計測は上述したように特定の領域の光断層像を取得する方法であるが、内視鏡下では、例えば癌病変部を通常照明光内視鏡や特殊光内視鏡の観察により発見し、その領域をOCT測定することで、癌病変部がどこまで浸潤しているかを見わけることが可能となる。また、測定光の光軸を2次元的に走査することで、OCT計測による深さ情報と合わせて3次元的な情報を取得することができる。
 OCT計測と3次元コンピュータグラフィック技術の融合により、マイクロメートルオーダの分解能を持つ3次元構造モデルを表示することが可能となる事から、以下ではこのOCT計測による3次元構造モデルを光立体構造像と呼ぶ。
 OCTにより、例えば食道の癌深達度の観察が行われている。食道のOCT像では、手前から薄い上皮層と強散乱の基底膜、その奥にやや強い散乱の粘膜固有層が描出され、その下部にやや低散乱の粘膜筋板、強散乱の粘膜下層、そして低散乱の筋層が描出される。
 癌の発生による組織構造変化の一例を説明すると、癌が上皮層に発生して増殖すると、上皮の肥厚が現れる。この時期、癌に向かって粘膜下層にある血管から新生血管が粘膜層に向けて伸び、基底膜を超えて癌細胞周辺に形成されることが知られている。癌が進行すると基底膜を破り固有層に浸潤し、さらに進行すると粘膜筋板、粘膜下層、筋層へと浸潤深さが深くなる。
 基底膜を浸潤していない癌は「上皮内新生物」と呼ばれ、切除すれば完治する、というひとつの指標となる。早期癌をより早く見つけて、転移の危険性のないうちに低侵襲な治療をするために、基底膜より下に浸潤しているかどうかの見極めが大事である。基底膜を超えて浸潤している場合は、次の指標として粘膜筋板を超えているかどうかが重要となる。粘膜筋板を超えていない場合は、転移の確率が低いため、内視鏡下切除治療が選択される。一方、粘膜筋板を超えた場合は、転移の確率が高くなるため、開胸手術や放射線治療が選択される。早期癌をより低侵襲な治療をするために、粘膜筋板より下に浸潤しているかどうかの見極めが大事である。そこで、基底膜、あるいは粘膜筋板といった特定の膜、もしくは層のみ抽出して画像化する事が期待される。しかし、基底膜の状態を直接観察する方法はなかった。
 OCTにより、例えば、眼底を例として、特定の散乱強度を抽出して、層構造を抽出する手法が開示されている(特許文献2)。層構造の抽出には、具体的には深さ方向の1次元微分フィルタ等を用いて層構造、もしくは層の境界部を抽出するとしている。眼底の場合、層構造が明確でありまた構造の変化が少ないため、この様な手法で抽出しても誤差は少ない。しかし、食道など消化管で行われている例はなかった。
 癌が上皮層に発生すると、癌に向かって新生血管が粘膜層に形成される事が知られている。食道の早期癌の場合、新生血管は、粘膜下層から基底膜を通り抜けて粘膜上皮層に伸び、IPCL(上皮乳頭血管ループ)を形成する。癌が進行すると、基底膜をやぶり、癌が粘膜下層に入り込む。新生血管は、癌に向かってランダムな方向で形成される。通常の内視鏡検査では、表面から透けて見える新生血管の密度分布や形状から癌のグレードを判定する手法が行われている。
特開2008-128708号公報 特開2008-73099号公報
 OCTの断層像では、基底膜を示す信号が観察されている。しかしながら、食道粘膜の場合、粘膜内に基底膜と同様に強散乱を示す新生血管などの構造物による誤認識や、癌になると極端に肥厚する場合や血管などの比較的浅い層の構造物の影響によるそれ以降の深さの光強度の減衰により、抽出が困難となることがある。また、癌の浸潤により基底膜が喪失している場合もあるが、基底膜以外の層や構造物により現れる別の層と基底膜とが連続しているのか不連続なのかがわかりにくい、という欠点がある。
 また、新生血管の分布は、癌の広がりを知るための有用な指標である。しかし、従来のOCT計測手法は、粘膜表面近くまで来ている新生血管の密度が、周辺の正常部と比較して際だっているかどうかを見ているにすぎない。一方、従来の内視鏡観察手法は、粘膜表面近くまで来ている新生血管を見ているにすぎない。
 そのため、従来の手法では、例えば炎症を起こして充血しているような場合に新生血管との見分けが困難である、粘膜上に非癌粘膜が覆っている場合に視認性が悪い、といった欠点があった。例えば、新生血管が基底膜を超える時に作り出す穴を直接的に見ることができれば、生体内部の新生血管の分布をより精度良く見極められると期待されるが、このような方法はなかった。
 本発明は、このような事情に鑑みてなされたもので、層構造を有する測定対象の構造情報から層領域の連続性が容易に識別でき、また浅い層領域にある構造物により深部の不明瞭化した層領域の構造情報を確実に抽出することのできる光立体構造計測装置及びその構造情報処理方法を提供することを目的とする。
 前記目的を達成するために、第1の態様の光立体構造計測装置は、層構造を有する測定対象の積層の深さ方向に測定光を照射し、かつ前記測定光の光軸を2次元走査して前記測定対象の光立体構造情報を取得する光立体構造計測装置において、前記光立体構造情報を格納する光立体構造情報記憶手段と、前記光立体構造情報記憶手段に格納された前記光立体構造情報の情報値を所定の閾値と比較し、前記所定の閾値以上の前記光立体構造情報の情報値が連続した所定の範囲以上の領域を前記測定対象の特定層領域として抽出する特定層抽出手段と、前記特定層領域上にて、前記光立体構造情報の情報値が前記所定の閾値未満の領域を欠落領域として抽出する欠落領域抽出手段と、前記欠落領域の範囲の大きさを算出する欠落領域範囲算出手段と、前記欠落領域の範囲の大きさを複数の所定の範囲判定基準値と比較し、前記欠落領域を複数種類の関心領域に分類する関心領域分類手段と、を備えて構成される。
 第1の態様の光立体構造計測装置では、前記特定層抽出手段が前記光立体構造情報記憶手段に格納された前記光立体構造情報の情報値を所定の閾値と比較し、前記所定の閾値以上の前記光立体構造情報の情報値が連続した所定の範囲以上の領域を前記測定対象の特定層領域として抽出し、前記欠落領域抽出手段が記特定層領域上にて前記光立体構造情報の情報値が前記所定の閾値未満の領域を欠落領域として抽出し、前記欠落領域範囲算出手段が前記欠落領域の範囲の大きさを算出し、前記関心領域分類手段が前記欠落領域の範囲の大きさを複数の所定の範囲判定基準値と比較し、前記欠落領域を複数種類の関心領域に分類することで、層構造を有する測定対象の構造情報から層領域の連続性が容易に識別でき、また浅い層領域にある構造物により深部の不明瞭化した層領域の構造情報を確実に抽出することができるという効果がある。
 第2の態様の光立体構造計測装置のように、第1の態様の光立体構造計測装置であって、前記特定層抽出手段は、前記所定の閾値以上の前記光立体構造情報の情報値が連続した領域が前記所定の範囲未満の場合、該領域をノイズ領域として前記光立体構造情報より消去するノイズ領域消去手段を有することが好ましい。
 第3の態様の光立体構造計測装置のように、第1または第2の態様の光立体構造計測装置であって、前記光立体構造情報をレンダリング処理してコンピュータグラフィック画像を構築するコンピュータグラフィック画像構築手段をさらに備えることが好ましい。
 第4の態様の光立体構造計測装置のように、第3の態様の光立体構造計測装置であって、前記特定層領域及び前記関心領域が識別可能な属性を前記特定層領域及び前記関心領域に付加する属性付加手段を備え、前記コンピュータグラフィック画像構築手段は、前記光立体構造情報をレンダリング処理して、少なくとも前記属性が付加された前記特定層領域及び前記関心領域を有する前記コンピュータグラフィック画像を構築することが好ましい。
 第5の態様の光立体構造計測装置のように、第4の態様の光立体構造計測装置であって、前記コンピュータグラフィック画像構築手段は、前記コンピュータグラフィック画像構築手段は、前記測定対象の積層の深さ方向より前記特定層領域を投影した投影画像を前記コンピュータグラフィック画像として構築することが好ましい。
 第6の態様の光立体構造計測装置のように、第4または第5の態様の光立体構造計測装置であって、前記コンピュータグラフィック画像構築手段は、前記光立体構造情報をレンダリング処理して光立体構造画像を前記コンピュータグラフィック画像として構築することが好ましい。
 第7の態様の光立体構造計測装置のように、第4から第6の態様のいずれかの光立体構造計測装置であって、前記属性付加手段は、少なくとも前記所定の範囲判定基準値のうちの最小範囲判定基準値未満の前記関心領域の属性を前記特定層領域の属性とする属性制御手段を有することが好ましい。
 第8の態様の光立体構造計測装置のように、第7の態様の光立体構造計測装置であって、前記属性制御手段は、前記所定の範囲判定基準値のうちの前記最小範囲判定基準値より大きな値の複数の範囲判定基準値に基づき、異なる複数の前記属性を前記関心領域分類手段が分類した前記関心領域毎に付加することが好ましい。
 第9の態様の光立体構造計測装置のように、第1から第8の態様のいずれかの光立体構造計測装置であって、前記測定対象は生体粘膜組織であり、前記関心領域分類手段は、前記所定の範囲判定基準値のうちの第1の範囲判定基準値以上で、かつ前記第1の範囲判定基準値より大きい第2の範囲判定基準値未満の前記関心領域を新生血管領域に分類することが好ましい。
 第10の態様の光立体構造計測装置のように、第9の態様の光立体構造計測装置であって、前記関心領域分類手段は、前記所定の範囲判定基準値のうちの前記第2の範囲判定基準値以上の前記関心領域を癌浸潤領域に分類することが好ましい。
 第11の態様の光立体構造計測装置のように、第9または第10の態様の光立体構造計測装置であって、前記関心領域分類手段が判定した前記新生血管領域の分布を前記特定層領域上に新生血管分布像として生成する新生血管分布像生成手段をさらに備えることが好ましい。
 第12の態様の光立体構造計測装置のように、第9から第11の態様のいずれかの光立体構造計測装置であって、前記特定層領域は、前記生体粘膜組織の基底膜領域及び粘膜筋板領域の少なくともいずれか一方の領域を含むことが好ましい。
 第13の態様の光立体構造計測装置の構造情報処理方法は、層構造を有する測定対象の積層の深さ方向に測定光を照射し、かつ前記測定光の光軸を2次元走査して前記測定対象の光立体構造情報を取得する光立体構造計測装置の構造情報処理方法において、前記光立体構造情報を格納する光立体構造情報記憶ステップと、前記光立体構造情報記憶ステップにて格納された前記光立体構造情報の情報値を所定の閾値と比較し、前記所定の閾値以上の前記光立体構造情報の情報値が連続した所定の範囲以上の領域を前記測定対象の特定層領域として抽出する特定層抽出ステップと、前記特定層領域上にて、前記光立体構造情報の情報値が前記所定の閾値未満の領域を欠落領域として抽出する欠落領域抽出ステップと、前記欠落領域の範囲の大きさを算出する欠落領域範囲算出ステップと、前記欠落領域の範囲の大きさを複数の所定の範囲判定基準値と比較し、前記欠落領域を複数種類の関心領域に分類する関心領域分類ステップと、を備えて構成される。
 第13の態様の光立体構造計測装置の構造情報処理方法では、前記特定層抽出ステップが前記光立体構造情報記憶ステップにて格納された前記光立体構造情報の情報値を所定の閾値と比較し、前記所定の閾値以上の前記光立体構造情報の情報値が連続した所定の範囲以上の領域を前記測定対象の特定層領域として抽出し、前記欠落領域抽出ステップが前記特定層領域上にて前記光立体構造情報の情報値が前記所定の閾値未満の領域を欠落領域として抽出し、前記欠落領域範囲算出ステップが前記欠落領域の範囲の大きさを算出し、前記関心領域分類ステップが前記欠落領域の範囲の大きさを複数の所定の範囲判定基準値と比較し、前記欠落領域を複数種類の関心領域に分類することで、層構造を有する測定対象の構造情報から層領域の連続性が容易に識別でき、また浅い層領域にある構造物により深部の不明瞭化した層領域の構造情報を確実に抽出することができるという効果がある。
 以上説明したように、本発明によれば、層構造を有する測定対象の構造情報から層領域の連続性が容易に識別でき、また浅い層領域にある構造物により深部の不明瞭化した層領域の構造情報を確実に抽出することができるという効果がある。
図1は、本発明の実施形態に係る光立体構造画像化装置の構成を示すブロック図である。 図2は、図1の光立体構造画像化装置において走査手段の変形例を示す図である。 図3は、図1の信号処理部の構成を示すブロック図である。 図4は、図1の光立体構造画像化装置の3次元CG画像生成処理の流れを示すフローチャートである。 図5は、図3の特定層抽出/ノイズ除去部にて光立体構造像より特定層を抽出すると共に光立体構造像のノイズを除去する具体的な手順の一例を説明するための図である。 図6は、図3の特定層抽出/ノイズ除去部により抽出された特定層の投影図である。 図7は、実施例1における図3の属性付加/制御部による特定層からの関心領域Aの消去を説明する図である。 図8は、実施例1における図3のレンダリング部により生成されるコンピュータグラフィック画像の一例を示す図である。 図9は、図5の手順の実施例2を説明するための図である。 図10は、図3の特定層抽出/ノイズ除去部により抽出された実施例2における特定層の投影図である。 図11は、図3の属性付加/制御部による特定層での関心領域の実施例2における処理を説明する図である。 図12は、図3のレンダリング部により生成される実施例2におけるコンピュータグラフィック画像の一例を示す図である。 図13は、図3の特定層抽出/ノイズ除去部により抽出された実施例3における特定層の投影図である。 図14は、図3のレンダリング部により生成される実施例3におけるコンピュータグラフィック画像の一例を示す図である。 図15は、図3の属性付加/制御部が生成する新生血管の分布像を示す図である。 図16は、図15の新生血管の分布像を基底膜領域に重畳させた場合の図である。 図17は、図15の新生血管の分布像をレンダリングしたコンピュータグラフィック画像を示す図である。 図18は、内視鏡画像に図11の投影図に重畳した図である。
 以下、添付図面を参照して、本発明に係る光立体構造計測装置としての光立体構造画像化装置の実施の形態について詳細に説明する。
 図1は本発明の実施形態に係る光立体構造画像化装置の構成を示すブロック図である。図1に示すように、光立体構造計測装置である光立体構造画像化装置1は、例えば体腔内の生体組織や細胞等の測定対象の断層画像を例えば波長1.3μmを中心とするSS-OCT計測により取得するものであって、OCT光源10、干渉情報検出部70を有するOCT干渉計30、プローブ40、CG画像生成部90及びモニタ100を備えて構成される。
 OCT光源10は周波数を一定の周期で掃引させながら赤外領域のレーザ光Lを射出する光源である。
 OCT光源10から射出されたレーザ光Lは、OCT干渉計30内の光分波部3により測定光L1と参照光L2とに分波される。光分波部3は、例えば、分岐比90:10の光カプラから構成され、測定光:参照光=90:10の割合で分波する。
 OCT干渉計30では、光分波部3により分波された参照光L2は、サーキュレータ5aを介して参照光調整手段としての光路長調整部80により光路長が調整されて反射される。
 この光路長調整部80は、断層画像の取得を開始する位置を調整するために参照光L2の光路長を変更するものであり、コリメータレンズ81、82および反射ミラー83を有している。そして、サーキュレータ5aからの参照光L2はコリメータレンズ81、82を透過した後に反射ミラー83により反射され、参照光L2の戻り光L2aは再びコリメータレンズ81、82を介してサーキュレータ5aに入射される。
 ここで、反射ミラー83は可動ステージ84上に配置されており、可動ステージ84はミラー移動部85により矢印A方向に移動可能に設けられている。そして可動ステージ84が矢印A方向に移動することにより、参照光L2の光路長が変更するようになっている。そして、光路長調整部80からの参照光L2の戻り光L2aは、サーキュレータ5aを介して光合分波部4に導光される。
 一方、光分波部3により分波された測定光L1は、サーキュレータ5b及び光ファイバFBを介してプローブ40に導光される。プローブ40の出射端から測定光L1が出射されて測定対象Tに照射され、その戻り光L3が再びプローブ40に入射し、サーキュレータ5bに戻ってくる。
 プローブ40は、入射された測定光L1を光学ロータリコネクタ部41を介して測定対象Tまで導光し、測定対象Tに照射する。また、プローブ40は、測定光L1が測定対象Tに照射されたときの測定対象Tからの戻り光L3を導光する。
 測定対象Tの深さ方向をZ、プローブの長手軸方向をX、ZX面に直角な方向をYとすると、プローブ40は、走査手段としての光走査部42内の図示しないモータにより、光学ロータリコネクタ部41から先のファイバ部が回転する構成となっており、それにより測定対象T上において円周状に測定光L1を走査するようになっており、これによりZY平面の2次元断層画像が計測可能となっている。さらに、光走査部42内の図示しないモータによりプローブ40の先端が測定光L1の走査円が形成する平面に対して垂直な方向Xに進退走査することにより、XYZの3次元断層画像の計測が可能となっている。また、プローブ40は、図示しない光コネクタにより光ファイバFBに対して着脱可能に取り付けられている。
 図2は図1の光立体構造画像化装置において走査手段の変形例を示す図である。
 勿論、プローブ先端形状や走査方向はこれに限る物ではなく、例えば、ファイバ先端側に図2に示すように、レンズL及びガルバノミラー等の高速走査ミラーMを配置した光送受部900を設け、高速走査ミラーMにより2次元走査を行ってもよいし、ステージ(図示せず)によって進退走査するように集光手段及び走査手段を構成してもよい。あるいは、測定対象をステージによって2次元的に走査してもよい。あるいは、これら光軸走査機構、および測定試料移動機構を組み合わせて構成してもよい。OCT装置の光軸走査は、このようにガルバノミラーを用いたものでも、ステージによって走査するタイプでも、どれでもよい。プローブの場合、偏向ミラーのみモータで回転させても、ファイバに固定して、ファイバ毎回転させてもよい。回転に限らず、MEMS(Micro Electro Mechanical Systems)ミラーを用いて線形走査させてもよい。
 測定対象Tからの反射光(あるいは後方散乱光)L3は、OCT干渉計30に導光され、OCT干渉計30にてサーキュレータ5bを介して光合分波部4に導光される。そして、この光合分波部4において測定光L1の反射光(あるいは後方散乱光)L3と参照光L2の戻り光L2aとを合波し干渉情報検出部70側に射出するようになっている。
 干渉情報検出部70は、光合分波部4により合波された測定光L1の反射光(あるいは後方散乱光)L3と参照光L2の戻り光L2aとの干渉光L5を、所定のサンプリング周波数で検出するものであり、干渉光L5の光強度を測定するInGaAsフォトディテクタ71aおよび71bと、InGaAsフォトディテクタ71aの検出値とInGaAsフォトディテクタ71bの検出値のバランス検波を行なう干渉光検出部72とを備えている。なお、干渉光L5は、光合分波部4において2分され、InGaAsフォトディテクタ71aおよび71bにおいて検出され、干渉光検出部72に出力される。干渉光検出部72は、OCT光源10の掃引トリガ信号Sに同期して、干渉光L5をフーリエ変換することにより、測定対象Tの各深さ位置における反射光(あるいは後方散乱光)L3の強度を検出する。
 CG画像生成部90は、干渉光検出部72により検出された測定対象Tの各深さ位置における反射光(あるいは後方散乱光)L3の強度を干渉情報の信号強度情報として光立体構造情報記憶手段としてのメモリ91に格納する。CG画像生成部90はメモリ91のほかに、信号処理部93、制御部94を備えて構成される。信号処理部93は、メモリ91に格納された干渉情報の信号強度情報に基づいて測定対象Tの構造情報からなる光立体構造像を生成する。制御部94は、信号処理部93の制御と、OCT光源10の発光制御と、ミラー移動部85の制御とを共に行う。
 図3は図1の信号処理部の構成を示すブロック図である。信号処理部93は、図3に示すように、光立体構造像生成部120、特定層抽出手段及びノイズ領域消去手段としての特定層抽出/ノイズ除去部121、欠落領域抽出手段としての欠落領域抽出部122、欠落領域範囲算出手段としての欠落領域範囲算出部123、関心領域分類手段としての関心領域分類部124、閾値/基準値格納部125、属性付加手段及び属性制御手段としての属性付加/制御部126及びコンピュータグラフィック画像構築手段としてのレンダリング部127を備えて構成される。
 光立体構造像生成部120は、メモリ91に格納された干渉情報の信号強度情報に基づいて測定対象Tの構造情報からなる光立体構造像を生成する。
 特定層抽出/ノイズ除去部121は、連続した構造情報の範囲と所定の閾値とを比較することで、連続した構造情報の範囲と所定の閾値以上の場合には光立体構造像生成部120より構築された光立体構造像の特定層領域(例えば、基底膜領域、あるいは粘膜筋板領域)とすると共に、連続した構造情報の範囲と所定の閾値未満の場合にはノイズ領域として測定対象Tの構造情報のノイズ領域を抽出しこのノイズ領域を光立体構造像から除去する。
 欠落領域抽出部122は、特定層抽出/ノイズ除去部121にて抽出した特定層領域上において構造情報が欠落している欠落領域を抽出する。
 欠落領域範囲算出部123は、欠落領域抽出部122にて抽出した欠落範囲の大きさ、例えば面積を算出する。
 関心領域分類部124は、欠落領域範囲算出部123にて算出した欠落範囲の大きさを所定の範囲判定基準値と比較し、欠落領域を欠落範囲の大きさに応じた複数の関心領域(例えば、新生血管領域、微小癌浸潤領域、進行癌浸潤領域等)分類する。
 閾値/基準値格納部125は、特定層抽出/ノイズ除去部121にて使用する所定の閾値、関心領域分類部124にて使用する範囲判定基準値等を格納している。
 属性付加/制御部126は、特定層抽出/ノイズ除去部121にて抽出された特定層領域及び関心領域分類部124により分類された関心領域に属性を付加・設定する。
 レンダリング部127は、光立体構造像生成部120にて生成された光立体構造像、特定層抽出/ノイズ除去部121にて抽出された特定層領域及び関心領域分類部124により分類された関心領域の構造情報をレンダリング処理してコンピュータグラフィック画像を生成する。なお、レンダリング部127は、属性付加/制御部126に付加・設定された特定層領域及び関心領域の属性に基づき、特定層領域及び関心領域を識別可能にコンピュータグラフィック画像を構築する。すなわち、レンダリング部127は、特定層領域及び関心領域の属性に基づき、例えば異なる色付け処理、あるいは強調処理を実行し光立体構造CG画像等のコンピュータグラフィック画像を構築する。なお、レンダリング部127は構築したコンピュータグラフィック画像をモニタ100に出力するようになっている。
 次に、このように構成された本実施形態の光立体構造画像化装置1の作用を図4のフローチャートを用いて説明する。図4は図1の光立体構造画像化装置の3次元CG画像生成処理の流れを示すフローチャートである。
 図4に示すように、制御部94は、光立体構造像生成部120にてメモリ91に格納された干渉情報の信号強度情報に基づいて測定対象Tの構造情報からなる光立体構造像を生成する(ステップS1)。なお、光立体構造像生成部120は、連続性の判定に適した大きさ以下の高周波のノイズを除去するため、ローパスフィルタ、あるいは平均化処理などのノイズ除去手段を行う。
 次に、制御部94は、特定層抽出/ノイズ除去部121にて閾値/基準値格納部125からの所定の閾値に基づいて、光立体構造像生成部120より構築された光立体構造像の層構造の構造情報を抽出する(ステップS2)。
 さらに、制御部94は、特定層抽出/ノイズ除去部121にて閾値/基準値格納部125からの所定の閾値に基づいて、測定対象Tの干渉情報の信号強度情報のノイズ情報を抽出しこのノイズ情報を光立体構造像から除去する(ステップS3)。
 このステップS2及びS3の処理の詳細について、図5ないし図7を用いて説明する。図5は図3の特定層抽出/ノイズ除去部にて光立体構造像より特定層を抽出すると共に光立体構造像のノイズを除去する具体的な手順の一例を説明するための図であり、図6は図3の特定層抽出/ノイズ除去部により抽出された特定層の投影図である。
 図5の(A)部において、例えば、生体における食道は、上層から、粘膜表面150、薄い上皮層151、強散乱の基底膜152、やや強い散乱の粘膜固有層153、やや低散乱の粘膜筋板154、強散乱の粘膜下層155、筋層(不図示)というような層構造を有している。
 癌が上皮層151に発生すると、上皮層151の厚みが増大し上皮層151に肥厚が現れる。そして癌はまず基底膜152を破り粘膜固有層153に浸潤し、さらに進行すると粘膜筋板154、粘膜下層155、筋層へと浸潤深さが深くなる。癌の浸潤有無を見分けるために、基底膜152より下に浸潤しているかどうかの見極めが重要となる。
 図5の(A)部に示す食道の粘膜組織を光立体構造画像化装置1によりOCT計測を行うと、光立体構造画像化装置1は、図5の(B)部のような干渉情報の信号強度情報を得ることができる。なお図5の(B)部においては説明を簡略化するため、食道の積層の深さ方向を有する断面における、粘膜表面150、上皮層151、基底膜152の干渉情報の信号強度情報である粘膜表面強度情報150a、上皮層強度情報151a、基底膜強度情報152aを模式的に示している。
 図5の(A)部に示すように、例えば上皮層151には毛細血管156等があるために、図5の(B)部に示すように、上皮層強度情報151aには毛細血管156に応じた毛細血管強度情報156aが検出される。この毛細血管強度情報156aはOCT計測時に下層に対して影となり基底膜強度情報152aには強度情報が欠落した欠落部分158aが発生する。さらに、上皮層強度情報151aには、ノイズ成分157aが発生する場合もある。
 このため、特定層抽出/ノイズ除去部121は、ステップS2にて干渉情報の信号強度情報より、粘膜表面150、上皮層151、基底膜152の構造情報である、粘膜表面構造情報150b、上皮層構造情報151b、基底膜構造情報152bを抽出する。
 これらの構造情報を抽出した場合には、図5の(C)部に示すように上皮層構造情報151b内に毛細血管あるいはノイズによる小さな領域の構造情報156b、157bを抽出すると共に、基底膜構造情報152bにおいては毛細血管等により影となる欠落した欠落領域158bを抽出する。
 特定層抽出/ノイズ除去部121は、ステップS2において、連続した構造情報の範囲の大きさ(図5の(C)部の場合は連続した構造情報の長さ)と閾値/基準値格納部125に格納されている所定の閾値とを比較することで、連続した構造情報の範囲の大きさが所定の閾値以上の場合には光立体構造像生成部120より構築された光立体構造像の特定層領域である粘膜表面150、上皮層151、基底膜152を抽出する。なお、欠落領域158bは上皮層151と共に抽出される。
 さらに、特定層抽出/ノイズ除去部121は、ステップS3において、連続した構造情報の範囲の大きさがと所定の閾値未満の場合にはノイズ領域として測定対象Tの構造情報のノイズ領域を抽出する。そして、特定層抽出/ノイズ除去部121は、このノイズ領域を光立体構造像から除去する。すなわち、このステップS3の処理により、特定層抽出/ノイズ除去部121は、図5の(C)部に示した小さな領域の構造情報156b、157bをノイズ領域として光立体構造像から除去する。
 このようなステップS2、S3の処理により、特定層抽出/ノイズ除去部121は、図5の(D)部のように、構造情報156b、157bからなるノイズ領域を除去した、粘膜表面領域150A、上皮層領域151A、基底膜領域152Aを抽出する。なお、欠落領域158Aは上皮層領域151Aと共に抽出される。
 以上、説明の簡略化のため、図5においては2次元断面像を用いて説明したが、特定層抽出/ノイズ除去部121は、具体的には、上記ステップS2、S3の処理を光立体構造像全体に対して実行する。
 すなわち、特定層抽出/ノイズ除去部121は、まず、深さ方向に向かって干渉情報の信号強度情報の高くなる点(抽出点)を抽出する。これを3次元像全体に対して行う。
 抽出点は、隣接している抽出点をまとめることで、いくつかの抽出領域を形成する。それぞれの抽出領域毎に、特定層抽出/ノイズ除去部121は、連続性のある層(例えば、粘膜表面領域150A、上皮層領域151A、基底膜領域152A)とそれ以外の構造物(例えば、構造情報156b、157b:図5の(C)部参照))とを分離する。
 そして、特定層抽出/ノイズ除去部121は、それぞれの抽出領域を、上面から見た図6に示すような投影図170において、投影図170の面積(連続した構造情報の範囲の大きさ)がある一定面積(閾値/基準値格納部125に格納されている所定の閾値)以上の場合は、連続性のある層(例えば、粘膜表面領域150A、上皮層領域151A、基底膜領域152A)とし、それ以外(例えば、構造情報156b、157b:図5の(C)部参照)はノイズ領域と見なして除去する。
 図4に戻り、次に、制御部94は、欠落領域抽出部122にて例えば図6に示した基底膜領域152Aの投影図170上に発生した複数の欠落領域158Aを抽出する(ステップS4)。
 次に、制御部94は、欠落領域範囲算出部123において欠落領域抽出部122にて抽出した欠落領域158Aの大きさ、例えば面積を算出する(ステップS5)。
 そして、制御部94は、関心領域分類部124において欠落領域範囲算出部123にて算出した欠落領域158Aの大きさを閾値/基準値格納部125からの所定の範囲判定基準値と比較し、欠落領域158Aを欠落範囲の大きさに応じた複数の関心領域(例えば、新生血管領域、微小癌浸潤領域、進行癌浸潤領域等)に分類する(ステップS6)。
 具体的には、関心領域分類部124は、投影図17の内部にある欠落領域158Aに対して、例えばその直径に応じたクラスの関心領域に分類する。例えば、関心領域分類部124は、径10ミクロン未満を関心領域A(例えば、正常な毛細血管領域orノイズ)、径10ミクロン以上200ミクロン未満を関心領域B(例えば、新生血管領域)、径200ミクロン以上1mm未満を関心領域C(例えば、微小浸潤領域)、径1mm以上を関心領域D(例えば、進行浸潤領域)等に分類する。
 次に、制御部94は、属性付加/制御部126において特定層抽出/ノイズ除去部121にて抽出された特定層領域(粘膜表面領域150A、上皮層領域151A、基底膜領域152A)及び関心領域分類部124により分類された各関心領域に属性を付加・設定する(ステップS7)。例えば色属性を特定層領域及び各関心領域に付加・設定する。
 そして、制御部94は、レンダリング部127において光立体構造像生成部120にて生成された光立体構造像、特定層抽出/ノイズ除去部121にて抽出された特定層領域及び関心領域分類部124により分類された関心領域の構造情報をレンダリング処理してコンピュータグラフィック画像を生成する(ステップS8)。なお、レンダリング部127は、属性付加/制御部126に付加・設定された特定層領域及び関心領域の属性に基づき、特定層領域及び関心領域を識別可能にコンピュータグラフィック画像を構築する。すなわち、レンダリング部127は、特定層領域及び関心領域の属性に基づき、例えば異なる色付け処理、あるいは強調処理を実行しコンピュータグラフィック画像を構築する。
 そして、制御部94は、レンダリング部127にて構築したコンピュータグラフィック画像をモニタ100に出力し、モニタ100にコンピュータグラフィック画像を表示させる(ステップS9)。
 上記のステップS6~S8の処理を以下の実施例1~にて具体的に説明する。
 <実施例1>
 図7は実施例1における図3の属性付加/制御部による特定層からの関心領域Aの消去を説明する図であり、図8は実施例1における図3のレンダリング部により生成されるコンピュータグラフィック画像の一例を示す図である。
 図5及び図6にて説明した基底膜領域152A上の欠落領域158bの場合は、関心領域分類部124は、ステップS6にて欠落領域158bを例えば10ミクロン未満を関心領域A(例えば、正常な毛細血管領域orノイズ)と分類する。
 属性付加/制御部126は、ステップS7にて関心領域Aに対しては基底膜領域152Aと同じ属性を付加することで、図7に示すように、基底膜領域152Aから関心領域A(欠落領域158b)を消去する。
 これにより、レンダリング部127は、ステップS8にて図8に示すように、光立体構造像生成部120にて生成された光立体構造像に色属性が付加された特定層領域(粘膜表面領域150A、上皮層領域151A、基底膜領域152A)をレンダリングしてコンピュータグラフィック画像140を生成する。この場合のコンピュータグラフィック画像140は、基底膜領域152Aからは欠落領域158が消去されることとなる。
 <実施例2>
 図9は図5の手順の実施例2を説明するための図であり、図10は図3の特定層抽出/ノイズ除去部により抽出された実施例2における特定層の投影図である。また、図11は図3の属性付加/制御部による特定層での関心領域の実施例2における処理を説明する図であり、図12は図3のレンダリング部により生成される実施例2におけるコンピュータグラフィック画像の一例を示す図である。ここで、図9の(A)部~(D)部での処理内容は図5の(A)部~(D)部での処理内容と同じであるので、説明は省略する。
 図9に示すように、基底膜領域152Aに癌が浸潤し基底膜領域152Aの一部が喪失した場合は、関心領域分類部124は、ステップS6にて喪失による欠落領域180bを例えば径1mm以上を関心領域D(例えば、進行浸潤領域)と分類する。なお、関心領域分類部124は、図9の(A)部~(D)部での欠落領域158bについては実施例1と同様に例えば10ミクロン未満を関心領域A(例えば、正常な毛細血管領域orノイズ)と分類する。
 特定層抽出/ノイズ除去部121は、それぞれの抽出領域を、上面からの見た図10に示すような投影図170において、投影図170の面積(連続した構造情報の範囲の大きさ)がある一定面積(閾値/基準値格納部125に格納されている所定の閾値)以上の場合は、連続性のある層(例えば、粘膜表面領域150A、上皮層領域151A、基底膜領域152A)とし、それ以外(例えば、構造情報156b、157b)は、ノイズ領域と見なして除去する。
 属性付加/制御部126は、投影図170にて関心領域Aに対しては基底膜領域152Aと同じ属性を付加することで、図11に示すように、基底膜領域152Aから関心領域A(欠落領域158)を消去すると共に、欠落領域180bは径1mm以上の関心領域D(進行浸潤領域)として基底膜領域152A上に残す(ステップS7)。
 これにより、レンダリング部127は、ステップS8にて図12に示すように、光立体構造像生成部120にて生成された光立体構造像に例えば識別可能な色属性が付加された特定層領域(粘膜表面領域150A、上皮層領域151A、基底膜領域152A)をレンダリングしてコンピュータグラフィック画像140を生成する。この場合のコンピュータグラフィック画像140は、基底膜領域152Aからは欠落領域158が消去され、基底膜領域152A上には例えば識別可能な色属性が付加された関心領域D(欠落領域180b)としての進行浸潤領域がレンダリングされることとなる。
 <実施例3>
 図13は図3の特定層抽出/ノイズ除去部により抽出された実施例3における特定層の投影図である。また、図14は図3のレンダリング部により生成される実施例3におけるコンピュータグラフィック画像の一例を示す図である。
 食道の早期癌の場合、新生血管は、粘膜下層から基底膜を通り抜けて粘膜上皮層に伸び、IPCL(上皮乳頭血管ループ)を形成する。癌が進行すると、基底膜をやぶり、癌が粘膜下層に入り込む。新生血管は、癌に向かってランダムな方向で形成される。通常の内視鏡検査では、表面から透けて見える新生血管の密度分布や形状から癌のグレードを判定する手法が行われているが粘膜表面近くまで来ている新生血管を見ているにすぎない。
 実施例3では、生体内部の新生血管の分布の見極めや、新生血管による基底膜の状態を観察するための実施例である。
 関心領域分類部124は、ステップS6にて欠落領域を例えば関心領域A~Dに分類する。
 属性付加/制御部126は、投影図170にて関心領域Aに対しては基底膜領域152Aと同じ属性を付加することで、図13に示すように、基底膜領域152Aから関心領域A(欠落領域158)を消去すると共に、欠落領域190bは径10ミクロン以上200ミクロン未満の関心領域B(新生血管領域)、欠落領域191bは径200ミクロン以上1mm未満の関心領域C(微小浸潤領域)、欠落領域192bは径1mm以上の関心領域D(進行浸潤領域)として基底膜領域152A上に残す(ステップS7)。
 これにより、レンダリング部127は、ステップS8にて図14に示すように、光立体構造像生成部120にて生成された光立体構造像に例えば識別可能な色属性が付加された特定層領域(粘膜表面領域150A、上皮層領域151A、基底膜領域152A)をレンダリングしてコンピュータグラフィック画像140を生成する。この場合のコンピュータグラフィック画像140は、基底膜領域152Aからは欠落領域158が消去され、基底膜領域152A上には例えば識別可能な色属性が付加された関心領域B~D(欠落領域190b、欠落領域191b、欠落領域192b)としての新生血管領域、微小浸潤領域、進行浸潤領域がレンダリングされることとなる。
 図15は図3の属性付加/制御部が生成する新生血管の分布像を示す図であり、図16は図15の新生血管の分布像を基底膜領域に重畳させた場合の図であり、さらに図17は図15の新生血管の分布像をレンダリングしたコンピュータグラフィック画像を示す図である。
 なお、実施例3の属性付加/制御部126は、図15に示すように、新生血管の分布を分布像200として生成し、この新生血管の分布像200を図16に示すように、基底膜領域152Aの投影図170に重畳させることができる。これによりレンダリング部127は、基底膜上での新生血管の分布状態が容易に認識可能な図17に示すようなコンピュータグラフィック画像140を生成することが可能となり、癌診断をより確実に行うことができる。
 この実施例3では、特に基底膜の構造から、新生血管の密度、浸潤の状態をわかりやすく表示できる。浅い領域にある構造物による深部の不明瞭化領域においても、層構造の抽出がより確実に行われる。また、眼内の新生血管が原因となっている加齢黄斑変性や糖尿病網膜症、網膜静脈閉塞症、血管新生緑内障の診断にも有効である。この場合、基底膜のかわりに網膜を抽出して観察する。
 以上のように、本実施形態及びその実施例1~3において説明したように、特に以下のような効果を得ることができる。
 (1)生体構造が病変により変化しても、特定の層を抽出しやすい。
 (2)浅い領域にある構造物による深部の不明瞭化領域においても、層構造の抽出がより確実に行われる。
 (3)癌による層構造の連続性の喪失を判別しやすい。
 このように本実施形態によれば、層構造を有する測定対象の構造情報から層領域の連続性が容易に識別でき、また浅い層領域にある構造物により深部の不明瞭化した層領域の構造情報を確実に抽出することできる。
 図18は内視鏡画像に図11の投影図に重畳した図である。本実施形態及びその実施例1~3においては、プローブ40を内視鏡の鉗子チャンネルに挿入して、内視鏡画像観察とOCT計測を行う場合には、図18に示すように、レンダリング部127は、内視鏡画像300上に投影図170を半透明な状態で重畳させることができる。そして、レンダリング部127は、このような内視鏡画像300上で投影図170を半透明な状態で重畳させた画像をモニタ100に表示させることで、より癌診断を向上させることが可能となる。
 なお、癌のスクリーニングに公知のNBI(Narrow Band Imaging)と呼ばれる手法や公知のFICE(Flexible spectral Imaging Color Enhancement)と呼ばれる手法がある。これらは、青、緑の波長域を画像化することで、病変部の特徴を視認しやすくする手法である。このNBI/FICE画像に投影図170を半透明な状態で重畳させた画像をモニタ100に表示させるようにしてもよい。
 以上、本発明の光立体構造計測装置について詳細に説明したが、本発明は、以上の例には限定されず、本発明の要旨を逸脱しない範囲において、各種の改良や変形を行ってもよいのはもちろんである。
 食道の基底膜を例として説明したが、他の消化管、例えば胃、小腸、大腸などでは、粘膜筋板を抽出すると、その浸潤をわかりやすく視認させる事ができる。あるいは、基底膜の存在する口腔、舌、咽頭、胃、小腸、大腸、胆管などの消化管や、鼻腔、喉頭、気管支などの呼吸器、膀胱、尿管、尿道などの泌尿器、子宮、膣などの生殖器、皮膚などや、層構造のある眼底など、特定の膜あるいは層の構造に異変をきたす組織であれば、適用可能である。
1…光立体構造画像化装置、10…OCT光源、30…OCT干渉計、40…プローブ、70…干渉情報検出部、90…CG画像生成部、91…メモリ、93…信号処理部、94…制御部、100…モニタ、120…光立体構造像生成部、121…特定層抽出/ノイズ除去部、122…欠落領域抽出部、123…欠落領域範囲算出部、124…関心領域分類部、125…閾値/基準値格納部、126…属性付加/制御部、127…レンダリング部

Claims (13)

  1.  層構造を有する測定対象の積層の深さ方向に測定光を照射し、かつ前記測定光の光軸を2次元走査して前記測定対象の光立体構造情報を取得する光立体構造計測装置において、
     前記光立体構造情報を格納する光立体構造情報記憶手段と、
     前記光立体構造情報記憶手段に格納された前記光立体構造情報の情報値を所定の閾値と比較し、前記所定の閾値以上の前記光立体構造情報の情報値が連続した所定の範囲以上の領域を前記測定対象の特定層領域として抽出する特定層抽出手段と、
     前記特定層領域上にて、前記光立体構造情報の情報値が前記所定の閾値未満の領域を欠落領域として抽出する欠落領域抽出手段と、
     前記欠落領域の範囲の大きさを算出する欠落領域範囲算出手段と、
     前記欠落領域の範囲の大きさを複数の所定の範囲判定基準値と比較し、前記欠落領域を複数種類の関心領域に分類する関心領域分類手段と、
     を備えたことを特徴とする光立体構造計測装置。
  2.  前記特定層抽出手段は、前記所定の閾値以上の前記光立体構造情報の情報値が連続した領域が前記所定の範囲未満の場合、該領域をノイズ領域として前記光立体構造情報より消去するノイズ領域消去手段を有する
     ことを特徴とする請求項1に記載の光立体構造計測装置。
  3.  前記光立体構造情報をレンダリング処理してコンピュータグラフィック画像を構築するコンピュータグラフィック画像構築手段をさらに備えたことを特徴とする請求項1または2に記載の光立体構造計測装置。
  4.  前記特定層領域及び前記関心領域が識別可能な属性を前記特定層領域及び前記関心領域に付加する属性付加手段を備え、前記コンピュータグラフィック画像構築手段は、前記光立体構造情報をレンダリング処理して、少なくとも前記属性が付加された前記特定層領域及び前記関心領域を有する前記コンピュータグラフィック画像を構築することを特徴とする請求項3に記載の光立体構造計測装置。
  5.  前記コンピュータグラフィック画像構築手段は、前記測定対象の積層の深さ方向より前記特定層領域を投影した投影画像を前記コンピュータグラフィック画像として構築することを特徴とする請求項4に記載の光立体構造計測装置。
  6.  前記コンピュータグラフィック画像構築手段は、前記光立体構造情報をレンダリング処理して光立体構造画像を前記コンピュータグラフィック画像として構築することを特徴とする請求項4または5に記載の光立体構造計測装置。
  7.  前記属性付加手段は、少なくとも前記所定の範囲判定基準値のうちの最小範囲判定基準値未満の前記関心領域の属性を前記特定層領域の属性とする属性制御手段を有することを特徴とする請求項4ないし6のいずれか1つに記載の光立体構造計測装置。
  8.  前記属性制御手段は、前記所定の範囲判定基準値のうちの前記最小範囲判定基準値より大きな値の複数の範囲判定基準値に基づき、異なる複数の前記属性を前記関心領域分類手段が分類した前記関心領域毎に付加することを特徴とする請求項7に記載の光立体構造計測装置。
  9.  前記測定対象は生体粘膜組織であり、前記関心領域分類手段は、前記所定の範囲判定基準値のうちの第1の範囲判定基準値以上で、かつ前記第1の範囲判定基準値より大きい第2の範囲判定基準値未満の前記関心領域を新生血管領域に分類することを特徴とする請求項1ないし8のいずれか1つに記載の光立体構造計測装置。
  10.  前記関心領域分類手段は、前記所定の範囲判定基準値のうちの前記第2の範囲判定基準値以上の前記関心領域を癌浸潤領域に分類することを特徴とする請求項9に記載の光立体構造計測装置。
  11.  前記関心領域分類手段が判定した前記新生血管領域の分布を前記特定層領域上に新生血管分布像として生成する新生血管分布像生成手段をさらに備えたことを特徴とする請求項9または10に記載の光立体構造計測装置。
  12.  前記特定層領域は、前記生体粘膜組織の基底膜領域及び粘膜筋板領域の少なくともいずれか一方の領域を含むことを特徴とする請求項9ないし11のいずれか1つに記載の光立体構造計測装置。
  13.  層構造を有する測定対象の積層の深さ方向に測定光を照射し、かつ前記測定光の光軸を2次元走査して前記測定対象の光立体構造情報を取得する光立体構造計測装置の構造情報処理方法において、
     前記光立体構造情報を格納する光立体構造情報記憶ステップと、
     前記光立体構造情報記憶ステップにて格納された前記光立体構造情報の情報値を所定の閾値と比較し、前記所定の閾値以上の前記光立体構造情報の情報値が連続した所定の範囲以上の領域を前記測定対象の特定層領域として抽出する特定層抽出ステップと、
     前記特定層領域上にて、前記光立体構造情報の情報値が前記所定の閾値未満の領域を欠落領域として抽出する欠落領域抽出ステップと、
     前記欠落領域の範囲の大きさを算出する欠落領域範囲算出ステップと、
     前記欠落領域の範囲の大きさを複数の所定の範囲判定基準値と比較し、前記欠落領域を複数種類の関心領域に分類する関心領域分類ステップと、
     を備えたことを特徴とする光立体構造計測装置の構造情報処理方法。
PCT/JP2010/053398 2009-03-19 2010-03-03 光立体構造計測装置及びその構造情報処理方法 WO2010106913A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US13/257,573 US8855750B2 (en) 2009-03-19 2010-03-03 Optical three-dimensional structure measuring device and structure information processing method therefor
CN201080012574.0A CN102355861B (zh) 2009-03-19 2010-03-03 光学三维结构测量装置及其结构信息处理方法
EP10753408.3A EP2409650B1 (en) 2009-03-19 2010-03-03 Optical three-dimensional structure measuring device and structure information processing method therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009068557A JP5269663B2 (ja) 2009-03-19 2009-03-19 光立体構造計測装置及びその構造情報処理方法
JP2009-068557 2009-03-19

Publications (1)

Publication Number Publication Date
WO2010106913A1 true WO2010106913A1 (ja) 2010-09-23

Family

ID=42739576

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/053398 WO2010106913A1 (ja) 2009-03-19 2010-03-03 光立体構造計測装置及びその構造情報処理方法

Country Status (5)

Country Link
US (1) US8855750B2 (ja)
EP (1) EP2409650B1 (ja)
JP (1) JP5269663B2 (ja)
CN (1) CN102355861B (ja)
WO (1) WO2010106913A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112057049A (zh) * 2020-09-14 2020-12-11 浙江大学 一种基于多维度特征空间的光学相干血流造影方法与系统

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012135475A (ja) * 2010-12-27 2012-07-19 Fujifilm Corp 診断支援装置、診断支援方法、病変部検出装置、及び病変部検出方法
JP2012135476A (ja) * 2010-12-27 2012-07-19 Fujifilm Corp 診断支援装置、診断支援方法、病変部検出装置、及び病変部検出方法
JP2012137405A (ja) * 2010-12-27 2012-07-19 Fujifilm Corp 診断支援装置、診断支援方法、病変部検出装置、及び病変部検出方法
JP2012157384A (ja) * 2011-01-28 2012-08-23 Fujifilm Corp 診断支援装置、診断支援方法、病変部検出装置、及び病変部検出方法
JP5797457B2 (ja) * 2011-05-25 2015-10-21 株式会社トプコン 診断支援装置、診断支援装置の作動方法、病変部検出装置、及び病変部検出装置の作動方法
JP5748281B2 (ja) * 2011-09-21 2015-07-15 株式会社トプコン 光干渉断層画像処理方法及びその装置
JP5812785B2 (ja) * 2011-09-22 2015-11-17 株式会社トプコン 光断層画像処理装置及び光断層画像処理装置の作動方法
JP2013075035A (ja) * 2011-09-30 2013-04-25 Canon Inc 光断層像撮像方法、光断層像撮像装置およびプログラム
JP6064317B2 (ja) * 2011-11-30 2017-01-25 株式会社ニデック 眼底解析装置及びプログラム
JP2013153881A (ja) * 2012-01-27 2013-08-15 Canon Inc 画像処理システム、処理方法及びプログラム
JP5930531B2 (ja) 2012-05-24 2016-06-08 三菱電機エンジニアリング株式会社 撮像装置および撮像方法
US9677869B2 (en) 2012-12-05 2017-06-13 Perimeter Medical Imaging, Inc. System and method for generating a wide-field OCT image of a portion of a sample
EP3122238A4 (en) * 2014-03-25 2017-11-01 The Johns Hopkins University Quantitative tissue property mapping for real time tumor detection and interventional guidance
US10905341B2 (en) 2015-07-10 2021-02-02 Osaka City University Cancer invasiveness diagnosis system
JP6602108B2 (ja) * 2015-08-27 2019-11-06 キヤノン株式会社 眼科装置、情報処理方法及びプログラム
KR101712890B1 (ko) * 2015-10-13 2017-03-08 한국표준과학연구원 연속파 THz 빔 스캔을 이용한 고속 3차원 영상 탐지 장치
CN105354805B (zh) * 2015-10-26 2020-03-06 京东方科技集团股份有限公司 深度图像的去噪方法和去噪设备
TWI632893B (zh) * 2017-05-16 2018-08-21 國立陽明大學 偵測與分析消化道黏膜組織之方法及系統
WO2019014767A1 (en) 2017-07-18 2019-01-24 Perimeter Medical Imaging, Inc. SAMPLE CONTAINER FOR STABILIZING AND ALIGNING EXCISED ORGANIC TISSUE SAMPLES FOR EX VIVO ANALYSIS
JP2019107485A (ja) * 2019-02-26 2019-07-04 株式会社トプコン 眼科検査装置
CN111339844B (zh) * 2020-02-12 2022-10-28 天津大学 一种基于白光扫描干涉的三维形貌解调方法
US20220071711A1 (en) * 2020-09-04 2022-03-10 Karl Storz Se & Co. Kg Devices, systems, and methods for identifying unexamined regions during a medical procedure

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05176925A (ja) * 1991-12-27 1993-07-20 Shimadzu Corp 皮下脂肪計測装置
JP2005218676A (ja) * 2004-02-06 2005-08-18 Seikosha:Kk 皮下状態表示装置およびプログラムおよび皮下状態表示方法
JP2007325831A (ja) * 2006-06-09 2007-12-20 Topcon Corp 眼底観察装置、眼科画像処理装置及び眼科画像処理プログラム
JP2008194106A (ja) * 2007-02-09 2008-08-28 Shiyoufuu:Kk 反射型断層撮影装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7768652B2 (en) 2006-03-16 2010-08-03 Carl Zeiss Meditec, Inc. Methods for mapping tissue with optical coherence tomography data
JP5095167B2 (ja) 2006-09-19 2012-12-12 株式会社トプコン 眼底観察装置、眼底画像表示装置及び眼底観察プログラム
JP4869877B2 (ja) 2006-11-17 2012-02-08 富士フイルム株式会社 光断層画像化装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05176925A (ja) * 1991-12-27 1993-07-20 Shimadzu Corp 皮下脂肪計測装置
JP2005218676A (ja) * 2004-02-06 2005-08-18 Seikosha:Kk 皮下状態表示装置およびプログラムおよび皮下状態表示方法
JP2007325831A (ja) * 2006-06-09 2007-12-20 Topcon Corp 眼底観察装置、眼科画像処理装置及び眼科画像処理プログラム
JP2008194106A (ja) * 2007-02-09 2008-08-28 Shiyoufuu:Kk 反射型断層撮影装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112057049A (zh) * 2020-09-14 2020-12-11 浙江大学 一种基于多维度特征空间的光学相干血流造影方法与系统
CN112057049B (zh) * 2020-09-14 2021-08-10 浙江大学 一种基于多维度特征空间的光学相干血流造影方法与系统

Also Published As

Publication number Publication date
JP2010220669A (ja) 2010-10-07
CN102355861B (zh) 2014-11-26
CN102355861A (zh) 2012-02-15
EP2409650A1 (en) 2012-01-25
US20120010494A1 (en) 2012-01-12
JP5269663B2 (ja) 2013-08-21
EP2409650A4 (en) 2012-09-05
EP2409650B1 (en) 2014-05-07
US8855750B2 (en) 2014-10-07

Similar Documents

Publication Publication Date Title
JP5269663B2 (ja) 光立体構造計測装置及びその構造情報処理方法
US10660515B2 (en) Image display method of providing diagnosis information using three-dimensional tomographic data
US20120101372A1 (en) Diagnosis support apparatus, diagnosis support method, lesioned part detection apparatus, and lesioned part detection method
JP6702764B2 (ja) 光干渉断層データの処理方法、該方法を実行するためのプログラム、及び処理装置
JP2018094395A (ja) 診断用スペクトル符号化内視鏡検査装置およびシステム、ならびにこれらと共に使用するための方法
JP2010158343A (ja) 光立体構造解析装置及びその立体構造情報処理方法
Çilesiz et al. Comparative optical coherence tomography imaging of human esophagus: how accurate is localization of the muscularis mucosae?
JP2010179042A (ja) 光構造観察装置及びその構造情報処理方法、光構造観察装置を備えた内視鏡システム
JP6375760B2 (ja) 光コヒーレンストモグラフィー装置、および眼底画像処理プログラム
JP2012090690A (ja) 診断支援装置
JP6682291B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2012157384A (ja) 診断支援装置、診断支援方法、病変部検出装置、及び病変部検出方法
JP2018020024A (ja) 画像処理装置、画像処理方法およびプログラム
US10905341B2 (en) Cancer invasiveness diagnosis system
Pham et al. Computational analysis of six optical coherence tomography systems for vocal fold imaging: A comparison study
JP2018191761A (ja) 情報処理装置、情報処理方法及びプログラム
JP2012135475A (ja) 診断支援装置、診断支援方法、病変部検出装置、及び病変部検出方法
WO2010064516A1 (ja) 光立体構造像装置及びその光信号処理方法
JP5797457B2 (ja) 診断支援装置、診断支援装置の作動方法、病変部検出装置、及び病変部検出装置の作動方法
JP5405842B2 (ja) 光構造解析装置及びその作動方法
US20230289956A1 (en) System and Method for identifying potential false positive and blind spot locations in catheter-based multimodal images
JP2012135476A (ja) 診断支援装置、診断支援方法、病変部検出装置、及び病変部検出方法
Gora et al. Enhanced Imaging of the Esophagus: Optical Coherence Tomography
Yuan et al. Optical coherence tomography for bladder cancer diagnosis: from animal study to clinical diagnosis
JP2023054764A (ja) 手動管腔検出に基づく蛍光較正

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080012574.0

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10753408

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13257573

Country of ref document: US

Ref document number: 2010753408

Country of ref document: EP