WO2016181453A1 - 内視鏡装置 - Google Patents

内視鏡装置 Download PDF

Info

Publication number
WO2016181453A1
WO2016181453A1 PCT/JP2015/063468 JP2015063468W WO2016181453A1 WO 2016181453 A1 WO2016181453 A1 WO 2016181453A1 JP 2015063468 W JP2015063468 W JP 2015063468W WO 2016181453 A1 WO2016181453 A1 WO 2016181453A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
component
outputs
measurement
signal
Prior art date
Application number
PCT/JP2015/063468
Other languages
English (en)
French (fr)
Inventor
嘉晴 安食
松本 一哉
村上 賢治
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to PCT/JP2015/063468 priority Critical patent/WO2016181453A1/ja
Priority to JP2017517477A priority patent/JP6508639B2/ja
Publication of WO2016181453A1 publication Critical patent/WO2016181453A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes

Definitions

  • the present invention relates to an endoscope apparatus that acquires a two-dimensional image of a subject and measures the subject.
  • An imaging apparatus using an imaging element such as a CCD or CMOS image sensor simultaneously receives reflected light from a subject by a large number of light receiving elements arranged in a matrix to obtain a subject image.
  • an imaging element such as a CCD or CMOS image sensor
  • the reflected light is sequentially received while the subject is scanned and irradiated with the light spot, and the subject image is created based on the received light data.
  • an optical fiber scanning unit performs two-dimensional scanning of a tip portion of an optical fiber that guides light from a light source, so that scanning irradiation of a light spot is performed.
  • U.S. Pat. No. 6,563,105 discloses a system for acquiring a three-dimensional image of a scan-irradiated object using a photometric stereo method.
  • a three-dimensional image is created based on reflected light incident on a plurality of light receiving windows arranged discretely.
  • the illumination light is composed of infrared light for distance measurement in addition to RGB light for acquiring a color image.
  • the light receiving unit has a complicated configuration including an infrared light receiving element for further distance measurement.
  • a spectroscope such as a dichroic mirror that separates red light, green light, and blue light is required before the light receiving unit.
  • Embodiments of the present invention provide a high-performance and simple configuration endoscope apparatus that acquires a two-dimensional image of a subject and measures the subject.
  • An endoscope apparatus includes a light source that generates irradiation light, a first optical fiber that spot-irradiates the guided irradiation light from a tip toward a subject, and the tip of the first optical fiber.
  • a scanning unit that scans the irradiation light, a light receiving unit that outputs an electric signal based on reflected light from the subject irradiated with the irradiation light, and a signal that processes the electric signal
  • An endoscopic device comprising a processing unit,
  • the irradiation light includes an observation component for acquiring a two-dimensional image of the subject and a measurement component for measuring the subject, and the light receiving unit includes a plurality of detection layers stacked,
  • a single light receiving element that outputs the electrical signal including an observation signal based on the observation component of the reflected light and a measurement signal based on the measurement component of the reflected light, and the signal processing unit processes the observation signal Then, the two-dimensional image data is output, and the measurement signal is processed to
  • An endoscope apparatus 1 includes an optical scanning endoscope 10, a main body 20, and a monitor 30.
  • the endoscope 10 includes an elongated insertion portion 11 that is inserted into a living body, an operation portion 12, and a universal cable 13.
  • the insertion portion 11 includes a distal end portion 11A, a bending portion 11B, and a flexible tube portion 11C.
  • the endoscope 10 is a so-called soft endoscope, but may be a so-called rigid endoscope in which the insertion portion 11 is hard.
  • the operation unit 12 is provided with a bending operation knob 12A for bending the bending portion 11B.
  • the connecting portion between the insertion portion 11 and the operation portion 12 is a grip portion 12B that is gripped by the user.
  • the universal cable 13 extended from the operation part 12 is connected to the main body part 20 via the connector 14.
  • the main body 20 is connected to a monitor 30 that displays an image.
  • FIG. 2 shows a configuration of the endoscope apparatus 1.
  • the main body unit 20 of the endoscope apparatus 1 includes a light source 40, a scanning control unit 25, a light receiving element 21 that is a light receiving unit, a signal processing unit 22, an image generation unit 23, and a control unit 24.
  • the light source 40 generates irradiation light.
  • the scanning control unit 25 controls the scanning unit 15 to scan the irradiation light.
  • the light receiving element 21 receives reflected light from the subject irradiated with the irradiated light and outputs an electrical signal based on the reflected light.
  • the signal processing unit 22 processes the electrical signal output from the light receiving element 21.
  • the image generation unit 23 processes the electrical signal output from the signal processing unit 22 and generates an endoscopic image.
  • the control unit 24 performs overall control of the endoscope apparatus 1.
  • the signal processing unit 22, the image generation unit 23, and the control unit 24 are composed of a semiconductor element such as a CPU that operates according to a predetermined program.
  • the signal processing unit 22, the image generation unit 23, and the control unit 24 may be physically independent semiconductor elements, or one semiconductor element may have a plurality of functions.
  • the light source 40 generates an R light source 41 that generates red wavelength light (for example, 620 nm to 750 nm), a G light source 42 that generates green wavelength light (for example, 495 nm to 570 nm), and a blue wavelength light (for example, 450 nm to 495 nm).
  • B light source 43 The R light source 41, the G light source 42 and the B light source 43 are, for example, laser light sources.
  • the red wavelength light generated by the R light source 41 is a high-frequency modulated superimposed irradiation light.
  • the illumination light generated by the light source 40 is guided to the distal end portion 11A of the insertion portion 11 by the first optical fiber 45, and is spot-irradiated toward the subject through the lens 15A.
  • a scanning unit 15 that scans irradiation light by changing the direction of the distal end of the first optical fiber 45 in accordance with a signal from the scanning control unit 25 is disposed at the distal end portion 11A.
  • the scanning unit 15 vibrates the tip of the first optical fiber 45 in the X direction and the Y direction orthogonal to the X direction.
  • a method of attaching a piezoelectric element to the first optical fiber 45 to vibrate, and an electromagnetic coil for vibrating a permanent magnet attached to the first optical fiber 45 with an electromagnetic coil are used. Use the method.
  • a driving element such as a piezoelectric element or an electromagnetic coil is driven in the vicinity of the resonance frequency of the first optical fiber 45, a large deflection (displacement, amplitude) can be obtained with small energy. It is done.
  • the reflected light from the subject irradiated with the illumination light is collected at the tip of the second optical fiber 46 via the lens 46A disposed at the tip 11A.
  • the second optical fiber 46 guides the reflected light to the light receiving element 21.
  • Each of the first optical fiber 45 and the second optical fiber 46 is composed of at least two optical fibers that are optically coupled in the connector 14 or the like.
  • one second optical fiber 46 is disposed at the distal end portion 11 ⁇ / b> A, but a plurality of second optical fibers 46 are received in order to receive more reflected light.
  • Two optical fibers 46 may be arranged at the distal end portion 11 ⁇ / b> A and combined to be guided to the light receiving element 21.
  • the irradiation light generated by the light source 40 includes an observation component for acquiring a two-dimensional image of the subject and a measurement component for measuring the subject.
  • the observation component includes red wavelength light that is a red wavelength component, green wavelength light that is a green wavelength component, and blue wavelength light that is a blue wavelength component in order to acquire a color image.
  • the high-frequency-modulated red wavelength light has not only a function as a red wavelength component but also a function of a measurement component for performing distance measurement with the subject using the time-of-flight method.
  • the red wavelength light is superimposed irradiation light in which the measurement component is superimposed on the observation component. That is, the red wavelength light that is the observation component of the irradiation light includes the measurement component by high frequency modulation.
  • modulated light such as red wavelength light is expressed in a state of being modulated at a frequency lower than the actual frequency.
  • the R light source 41, the G light source 42, and the B light source 43 are a surface sequential method that emits light with a time difference.
  • the irradiation light spot-irradiated on the subject is continuously two-dimensionally scanned. For this reason, strictly speaking, the location A irradiated with red wavelength light, the location B irradiated with green wavelength light, and the location C irradiated with blue wavelength light are different. For this reason, so-called color breakage occurs, and one white straight line may be divided into a red straight line, a green straight line, and a blue straight line.
  • signal processing can be performed with the locations A, B, and C as the same location by switching the RGB light sufficiently fast.
  • the light amounts of red wavelength light, green wavelength light, and blue wavelength light need not be the same.
  • the tip of the first optical fiber 45 is scanned in the XY directions by the scanning unit 15.
  • a spiral (spiral) method shown in FIG. 4A, a raster method shown in FIG. 4B, or the like is used.
  • scanning using the R light source 41 as irradiation light is performed from A to B, and an image of the red field is acquired by the reflected light.
  • scanning with the G light source 42 as irradiation light is performed from A to B, and an image of the green field is acquired by the reflected light.
  • scanning using the B light source 43 as irradiation light is performed from A to B, and an image of the blue field is acquired by the reflected light.
  • one color image is obtained from a red field image, a green field image, and a blue field image.
  • the light receiving element 21 made of silicon is a single photodiode in which a plurality of detection layers 21L (a red detection layer 21LR, a green detection layer 21LG, and a blue detection layer 21LB) are stacked. Adjacent detection layers are doped with impurities of different polarities.
  • the depth of the blue detection layer 21LB which is the uppermost layer is about 0.2 ⁇ m.
  • the depth of the green detection layer 21LG that is the second layer is about 0.6 ⁇ m.
  • the depth of the red detection layer 21LR which is the lowest layer is about 2 ⁇ m.
  • the light receiving element 21 forms three detection layers in the thickness direction of the element by utilizing the fact that the R component, the G component, and the B component have different characteristics of transmitting through silicon.
  • the blue detection layer 21LB outputs a signal A based on the B component.
  • the B component having a short wavelength does not reach the green detection layer 21LG.
  • the green detection layer 21LG outputs a B observation signal based on the G component.
  • Only the R component having a long wavelength reaches the red detection layer 21LR.
  • the red detection layer 21LR outputs a C observation signal based on the R component.
  • the reflected light is composed of observation component light (G component, B component) and superimposed reflected light (R component) in which the measurement component is superimposed on the observation component, like the illumination light.
  • the blue detection layer 21LB When the light receiving element 21 receives the superimposed reflected light (R component), the blue detection layer 21LB outputs the signal A1, the green detection layer 21LG outputs the signal B1, and the red detection layer 21LR outputs the signal C1.
  • the signal C1 is a superimposed observation signal based on the R component including the measurement component.
  • the blue detection layer 21LB outputs a signal A1, and the green detection layer 21LG outputs a signal B1. Signals A1 and B1 are not used for processing.
  • the blue detection layer 21LB When the light receiving element 21 receives the G component light, the blue detection layer 21LB outputs the signal A2, and the green detection layer 21LG outputs the signal B2 based on the G component.
  • the signal C2 output from the red detection layer 21LR is substantially zero with only a noise component. Signals A2 and C2 are not used for processing.
  • the blue detection layer 21LB When the light receiving element 21 receives the B component light, the blue detection layer 21LB outputs a signal A3 based on the B component light.
  • the signal B3 output from the green detection layer 21LG and the signal C3 output from the red detection layer 21LR are substantially zero with only noise components. Signals B3 and C3 are not used for processing.
  • the light receiving element may output a signal between the silicon substrate and each detection layer, and the signal processing unit 22 may calculate a difference in order to obtain an electric signal based on each component.
  • the observation signal is composed of an R component, a G component, and a B component.
  • the R component is a superimposed observation signal in which the measurement component is superimposed on the observation signal.
  • the light receiving element 21 outputs an electrical signal including an observation signal and a measurement signal based on the detected reflected light.
  • the R component is a superimposed observation signal in which the measurement component is superimposed on the observation signal, but the observation signal is extracted by integration.
  • the signal processing unit 22 processes RGB three-component observation signals and outputs two-dimensional color image data.
  • the image generation unit 23 outputs a two-dimensional color image 30A as shown in FIG. 7 from the two-dimensional color image data.
  • the two-dimensional color image 30A is an endoscopic image of a body lumen.
  • the signal processing unit 22 processes the measurement component of the superimposed observation signal, that is, the high-frequency modulation component, and outputs range image data as measurement data.
  • a red wavelength component which is a measurement component of irradiation light for performing distance measurement using the time-of-flight method, is modulated at a high frequency to a frequency f.
  • the reflected light has a time difference (delay) ⁇ t with respect to the emitted light.
  • the distance L to the subject can be calculated by the following (Equation 1).
  • c is the speed of light.
  • the distance L to the subject calculated from (Equation 1) is the length of the first optical fiber 45 (the distance from the light source 40 to the distal end portion 14A of the insertion portion 11 of the endoscope 10) L1, and And the length of the second optical fiber 46 (distance from the tip portion 14A to the light receiving element 21) L2. Since the distances L1 and L2 are constant, the signal processing unit 22 calculates distance image data based on the distance from the distal end portion 14A to the subject.
  • the signal processing unit 22 that detects a phase difference ⁇ of 1/1000 of the modulation frequency f, if the modulation frequency of the R light source 41 is 100 MHz to 1 GHz, distance measurement with a resolution of 1 mm or less is possible.
  • the signal processing unit 22 outputs distance image data in which the distance to each spot irradiated point of the subject is measured.
  • the image generation unit 23 interpolates the distance image data and outputs a distance image 30B as shown in FIG.
  • the distance image 30B is an image at the same location as the two-dimensional color image 30A.
  • the image generation unit 23 generates a three-dimensional color image 30C shown in FIG. 10 from the two-dimensional color image 30A and the distance image 30B.
  • the image generation unit 23 may generate the three-dimensional color image 30C from the two-dimensional color image data and the distance image data.
  • the three-dimensional image may be a stereoscopic image including depth information instead of the mesh display according to the distance illustrated in FIG.
  • the light receiving unit is based on an observation signal based on an observation component and a measurement component in which a plurality of detection layers 21L (a red detection layer 21LR, a green detection layer 21LG, and a blue detection layer 21LB) are stacked. Since it is the single light receiving element 21 which outputs the electric signal containing a measurement signal, a structure is simple.
  • the R component that is the observation component of the illumination light is superimposed illumination light that includes the function of the measurement component. For this reason, a three-dimensional image can be acquired with only three light sources. Furthermore, since the irradiation light and the reflected light are visible light, the loss of light can be reduced by using an optical fiber having a high transmittance in the visible light band.
  • the R component is superimposed illumination light
  • the G component or B component may be superimposed illumination light, or a plurality of wavelength components, for example, the R component and G component may be superimposed illumination light.
  • R component, G component, and B component may be superimposed illumination light.
  • an endoscope apparatus 1A according to the second embodiment will be described.
  • the endoscope apparatus 1A will be described. Since the endoscope apparatus 1A is similar to the endoscope apparatus 1, components having the same functions are denoted by the same reference numerals and description thereof is omitted.
  • the light source 40A of the endoscope apparatus 1A includes an R light source 41, a G light source 42, a B light source 43, and an IR light source 44 that generates infrared light.
  • the wavelength of the infrared light is, for example, 750 nm to 1600 nm, but preferably 1400 nm or less, particularly preferably 1200 nm or less, since the reflected light is mainly reflected from the surface of the living tissue, the surface shape is good. Can be obtained.
  • the light receiving element 21A is a single element in which a plurality of detection layers 21LA are stacked.
  • the plurality of detection layers 21LA include a visible light detection layer 21LA1 that outputs a signal D, and an infrared light detection layer 21LA2 that outputs a signal E based on an infrared wavelength component below the visible light detection layer 21LA1.
  • the visible light detection layer 21LA1 detects light in the visible light region from the red wavelength to the blue wavelength.
  • the depth of the infrared light detection layer 21LA2 is about 5 ⁇ m. Only the infrared (IR) component having a long wavelength reaches the infrared light detection layer 21LA2.
  • the irradiation light generated by the light source 40A includes an observation component for acquiring a two-dimensional image of the subject and a measurement component for measuring the subject.
  • the observation component includes red wavelength light that is a red wavelength component, green wavelength light that is a green wavelength component, and blue wavelength light that is a blue wavelength component.
  • the measurement component is a high-frequency modulated infrared wavelength component generated by the IR light source 44.
  • R light source 41, G light source 42, B light source 43 and IR light source 44 emit light with a time difference.
  • the reflected light consists of an observation component (R component, G component, B component) and a measurement component (IR component) in the same manner as illumination light.
  • the visible light detection layer 21LA1 of the light receiving element 21A outputs a signal D that is an observation signal (R signal, G signal, B signal).
  • the infrared light detection layer 21LA2 outputs a signal E that is a measurement signal (IR signal).
  • the signal processing unit 22 processes the observation signal and outputs two-dimensional color image data, and also processes the measurement signal and outputs distance image data as measurement data.
  • the image generation unit 23 generates a three-dimensional color image 30C from the two-dimensional color image data and the distance image data.
  • the endoscope apparatus 1A has the same effect as the endoscope apparatus 1.
  • the observation component illumination light (R, G, B) and the measurement component illumination light (IR) are light having different wavelengths. For this reason, the intensity difference between the three observation signals of RGB is small, and the color reproducibility is better than that of the endoscope apparatus 1. Further, since the measurement component illumination light has a longer wavelength than the endoscope apparatus 1, it is easy to improve distance measurement accuracy.
  • the first optical fiber 45 and the second optical fiber 46 a first core that guides the red wavelength component, the green wavelength component, and the blue wavelength component, and a second core that guides the infrared wavelength component.
  • a multi-core optical fiber having the following may be used.
  • the first core is made of a material with little loss with respect to the visible light component (RGB)
  • the second core is made of a material with little loss with respect to the infrared light component (IR).
  • visible light and infrared light may be irradiated simultaneously. That is, the R light source 41, the G light source 42, or the B light source 43, and the IR light source 44 may emit light simultaneously. Since it is not necessary to provide time for irradiation with only IR light, high-speed imaging is possible. In addition, the color image and the distance image can be easily matched.
  • the light source 40A sequentially includes, as the infrared wavelength components, a first infrared wavelength component having a wavelength of more than 1200 nm, preferably more than 1400 nm, and a second infrared wavelength component having a wavelength of 1200 nm or less, preferably 1400 nm or less. It may occur.
  • the distance image 30B based on the second infrared wavelength component having a wavelength of 1200 nm or less is a three-dimensional image of the surface of the living tissue.
  • the distance image 30B with the first infrared wavelength component having a wavelength exceeding 1200 nm is a three-dimensional image several millimeters below the inside of the living tissue, for example, the surface. That is, by switching the wavelength of infrared rays emitted from the light source 40A, for example, a distance image of blood vessels inside the living tissue can be obtained.
  • an endoscope apparatus 1B according to a third embodiment will be described. Since the endoscope apparatus 1B has the same light receiving element 21 as the endoscope apparatus 1 and is similar to the endoscope apparatus 1, components having the same functions are denoted by the same reference numerals and description thereof is omitted.
  • the light source 40B of the endoscope apparatus 1B includes an R light source 41, a G light source 42, and a B light source 43, like the light source 40 of the first embodiment.
  • the R light source 41, the G light source 42, and the B light source 43 emit light simultaneously. That is, the illumination light is a mixed light composed of observation component light (G component, B component) and superimposed illumination light (R component) in which the measurement component is superimposed on the observation component.
  • the blue detection layer 21LB receives the signal A based on the B component
  • the green detection layer 21LG receives the signal B based on the G component
  • the red detection layer 21LR outputs a signal C.
  • Signals A and B are observation signals
  • signal C is a superimposed observation signal based on an R component including a measurement component.
  • the endoscope apparatus 1B has the same effect as the endoscope apparatus 1. Furthermore, since the measurement component and all the observation components are simultaneously irradiated onto the subject, the endoscope apparatus 1B can obtain an observation image and a measurement image at the same time. For this reason, the endoscope apparatus 1B has the effects of the endoscope apparatus 1 and the like, and further, there is no possibility of color breakup, and matching of two images is easier than the endoscope apparatus 1 and the like. is there.
  • an endoscope apparatus 1C according to a fourth embodiment will be described. Since the endoscope apparatus 1C is similar to the endoscope apparatuses 1 to 1B and the like, components having the same function are denoted by the same reference numerals and description thereof is omitted.
  • the light receiving element 21C is a single element in which a plurality of detection layers 21LC are stacked.
  • the plurality of detection layers 21LC include a visible light detection layer 21LC1 that outputs an observation signal and an infrared light detection layer 21LC2 that outputs a measurement signal based on an infrared wavelength component.
  • the upper visible light detection layer 21LC1 includes a red detection layer 21LR, a green detection layer 21LG, and a blue detection layer 21LB.
  • the infrared light detection layer 21LC2 outputs a signal E based on an infrared wavelength (IR) component.
  • the red detection layer 21LR outputs a signal C based on the R component.
  • the green detection layer 21LG outputs a signal B based on the G component.
  • the blue detection layer 21LB outputs a signal A based on the B component.
  • the light source 40C of the endoscope apparatus 1C includes an R light source 41, a G light source 42, a B light source 43, and an IR light source 44 in the same manner as the light source 40A of the second embodiment.
  • the R light source 41, the G light source 42, the B light source 43, and the IR light source 44 emit light simultaneously. That is, the illumination light is a mixed light composed of observation component light (R component, G component, B component) and measurement component light (IR component).
  • the light receiving element 21C that receives the reflected light composed of the mixed light outputs four types of electric signals A, B, C, and E.
  • Electrical signals A, B, and C are observation signals, and signal E is a measurement signal.
  • the endoscope apparatus 1C has the effects of the endoscope apparatus 1A and the endoscope apparatus 1B.
  • the visible light detection layer 21LC1 that receives visible light (RGB) and the infrared light detection layer 21LC2 that receives infrared light (IR) are simultaneously used for the signals A, B, or C. Either of them can output a signal E. For this reason, visible light and infrared light may be irradiated simultaneously. That is, any of the R light source 41, the G light source 42, or the B light source 43 and the IR light source 44 may emit light simultaneously. Since it is not necessary to provide time for irradiation with only IR light, high-speed imaging is possible. In addition, the color image and the distance image can be easily matched.
  • the R light source 41, the G light source 42, the B light source 43, and the IR light source 44 may combine a light source that emits light with a time lag and the light receiving element 21C. . At this time, like the light source 40A, the R light source 41, the G light source 42, or the B light source 43, and the IR light source 44 may emit light simultaneously.
  • an endoscope apparatus 1D according to a fifth embodiment will be described. Since the endoscope apparatus 1D is similar to the endoscope apparatuses 1 to 1C and the like, components having the same function are denoted by the same reference numerals and description thereof is omitted.
  • the light receiving element 21D is disposed at the distal end portion 11A of the insertion portion 11 of the endoscope 10.
  • the light receiving element 21 ⁇ / b> D is a single visible light receiving element that is the same as the light receiving element 21 and in which a single detection layer 21 ⁇ / b> L converts the reflected light into an electrical signal and outputs it.
  • the electric signal output from the detection layer 21L is transmitted to the signal processing unit 22 through the signal line 21M.
  • the light receiving element 21D is small, even if the light receiving element 21D is arranged at the tip portion 11A, it does not hinder the diameter reduction of the tip portion 11A.
  • the reflected light enters the light receiving element 21 without passing through the second optical fiber. Therefore, the loss is small and the sensitivity is high. In addition, since the influence of the time difference ⁇ t caused by the length L2 of the second optical fiber 46 is eliminated, the distance surveying accuracy is higher.
  • a small light receiving element can be arranged at the distal end portion 11A of the insertion portion 11 of the endoscope 10.
  • the light receiving element may be disposed in the gripping unit 12B of the endoscope 10.
  • distance measurement has been described as an example of measurement of an object.
  • the calorific value (temperature) measurement using the infrared irradiation light, the moisture distribution by the FI-IR method, or the fluorescence generated by the irradiation light is detected.
  • quantitative measurement of the corresponding component, Raman scattered light measurement, or the like may be used.

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Medical Informatics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

光源40と、照射光を被検体へ向けてスポット照射する第1の光ファイバ45と、照射光を走査する走査部15と、反射光にもとづく電気信号を出力する受光部21と、電気信号を処理する信号処理部22と、を備える内視鏡装置1であって、照射光が二次元画像を取得するための観察成分と測定を行うための測定成分とを含み、受光部21が複数の検出層が積層されている、観察信号と測定信号とを含む電気信号を出力する単一の受光素子であり、信号処理部22が、観察信号を処理し二次元画像データを出力するとともに測定信号を処理し測定データを出力する。

Description

内視鏡装置
 本発明は、被検体の二次元画像を取得するとともに、被検体の測定を行う内視鏡装置に関する。
 CCD、またはCMOSイメージセンサ等の撮像素子を用いた撮像装置は、被検体からの反射光をマトリックス状に配置された多数の受光素子により同時に受光し、被写体画像を取得する。暗い体内を撮影する内視鏡の場合には、光源からの光により照明された範囲の画像が取得される。
 これに対して、光走査型撮像装置では、被写体を光スポットによりスキャン照射しながら、その反射光を順に受光し、その受光データをもとに被写体画像が作成される。
 例えば、光走査型内視鏡では、光ファイバ走査部が、光源からの光を導光する光ファイバの先端部を2次元走査することで、光スポットのスキャン照射が行われる。
 米国特許第6563105号明細書には、スキャン照射された被検体の三次元画像を、照度差ステレオ法を用いて取得するシステムが開示されている。
 照度差ステレオ法では離散して配置された複数の受光窓に入射した反射光をもとに三次元画像を作成する。
 このため、内視鏡の先端部の外径を小さくすることは容易ではない。
 また、照明光は、カラー画像を取得するためのRGB光に加えて、距離測量を行うために赤外光とからなる。そして、受光部は、赤色受光素子と緑色受光素子と青色受光素子とに加えて、さらに距離測量を行うために赤外光受光素子を有する複雑な構成である。また、RGB光が重畳された白色光を照明光として用いるため、受光部の前に、赤色光と緑色光と青色光とを分離するダイクロイックミラー等の分光器等が必要であった。
米国特許第6563105号明細書
 本発明の実施形態は、被検体の二次元画像を取得するとともに、被検体の測定を行う高性能であり、かつ、簡単な構成の内視鏡装置を提供することを目的とする。
 実施形態の内視鏡装置は、照射光を発生する光源と、導光した前記照射光を先端から被検体へ向けてスポット照射する第1の光ファイバと、前記第1の光ファイバの前記先端の方向を変化させることで、前記照射光を走査する走査部と、前記照射光が照射された前記被検体からの反射光にもとづく電気信号を出力する受光部と、前記電気信号を処理する信号処理部と、を具備する内視鏡装置であって、
 前記照射光が、前記被検体の二次元画像を取得するための観察成分と前記被検体の測定を行うための測定成分とを含み、前記受光部が、複数の検出層が積層されている、前記反射光の前記観察成分にもとづく観察信号と前記反射光の前記測定成分にもとづく測定信号とを含む前記電気信号を出力する単一受光素子であり、前記信号処理部が、前記観察信号を処理し二次元画像データを出力するとともに、前記測定信号を処理し測定データを出力する。
 本発明の実施形態によれば、被検体の二次元画像を取得するとともに、被検体の測定を行う高性能であり、かつ、簡単な構成の内視鏡装置を提供できる。
第1実施形態の内視鏡装置の斜視図である。 第1実施形態の内視鏡装置の構成図である。 第1実施形態の内視鏡装置の照明光の説明図である。 第1実施形態の内視鏡装置の照明光の走査方法の説明図である。 第1実施形態の内視鏡装置の照明光の走査方法の説明図である。 第1実施形態の内視鏡装置の受光素子の断面図である。 第1実施形態の内視鏡装置の反射光の説明図である。 第1実施形態の内視鏡装置の二次元カラー画像の一例である。 第1実施形態の内視鏡装置の距離測量方法の説明図である。 第1実施形態の内視鏡装置の距離画像の一例である。 第1実施形態の内視鏡装置の三次元カラー画像の一例である。 第2実施形態の内視鏡装置の構成図である。 第2実施形態の内視鏡装置の受光素子の断面図である。 第2実施形態の内視鏡装置の照明光の説明図である。 第2実施形態の内視鏡装置の反射光の説明図である。 第3実施形態の内視鏡装置の照明光の説明図である。 第3実施形態の内視鏡装置の反射光の説明図である。 第4実施形態の内視鏡装置の受光素子の断面図である。 第4実施形態の内視鏡装置の照明光の説明図である。 第4実施形態の内視鏡装置の反射光の説明図である。 第5実施形態の内視鏡装置の構成図である。
 <第1実施形態>
 図1に示す本実施形態の内視鏡装置1は、光走査型の内視鏡10と、本体部20と、モニタ30と、を具備する。
 内視鏡10は、生体内に挿通される細長い挿入部11と、操作部12と、ユニバーサルケーブル13と、を有する。挿入部11は、先端部11Aと湾曲部11Bと可撓管部11Cとを含む。なお、内視鏡10は、いわゆる軟性内視鏡だが、挿入部11が硬質な、いわゆる硬性内視鏡であってもよい。
 操作部12には、湾曲部11Bを湾曲操作するための湾曲操作ノブ12A等が配設されている。挿入部11と操作部12の連結部は、ユーザーが把持する把持部12Bとなっている。
 操作部12から延設されたユニバーサルケーブル13が本体部20とコネクタ14を介して接続されている。本体部20は画像を表示するモニタ30と接続されている。
 次に、図2に内視鏡装置1の構成を示す。
 内視鏡装置1の本体部20は、光源40と走査制御部25と受光部である受光素子21と信号処理部22と画像生成部23と制御部24と、を有する。
 光源40は、照射光を発生する。走査制御部25は走査部15を制御し照射光を走査する。受光素子21は照射光が照射された被検体からの反射光を受光し反射光にもとづく電気信号を出力する。信号処理部22は受光素子21が出力する電気信号を処理する。画像生成部23は信号処理部22が出力する電気信号を処理し内視鏡画像を生成する。制御部24は内視鏡装置1の全体の制御を行う。
 信号処理部22と画像生成部23と制御部24とは、所定のプログラムにより動作するCPU等の半導体素子からなる。信号処理部22と画像生成部23と制御部24とは、物理的に独立した半導体素子でもよいし、1つの半導体素子が複数の機能を有していてもよい。
 光源40は、赤波長光(例えば620nm~750nm)を発生するR光源41と、緑波長光(例えば495nm~570nm)を発生するG光源42と、青波長光(例えば450nm~495nm)を発生するB光源43と、を有する。R光源41、G光源42およびB光源43は、例えば、レーザー光源である。なお、後述するように、R光源41が発生する赤波長光は高周波変調された重畳照射光である。
 光源40が発生した照明光は、第1の光ファイバ45により挿入部11の先端部11Aまで導光され、レンズ15Aを介して被検体へ向けてスポット照射される。先端部11Aには、走査制御部25からの信号に応じて、第1の光ファイバ45の先端の方向を変化させることで照射光を走査する走査部15が配設されている。
 走査部15は、第1の光ファイバ45の先端をX方向およびX方向に直交するY方向に振動する。第1の光ファイバ45を振動させる手段としては、圧電素子を第1の光ファイバ45に取り付けて振動させる方式、および、第1の光ファイバ45に取り付けた永久磁石を電磁コイルで振動させる電磁コイル方式を用いる。第1の光ファイバ45を駆動するときに、圧電素子または電磁コイルなどの駆動素子を、第1の光ファイバ45の共振周波数近傍で駆動させると、小さいエネルギで大きな偏向(変位,振幅)が得られる。
 照明光に照射された被検体からの反射光は、先端部11Aに配置されたレンズ46Aを介して第2の光ファイバ46の先端に集光される。第2の光ファイバ46は反射光を受光素子21まで導光する。なお、第1の光ファイバ45および第2の光ファイバ46のそれぞれは、コネクタ14等において光結合している少なくとも2本の光ファイバからなる。
 なお、図2に示すように、内視鏡装置1では、先端部11Aに1本の第2の光ファイバ46を配設しているが、反射光をより多く受光するために、複数の第2の光ファイバ46を先端部11Aに配置して合波して受光素子21に導光してもよい。
 図3に示すように、内視鏡装置1では、光源40が発生する照射光が被検体の二次元画像を取得するための観察成分と被検体の測定を行うための測定成分とを含む。ここで、観察成分は、カラー画像を取得するために、赤波長成分である赤波長光と、緑波長成分である緑波長光と、青波長成分である青波長光からなる。
 高周波変調された赤波長光は、赤波長成分としての機能だけでなく、タイムオブフライト法を用いて被検体との距離測量(distance measurement)を行うための測定成分の機能を有する。言い替えれば、赤波長光は、観察成分に測定成分が重畳された重畳照射光である。すなわち、照射光の観察成分である赤波長光が高周波変調により測定成分を含んでいる。なお、図3等では図示の都合上、赤波長光等の変調光を実際よりも低い周波数で変調された状態で表現している。
 R光源41、G光源42およびB光源43は、時間差をおいて光を出射する面順次方式である。被検体にスポット照射された照射光は連続的に2次元走査されている。このため、厳密には、赤波長光が照射された場所Aと緑波長光が照射された場所Bと青波長光が照射された場所Cとは異なる。このため、いわゆる色割れが発生し、1本の白色の直線が、赤色の直線、緑色の直線および青色の直線に分かれて見えてしまうおそれがある。しかし、十分に高速にRGB光を切り替えることで、場所A、B、Cを同じ場所として信号処理することができる。なお、赤波長光、緑波長光、および青波長光の光量は同一である必要はない。
 第1の光ファイバ45の先端が走査部15によりXY方向に走査される。走査方式は、所定範囲を均一に照明するために、図4Aに示す螺旋状(渦巻き状)方式、または図4Bに示すラスター状方式等が用いられる。
 例えば、図4A、図4Bに示す走査方式では、R光源41を照射光とする走査がA~Bまで行われ、その反射光により赤フィールドの画像が取得される。次に、G光源42を照射光とする走査がA~Bまで行われ、その反射光により緑フィールドの画像が取得される。さらにB光源43を照射光とする走査がA~Bまで行われ、その反射光により青フィールドの画像が取得される。面順次方式の内視鏡装置1では、赤フィールドの画像と緑フィールドの画像と青フィールドの画像とから、1枚のカラー画像が得られる。
 図5に示すように、シリコンからなる受光素子21は、複数の検出層21L(赤検出層21LR、緑検出層21LG、および青検出層21LB)が積層されている単一のフォトダイオードである。隣り合う検出層には異なる極性の不純物がドープされている。
 最上層である青検出層21LBの深さは、0.2μm程度である。第二層である緑検出層21LGの深さは0.6μm程度である。最下層である赤検出層21LRの深さは2μm程度である。
 受光素子21は、R成分、G成分およびB成分がシリコンを透過する特性が異なることを利用して、素子の厚み方向に3層の検出層を形成している。青検出層21LBはB成分にもとづく信号Aを出力する。緑検出層21LGには、波長が短いB成分は到達しない。このため、緑検出層21LGは、G成分にもとづくB観察信号を出力する。赤検出層21LRには、波長が長いR成分しか到達しない。このため、赤検出層21LRは、R成分にもとづくC観察信号を出力する。
 図6に示すように、反射光は照明光と同じように、観察成分光(G成分、B成分)と観察成分に測定成分が重畳された重畳反射光(R成分)とからなる。
 受光素子21が重畳反射光(R成分)を受光すると、青検出層21LBは信号A1を、緑検出層21LGは信号B1を、赤検出層21LRは信号C1を出力する。信号C1が、測定成分を含むR成分にもとづく重畳観察信号である。なお、青検出層21LBは信号A1を、緑検出層21LGは信号B1を出力する。信号A1、B1は処理には使用されない。
 受光素子21がG成分光を受光すると、青検出層21LBは信号A2を、緑検出層21LGはG成分にもとづく信号B2を出力する。赤検出層21LRが出力する信号C2はノイズ成分だけの略ゼロである。信号A2、C2は処理には使用されない。
 受光素子21がB成分光を受光すると、青検出層21LBはB成分光にもとづく信号A3を出力する。緑検出層21LGが出力する信号B3および赤検出層21LRが出力する信号C3はノイズ成分だけの略ゼロである。信号B3、C3は処理には使用されない。
 なお、受光素子が、シリコン基板と各検出層との間の信号を出力し、それぞれの成分にもとづく電気信号を取得するために信号処理部22が差分を算出してもよい。
 観察信号は、R成分とG成分とB成分とからなる。R成分は観察信号に測定成分が重畳された重畳観察信号である。受光素子21は、検出した反射光にもとづき、観察信号と測定信号とを含む電気信号を出力する。R成分は観察信号に測定成分が重畳された重畳観察信号であるが、積分により、観察信号が抽出される。
 信号処理部22は、RGBの3成分の観察信号を処理し二次元カラー画像データを出力する。画像生成部23は二次元カラー画像データから、図7に示すような二次元カラー画像30Aを出力する。二次元カラー画像30Aは体内の管腔の内視鏡画像である。
 さらに、信号処理部22は、重畳観察信号の測定成分、すなわち高周波変調成分を処理し、測定データとして距離画像(range image)データを出力する。
 図8に示すように、タイムオブフライト法を用いて距離測量(distance measurement)を行うための照射光の測定成分である赤波長成分は、周波数fに高周波変調されている。被検体までの距離をLとすると、反射光は出射光に対して時間差(遅れ)Δtが生じる。
 このため、以下の(式1)により被検体までの距離Lが算出できる。cは光速である。
    2L=c×Δt   (式1)
 なお、(式1)から算出される被検体までの距離Lは、第1の光ファイバ45の長さ(光源40から内視鏡10の挿入部11の先端部14Aまでの距離)L1と、第2の光ファイバ46の長さ(先端部14Aから受光素子21までの距離)L2と、を含む。距離L1、L2は一定であるため、先端部14Aから被検体までの距離をもとに、信号処理部22は距離画像データを算出する。
 変調周波数fの1/1000の位相差Δφを検出する信号処理部22において、R光源41の変調周波数が100MHz~1GHzであれば、分解能1mm以下の距離測量が可能となる。
 信号処理部22は、被検体のスポット照射された各点までの距離が計測された距離画像データを出力する。画像生成部23は距離画像データを補間処理し、図9に示すような距離画像30Bを出力する。距離画像30Bは、二次元カラー画像30Aと同じ場所の画像である。
 そして、画像生成部23は、二次元カラー画像30Aと距離画像30Bとから、図10に示す三次元カラー画像30Cを生成する。
 なお、画像生成部23は、二次元カラー画像データと距離画像データとから、三次元カラー画像30Cを生成してもよい。また、モニタ30が立体表示可能な場合には、三次元画像は図10等に示した距離に応じたメッシュ表示ではなく、奥行き情報を含む立体画像であってもよい。
 内視鏡装置1は、受光部が、複数の検出層21L(赤検出層21LR、緑検出層21LG、および青検出層21LB)が積層されている、観察成分にもとづく観察信号と測定成分にもとづく測定信号とを含む電気信号を出力する単一の受光素子21であるため、構成が簡単である。
 さらに、照明光の観察成分であるR成分が、測定成分の機能を含む重畳照明光である。このため、3つの光源だけで、三次元画像を取得できる。さらに照射光および反射光が可視光であるため、可視光帯において透過率の高い光ファイバを用いることで光の損失を小さくすることができる。
 なお、以上の説明では、R成分が重畳照明光であったが、G成分またはB成分が重畳照明光でもよいし、複数の波長成分、たとえば、R成分およびG成分が重畳照明光でもよいし、R成分、G成分およびB成分が重畳照明光でもよい。
<第2実施形態>
 次に第2実施形態の内視鏡装置1Aについて説明する。内視鏡装置1Aについて説明する。内視鏡装置1Aは、内視鏡装置1と類似しているため、同じ機能の構成要素には同じ符号を付し説明は省略する。
 図11に示すように、内視鏡装置1Aの光源40Aは、R光源41とG光源42とB光源43と赤外光を発生するIR光源44とを有する。赤外光の波長は、例えば750nm~1600nmであるが、好ましくは1400nm以下、特に好ましくは1200nm以下であれば、反射光は生体組織の表面からの反射光が主となるため、表面形状を良好に取得できる。
 図12に示すように、受光素子21Aは、複数の検出層21LAが積層されている単一素子である。複数の検出層21LAは、信号Dを出力する可視光検出層21LA1と、可視光検出層21LA1の下の赤外波長成分にもとづく信号Eを出力する赤外光検出層21LA2と、からなる。可視光検出層21LA1は、赤波長から青波長までの可視光域の光を検出する。赤外光検出層21LA2の深さは5μm程度である。赤外光検出層21LA2には、波長が長い赤外(IR)成分しか到達しない。
 図13に示すように、光源40Aが発生する照射光は、被検体の二次元画像を取得するための観察成分と被検体の測定を行うための測定成分とを含む。ここで、観察成分は、赤波長成分である赤波長光と、緑波長成分である緑波長光と、青波長成分である青波長光からなる。測定成分は、IR光源44が発生する高周波変調された赤外波長成分である。
 R光源41、G光源42、B光源43およびIR光源44は、時間差をおいて光を出射する。
 図14に示すように、反射光は照明光と同じように、観察成分(R成分、G成分、B成分)と測定成分(IR成分)とからなる。
 受光素子21Aの可視光検出層21LA1は、観察信号(R信号、G信号、B信号)である信号Dを出力する。一方、赤外光検出層21LA2は測定信号(IR信号)である信号Eを出力する。
 信号処理部22は、観察信号を処理し二次元カラー画像データを出力するとともに、測定信号を処理し測定データとして距離画像データを出力する。画像生成部23は二次元カラー画像データおよび距離画像データから三次元カラー画像30Cを生成する。
 内視鏡装置1Aは、内視鏡装置1と同じ効果を有する。そして、観察成分照明光(R、G、B)と測定成分照明光(IR)とが別の波長の光である。このため、RGBの3つの観察信号の強度差が小さく、内視鏡装置1よりも色再現性がよい。また、内視鏡装置1よりも、測定成分照明光が長波長であるため、距離測量の精度向上が容易である。
 なお、第1の光ファイバ45、第2の光ファイバ46として、赤波長成分、緑波長成分および青波長成分を導光する第1のコアと、赤外波長成分を導光する第2のコアと、を有するマルチコア光ファイバを用いてもよい。第1のコアは可視光成分(RGB)に対して損失が少なく、第2のコアは赤外光成分(IR)に対して損失の少ない材料からなる。
 また、内視鏡装置1Aでは、可視光(RGB)を受光する可視光検出層21LA1と、赤外光(IR)を受光する赤外光検出層21LA2とは、同時に信号Dおよび信号Eを出力できる。このため、可視光と赤外光とが同時に照射されてもよい。すなわち、R光源41、G光源42、またはB光源43と、IR光源44とは、同時に光を出射してもよい。IR光だけが照射される時間を設ける必要がないため、高速度撮像が可能となる。また、カラー画像と距離画像とのマッチングが容易になる。
 また、光源40Aが、赤外波長成分として、波長1200nm超、好ましくは1400nm超の第1の赤外波長成分と、波長1200nm以下、好ましくは1400nm以下の第2の赤外波長成分と、を順に発生してもよい。波長1200nm以下の第2の赤外波長成分による距離画像30Bは生体組織の表面の三次元画像である。一方、波長1200nm超の第1の赤外波長成分とによる距離画像30Bは生体組織の内部、例えば、表面から数mm下の三次元画像である。すなわち、光源40Aが出射する赤外線の波長を切り替えることで、例えば、生体組織の内部の血管の距離画像を得ることができる。
<第3実施形態>
 次に第3実施形態の内視鏡装置1Bについて説明する。内視鏡装置1Bは、内視鏡装置1と同じ受光素子21を具備し類似しているため、同じ機能の構成要素には同じ符号を付し説明は省略する。
 図2および図15に示すように、内視鏡装置1Bの光源40Bは、第1実施形態の光源40と同じように、R光源41とG光源42とB光源43とを有する。ただし、光源40Bでは、R光源41、G光源42、およびB光源43は、同時に光を出射する。すなわち、照明光は、観察成分光(G成分、B成分)と観察成分に測定成分が重畳された重畳照明光(R成分)とからなる混合光である。
 図16に示すように、受光素子21が混合光からなる反射光を受光すると、青検出層21LBはB成分にもとづく信号Aを、緑検出層21LGはG成分にもとづく信号Bを、赤検出層21LRは信号Cを出力する。信号A、Bが観察信号であり、信号Cが、測定成分を含むR成分にもとづく重畳観察信号である。
 内視鏡装置1Bは、内視鏡装置1と同じ効果を有する。さらに、内視鏡装置1Bは、測定成分と全ての観察成分とが同時に被検体に照射されるため、同じ時間の観察画像と測定画像とが得られる。このため、内視鏡装置1Bは、内視鏡装置1等の効果を有し、さらに、色割れが発生するおそれがなく、内視鏡装置1等よりも、2つの画像のマッチングが容易である。
<第4実施形態>
 次に第4実施形態の内視鏡装置1Cについて説明する。内視鏡装置1Cは、内視鏡装置1~1B等と類似しているため、同じ機能の構成要素には同じ符号を付し説明は省略する。
 図11および図17に示すように、受光素子21Cは、複数の検出層21LCが積層されている単一素子である。複数の検出層21LCは、観察信号を出力する可視光検出層21LC1と、赤外波長成分にもとづく測定信号を出力する赤外光検出層21LC2と、からなる。
 上層の可視光検出層21LC1は、赤検出層21LR、緑検出層21LG、および青検出層21LBからなる。
 赤外光検出層21LC2は赤外波長(IR)成分にもとづく信号Eを出力する。赤検出層21LRは、R成分にもとづく信号Cを出力する。緑検出層21LGは、G成分にもとづく信号Bを出力する。青検出層21LBはB成分にもとづくにもとづく信号Aを出力する。
 図18に示すように、内視鏡装置1Cの光源40Cは、第2実施形態の光源40Aと同じように、R光源41とG光源42とB光源43とIR光源44とを有する。ただし、光源40Cでは光源40Bと同じように、R光源41、G光源42、B光源43およびIR光源44は、同時に光を出射する。すなわち、照明光は、観察成分光(R成分、G成分、B成分)と測定成分光(IR成分)とからなる混合光である。
 図19に示すように、混合光からなる反射光を受光した受光素子21Cは、4種類の電気信号A、B、C、Eを出力する。電気信号A、B、Cが観察信号であり、信号Eが、測定信号である。
 内視鏡装置1Cは、内視鏡装置1Aの効果と内視鏡装置1Bの効果を有する。
 なお、内視鏡装置1Cでも、可視光(RGB)を受光する可視光検出層21LC1と、赤外光(IR)を受光する赤外光検出層21LC2とは、同時に信号A、BまたはCのいずれかと、信号Eとを出力できる。このため、可視光と赤外光とが同時に照射されてもよい。すなわち、R光源41、G光源42、またはB光源43のいずれかと、IR光源44とは、同時に光を出射してもよい。IR光だけが照射される時間を設ける必要がないため、高速度撮像が可能となる。また、カラー画像と距離画像とのマッチングが容易になる。
 また、第2実施形態の光源40Aと同じように、R光源41、G光源42、B光源43およびIR光源44が時間差をおいて光を出射する光源と、受光素子21Cとを組み合わせてもよい。このとき、光源40Aと同じように、R光源41、G光源42、またはB光源43と、IR光源44とは、同時に光を出射してもよい。
<第5実施形態>
 次に第5実施形態の内視鏡装置1Dについて説明する。内視鏡装置1Dは、内視鏡装置1~1C等と類似しているため、同じ機能の構成要素には同じ符号を付し説明は省略する。
 図20に示すように、内視鏡装置1Dでは、受光素子21Dが内視鏡10の挿入部11の先端部11Aに配置されている。受光素子21Dは、受光素子21と同じ、単一の検出層21Lが反射光を電気信号に変換し出力する単一の可視光受光素子である。検出層21Lが出力する電気信号は信号線21Mを介して信号処理部22に伝送される。
 受光素子21Dは小型であるため、先端部11Aに配置しても、先端部11Aの細径化を妨げることはない。
 内視鏡装置1Dでは、反射光は、第2の光ファイバを介さずに受光素子21に入射する。このため損失が小さく、高感度である。また、第2の光ファイバ46の長さL2により生じる時間差Δtの影響がなくなるため、より距離測量の精度が高い。
 内視鏡装置1A~1Cにおいても、小型の受光素子(受光部)を内視鏡10の挿入部11の先端部11Aに配置することができる。なお、受光素子(受光部)を内視鏡10の把持部12Bに配置してもよい。また光源40を把持部12Bに配置してもよい。
 なお、以上の説明では、被検体の測定として距離計測を例に説明した。しかし、照射光を用いた被検体の測定として、赤外照射光を用いた、発熱量(温度)測定、FI-IR法による水分量の分布、または、照射光により発生する蛍光を検出することで、対応成分の定量測定、ラマン散乱光測定等であってもよい。
 本発明は、上述した各実施例に限定されるものではなく、発明の趣旨を逸脱しない範囲内において種々の変更、組み合わせ、および応用が可能であることは勿論である。
1、1A~1D・・・内視鏡装置
10・・・内視鏡
15・・・走査部
20・・・本体部
21・・・受光素子
21L・・・検出層
22・・・信号処理部
23・・・画像生成部
24・・・制御部
25・・・走査制御部
30・・・モニタ
30A・・・二次元カラー画像
30B・・・距離画像
30C・・・三次元カラー画像
40・・・光源
45・・・第1の光ファイバ
46・・・第2の光ファイバ

Claims (7)

  1.  照射光を発生する光源と、
     導光した前記照射光を先端から被検体へ向けてスポット照射する第1の光ファイバと、
     前記第1の光ファイバの前記先端の方向を変化させることで、前記照射光を走査する走査部と、
     前記照射光が照射された前記被検体からの反射光にもとづく電気信号を出力する受光部と、
     前記電気信号を処理する信号処理部と、を備える内視鏡装置であって、
     前記照射光が、前記被検体の二次元画像を取得するための観察成分と前記被検体の測定を行うための測定成分とを含み、
     前記受光部が、複数の検出層が積層されている、前記反射光の前記観察成分にもとづく観察信号と前記反射光の前記測定成分にもとづく測定信号とを含む前記電気信号を出力する単一受光素子であり、
     前記信号処理部が、前記観察信号を処理し二次元画像データを出力するとともに、前記測定信号を処理し測定データを出力することを特徴とする内視鏡装置。
  2.  前記反射光を導光する第2の光ファイバを具備し、
     前記受光部が、前記第2の光ファイバが導光した前記反射光を受光することを特徴とする請求項1に記載の内視鏡装置。
  3.  前記受光部が、内視鏡の挿入部の先端部または把持部に配置されていることを特徴とする請求項1に記載の内視鏡装置。
  4.  前記観察成分が、赤波長成分、緑波長成分および青波長成分からなり、
     前記測定成分が、タイムオブフライト法を用いて前記被検体との距離測量を行うために高周波変調された成分であり、
     前記信号処理部が、前記測定信号を処理し、前記測定データとして距離画像データを出力し、
     前記カラー画像データと前記距離画像データとから、3次元カラー画像を生成する画像生成部をさらに具備することを特徴とする請求項1から請求項3のいずれか1項に記載の内視鏡装置。
  5.  前記赤波長成分、前記緑波長成分および前記青波長成分の少なくともいずれかが高周波変調された、前記測定成分を含む重畳光であり、
     前記複数の検出層が、前記赤波長成分にもとづく赤観察信号を出力する赤検出層と、前記緑波長成分にもとづく緑観察信号を出力する緑検出層と、前記青波長成分にもとづく青観察信号を出力する青検出層と、からなり、
     前記赤検出層、緑検出層、および青検出層の少なくともいずれかが、前記観察信号に前記測定信号が重畳された重畳信号を出力することを特徴とする請求項4に記載の内視鏡装置。
  6.  前記測定成分が、赤外波長成分であり、
     前記複数の検出層が、前記観察成分にもとづく前記観察信号を出力する可視光検出層と、前記赤外波長成分にもとづく前記測定信号を出力する赤外光検出層と、からなることを特徴とする請求項4に記載の内視鏡装置。
  7.  前記可視光検出層が、前記赤波長成分にもとづく赤観察信号を出力する赤検出層と、前記緑波長成分にもとづく緑観察信号を出力する緑検出層と、前記青波長成分にもとづく青観察信号を出力する青検出層と、からなることを特徴とする請求項6に記載の内視鏡装置。
PCT/JP2015/063468 2015-05-11 2015-05-11 内視鏡装置 WO2016181453A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2015/063468 WO2016181453A1 (ja) 2015-05-11 2015-05-11 内視鏡装置
JP2017517477A JP6508639B2 (ja) 2015-05-11 2015-05-11 内視鏡装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/063468 WO2016181453A1 (ja) 2015-05-11 2015-05-11 内視鏡装置

Publications (1)

Publication Number Publication Date
WO2016181453A1 true WO2016181453A1 (ja) 2016-11-17

Family

ID=57247868

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/063468 WO2016181453A1 (ja) 2015-05-11 2015-05-11 内視鏡装置

Country Status (2)

Country Link
JP (1) JP6508639B2 (ja)
WO (1) WO2016181453A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0542097A (ja) * 1991-08-16 1993-02-23 Olympus Optical Co Ltd 三次元計測用内視鏡装置
JPH06209107A (ja) * 1992-11-09 1994-07-26 Xerox Corp 電位井戸内に感光層をもつカラー結像電荷結合アレイ
JPH10243936A (ja) * 1997-03-06 1998-09-14 Fuji Photo Film Co Ltd 内視鏡装置
JP2009538672A (ja) * 2006-05-30 2009-11-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 組織属性の奥行き解像された測定のための装置
JP2011036592A (ja) * 2009-08-18 2011-02-24 Hoya Corp 内視鏡装置
JP2011505193A (ja) * 2007-11-30 2011-02-24 セント・ジュード・メディカル・エイトリアル・フィブリレーション・ディヴィジョン・インコーポレーテッド 磁場制御および誘導のための磁気先端部を有する灌流アブレーションカテーテル

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005087468A (ja) * 2003-09-17 2005-04-07 Shoji Kawahito 距離画像計測機能を有する撮像装置及び内視鏡装置
EP1954193B1 (en) * 2005-11-23 2013-03-06 University of Washington Scanning beam with variable sequential framing using interrupted scanning resonance

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0542097A (ja) * 1991-08-16 1993-02-23 Olympus Optical Co Ltd 三次元計測用内視鏡装置
JPH06209107A (ja) * 1992-11-09 1994-07-26 Xerox Corp 電位井戸内に感光層をもつカラー結像電荷結合アレイ
JPH10243936A (ja) * 1997-03-06 1998-09-14 Fuji Photo Film Co Ltd 内視鏡装置
JP2009538672A (ja) * 2006-05-30 2009-11-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 組織属性の奥行き解像された測定のための装置
JP2011505193A (ja) * 2007-11-30 2011-02-24 セント・ジュード・メディカル・エイトリアル・フィブリレーション・ディヴィジョン・インコーポレーテッド 磁場制御および誘導のための磁気先端部を有する灌流アブレーションカテーテル
JP2011036592A (ja) * 2009-08-18 2011-02-24 Hoya Corp 内視鏡装置

Also Published As

Publication number Publication date
JPWO2016181453A1 (ja) 2017-10-26
JP6508639B2 (ja) 2019-05-08

Similar Documents

Publication Publication Date Title
JP6246740B2 (ja) 高分解能画像走査のための拡張された焦点深度
US6975898B2 (en) Medical imaging, diagnosis, and therapy using a scanning single optical fiber system
EP2653091B1 (en) Scanning endoscope device
CN1310615C (zh) 深度增强的图像采集
US20080221388A1 (en) Side viewing optical fiber endoscope
JP2015508685A5 (ja)
JP2007526014A (ja) 走査内視鏡
JP2011217836A (ja) 電子内視鏡装置
EP2120719A1 (en) Side viewing optical fiber endoscope
JP2012231835A (ja) 光源装置
US11759099B2 (en) Optical scanning imaging/projection apparatus and endoscope system
EP2801315B1 (en) Scanning endoscope apparatus
JP2011217835A (ja) 内視鏡の形状検出装置
US10568495B2 (en) Scanning endoscope system
JP6508640B2 (ja) 内視鏡装置
JP6508638B2 (ja) 内視鏡装置
JP6738465B2 (ja) 内視鏡システム
JP6508639B2 (ja) 内視鏡装置
WO2023016438A1 (zh) 一种扫描光纤内镜探头和扫描光纤内镜
JP6329394B2 (ja) 撮像装置、および内視鏡装置
US20180103835A1 (en) Scanning-endoscope image evaluation system
JP2011125598A (ja) 内視鏡装置
JP5242304B2 (ja) 観測システム
JP2017086549A (ja) 走査型内視鏡装置
JP2016214459A (ja) 走査型内視鏡

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15891779

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017517477

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15891779

Country of ref document: EP

Kind code of ref document: A1