WO2016181452A1 - 内視鏡装置 - Google Patents

内視鏡装置 Download PDF

Info

Publication number
WO2016181452A1
WO2016181452A1 PCT/JP2015/063467 JP2015063467W WO2016181452A1 WO 2016181452 A1 WO2016181452 A1 WO 2016181452A1 JP 2015063467 W JP2015063467 W JP 2015063467W WO 2016181452 A1 WO2016181452 A1 WO 2016181452A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
component
measurement
signal
endoscope apparatus
Prior art date
Application number
PCT/JP2015/063467
Other languages
English (en)
French (fr)
Inventor
嘉晴 安食
松本 一哉
村上 賢治
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2017517476A priority Critical patent/JP6508638B2/ja
Priority to PCT/JP2015/063467 priority patent/WO2016181452A1/ja
Publication of WO2016181452A1 publication Critical patent/WO2016181452A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes

Definitions

  • the present invention relates to an endoscope apparatus that acquires a two-dimensional image of a subject and measures the subject.
  • An imaging apparatus using an imaging element such as a CCD or CMOS image sensor simultaneously receives reflected light from a subject by a large number of light receiving elements arranged in a matrix to obtain a subject image.
  • an imaging element such as a CCD or CMOS image sensor
  • the reflected light is sequentially received while the subject is scanned and irradiated with the light spot, and the subject image is created based on the received light data.
  • an optical fiber scanning unit performs two-dimensional scanning of a tip portion of an optical fiber that guides light from a light source, so that scanning irradiation of a light spot is performed.
  • U.S. Pat. No. 6,563,105 discloses a system for acquiring a three-dimensional image of a scan-irradiated object using a photometric stereo method.
  • a three-dimensional image is created based on reflected light incident on a plurality of light receiving windows arranged discretely.
  • the illumination light is composed of infrared light for distance measurement in addition to RGB light for acquiring a color image.
  • the light receiving unit has a complicated configuration including an infrared light receiving element for further distance measurement.
  • a spectroscope such as a dichroic mirror that separates red light, green light, and blue light is required before the light receiving unit.
  • Embodiments of the present invention provide a high-performance and simple configuration endoscope apparatus that acquires a two-dimensional image of a subject and measures the subject.
  • An endoscope apparatus includes a light source that generates irradiation light, a first optical fiber that spot-irradiates the guided irradiation light from a tip toward a subject, and the tip of the first optical fiber.
  • a scanning unit that scans the irradiation light, a light receiving unit that outputs an electric signal based on reflected light from the subject irradiated with the irradiation light, and a signal that processes the electric signal
  • An endoscopic device comprising a processing unit,
  • the irradiation light includes an observation component for acquiring a two-dimensional image of the subject and a measurement component for performing measurement of the subject, and the light receiving unit uses the observation signal and the measurement based on the observation component.
  • a single light-receiving element that outputs a single detection layer including the electrical signal including a measurement signal based on a component, and the signal processing unit processes the observation signal and outputs two-dimensional image data, and Process measurement signals and output measurement data.
  • An endoscope apparatus 1 includes an optical scanning endoscope 10, a main body 20, and a monitor 30.
  • the endoscope 10 includes an elongated insertion portion 11 that is inserted into a living body, an operation portion 12, and a universal cable 13.
  • the insertion portion 11 includes a distal end portion 11A, a bending portion 11B, and a flexible tube portion 11C.
  • the endoscope 10 is a so-called soft endoscope, but may be a so-called rigid endoscope in which the insertion portion 11 is hard.
  • the operation unit 12 is provided with a bending operation knob 12A for bending the bending portion 11B.
  • the connecting portion between the insertion portion 11 and the operation portion 12 is a grip portion 12B that is gripped by the user.
  • the universal cable 13 extended from the operation part 12 is connected to the main body part 20 via the connector 14.
  • the main body 20 is connected to a monitor 30 that displays an image.
  • FIG. 2 shows a configuration of the endoscope apparatus 1.
  • the main body unit 20 of the endoscope apparatus 1 includes a light source 40, a scanning control unit 25, a light receiving element 21 that is a light receiving unit, a signal processing unit 22, an image generation unit 23, and a control unit 24.
  • the light source 40 generates irradiation light.
  • the scanning control unit 25 controls the scanning unit 15 to scan the irradiation light.
  • the light receiving element 21 receives reflected light from the subject irradiated with the irradiated light and outputs an electrical signal based on the reflected light.
  • the signal processing unit 22 processes the electrical signal output from the light receiving element 21.
  • the image generation unit 23 processes the electrical signal output from the signal processing unit 22 and generates an endoscopic image.
  • the control unit 24 performs overall control of the endoscope apparatus 1.
  • the signal processing unit 22, the image generation unit 23, and the control unit 24 are composed of a semiconductor element such as a CPU that operates according to a predetermined program.
  • the signal processing unit 22, the image generation unit 23, and the control unit 24 may be physically independent semiconductor elements, or one semiconductor element may have a plurality of functions.
  • the light source 40 generates an R light source 41 that generates red wavelength light (for example, 620 nm to 750 nm), a G light source 42 that generates green wavelength light (for example, 495 nm to 570 nm), and a blue wavelength light (for example, 450 nm to 495 nm).
  • B light source 43 The R light source 41, the G light source 42 and the B light source 43 are, for example, laser light sources.
  • the red wavelength light generated by the R light source 41 is a high-frequency modulated superimposed irradiation light.
  • the illumination light generated by the light source 40 is guided to the distal end portion 11A of the insertion portion 11 by the first optical fiber 45, and is spot-irradiated toward the subject through the lens 15A.
  • a scanning unit 15 that scans irradiation light by changing the direction of the distal end of the first optical fiber 45 in accordance with a signal from the scanning control unit 25 is disposed at the distal end portion 11A.
  • the scanning unit 15 vibrates the tip of the first optical fiber 45 in the X direction and the Y direction orthogonal to the X direction.
  • a method of attaching a piezoelectric element to the first optical fiber 45 to vibrate, and an electromagnetic coil for vibrating a permanent magnet attached to the first optical fiber 45 with an electromagnetic coil are used. Use the method.
  • a driving element such as a piezoelectric element or an electromagnetic coil is driven in the vicinity of the resonance frequency of the first optical fiber 45, a large deflection (displacement, amplitude) can be obtained with small energy. It is done.
  • the reflected light from the subject irradiated with the illumination light is collected at the tip of the second optical fiber 46 via the lens 46A disposed at the tip 11A.
  • the second optical fiber 46 guides the reflected light to the light receiving element 21.
  • Each of the first optical fiber 45 and the second optical fiber 46 is composed of at least two optical fibers that are optically coupled in the connector 14 or the like.
  • one second optical fiber 46 is disposed at the distal end portion 11 ⁇ / b> A, but a plurality of second optical fibers 46 are received in order to receive more reflected light.
  • Two optical fibers 46 may be arranged at the distal end portion 11 ⁇ / b> A and combined to be guided to the light receiving element 21.
  • the irradiation light generated by the light source 40 includes an observation component for acquiring a two-dimensional image of the subject and a measurement component for measuring the subject.
  • the observation component includes red wavelength light that is a red wavelength component, green wavelength light that is a green wavelength component, and blue wavelength light that is a blue wavelength component in order to acquire a color image.
  • the high-frequency-modulated red wavelength light has not only a function as a red wavelength component but also a function of a measurement component for performing distance measurement with the subject using the time-of-flight method.
  • the red wavelength light is superimposed irradiation light in which the measurement component is superimposed on the observation component. That is, the red wavelength light that is the observation component of the irradiation light includes the measurement component by high frequency modulation.
  • modulated light such as red wavelength light is expressed in a state of being modulated at a frequency lower than the actual frequency.
  • the R light source 41, the G light source 42, and the B light source 43 are a surface sequential method that emits light with a time difference.
  • the irradiation light spot-irradiated on the subject is continuously two-dimensionally scanned. For this reason, strictly speaking, the location A irradiated with red wavelength light, the location B irradiated with green wavelength light, and the location C irradiated with blue wavelength light are different. For this reason, so-called color breakage occurs, and one white straight line may be divided into a red straight line, a green straight line, and a blue straight line.
  • signal processing can be performed with the locations A, B, and C as the same location by switching the RGB light sufficiently fast.
  • the light amounts of red wavelength light, green wavelength light, and blue wavelength light need not be the same.
  • the tip of the first optical fiber 45 is scanned in the XY directions by the scanning unit 15.
  • a spiral (spiral) method shown in FIG. 4A, a raster method shown in FIG. 4B, or the like is used.
  • scanning using the R light source 41 as irradiation light is performed from A to B, and an image of the red field is acquired by the reflected light.
  • scanning with the G light source 42 as irradiation light is performed from A to B, and an image of the green field is acquired by the reflected light.
  • scanning using the B light source 43 as irradiation light is performed from A to B, and an image of the blue field is acquired by the reflected light.
  • one color image is obtained from a red field image, a green field image, and a blue field image.
  • the reflected light is composed of observation component light (G component, B component) and superimposed reflected light (R component) in which the measurement component is superimposed on the observation component, like the illumination light.
  • the light receiving element 21 made of silicon is a single visible light receiving element in which a single detection layer converts reflected light into an electric signal and outputs it. That is, the detection layer 21L of the light receiving element 21 shown in FIG. 6 detects light in the visible light region from the red wavelength to the blue wavelength.
  • the light receiving element 21 is a photodiode that outputs an electrical signal including an observation signal and a measurement signal based on the detected reflected light.
  • the observation signal is composed of an R component, a G component, and a B component.
  • the R component is a superimposed observation signal in which the measurement component is superimposed on the observation signal, but the observation signal is extracted by integration.
  • the signal processing unit 22 processes RGB three-component observation signals and outputs two-dimensional color image data.
  • the image generation unit 23 outputs a two-dimensional color image 30A as shown in FIG. 7 from the two-dimensional color image data.
  • the two-dimensional color image 30A is an endoscopic image of a body lumen.
  • the signal processing unit 22 processes the measurement component of the superimposed observation signal, that is, the high-frequency modulation component, and outputs range image data as measurement data.
  • a red wavelength component which is a measurement component of irradiation light for performing distance measurement using the time-of-flight method, is modulated at a high frequency to a frequency f.
  • the reflected light has a time difference (delay) ⁇ t with respect to the emitted light.
  • the distance L to the subject can be calculated by the following (Equation 1).
  • c is the speed of light.
  • the distance L to the subject calculated from (Equation 1) is the length of the first optical fiber 45 (the distance from the light source 40 to the distal end portion 14A of the insertion portion 11 of the endoscope 10) L1, and And the length of the second optical fiber 46 (distance from the tip portion 14A to the light receiving element 21) L2. Since the distances L1 and L2 are constant, the signal processing unit 22 calculates distance image data based on the distance from the distal end portion 14A to the subject.
  • the signal processing unit 22 that detects a phase difference ⁇ of 1/1000 of the modulation frequency f, if the modulation frequency of the R light source 41 is 100 MHz to 1 GHz, distance measurement with a resolution of 1 mm or less is possible.
  • the distance L may be calculated from the time difference between the reflected light and the emitted light.
  • the signal processing unit 22 outputs distance image data in which the distance to each spot irradiated point of the subject is measured.
  • the image generation unit 23 interpolates the distance image data and outputs a distance image 30B as shown in FIG.
  • the distance image 30B is an image at the same location as the two-dimensional color image 30A.
  • the image generation unit 23 generates a three-dimensional color image 30C shown in FIG. 10 from the two-dimensional color image 30A and the distance image 30B.
  • the image generation unit 23 may generate the three-dimensional color image 30C from the two-dimensional color image data and the distance image data.
  • the three-dimensional image may be a stereoscopic image including depth information instead of the mesh display according to the distance illustrated in FIG.
  • the endoscope apparatus 1 is configured because the light receiving unit is a single light receiving element 21 from which a single detection layer 21L outputs an electrical signal including an observation signal based on an observation component and a measurement signal based on a measurement component. Is simple.
  • the R component that is the observation component of the illumination light is superimposed illumination light that includes the function of the measurement component. For this reason, a three-dimensional image can be acquired with only three light sources. Furthermore, since the irradiation light and the reflected light are visible light, the loss of light can be reduced by using an optical fiber having a high transmittance in the visible light band.
  • the R component is superimposed illumination light
  • the G component or B component may be superimposed illumination light, or a plurality of wavelength components, for example, the R component and G component may be superimposed illumination light.
  • R component, G component, and B component may be superimposed illumination light.
  • an endoscope apparatus 1A according to the second embodiment will be described.
  • the endoscope apparatus 1A will be described. Since the endoscope apparatus 1A is similar to the endoscope apparatus 1, components having the same functions are denoted by the same reference numerals and description thereof is omitted.
  • the light source 40A of the endoscope apparatus 1A includes an R light source 41, a G light source 42, a B light source 43, and an IR light source 44 that generates infrared light.
  • the wavelength of the infrared light is, for example, 750 nm to 1600 nm, but preferably 1400 nm or less, particularly preferably 1200 nm or less, since the reflected light is mainly reflected from the surface of the living tissue, the surface shape is good. Can be obtained.
  • the light receiving element 21A is a broadband light receiving element in which a single detection layer 21LA converts light in a wide wavelength band from visible light to infrared light into an electrical signal and outputs it.
  • the irradiation light generated by the light source 40A includes an observation component for acquiring a two-dimensional image of the subject and a measurement component for measuring the subject.
  • the observation component includes red wavelength light that is a red wavelength component, green wavelength light that is a green wavelength component, and blue wavelength light that is a blue wavelength component.
  • the measurement component is a high-frequency modulated infrared wavelength component generated by the IR light source 44.
  • R light source 41, G light source 42, B light source 43 and IR light source 44 emit light with a time difference.
  • the reflected light consists of an observation component (R component, G component, B component) and a measurement component (IR component) in the same manner as illumination light.
  • the light receiving element 21A detects broadband light from visible light wavelengths to infrared wavelengths.
  • the light receiving element 21A outputs an electrical signal including an observation signal and a measurement signal.
  • the signal processing unit 22 processes the observation signal and outputs two-dimensional color image data, and also processes the measurement signal and outputs distance image data as measurement data.
  • the image generation unit 23 generates a three-dimensional color image 30C from the two-dimensional color image data and the distance image data.
  • the endoscope apparatus 1A has the same effect as the endoscope apparatus 1.
  • the observation component illumination light (R, G, B) and the measurement component illumination light (IR) are light having different wavelengths. For this reason, the intensity difference between the three observation signals RGB is small, and the color reproducibility is better than that of the endoscope apparatus 1. Further, since the measurement component illumination light has a longer wavelength than the endoscope apparatus 1, it is easy to improve distance measurement accuracy.
  • the first optical fiber 45 and the second optical fiber 46 a first core that guides the red wavelength component, the green wavelength component, and the blue wavelength component, and a second core that guides the infrared wavelength component.
  • a multi-core optical fiber having the following may be used.
  • the first core is made of a material with little loss with respect to the visible light component (RGB)
  • the second core is made of a material with little loss with respect to the infrared light component (IR).
  • a light receiving element 21A that is a broadband light receiving element may be used instead of the visible light detecting type light receiving element 21.
  • the light source 40A sequentially includes, as the infrared wavelength components, a first infrared wavelength component having a wavelength of more than 1200 nm, preferably more than 1400 nm, and a second infrared wavelength component having a wavelength of 1200 nm or less, preferably 1400 nm or less. It may occur.
  • the distance image 30B based on the second infrared wavelength component having a wavelength of 1200 nm or less is a three-dimensional image of the surface of the living tissue.
  • the distance image 30B with the first infrared wavelength component having a wavelength exceeding 1200 nm is a three-dimensional image several millimeters below the inside of the living tissue, for example, the surface. That is, by switching the wavelength of infrared rays emitted from the light source 40A, for example, a distance image of blood vessels inside the living tissue can be obtained.
  • an endoscope apparatus 1B according to a third embodiment will be described.
  • the endoscope apparatus 1A will be described. Since the endoscope apparatus 1B is similar to the endoscope apparatus 1 and the like, components having the same function are denoted by the same reference numerals and description thereof is omitted.
  • the light source 40B of the endoscope apparatus 1B includes an R light source 41, a G light source 42, and a B light source 43 in the same manner as the light source 40 of the first embodiment.
  • the R light source 41, the G light source 42, and the B light source 43 emit light simultaneously. That is, the illumination light is a mixed light composed of observation component light (G component, B component) and superimposed illumination light (R component) in which the measurement component is superimposed on the observation component.
  • the light receiving element 21B is a modulation type light receiving element in which a single detection layer 21LB converts reflected light into an electric signal and outputs the electric signal.
  • the light receiving wavelength band changes depending on the intensity of the bias voltage applied to the detection layer 21LB.
  • the Schottky barrier becomes small and the detectable wavelength shifts to the long wavelength side, so the detection sensitivity with respect to the wavelength changes.
  • the light receiving element 21B outputs electrical signals having three different intensities when three predetermined biases are applied via the uppermost mesh electrode (not shown) or the like.
  • Each electric signal includes signals based on the three wavelength bands of R, G, and B at different ratios.
  • signals in the three wavelength bands of R, G, and B can be calculated from three types of electrical signals.
  • the light receiving element 21 ⁇ / b> B sequentially outputs three types of electric signals A, B, and C that include the R component signal (superimposition), the G component signal, and the B component signal at different ratios.
  • the signal processing unit 22 separates the three observation signals R, G, and B from the three types of electric signals A, B, and C, and acquires a measurement signal. Note that the calculation means of the light receiving unit including the light receiving element 21B may perform signal separation processing.
  • the endoscope apparatus 1B has the same effect as the endoscope apparatus 1. Furthermore, since the measurement component and all the observation components are simultaneously irradiated onto the subject, the endoscope apparatus 1B can obtain an observation image and a measurement image at the same time. For this reason, the endoscope apparatus 1B has the effects of the endoscope apparatus 1 and the like, and further, there is no possibility of color breakup, and matching of two images is easier than the endoscope apparatus 1 and the like. is there.
  • the R light source 41, the G light source 42, and the B light source 43 emit light simultaneously, but the light receiving element 21B is a surface sequential method that sequentially receives RGB three-field images. .
  • the bias of the light receiving element 21B at high speed during one scan between A and B in FIG. 4A and the like
  • the RGB three-field image and the distance during one scan A so-called simultaneous method for obtaining an image is also possible.
  • the light receiving element 21B may switch the light receiving wavelength in synchronization with the wavelength switching of the illumination light.
  • an endoscope apparatus 1C according to a fourth embodiment will be described. Since the endoscope apparatus 1C is similar to the endoscope apparatuses 1 to 1B and the like, components having the same function are denoted by the same reference numerals and description thereof is omitted.
  • the light source 40C of the endoscope apparatus 1C includes an R light source 41, a G light source 42, a B light source 43, and an IR light source 44, like the light source 40A of the second embodiment.
  • the R light source 41, the G light source 42, the B light source 43, and the IR light source 44 emit light simultaneously. That is, the illumination light is a mixed light composed of observation component light (R component, G component, B component) and measurement component light (IR component).
  • a broadband modulation type light receiving element 21C to which four types of biases are sequentially applied includes four types of R component signals, G component signals, B component signals, and IR component signals at different ratios. Electrical signals A, B, C, and D are output in order.
  • the signal processing unit 22 separates the three observation signals R, G, and B from the four types of electric signals A, B, C, and D, and acquires the measurement signal. Note that the calculation means of the light receiving unit including the light receiving element 21C may perform signal separation processing.
  • the endoscope apparatus 1C has the effects of the endoscope apparatus 1A and the endoscope apparatus 1B, and there is no risk of color breakup even with a subject that changes drastically, and the accuracy of distance measurement is improved. high.
  • the light receiving element 21C changes the applied bias in synchronization with the wavelength switching of the illumination light, whereby the light receiving wavelength band May be switched.
  • an endoscope apparatus 1D according to a fifth embodiment will be described. Since the endoscope apparatus 1D is similar to the endoscope apparatuses 1 to 1C and the like, components having the same function are denoted by the same reference numerals and description thereof is omitted.
  • the light receiving element 21 ⁇ / b> D is disposed at the distal end portion 11 ⁇ / b> A of the insertion portion 11 of the endoscope 10.
  • the light receiving element 21 ⁇ / b> D is a single visible light receiving element that is the same as the light receiving element 21 and in which a single detection layer 21 ⁇ / b> L converts the reflected light into an electrical signal and outputs it.
  • the electric signal output from the detection layer 21L is transmitted to the signal processing unit 22 through the signal line 21M.
  • the light receiving element 21D is small, even if the light receiving element 21D is arranged at the tip portion 11A, it does not hinder the diameter reduction of the tip portion 11A.
  • the reflected light enters the light receiving element 21 without passing through the second optical fiber. Therefore, the loss is small and the sensitivity is high. In addition, since the influence of the time difference ⁇ t caused by the length L2 of the second optical fiber 46 is eliminated, the distance surveying accuracy is higher.
  • a small light receiving element can be arranged at the distal end portion 11A of the insertion portion 11 of the endoscope 10.
  • the light receiving element may be disposed in the gripping unit 12B of the endoscope 10.
  • distance measurement has been described as an example of measurement of an object.
  • the calorific value (temperature) measurement using the infrared irradiation light, the moisture distribution by the FI-IR method, or the fluorescence generated by the irradiation light is detected.
  • quantitative measurement of the corresponding component, Raman scattered light measurement, or the like may be used.

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Optics & Photonics (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

光源40と、照射光を被検体へ向けてスポット照射する第1の光ファイバ45と、前記照射光を走査する走査部15と、反射光にもとづく電気信号を出力する受光部21と、前記電気信号を処理する信号処理部22と、を備える内視鏡装置1であって、前記照射光が、前記被検体の二次元画像を取得するための観察成分と前記被検体の測定を行うための測定成分とを含み、前記受光部21が、観察信号と測定信号とを含む前記電気信号を単一の検出層21Lが出力する単一の受光素子であり、前記信号処理部22が、前記観察信号を処理し二次元画像データを出力するとともに、前記測定信号を処理し測定データを出力する。

Description

内視鏡装置
 本発明は、被検体の二次元画像を取得するとともに、被検体の測定を行う内視鏡装置に関する。
 CCD、またはCMOSイメージセンサ等の撮像素子を用いた撮像装置は、被検体からの反射光をマトリックス状に配置された多数の受光素子により同時に受光し、被写体画像を取得する。暗い体内を撮影する内視鏡の場合には、光源からの光により照明された範囲の画像が取得される。
 これに対して、光走査型撮像装置では、被写体を光スポットによりスキャン照射しながら、その反射光を順に受光し、その受光データをもとに被写体画像が作成される。
 例えば、光走査型内視鏡では、光ファイバ走査部が、光源からの光を導光する光ファイバの先端部を2次元走査することで、光スポットのスキャン照射が行われる。
 米国特許第6563105号明細書には、スキャン照射された被検体の三次元画像を、照度差ステレオ法を用いて取得するシステムが開示されている。
 照度差ステレオ法では離散して配置された複数の受光窓に入射した反射光をもとに三次元画像を作成する。
 このため、内視鏡の先端部の外径を小さくすることは容易ではない。
 また、照明光は、カラー画像を取得するためのRGB光に加えて、距離測量を行うために赤外光とからなる。そして、受光部は、赤色受光素子と緑色受光素子と青色受光素子とに加えて、さらに距離測量を行うために赤外光受光素子を有する複雑な構成である。また、RGB光が重畳された白色光を照明光として用いるため、受光部の前に、赤色光と緑色光と青色光とを分離するダイクロイックミラー等の分光器等が必要であった。
米国特許第6563105号明細書
 本発明の実施形態は、被検体の二次元画像を取得するとともに、被検体の測定を行う高性能であり、かつ、簡単な構成の内視鏡装置を提供することを目的とする。
 実施形態の内視鏡装置は、照射光を発生する光源と、導光した前記照射光を先端から被検体へ向けてスポット照射する第1の光ファイバと、前記第1の光ファイバの前記先端の方向を変化させることで、前記照射光を走査する走査部と、前記照射光が照射された前記被検体からの反射光にもとづき電気信号を出力する受光部と、前記電気信号を処理する信号処理部と、を備える内視鏡装置であって、
 前記照射光が、前記被検体の二次元画像を取得するための観察成分と前記被検体の測定を行うための測定成分とを含み、前記受光部が、前記観察成分にもとづく観察信号と前記測定成分にもとづく測定信号とを含む前記電気信号を単一の検出層が出力する単一の受光素子であり、前記信号処理部が、前記観察信号を処理し二次元画像データを出力するとともに、前記測定信号を処理し測定データを出力する。
 本発明の実施形態によれば、被検体の二次元画像を取得するとともに、被検体の測定を行う高性能であり、かつ、簡単な構成の内視鏡装置を提供できる。
第1実施形態の内視鏡装置の斜視図である。 第1実施形態の内視鏡装置の構成図である。 第1実施形態の内視鏡装置の照明光の説明図である。 第1実施形態の内視鏡装置の照明光の走査方法の説明図である。 第1実施形態の内視鏡装置の照明光の走査方法の説明図である。 第1実施形態の内視鏡装置の反射光の説明図である。 第1実施形態の内視鏡装置の受光素子の断面図である。 第1実施形態の内視鏡装置の二次元カラー画像の一例である。 第1実施形態の内視鏡装置の距離測量方法の説明図である。 第1実施形態の内視鏡装置の距離画像の一例である。 第1実施形態の内視鏡装置の三次元カラー画像の一例である。 第2実施形態の内視鏡装置の構成図である。 第2実施形態の内視鏡装置の照明光の説明図である。 第2実施形態の内視鏡装置の反射光の説明図である。 第3実施形態の内視鏡装置の照明光の説明図である。 第3実施形態の内視鏡装置の反射光の説明図である。 第4実施形態の内視鏡装置の照明光の説明図である。 第4実施形態の内視鏡装置の反射光の説明図である。 第5実施形態の内視鏡装置の構成図である。
 <第1実施形態>
 図1に示す本実施形態の内視鏡装置1は、光走査型の内視鏡10と、本体部20と、モニタ30と、を具備する。
 内視鏡10は、生体内に挿通される細長い挿入部11と、操作部12と、ユニバーサルケーブル13と、を有する。挿入部11は、先端部11Aと湾曲部11Bと可撓管部11Cと、を含む。なお、内視鏡10は、いわゆる軟性内視鏡だが、挿入部11が硬質な、いわゆる硬性内視鏡であってもよい。
 操作部12には、湾曲部11Bを湾曲操作するための湾曲操作ノブ12A等が配設されている。挿入部11と操作部12の連結部は、ユーザーが把持する把持部12Bとなっている。
 操作部12から延設されたユニバーサルケーブル13が本体部20とコネクタ14を介して接続されている。本体部20は画像を表示するモニタ30と接続されている。
 次に、図2に内視鏡装置1の構成を示す。
 内視鏡装置1の本体部20は、光源40と走査制御部25と受光部である受光素子21と信号処理部22と画像生成部23と制御部24と、を有する。
 光源40は、照射光を発生する。走査制御部25は走査部15を制御し照射光を走査する。受光素子21は照射光が照射された被検体からの反射光を受光し反射光にもとづく電気信号を出力する。信号処理部22は受光素子21が出力する電気信号を処理する。画像生成部23は信号処理部22が出力する電気信号を処理し内視鏡画像を生成する。制御部24は内視鏡装置1の全体の制御を行う。
 信号処理部22と画像生成部23と制御部24とは、所定のプログラムにより動作するCPU等の半導体素子からなる。信号処理部22と画像生成部23と制御部24とは、物理的に独立した半導体素子でもよいし、1つの半導体素子が複数の機能を有していてもよい。
 光源40は、赤波長光(例えば620nm~750nm)を発生するR光源41と、緑波長光(例えば495nm~570nm)を発生するG光源42と、青波長光(例えば450nm~495nm)を発生するB光源43と、を有する。R光源41、G光源42およびB光源43は、例えば、レーザー光源である。なお、後述するように、R光源41が発生する赤波長光は高周波変調された重畳照射光である。
 光源40が発生した照明光は、第1の光ファイバ45により挿入部11の先端部11Aまで導光され、レンズ15Aを介して被検体へ向けてスポット照射される。先端部11Aには、走査制御部25からの信号に応じて、第1の光ファイバ45の先端の方向を変化させることで照射光を走査する走査部15が配設されている。
 走査部15は、第1の光ファイバ45の先端をX方向およびX方向に直交するY方向に振動する。第1の光ファイバ45を振動させる手段としては、圧電素子を第1の光ファイバ45に取り付けて振動させる方式、および、第1の光ファイバ45に取り付けた永久磁石を電磁コイルで振動させる電磁コイル方式を用いる。第1の光ファイバ45を駆動するときに、圧電素子または電磁コイルなどの駆動素子を、第1の光ファイバ45の共振周波数近傍で駆動させると、小さいエネルギで大きな偏向(変位,振幅)が得られる。
 照明光に照射された被検体からの反射光は、先端部11Aに配置されたレンズ46Aを介して第2の光ファイバ46の先端に集光される。第2の光ファイバ46は反射光を受光素子21まで導光する。なお、第1の光ファイバ45および第2の光ファイバ46のそれぞれは、コネクタ14等において光結合している少なくとも2本の光ファイバからなる。
 なお、図2に示すように、内視鏡装置1では、先端部11Aに1本の第2の光ファイバ46を配設しているが、反射光をより多く受光するために、複数の第2の光ファイバ46を先端部11Aに配置して合波して受光素子21に導光してもよい。
 図3に示すように、内視鏡装置1では、光源40が発生する照射光が被検体の二次元画像を取得するための観察成分と被検体の測定を行うための測定成分とを含む。ここで、観察成分は、カラー画像を取得するために、赤波長成分である赤波長光と、緑波長成分である緑波長光と、青波長成分である青波長光からなる。
 高周波変調された赤波長光は、赤波長成分としての機能だけでなく、タイムオブフライト法を用いて被検体との距離測量(distance measurement)を行うための測定成分の機能を有する。言い替えれば、赤波長光は、観察成分に測定成分が重畳された重畳照射光である。すなわち、照射光の観察成分である赤波長光が高周波変調により測定成分を含んでいる。なお、図3等では図示の都合上、赤波長光等の変調光を実際よりも低い周波数で変調された状態で表現している。
 R光源41、G光源42およびB光源43は、時間差をおいて光を出射する面順次方式である。被検体にスポット照射された照射光は連続的に2次元走査されている。このため、厳密には、赤波長光が照射された場所Aと緑波長光が照射された場所Bと青波長光が照射された場所Cとは異なる。このため、いわゆる色割れが発生し、1本の白色の直線が、赤色の直線、緑色の直線および青色の直線に分かれて見えてしまうおそれがある。しかし、十分に高速にRGB光を切り替えることで、場所A、B、Cを同じ場所として信号処理することができる。なお、赤波長光、緑波長光、および青波長光の光量は同一である必要はない。
 第1の光ファイバ45の先端が走査部15によりXY方向に走査される。走査方式は、所定範囲を均一に照明するために、図4Aに示す螺旋状(渦巻き状)方式、または図4Bに示すラスター状方式等が用いられる。
 例えば、図4A、図4Bに示す走査方式では、R光源41を照射光とする走査がA~Bまで行われ、その反射光により赤フィールドの画像が取得される。次に、G光源42を照射光とする走査がA~Bまで行われ、その反射光により緑フィールドの画像が取得される。さらにB光源43を照射光とする走査がA~Bまで行われ、その反射光により青フィールドの画像が取得される。面順次方式の内視鏡装置1では、赤フィールドの画像と緑フィールドの画像と青フィールドの画像とから、1枚のカラー画像が得られる。
 図5に示すように、反射光は照明光と同じように、観察成分光(G成分、B成分)と観察成分に測定成分が重畳された重畳反射光(R成分)とからなる。
 シリコンからなる受光素子21は、単一の(single)検出層が反射光を電気信号に変換し出力する単一(single)の可視光受光素子である。すなわち、図6に示す受光素子21の検出層21Lは、赤波長から青波長までの可視光域の光を検出する。受光素子21は、検出した反射光にもとづき、観察信号と測定信号とを含む電気信号を出力するフォトダイオードである。観察信号は、R成分とG成分とB成分とからなる。R成分は観察信号に測定成分が重畳された重畳観察信号であるが、積分により、観察信号が抽出される。
 信号処理部22は、RGBの3成分の観察信号を処理し二次元カラー画像データを出力する。画像生成部23は二次元カラー画像データから、図7に示すような二次元カラー画像30Aを出力する。二次元カラー画像30Aは体内の管腔の内視鏡画像である。
 さらに、信号処理部22は、重畳観察信号の測定成分、すなわち高周波変調成分を処理し、測定データとして距離画像(range image)データを出力する。
 図8に示すように、タイムオブフライト法を用いて距離測量(distance measurement)を行うための照射光の測定成分である赤波長成分は、周波数fに高周波変調されている。被検体までの距離をLとすると、反射光は出射光に対して時間差(遅れ)Δtが生じる。
 このため、以下の(式1)により被検体までの距離Lが算出できる。cは光速である。
    2L=c×Δt   (式1)
 なお、(式1)から算出される被検体までの距離Lは、第1の光ファイバ45の長さ(光源40から内視鏡10の挿入部11の先端部14Aまでの距離)L1と、第2の光ファイバ46の長さ(先端部14Aから受光素子21までの距離)L2と、を含む。距離L1、L2は一定であるため、先端部14Aから被検体までの距離をもとに、信号処理部22は距離画像データを算出する。
 変調周波数fの1/1000の位相差Δφを検出する信号処理部22において、R光源41の変調周波数が100MHz~1GHzであれば、分解能1mm以下の距離測量が可能となる。なお、反射光の出射光に対する時間差から距離Lを算出してもよい。
 信号処理部22は、被検体のスポット照射された各点までの距離が計測された距離画像データを出力する。画像生成部23は距離画像データを補間処理し、図9に示すような距離画像30Bを出力する。距離画像30Bは、二次元カラー画像30Aと同じ場所の画像である。
 そして、画像生成部23は、二次元カラー画像30Aと距離画像30Bとから、図10に示す三次元カラー画像30Cを生成する。
 なお、画像生成部23は、二次元カラー画像データと距離画像データとから、三次元カラー画像30Cを生成してもよい。また、モニタ30が立体表示可能な場合には、三次元画像は図10等に示した距離に応じたメッシュ表示ではなく、奥行き情報を含む立体画像であってもよい。
 内視鏡装置1は、受光部が、観察成分にもとづく観察信号と測定成分にもとづく測定信号とを含む電気信号を単一の検出層21Lが出力する単一の受光素子21であるため、構成が簡単である。
 さらに、照明光の観察成分であるR成分が、測定成分の機能を含む重畳照明光である。このため、3つの光源だけで、三次元画像を取得できる。さらに照射光および反射光が可視光であるため、可視光帯において透過率の高い光ファイバを用いることで光の損失を小さくすることができる。
 なお、以上の説明では、R成分が重畳照明光であったが、G成分またはB成分が重畳照明光でもよいし、複数の波長成分、たとえば、R成分およびG成分が重畳照明光でもよいし、R成分、G成分およびB成分が重畳照明光でもよい。
<第2実施形態>
 次に第2実施形態の内視鏡装置1Aについて説明する。内視鏡装置1Aについて説明する。内視鏡装置1Aは、内視鏡装置1と類似しているため、同じ機能の構成要素には同じ符号を付し説明は省略する。
 図11に示すように、内視鏡装置1Aの光源40Aは、R光源41とG光源42とB光源43と赤外光を発生するIR光源44とを有する。赤外光の波長は、例えば750nm~1600nmであるが、好ましくは1400nm以下、特に好ましくは1200nm以下であれば、反射光は生体組織の表面からの反射光が主となるため、表面形状を良好に取得できる。
 受光素子21Aは、単一の検出層21LAが、可視光から赤外光までの広い波長帯の光を電気信号に変換し出力する広帯域受光素子である。
 図12に示すように、光源40Aが発生する照射光は、被検体の二次元画像を取得するための観察成分と被検体の測定を行うための測定成分とを含む。ここで、観察成分は、赤波長成分である赤波長光と、緑波長成分である緑波長光と、青波長成分である青波長光からなる。測定成分は、IR光源44が発生する高周波変調された赤外波長成分である。
 R光源41、G光源42、B光源43およびIR光源44は、時間差をおいて光を出射する。
 図13に示すように、反射光は照明光と同じように、観察成分(R成分、G成分、B成分)と測定成分(IR成分)とからなる。
 受光素子21Aは、可視光波長から赤外波長までの広帯域の光を検出する。そして、受光素子21Aは、観察信号と測定信号とを含む電気信号を出力する。
 信号処理部22は、観察信号を処理し二次元カラー画像データを出力するとともに、測定信号を処理し測定データとして距離画像データを出力する。画像生成部23は二次元カラー画像データおよび距離画像データから三次元カラー画像30Cを生成する。
 内視鏡装置1Aは、内視鏡装置1と同じ効果を有する。そして、観察成分照明光(R、G、B)と測定成分照明光(IR)とが別の波長の光である。このため、3つの観察信号RGBの強度差が小さく、内視鏡装置1よりも色再現性がよい。また、内視鏡装置1よりも、測定成分照明光が長波長であるため、距離測量の精度向上が容易である。
 なお、第1の光ファイバ45、第2の光ファイバ46として、赤波長成分、緑波長成分および青波長成分を導光する第1のコアと、赤外波長成分を導光する第2のコアと、を有するマルチコア光ファイバを用いてもよい。第1のコアは可視光成分(RGB)に対して損失が少なく、第2のコアは赤外光成分(IR)に対して損失の少ない材料からなる。
 また、第1実施形態の内視鏡装置1において、可視光検出型の受光素子21に替えて広帯域受光素子である受光素子21Aを用いてもよい。
 また、光源40Aが、赤外波長成分として、波長1200nm超、好ましくは1400nm超の第1の赤外波長成分と、波長1200nm以下、好ましくは1400nm以下の第2の赤外波長成分と、を順に発生してもよい。波長1200nm以下の第2の赤外波長成分による距離画像30Bは生体組織の表面の三次元画像である。一方、波長1200nm超の第1の赤外波長成分とによる距離画像30Bは生体組織の内部、例えば、表面から数mm下の三次元画像である。すなわち、光源40Aが出射する赤外線の波長を切り替えることで、例えば、生体組織の内部の血管の距離画像を得ることができる。
<第3実施形態>
 次に第3実施形態の内視鏡装置1Bについて説明する。内視鏡装置1Aについて説明する。内視鏡装置1Bは、内視鏡装置1等と類似しているため、同じ機能の構成要素には同じ符号を付し説明は省略する。
 図2および図14に示すように、内視鏡装置1Bの光源40Bは、第1実施形態の光源40と同じように、R光源41とG光源42とB光源43とを有する。ただし、光源40Bでは、R光源41、G光源42、およびB光源43は、同時に光を出射する。すなわち、照明光は、観察成分光(G成分、B成分)と観察成分に測定成分が重畳された重畳照明光(R成分)とからなる混合光である。
 受光素子21Bは、単一の検出層21LBが反射光を電気信号に変換し出力する変調型受光素子である。受光素子21Bは、検出層21LBに印加されたバイアス電圧の強度により受光波長帯が変化する。例えば、ショットキー型検出素子である受光素子21Bは、バイアスが印加されるとショットキー障壁が小さくなり検出可能な波長が長波長側にシフトするため、波長に対する検出感度が変化する。
 受光素子21Bは、図示しない最上層のメッシュ電極等を介して所定の3種類のバイアスが印加されると、3つの異なる強度の電気信号を出力する。それぞれの電気信号は、R、G、Bの3波長帯にもとづく信号を異なる割合で含んでいる。
 バイアス印加による3波長帯の検出感度の変化は既知であるため、3種類の電気信号から、R、G、Bの3波長帯の、それぞれによる信号を算出することができる。
 すなわち、図15に示すように、受光素子21Bは、R成分信号(重畳)とG成分信号とB成分信号とを異なる割合で含んでいる3種類の電気信号A、B、Cを順に出力する。信号処理部22は3種類の電気信号A、B、Cから、R、G、Bの3つの観察信号を分離するとともに、測定信号を取得する。なお、受光素子21Bを含む受光部の演算手段が信号分離処理を行ってもよい。
 内視鏡装置1Bは、内視鏡装置1と同じ効果を有する。さらに、内視鏡装置1Bは、測定成分と全ての観察成分とが同時に被検体に照射されるため、同じ時間の観察画像と測定画像とが得られる。このため、内視鏡装置1Bは、内視鏡装置1等の効果を有し、さらに、色割れが発生するおそれがなく、内視鏡装置1等よりも、2つの画像のマッチングが容易である。
 内視鏡装置1Bは、R光源41、G光源42、およびB光源43は、同時に光を出射するが、受光素子21Bは、RGBの3フィールドの画像を順次、受光する面順次方式であった。これに対して、1走査の間(図4A等で、A~Bの間)に、受光素子21Bのバイアスを高速で変化させることで、1走査の間にRGBの3フィールドの画像と、距離画像と、を得る、いわゆる同時式も可能である。
 同時式では、高周波数でバイアスを変調する必要があるが、変化の激しい被写体であっても、色割れが発生するおそれがなく、距離測量の精度が高い。
 また、R光源41、G光源42、およびB光源43が順に光を出射する場合には、受光素子21Bが照明光の波長切替に同期して受光波長を切り替えても良い。
<第4実施形態>
 次に第4実施形態の内視鏡装置1Cについて説明する。内視鏡装置1Cは、内視鏡装置1~1B等と類似しているため、同じ機能の構成要素には同じ符号を付し説明は省略する。
 図11および図16に示すように、内視鏡装置1Cの光源40Cは、第2実施形態の光源40Aと同じように、R光源41とG光源42とB光源43とIR光源44とを有する。ただし、光源40Cでは光源40Bと同じように、R光源41、G光源42、B光源43およびIR光源44は、同時に光を出射する。すなわち、照明光は、観察成分光(R成分、G成分、B成分)と測定成分光(IR成分)とからなる混合光である。
 図17に示すように、4種類のバイアスが順に印加された広帯域変調型の受光素子21Cは、R成分信号とG成分信号とB成分信号とIR成分信号とを異なる割合で含んでいる4種類の電気信号A、B、C、Dを順に出力する。
 信号処理部22は4種類の電気信号A、B、C、Dから、R、G、Bの3つの観察信号を分離するとともに、測定信号を取得する。なお、受光素子21Cを含む受光部の演算手段が信号分離処理を行ってもよい。
 内視鏡装置1Cは、内視鏡装置1Aの効果と内視鏡装置1Bの効果を有し、さらに変化の激しい被写体であっても、色割れが発生するおそれがなく、距離測量の精度が高い。
 また、R光源41、G光源42、B光源43およびIR光源44が順に光を出射する場合には、受光素子21Cが照明光の波長切替に同期して印加バイアスを変えることで、受光波長帯を切り替えてもよい。
<第5実施形態>
 次に第5実施形態の内視鏡装置1Dについて説明する。内視鏡装置1Dは、内視鏡装置1~1C等と類似しているため、同じ機能の構成要素には同じ符号を付し説明は省略する。
 図18に示すように、内視鏡装置1Dでは、受光素子21Dが内視鏡10の挿入部11の先端部11Aに配置されている。受光素子21Dは、受光素子21と同じ、単一の検出層21Lが反射光を電気信号に変換し出力する単一の可視光受光素子である。検出層21Lが出力する電気信号は信号線21Mを介して信号処理部22に伝送される。
 受光素子21Dは小型であるため、先端部11Aに配置しても、先端部11Aの細径化を妨げることはない。
 内視鏡装置1Dでは、反射光は、第2の光ファイバを介さずに受光素子21に入射する。このため損失が小さく、高感度である。また、第2の光ファイバ46の長さL2により生じる時間差Δtの影響がなくなるため、より距離測量の精度が高い。
 内視鏡装置1A~1Cにおいても、小型の受光素子(受光部)を内視鏡10の挿入部11の先端部11Aに配置することができる。なお、受光素子(受光部)を内視鏡10の把持部12Bに配置してもよい。また光源40を把持部12Bに配置してもよい。
 なお、以上の説明では、被検体の測定として距離計測を例に説明した。しかし、照射光を用いた被検体の測定として、赤外照射光を用いた、発熱量(温度)測定、FI-IR法による水分量の分布、または、照射光により発生する蛍光を検出することで、対応成分の定量測定、ラマン散乱光測定等であってもよい。
 本発明は、上述した各実施例に限定されるものではなく、発明の趣旨を逸脱しない範囲内において種々の変更、組み合わせ、および応用が可能であることは勿論である。
1、1A~1D・・・内視鏡装置
10・・・内視鏡
15・・・走査部
20・・・本体部
21・・・受光素子
21L・・・検出層
22・・・信号処理部
23・・・画像生成部
24・・・制御部
25・・・走査制御部
30・・・モニタ
30A・・・二次元カラー画像
30B・・・距離画像
30C・・・三次元カラー画像
40・・・光源
45・・・第1の光ファイバ
46・・・第2の光ファイバ

Claims (9)

  1.  照射光を発生する光源と、
     導光した前記照射光を先端から被検体へ向けてスポット照射する第1の光ファイバと、
     前記第1の光ファイバの前記先端の方向を変化させることで、前記照射光を走査する走査部と、
     前記照射光が照射された前記被検体からの反射光にもとづく電気信号を出力する受光部と、
     前記電気信号を処理する信号処理部と、を備える内視鏡装置であって、
     前記照射光が、前記被検体の二次元画像を取得するための観察成分と前記被検体の測定を行うための測定成分とを含み、
     前記受光部が、前記観察成分にもとづく観察信号と前記測定成分にもとづく測定信号とを含む前記電気信号を単一の検出層が出力する単一の受光素子であり、
     前記信号処理部が、前記観察信号を処理し二次元画像データを出力するとともに、前記測定信号を処理し測定データを出力することを特徴とする内視鏡装置。
  2.  前記反射光を導光する第2の光ファイバを具備し、
     前記受光部が、前記第2の光ファイバが導光した前記反射光を受光することを特徴とする請求項1に記載の内視鏡装置。
  3.  前記受光部が、内視鏡の挿入部の先端部または把持部に配置されていることを特徴とする請求項1に記載の内視鏡装置。
  4.  前記観察成分が、赤波長成分、緑波長成分および青波長成分からなり、
     前記測定成分が、タイムオブフライト法を用いて前記被検体との距離測量を行うために高周波変調された成分であり、
     前記信号処理部が、前記測定信号を処理し、前記測定データとして距離画像データを出力し、
     前記カラー画像データと前記距離画像データとから、三次元カラー画像を生成する画像生成部をさらに具備することを特徴とする請求項1から請求項3のいずれか1項に記載の内視鏡装置。
  5.  前記赤波長成分、前記緑波長成分および前記青波長成分の少なくともいずれかが高周波変調された、前記測定成分を含む重畳光であり、
     前記電気信号が、前記観察信号に前記測定信号が重畳された重畳信号を含むことを特徴とする請求項4に記載の内視鏡装置。
  6.  前記受光素子は、可視光受光素子であることを特徴とする請求項5に記載の内視鏡装置。
  7.  前記測定成分が、赤外波長成分であることを特徴とする請求項5に記載の内視鏡装置。
  8.  前記受光素子は、広帯域受光素子であることを特徴とする請求項5から請求項7のいずれか1項に記載の内視鏡装置。
  9.  前記受光素子は、電気信号による変調型受光素子であることを特徴とする請求項5から請求項7のいずれか1項に記載の内視鏡装置。
PCT/JP2015/063467 2015-05-11 2015-05-11 内視鏡装置 WO2016181452A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017517476A JP6508638B2 (ja) 2015-05-11 2015-05-11 内視鏡装置
PCT/JP2015/063467 WO2016181452A1 (ja) 2015-05-11 2015-05-11 内視鏡装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/063467 WO2016181452A1 (ja) 2015-05-11 2015-05-11 内視鏡装置

Publications (1)

Publication Number Publication Date
WO2016181452A1 true WO2016181452A1 (ja) 2016-11-17

Family

ID=57248136

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/063467 WO2016181452A1 (ja) 2015-05-11 2015-05-11 内視鏡装置

Country Status (2)

Country Link
JP (1) JP6508638B2 (ja)
WO (1) WO2016181452A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11992192B2 (en) 2018-07-23 2024-05-28 Olympus Corporation Endoscope apparatus

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0542097A (ja) * 1991-08-16 1993-02-23 Olympus Optical Co Ltd 三次元計測用内視鏡装置
JPH10239031A (ja) * 1997-02-28 1998-09-11 Olympus Optical Co Ltd 三次元計測装置
JPH11214737A (ja) * 1998-01-29 1999-08-06 Fuji Xerox Co Ltd 半導体受光素子とその製造方法、およびそれを用いた光センサ
JP2009538672A (ja) * 2006-05-30 2009-11-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 組織属性の奥行き解像された測定のための装置
JP2011036592A (ja) * 2009-08-18 2011-02-24 Hoya Corp 内視鏡装置
JP2011505193A (ja) * 2007-11-30 2011-02-24 セント・ジュード・メディカル・エイトリアル・フィブリレーション・ディヴィジョン・インコーポレーテッド 磁場制御および誘導のための磁気先端部を有する灌流アブレーションカテーテル

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005087468A (ja) * 2003-09-17 2005-04-07 Shoji Kawahito 距離画像計測機能を有する撮像装置及び内視鏡装置
EP1954193B1 (en) * 2005-11-23 2013-03-06 University of Washington Scanning beam with variable sequential framing using interrupted scanning resonance

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0542097A (ja) * 1991-08-16 1993-02-23 Olympus Optical Co Ltd 三次元計測用内視鏡装置
JPH10239031A (ja) * 1997-02-28 1998-09-11 Olympus Optical Co Ltd 三次元計測装置
JPH11214737A (ja) * 1998-01-29 1999-08-06 Fuji Xerox Co Ltd 半導体受光素子とその製造方法、およびそれを用いた光センサ
JP2009538672A (ja) * 2006-05-30 2009-11-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 組織属性の奥行き解像された測定のための装置
JP2011505193A (ja) * 2007-11-30 2011-02-24 セント・ジュード・メディカル・エイトリアル・フィブリレーション・ディヴィジョン・インコーポレーテッド 磁場制御および誘導のための磁気先端部を有する灌流アブレーションカテーテル
JP2011036592A (ja) * 2009-08-18 2011-02-24 Hoya Corp 内視鏡装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11992192B2 (en) 2018-07-23 2024-05-28 Olympus Corporation Endoscope apparatus

Also Published As

Publication number Publication date
JPWO2016181452A1 (ja) 2017-11-30
JP6508638B2 (ja) 2019-05-08

Similar Documents

Publication Publication Date Title
JP5025877B2 (ja) 走査型単一光ファイバシステムを用いる医療用画像化、診断および治療
EP2653091B1 (en) Scanning endoscope device
JP6246740B2 (ja) 高分解能画像走査のための拡張された焦点深度
US20080221388A1 (en) Side viewing optical fiber endoscope
JP2007526014A (ja) 走査内視鏡
US11759099B2 (en) Optical scanning imaging/projection apparatus and endoscope system
JP2015508685A5 (ja)
JP2011217836A (ja) 電子内視鏡装置
EP3241481B1 (en) Dual path endoscope
EP2801315B1 (en) Scanning endoscope apparatus
US10568495B2 (en) Scanning endoscope system
JP2011217835A (ja) 内視鏡の形状検出装置
JP6508638B2 (ja) 内視鏡装置
JP6508640B2 (ja) 内視鏡装置
KR102112229B1 (ko) 가시광 및 근적외선 광을 모두 가시화할 수 있는 내시경 장치
JP6508639B2 (ja) 内視鏡装置
JP6238751B2 (ja) 走査型観察装置
JP5242304B2 (ja) 観測システム
KR20190075795A (ko) 다중 영상 내시경 시스템
US20180103835A1 (en) Scanning-endoscope image evaluation system
JP2011125598A (ja) 内視鏡装置
JP2017086549A (ja) 走査型内視鏡装置
JP6028134B1 (ja) 生体観察システム
JP7261301B2 (ja) 光学装置、光源装置、集光方法及び内視鏡システム
WO2017203711A1 (ja) 走査型内視鏡システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15891778

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017517476

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15891778

Country of ref document: EP

Kind code of ref document: A1