WO2020021590A1 - 内視鏡装置 - Google Patents

内視鏡装置 Download PDF

Info

Publication number
WO2020021590A1
WO2020021590A1 PCT/JP2018/027467 JP2018027467W WO2020021590A1 WO 2020021590 A1 WO2020021590 A1 WO 2020021590A1 JP 2018027467 W JP2018027467 W JP 2018027467W WO 2020021590 A1 WO2020021590 A1 WO 2020021590A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
unit
light amount
pulse
subject
Prior art date
Application number
PCT/JP2018/027467
Other languages
English (en)
French (fr)
Inventor
福島 郁俊
西村 淳一
篤義 嶋本
雙木 満
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2020531837A priority Critical patent/JP7046187B2/ja
Priority to PCT/JP2018/027467 priority patent/WO2020021590A1/ja
Publication of WO2020021590A1 publication Critical patent/WO2020021590A1/ja
Priority to US17/154,083 priority patent/US11992192B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/042Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by a proximal camera, e.g. a CCD camera
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • A61B1/00013Operational features of endoscopes characterised by signal transmission using optical means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00165Optical arrangements with light-conductive means, e.g. fibre optics
    • A61B1/00167Details of optical fibre bundles, e.g. shape or fibre distribution
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00194Optical arrangements adapted for three-dimensional imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4868Controlling received signal intensity or exposure of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar

Definitions

  • the present invention relates to an endoscope device.
  • an endoscope apparatus having a function of measuring a distance to a subject is known (for example, see Patent Document 1).
  • the endoscope device of Patent Document 1 includes a laser light source and a time-of-flight (ToF) type distance measuring sensor.
  • the ToF distance measuring sensor measures the distance based on the time ⁇ t from the start of turning on the laser light to the detection of the reflected light of the laser light.
  • the endoscope apparatus disclosed in Patent Document 1 irradiates a laser beam diffused by a lens onto a subject surface and detects reflected light from each position on the subject surface, thereby scanning the subject surface without scanning the laser beam. The distance information of each position above is acquired.
  • the distance measuring sensor is disposed at the tip of the insertion section. Therefore, when the distance to the subject is small, the time ⁇ t becomes extremely small. In order to measure an extremely short time ⁇ t with high accuracy, a distance measuring sensor having an extremely high processing speed is required, and there is a problem that it is difficult to measure the time ⁇ t and a short distance with high accuracy.
  • the present invention has been made in view of the above circumstances, and can measure distances to a plurality of positions of a subject without scanning a laser beam, and can measure short distances with high accuracy. It is an object of the present invention to provide an endoscope device capable of performing the above.
  • One embodiment of the present invention is an irradiation unit that irradiates the subject with pulsed light from the tip of the insertion unit, and is arranged at the tip of the insertion unit, forms an image of reflected light of the pulsed light from the subject, and forms an image of the subject.
  • An image forming optical system that forms an image, an image transmitting unit that is disposed in the insertion unit along the longitudinal direction, and transmits the image of the subject to the base end side of the insertion unit, and a light receiving unit in which a plurality of pixels are arranged
  • a light sensor for detecting, by the plurality of pixels, a light amount of the image transmitted to the light receiving surface by the image transmission unit; and the imaging optical system based on the light amount detected by the plurality of pixels.
  • a calculation unit for calculating an observation distance from the object to the subject, wherein the optical sensor obtains a first light amount and a second light amount by detecting the reflected light in each of the pixels in a time-division manner. Light intensity is integrated during the first period The amount of the reflected light, the second amount of light is the amount of the reflected light integrated during a second period, and the arithmetic unit calculates the first amount of light and the first amount of light in each of the pixels detected by the optical sensor.
  • An endoscope apparatus for calculating an observation distance from the imaging optical system to each position of the subject based on the second light amount.
  • the present invention it is possible to measure distances to a plurality of positions of a subject without scanning laser light, and to measure a short observation distance with high accuracy.
  • FIG. 1 is an overall configuration diagram of an endoscope apparatus according to a first embodiment of the present invention.
  • FIG. 2 is a timing chart illustrating operations of a light source and a ToF sensor of the endoscope apparatus of FIG. 1.
  • FIG. 2 is a diagram illustrating an influence on reflected light L ′ due to mode dispersion and attenuation of a light amount when an optical fiber bundle is used for an image transmission unit of the endoscope apparatus in FIG. 1.
  • FIG. 4 is an overall configuration diagram of a modification of the endoscope device of FIG. 1.
  • FIG. 6 is an overall configuration diagram of an endoscope apparatus according to a second embodiment of the present invention. 6 is a flowchart illustrating an operation of the endoscope apparatus of FIG.
  • FIG. 6 is a flowchart illustrating a modification of the operation of the endoscope apparatus of FIG. 5.
  • FIG. 9 is an overall configuration diagram of an endoscope apparatus according to a third embodiment of the present invention.
  • FIG. 13 is an overall configuration diagram of an endoscope apparatus according to a fourth embodiment of the present invention.
  • FIG. 10 is an overall configuration diagram of a modified example of the endoscope device of FIG. 9.
  • FIG. 11 is an overall configuration diagram of another modification of the endoscope device of FIG. 9.
  • FIG. 11 is an overall configuration diagram of another modification of the endoscope device of FIG. 9.
  • FIG. 11 is an overall configuration diagram of another modification of the endoscope device of FIG. 9.
  • FIG. 14 is a diagram illustrating an example of a ToF sensor with a color filter array of the endoscope device of FIG. 13.
  • an endoscope device 100 includes a long insertion portion 1 inserted into an observation target having a subject A, and a main body connected to a base end of the insertion portion 1.
  • the display device includes a unit 2 and a display unit 3 connected to the main unit 2.
  • the endoscope apparatus 100 includes an irradiation unit 4, a light emission control unit 5, an imaging optical system 6, an image transmission unit 7, an optical sensor 8, and a calculation unit 9.
  • the irradiation unit 4, the imaging optical system 6, and the image transmission unit 7 are arranged in the insertion unit 1.
  • the light emission control unit 5, the optical sensor 8, and the calculation unit 9 are arranged in the main unit 2.
  • the irradiation unit 4 includes a small light source 41 such as an LED, and a control circuit 42 provided integrally with the light source 41 and controlling the light source 41.
  • the light source 41 is arranged at the tip of the insertion section 1.
  • the number of the light sources 41 may be only one or a plurality.
  • the control circuit 42 is connected to the light emission control unit 5 and causes the light source 41 to generate pulse light L in response to a control signal from the light emission control unit 5.
  • the pulse light L generated by the light source 41 is applied to the subject A facing the tip of the insertion section 1.
  • the pulse light L is divergent light and is applied to a two-dimensional area on the surface of the subject A.
  • the light emission control unit 5 generates a control signal for controlling the pulse width ⁇ W of the pulse light L, the light amount, and the like, and transmits the control signal to the control circuit 42.
  • the light emission control unit 5 causes the light source 41 to generate the pulse light L at a fixed time cycle by transmitting a control signal to the control circuit 42 at a fixed time cycle.
  • the imaging optical system 6 includes a single or a plurality of lenses, and is provided at the distal end of the insertion section 1.
  • the imaging optical system 6 has a field of view including a measurement region of the subject A to which the pulse light L is irradiated.
  • the imaging optical system 6 receives the reflected light L ′ of the pulse light L from the subject A, forms an image of the reflected light L ′, and forms an image of the subject A.
  • the reflected light L ' is light in a pulse form having a time width corresponding to the pulse width? W.
  • the subject A may be observed while the tip of the insertion section 1 is in contact with the subject A or in a state where the tip of the insertion section 1 is close to the subject A.
  • the imaging optical system 6 can observe both near point and far point images, and has an observation distance of, for example, 0 mm to 100 mm.
  • the image transmission unit 7 is an optical system that transmits an optical image, and is, for example, an optical fiber bundle or a relay optical system.
  • the image transmission unit 7 is disposed in the insertion unit 1 over substantially the entire length of the insertion unit 1, and optically connects the imaging optical system 6 to the optical sensor 8 in the main body 2.
  • the image transmitting unit 7 transmits the image of the subject A formed by the imaging optical system 6 to the light receiving surface of the optical sensor 8, and re-images the image on the light receiving surface.
  • An image of the subject A is formed on the light receiving surface of the ToF sensor 8 over a period corresponding to the pulse width of the pulse light L.
  • the image transmission section 7 preferably has an optical path length longer than the maximum observation distance of the imaging optical system 6. For example, the length of each of the insertion section 1 and the image transmission section 7 is 2 m.
  • the optical sensor 8 is a two-dimensional indirect ToF (Time ⁇ Of ⁇ Flight) sensor having a two-dimensional array of a plurality of pixels.
  • the two-dimensional array is provided on the light receiving surface.
  • FIG. 2 shows the operation of each pixel of the ToF sensor 8.
  • the reflected light L ' reaches the ToF sensor 8 at the same time cycle as the time cycle of the pulse light L.
  • the ToF sensor 8 detects the amount of light of the image of the subject A on the light receiving surface by each pixel of the two-dimensional array in synchronization with the cycle of emission of the pulse light L from the irradiation unit 4.
  • Each pixel detects the amount of one reflected light L 'during one detection period.
  • the length of one detection period is set to a length including all of one reflected light L 'based on the pulse width? W.
  • one detection period is equally divided into two periods (the first gate G1 and the second gate G2).
  • the first gate G1 and the second gate G2 correspond to a first period and a second period, respectively, according to the present invention.
  • Each pixel detects the light amount of one reflected light L ′ in a time-division manner by the first gate G1 and the second gate G2, thereby obtaining the integrated light amount S1 of the reflected light L ′ in the first gate G1 and the second gate G1.
  • the integrated light amount S2 of the reflected light L 'in G2 is obtained.
  • the first gate G1 is a period from time t0 to time t1
  • the second gate G2 is a period from time t1 to time t2.
  • Time t0 is the time when the light source 41 generates the pulse light L.
  • Time t2 is a time between the end of the reflected light L 'and the start of the next reflected light L'.
  • Each pixel integrates the light amount of the reflected light L 'from time t0 to time t1 under the control of the first shutter, and obtains the integrated light amount of the reflected light L' as a first light amount S1. Subsequently, each pixel integrates the light amount of the reflected light L 'from time t1 to time t2 under the control of the second shutter, and obtains the integrated light amount of the reflected light L' as a second light amount S2.
  • a delay time ⁇ t occurs between the time when the light source 41 generates the pulse light L at the time t0 and the time when the start end of the reflected light L ′ reaches the ToF sensor 8.
  • the delay time ⁇ t depends on the observation distance D from the tip of the imaging optical system 6 to each position of the subject A. Therefore, the first light amount S1 and the second light amount S2 change according to the observation distance D. That is, the longer the observation distance D, the longer the delay time ⁇ t. As a result, the first light amount S1 decreases and the second light amount S2 increases. Conversely, as the observation distance D decreases, the delay time ⁇ t decreases, and as a result, the first light amount S1 increases and the second light amount S2 decreases.
  • the calculation unit 9 calculates a ratio S1 / S2 of the first light amount to the second light amount S2 from the first light amount S1 and the second light amount S2 detected by each pixel. Subsequently, the calculation unit 9 calculates the delay time ⁇ t from the ratio S1 / S2, and calculates the observation distance D from the delay time ⁇ t. The calculation unit 9 calculates the observation distance D from the light amounts S1 and S2 detected by all the pixels. The calculation unit 9 creates a two-dimensional distance map in which each pixel has a value corresponding to the observation distance D, and causes the display unit 3 to display the distance map. For example, each pixel of the distance map has a color corresponding to the viewing distance D.
  • the display unit 3 is an arbitrary type of display device, for example, a liquid crystal display.
  • the light emission control unit 5 and the calculation unit 9 are realized by a processor and a storage device provided in the main unit 2. That is, the storage device stores a control program and a calculation program.
  • the processor executes the above control processing by the light emission control unit 5 according to the control program, and executes the above calculation processing by the arithmetic unit 9 according to the calculation program.
  • the pulse light L generated by the irradiation unit 4 is applied to the subject A from the tip of the insertion unit 1, and the image of the subject A based on the reflected light L 'is formed into an image forming optical system. Formed by the system 6.
  • the image is transmitted from the imaging optical system 6 at the tip of the insertion section 1 to the ToF sensor 8 in the main body 2 by the image transmission section 7, and the image of the subject A is re-imaged on the light receiving surface of the ToF sensor 8. .
  • the ToF sensor 8 and the calculation unit 9 measure an observation distance D between the imaging optical system 6 and each position of the subject A by an indirect ToF method. Specifically, each pixel of the ToF sensor 8 detects the amount of light of the image of the subject A in a time-division manner by two time gates G1 and G2. That is, each pixel detects the first light amount S1 by integrating the amount of reflected light L 'in the first gate G1, and then integrates the amount of reflected light L' in the second gate G2. The second light amount S2 is detected. Next, the calculation unit 9 calculates an observation distance D to each position on the surface of the subject A corresponding to each pixel from the ratio S1 / S2 detected by each pixel. Next, in the calculation unit 9, a two-dimensional distance map is created from the observation distances D of all pixels, and the distance map is displayed on the display unit 3.
  • the light amounts S1 and S2 are proportional to the gate widths ⁇ G1 and ⁇ G2.
  • the optimum gate widths ⁇ G1 and ⁇ G2 for the near point are ⁇ W / 2 + ⁇ tmin
  • the optimum gate widths ⁇ G1 and ⁇ G2 for the far point are ⁇ W / 2 + ⁇ tmax.
  • ⁇ tmin is the delay time at the closest point
  • ⁇ tmax is the delay time at the farthest point.
  • the optimal gate width ratio ( ⁇ W / 2 + ⁇ tmin) / ( ⁇ W / 2 + ⁇ tmax) between the near point and the far point In the distance measurement by the endoscope apparatus 100, the observation distance D is about 0 mm to 300 mm, and ⁇ tmin approaches zero at a near point. Therefore, it is theoretically difficult to reduce the ratio.
  • the ToF sensor 8 is arranged at a position apart from the imaging optical system 6 at the distal end of the insertion section 1 in the longitudinal direction of the insertion section 1. Then, the reflected light L ′ is guided by the long image transmission unit 7 from the imaging optical system 6 at the distal end of the insertion unit 1 to the ToF sensor 8 at the base end side of the insertion unit 1. Thereby, the optical path length of the reflected light L 'corresponding to the length of the insertion section 1 is ensured, and even if the observation distance D is zero or substantially zero, a delay time ⁇ t of a certain size is ensured.
  • the indirect ToF method that calculates the delay time ⁇ t from the ratio S1 / S2 can measure a small delay time ⁇ t with higher accuracy than the direct ToF method that directly measures the delay time ⁇ t.
  • the observation distance D at or near zero can be measured with high accuracy. is there.
  • ⁇ Circle around (2) ⁇ A two-dimensional image of the subject A is formed on the light receiving surface of the ToF sensor 8, and the observation distance D to each position on the surface of the subject A is measured by each pixel.
  • two-dimensional distance information of the subject A can be obtained without two-dimensionally scanning the laser light. Based on the distance map, for example, information on the shape of a tumor can be obtained in the medical field, and information on the shape and depth of a crack in a structure can be obtained in the industrial field.
  • the length P0 of the image transmission unit 7 through which the pulse light L and the reflected light L 'pass in the insertion unit 1 and the main body 2 is larger than the maximum observation distance D (P0> D).
  • P0> 300 mm is satisfied.
  • the pulse width ⁇ W of the pulse light L preferably satisfies the following expression. ⁇ W [sec]> n ⁇ P0 [m] / c [m / sec] n is a refractive index of an optical path through which the pulse light L and the reflected light L ′ pass in the insertion section 1 and the main body 2, for example, a refractive index of the image transmission section 7. c is the light speed of the pulse light L.
  • the mode dispersion and the attenuation of the light amount of the optical fiber bundle cause a delay in the detected reflected light L 'and a decrease in the light amount.
  • the solid line shows the reflected light L 'when there is no influence of the mode dispersion and the light amount attenuation by the optical fiber bundle
  • the broken line shows the reflected light L when there is the influence of the mode dispersion and the light amount attenuation by the optical fiber bundle. 'Is shown.
  • the pulse width ⁇ W is also long corresponding to the optical path length of the image transmission unit 7.
  • the pulse width ⁇ W satisfies the above condition.
  • the calculation unit 9 may calculate the sum of the light amounts S1 and S2 in addition to the calculation of the observation distance D.
  • the sum S1 + S2 is the signal value of the image of the subject A based on the intensity of the reflected light L '.
  • the calculation unit 9 may create a two-dimensional image of the subject A based on the signal value, and display the image on the display unit 3 simultaneously with the distance map.
  • the distance map and the image may be stored in a storage device in the main unit 2.
  • the pulse light L penetrates from the surface of the subject A to the inside, is reflected inside the subject A, and is emitted from the surface of the subject A.
  • the reflected light L ' has a delay corresponding to the penetration depth in the subject A, and the distance calculated from the ratio S1 / S2 includes the penetration depth.
  • the penetration depth of the pulse light L in the subject A depends on the wavelength of the pulse light L and is, for example, about several millimeters.
  • the calculation unit 9 may calculate the observation distance D in consideration of the delay time based on the penetration of the pulse light L into the subject A. Specifically, the calculation unit 9 holds a correction value.
  • the correction value is a penetration depth (for example, 2 mm) of the pulse light L calculated experimentally or theoretically, and is set in the main body 2 by a user, for example.
  • the calculation unit 9 calculates, as the observation distance D, a value obtained by subtracting the correction value from the distance calculated from the ratio S1 / S2. Thereby, a more accurate observation distance D can be calculated.
  • the light source 41 is disposed at the distal end of the insertion section 1.
  • the unit 4 may further include the light guide unit 10.
  • the light guide unit 10 is an optical member that guides the pulse light L, and is, for example, an optical fiber or an optical fiber bundle.
  • the light guide unit 10 is disposed in the insertion unit 1 along the longitudinal direction, and guides the pulse light L from the light source 41 to the tip of the insertion unit 1. By removing the light source 41 and the control circuit 42 from the distal end of the insertion section 1, the distal end of the insertion section 1 can be made thinner.
  • the delay time ⁇ t can be increased by the length of the optical path of the light guide 10.
  • a re-imaging optical system 11 may be provided between the image transmission unit 7 and the ToF sensor 8.
  • the re-imaging optical system 11 re-images the image transmitted by the image transmission unit 7 on the light receiving surface of the ToF sensor 8.
  • it is not necessary to directly connect the base end of the image transmission unit 7 and the ToF sensor 8. Therefore, it is possible to improve the degree of freedom in designing the arrangement and the type of the ToF sensor 8. Further, an optical path length is secured between the image transmission unit 7 and the ToF sensor 8, and the delay time ⁇ t is further increased.
  • the endoscope device 200 includes an insertion unit 1, a main unit 2, and a display unit 3. Further, the endoscope apparatus 200 includes an irradiation unit 4, a light emission control unit 5, an imaging optical system 6, an image transmission unit 7, an optical sensor 8, an arithmetic unit 9, and an adjustment unit 12. I have.
  • the adjustment unit 12 receives the ratio S1 / S2 from the calculation unit 9 and causes the light emission control unit 5 and the ToF sensor 8 to adjust the pulse width ⁇ W and the gate widths ⁇ G1 and ⁇ G2 based on the ratio S1 / S2.
  • FIG. 6 shows an operation of the endoscope apparatus 200 related to the adjustment of the pulse width ⁇ W and the gate widths ⁇ G1 and ⁇ G2.
  • pulse light L is emitted from the light source 41 (step S1)
  • the first light amount S1 and the second light amount S2 are detected by the ToF sensor 8 (step S2)
  • the adjustment unit 12 compares the ratio S1 / S2 with a predetermined lower limit value Rmin and a predetermined upper limit value Rmax (Rmax> Rmin) (Step S4).
  • the adjustment unit 12 When the ratio S1 / S2 is larger than the lower limit value Rmin and smaller than the upper limit value Rmax (YES in step S4), the adjustment unit 12 does not adjust the pulse width ⁇ W and the gate widths ⁇ G1, ⁇ G2, and the arithmetic unit 9 sets the ratio.
  • the observation distance D is calculated from S1 / S2 (step S5).
  • the adjustment unit 12 adjusts the pulse width ⁇ W and the gate widths ⁇ G1, ⁇ G2 (steps S6 to S8). ). Specifically, when the ratio S1 / S2 is equal to or more than the upper limit value Rmax (NO in step S6), the adjusting unit 12 reduces the pulse width ⁇ W and increases the gate widths ⁇ G1 and ⁇ G2 (step S7). .
  • the adjusting unit 12 increases the pulse width ⁇ W and shortens the gate widths ⁇ G1 and ⁇ G2 (step S8). Adjustment of the pulse width ⁇ W and the gate widths ⁇ G1 and ⁇ G2 is performed according to an adjustment signal transmitted from the adjustment unit 12 to each of the light emission control unit 5 and the ToF sensor 8.
  • steps S1 to S4 are executed again, and the pulse width ⁇ W and the gate widths ⁇ G1 and ⁇ G2 are reduced until the ratio S1 / S2 becomes larger than the lower limit value Rmin and smaller than the upper limit value Rmax. The adjustment is repeated. In steps S7 and S8, only one of the pulse width ⁇ W and the gate widths ⁇ G1 and ⁇ G2 may be adjusted.
  • the adjustment unit 12 is realized by a processor and a storage device provided in the main unit 2, similarly to the light emission control unit 5 and the calculation unit 9.
  • the processor executes the adjustment processing of the adjustment unit 12 according to the adjustment program stored in the storage device.
  • the ratio S1 / S2 is excessively large or excessively small, the calculation accuracy of the observation distance D decreases.
  • the ratio S1 / S2 is set to be within an appropriate range that is larger than the lower limit value Rmin and smaller than the upper limit value Rmax.
  • At least one of the pulse width ⁇ W and the gate widths ⁇ G1 and ⁇ G2 is adjusted, and the observation distance D is calculated from the adjusted ratio S1 / S2.
  • the observation distance D can be measured with higher accuracy in the entire measurement area of the subject A.
  • the calculation unit 9 calculates the sum S1 + S2 (step S31).
  • the adjustment unit 12 compares the sum S1 + S2 with a predetermined lower limit Smin and a predetermined upper limit Smax (Smax> Smin) (step S41). When the sum S1 + S2 is equal to or greater than the upper limit value Smax (NO in step S61), the adjustment unit 12 reduces the light amount of the pulse light L (step S71). On the other hand, when the sum S1 + S2 is equal to or smaller than the lower limit Smin (YES in step S61), the adjustment unit 12 increases the light amount of the pulse light L (step S81). The adjustment of the light amount of the pulse light L is performed according to an adjustment signal transmitted from the adjustment unit 12 to the light emission control unit 5.
  • the adjusting unit 12 may adjust the gate widths ⁇ G1 and ⁇ G2 instead of the light amount of the pulse light L in steps S71 and S81.
  • the endoscope device 300 includes an insertion unit 1, a main unit 2, and a display unit 3.
  • the endoscope apparatus 300 includes an irradiation unit 4, a light emission control unit 5, an imaging optical system 6, an image transmission unit 7, an optical sensor 8, and a calculation unit 9.
  • the irradiation unit 4 includes the light guide unit 10, and the light source 41 is disposed in the main body 2.
  • the irradiating unit 4 includes a reference light generating unit 13 and a reference light guiding unit 14.
  • the reference light generation unit 13 is a half mirror disposed at the tip of the light guide unit (first light guide unit) 10.
  • the half mirror is formed, for example, by partially coating the distal end surface of the light guide unit 10 with metal.
  • the reference light generator 13 reflects a part of the pulse light L guided by the light guide 10.
  • the other part of the pulse light L guided by the light guiding unit 10 is emitted from the tip of the insertion unit 1.
  • the pulse light L reflected by the reference light generation unit 13 guides the light guide unit 10 toward the base end as the reference light Ls.
  • the reference light guide section (second light guide section) 14 is, for example, an optical fiber or an optical fiber bundle, and branches off from a position in the longitudinal direction of the light guide section 10.
  • the reference light Ls proceeds from the light guide 10 to the reference light guide 14, and is guided to the ToF sensor 8 by the reference light guide 14.
  • the light receiving surface of the ToF sensor 8 is divided into a first detection area and a second detection area.
  • the reflected light L 'transmitted by the image transmission unit 7 is incident on the first detection area, and an image of the subject A is formed.
  • the reference light Ls guided by the reference light guide unit 14 is incident on the second detection region.
  • Each pixel in the first detection region detects the first light amount S1 and the second light amount S2 of the reflected light L ′, and each pixel in the second detection region detects the first light amount (first reference light amount) S1 of the reference light Ls.
  • the calculation unit 9 calculates the delay time ⁇ t and the observation distance D from the ratio S1 / S2 of the light amounts S1 and S2 detected by the pixels in the first detection area.
  • the calculation unit 9 calculates the reference delay time ⁇ ts from the ratio S1 / S2 of the reference light amounts S1 and S2 detected by the pixels in the second detection area, and calculates the ToF from the light source 41 in the insertion unit 1 and the main unit 2.
  • the reference light path length of the pulse light L and the reference light Ls up to the sensor 8 is calculated.
  • the reference delay time ⁇ ts is a time from when the light source 41 generates the pulse light L to when the reference light Ls reaches the ToF sensor 8.
  • the optical path length of the pulse light L and the reflected light L ′ in the endoscope device 300 may change in accordance with a change in the surrounding environment (for example, temperature and humidity) of the endoscope device 300.
  • the change in the optical path length of the pulse light L and the reflected light L ′ affects the observation distance D calculated by the calculation unit 9 and causes an error in the observation distance D.
  • the optical path length of the reference light Ls guided in the endoscope apparatus 300 is changed to the surrounding environment. It changes according to the change of.
  • the change in the optical path length in the endoscope apparatus 300 appears as a change in the reference delay time ⁇ ts calculated from the ratio between the first reference light amount S1 and the second reference light amount S2. Therefore, the error of the observation distance D due to the change in the optical path length of the light L, L ′ in the endoscope device 300 is more specifically referred to based on the first reference light amount S1 and the second reference light amount S2.
  • the correction can be made based on the change in the optical path length.
  • the computing unit 9 estimates the amount of change in the optical path length in the endoscope device 300 by comparing the reference optical path length calculated from the reference light amounts S1 and S2 with the reference optical path length in a standard surrounding environment.
  • the observation distance D is corrected based on the amount of change in the optical path length.
  • the accurate observation distance D can be stably measured regardless of changes in the surrounding environment.
  • the endoscope device 400 includes an insertion section 1, a main body section 2, and a display section 3, as shown in FIG. Further, the endoscope apparatus 400 includes an irradiation unit 4, a light emission control unit 5, an imaging optical system 6, an image transmission unit 7, an optical sensor 8, an arithmetic unit 9, a re-imaging optical system 11, , A color separation element 15, an imaging element 16, and a color image generation unit 17.
  • the irradiation unit 4 includes the light guide unit 10, and the light source 41 is disposed inside the main body 2.
  • the light source 41 generates red (R), green (G), and blue (B) light Lr, Lg, and Lb.
  • the R light Lr is a pulse light for measuring the observation distance D.
  • the G light Lg and the B light Lb are continuous lights for acquiring an image of the subject A. In the subject A, pulsed R reflected light Lr ', continuous reflected G light Lg' and B reflected light Lg 'are generated.
  • the color separation element 15 is arranged between the image transmission unit 7 and the ToF sensor 8.
  • the color separation element 15 separates the R reflected light Lr 'and the G and B reflected lights Lg' and Lb 'from each other by wavelength.
  • the color separation element 15 is, for example, a dichroic mirror that transmits red light and reflects green and blue light.
  • the R reflected light Lr ′ enters the ToF sensor 8 from the color separation element 15, and the G reflected light Lg ′ and the B reflected light Lb ′ enter the imaging element 16 from the color separation element 15.
  • the re-imaging optical system 11 re-images the R reflected light Lr ′ on the light receiving surface of the ToF sensor 8 and re-images the G reflected light Lg ′ and the B reflected light Lb ′ on the light receiving surface of the image sensor 16.
  • the image sensor 16 is an RGB two-dimensional image sensor such as a CMOS image sensor. The image sensor 16 captures an image of the subject A and generates an image signal. The image signal is transmitted from the image sensor 16 to the color image generator 17.
  • the color image generation unit 17 generates a two-dimensional color image of the subject A from the image signal.
  • the color image is displayed on the display unit 3 together with the distance map.
  • the color image and the distance map may be transmitted to the display unit 3 after being associated with each other in the main unit 2.
  • the color image generation unit 17 is realized by a processor and a storage device provided in the main unit 2, similarly to the light emission control unit 5 and the calculation unit 9. That is, the processor executes the image generation processing by the color image generation unit 17 according to the image generation program stored in the storage device.
  • the subject A is irradiated with the continuous lights Lg and Lb having different colors from the pulse light Lr at the same time as the pulse light Lr, and the reflected light Lr ′ and the reflected lights Lg ′ and Lr ′ are generated. Separating each other by color has the advantage that a color image of the subject A can be obtained simultaneously with the measurement of the observation distance D.
  • the R light Lr is used for measuring the observation distance D, but the wavelength of the pulse light for measuring the observation distance D is not limited to this, and the wavelength of the continuous light for image acquisition is as follows. Pulse light of a different arbitrary wavelength can be used.
  • the irradiation unit 4 may further include a white light source 43 that generates white light Lw.
  • the white light Lw is continuous light.
  • the pulse light L is light having a wavelength other than the visible region, and is, for example, infrared light.
  • the color combining element 18 is arranged between the two light sources 41 and 43 and the light guide 10. The color combining element 18 combines the pulse light L from the light source 41 and the white light Lw from the white light source 43.
  • the color combining element 18 is, for example, a dichroic mirror.
  • the color separation element 15 separates the reflected light L ′ of the pulse light L and the reflected light Lw ′ of the white light Lw from each other according to the wavelength.
  • the reflected light L ′ is incident on the ToF sensor 8 from the color separation element 15, and the reflected light Lw ′ is incident on the imaging element 16 from the color separation element 15.
  • a white light image including more color information of the subject A can be acquired by the imaging device 16.
  • the color separation element 15 and the imaging element 16 are arranged between the imaging optical system 6 and the image transmission section 7 at the distal end of the insertion section 1.
  • the configuration may be such that only the reflected light L ′ of the pulse light L is incident on the image transmission unit 7 from the color separation element 15.
  • a ToF sensor 81 having a color separation function may be used instead of including the color separation element 15 and the imaging element 16.
  • the ToF sensor 81 having a color separation function includes a color filter array 81a that covers a two-dimensional array 81b of pixels.
  • the color filter array 81a is a two-dimensional array of R filters, G filters, and B filters.
  • the R, G, and B filters selectively transmit red, green, and blue light, respectively. That is, the ToF sensor 81 also functions as an RGB two-dimensional image sensor.
  • the reflected lights Lr ′, Lg ′, Lb ′ of all colors are incident on the ToF sensor 81.
  • At least one of the R light Lr, the G light Lg, and the B light Lb is pulse light.
  • the calculation unit 9 calculates the observation distance D from the ratio S1 / S2 of the R pixels.
  • the calculation unit 9 calculates the sum S1 + S2 of each pixel as a signal value, generates an RGB color image based on the signal value, and causes the display unit 3 to display the color image.
  • All of the R light Lr, the G light Lg, and the B light Lb are pulse lights, and the calculation unit 9 may calculate the observation distance D from the ratio S1 / S2 of all the R, G, and B pixels.
  • the amounts of the R reflected light Lr ′, the G reflected light Lg ′, and the B reflected light Lb ′ may be different from each other.
  • One of the R reflected light Lr ', the G reflected light Lg' and the B reflected light Lb ' is selected from which one of the optimal light amounts S1 and S2 is obtained, and the observation distance D is determined from the ratio S1 / S2 of the selected reflected light. Is calculated. Thereby, the observation distance D can be measured with higher accuracy.
  • the observation distance D is also R, G, and L because the penetration depth into the subject A differs among the pulse lights Lr, Lg, and Lb. It differs between B.
  • the optical characteristics of the subject A can be evaluated. Thereby, for example, a region such as a cancer tissue whose optical characteristics are different from the surroundings can be specified.
  • the specified area may be displayed on a distance map on the display unit 3 or on a color image.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Endoscopes (AREA)

Abstract

内視鏡装置(100)は、挿入部(1)の先端から被写体(A)にパルス光(L)を照射する照射部(4)と、挿入部(1)の先端部に配置されパルス光(L)の反射光(L')を結像する結像光学系(6)と、挿入部(1)内に長手方向に沿って配置され被写体(A)の像を挿入部(1)の基端側へ伝送する像伝送部(7)と、像伝送部(7)によって受光面に伝送された像の光量を複数の画素によって検出する光センサ(8)と、複数の画素によって検出された光量に基づいて観察距離を算出する演算部(9)とを備え、光センサ(8)は、各画素において反射光(L')を時分割で検出することによって第1光量および第2光量を得て、演算部(9)は各画素における第1光量および第2光量に基づいて被写体(A)の各位置までの観察距離を算出する。

Description

内視鏡装置
 本発明は、内視鏡装置に関するものである。
 従来、被写体までの距離を測定する機能を有する内視鏡装置が知られている(例えば、特許文献1参照。)。特許文献1の内視鏡装置は、レーザ光源と、タイムオブフライト(ToF)方式の測距センサとを備える。ToF方式の測距センサは、レーザ光の点灯開始から、レーザ光の反射光が検出されるまでの時間Δtに基づいて、距離を測定する。また、特許文献1の内視鏡装置は、レンズによって拡散されたレーザ光を被写体表面に照射し、被写体表面の各位置からの反射光を検出することによって、レーザ光を走査することなく被写体表面上の各位置の距離情報を取得している。
特開2014-144034号公報
 特許文献1の内視鏡装置において、測距センサは挿入部の先端に配置されている。したがって、被写体までの距離が小さい場合、時間Δtが極めて小さくなる。極めて小さい時間Δtを高精度に測定するためには、処理速度が極めて高い測距センサが必要であり、時間Δtおよび短い距離の高精度な測定が難しいという問題がある。
 本発明は、上述した事情に鑑みてなされたものであって、被写体の複数の位置までの距離をレーザ光を走査することなく測定することができ、かつ、短い距離を高い精度で測定することができる内視鏡装置を提供することを目的とする。
 本発明の一態様は、挿入部の先端から被写体にパルス光を照射する照射部と、前記挿入部の先端部に配置され、前記被写体からの前記パルス光の反射光を結像し前記被写体の像を形成する結像光学系と、前記挿入部内に長手方向に沿って配置され、前記被写体の像を前記挿入部の基端側へ伝送する像伝送部と、複数の画素が配列された受光面を有し、前記像伝送部によって前記受光面に伝送された前記像の光量を前記複数の画素によって検出する光センサと、前記複数の画素によって検出された光量に基づいて前記結像光学系から前記被写体までの観察距離を算出する演算部とを備え、前記光センサは、各前記画素において前記反射光を時分割で検出することによって第1光量および第2光量を得て、前記第1光量は第1期間中に積算された前記反射光の光量であり、前記第2光量は第2期間中に積算された前記反射光の光量であり、前記演算部は、前記光センサによって検出された各前記画素における前記第1光量および前記第2光量に基づいて、前記結像光学系から前記被写体の各位置までの観察距離を算出する内視鏡装置である。
 本発明によれば、被写体の複数の位置までの距離をレーザ光を走査することなく測定することができ、かつ、短い観察距離を高い精度で測定することができるという効果を奏する。
本発明の第1の実施形態に係る内視鏡装置の全体構成図である。 図1の内視鏡装置の光源およびToFセンサの動作を示すタイミングチャートである。 図1の内視鏡装置の像伝送部に光ファイババンドルを用いた場合のモード分散および光量の減衰による反射光L’への影響を示す図である。 図1の内視鏡装置の変形例の全体構成図である。 本発明の第2の実施形態に係る内視鏡装置の全体構成図である。 図5の内視鏡装置の動作を示すフローチャートである。 図5の内視鏡装置の動作の変形例を示すフローチャートである。 本発明の第3の実施形態に係る内視鏡装置の全体構成図である。 本発明の第4の実施形態に係る内視鏡装置の全体構成図である。 図9の内視鏡装置の変形例の全体構成図である。 図9の内視鏡装置の他の変形例の全体構成図である。 図9の内視鏡装置の他の変形例の全体構成図である。 図9の内視鏡装置の他の変形例の全体構成図である。 図13の内視鏡装置の色フィルタアレイ付きToFセンサの一例を示す図である。
(第1の実施形態)
 本発明の第1の実施形態に係る内視鏡装置について図面を参照して説明する。
 本実施形態に係る内視鏡装置100は、図1に示されるように、被写体Aを有する観察対象内に挿入される長尺の挿入部1と、挿入部1の基端に接続された本体部2と、本体部2に接続された表示部3とを備えている。また、内視鏡装置100は、照射部4と、発光制御部5と、結像光学系6と、像伝送部7と、光センサ8と、演算部9とを備えている。照射部4、結像光学系6および像伝送部7は、挿入部1内に配置されている。発光制御部5、光センサ8および演算部9は、本体部2内に配置されている。
 照射部4は、LEDのような小型の光源41と、光源41と一体に設けられ光源41を制御する制御回路42とを備えている。光源41は、挿入部1の先端に配置されている。光源41の数は、1個のみであってもよく、複数個であってもよい。制御回路42は、発光制御部5と接続され、発光制御部5からの制御信号に応答して光源41にパルス光Lを発生させる。光源41が発生させたパルス光Lは、挿入部1の先端と対向する被写体Aに照射される。パルス光Lは、発散光であり、被写体Aの表面上の2次元領域に照射される。
 発光制御部5は、パルス光Lのパルス幅ΔWおよび光量等を制御する制御信号を生成し、制御信号を制御回路42に送信する。発光制御部5は、一定の時間周期で制御信号を制御回路42に送信することによって、光源41に一定の時間周期でパルス光Lを発生させる。
 結像光学系6は、単一または複数のレンズを備え、挿入部1の先端部に設けられている。結像光学系6は、パルス光Lが照射される被写体Aの測定領域を含む視野を有する。結像光学系6は、被写体Aからのパルス光Lの反射光L’を受光し、反射光L’を結像させ、被写体Aの像を形成する。反射光L’は、パルス幅ΔWに対応する時間幅を有するパルス形態の光である。内視鏡観察において、挿入部1の先端を被写体Aに接触させた状態で、または被写体Aに近接させた状態で、被写体Aを観察することがある。結像光学系6は、近点および遠点の両方の像を観察可能であり、例えば0mm~100mmの観察距離を有する。
 像伝送部7は、光学像を伝送する光学系であり、例えば、光ファイババンドルまたはリレー光学系である。像伝送部7は、挿入部1内に該挿入部1の略全長にわたって配置され、結像光学系6と本体部2内の光センサ8とを光学的に接続している。像伝送部7は、結像光学系6によって形成された被写体Aの像を光センサ8の受光面上まで伝送し、受光面上に像を再結像する。ToFセンサ8の受光面には、パルス光Lのパルス幅に相当する期間にわたって被写体Aの像が形成される。像伝送部7は、結像光学系6の最大観察距離以上の光路長を有していることが好ましい。例えば、挿入部1および像伝送部7の各々の長さは、2mである。
 光センサ8は、複数の画素の2次元アレイを有する2次元の間接ToF(Time Of Flight)センサである。2次元アレイは受光面に設けられている。図2は、ToFセンサ8の各画素の動作を示している。ToFセンサ8には、パルス光Lの時間周期と同一の時間周期で反射光L’が到達する。ToFセンサ8は、照射部4からのパルス光Lの射出の周期と同期して、受光面上の被写体Aの像の光量を2次元アレイの各画素によって検出する。
 各画素は、1回の検出期間中に1つの反射光L’の光量を検出する。1回の検出期間の長さは、パルス幅ΔWに基づいて、1つの反射光L’の全部を含む長さに設定されている。また、1回の検出期間は、2つの期間(第1ゲートG1および第2ゲートG2)に等分割されている。第1ゲートG1および第2ゲートG2は、本発明に係る第1期間および第2期間にそれぞれ相当する。各画素は、1つの反射光L’の光量を第1ゲートG1および第2ゲートG2に時分割して検出することによって、第1ゲートG1中の反射光L’の積算光量S1と第2ゲートG2中の反射光L’の積算光量S2を得る。
 第1ゲートG1は、時刻t0から時刻t1までの期間であり、第2ゲートG2は、時刻t1から時刻t2までの期間である。時刻t0は、光源41がパルス光Lを発生させる時刻である。時刻t2は、反射光L’の終端と次の反射光L’の始端との間の時刻である。各画素は、第1シャッタによる制御に従って時刻t0から時刻t1まで反射光L’の光量を積算し、積算された反射光L’の光量を第1光量S1として得る。続いて、各画素は、第2シャッタによる制御に従って時刻t1から時刻t2まで反射光L’の光量を積算し、積算された反射光L’の光量を第2光量S2として得る。
 ここで、時刻t0に光源41がパルス光Lを発生させてから反射光L’の始端がToFセンサ8に到達するまでの間に遅延時間Δtが発生する。遅延時間Δtは、結像光学系6の先端から被写体Aの各位置までの観察距離Dに依存する。したがって、第1光量S1および第2光量S2は、観察距離Dに応じて変化する。すなわち、観察距離Dが大きい程、遅延時間Δtが長くなり、その結果、第1光量S1が小さくなり第2光量S2が大きくなる。反対に、観察距離Dが小さい程、遅延時間Δtが短くなり、その結果、第1光量S1が大きくなり第2光量S2が小さくなる。
 演算部9は、各画素によって検出された第1光量S1および第2光量S2から、第2光量S2に対する第1光量の比率S1/S2を算出する。続いて、演算部9は、比率S1/S2から遅延時間Δtを算出し、遅延時間Δtから観察距離Dを算出する。
 演算部9は、全ての画素によって検出された光量S1,S2から観察距離Dを算出する。演算部9は、各画素が観察距離Dに相当する値を有する2次元の距離マップを作成し、距離マップを表示部3に表示させる。例えば、距離マップの各画素は、観察距離Dに応じた色を有する。
 表示部3は、任意の種類の表示デバイスであり、例えば、液晶ディスプレイである。
 発光制御部5および演算部9は、本体部2内に設けられたプロセッサおよび記憶装置によって実現される。すなわち、記憶装置には、制御プログラムおよび計算プログラムが記憶されている。プロセッサは、制御プログラムに従って発光制御部5による上記制御処理を実行し、計算プログラムに従って演算部9による上記計算処理を実行する。
 次に、このように構成された内視鏡装置100の作用について説明する。
 本実施形態に係る内視鏡装置100によれば、照射部4が発生したパルス光Lが挿入部1の先端から被写体Aに照射され、反射光L’に基づく被写体Aの像が結像光学系6によって形成される。像は、挿入部1の先端の結像光学系6から本体部2内のToFセンサ8まで像伝送部7によって伝送され、ToFセンサ8の受光面上に被写体Aの像が再結像される。
 ToFセンサ8および演算部9は、結像光学系6と被写体Aの各位置との間の観察距離Dを間接ToF方式で測定する。
 具体的には、ToFセンサ8の各画素は、被写体Aの像の光量を2つの時間ゲートG1,G2に時分割して検出する。すなわち、各画素は、第1ゲートG1中に反射光L’の光量を積算することによって第1光量S1を検出し、続いて第2ゲートG2中に反射光L’の光量を積算することによって第2光量S2を検出する。
 次に、演算部9において、各画素によって検出された比率S1/S2から、各画素に対応する被写体Aの表面上の各位置までの観察距離Dが算出される。次に、演算部9において、全画素の観察距離Dから2次元の距離マップが作成され、距離マップが表示部3に表示される。
 ここで、観察距離Dの測定精度について説明する。
 凹凸を有する被写体Aの場合、観察距離D間にばらつきが生じる。観察距離Dの大小に関わらず被写体Aの測定領域全体において観察距離Dを正確に測定するためには、観察距離Dの変化に関わらず光量S1,S2が大きく変化しないことが重要である。光量S1,S2はゲート幅ΔG1,ΔG2に比例する。ゲート幅ΔG1は、第1ゲートG1の時間幅(=t1-t2)であり、ゲート幅ΔG2は、第2ゲートG2の時間幅(=t2-t1=ΔG1)である。
 近点に最適なゲート幅ΔG1,ΔG2は、ΔW/2+Δtminであり、遠点に最適なゲート幅ΔG1,ΔG2は、ΔW/2+Δtmaxである。Δtminは、最近点での遅延時間であり、Δtmaxは最遠点での遅延時間である。光量S1,S2の変化を抑えるためには、近点と遠点とでの最適なゲート幅の比率(ΔW/2+Δtmin)/(ΔW/2+Δtmax)を小さくする必要がある。内視鏡装置100による距離測定において、観察距離Dが0mm~300mm程度であり、近点ではΔtminはゼロに近付く。したがって、上記比率を小さくすることは原理的に難しい。
 本実施形態によれば、ToFセンサ8は、挿入部1の先端の結像光学系6から挿入部1の長手方向に離れた位置に配置されている。そして、挿入部1の先端の結像光学系6から挿入部1の基端側のToFセンサ8まで、長い像伝送部7によって反射光L’が導光される。これにより、挿入部1の長さに相当する反射光L’の光路長が確保され、観察距離Dがゼロまたは略ゼロであっても一定の大きさの遅延時間Δtが確保される。さらに、比率S1/S2から遅延時間Δtを算出する間接ToF方式は、遅延時間Δtを直接計測する直接ToF方式に比べて、小さな遅延時間Δtを高い精度で測定することができる。このように、挿入部1内に反射光L’の光路長を確保し、かつ、間接ToF方式を用いることによって、ゼロまたはゼロに近い観察距離Dを高精度に測定することができるという利点がある。
 また、被写体Aの2次元の像がToFセンサ8の受光面上に形成され、各画素によって被写体Aの表面上の各位置までの観察距離Dが測定される。このように、レーザ光を2次元的に走査せずとも被写体Aの2次元の距離情報を得ることができるという利点がある。そして、距離マップに基づいて、例えば、医療分野においては腫瘍の形状の情報を得ることができ、工業分野においては構造物の亀裂の形状および深さの情報を得ることができる。
 挿入部1および本体部2内においてパルス光Lおよび反射光L’が通る像伝送部7の長さP0は、最大の観察距離Dよりも大きいこと(P0>D)が好ましい。例えば、0mm~300mmの観察距離Dの測定を対象としている場合、P0>300mmを満たすことが好ましい。この条件を満たすことによって、観察距離Dがゼロまたはゼロに近い状態においても、ΔtminとΔtmaxとの比率が小さくなる。これにより、被写体Aの測定領域全体において適切な範囲内の比率S1/S2を得ることでき、観察距離Dの測定精度を安定させることができる。
 パルス光Lのパルス幅ΔWは、下式を満たすことが好ましい。
 ΔW[sec] > n×P0[m]/c[m/sec]
 nは、挿入部1および本体部2内においてパルス光Lおよび反射光L’が通る光路の屈折率であり、例えば、像伝送部7の屈折率である。cは、パルス光Lの光速である。
 像伝送部7として光ファイババンドルを用いた場合、図3に示されるように、光ファイババンドルが有するモード分散および光量の減衰によって、検出される反射光L’の遅延および光量の低下が生じる。図3において、実線は、光ファイババンドルによるモード分散および光量減衰の影響が無い場合の反射光L’を示し、破線が、光ファイババンドルによるモード分散および光量減衰の影響が有る場合の反射光L’を示している。モード分散および光量減衰の影響を低減し反射光L’の第1光量S1および第2光量S2を高い精度で計測するためには、像伝送部7の光路長に対応してパルス幅ΔWも長くする必要があり、特にパルス幅ΔWが上記条件を満たすことが好ましい。上記条件式を満足することによって、検出精度が低下することなく、観察距離Dの大小に関わらず比率S1/S2が適切な値となり、被写体Aの測定領域全体において観察距離Dをより高い精度で測定することができる。
 演算部9は、観察距離Dの算出に加えて、光量S1,S2の和を算出してもよい。和S1+S2は、反射光L’の強度に基づく被写体Aの画像の信号値である。演算部9は、信号値に基づいて被写体Aの2次元の画像を作成し、画像を距離マップと同時に表示部3に表示させてもよい。距離マップおよび画像は、本体部2内の記憶装置に保存されてもよい。
 生体組織のように光透過性を有する被写体Aの場合、パルス光Lが被写体Aの表面から内部に浸透し、被写体Aの内部で反射され、被写体Aの表面から射出される。このような場合、反射光L’には、被写体A内の浸透深さに相当する遅延が生じ、比率S1/S2から算出される距離には浸透深さも含まれる。パルス光Lの被写体A内での浸透深さは、パルス光Lの波長に依存し、例えば、数ミリ程度である。
 演算部9は、被写体A内へのパルス光Lの浸透に基づく遅延時間を考慮した観察距離Dを算出してもよい。具体的には、演算部9は、補正値を保持している。補正値は、実験的にまたは理論的に算出されたパルス光Lの浸透深さ(例えば、2mm)であり、例えば、ユーザによって本体部2に設定される。演算部9は、比率S1/S2から算出された距離から補正値を差し引いた値を、観察距離Dとして算出する。これにより、より正確な観察距離Dを算出することができる。
 本実施形態においては、光源41が挿入部1の先端部に配置されていることとしたが、これに代えて、図4に示されるように、光源41が本体部2内に配置され、照射部4が、導光部10をさらに備えていてもよい。
 導光部10は、パルス光Lを導光する光学部材であり、例えば、光ファイバまたは光ファイババンドルである。導光部10は、挿入部1内に長手方向に沿って配置され、光源41から挿入部1の先端までパルス光Lを導光する。光源41および制御回路42を挿入部1の先端部から除去することによって、挿入部1の先端部をより細くすることができる。
 導光部10が設けられている場合、導光部10の光路長の分だけ遅延時間Δtを長くすることができる。
 本実施形態においては、図4に示されるように、像伝送部7とToFセンサ8との間に、再結像光学系11が設けられていてもよい。
 再結像光学系11は、像伝送部7によって伝送された像をToFセンサ8の受光面に再結像させる。再結像光学系11を用いることによって、像伝送部7の基端とToFセンサ8とを直接接続する必要がなくなる。したがって、ToFセンサ8の配置や種類の選択等の設計の自由度を向上することができる。また、像伝送部7とToFセンサ8との間に光路長が確保され、遅延時間Δtがより長くなる。
(第2の実施形態)
 次に、本発明の第2の実施形態に係る内視鏡装置について図面を参照して説明する。
 本実施形態においては、第1の実施形態と異なる構成について説明し、第1の実施形態と共通する構成については同一の符号を付して説明を省略する。
 本実施形態に係る内視鏡装置200は、図5に示されるように、挿入部1と、本体部2と、表示部3とを備えている。また、内視鏡装置200は、照射部4と、発光制御部5と、結像光学系6と、像伝送部7と、光センサ8と、演算部9と、調整部12とを備えている。
 調整部12は、演算部9から比率S1/S2を受け取り、比率S1/S2に基づいて、パルス幅ΔWおよびゲート幅ΔG1,ΔG2の調整を発光制御部5およびToFセンサ8に実行させる。
 図6は、パルス幅ΔWおよびゲート幅ΔG1,ΔG2の調整に係る内視鏡装置200の動作を示している。
 図6に示されるように、光源41からパルス光Lが発せられ(ステップS1)、ToFセンサ8によって第1光量S1および第2光量S2が検出され(ステップS2)、演算部9によって比率R=S1/S2が算出される(ステップS3)。調整部12は、比率S1/S2を所定の下限値Rminおよび所定の上限値Rmax(Rmax>Rmin)と比較する(ステップS4)。
 比率S1/S2が下限値Rminよりも大きく上限値Rmax未満である場合(ステップS4のYES)、調整部12によるパルス幅ΔWおよびゲート幅ΔG1,ΔG2の調整は実行されず、演算部9によって比率S1/S2から観察距離Dが算出される(ステップS5)。
 一方、比率S1/S2が下限値Rmin以下または上限値Rmax以上である場合(ステップS4のNO)、調整部12によるパルス幅ΔWおよびゲート幅ΔG1,ΔG2の調整が実行される(ステップS6~S8)。具体的には、比率S1/S2が上限値Rmax以上である場合(ステップS6のNO)、調整部12は、パルス幅ΔWを短縮させ、かつ、ゲート幅ΔG1,ΔG2を拡大させる(ステップS7)。比率S1/S2が下限値Rmin以下である場合(ステップS6のYES)、調整部12は、パルス幅ΔWを拡大させ、かつ、ゲート幅ΔG1,ΔG2を短縮させる(ステップS8)。パルス幅ΔWおよびゲート幅ΔG1,ΔG2の調整は、調整部12から発光制御部5およびToFセンサ8の各々に送信される調整信号に従って実行される。
 パルス幅ΔWおよびゲート幅ΔG1,ΔG2の調整後、ステップS1~S4が再び実行され、比率S1/S2が下限値Rminよりも大きく上限値Rmax未満になるまでパルス幅ΔWおよびゲート幅ΔG1,ΔG2の調整が繰り返される。ステップS7,S8において、パルス幅ΔWおよびゲート幅ΔG1,ΔG2のいずれか一方のみが調整されてもよい。
 調整部12は、発光制御部5および演算部9と同様に、本体部2内に設けられたプロセッサおよび記憶装置によって実現される。プロセッサは、記憶装置に記憶された調整プログラムに従って調整部12の上記調整処理を実行する。
 比率S1/S2が過度に大きい、または過度に小さい場合、観察距離Dの算出精度が低下する。本実施形態によれば、比率S1/S2が上限値Rmax以上または下限値Rmin以下である場合に、比率S1/S2が下限値Rminよりも大きく上限値Rmax未満である適正範囲内になるようにパルス幅ΔWおよびゲート幅ΔG1,ΔG2の少なくとも一方が調整され、調整された比率S1/S2から観察距離Dが算出される。これにより、被写体Aの測定領域全体において観察距離Dをより高い精度で測定することができる。
 本実施形態においては、調整部12が、比率S1/S2に基づいてパルス幅ΔWおよびゲート幅ΔG1,ΔG2を調整することとしたが、これに代えて、図7に示されるように、和S=S1+S2に基づいてパルス光Lの光量を調整してもよい。
 演算部9は、和S1+S2を算出する(ステップS31)。調整部12は、和S1+S2を所定の下限値Sminおよび所定の上限値Smax(Smax>Smin)と比較する(ステップS41)。和S1+S2が上限値Smax以上である場合(ステップS61のNO)、調整部12は、パルス光Lの光量を減少させる(ステップS71)。一方、和S1+S2が下限値Smin以下である場合(ステップS61のYES)、調整部12は、パルス光Lの光量を増大させる(ステップS81)。パルス光Lの光量の調整は、調整部12から発光制御部5に送信される調整信号に従って実行される。
 和S1+S2が過度に大きい、または過度に小さい場合、観察距離Dの算出精度が低下する。本変形例によれば、和S1+S2が上限値Smax以上または下限値Smin以下である場合に、パルス光Lの光量が調整部12によって調整されることで、和S1+S2が下限値Sminよりも大きく上限値Smaxよりも小さい適正範囲内に調整される。このように、和S1+S2に基づくパルス光Lの光量の調整によっても、被写体Aの測定領域全体において観察距離Dをより高い精度で測定することができる。
 光量S1,S2は、ゲート幅ΔG1,ΔG2に依存する。したがって、調整部12は、ステップS71,S81において、パルス光Lの光量に代えて、ゲート幅ΔG1,ΔG2を調整してもよい。
(第3の実施形態)
 次に、本発明の第3の実施形態に係る内視鏡装置について図面を参照して説明する。
 本実施形態においては、第1および第2の実施形態と異なる構成について説明し、第1および第2の実施形態と共通する構成については同一の符号を付して説明を省略する。
 本実施形態に係る内視鏡装置300は、図8に示されるように、挿入部1と、本体部2と、表示部3とを備えている。また、内視鏡装置300は、照射部4と、発光制御部5と、結像光学系6と、像伝送部7と、光センサ8と、演算部9とを備えている。
 照射部4は、導光部10を備え、光源41は本体部2内に配置されている。また、照射部4は、参照光生成部13と、参照光導光部14とを備えている。
 参照光生成部13は、導光部(第1の導光部)10の先端に配置されたハーフミラーである。ハーフミラーは、例えば、導光部10の先端面を部分的に金属でコートすることによって形成される。参照光生成部13は、導光部10によって導光されたパルス光Lの一部を反射する。導光部10によって導光されたパルス光Lの他部は、挿入部1の先端から射出される。参照光生成部13によって反射されたパルス光Lは、参照光Lsとして導光部10を基端に向かって導光する。
 参照光導光部(第2の導光部)14は、例えば、光ファイバまたは光ファイババンドルであり、導光部10の長手方向の途中位置から分岐している。参照光Lsは、導光部10から参照光導光部14に進み、参照光導光部14によってToFセンサ8へ導光される。
 ToFセンサ8の受光面は、第1検出領域と第2検出領域に分割されている。第1検出領域には、像伝送部7によって伝送された反射光L’が入射し、被写体Aの像が形成される。第2検出領域には、参照光導光部14によって導光された参照光Lsが入射する。第1検出領域の各画素は、反射光L’の第1光量S1および第2光量S2を検出し、第2検出領域の各画素は、参照光Lsの第1光量(第1参照光量)S1および第2光量(第2参照光量)S2を検出する。
 演算部9は、第1検出領域の画素によって検出された光量S1,S2の比率S1/S2から、遅延時間Δtおよび観察距離Dを算出する。
 また、演算部9は、第2検出領域の画素によって検出された参照光量S1,S2の比率S1/S2から参照遅延時間Δtsを算出し、挿入部1および本体部2内での光源41からToFセンサ8までのパルス光Lおよび参照光Lsの参照光路長を算出する。参照遅延時間Δtsは、光源41がパルス光Lを発生させてから参照光LsがToFセンサ8に到達するまでの時間である。
 内視鏡装置300の周囲環境(例えば、温度および湿度)の変化に応じて、内視鏡装置300内でのパルス光Lおよび反射光L’の光路長が変化し得る。パルス光Lおよび反射光L’の光路長の変化は、演算部9によって算出される観察距離Dに影響を与え観察距離Dの誤差を引き起こす。
 本実施形態によれば、内視鏡装置300内のパルス光Lおよび反射光L’の光路長の変化と同様に、内視鏡装置300内を導光する参照光Lsの光路長も周囲環境の変化に応じて変化する。内視鏡装置300内の光路長の変化は、第1参照光量S1と第2参照光量S2との比率から算出される参照遅延時間Δtsの変化として表れる。したがって、内視鏡装置300内での光L,L’の光路長の変化に起因する観察距離Dの誤差を第1参照光量S1および第2参照光量S2に基づいて、より具体的には参照光路長の変化に基づいて、補正することができる。例えば、演算部9は、参照光量S1,S2から算出された参照光路長を、標準的な周囲環境での参照光路長と比較することによって内視鏡装置300内の光路長の変化量を見積もり、光路長の変化量に基づいて観察距離Dを補正する。これにより、周囲環境の変化に関わらず正確な観察距離Dを安定して測定することができる。
(第4の実施形態)
 次に、本発明の第4の実施形態に係る内視鏡装置について図面を参照して説明する。
 本実施形態においては、第1から第3の実施形態と異なる構成について説明し、第1から第3の実施形態と共通する構成については同一の符号を付して説明を省略する。
 本実施形態に係る内視鏡装置400は、図9に示されるように、挿入部1と、本体部2と、表示部3とを備えている。また、内視鏡装置400は、照射部4と、発光制御部5と、結像光学系6と、像伝送部7と、光センサ8と、演算部9と、再結像光学系11と、色分離素子15と、撮像素子16と、カラー画像生成部17とを備えている。
 照射部4は、導光部10を備え、光源41は本体部2内に配置されている。光源41は、赤(R)、緑(G)および青(B)の光Lr,Lg,Lbを発生させる。R光Lrは、観察距離Dの測定用のパルス光である。G光LgおよびB光Lbは、被写体Aの画像取得用の連続光である。被写体Aにおいて、パルス状のR反射光Lr’と、連続光であるG反射光Lg’およびB反射光Lg’が発生する。
 色分離素子15は、像伝送部7とToFセンサ8との間に配置されている。色分離素子15は、R反射光Lr’とGおよびB反射光Lg’,Lb’とを波長によって相互に分離する。色分離素子15は、例えば、赤の光を透過させ、緑および青の光を反射するダイクロイックミラーである。R反射光Lr’は色分離素子15からToFセンサ8に入射し、G反射光Lg’およびB反射光Lb’は色分離素子15から撮像素子16に入射する。
 再結像光学系11は、R反射光Lr’をToFセンサ8の受光面に再結像させ、G反射光Lg’およびB反射光Lb’を撮像素子16の受光面に再結像させる。
 撮像素子16は、CMOSイメージセンサのようなRGB方式の2次元イメージセンサである。撮像素子16は、被写体Aの像を撮像し、画像信号を生成する。画像信号は、撮像素子16からカラー画像生成部17に送信される。
 カラー画像生成部17は、画像信号から被写体Aの2次元のカラー画像を生成する。カラー画像は、距離マップと共に表示部3に表示される。カラー画像および距離マップは、本体部2内で相互に関連付けられてから表示部3に送信されてもよい。
 カラー画像生成部17は、発光制御部5および演算部9と同様に、本体部2内に設けられたプロセッサおよび記憶装置によって実現される。すなわち、プロセッサは、記憶装置に記憶された画像生成プログラムに従ってカラー画像生成部17による画像生成処理を実行する。
 このように、本実施形態によれば、パルス光Lrとは異なる色の連続光Lg,Lbをパルス光Lrと同時に被写体Aに照射し、反射光Lr’と反射光Lg’,Lr’とを色によって相互に分離することによって、観察距離Dの測定と同時に被写体Aのカラー画像を取得することができるという利点がある。
 本実施形態においては、観察距離Dの測定にR光Lrを用いることとしたが、観察距離Dの測定用のパルス光の波長はこれに限定されず、画像取得用の連続光の波長とは異なる任意の波長のパルス光を用いることができる。
 本実施形態においては、図10に示されるように、照射部4が、白色光Lwを発生させる白色光源43をさらに備えていてもよい。白色光Lwは、連続光である。パルス光Lは、可視域以外の波長の光であり、例えば、赤外光である。2つの光源41,43と導光部10との間には、色合成素子18が配置されている。色合成素子18は、光源41からのパルス光Lと白色光源43からの白色光Lwとを合成する。色合成素子18は、例えば、ダイクロイックミラーである。
 色分離素子15は、パルス光Lの反射光L’と白色光Lwの反射光Lw’とを、波長によって相互に分離する。反射光L’は色分離素子15からToFセンサ8に入射し、反射光Lw’は色分離素子15から撮像素子16に入射する。
 図10の変形例によれば、白色光Lwを用いることによって、被写体Aの色の情報をより多く含む白色光画像を撮像素子16によって取得することができる。
 本実施形態においては、図11および図12に示されるように、色分離素子15および撮像素子16が、挿入部1の先端部において結像光学系6と像伝送部7との間に配置され、色分離素子15から像伝送部7にパルス光Lの反射光L’のみが入射するように構成されていてもよい。
 本実施形態においては、図13に示されるように、色分離素子15および撮像素子16を備えることに代えて、色分離機能を有するToFセンサ81を用いてもよい。
 色分離機能を有するToFセンサ81は、図14に示されるように、画素の2次元アレイ81bを覆う色フィルタアレイ81aを備えている。
 色フィルタアレイ81aは、Rフィルタ、GフィルタおよびBフィルタの2次元アレイである。Rフィルタ、GフィルタおよびBフィルタは、赤、緑および青の光をそれぞれ選択的に透過させる。すなわち、ToFセンサ81は、RGB方式の2次元イメージセンサとしても機能する。ToFセンサ81には、全ての色の反射光Lr’,Lg’,Lb’が入射する。
 図13の変形例において、R光Lr、G光LgおよびB光Lbのうち、少なくとも1つがパルス光である。例えば、R光Lrがパルス光である場合、演算部9は、Rの画素の比率S1/S2から観察距離Dを算出する。また、演算部9は、各画素の和S1+S2を信号値として算出し、信号値に基づいてRGBのカラー画像を生成し、カラー画像を表示部3に表示させる。
 R光Lr、G光LgおよびB光Lbの全てがパルス光であり、演算部9が、R、G、Bの全ての画素の比率S1/S2から観察距離Dを算出してもよい。
 R反射光Lr’、G反射光Lg’およびB反射光Lb’の光量は相互に異なり得る。R反射光Lr’、G反射光Lg’およびB反射光Lb’の中から、最適な光量S1,S2が得られる1つを選択し、選択された反射光の比率S1/S2から観察距離Dを算出する。これにより、観察距離Dをより高い精度で測定することができる。
 また、被写体Aが生体組織のように光透過性を有する場合、被写体A内への浸透深さがパルス光Lr,Lg,Lb間で異なることに起因して、観察距離DもR、G、B間で異なる。観察距離DをR、G、B間で比較することによって、被写体Aの光学特性を評価することができる。これにより、例えば、がん組織のように光学特性が周辺とは異なる領域を特定することができる。特定された領域は、表示部3上の距離マップまたはカラー画像上に表示されてもよい。
1 挿入部
2 本体部
3 表示部
4 照射部
41 光源(照射部)
42 制御回路(照射部)
43 白色光源(照射部)
5 発光制御部
6 結像光学系
7 像伝送部
8 光センサ、ToFセンサ
9 演算部
10 導光部(照射部、第1導光部)
11 再結像光学系
12 調整部
13 参照光生成部
14 参照光導光部(照射部、第2導光部)
15 色分離素子
16 撮像素子
17 カラー画像生成部
18 色合成素子
100,200,300,400 内視鏡装置
A 被写体

Claims (7)

  1.  挿入部の先端から被写体にパルス光を照射する照射部と、
     前記挿入部の先端部に配置され、前記被写体からの前記パルス光の反射光を結像し前記被写体の像を形成する結像光学系と、
     前記挿入部内に長手方向に沿って配置され、前記被写体の像を前記挿入部の基端側へ伝送する像伝送部と、
     複数の画素が配列された受光面を有し、前記像伝送部によって前記受光面に伝送された前記像の光量を前記複数の画素によって検出する光センサと、
     前記複数の画素によって検出された光量に基づいて前記結像光学系から前記被写体までの観察距離を算出する演算部とを備え、
     前記光センサは、
     各前記画素において前記反射光を時分割で検出することによって第1光量および第2光量を得て、
     前記第1光量は第1期間中に積算された前記反射光の光量であり、
     前記第2光量は第2期間中に積算された前記反射光の光量であり、
     前記演算部は、
     前記光センサによって検出された各前記画素における前記第1光量および前記第2光量に基づいて、前記結像光学系から前記被写体の各位置までの観察距離を算出する内視鏡装置。
  2.  前記パルス光のパルス幅は、前記像伝送部の屈折率と前記像伝送部の長さとの積を前記パルス光の光速で除算した値よりも大きい請求項1に記載の内視鏡装置。
  3.  前記演算部は、
     前記第1光量および前記第2光量から距離を算出し、算出された距離から補正値を差し引くことによって前記観察距離を算出し、
     前記補正値は、
     前記被写体内への前記パルス光の浸透深さに基づいて設定される請求項1に記載の内視鏡装置。
  4.  前記第1期間および前記第2期間の長さ、ならびに、前記パルス光のパルス幅のうちの少なくとも一方を、前記第1光量および前記第2光量に基づいて調整する調整部を備え、
     前記第2光量に対する前記第1光量の比率が所定の上限値以上であるときに、前記調整部は、前記第1および第2期間の長さを増大させ、または/かつ、前記パルス光のパルス幅を減少させ、
     前記第2光量に対する前記第1光量の比率が所定の下限値以下であるときに、前記調整部は、前記第1および第2期間の長さを減少させ、または/かつ、前記パルス光のパルス幅を増大させる請求項1に記載の内視鏡装置。
  5.  前記パルス光の光量を前記第1光量および前記第2光量に基づいて調整する調整部を備え、
     該調整部は、
     前記第1光量と前記第2光量との和が所定の上限値以上であるときに、前記パルス光の光量を減少させ、
     前記第1光量と前記第2光量との和が所定の下限値以下であるときに、前記パルス光の光量を増大させる請求項1に記載の内視鏡装置。
  6.  前記照射部は、
     前記挿入部の基端側に配置され前記パルス光を発する光源と、
     前記挿入部内に長手方向に沿って配置され、前記パルス光を前記挿入部の先端まで導光する第1導光部と、
     前記挿入部の先端部に設けられ、前記パルス光の一部を反射することによって参照光を生成する参照光生成部と、
     前記参照光を前記第1導光部から前記光センサまで導光する第2導光部とを備え、
     前記光センサの前記受光面は、
     前記被写体の像の光量を検出する第1検出領域と、前記参照光の光量を検出し前記第1検出領域とは異なる第2検出領域とを有し、
     前記第2検出領域の各画素は、
     前記第1期間中に前記参照光の光量を積算することによって第1参照光量を検出し、前記第2期間中に前記参照光の光量を積算することによって第2参照光量を検出し、
     前記演算部は、
     前記第1参照光量および前記第2参照光量に基づいて前記観察距離を補正する請求項1に記載の内視鏡装置。
  7.  前記像伝送部と前記光センサとの間に配置され、前記像伝送部によって伝送された前記像を前記光センサに伝送する再結像光学系を備える請求項1に記載の内視鏡装置。
PCT/JP2018/027467 2018-07-23 2018-07-23 内視鏡装置 WO2020021590A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020531837A JP7046187B2 (ja) 2018-07-23 2018-07-23 内視鏡装置
PCT/JP2018/027467 WO2020021590A1 (ja) 2018-07-23 2018-07-23 内視鏡装置
US17/154,083 US11992192B2 (en) 2018-07-23 2021-01-21 Endoscope apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/027467 WO2020021590A1 (ja) 2018-07-23 2018-07-23 内視鏡装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/154,083 Continuation US11992192B2 (en) 2018-07-23 2021-01-21 Endoscope apparatus

Publications (1)

Publication Number Publication Date
WO2020021590A1 true WO2020021590A1 (ja) 2020-01-30

Family

ID=69180931

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/027467 WO2020021590A1 (ja) 2018-07-23 2018-07-23 内視鏡装置

Country Status (3)

Country Link
US (1) US11992192B2 (ja)
JP (1) JP7046187B2 (ja)
WO (1) WO2020021590A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240111048A1 (en) 2022-09-30 2024-04-04 Gyrus Acmi, Inc. D/B/A Olympus Surgical Technologies America Coaxial time-of-flight optical fiber distance measurement

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010032425A (ja) * 2008-07-30 2010-02-12 National Univ Corp Shizuoka Univ 距離画像センサ、及び撮像信号を飛行時間法により生成する方法
JP2010169405A (ja) * 2009-01-20 2010-08-05 Stanley Electric Co Ltd 光学距離センサー
US20130162775A1 (en) * 2011-11-29 2013-06-27 Harald Baumann Apparatus and method for endoscopic 3D data Collection

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5471553A (en) * 1992-09-30 1995-11-28 Asahi Kasei Kogyo Kabushiki Kaisha Multicore hollow optical fiber and a method for preparation thereof
US8083726B1 (en) * 2005-09-30 2011-12-27 Advanced Cardiovascular Systems, Inc. Encapsulating cells and lumen
JP6112879B2 (ja) 2013-01-28 2017-04-12 オリンパス株式会社 画像処理装置、内視鏡装置、画像処理装置の作動方法及び画像処理プログラム
CN106455960B (zh) * 2014-10-10 2020-03-27 奥林巴斯株式会社 光源装置和光源装置的控制方法
JP6508638B2 (ja) 2015-05-11 2019-05-08 オリンパス株式会社 内視鏡装置
US10537270B2 (en) * 2016-07-25 2020-01-21 Biobeat Technologies Ltd Method and device for optical measurement of biological properties

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010032425A (ja) * 2008-07-30 2010-02-12 National Univ Corp Shizuoka Univ 距離画像センサ、及び撮像信号を飛行時間法により生成する方法
JP2010169405A (ja) * 2009-01-20 2010-08-05 Stanley Electric Co Ltd 光学距離センサー
US20130162775A1 (en) * 2011-11-29 2013-06-27 Harald Baumann Apparatus and method for endoscopic 3D data Collection

Also Published As

Publication number Publication date
JP7046187B2 (ja) 2022-04-01
JPWO2020021590A1 (ja) 2021-08-02
US11992192B2 (en) 2024-05-28
US20210161364A1 (en) 2021-06-03

Similar Documents

Publication Publication Date Title
US10368728B2 (en) Endoscope apparatus
JP4979271B2 (ja) 内視鏡システムおよび内視鏡の作動方法
US7646002B2 (en) Fluorescence detecting system
US7123756B2 (en) Method and apparatus for standardized fluorescence image generation
KR101648598B1 (ko) 피드백 조절 시스템을 갖는 내시경 led 광원
US8721525B2 (en) Endoscope system with a modulated radiation source
US10973399B2 (en) Light source device for endoscope
US7102142B2 (en) Method of apparatus for generating fluorescence diagnostic information
US20110069164A1 (en) Endoscope system
US20180132708A1 (en) Device and method for observing an object, taking into consideration the distance between the device and the object
CN107072476B (zh) 观察装置
US10149599B2 (en) Processing apparatus
JP5974206B2 (ja) 光源装置
WO2020021590A1 (ja) 内視鏡装置
US9719922B2 (en) Optical system and optical quality measuring apparatus
US10197386B2 (en) Bend information computation apparatus
KR101410525B1 (ko) 가동용 블록을 포함하는 광진단 프로브
US20180149467A1 (en) Visualization systems and methods for optimized optical coherence tomography
JP4630004B2 (ja) 測量機
JP2010057740A (ja) 観測システム
JP5639289B2 (ja) 走査型内視鏡装置
JPWO2020115807A1 (ja) 光源装置、及び光量調整方法
US20220142568A1 (en) Optical device and endoscope system
US20240264424A1 (en) Endoscope System with Adaptive Lighting Control
US20230225599A1 (en) Methods and devices for multi-spectral imaging

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18927824

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020531837

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18927824

Country of ref document: EP

Kind code of ref document: A1