WO2019171615A1 - 内視鏡システム - Google Patents

内視鏡システム Download PDF

Info

Publication number
WO2019171615A1
WO2019171615A1 PCT/JP2018/029674 JP2018029674W WO2019171615A1 WO 2019171615 A1 WO2019171615 A1 WO 2019171615A1 JP 2018029674 W JP2018029674 W JP 2018029674W WO 2019171615 A1 WO2019171615 A1 WO 2019171615A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
component
image data
color
image
Prior art date
Application number
PCT/JP2018/029674
Other languages
English (en)
French (fr)
Inventor
圭 久保
五十嵐 誠
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to CN201880090741.XA priority Critical patent/CN111818837B/zh
Priority to JP2020504647A priority patent/JP7059353B2/ja
Publication of WO2019171615A1 publication Critical patent/WO2019171615A1/ja
Priority to US17/010,379 priority patent/US20200397278A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0676Endoscope light sources at distal tip of an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0684Endoscope light sources using light emitting diodes [LED]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • A61B1/3137Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for examination of the interior of blood vessels
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/26Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes using light guides

Definitions

  • the present invention relates to an endoscope system, and more particularly to an endoscope system used for observation of a living tissue.
  • a living tissue is irradiated with narrowband light having a center wavelength (wavelength band) set according to the light absorption characteristics of hemoglobin, so that it exists at a desired depth of the living tissue.
  • narrowband light having a center wavelength (wavelength band) set according to the light absorption characteristics of hemoglobin, so that it exists at a desired depth of the living tissue.
  • an observation method for visualizing a blood vessel to be performed has been proposed.
  • Japanese Patent No. 5427318 discloses narrowband light near 600 nm that is light that is relatively easily absorbed by hemoglobin and light near 630 nm that is light that is relatively difficult to be absorbed by hemoglobin.
  • a configuration is disclosed in which, by irradiating the mucous membrane with narrow-band light, a thick blood vessel existing deep in the mucosa is displayed with high contrast.
  • Japanese Patent No. 5427318 does not particularly disclose a method that can solve the above-mentioned problems. Therefore, according to the configuration disclosed in Japanese Patent No. 5427318, an excessive burden is imposed on an operator who performs a procedure such as treatment in a state where at least a part of the surface of the subject is covered with blood. There is a problem corresponding to the above-mentioned problem that there is a case.
  • the present invention has been made in view of the above-described circumstances, and provides an endoscope system capable of reducing the burden on an operator who performs work in a state where at least a part of the surface of a subject is covered with blood. It is an object.
  • An endoscope system is irradiated with a light source unit configured to generate illumination light for illuminating a surface of a subject at least partially covered with blood, and the illumination light
  • An imaging unit configured to image the subject and output an imaging signal, and an extinction coefficient in the absorption characteristics of oxyhemoglobin and reduced hemoglobin based on an image generated according to the imaging signal output from the imaging unit
  • the first color component corresponding to the first light having the center wavelength in the wavelength range from the red region to the near infrared region where both are low, and the second light having the center wavelength in the blue region or the green region A second color component corresponding to each of the two color components of the three color components of the blue component, the green component, and the red component included in the observation image displayed on the display device when the subject is observed.
  • the schematic diagram which shows an example of the observation image displayed when the observation mode of the endoscope system which concerns on embodiment is set to white light observation mode.
  • the schematic diagram which shows an example of the observation image displayed when the observation mode of the endoscope system which concerns on embodiment is set to special light observation mode.
  • the endoscope system 1 is inserted into a subject and is configured to output image data obtained by imaging a subject such as a living tissue in the subject.
  • An observation image based on an endoscope apparatus 2, a light source apparatus 3 configured to supply illumination light applied to the subject to the endoscope apparatus 2, and image data output from the endoscope apparatus 2
  • a display device 5 configured to display an observation image output from the processor 4 on a screen.
  • Drawing 1 is a figure showing the composition of the important section of the endoscope system concerning an embodiment.
  • the endoscope apparatus 2 includes an optical viewing tube 21 having an elongated insertion portion 6 and a camera unit 22 that can be attached to and detached from the eyepiece portion 7 of the optical viewing tube 21.
  • the optical viewing tube 21 includes an elongated insertion portion 6 that can be inserted into a subject, a gripping portion 8 provided at the proximal end portion of the insertion portion 6, and an eyepiece portion provided at the proximal end portion of the gripping portion 8.
  • a light guide 11 for transmitting illumination light supplied via a cable 13a is inserted into the insertion portion 6 that is configured to have the structure 7.
  • the exit end of the light guide 11 is disposed in the vicinity of the illumination lens 15 at the distal end of the insertion section 6 as shown in FIG. Further, the incident end portion of the light guide 11 is disposed in a light guide base 12 provided in the grip portion 8.
  • a light guide 13 for transmitting illumination light supplied from the light source device 3 is inserted into the cable 13a.
  • a connection member (not shown) that can be attached to and detached from the light guide base 12 is provided at one end of the cable 13a.
  • a light guide connector 14 that can be attached to and detached from the light source device 3 is provided at the other end of the cable 13a.
  • an illumination lens 15 for emitting illumination light transmitted by the light guide 11 to the outside, an objective lens 17 for obtaining an optical image corresponding to light incident from the outside, Is provided.
  • an illumination window (not shown) in which the illumination lens 15 is arranged and an objective window (not shown) in which the objective lens 17 is arranged are provided adjacent to each other on the distal end surface of the insertion portion 6. Yes.
  • a relay lens 18 having a plurality of lenses LE for transmitting an optical image obtained by the objective lens 17 to the eyepiece unit 7 is provided inside the insertion unit 6. That is, the relay lens 18 has a function as a transmission optical system that transmits light incident from the objective lens 17.
  • an eyepiece lens 19 is provided inside the eyepiece unit 7 so that the optical image transmitted by the relay lens 18 can be observed with the naked eye.
  • the camera unit 22 includes an image sensor 24 and a signal processing circuit 27.
  • the camera unit 22 is configured to be detachable from the processor 4 via a connector 29 provided at an end of the signal cable 28.
  • the image sensor 24 is configured by an image sensor such as a color CMOS, for example. Further, the image sensor 24 is configured to perform an imaging operation in accordance with an image sensor drive signal output from the processor 4.
  • the imaging element 24 has a function as an imaging unit, and is configured to capture the light emitted through the eyepiece lens 19 and generate and output an imaging signal corresponding to the captured light. .
  • the signal processing circuit 27 is configured to perform predetermined signal processing such as correlated double sampling processing, gain adjustment processing, and A / D conversion processing on the imaging signal output from the imaging device 24. Has been.
  • the signal processing circuit 27 is configured to output the image data obtained by performing the predetermined signal processing described above to the imaging signal to the processor 4 to which the signal cable 28 is connected.
  • the light source device 3 has a function as a light source unit, and is configured to generate illumination light for illuminating the surface of a subject at least partially covered with blood.
  • the light source device 3 includes a light emitting unit 31, a multiplexer 32, a condenser lens 33, and a light source control unit 34.
  • the light emitting unit 31 includes a blue LED 31A, a green LED 31B, and a red LED 31C. That is, each light source of the light emitting unit 31 is configured by a semiconductor light source.
  • the blue LED 31A is configured to generate B light which is blue light having a center wavelength and intensity in a blue region (narrow band).
  • the blue LED 31 ⁇ / b> A is configured to emit B light having a center wavelength set to around 460 nm and a bandwidth set to about 20 nm.
  • the blue LED 31 ⁇ / b> A is configured to emit or extinguish light according to the LED drive signal supplied from the light source control unit 34.
  • the blue LED 31 ⁇ / b> A is configured to generate B light having a light emission amount corresponding to the LED drive signal supplied from the light source control unit 34.
  • FIG. 2 is a diagram illustrating an example of a wavelength band of light emitted from each LED provided in the light source device of the endoscope system according to the embodiment.
  • the green LED 31B is configured to generate G light, which is green light (narrow band) having a center wavelength and intensity in the green region. Specifically, for example, as shown in FIG. 2, the green LED 31B is configured to emit G light having a center wavelength set to around 540 nm and a bandwidth set to about 20 nm. Further, the green LED 31B is configured to emit or extinguish light in accordance with an LED drive signal supplied from the light source control unit 34.
  • the green LED 31 ⁇ / b> B is configured to generate G light having a light emission amount corresponding to the LED drive signal supplied from the light source control unit 34.
  • the red LED 31C is configured to generate R light which is red light (narrow band) having a center wavelength and intensity in the red region.
  • the red LED 31 ⁇ / b> C is configured to emit R light having a center wavelength set to around 630 nm and a bandwidth set to about 20 nm.
  • the red LED 31C is configured to emit or extinguish light in accordance with an LED drive signal supplied from the light source control unit 34.
  • the red LED 31 ⁇ / b> C is configured to generate R light having a light emission amount corresponding to the LED drive signal supplied from the light source control unit 34.
  • the multiplexer 32 is configured to be able to multiplex each light emitted from the light emitting unit 31 so as to enter the condenser lens 33.
  • the condenser lens 33 is configured to collect the light incident through the multiplexer 32 and output it to the light guide 13.
  • the light source controller 34 includes, for example, a control circuit. Further, the light source control unit 34 is configured to generate and output an LED drive signal for driving each LED of the light emitting unit 31 in accordance with a control signal output from the processor 4.
  • the processor 4 includes an image sensor driving unit 41, an image processing unit 42, an observation image generating unit 43, an input I / F (interface) 44, and a control unit 45.
  • the image sensor drive unit 41 is configured to generate and output an image sensor drive signal for driving the image sensor 24 in accordance with a control signal output from the control unit 45.
  • the image processing unit 42 includes a color separation processing unit 42A and a matrix processing unit 42B.
  • the color separation processing unit 42A uses the image data output from the signal processing circuit 27 in accordance with the control signal output from the control unit 45, and a plurality of spectral image data corresponding to a plurality of color components included in the image data. Are configured to perform color separation processing for generating each of.
  • the color separation processing unit 42A is configured to output a plurality of spectral image data obtained as a result of the above-described color separation processing to the matrix processing unit 42B.
  • the matrix processing unit 42B is a matrix for generating image data corresponding to a plurality of color components using a plurality of spectral image data output from the color separation processing unit 42A in accordance with a control signal output from the control unit 45. It is configured to perform processing.
  • the matrix processing unit 42B is configured to output image data corresponding to a plurality of color components obtained as a result of the matrix processing described above to the observation image generating unit 43.
  • the observation image generation unit 43 converts the image data corresponding to the plurality of color components output from the matrix processing unit 42B to the B (blue) channel, G ( An observation image is generated by selectively assigning to a green) channel and an R (red) channel.
  • the observation image generation unit 43 is configured to output the observation image generated as described above to the display device 5.
  • the input I / F 44 is configured to include one or more switches and / or buttons capable of giving instructions according to user operations. Specifically, the input I / F 44, for example, gives an instruction to set (switch) the observation mode of the endoscope system 1 to either the white light observation mode or the special light observation mode in accordance with a user operation.
  • An observation mode selector switch (not shown) that can be used is provided.
  • the control unit 45 includes a memory 45A that stores control information and the like used when controlling each unit of the endoscope system 1. Further, the control unit 45 generates and outputs a control signal for causing the endoscope system 1 to perform an operation according to the observation mode based on an instruction given by the observation mode changeover switch of the input I / F 44. It is configured.
  • the control unit 45 is configured to generate a control signal for setting an exposure period, a readout period, and the like of the image sensor 24 and output the control signal to the image sensor drive unit 41.
  • the control unit 45 is configured to generate and output a control signal for controlling the operation of each LED of the light emitting unit 31 via the light source control unit 34.
  • the control unit 45 is configured to perform brightness detection processing for detecting the current brightness in the observation mode set in the input I / F 44 based on the image data output from the signal processing circuit 27. . Further, the control unit 45 brings the current brightness obtained as a result of the brightness detection process close to the brightness target value set in advance for each observation mode that can be set in the input I / F 44. A control signal for performing the dimming operation is generated and output to the light source controller 34.
  • each unit other than the input I / F 44 in the processor 4 may be configured as an individual electronic circuit, or configured as a circuit block in an integrated circuit such as an FPGA (Field Programmable Gate Array). May be.
  • the processor 4 may include one or more CPUs.
  • a program for executing the function of each unit other than the input I / F 44 in the processor 4 is read from the memory 45A, and according to the read program. The operation may be performed in a computer.
  • the display device 5 includes, for example, an LCD (liquid crystal display) and the like, and is configured to display an observation image output from the processor 4.
  • LCD liquid crystal display
  • a user such as a surgeon, for example, connects each part of the endoscope system 1 and turns on the power, and then operates the observation mode switch of the input I / F 44 to change the observation mode of the endoscope system 1.
  • An instruction is given to set the white light observation mode.
  • control unit 45 When the control unit 45 detects that an instruction for setting the observation mode of the endoscope system 1 to the white light observation mode is performed, the control unit 45 simultaneously emits B light, G light, and R light from the light source device 3. A control signal for generating the signal is generated and output to the light source control unit 34. In addition, when the control unit 45 detects that an instruction for setting the observation mode of the endoscope system 1 to the white light observation mode is performed, the control unit 45 performs an operation according to the white light observation mode. A control signal is generated and output to the image sensor driving unit 41, the image processing unit 42, and the observation image generating unit 43.
  • the light source control unit 34 In response to the control signal output from the control unit 45, the light source control unit 34 generates an LED drive signal for causing the blue LED 31A, the green LED 31B, and the red LED 31C to emit light simultaneously in the white light observation mode.
  • the generated LED drive signal is output to the light emitting unit 31.
  • white light including B light, G light, and R light is emitted from the light source device 3 (light emitting unit 31) as illumination light in the white light observation mode, and the illumination is performed.
  • An imaging signal generated by irradiating the subject with light and imaging the return light (reflected light) of the illumination light is output from the imaging device 24 to the signal processing circuit 27, and an image generated based on the imaging signal Data is output from the signal processing circuit 27 to the color separation processing unit 42A.
  • the color separation processing unit 42A uses the image data output from the signal processing circuit 27 in the white light observation mode according to the control signal output from the control unit 45, and performs B spectroscopy corresponding to the blue component included in the image data. Color separation processing is performed to generate image data, G spectral image data corresponding to a green component included in the image data, and R spectral image data corresponding to a red component included in the image data.
  • the color separation processing unit 42A outputs the B spectral image data, the G spectral image data, and the R spectral image data obtained as a result of the above-described color separation processing to the matrix processing unit 42B.
  • the matrix processing unit 42B uses the B spectral image data output from the color separation processing unit 42A in the white light observation mode to output B component image data corresponding to the blue component.
  • the G component image data corresponding to the green component is generated using the G spectral image data generated and output from the color separation processing unit 42A, and the red component is generated using the R spectral image data output from the color separation processing unit 42A.
  • Matrix processing for generating R component image data corresponding to is performed.
  • the matrix processing unit 42B outputs the B component image data, the G component image data, and the R component image data obtained as a result of the matrix processing described above to the observation image generation unit 43.
  • the observation image generation unit 43 allocates the B component image data output from the matrix processing unit 42B to the B channel of the display device 5 in the white light observation mode according to the control signal output from the control unit 45, and the matrix processing unit
  • the white light observation image is generated by assigning the G component image data output from 42B to the G channel of the display device 5 and assigning the R component image data output from the matrix processing unit 42B to the R channel of the display device 5. Further, the observation image generation unit 43 outputs the white light observation image generated as described above to the display device 5.
  • the user While confirming the white light observation image displayed on the display device 5, the user inserts the insertion portion 6 into the subject and places the distal end of the insertion portion 6 in the vicinity of the desired subject inside the subject. To do. Thereafter, the user observes the input I / F 44 in a situation in which, for example, a white light observation image WG as schematically shown in FIG. By operating the mode switch, an instruction for setting the observation mode of the endoscope system 1 to the special light observation mode is given.
  • the white light observation image WG in FIG. 3 includes a tissue other than the mucous membrane in a region BNA corresponding to a region not covered with blood on the surface of the subject imaged by the endoscope apparatus 2 (imaging device 24).
  • FIG. 3 is a schematic diagram illustrating an example of an observation image displayed when the observation mode of the endoscope system according to the embodiment is set to the white light observation mode.
  • control unit 45 When the control unit 45 detects that an instruction for setting the observation mode of the endoscope system 1 to the special light observation mode has been performed, for example, the control unit 45 simultaneously emits B light and R light from the light source device 3. Control signal is generated and output to the light source controller 34. In addition, when the control unit 45 detects that an instruction for setting the observation mode of the endoscope system 1 to the special light observation mode is performed, the control unit 45 performs an operation according to the special light observation mode. A control signal is generated and output to the image sensor driving unit 41, the image processing unit 42, and the observation image generating unit 43.
  • the light source control unit 34 In response to the control signal output from the control unit 45, the light source control unit 34 generates an LED drive signal for causing the blue LED 31A and the red LED 31C to emit light simultaneously while quenching the green LED 31B in the special light observation mode.
  • the generated LED drive signal is output to the light emitting unit 31.
  • mixed light including B light and R light is emitted from the light source device 3 (light emitting unit 31) as illumination light, and the illumination light is emitted from the subject.
  • the imaging signal generated by imaging the return light (reflected light) of the illumination light is output from the imaging device 24 to the signal processing circuit 27, and the image data generated based on the imaging signal is a signal.
  • the data is output from the processing circuit 27 to the color separation processing unit 42A.
  • the color separation processing unit 42A uses the image data output from the signal processing circuit 27 in the special light observation mode according to the control signal output from the control unit 45, and uses the B spectrum corresponding to the blue component included in the image data. Color separation processing is performed to generate image data and R spectral image data corresponding to the red component included in the image data.
  • the color separation processing unit 42A outputs the B spectral image data and the R spectral image data obtained as a result of the above-described color separation processing to the matrix processing unit 42B.
  • the matrix processing unit 42B applies, for example, the B spectral image data output from the color separation processing unit 42A to the following formula (1) in the special light observation mode.
  • the matrix processing unit 42B outputs the B component image data, the G component image data, and the R component image data obtained as a result of the matrix processing described above to the observation image generation unit 43.
  • Bin represents the luminance value of one pixel included in the B spectral image data
  • Rin represents the luminance value of the one pixel included in the R spectral image data
  • Let ⁇ represent a constant set to a value greater than zero.
  • Bout represents the luminance value of one pixel included in the B component image data
  • Gout represents the luminance value of the one pixel included in the G component image data
  • the observation image generation unit 43 assigns the B component image data output from the matrix processing unit 42B to the B channel of the display device 5 in the special light observation mode according to the control signal output from the control unit 45, and the matrix processing unit A special light observation image is generated by assigning the G component image data output from 42B to the G channel of the display device 5 and assigning the R component image data output from the matrix processing unit 42B to the R channel of the display device 5. Further, the observation image generation unit 43 outputs the special light observation image generated as described above to the display device 5.
  • the image processing unit 42 is in the vicinity of 630 nm based on the image data generated by the signal processing circuit 27 according to the imaging signal output from the imaging element 24 in the special light observation mode.
  • R component image data corresponding to the R light having the center wavelength and B component image data corresponding to the B light having the center wavelength near 460 nm are respectively generated.
  • the image processing unit 42 uses the R spectral image data generated based on the image data output from the signal processing circuit 27 in the special light observation mode, and the G component image data and R component image data is generated, and B component image data is generated using B spectral image data generated based on the image data.
  • the R light included in the illumination light irradiated to the subject in the special light observation mode has a low extinction coefficient in the extinction characteristics of oxyhemoglobin and deoxyhemoglobin (see FIG. 4) and Since the center wavelength is within a wavelength range in which the scattering coefficient in the scattering characteristic is low, the blood existing in the region BPA can be substantially transmitted to reach deeper than the surface of the subject (the deep layer of the biological tissue). it can. That is, in the special light observation mode, by irradiating the subject with illumination light including R light that is highly permeable to blood and hardly scattered in the living tissue, information on the surface of the subject in the region BPA is included. Return light (reflected light) can be generated.
  • FIG. 4 is a graph showing the light absorption characteristics of oxyhemoglobin and reduced hemoglobin.
  • the B light included in the illumination light irradiated to the subject in the special light observation mode has a high extinction coefficient in the extinction characteristics of oxyhemoglobin and deoxyhemoglobin (see FIG. 4), and scattering of living tissue.
  • the center wavelength is within a wavelength range in which the scattering coefficient in the characteristics is higher than that of R light. That is, in the special light observation mode, by irradiating the subject with illumination light including B light that is easily absorbed by blood and scattered in the living tissue, the return including information on the surface of the subject in the region BNA is performed. Light (reflected light) can be generated.
  • the B light included in the illumination light irradiated to the subject in the special light observation mode has a center wavelength in a wavelength range in which the extinction coefficient in the fat absorption characteristic is higher than that of the R light. (See FIG. 5).
  • FIG. 5 is a diagram showing the light absorption characteristics of fat.
  • FIG. 6 is a schematic diagram illustrating an example of an observation image displayed when the observation mode of the endoscope system according to the embodiment is set to the special light observation mode.
  • the special light observation mode it is possible to determine whether or not a tissue other than the mucous membrane is present in the region covered with blood on the surface of the subject. It is possible to display a special light observation image that has characteristics and can specify a region where fat exists. Therefore, according to the present embodiment, it is possible to reduce the burden on the operator who performs work in a state where at least a part of the surface of the subject is covered with blood.
  • the light source device 3 may be provided with a red LED 31C that generates R light having a center wavelength of 615 nm or more.
  • a near-infrared LD laser diode
  • the light source device 3 may be provided with a near-infrared LD (laser diode) that generates near-infrared light having a center wavelength of 800 nm or less.
  • the light source device 3 of the present embodiment is a special light observation mode in which light having a central wavelength within a wavelength range from the red region to the near infrared region where the extinction coefficient in the absorption characteristics of oxyhemoglobin and reduced hemoglobin is low. It is only necessary to be configured to generate
  • the image processing unit 42 uses the R spectral image data generated based on the image data output from the signal processing circuit 27 to include the blue component, the green component, and the red component included in the special light observation image. Two of the three color components are generated, and the remaining of the three color components included in the special light observation image using the B spectral image data generated based on the image data It is only necessary to be configured to generate one color component.
  • the image processing unit 42 uses the R spectral image data generated based on the image data output from the signal processing circuit 27 to use the B component image data and the R component image data.
  • the G component image data may be generated using the B spectral image data generated based on the image data.
  • the image processing unit 42 generates B component image data and G component image data using, for example, R spectral image data generated based on the image data output from the signal processing circuit 27 in the special light observation mode.
  • the R component image data may be generated using the B spectral image data generated based on the image data.
  • the light irradiated on the subject together with the R light may be selected from either B light or G light.
  • the special light observation mode when the subject is irradiated with illumination light including R light and G light, the blue component contained in the special light observation image using the R spectral image data, green Among the three color components included in the special light observation image by generating two color components of the three color components of the component and the red component and using the G spectral image data instead of the B spectral image data The remaining one color component may be generated.
  • the matrix processing unit 42B may perform processing for making the proportion of the red component in each color component included in the special light observation image larger than the proportion of the green component.
  • the matrix processing may be performed in a state set in each of the above. According to such a setting, it is possible to determine whether or not a tissue other than the mucous membrane is present in the region covered with blood on the surface of the subject, and to determine the region of the subject that includes blood. A special light observation image with high color reproducibility can be displayed on the display device 5.
  • predetermined nine B component image data, G component image data, and R component image data output from the matrix processing unit 42B in the special light observation mode are obtained. Conversion to points on a predetermined color space defined by nine reference axes corresponding to each of hues (magenta, blue, blue cyan, cyan, green, yellow, red yellow, red, and red magenta) is performed and corrected.
  • a nine-axis color correction process which is a process, may be performed. In such a case, the B component image data, the G component image data, and the R component image data obtained as a result of the above nine-axis color correction process are output to the observation image generation unit 43. That's fine.
  • a spatial filter such as edge enhancement is applied to each of the G component image data and the R component image data output from the matrix processing unit 42B in the special light observation mode.
  • a structure emphasis process which is a process of applying the above, may be performed.
  • the B component image data output from the matrix processing unit 42B is assigned to the B channel of the display device 5, and the G component image data obtained as a result of the above-described structure enhancement processing is used.
  • the observation image generation unit 43 performs an operation of assigning to the G channel of the display device 5 and assigning the R component image data obtained as a result of the structure enhancement process to the R channel of the display device 5. Good.
  • the light emitted through the eyepiece lens 19 is converted into three wavelengths: blue light, green light, and red to near infrared light. Even if the camera unit 22 is provided with a dichroic prism that divides and emits light in a band and three image sensors for imaging light in the three wavelength bands that are emitted through the dichroic prism. Good.
  • the image sensor 24 may be configured by a monochrome image sensor.
  • a control signal for emitting the B light, the G light, and the R light from the light source device 3 in time division (sequentially) is transmitted from the control unit 45 to the light source control unit. It is sufficient that the output is made to 34.
  • a control signal for emitting the B light and the R light from the light source device 3 in a time-division manner is transmitted from the control unit 45 to the light source control unit 34.
  • the output should be made to
  • the subject in the special light observation mode, may be irradiated with white light having a broader band than light obtained by mixing B light, G light, and R light as illumination light.
  • return light from the subject may be split into B light, G light, and R light in the image sensor 24.
  • a predetermined spectral estimation matrix is applied to the B image data output from the signal processing circuit 27 when the subject is irradiated with B light alone.
  • spectral estimation processing for estimating and acquiring R spectral image data may be performed as processing of the image processing unit 42.
  • the color separation processing unit 42A since the color separation processing unit 42A is not necessary, the B image data output from the signal processing circuit 27 and the R spectral image data obtained as a result of the spectral estimation processing described above are used. May be output to the matrix processing unit 42B.
  • a predetermined spectral estimation matrix is applied to the R image data output from the signal processing circuit 27 when the subject is irradiated with R light alone.
  • a spectral estimation process for estimating and acquiring the B spectral image data may be performed as the process of the image processing unit 42.
  • the color separation processing unit 42A since the color separation processing unit 42A is not necessary, the R image data output from the signal processing circuit 27 and the B spectral image data obtained as a result of the spectral estimation processing described above May be output to the matrix processing unit 42B.
  • the light source device 3 (light emitting unit 31) generates light including B light, G light, and R light as illumination light
  • the color separation processing unit 42A outputs from the signal processing circuit 27.
  • B spectral image data, G spectral image data, and R spectral image data are generated based on the image data to be processed
  • the matrix processing unit 42B uses the B spectral image data, the G spectral image data, and the R spectral image data.
  • each color component included in the white light observation image and the special light observation image may be generated, and the observation image generation unit 43 may cause the display device 5 to display the white light observation image and the special light observation image together. .
  • the white light observation image is generated by using the operations of the image processing unit 42 and the observation image generation unit 43 in the white light observation mode, and the image processing in the special light observation mode is performed.
  • the special light observation image may be generated by using the operations of the unit 42 and the observation image generation unit 43.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

内視鏡システムは、少なくとも一部が血液により覆われた被写体の表面を照明するための照明光を発生する光源部と、被写体を撮像して撮像信号を出力する撮像部と、撮像信号に応じて生成された画像に基づき、酸化ヘモグロビン及び還元ヘモグロビンの吸光特性における吸光係数がいずれも低くなる波長範囲内に中心波長を有する第1の光に応じた第1の色成分と、青色域または緑色域に中心波長を有する第2の光に応じた第2の色成分と、を生成し、観察画像に含まれる青色成分、緑色成分及び赤色成分の3つの色成分のうちの2つの色成分を第1の色成分を用いて生成するとともに残りの1つの色成分を第2の色成分を用いて生成する画像処理部と、を有する。

Description

内視鏡システム
 本発明は、内視鏡システムに関し、特に、生体組織の観察に用いられる内視鏡システムに関するものである。
 医療分野の内視鏡観察においては、ヘモグロビンの吸光特性に応じて中心波長(波長帯域)を設定した狭帯域光を生体組織に対して照射することにより、当該生体組織の所望の深さに存在する血管を可視化するような観察手法が従来提案されている。
 具体的には、例えば、日本国特許第5427318号公報には、相対的にヘモグロビンに吸収され易い光である600nm付近の狭帯域光と、相対的にヘモグロビンに吸収され難い光である630nm付近の狭帯域光と、を粘膜に対して照射することにより、当該粘膜の深部に存在する太い血管を高コントラストで表示するような構成が開示されている。
 ここで、医療分野の内視鏡観察においては、例えば、被写体の表面の少なくとも一部が血液により覆われるような状況が発生した場合に、当該血液により覆われた領域の視認性が粘膜以外の組織の存在の有無を判別不可能な程度まで低下してしまうおそれがある、という問題点が生じている。
 しかし、日本国特許第5427318号公報には、前述の問題点を解消可能な手法について特に開示等されていない。そのため、日本国特許第5427318号公報に開示された構成によれば、被写体の表面の少なくとも一部が血液により覆われた状態で処置等の作業を行う術者に対して過度な負担を強いてしまう場合がある、という前述の問題点に応じた課題が生じている。
 本発明は、前述した事情に鑑みてなされたものであり、被写体の表面の少なくとも一部が血液により覆われた状態で作業を行う術者の負担を軽減可能な内視鏡システムを提供することを目的としている。
 本発明の一態様の内視鏡システムは、少なくとも一部が血液により覆われた被写体の表面を照明するための照明光を発生するように構成された光源部と、前記照明光が照射された前記被写体を撮像して撮像信号を出力するように構成された撮像部と、前記撮像部から出力される撮像信号に応じて生成された画像に基づき、酸化ヘモグロビン及び還元ヘモグロビンの吸光特性における吸光係数がいずれも低くなる赤色域から近赤外域までの波長範囲内に中心波長を有する第1の光に応じた第1の色成分と、青色域または緑色域に中心波長を有する第2の光に応じた第2の色成分と、をそれぞれ生成し、前記被写体の観察時に表示装置に表示される観察画像に含まれる青色成分、緑色成分及び赤色成分の3つの色成分のうちの2つの色成分を前記第1の色成分を用いて生成し、前記観察画像に含まれる前記3つの色成分のうちの残りの1つの色成分を前記第2の色成分を用いて生成するように構成された画像処理部と、を有する。
実施形態に係る内視鏡システムの要部の構成を示す図。 実施形態に係る内視鏡システムの光源装置に設けられた各LEDから発せられる光の波長帯域の一例を示す図。 実施形態に係る内視鏡システムの観察モードが白色光観察モードに設定されている場合に表示される観察画像の一例を示す模式図。 酸化ヘモグロビン及び還元ヘモグロビンの吸光特性を示す図。 脂肪の吸光特性を示す図。 実施形態に係る内視鏡システムの観察モードが特殊光観察モードに設定されている場合に表示される観察画像の一例を示す模式図。
 以下、本発明の実施形態について、図面を参照しつつ説明を行う。
 図1から図6は、本発明の実施形態に係るものである。
 内視鏡システム1は、図1に示すように、被検体内に挿入されるとともに、当該被検体内における生体組織等の被写体を撮像して得られた画像データを出力するように構成された内視鏡装置2と、当該被写体に照射される照明光を内視鏡装置2に供給するように構成された光源装置3と、内視鏡装置2から出力される画像データに基づいて観察画像を生成して出力するように構成されたプロセッサ4と、プロセッサ4から出力される観察画像を画面上に表示するように構成された表示装置5と、を有している。図1は、実施形態に係る内視鏡システムの要部の構成を示す図である。
 内視鏡装置2は、細長の挿入部6を備えた光学視管21と、光学視管21の接眼部7に対して着脱可能なカメラユニット22と、を有して構成されている。
 光学視管21は、被検体内に挿入可能な細長の挿入部6と、挿入部6の基端部に設けられた把持部8と、把持部8の基端部に設けられた接眼部7と、を有して構成されている
 挿入部6の内部には、図1に示すように、ケーブル13aを介して供給される照明光を伝送するためのライトガイド11が挿通されている。
 ライトガイド11の出射端部は、図1に示すように、挿入部6の先端部における照明レンズ15の近傍に配置されている。また、ライトガイド11の入射端部は、把持部8に設けられたライトガイド口金12に配置されている。
 ケーブル13aの内部には、図1に示すように、光源装置3から供給される照明光を伝送するためのライトガイド13が挿通されている。また、ケーブル13aの一方の端部には、ライトガイド口金12に対して着脱可能な接続部材(不図示)が設けられている。また、ケーブル13aの他方の端部には、光源装置3に対して着脱可能なライトガイドコネクタ14が設けられている。
 挿入部6の先端部には、ライトガイド11により伝送された照明光を外部へ出射するための照明レンズ15と、外部から入射される光に応じた光学像を得るための対物レンズ17と、が設けられている。また、挿入部6の先端面には、照明レンズ15が配置された照明窓(不図示)と、対物レンズ17が配置された対物窓(不図示)と、が相互に隣接して設けられている。
 挿入部6の内部には、図1に示すように、対物レンズ17により得られた光学像を接眼部7へ伝送するための複数のレンズLEを具備するリレーレンズ18が設けられている。すなわち、リレーレンズ18は、対物レンズ17から入射した光を伝送する伝送光学系としての機能を具備して構成されている。
 接眼部7の内部には、図1に示すように、リレーレンズ18により伝送された光学像を肉眼で観察可能とするための接眼レンズ19が設けられている。
 カメラユニット22は、撮像素子24と、信号処理回路27と、を有して構成されている。また、カメラユニット22は、信号ケーブル28の端部に設けられたコネクタ29を介してプロセッサ4に着脱可能に構成されている。
 撮像素子24は、例えば、カラーCMOS等のイメージセンサにより構成されている。また、撮像素子24は、プロセッサ4から出力される撮像素子駆動信号に応じた撮像動作を行うように構成されている。また、撮像素子24は、撮像部としての機能を具備し、接眼レンズ19を経て出射される光を撮像し、当該撮像した光に応じた撮像信号を生成して出力するように構成されている。
 信号処理回路27は、撮像素子24から出力される撮像信号に対し、例えば、相関二重サンプリング処理、ゲイン調整処理、及び、A/D変換処理等のような所定の信号処理を施すように構成されている。また、信号処理回路27は、前述の所定の信号処理を撮像信号に対して施すことにより得られた画像データを、信号ケーブル28が接続されたプロセッサ4へ出力するように構成されている。
 光源装置3は、光源部としての機能を具備し、少なくとも一部が血液により覆われた被写体の表面を照明するための照明光を発生するように構成されている。また、光源装置3は、発光部31と、合波器32と、集光レンズ33と、光源制御部34と、を有して構成されている。
 発光部31は、青色LED31Aと、緑色LED31Bと、赤色LED31Cと、を有して構成されている。すなわち、発光部31の各光源は、いずれも半導体光源により構成されている。
 青色LED31Aは、青色域に中心波長及び強度を有する(狭帯域な)青色光であるB光を発生するように構成されている。具体的には、青色LED31Aは、例えば、図2に示すように、中心波長が460nm付近に設定され、かつ、帯域幅が20nm程度に設定されたB光を発するように構成されている。また、青色LED31Aは、光源制御部34から供給されるLED駆動信号に応じて発光または消光するように構成されている。また、青色LED31Aは、光源制御部34から供給されるLED駆動信号に応じた発光光量を具備するB光を発生するように構成されている。図2は、実施形態に係る内視鏡システムの光源装置に設けられた各LEDから発せられる光の波長帯域の一例を示す図である。
 緑色LED31Bは、緑色域に中心波長及び強度を有する(狭帯域な)緑色光であるG光を発生するように構成されている。具体的には、緑色LED31Bは、例えば、図2に示すように、中心波長が540nm付近に設定され、かつ、帯域幅が20nm程度に設定されたG光を発するように構成されている。また、緑色LED31Bは、光源制御部34から供給されるLED駆動信号に応じて発光または消光するように構成されている。また、緑色LED31Bは、光源制御部34から供給されるLED駆動信号に応じた発光光量を具備するG光を発生するように構成されている。
 赤色LED31Cは、赤色域に中心波長及び強度を有する(狭帯域な)赤色光であるR光を発生するように構成されている。具体的には、赤色LED31Cは、例えば、図2に示すように、中心波長が630nm付近に設定され、かつ、帯域幅が20nm程度に設定されたR光を発するように構成されている。また、赤色LED31Cは、光源制御部34から供給されるLED駆動信号に応じて発光または消光するように構成されている。また、赤色LED31Cは、光源制御部34から供給されるLED駆動信号に応じた発光光量を具備するR光を発生するように構成されている。
 合波器32は、発光部31から発せられた各光を合波して集光レンズ33に入射させることができるように構成されている。
 集光レンズ33は、合波器32を経て入射した光を集光してライトガイド13へ出射するように構成されている。
 光源制御部34は、例えば、制御回路等を具備して構成されている。また、光源制御部34は、プロセッサ4から出力される制御信号に応じ、発光部31の各LEDを駆動させるためのLED駆動信号を生成して出力するように構成されている。
 プロセッサ4は、撮像素子駆動部41と、画像処理部42と、観察画像生成部43と、入力I/F(インターフェース)44と、制御部45と、を有して構成されている。
 撮像素子駆動部41は、制御部45から出力される制御信号に応じ、撮像素子24を駆動させるための撮像素子駆動信号を生成して出力するように構成されている。
 画像処理部42は、色分離処理部42Aと、マトリクス処理部42Bと、を有して構成されている。
 色分離処理部42Aは、制御部45から出力される制御信号に応じ、信号処理回路27から出力される画像データを用い、当該画像データに含まれる複数の色成分に対応する複数の分光画像データをそれぞれ生成するための色分離処理を行うように構成されている。また、色分離処理部42Aは、前述の色分離処理の処理結果として得られた複数の分光画像データをマトリクス処理部42Bへ出力するように構成されている。
 マトリクス処理部42Bは、制御部45から出力される制御信号に応じ、色分離処理部42Aから出力される複数の分光画像データを用いて複数の色成分に対応する画像データを生成するためのマトリクス処理を行うように構成されている。また、マトリクス処理部42Bは、前述のマトリクス処理の処理結果として得られた複数の色成分に対応する画像データを観察画像生成部43へ出力するように構成されている。
 観察画像生成部43は、制御部45から出力される制御信号に応じ、マトリクス処理部42Bから出力される複数の色成分に対応する画像データを、表示装置5のB(青色)チャンネル、G(緑色)チャンネル及びR(赤色)チャンネルに選択的に割り当てることにより観察画像を生成するように構成されている。また、観察画像生成部43は、前述のように生成した観察画像を表示装置5へ出力するように構成されている。
 入力I/F44は、ユーザの操作に応じた指示等を行うことが可能な1つ以上のスイッチ及び/またはボタンを具備して構成されている。具体的には、入力I/F44は、例えば、ユーザの操作に応じ、内視鏡システム1の観察モードを白色光観察モードまたは特殊光観察モードのいずれかに設定する(切り替える)ための指示を行うことが可能な観察モード切替スイッチ(不図示)を具備して構成されている。
 制御部45は、内視鏡システム1の各部の制御を行う際に用いられる制御情報等が格納されたメモリ45Aを有して構成されている。また、制御部45は、入力I/F44の観察モード切替スイッチにおいてなされた指示に基づき、内視鏡システム1の観察モードに応じた動作を行わせるための制御信号を生成して出力するように構成されている。また、制御部45は、撮像素子24の露光期間及び読出期間等を設定するための制御信号を生成して撮像素子駆動部41へ出力するように構成されている。また、制御部45は、光源制御部34を介して発光部31の各LEDの動作を制御するための制御信号を生成して出力するように構成されている。
 制御部45は、信号処理回路27から出力される画像データに基づき、入力I/F44において設定された観察モードにおける現在の明るさを検出するための明るさ検出処理を行うように構成されている。また、制御部45は、前述の明るさ検出処理の処理結果として得られた現在の明るさを、入力I/F44において設定可能な観察モード毎に予め設定された明るさ目標値に近づけるような調光動作を行わせるための制御信号を生成して光源制御部34へ出力するように構成されている。
 なお、本実施形態においては、プロセッサ4における入力I/F44以外の各部が、個々の電子回路として構成されていてもよく、または、FPGA(Field Programmable Gate Array)等の集積回路における回路ブロックとして構成されていてもよい。また、本実施形態においては、例えば、プロセッサ4が1つ以上のCPUを具備して構成されていてもよい。また、本実施形態に係る構成を適宜変形することにより、例えば、プロセッサ4における入力I/F44以外の各部の機能を実行させるためのプログラムがメモリ45Aから読み込まれるとともに、当該読み込まれたプログラムに応じた動作がコンピュータにおいて行われるようにしてもよい。
 表示装置5は、例えば、LCD(液晶ディスプレイ)等を具備し、プロセッサ4から出力される観察画像等を表示することができるように構成されている。
 続いて、本実施形態の作用について、以下に説明する。
 術者等のユーザは、例えば、内視鏡システム1の各部を接続して電源を投入した後、入力I/F44の観察モード切替スイッチを操作することにより、内視鏡システム1の観察モードを白色光観察モードに設定するための指示を行う。
 制御部45は、内視鏡システム1の観察モードを白色光観察モードに設定するための指示が行われたことを検知した際に、B光、G光及びR光を光源装置3から同時に出射させるための制御信号を生成して光源制御部34へ出力する。また、制御部45は、内視鏡システム1の観察モードを白色光観察モードに設定するための指示が行われたことを検知した際に、白色光観察モードに応じた動作を行わせるための制御信号を生成して撮像素子駆動部41、画像処理部42及び観察画像生成部43へ出力する。
 光源制御部34は、制御部45から出力される制御信号に応じ、白色光観察モードにおいて、青色LED31Aと、緑色LED31Bと、赤色LED31Cと、を同時に発光させるためのLED駆動信号を生成し、当該生成したLED駆動信号を発光部31へ出力する。そして、このような光源制御部34の動作に応じ、白色光観察モードにおいて、B光、G光及びR光を含む白色光が照明光として光源装置3(発光部31)から発せられ、当該照明光が被写体に照射され、当該照明光の戻り光(反射光)を撮像することにより生成された撮像信号が撮像素子24から信号処理回路27へ出力され、当該撮像信号に基づいて生成された画像データが信号処理回路27から色分離処理部42Aへ出力される。
 色分離処理部42Aは、制御部45から出力される制御信号に応じ、白色光観察モード時に信号処理回路27から出力される画像データを用い、当該画像データに含まれる青色成分に対応するB分光画像データと、当該画像データに含まれる緑色成分に対応するG分光画像データと、当該画像データに含まれる赤色成分に対応するR分光画像データと、をそれぞれ生成するための色分離処理を行う。また、色分離処理部42Aは、前述の色分離処理の処理結果として得られたB分光画像データ、G分光画像データ及びR分光画像データをマトリクス処理部42Bへ出力する。
 マトリクス処理部42Bは、制御部45から出力される制御信号に応じ、白色光観察モードにおいて、色分離処理部42Aから出力されるB分光画像データを用いて青色成分に対応するB成分画像データを生成し、色分離処理部42Aから出力されるG分光画像データを用いて緑色成分に対応するG成分画像データを生成し、色分離処理部42Aから出力されるR分光画像データを用いて赤色成分に対応するR成分画像データを生成するためのマトリクス処理を行う。また、マトリクス処理部42Bは、前述のマトリクス処理の処理結果として得られたB成分画像データ、G成分画像データ及びR成分画像データを観察画像生成部43へ出力する。
 観察画像生成部43は、制御部45から出力される制御信号に応じ、白色光観察モードにおいて、マトリクス処理部42Bから出力されるB成分画像データを表示装置5のBチャンネルに割り当て、マトリクス処理部42Bから出力されるG成分画像データを表示装置5のGチャンネルに割り当て、マトリクス処理部42Bから出力されるR成分画像データを表示装置5のRチャンネルに割り当てることにより白色光観察画像を生成する。また、観察画像生成部43は、前述のように生成した白色光観察画像を表示装置5へ出力する。
 ユーザは、表示装置5に表示される白色光観察画像を確認しつつ、挿入部6を被験者の内部に挿入するとともに、当該被験者の内部における所望の被写体の近傍に挿入部6の先端部を配置する。その後、ユーザは、所望の被写体に対する処置の実施等に伴い、例えば、図3に模式的に示すような白色光観察画像WGが表示装置5に表示されている状況において、入力I/F44の観察モード切替スイッチを操作することにより、内視鏡システム1の観察モードを特殊光観察モードに設定するための指示を行う。なお、図3の白色光観察画像WGは、内視鏡装置2(撮像素子24)により撮像された被写体の表面のうち、血液により覆われていない領域に相当する領域BNAに粘膜以外の組織が存在しないことを判別可能であるとともに、血液により覆われている領域に相当する領域BPAに粘膜以外の組織が存在しているか否かを判別不可能であるような状況の一例を示しているものとする。図3は、実施形態に係る内視鏡システムの観察モードが白色光観察モードに設定されている場合に表示される観察画像の一例を示す模式図である。
 制御部45は、内視鏡システム1の観察モードを特殊光観察モードに設定するための指示が行われたことを検知した際に、例えば、B光及びR光を光源装置3から同時に出射させるための制御信号を生成して光源制御部34へ出力する。また、制御部45は、内視鏡システム1の観察モードを特殊光観察モードに設定するための指示が行われたことを検知した際に、特殊光観察モードに応じた動作を行わせるための制御信号を生成して撮像素子駆動部41、画像処理部42及び観察画像生成部43へ出力する。
 光源制御部34は、制御部45から出力される制御信号に応じ、特殊光観察モードにおいて、緑色LED31Bを消光させつつ、青色LED31A及び赤色LED31Cを同時に発光させるためのLED駆動信号を生成し、当該生成したLED駆動信号を発光部31へ出力する。そして、このような光源制御部34の動作に応じ、特殊光観察モードにおいて、B光及びR光を含む混合光が照明光として光源装置3(発光部31)から発せられ、当該照明光が被写体に照射され、当該照明光の戻り光(反射光)を撮像することにより生成された撮像信号が撮像素子24から信号処理回路27へ出力され、当該撮像信号に基づいて生成された画像データが信号処理回路27から色分離処理部42Aへ出力される。
 色分離処理部42Aは、制御部45から出力される制御信号に応じ、特殊光観察モード時に信号処理回路27から出力される画像データを用い、当該画像データに含まれる青色成分に対応するB分光画像データと、当該画像データに含まれる赤色成分に対応するR分光画像データと、をそれぞれ生成するための色分離処理を行う。また、色分離処理部42Aは、前述の色分離処理の処理結果として得られたB分光画像データ及びR分光画像データをマトリクス処理部42Bへ出力する。
 マトリクス処理部42Bは、制御部45から出力される制御信号に応じ、特殊光観察モードにおいて、例えば、色分離処理部42Aから出力されるB分光画像データを下記数式(1)に適用することによりB成分画像データを生成するとともに、色分離処理部42Aから出力されるR分光画像データを下記数式(1)に適用することによりG成分画像データ及びR成分画像データを生成するようなマトリクス処理を行う。また、マトリクス処理部42Bは、前述のマトリクス処理の処理結果として得られたB成分画像データ、G成分画像データ及びR成分画像データを観察画像生成部43へ出力する。
Figure JPOXMLDOC01-appb-I000001
 なお、上記数式(1)の右辺において、BinはB分光画像データに含まれる一の画素の輝度値を表し、RinはR分光画像データに含まれる当該一の画素の輝度値を表し、α及びβは0より大きな値に設定された定数を表すものとする。また、上記数式(1)の左辺において、BoutはB成分画像データに含まれる一の画素の輝度値を表し、GoutはG成分画像データに含まれる当該一の画素の輝度値を表し、RoutはR成分画像データに含まれる当該一の画素の輝度値を表すものとする。また、以降においては、特に言及の無い限り、α=β=1に設定されている場合を例に挙げて説明を行う。
 観察画像生成部43は、制御部45から出力される制御信号に応じ、特殊光観察モードにおいて、マトリクス処理部42Bから出力されるB成分画像データを表示装置5のBチャンネルに割り当て、マトリクス処理部42Bから出力されるG成分画像データを表示装置5のGチャンネルに割り当て、マトリクス処理部42Bから出力されるR成分画像データを表示装置5のRチャンネルに割り当てることにより特殊光観察画像を生成する。また、観察画像生成部43は、前述のように生成した特殊光観察画像を表示装置5へ出力する。
 すなわち、以上に述べた動作によれば、画像処理部42は、特殊光観察モードにおいて、撮像素子24から出力される撮像信号に応じて信号処理回路27により生成された画像データに基づき、630nm付近に中心波長を有するR光に応じたR成分画像データと、460nm付近に中心波長を有するB光に応じたB成分画像データと、をそれぞれ生成する。また、以上に述べた動作によれば、画像処理部42は、特殊光観察モードにおいて、信号処理回路27から出力される画像データに基づいて生成したR分光画像データを用いてG成分画像データ及びR成分画像データを生成するとともに、当該画像データに基づいて生成したB分光画像データを用いてB成分画像データを生成する。
 ここで、特殊光観察モード時に被写体に対して照射される照明光に含まれるR光は、酸化ヘモグロビン及び還元ヘモグロビンの吸光特性における吸光係数がいずれも低くなる(図4参照)とともに、生体組織の散乱特性における散乱係数が低くなるような波長範囲内に中心波長を有しているため、領域BPAに存在する血液を略透過して当該被写体の表面以深(生体組織の深層)に到達することができる。すなわち、特殊光観察モードにおいて、血液に対する透過性が高くかつ生体組織において散乱され難いR光を含む照明光を被写体に対して照射することにより、領域BPAにおける当該被写体の表面以深の情報を含むような戻り光(反射光)を発生させることができる。また、以上に述べたような各部の動作によれば、特殊光観察モードにおいて、R光を含む照明光を被写体に照射してR分光画像データを取得するとともに、当該取得したR分光画像データの輝度値を特殊光観察画像に含まれる3つの色成分のうちの2つの色成分(緑色成分及び赤色成分)として用いるようにしている。図4は、酸化ヘモグロビン及び還元ヘモグロビンの吸光特性を示す図である。
 また、特殊光観察モード時に被写体に対して照射される照明光に含まれるB光は、酸化ヘモグロビン及び還元ヘモグロビンの吸光特性における吸光係数がいずれも高くなる(図4参照)とともに、生体組織の散乱特性における散乱係数がR光よりも高くなるような波長範囲内に中心波長を有している。すなわち、特殊光観察モードにおいて、血液に吸収され易くかつ生体組織において散乱され易いB光を含む照明光を被写体に対して照射することにより、領域BNAにおける当該被写体の表面の情報を含むような戻り光(反射光)を発生させることができる。また、特殊光観察モード時に被写体に対して照射される照明光に含まれるB光は、脂肪の吸光特性における吸光係数がR光よりも高くなるような波長範囲内に中心波長を有している(図5参照)。図5は、脂肪の吸光特性を示す図である。
 従って、本実施形態によれば、図3の白色光観察画像WGが表示装置5に表示されている状況において、内視鏡システム1の観察モードが特殊光観察モードに設定された際に、図6に模式的に示すような、粘膜以外の組織(骨等)が領域BPAに存在していることを視認可能な特殊光観察画像SGを表示装置5に表示させることができる。また、本実施形態によれば、特殊光観察モードにおいて、脂肪が存在する領域を他の領域とは異なる色調(例えば黄色調)で示すような特殊光観察画像を表示装置5に表示させることができる。図6は、実施形態に係る内視鏡システムの観察モードが特殊光観察モードに設定されている場合に表示される観察画像の一例を示す模式図である。
 以上に述べたように、本実施形態によれば、特殊光観察モードにおいて、被写体の表面のうちの血液により覆われている領域に粘膜以外の組織が存在しているか否かを判別可能な視認性を有するとともに、脂肪が存在する領域を特定可能な特殊光観察画像を表示させることができる。そのため、本実施形態によれば、被写体の表面の少なくとも一部が血液により覆われた状態で作業を行う術者の負担を軽減することができる。
 なお、出願人の検討によれば、酸化ヘモグロビン及び還元ヘモグロビンに対する吸光係数がいずれも低くなるような波長範囲の下限が615nm付近に存在するとの知見が得られている。そのため、本実施形態においては、615nm以上の中心波長を有するR光を発生する赤色LED31Cが光源装置3に設けられていればよい。または、本実施形態においては、例えば、800nm以下の中心波長を有する近赤外光を発生する近赤外LD(レーザダイオード)が光源装置3に設けられていてもよい。すなわち、本実施形態の光源装置3は、特殊光観察モードにおいて、酸化ヘモグロビン及び還元ヘモグロビンの吸光特性における吸光係数がいずれも低くなる赤色域から近赤外域までの波長範囲内に中心波長を有する光を発生するように構成されていればよい。
 また、本実施形態においては、画像処理部42が、信号処理回路27から出力される画像データに基づいて生成したR分光画像データを用いて特殊光観察画像に含まれる青色成分、緑色成分及び赤色成分の3つの色成分のうちの2つの色成分を生成するとともに、当該画像データに基づいて生成したB分光画像データを用いて当該特殊光観察画像に含まれる当該3つの色成分のうちの残りの1つの色成分を生成するように構成されていればよい。具体的には、画像処理部42は、特殊光観察モードにおいて、例えば、信号処理回路27から出力される画像データに基づいて生成したR分光画像データを用いてB成分画像データ及びR成分画像データを生成するとともに、当該画像データに基づいて生成したB分光画像データを用いてG成分画像データを生成するように構成されていてもよい。または、画像処理部42は、特殊光観察モードにおいて、例えば、信号処理回路27から出力される画像データに基づいて生成したR分光画像データを用いてB成分画像データ及びG成分画像データを生成するとともに、当該画像データに基づいて生成したB分光画像データを用いてR成分画像データを生成するように構成されていてもよい。
 また、本実施形態によれば、特殊光観察モードにおいて、R光とともに被写体に照射される光をB光またはG光のいずれかから選択することができるようにしてもよい。さらに、本実施形態によれば、特殊光観察モードにおいて、R光及びG光を含む照明光を被写体に照射する場合に、R分光画像データを用いて特殊光観察画像に含まれる青色成分、緑色成分及び赤色成分の3つの色成分のうちの2つの色成分を生成するとともに、B分光画像データの代わりにG分光画像データを用いて当該特殊光観察画像に含まれる当該3つの色成分のうちの残りの1つの色成分を生成するようにしてもよい。
 また、本実施形態によれば、特殊光観察画像に含まれる各色成分に占める赤色成分の割合を緑色成分の割合よりも大きくするための処理がマトリクス処理部42Bにおいて行われるようにしてもよい。具体的には、例えば、上記数式(1)の右辺の3×2行列に含まれるα及びβの値をα<βの関係を満たすような値(例えばα=0.6かつβ=1)にそれぞれ設定した状態でマトリクス処理が行われるようにしてもよい。そして、このような設定によれば、被写体の表面のうちの血液により覆われている領域に粘膜以外の組織が存在しているか否かを判別可能であるとともに、当該被写体における血液を含む領域の色再現性が高い特殊光観察画像を表示装置5に表示させることができる。
 また、本実施形態によれば、例えば、画像処理部42において、特殊光観察モード時にマトリクス処理部42Bから出力されるB成分画像データ、G成分画像データ及びR成分画像データを、所定の9つの色相(マゼンタ、ブルー、ブルーシアン、シアン、グリーン、イエロー、レッドイエロー、レッド及びレッドマゼンタ)の各々に対応する9本の基準軸によって定義された所定の色空間上の点に変換して補正する処理である9軸色補正処理が行われるようにしてもよい。なお、このような場合には、前述の9軸色補正処理の処理結果として得られたB成分画像データ、G成分画像データ及びR成分画像データが観察画像生成部43に出力されるようにすればよい。
 また、本実施形態によれば、例えば、画像処理部42において、特殊光観察モード時にマトリクス処理部42Bから出力されるG成分画像データ及びR成分画像データのそれぞれに対し、エッジ強調等の空間フィルタを適用する処理である構造強調処理が施されるようにしてもよい。なお、このような場合には、例えば、マトリクス処理部42Bから出力されるB成分画像データを表示装置5のBチャンネルに割り当て、前述の構造強調処理の処理結果として得られたG成分画像データを表示装置5のGチャンネルに割り当て、前述の構造強調処理の処理結果として得られたR成分画像データを表示装置5のRチャンネルに割り当てるような動作が観察画像生成部43において行われるようにすればよい。
 また、本実施形態によれば、撮像素子24の代わりに、例えば、接眼レンズ19を経て出射される光を青色域の光、緑色域の光及び赤色域~近赤外域の光の3つの波長帯域の光に分離して出射するダイクロイックプリズムと、当該ダイクロイックプリズムを経て出射される当該3つの波長帯域の光をそれぞれ撮像するための3つの撮像素子と、がカメラユニット22に設けられていてもよい。
 また、本実施形態によれば、例えば、撮像素子24がモノクロのイメージセンサにより構成されていてもよい。なお、このような場合には、例えば、白色光観察モードにおいて、B光、G光及びR光を光源装置3から時分割で(順次)出射させるための制御信号が制御部45から光源制御部34へ出力されるようにすればよい。また、前述のような場合には、例えば、特殊光観察モードにおいて、B光及びR光を光源装置3から時分割で(交互に)出射させるための制御信号が制御部45から光源制御部34へ出力されるようにすればよい。
 また、本実施形態によれば、例えば、特殊光観察モードにおいて、B光、G光及びR光を混合した光よりも広帯域な白色光が照明光として被写体に照射されるようにしてもよい。なお、このような場合には、被写体からの戻り光が撮像素子24においてB光、G光及びR光に分光されるようにすればよい。
 また、本実施形態によれば、例えば、特殊光観察モードにおいて、B光を単独で被写体に照射した際に信号処理回路27から出力されるB画像データに対して所定の分光推定マトリクスを適用することにより、R分光画像データを推定して取得するような分光推定処理が画像処理部42の処理として行われるようにしてもよい。なお、このような場合には、色分離処理部42Aが不要となるため、信号処理回路27から出力されるB画像データと、前述の分光推定処理の処理結果として得られたR分光画像データと、がマトリクス処理部42Bへそれぞれ出力されるようにすればよい。
 また、本実施形態によれば、例えば、特殊光観察モードにおいて、R光を単独で被写体に照射した際に信号処理回路27から出力されるR画像データに対して所定の分光推定マトリクスを適用することにより、B分光画像データを推定して取得するような分光推定処理が画像処理部42の処理として行われるようにしてもよい。なお、このような場合には、色分離処理部42Aが不要となるため、信号処理回路27から出力されるR画像データと、前述の分光推定処理の処理結果として得られたB分光画像データと、がマトリクス処理部42Bへそれぞれ出力されるようにすればよい。
 また、本実施形態によれば、例えば、光源装置3(発光部31)がB光、G光及びR光を含む光を照明光として発生し、色分離処理部42Aが信号処理回路27から出力される画像データに基づいてB分光画像データ、G分光画像データ及びR分光画像データをそれぞれ生成し、マトリクス処理部42Bが当該B分光画像データ、当該G分光画像データ及び当該R分光画像データを用いて白色光観察画像及び特殊光観察画像に含まれる各色成分を生成し、観察画像生成部43が当該白色光観察画像及び当該特殊光観察画像を併せて表示装置5に表示させるようにしてもよい。なお、このような場合には、例えば、白色光観察モード時の画像処理部42及び観察画像生成部43の動作を援用して白色光観察画像を生成するとともに、特殊光観察モード時の画像処理部42及び観察画像生成部43の動作を援用して特殊光観察画像を生成するようにすればよい。
 本発明は、上述した実施形態に限定されるものではなく、発明の趣旨を逸脱しない範囲内において種々の変更や応用が可能であることは勿論である。
 本出願は、2018年3月5日に日本国に出願された特願2018-38793号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲に引用されるものとする。

Claims (7)

  1.  少なくとも一部が血液により覆われた被写体の表面を照明するための照明光を発生するように構成された光源部と、
     前記照明光が照射された前記被写体を撮像して撮像信号を出力するように構成された撮像部と、
     前記撮像部から出力される撮像信号に応じて生成された画像に基づき、酸化ヘモグロビン及び還元ヘモグロビンの吸光特性における吸光係数がいずれも低くなる赤色域から近赤外域までの波長範囲内に中心波長を有する第1の光に応じた第1の色成分と、青色域または緑色域に中心波長を有する第2の光に応じた第2の色成分と、をそれぞれ生成し、前記被写体の観察時に表示装置に表示される観察画像に含まれる青色成分、緑色成分及び赤色成分の3つの色成分のうちの2つの色成分を前記第1の色成分を用いて生成し、前記観察画像に含まれる前記3つの色成分のうちの残りの1つの色成分を前記第2の色成分を用いて生成するように構成された画像処理部と、
     を有することを特徴とする内視鏡システム。
  2.  前記画像処理部は、前記観察画像に含まれる前記3つの色成分のうちの緑色成分及び赤色成分を前記第1の色成分を用いて生成し、前記観察画像に含まれる前記3つの色成分のうちの青色成分を前記第2の色成分を用いて生成する
     ことを特徴とする請求項1に記載の内視鏡システム。
  3.  前記画像処理部は、前記観察画像に含まれる前記3つの色成分に占める赤色成分の割合を緑色成分の割合よりも大きくするための処理を行う
     ことを特徴とする請求項2に記載の内視鏡システム。
  4.  前記画像処理部は、さらに、前記第1の色成分を用いて生成した緑色成分及び赤色成分のそれぞれに対して構造強調処理を施す
     ことを特徴とする請求項2に記載の内視鏡システム。
  5.  前記光源部は、前記第1の光及び前記第2の光を含む光を前記照明光として発生する
     ことを特徴とする請求項1に記載の内視鏡システム。
  6.  前記光源部は、前記第1の光と、青色域に中心波長を有する前記第2の光と、緑色域に中心波長を有する第3の光と、を含む光を前記照明光として発生し、
     前記画像処理部は、前記撮像部から出力される撮像信号に応じて生成された画像に基づき、前記第1の色成分と、前記第2の色成分と、前記第3の光に応じた第3の色成分と、をそれぞれ生成し、前記被写体の観察時に前記観察画像に併せて前記表示装置に表示される白色光観察画像に含まれる赤色成分を前記第1の色成分を用いて生成し、前記白色光観察画像に含まれる青色成分を前記第2の色成分を用いて生成し、前記白色光観察画像に含まれる緑色成分を前記第3の色成分を用いて生成する
     ことを特徴とする請求項1に記載の内視鏡システム。
  7.  前記光源部は、中心波長が630nm付近に設定された前記第1の光を発生し、中心波長が460nm付近に設定された前記第2の光を発生するとともに、中心波長が540nm付近に設定された前記第3の光を発生する
     ことを特徴とする請求項6に記載の内視鏡システム。
PCT/JP2018/029674 2018-03-05 2018-08-07 内視鏡システム WO2019171615A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201880090741.XA CN111818837B (zh) 2018-03-05 2018-08-07 内窥镜系统
JP2020504647A JP7059353B2 (ja) 2018-03-05 2018-08-07 内視鏡システム
US17/010,379 US20200397278A1 (en) 2018-03-05 2020-09-02 Endoscope system, image processing apparatus, image processing method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-038793 2018-03-05
JP2018038793 2018-03-05

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/010,379 Continuation US20200397278A1 (en) 2018-03-05 2020-09-02 Endoscope system, image processing apparatus, image processing method, and recording medium

Publications (1)

Publication Number Publication Date
WO2019171615A1 true WO2019171615A1 (ja) 2019-09-12

Family

ID=67846639

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/029674 WO2019171615A1 (ja) 2018-03-05 2018-08-07 内視鏡システム

Country Status (4)

Country Link
US (1) US20200397278A1 (ja)
JP (1) JP7059353B2 (ja)
CN (1) CN111818837B (ja)
WO (1) WO2019171615A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023276158A1 (ja) * 2021-07-02 2023-01-05 オリンパスメディカルシステムズ株式会社 内視鏡プロセッサ、内視鏡装置及び診断用画像表示方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019171703A1 (ja) * 2018-03-05 2019-09-12 オリンパス株式会社 内視鏡システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006341078A (ja) * 2005-05-12 2006-12-21 Olympus Medical Systems Corp 生体観測装置
WO2013042396A1 (ja) * 2011-09-22 2013-03-28 オリンパスメディカルシステムズ株式会社 医療機器
JP5427318B1 (ja) * 2012-03-30 2014-02-26 オリンパスメディカルシステムズ株式会社 内視鏡装置
JP2014221168A (ja) * 2013-05-14 2014-11-27 富士フイルム株式会社 プロセッサ装置、内視鏡システム、及び内視鏡システムの作動方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7530947B2 (en) * 2004-05-28 2009-05-12 Olympus Corporation Lesion portion determining method of infrared observing system
JP5376206B2 (ja) * 2007-12-05 2013-12-25 富士フイルム株式会社 位置特定システムおよびプログラム
JP2011104199A (ja) * 2009-11-19 2011-06-02 Fujifilm Corp 内視鏡装置
JP5435796B2 (ja) * 2010-02-18 2014-03-05 富士フイルム株式会社 画像取得装置の作動方法および画像撮像装置
US9211058B2 (en) 2010-07-02 2015-12-15 Intuitive Surgical Operations, Inc. Method and system for fluorescent imaging with background surgical image composed of selective illumination spectra
JP5028550B2 (ja) * 2010-10-26 2012-09-19 オリンパスメディカルシステムズ株式会社 内視鏡
JP5271364B2 (ja) * 2011-01-07 2013-08-21 富士フイルム株式会社 内視鏡システム
AU2012221758B2 (en) * 2011-02-24 2017-05-04 Eximo Medical Ltd. Hybrid catheter for tissue resection
JP5279863B2 (ja) * 2011-03-31 2013-09-04 富士フイルム株式会社 電子内視鏡及び電子内視鏡システム
JP5331855B2 (ja) 2011-08-29 2013-10-30 富士フイルム株式会社 内視鏡診断装置
JP6042817B2 (ja) * 2011-10-06 2016-12-14 オリンパス株式会社 蛍光観察装置
EP2790564A4 (en) * 2011-12-15 2016-06-08 Given Imaging Ltd DEVICE, SYSTEM AND METHOD FOR IN VIVO DETECTION OF BLEEDINGS IN THE STOMACH DARM TRACT
JP5753105B2 (ja) * 2012-01-16 2015-07-22 富士フイルム株式会社 電子内視鏡システム、画像処理装置及び画像処理装置の作動方法
WO2013115323A1 (ja) * 2012-01-31 2013-08-08 オリンパス株式会社 生体観察装置
JP5762344B2 (ja) 2012-03-28 2015-08-12 富士フイルム株式会社 画像処理装置及び内視鏡システム
EP2687148B1 (en) * 2012-03-30 2018-05-16 Olympus Corporation Endoscopic device
JP5702755B2 (ja) 2012-07-24 2015-04-15 富士フイルム株式会社 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡システムの作動方法
JP6253231B2 (ja) * 2012-12-27 2017-12-27 オリンパス株式会社 被検体観察システム及びその方法、カプセル型内視鏡システム
WO2015151703A1 (ja) * 2014-03-31 2015-10-08 富士フイルム株式会社 内視鏡システム及びその作動方法
WO2016147435A1 (ja) * 2015-03-17 2016-09-22 オリンパス株式会社 内視鏡装置
CN107405056B (zh) * 2015-03-17 2020-06-30 奥林巴斯株式会社 活体观察系统
JP6522539B2 (ja) 2016-03-18 2019-05-29 富士フイルム株式会社 内視鏡システム及びその作動方法
WO2017199535A1 (ja) * 2016-05-19 2017-11-23 オリンパス株式会社 生体観察システム
CN106236205A (zh) * 2016-07-27 2016-12-21 深圳市中科微光医疗器械技术有限公司 一种基于近红外相干断层成像技术的血管导航系统及方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006341078A (ja) * 2005-05-12 2006-12-21 Olympus Medical Systems Corp 生体観測装置
WO2013042396A1 (ja) * 2011-09-22 2013-03-28 オリンパスメディカルシステムズ株式会社 医療機器
JP5427318B1 (ja) * 2012-03-30 2014-02-26 オリンパスメディカルシステムズ株式会社 内視鏡装置
JP2014221168A (ja) * 2013-05-14 2014-11-27 富士フイルム株式会社 プロセッサ装置、内視鏡システム、及び内視鏡システムの作動方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023276158A1 (ja) * 2021-07-02 2023-01-05 オリンパスメディカルシステムズ株式会社 内視鏡プロセッサ、内視鏡装置及び診断用画像表示方法

Also Published As

Publication number Publication date
JPWO2019171615A1 (ja) 2021-01-07
CN111818837B (zh) 2023-12-08
JP7059353B2 (ja) 2022-04-25
US20200397278A1 (en) 2020-12-24
CN111818837A (zh) 2020-10-23

Similar Documents

Publication Publication Date Title
JP5426620B2 (ja) 内視鏡システムおよび内視鏡システムの作動方法
EP2465432B1 (en) Endoscope apparatus
US9414741B2 (en) Endoscopic diagnosis system
EP2371267A1 (en) Endoscope apparatus
CN108024689B (zh) 内窥镜装置
EP2465433A1 (en) Endoscope apparatus
CN108135459B (zh) 内窥镜装置
CN109195502B (zh) 活体观察系统
US20200337540A1 (en) Endoscope system
WO2017104046A1 (ja) 内視鏡装置
US11497390B2 (en) Endoscope system, method of generating endoscope image, and processor
JP6550420B2 (ja) 内視鏡装置
JP6947918B2 (ja) 内視鏡用光源装置及びその発光光量制御方法
CN109561812B (zh) 图像处理装置
US20200397278A1 (en) Endoscope system, image processing apparatus, image processing method, and recording medium
JP5766773B2 (ja) 内視鏡システムおよび内視鏡システムの作動方法
US20230329522A1 (en) Endoscope system and image processing method
CN108778088B (zh) 活体观察系统
JP7105300B2 (ja) 内視鏡システム及び内視鏡システムの作動方法
JP2012100733A (ja) 内視鏡診断装置
WO2018220908A1 (ja) 内視鏡システム
JP2022031393A (ja) 内視鏡装置
JP2020142090A (ja) 内視鏡システム
WO2018225316A1 (ja) 医療用制御装置
JP2021186321A (ja) 内視鏡システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18908506

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020504647

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18908506

Country of ref document: EP

Kind code of ref document: A1