WO2018207456A1 - 画像取得システム、画像取得方法、制御装置および制御方法 - Google Patents

画像取得システム、画像取得方法、制御装置および制御方法 Download PDF

Info

Publication number
WO2018207456A1
WO2018207456A1 PCT/JP2018/009839 JP2018009839W WO2018207456A1 WO 2018207456 A1 WO2018207456 A1 WO 2018207456A1 JP 2018009839 W JP2018009839 W JP 2018009839W WO 2018207456 A1 WO2018207456 A1 WO 2018207456A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
image acquisition
acquisition system
narrowband
output
Prior art date
Application number
PCT/JP2018/009839
Other languages
English (en)
French (fr)
Inventor
智之 大木
古川 昭夫
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2019517475A priority Critical patent/JP7234920B2/ja
Priority to US16/609,745 priority patent/US10849486B2/en
Priority to CN201880027921.3A priority patent/CN110545709B/zh
Priority to EP18798270.7A priority patent/EP3610780B1/en
Publication of WO2018207456A1 publication Critical patent/WO2018207456A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/046Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for infrared imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0084Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/26Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes using light guides
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/063Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for monochromatic or narrow-band illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image

Definitions

  • Patent Document 1 uses a combined light generated by narrowband light and broadband light as illumination light, and makes a specific biological structure higher by changing the light quantity ratio of the narrowband light and broadband light.
  • a technique for imaging with contrast is disclosed.
  • the technique disclosed in Patent Document 1 cannot properly prevent thermal damage in a region irradiated with illumination light.
  • the broadband light includes light of wavelength band components other than visible light, and the light of these wavelength band components is absorbed by the irradiation region (for example, a body part observed by an endoscope).
  • the irradiation area may be damaged due to the occurrence of the damage.
  • the present disclosure has been made in view of the above problems, and the object of the present disclosure is a new and improved technique that can more appropriately prevent thermal damage in a region irradiated with illumination light. Another object is to provide an image acquisition system, an image acquisition method, a control device, and a control method.
  • a first light source unit that emits narrowband light having a peak intensity in a specific band
  • a second light source unit that emits broadband light having a band wider than the specific band
  • the narrowband A generation unit that generates combined light using light and the broadband light
  • an imaging unit that captures an irradiation target of the combined light
  • a prediction unit that predicts the temperature of the irradiation target irradiated with the combined light
  • an image acquisition system comprising: a control unit that controls output of the narrowband light and the broadband light based on the prediction.
  • emitting narrowband light having a peak intensity in a specific band emitting broadband light having a band wider than the specific band, and outputting the narrowband light and the broadband light Generating the combined light, imaging the irradiation target of the combined light, predicting the temperature of the irradiation target in the region irradiated with the combined light, and narrowing the narrowing based on the prediction. Controlling the output of the band light and the broadband light is provided.
  • the narrow band light based on the prediction of the temperature of the irradiation region of the combined light generated using the narrow band light having the peak intensity in the specific band and the broadband light having a band wider than the specific band.
  • a control device includes a control unit that controls band light and the output of the broadband light.
  • the narrow band light based on the prediction of the temperature of the irradiation region of the combined light generated using the narrow band light having the peak intensity in the specific band and the broadband light having a band wider than the specific band.
  • a computer-implemented control method is provided which comprises controlling the band light and the output of the broadband light.
  • an endoscope has a continuous light spectrum such as a lamp light source (for example, a xenon lamp or a halogen lamp) or a white LED (Light Emitting Diode) as an illumination light source regardless of whether it is a soft mirror or a rigid mirror.
  • a lamp light source for example, a xenon lamp or a halogen lamp
  • a white LED Light Emitting Diode
  • an illumination light source regardless of whether it is a soft mirror or a rigid mirror.
  • a light source that emits light having a band wider than a specific band hereinafter referred to as “broadband light” for convenience
  • the emitted broadband light includes light in a wavelength band other than the visible light band (for example, about 400 [nm] to about 700 [nm]). Can be mentioned.
  • thermo damage damage due to heat
  • narrow band light light having peak intensity in a specific band such as red light, green light, and blue light (hereinafter referred to as “narrow band light” for convenience) is individually generated, and the narrow band light is generated.
  • a technique for generating white light by combining and using the white light as illumination light has been developed.
  • the white light generated by this technology basically does not contain light in the wavelength band other than the visible light band (or the light in the wavelength band other than the visible light band is weak), so the temperature rise in the irradiation area is suppressed. can do.
  • narrowband light has a discrete light spectrum
  • white light generated by combining narrowband light has a characteristic of low color rendering.
  • An image acquisition system, an image acquisition method, a control device, and a control method according to the present disclosure predict a temperature of a region irradiated with combined light generated by narrowband light and broadband light, and narrowband light based on the prediction Moreover, the occurrence of thermal damage can be prevented by controlling the output of broadband light.
  • the technology according to the present disclosure will be described in detail in the order of “2. Image acquisition system according to the present embodiment”, “3. Image acquisition system according to a modification”, and “4. Hardware configuration”.
  • Image acquisition system First, an image acquisition system according to an embodiment of the present disclosure will be described.
  • the present disclosure is applicable to various systems, apparatuses, or methods.
  • the present disclosure can be applied to an image acquisition system that uses illumination light at the time of imaging processing, an illumination device that illuminates illumination light (flashlight, stage lighting, etc.), etc. Not limited).
  • an illumination device that illuminates illumination light (flashlight, stage lighting, etc.)
  • a case where the present disclosure is applied to an image acquisition system will be described as an example.
  • the type of the image acquisition system according to the present embodiment is arbitrary.
  • the image acquisition system according to the present embodiment may be a medical (or industrial) endoscope system, a medical (or industrial) microscope system, a security (or surveillance) camera system, or the like ( Not limited to the system illustrated).
  • a case where the image acquisition system according to the present embodiment is a medical endoscope system will be described as an example.
  • the image acquisition system generates white light by combining narrow-band light and broadband light, and uses the white light as illumination light for the imaging process. More specifically, the image acquisition system includes three types of narrow-band light sources and one type of broadband light source, and the three types of narrow-band light sources emit red light, green light, and blue light.
  • the broadband light source emits white light.
  • the image acquisition system uses the predetermined combining optical system to combine red light, green light, blue light, and white light, which is narrowband light, as illumination light during imaging. Produces white light.
  • the combination of wavelength bands of light emitted from each narrow-band light source is arbitrary. For example, as long as white light is generated by combining narrowband light emitted from each narrowband light source, each narrowband light source may emit light in any wavelength band.
  • the image acquisition system predicts the temperature of the region where the generated white light is irradiated as illumination light by a predetermined method.
  • the prediction method is arbitrary.
  • the image acquisition system may predict the temperature of the irradiation region based on the amount of reflected light or scattered light from the irradiation region incident on the image sensor, or analyze the captured image to determine the state of the irradiation region.
  • the temperature of the irradiation region may be predicted based on the determination result, or the temperature of the irradiation region may be predicted using a device that measures and visualizes the heat of the irradiation region (for example, thermography). Also good.
  • the image acquisition system controls the output of narrowband light and broadband light based on the prediction of the temperature of the illumination light irradiation area. More specifically, when the image acquisition system predicts that the temperature of the irradiation area is higher than a predetermined value (in other words, when it is determined that there is a possibility of thermal damage), the output of the broadband light is reduced. , Increase the output of narrowband light. As a result, in the combined light, light in a wavelength band other than the visible light band included in the broadband light is reduced, so that the image acquisition system can suppress an increase in temperature of the irradiation region due to absorption of the light.
  • a predetermined value in other words, when it is determined that there is a possibility of thermal damage
  • FIG. 1 is a diagram showing an experimental result showing that the temperature rise in the irradiation region can be suppressed by controlling the output of narrowband light and broadband light.
  • FIG. 1 when combined light of only narrow band light (red light, green light, blue light) is used as illumination light (indicated as “RGB” in FIG. 1), narrow band light (red light) is used as illumination light. , Green light, blue light) and broadband light (white light) combined light is used (indicated as “RGBW” in FIG. 1.
  • the ratio of the light amount of the narrow band light and the light amount of the broadband light in the combined light is In each of the cases where only broadband light is used as illumination light (indicated as “W” in FIG. 1), the illumination light is irradiated to the pig liver with the same output and is predetermined. The maximum value of the temperature rise in the irradiated area after time has elapsed is shown.
  • the maximum value of the rising temperature of the irradiation region in each case is 30.9 [° C.] when only the combined light of the narrow band light is used as the illumination light. It was 34.4 [° C.] when the combined light of the narrow band light and the broadband light was used, and 37.1 [° C.] when only the broadband light was used as the illumination light. From the experimental result, it can be seen that the increase in the temperature of the irradiation region is suppressed by increasing the ratio of the narrow-band light in the combined light.
  • the image acquisition system when the temperature of the irradiation region is predicted to be lower than the predetermined value, the image acquisition system appropriately increases the output of the broadband light and decreases the output of the narrowband light.
  • the image acquisition system can improve the color rendering by increasing the ratio of the broadband light in the combined light.
  • the image acquisition system is configured so that the output (brightness) and color of illumination light do not change before or after the above control (or the output (brightness) and color change amount are To be kept within a predetermined range). More specifically, in the image acquisition system, the total value of the output of narrowband light and the amount of light of broadband light is maintained at a constant value (or a value within a predetermined range from the constant value) before and after the above control. Like that. In addition, the image acquisition system maintains the color temperature of the illumination light at a constant value (or a value within a predetermined range from the constant value) before and after the above control.
  • the image acquisition system can make the output (brightness) and color of illumination light constant before and after the above control. That is, the image acquisition system does not need to perform control such as lowering the amount of illumination light and increasing the gain of the image sensor before and after the above-described control. Can be provided. Details of the above processing will be described later.
  • the image acquisition system according to the present embodiment includes an image acquisition device 100 and a light source unit 200.
  • FIG. 2 is a block diagram illustrating an example of the configuration of the light source unit 200 according to the present embodiment.
  • the light source unit 200 according to the present embodiment includes a W light source unit 211, an R light source unit 212, a G light source unit 213, a B light source unit 214, a W light source control unit 221, and an R light source.
  • a control unit 222, a G light source control unit 223, a B light source control unit 224, and a multiplexing optical system 230 are provided.
  • each color light source unit 210 (W light source 211, R light source 212, G light source 213, B light source 214)
  • the W light source unit 211, the R light source unit 212, the G light source unit 213, and the B light source unit 214 (hereinafter, these light source units may be collectively referred to as “each color light source unit 210” for convenience) have a predetermined wavelength band. It is a light source that emits light. More specifically, each of the R light source unit 212, the G light source unit 213, and the B light source unit 214 is configured to function as a first light source unit that emits narrowband light having a peak intensity in a specific band.
  • the light source unit 212 emits red light
  • the G light source unit 213 emits green light
  • the B light source unit 214 emits blue light
  • the W light source unit 211 is configured to function as a second light source unit that emits white light that is broadband light.
  • a known laser light source such as a semiconductor laser light source, a solid laser light source, a liquid laser light source, a gas laser light source, a known LED, or the like can be used according to the wavelength band of emitted light. It is. For example, by using various types of semiconductor laser light sources, it is possible to further reduce the size of the apparatus.
  • a semiconductor laser light source is not particularly limited. In this document, as an example, a GaInP quantum well structure laser diode using a GaInP semiconductor is used as the R light source unit 212, and the G light source unit 213 and the B light source unit are used.
  • the W light source unit 211 is described assuming that a member that emits white light by emitting a phosphor with a blue LED is used. More specifically, it is a member that uses a blue LED and a phosphor that is excited by blue light emitted by the blue LED and emits yellow light. White light is generated by combining the emitted blue light and yellow light. It is described on the assumption that a member that generates is used.
  • each color light source control unit 220 (W light source control unit 221, R light source control unit 222, G light source control unit 223, B light source control unit 224)
  • the W light source control unit 221, the R light source control unit 222, the G light source control unit 223, and the B light source control unit 224 (hereinafter, these light source units may be collectively referred to as “each color light source control unit 220” for convenience).
  • Each color light source unit 210 is controlled. More specifically, each color light source control unit 220 determines the output of light emitted from each color light source unit 210, the timing of light emission, etc., generates a control signal, and provides the control signal to each color light source unit 210 By doing so, each color light source unit 210 is controlled.
  • Each color light source control unit 220 controls each color light source unit 210 based on the provided control signal when a control signal is provided from the control unit 110 of the image acquisition apparatus 100 described later. For example, when the control unit 110 of the image acquisition apparatus 100 determines the output of light emitted from each color light source unit 210, the timing of emitting light, and the like, and provides a control signal including these pieces of information to each color light source control unit 220 Each color light source control unit 220 controls each color light source unit 210 based on the provided control signal.
  • the multiplexing optical system 230 functions as a generating unit that combines the light emitted from the color light source units 210 to generate white light. Note that the configuration and synthesis method of the multiplexing optical system 230 are arbitrary. Here, an example of the configuration of the multiplexing optical system 230 according to the present embodiment will be described with reference to FIGS. 3 and 4 are block diagrams illustrating an example of the configuration of the multiplexing optical system 230 according to the present embodiment.
  • the multiplexing optical system 230 includes, for example, a mirror 231 and three types of dichroic mirrors (“G-DM232”, “B-DM233”, “W-DM234” in FIG. 3). And a condensing lens 235.
  • the red light emitted from the R light source unit 212 is changed in optical path by the mirror 231 and then passes through three types of dichroic mirrors (G-DM232, B-DM233, W-DM234) and enters the condenser lens 235. .
  • the green light emitted from the G light source unit 213 is combined with the red light by switching the optical path by the G-DM 232 having a characteristic of transmitting light having a wavelength longer than that of the red light and reflecting the green light.
  • the light passes through the dichroic mirror (B-DM233, W-DM234) and enters the condenser lens 235.
  • the blue light emitted from the B light source unit 214 is combined with the red light and the green light by switching the optical path by the B-DM 233 having a characteristic of transmitting light having a wavelength longer than that of the green light and reflecting the blue light.
  • the light passes through the W-DM 234 and enters the condenser lens 235.
  • the white light emitted from the W light source unit 211 transmits red light, green light, and blue light, and the light path is switched by the W-DM 234 having a characteristic of reflecting light in the remaining wavelength band, whereby red light, green light, and green light are switched.
  • the light and the blue light are combined and enter the condenser lens 235.
  • the combined light collected by the condenser lens 235 enters the image acquisition device 100.
  • the configuration shown in FIG. 3 is merely an example, and can be changed as appropriate.
  • a collimating lens or the like that generates parallel light by transmitting light may be provided, or a rod integrator or the like that equalizes the in-plane intensity of each color light may be provided after the condenser lens 235. Good.
  • the light source unit 200 includes a PS converter 236 and a PBS (Polarizing Beam Splitter) 237 instead of the W-DM 234, and is emitted from the W light source unit 211.
  • White light may be incident on the PBS 237 in a state where the polarization direction is aligned by the PS converter 236, and may be combined by the PBS 237 so that the narrowband light and the polarization plane are orthogonal to each other. Note that the configuration shown in FIG.
  • a member other than the PS converter 236 may be used if the polarization direction can be selectively controlled, and a member other than the PBS 237 may be used if polarization multiplexing is possible.
  • FIG. 5 is a block diagram illustrating an example of the configuration of the image acquisition apparatus 100 according to the present embodiment.
  • the image acquisition apparatus 100 according to the present embodiment includes a control unit 110, a light guide 120, an illumination optical system 130, an objective optical system 140, a relay optical system 150, and an imaging optical system. 160 and an imaging unit 170.
  • the light guide 120 is usually an index guide type in which a plurality of multimode optical fibers having a core diameter of about 10 [ ⁇ m] to 80 [ ⁇ m] are bundled (bundled).
  • the light guide 120 is connected to the light source unit 200 and guides the combined light input by the light source unit 200 to the illumination optical system 130.
  • the light guide 120 is not particularly limited, and various known light guides can be used.
  • the illumination optical system 130 is an optical system that adjusts the imaging state of the illumination light propagated by the light guide 120 onto the observation object.
  • the illumination optical system 130 is not particularly limited, and various known illumination optical systems can be used.
  • the objective optical system 140 is an optical system for obtaining an observation image of the illumination light irradiation area.
  • the objective optical system 140 is not particularly limited, and various known optical systems can be used.
  • the observation image propagated by the objective optical system 140 is further guided to the imaging optical system 160 by the relay optical system 150.
  • the relay optical system 150 is an optical system that relays an image observed by the objective optical system 140 to the imaging optical system 160.
  • the relay optical system 150 is not particularly limited, and various known relay optical systems can be used.
  • the imaging optical system 160 is an optical system for forming an observation image of the observation object propagated by the relay optical system 150 on the imaging unit 170, and is optically connected to the subsequent imaging unit 170. .
  • the imaging optical system 160 is not particularly limited, and various known imaging optical systems can be used.
  • the imaging unit 170 is configured to generate an image data of a captured image by capturing an observation image inside the living body with illumination light from the light source unit 200 under the control of the control unit 110. More specifically, the imaging unit 170 captures an image close to the situation of direct observation with the human eye by using an imaging element (for example, CCD or CMOS) that is sensitive to the wavelength in the visible light band, The image is appropriately developed and then provided as an observation image to a display unit (not shown; display or the like) so that the observer can check the observation image via the display unit.
  • an imaging element for example, CCD or CMOS
  • the control unit 110 is realized by, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.
  • the control unit 110 is configured to control the overall functions of the image acquisition system, and is a unit corresponding to a camera control unit (CCU) of the image acquisition system, for example.
  • CCU camera control unit
  • control unit 110 functions as a prediction unit that predicts the temperature of the region irradiated with the combined light as illumination light by a predetermined method, and based on the prediction, the narrowband light and Controls the output of broadband light.
  • the prediction method is arbitrary.
  • the control unit 110 may predict the temperature of the irradiation region based on the amount of reflected light or scattered light from the irradiation region that enters the image sensor. More specifically, since the amount of reflected light or the like incident on the image sensor has a correlation with the temperature of the irradiation region, the controller 110 determines the temperature of the irradiation region based on the amount of light incident on the image sensor. Can be predicted.
  • the control unit 110 holds a table that records the correspondence between the amount of light incident on the image sensor and the temperature of the irradiation region, and predicts the temperature of the irradiation region based on the amount of light incident on the image sensor and the table. May be.
  • the amount of light incident on the image sensor also varies depending on the separation distance between the exit of the illumination optical system 130 and the irradiation area and the amount of illumination light.
  • the control unit 110 determines the emission port, the irradiation region, and the irradiation area based on the amount of light incident on the image sensor. Can be predicted. And the control part 110 may estimate the temperature of an irradiation area
  • control unit 110 holds a table that records the correspondence between the amount of illumination light, the separation distance between the exit and the irradiation region, and the temperature of the irradiation region, and the amount of illumination light (known), You may predict the temperature of an irradiation area
  • control part 110 may consider the duration of irradiation of illumination light together. More specifically, the severity of thermal damage may vary depending on the duration of illumination light irradiation. For example, even when the amount of illumination light is small, thermal damage may occur due to continuous irradiation for a longer time, or thermal damage may become severe. Therefore, the control part 110 can prevent generation
  • control unit 110 may determine the state of the irradiation region by analyzing the captured image, and predict the temperature of the irradiation region based on the determination result. More specifically, the irradiation region may visually change as the temperature of the irradiation region increases. For example, when illumination light is irradiated inside the living body, protein denaturation may occur as the temperature of the irradiation region rises, and the irradiation region may turn white. When the denaturation further progresses, protein carbonization occurs, and the irradiated region may turn black.
  • the control unit 110 may detect a change (for example, protein denaturation) associated with a temperature increase in the irradiation region by analyzing the captured image, and predict the temperature of the irradiation region based on the detection result.
  • a change for example, protein denaturation
  • control unit 110 may predict the temperature of the irradiation region using an apparatus (for example, thermography) that measures and visualizes the heat of the irradiation region.
  • an apparatus for example, thermography
  • the image acquisition system includes a thermography that images an irradiation region and measures the temperature of the irradiation region, and the control unit 110 predicts the temperature of the irradiation region based on the output from the thermography ( Or grasp).
  • the temperature of the irradiation region predicted by the control unit 110 is not particularly limited, and may be a maximum temperature value in the irradiation region or an average value of temperatures in the irradiation region.
  • the temperature may be a predetermined point in the irradiation region.
  • control unit 110 prevents the illumination light output (brightness) and color from changing (or the illumination light output (brightness) and color variation. Control the output of narrowband and broadband light (so that is kept within a predetermined range).
  • the control unit 110 determines the amount of broadband light when the predicted temperature of the irradiation region is higher than a predetermined threshold and the risk of thermal damage or burns is high. Control to decrease. And the control part 110 can make the total value of the light quantity of the illumination light inject
  • the tint is represented by the color temperature, and the color temperature of the illumination light is basically determined by the ratio of the mixed color lights.
  • the control unit 110 controls the color temperature of the illumination light to be constant by adjusting the mixing ratio of each color light while keeping the total light amount of the illumination light constant before and after the control. I do.
  • the control part 110 can adjust a light quantity and color temperature freely by referring to the said table by increase / decrease in the drive current of each color light source part 210.
  • FIG. When determining the driving current of each color light source unit 210, the control unit 110 generates a control signal including the information and provides the signal to each color light source control unit 220, thereby realizing the above control. This method is merely an example, and can be changed as appropriate.
  • the imaging unit 170 does not change the gain of the imaging device (or keeps the value before the change within a predetermined range).
  • control unit 110 may perform other various processing.
  • the control unit 110 may perform processing for notifying an observer of various types of information (information on the risk of thermal damage, information on the progress of the above processing contents, and the like).
  • the control unit 110 determines that there is a high risk of thermal damage, the control unit 110 controls a sounding device (not shown, a speaker, etc.) to sound an alarm or display a display unit (not shown, a display, etc.).
  • the information may be displayed by controlling.
  • FIG. 6 is a flowchart illustrating an example of the operation of the image acquisition system according to the present embodiment.
  • step S1000 the control unit 110 of the image acquisition apparatus 100 predicts the temperature of the illumination light irradiation region based on the amount of light incident on the image sensor, for example, as described above.
  • the control unit 110 determines that the adjustment of the output of the narrow band light and the broadband light is necessary (for example, when the temperature of the irradiation region is higher than a predetermined threshold or when the temperature of the irradiation region is predetermined) (Step S1004 / Yes)
  • step S1008 the control unit 110 determines the light amount before the change (the light amount emitted from each color light source control unit 220, the illumination). Light amount, etc.) and color temperature (color temperature of light emitted from each color light source controller 220, color temperature of illumination light, etc.).
  • the grasping method is arbitrary.
  • the control unit 110 may check the drive current of each color light source control unit 220 and calculate the light amount and the color temperature based on the drive current. If the controller 110 determines that the adjustment of the output of the narrow band light and the broadband light is unnecessary as a result of the temperature prediction of the irradiation region (step S1004 / No), the processes after step S1008 are not performed.
  • the control unit 110 reduces the amount of white light that is broadband light.
  • the amount of reduction in the amount of white light is arbitrary.
  • the control unit 110 may determine the amount of reduction in the amount of white light according to the temperature of the irradiation region and the speed at which the temperature rises.
  • the control unit 110 increases the light amount of the narrowband light by the amount of reduction of the white light amount.
  • the control unit 110 increases the total light amount of each color light (red light, green light, blue light), which is narrowband light, by the amount of reduction of the white light amount.
  • the control unit 110 can maintain the output (brightness) of the illumination light constant by maintaining the total value of the amount of illumination light constant.
  • the control unit 110 adjusts the mixing ratio of each color light so that the color temperature of the illumination light after the change becomes equal to the color temperature of the illumination light before the change.
  • control unit 110 allows the illumination light output (brightness) and the color to remain unchanged (or the illumination light output (brightness) and the color change amount are predetermined.
  • the temperature of the irradiation region can be reduced while maintaining the value within the range of (2).
  • control unit 110 according to the present embodiment can continuously emit more appropriate illumination light to the light source unit 200 by continuously repeating the operation illustrated in FIG. 6.
  • the control unit 110 grasps the light amount and the color temperature before the change, and makes these values constant (or the difference from the pre-change is predetermined).
  • the driving current of each color light source control unit 220 is changed (so that it is kept within the range of
  • the image acquisition system according to the modified example of the present disclosure includes a color sensor capable of sensing the combined light, and the control unit 110 controls the drive current of each color light source control unit 220 based on the output from the color sensor. To do.
  • the color sensor When the combined light is input, the color sensor outputs a component corresponding to red light as an R signal, outputs a component corresponding to green light as a G signal, and outputs a component corresponding to blue light as a B signal.
  • the control unit 110 makes the value of each signal (R signal, G signal, B signal) that is the output of the color sensor constant before and after the change (or the difference is kept within a predetermined range).
  • the output (brightness) and color of illumination light can be made constant before and after the change by a simpler method.
  • FIG. 7 is a flowchart illustrating an example of the operation of the image acquisition system according to the modification.
  • step S1100 the control unit 110 of the image acquisition apparatus 100 predicts the temperature of the illumination light irradiation region based on the amount of light incident on the image sensor, for example, as described above.
  • the control unit 110 determines that the adjustment of the output of the narrowband light and the broadband light is necessary (for example, when the predicted temperature is higher than a predetermined threshold or when the predicted temperature is higher than the predetermined threshold) In the case of rising at a fast pace, etc. (step S1104 / Yes)
  • step S1108 the control unit 110 grasps information on the illumination light before the change based on a signal output from the color sensor.
  • the value of R signal output from the color sensor prior to the change and C R the value of the G signal and C G, the value of B signal C B.
  • step S1112 the control unit 110 reduces the amount of white light that is broadband light.
  • step S1116 the control unit 110 changes the drive current of the R light source unit 212 checks whether or not the value of the output R signals from the color sensor is coincident with the C R is the value before the change, If the value of the R signal does not match the C R (step S1120 / no), changing the drive current of the R light source unit 212 again at step S1116. If the value of the R signal matches the C R (Step S1120 / Yes), the processing for the R light source unit 212 is completed.
  • step S1124 the control unit 110 changes the drive current of the G light source unit 213 checks whether the value of the G signal outputted from the color sensor is coincident with the C G is the value before the change, If the value of the G signal is not coincident with the C G (step S1128 / no), changing the drive current of the G light source unit 213 again at step S1124. If the value of the G signal is matched to the C G (step S1128 / Yes), the processing for the G light source unit 213 is completed.
  • step S1132 the control unit 110 changes the drive current of the B light source unit 214 checks whether or not the value of the output B signals from the color sensor is coincident with the C B is the value before the change, If the value of B signal does not match the C B (step S1136 / no), changing the drive current of the B light source unit 214 again at step S1132. If the value of B signal matches the C B (step S1136 / Yes), the processing for the B light source unit 214 is completed.
  • control unit 110 allows the output (brightness) and color of illumination light to be constant before and after the change by a simpler method using a color sensor (or the difference is within a predetermined range).
  • the temperature of the irradiation region can be reduced while being kept within.
  • FIG. 8 is a block diagram illustrating an example of a hardware configuration of the control unit 110 according to the present disclosure.
  • the control unit 110 mainly includes a CPU 901, a ROM 903, and a RAM 905.
  • the control unit 110 further includes a host bus 907, a bridge 909, an external bus 911, an interface 913, an input device 915, an output device 917, a storage device 919, a drive 921, and a connection port 923. And a communication device 925.
  • the CPU 901 functions as an arithmetic processing unit and a control unit, and in accordance with various programs recorded in the ROM 903, the RAM 905, the storage unit 919, or the removable recording medium 927, the overall operation in the control unit 110 or the image acquisition apparatus 100 or one of them. Control part.
  • the ROM 903 stores programs used by the CPU 901, calculation parameters, and the like.
  • the RAM 905 primarily stores programs used by the CPU 901, parameters that change as appropriate during execution of the programs, and the like. These are connected to each other by a host bus 907 constituted by an internal bus such as a CPU bus.
  • the host bus 907 is connected to an external bus 911 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 909.
  • PCI Peripheral Component Interconnect / Interface
  • the input device 915 is an operation means operated by the user such as a mouse, a keyboard, a touch panel, a button, a switch, and a lever.
  • the input device 915 may be, for example, remote control means (so-called remote control) using infrared rays or other radio waves, or an external connection device 929 such as a mobile phone or a PDA corresponding to the operation of the control unit 110. It may be.
  • the input device 915 includes an input control circuit that generates an input signal based on information input by a user using the above-described operation means and outputs the input signal to the CPU 901, for example. The user can input various data and instruct processing operations to the control unit 110 by operating the input device 915.
  • the output device 917 is a device that can notify the user of the acquired information visually or audibly.
  • Such devices include display devices such as CRT display devices, liquid crystal display devices, plasma display devices, EL display devices and lamps, audio output devices such as speakers and headphones, printer devices, mobile phones, and facsimiles.
  • the output device 917 outputs results obtained by various processes performed by the control unit 110.
  • the display device displays results obtained by various processes performed by the control unit 110 as text or images.
  • the audio output device converts an audio signal composed of reproduced audio data, acoustic data, and the like into an analog signal and outputs the analog signal.
  • the storage device 919 is a data storage device configured as an example of a storage unit of the control unit 110.
  • the storage device 919 includes, for example, a magnetic storage device such as an HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, or a magneto-optical storage device.
  • the storage device 919 stores programs executed by the CPU 901, various data, various data acquired from the outside, and the like.
  • the drive 921 is a reader / writer for a recording medium, and is built in or externally attached to the control unit 110.
  • the drive 921 reads information recorded on a removable recording medium 927 such as a mounted magnetic disk, optical disk, magneto-optical disk, or semiconductor memory, and outputs the information to the RAM 905.
  • the drive 921 can also write a record to a removable recording medium 927 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory that is mounted.
  • the removable recording medium 927 is, for example, a DVD medium, an HD-DVD medium, a Blu-ray (registered trademark) medium, or the like. Further, the removable recording medium 927 may be a CompactFlash (registered trademark) (CompactFlash: CF), a flash memory, an SD memory card (Secure Digital memory card), or the like. Further, the removable recording medium 927 may be, for example, an IC card (Integrated Circuit card) on which a non-contact IC chip is mounted, an electronic device, or the like.
  • IC card Integrated Circuit card
  • connection port 923 is a port for directly connecting a device to the control unit 110.
  • Examples of the connection port 923 include a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface) port, and the like.
  • As another example of the connection port 923 there are an RS-232C port, an optical audio terminal, an HDMI (registered trademark) (High-Definition Multimedia Interface) port, and the like.
  • the communication device 925 is a communication interface configured with, for example, a communication device for connecting to the communication network 931.
  • the communication device 925 is, for example, a communication card for wired or wireless LAN (Local Area Network), Bluetooth (registered trademark), or WUSB (Wireless USB).
  • the communication device 925 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), or a modem for various communication.
  • the communication device 925 can transmit and receive signals and the like according to a predetermined protocol such as TCP / IP, for example, with the Internet or other communication devices.
  • the communication network 931 connected to the communication device 925 is configured by a wired or wireless network, and may be, for example, the Internet, a home LAN, infrared communication, radio wave communication, satellite communication, or the like. .
  • the image acquisition system, the image acquisition method, the control device, and the control method according to the present disclosure predict the temperature of an area irradiated with illumination light generated by narrowband light and broadband light, The occurrence of thermal damage can be prevented by controlling the output of narrowband light and broadband light based on the prediction.
  • the image acquisition system, the image acquisition method, the control device, and the control method according to the present disclosure can make the output (brightness) and color of illumination light constant before and after the above control.
  • the image acquisition system, the image acquisition method, the control device, and the control method according to the modified example make the output (brightness) and color of illumination light constant before and after control by a simpler method using a color sensor. can do.
  • steps shown in the flowcharts described above do not necessarily have to be processed in time series in the order described in the flowcharts. That is, each step may be processed in an order different from the order described in the flowchart, or may be processed in parallel.
  • the functional configuration of the image acquisition device 100 or the light source unit 200 may be changed as appropriate.
  • a part of the functional configuration of the image acquisition device 100 or the light source unit 200 may be appropriately provided in an external device.
  • some of the functions of the image acquisition device 100 may be implemented by the control unit 110.
  • some of the functions of the light source unit 200 may be implemented by each color light source control unit 220 or the control unit 110 of the image acquisition apparatus 100.
  • the process of reducing the amount of illumination light and increasing the gain of the image sensor May be performed.
  • the image acquisition system according to the present disclosure may prevent thermal damage by performing a process of increasing the gain of the imaging element by reducing the amount of illumination light (or switching to a mode in which the process is performed).
  • the process of reducing the output of broadband light and increasing the output of narrowband light may be performed by an observer.
  • the image acquisition system according to the present disclosure provides auxiliary information such as providing various kinds of information (information on the light amount, information on the color temperature, information on the temperature of the irradiation region, etc.) so that the observer can perform the work more appropriately. May be performed.
  • a first light source unit that emits narrowband light having a peak intensity in a specific band
  • a second light source unit that emits broadband light having a band wider than the specific band
  • a generating unit that generates combined light using the narrowband light and the broadband light
  • An imaging unit for imaging the irradiation target of the combined light
  • a prediction unit that predicts the temperature of the region irradiated with the combined light in the irradiation target
  • a controller controls the output of the narrowband light and the broadband light based on the prediction, Image acquisition system.
  • the control unit decreases the output of the broadband light and increases the output of the narrowband light.
  • the image acquisition system according to (1) (3) When the temperature is predicted to be lower than a predetermined value, the control unit increases the output of the broadband light and decreases the output of the narrowband light. The image acquisition system according to (1) or (2). (4) The control unit performs the control before and after the control so that the amount of the combined light is maintained at a constant value or a value within a predetermined range from the constant value. The image acquisition system according to any one of (1) to (3). (5) The control unit performs the control before and after the control so that the color temperature of the combined light is maintained at a constant value or a value within a predetermined range from the constant value. The image acquisition system according to any one of (1) to (4).
  • the control unit performs the control based on an output from a color sensor to which the combined light is input.
  • the image acquisition system according to (4) or (5).
  • the imaging unit keeps the gain of the imaging element at a constant value or a value within a predetermined range from the constant value before and after the control,
  • the image acquisition system according to any one of (1) to (6).
  • the prediction unit performs the prediction based on incidence of reflected light or scattered light from the irradiation target on the imaging unit, The image acquisition system according to any one of (1) to (7).
  • the predicting unit predicts a separation distance between an emission port from which the combined light is emitted and the irradiation target based on the incidence, and performs the prediction based on the separation distance.
  • the image acquisition system according to (8).
  • the prediction unit performs the prediction based on an analysis of a captured image obtained by imaging the irradiation target, or an output from a thermography that images the irradiation target.
  • the image acquisition system according to any one of (1) to (7).
  • the generation unit generates the combined light that is white light.
  • the first light source unit emits a plurality of types of the narrowband light that is combined with each other to generate white light.
  • the second light source unit emits white light as the broadband light.
  • the image acquisition system is an endoscope system or a microscope system.
  • the image acquisition system according to any one of (1) to (13).
  • Emitting narrowband light having a peak intensity in a specific band Emitting broadband light having a wider band than the specific band; Generating combined light using the narrowband light and the broadband light; Imaging the irradiation target of the combined light; Performing prediction of the temperature of the region irradiated with the combined light in the irradiation target; Controlling the output of the narrowband light and the broadband light based on the prediction, and An image acquisition method executed by a computer.
  • DESCRIPTION OF SYMBOLS 100 Image acquisition apparatus 110 Control part 120 Light guide 130 Illumination optical system 140 Objective optical system 150 Relay optical system 160 Imaging optical system 170 Imaging part 200 Light source part 210 Each color light source part 220 Each color light source control part 230 Combined optical system

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Astronomy & Astrophysics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

【課題】照明光が照射される領域の熱損傷をより適切に防ぐことが可能となる。 【解決手段】特定帯域にピーク強度を有する狭帯域光を射出する第1の光源部と、前記特定帯域よりも広い帯域を有する広帯域光を射出する第2の光源部と、前記狭帯域光および前記広帯域光を用いて合波光を生成する生成部と、前記合波光の照射対象を撮像する撮像部と、前記照射対象における前記合波光が照射された領域の温度の予測を行う予測部と、前記予測に基づいて前記狭帯域光および前記広帯域光の出力の制御を行う制御部と、を備える、画像取得システムが提供される。

Description

画像取得システム、画像取得方法、制御装置および制御方法
 本開示は、画像取得システム、画像取得方法、制御装置および制御方法に関する。
 近年、複数種類の光によって生成された合波光を様々な用途に使用する研究が盛んに行われている。例えば、下記の特許文献1には、狭帯域光と広帯域光によって生成される合波光を照明光として使用し、狭帯域光と広帯域光の光量比を変化させることで特定の生体構造をより高いコントラストで撮像する技術が開示されている。
特開2016-49370号公報
 しかし、特許文献1に開示されている技術では、照明光が照射される領域の熱損傷を適切に防ぐことができなかった。より具体的には、広帯域光は、可視光以外の波長帯域成分の光を含んでおり、これらの波長帯域成分の光が照射領域(例えば、内視鏡で観察される生体部位等)に吸収されること等が原因で照射領域が損傷する場合がある。
 そこで、本開示は、上記問題に鑑みてなされたものであり、本開示の目的とするところは、照明光が照射される領域の熱損傷をより適切に防ぐことが可能な、新規かつ改良された画像取得システム、画像取得方法、制御装置および制御方法を提供することにある。
 本開示によれば、特定帯域にピーク強度を有する狭帯域光を射出する第1の光源部と、前記特定帯域よりも広い帯域を有する広帯域光を射出する第2の光源部と、前記狭帯域光および前記広帯域光を用いて合波光を生成する生成部と、前記合波光の照射対象を撮像する撮像部と、前記照射対象における前記合波光が照射された領域の温度の予測を行う予測部と、前記予測に基づいて前記狭帯域光および前記広帯域光の出力の制御を行う制御部と、を備える、画像取得システムが提供される。
 また、本開示によれば、特定帯域にピーク強度を有する狭帯域光を射出することと、前記特定帯域よりも広い帯域を有する広帯域光を射出することと、前記狭帯域光および前記広帯域光を用いて合波光を生成することと、前記合波光の照射対象を撮像することと、前記照射対象における前記合波光が照射された領域の温度の予測を行うことと、前記予測に基づいて前記狭帯域光および前記広帯域光の出力の制御を行うことと、を有する、コンピュータにより実行される画像取得方法が提供される。
 また、本開示によれば、特定帯域にピーク強度を有する狭帯域光と前記特定帯域よりも広い帯域を有する広帯域光を用いて生成された合波光の照射領域の温度の予測に基づいて前記狭帯域光および前記広帯域光の出力の制御を行う制御部を備える、制御装置が提供される。
 また、本開示によれば、特定帯域にピーク強度を有する狭帯域光と前記特定帯域よりも広い帯域を有する広帯域光を用いて生成された合波光の照射領域の温度の予測に基づいて前記狭帯域光および前記広帯域光の出力の制御を行うことを有する、コンピュータにより実行される制御方法が提供される。
 以上説明したように本開示によれば、照明光が照射される領域の熱損傷をより適切に防ぐことが可能となる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
狭帯域光および広帯域光の出力の制御によって照射領域の温度上昇を抑制できることを表す実験結果を示す図である。 本実施例に係る光源部の構成の一例を示すブロック図である。 本実施例に係る合波光学系の構成の一例を示すブロック図である。 本実施例に係る合波光学系の構成の一例を示すブロック図である。 本実施例に係る画像取得装置の構成の一例を示すブロック図である。 本実施例に係る画像取得システムの動作の一例を示すフローチャートである。 変形例に係る画像取得システムの動作の一例を示すフローチャートである。 本開示に係る制御部のハードウェア構成の一例を示すブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.背景
 2.本実施例に係る画像取得システム
 3.変形例に係る画像取得システム
 4.ハードウェア構成
 5.むすび
  <1.背景>
 様々な物体に照明光を照射することで当該物体の観察を行う装置、方法またはシステムが様々に研究されている。例えば、人体や構造物等の内部に照明光を照射することによって、これらの物体の内部構造を観察する装置として内視鏡が広く普及している。特に医療分野においては、内視鏡は、手術に関する技術の発展等に伴い急速に発展しており、今では多くの診療分野で不可欠な装置となっている。
 ここで、内視鏡においては、軟性鏡または硬性鏡を問わず、その照明用光源としてランプ光源(例えば、キセノンランプ、ハロゲンランプ等)または白色LED(Light Emitting Diode)等の、光スペクトルが連続的であり、特定帯域よりも広い帯域を有する光(以降、便宜的に「広帯域光」と呼称する)を射出する光源が用いられる場合がある。ランプ光源または白色LED等の特徴の一つとして、それらの射出する広帯域光が可視光帯域(例えば、約400[nm]~約700[nm])以外の波長帯域の光も含んでいることが挙げられる。
 可視光帯域以外の波長帯域の光は、観察者には見えない光であるため、物体の観察には不要な光である。その上、可視光帯域以外の波長帯域の光が観察対象物に吸収された場合、吸収された光のエネルギーが熱に変換されるため、観察対象物において光が照射された領域の温度が上昇し、熱による損傷(以降、便宜的に「熱損傷」と呼称する。特に人体における損傷を「熱傷」と呼称する)が発生する場合がある。
 一般的な内視鏡については、相当程度の出力の照明光が照射されている状態で照明光の射出口を観察対象物に近づけると、観察領域において熱損傷が発生する旨が注意事項として明示されている。そのため、例えば、手術等において、医師は、内視鏡を用いた患部の近接観察を長時間にわたって行うことを避け、適宜近接観察を中断したり、近接観察を要しない手術を行ったり、照明光の出力を下げて撮像装置のゲインを上げたりすること等によって熱傷の発生を防いでいる。しかし、近接観察を中断する等の対応によっては手術時間が長時間化し、照明光の出力を下げて撮像装置のゲインを上げる対応によっては得られる撮像画像のノイズが増加してしまう。
 また、例えば、赤色光、緑色光、青色光等の、特定帯域にピーク強度を有する光(以降、便宜的に「狭帯域光」と呼称する)を個別に発生させ、これらの狭帯域光を合波することで白色光を生成し、当該白色光を照明光として使用する技術が開発されている。当該技術によって生成された白色光は、基本的に、可視光帯域以外の波長帯域の光を含まない(または、可視光帯域以外の波長帯域の光が弱い)ため、照射領域の温度上昇を抑制することができる。しかし、狭帯域光は離散的な光スペクトルを有しているため、狭帯域光が合波されて生成された白色光は、演色性が低いという特徴を有している。
 そこで、本件の開示者は、上記事情に鑑み本技術を開発するに至った。本開示に係る画像取得システム、画像取得方法、制御装置および制御方法は、狭帯域光と広帯域光によって生成された合波光が照射された領域の温度を予測し、当該予測に基づいて狭帯域光および広帯域光の出力の制御を行うことで熱損傷の発生を防ぐことができる。以降では、「2.本実施例に係る画像取得システム」「3.変形例に係る画像取得システム」「4.ハードウェア構成」の順で本開示に係る技術を詳細に説明していく。
  <2.本実施例に係る画像取得システム>
 まず、本開示の一実施例に係る画像取得システムについて説明する。本開示は、様々なシステム、装置または方法に対して適用可能である。例えば、本開示は、撮像処理の際に照明光を使用する画像取得システム、照明光を照射する照明機器(懐中電灯、舞台照明等)等に対して適用可能である(例示したシステムや機器に限定されない)。本書では、本開示が画像取得システムに適用された場合を一例として説明する。
 本実施例に係る画像取得システムの種類は任意である。例えば、本実施例に係る画像取得システムは、医療用(または工業用)の内視鏡システム、医療用(または工業用)の顕微鏡システム、防犯(または監視)カメラシステム等であってもよい(例示したシステムに限定されない)。本書では、本実施例に係る画像取得システムが医療用の内視鏡システムである場合を一例として説明する。
 (2-1.本実施例に係る画像取得システムの機能概要)
 まず、本実施例に係る画像取得システムの機能概要について説明する。
 本実施例に係る画像取得システムは、狭帯域光と広帯域光を合波させて白色光を生成し、当該白色光を撮像処理の際の照明光として用いる。より具体的には、画像取得システムは、3種類の狭帯域光源と1種類の広帯域光源を備えており、3種類の狭帯域光源は赤色光、緑色光、青色光を射出し、1種類の広帯域光源は白色光を射出する。そして、画像取得システムは、所定の合波光学系を用いて狭帯域光である赤色光、緑色光、青色光および広帯域光である白色光を合波することで、撮像時の照明光として用いられる白色光を生成する。なお、各狭帯域光源が射出する光の波長帯域の組み合わせは任意である。例えば、各狭帯域光源が射出する狭帯域光の合波によって白色光が生成されれば各狭帯域光源はいずれの波長帯域の光を射出してもよい。
 そして、本実施例に係る画像取得システムは、生成された白色光が照明光として照射された領域の温度を所定の方法により予測する。当該予測方法は任意である。例えば、画像取得システムは、撮像素子に入射する照射領域からの反射光もしくは散乱光の光量に基づいて照射領域の温度を予測してもよいし、撮像画像を解析することで照射領域の状態を判定し、当該判定結果に基づいて照射領域の温度を予測してもよいし、照射領域が有する熱を計測し視覚化する装置(例えば、サーモグラフィー等)を用いて照射領域の温度を予測してもよい。
 さらに、本実施例に係る画像取得システムは、照明光の照射領域の温度の予測に基づいて狭帯域光および広帯域光の出力を制御する。より具体的には、画像取得システムは、照射領域の温度が所定値よりも高いと予測した場合(換言すると、熱損傷が発生する可能性があると判断した場合)、広帯域光の出力を下げ、狭帯域光の出力を上げる。これによって、合波光において、広帯域光に含まれる可視光帯域以外の波長帯域の光が減少するため、画像取得システムは、当該光の吸収による照射領域の温度上昇を抑制することができる。
 ここで、図1を参照して、狭帯域光および広帯域光の出力の制御によって照射領域の温度上昇を抑制できることを表す実験結果について説明する。図1は、狭帯域光および広帯域光の出力の制御によって照射領域の温度上昇を抑制できることを表す実験結果を示す図である。図1には、照明光として狭帯域光(赤色光、緑色光、青色光)のみの合波光が用いられた場合(図1では「RGB」と表記)、照明光として狭帯域光(赤色光、緑色光、青色光)と広帯域光(白色光)の合波光が用いられた場合(図1では「RGBW」と表記。なお、合波光における狭帯域光の光量と広帯域光の光量の割合が等しくなるように調整されている)、照明光として広帯域光のみが用いられた場合(図1では「W」と表記)のそれぞれにおいて、照明光が同一の出力で豚の肝臓に照射されて所定時間が経過した後の照射領域の上昇温度の最大値が示されている。
 図1に示すように、それぞれの場合における照射領域の上昇温度の最大値は、照明光として狭帯域光のみの合波光が用いられた場合においては30.9[℃]であり、照明光として狭帯域光と広帯域光の合波光が用いられた場合においては34.4[℃]であり、照明光として広帯域光のみが用いられた場合においては37.1[℃]であった。当該実験結果からも、合波光において狭帯域光の割合が増加されることによって照射領域の温度上昇が抑制されることが分かる。
 反対に、照射領域の温度が所定値よりも低いと予測される場合には、画像取得システムは、適宜広帯域光の出力を上げ、狭帯域光の出力を下げる。これによって、画像取得システムは、合波光における広帯域光の割合を増加させることによって、演色性を高めることができる。
 また、本実施例に係る画像取得システムは、上記の制御の前後において、照明光の出力(明るさ)および色味が変わらないように(または、出力(明るさ)や色味の変化量が所定の範囲内の値に保たれるように)することができる。より具体的には、画像取得システムは、上記の制御の前後において、狭帯域光の出力と広帯域光の光量の合計値が一定値(または一定値から所定の範囲内の値)に保たれるようにする。また、画像取得システムは、上記の制御の前後において、照明光の色温度が一定値(または一定値から所定の範囲内の値)に保たれるようにする。これらの処理によって、画像取得システムは、上記の制御の前後において、照明光の出力(明るさ)および色味を一定にすることができる。すなわち、画像取得システムは、上記の制御の前後において、照明光の光量を下げて撮像素子のゲインを上げる等の制御をしなくてもよくなり、ノイズが少なく観察し易い撮像画像を観察者に提供することができる。上記の処理の詳細については後述する。
 (2-2.本実施例に係る画像取得システムの構成)
 上記では、本実施例に係る画像取得システムの機能概要について説明した。続いて、本実施例に係る画像取得システムの構成について説明する。本実施例に係る画像取得システムは、画像取得装置100と光源部200と、を備える。
 (光源部200)
 まず、図2を参照して、本実施例に係る光源部200の構成について説明する。図2は、本実施例に係る光源部200の構成の一例を示すブロック図である。図2に示すように、本実施例に係る光源部200は、W光源部211と、R光源部212と、G光源部213と、B光源部214と、W光源制御部221と、R光源制御部222と、G光源制御部223と、B光源制御部224と、合波光学系230と、を備える。
 (W光源部211、R光源部212、G光源部213、B光源部214)
 W光源部211、R光源部212、G光源部213、B光源部214(以降、便宜的にこれらの光源部を「各色光源部210」と総称する場合がある)は、所定の波長帯域の光を射出する光源である。より具体的には、R光源部212、G光源部213、B光源部214のそれぞれは、特定帯域にピーク強度を有する狭帯域光を射出する第1の光源部として機能する構成であり、R光源部212は赤色光を射出し、G光源部213は緑色光を射出し、B光源部214は青色光を射出する。また、W光源部211は、広帯域光である白色光を射出する第2の光源部として機能する構成である。
 各色光源部210としては、射出される光の波長帯域に応じて、半導体レーザ光源、固体レーザ光源、液体レーザ光源および気体レーザ光源等の公知のレーザ光源や公知のLED等を利用することが可能である。例えば、各種の半導体レーザ光源が用いられることで、装置のより一層の小型化を図ることが可能である。かかる半導体レーザ光源は、特に限定されるものではないが、本書では、一例として、R光源部212として、GaInP半導体を利用したGaInP量子井戸構造レーザダイオードが用いられ、G光源部213およびB光源部214として、GaInN半導体を利用したGaInN量子井戸構造レーザダイオードが用いられることを想定して記載する。また、W光源部211としては、青色LEDによって蛍光体を発光させることで白色光を射出する部材が用いられることを想定して記載する。より具体的には、青色LEDと、青色LEDによって射出された青色光によって励起され黄色光を射出する蛍光体とを用いる部材であり、射出された青色光と黄色光との合波により白色光を生成する部材が用いられることを想定して記載する。
 (W光源制御部221、R光源制御部222、G光源制御部223、B光源制御部224)
 W光源制御部221、R光源制御部222、G光源制御部223、B光源制御部224(以降、便宜的にこれらの光源部を「各色光源制御部220」と総称する場合がある)は、各色光源部210を制御する。より具体的には、各色光源制御部220は、各色光源部210から射出させる光の出力および光を射出させるタイミング等を決定し、制御信号を生成し、当該制御信号を各色光源部210に提供することによって各色光源部210を制御する。また、各色光源制御部220は、後述する画像取得装置100の制御部110から制御信号が提供された場合には、提供された制御信号に基づいて各色光源部210を制御する。例えば、画像取得装置100の制御部110が各色光源部210から射出させる光の出力および光を射出させるタイミング等を決定し、これらの情報を含む制御信号を各色光源制御部220に提供した場合には、各色光源制御部220は、提供された制御信号に基づいて各色光源部210を制御する。
 (合波光学系230)
 合波光学系230は、各色光源部210から射出された光を合波し白色光を生成する生成部として機能する。なお、合波光学系230の構成および合成方法は任意である。ここで、図3および図4を参照して、本実施例に係る合波光学系230の構成の一例について説明する。図3および図4は、本実施例に係る合波光学系230の構成の一例を示すブロック図である。
 図3に示すように、本実施例に係る合波光学系230は、例えば、ミラー231と、3種類のダイクロイックミラー(図3では「G-DM232」、「B-DM233」、「W-DM234」と表記)と、集光レンズ235と、を備える。
 R光源部212から射出された赤色光は、ミラー231によって光路を切り替えられてから3種類のダイクロイックミラー(G-DM232、B-DM233、W-DM234)を透過して集光レンズ235へ入射する。G光源部213から射出された緑色光は、赤色光より長い波長の光を透過し緑色光を反射する特性を有するG-DM232によって光路を切り替えられることで赤色光と合波され、2種類のダイクロイックミラー(B-DM233、W-DM234)を透過して集光レンズ235へ入射する。B光源部214から射出された青色光は、緑色光より長い波長の光を透過し青色光を反射する特性を有するB-DM233によって光路を切り替えられることで赤色光および緑色光と合波され、W-DM234を透過して集光レンズ235へ入射する。
 W光源部211から射出された白色光は、赤色光、緑色光および青色光を透過し、残りの波長帯域の光を反射する特性を有するW-DM234によって光路を切り替えられることで赤色光、緑色光および青色光と合波され、集光レンズ235へ入射する。集光レンズ235によって集光された合波光は画像取得装置100へ入射する。なお、図3に示す構成はあくまで一例であり、適宜変更され得る。例えば、光を透過することによって平行光を生成するコリメートレンズ等が設けられてもよいし、集光レンズ235の後段に、各色光の面内強度を均一化するロッドインテグレータ等が設けられてもよい。
 また、R光源部212、G光源部213およびB光源部214から射出される各色光(レーザー光)の偏光方向が保存されていることを利用して偏波合波が行われてもよい。より具体的には、図4に示すように、光源部200は、W-DM234の代りに、PSコンバータ236と、PBS(Polarizing Beam Splitter)237と、を備え、W光源部211から射出された白色光が、PSコンバータ236によって偏光方向が揃えられた状態でPBS237に入射し、PBS237によって、狭帯域光と偏波面が直交するように合波されてもよい。なお、図4に示す構成はあくまで一例であり、適宜変更され得る。例えば、偏光方向を選択的に制御することが可能であればPSコンバータ236以外の部材が用いられてもよいし、偏波合波が可能であればPBS237以外の部材が用いられてもよい。
 (画像取得装置100)
 続いて、図5を参照して、本実施例に係る画像取得装置100の構成について説明する。図5は、本実施例に係る画像取得装置100の構成の一例を示すブロック図である。図5に示すように、本実施例に係る画像取得装置100は、制御部110と、ライトガイド120と、照明光学系130と、対物光学系140と、リレー光学系150と、結像光学系160と、撮像部170と、を備える。
 (ライトガイド120)
 ライトガイド120は、通常、インデックスガイド型の10[μm]~80[μm]程度のコア径を有する複数のマルチモード光ファイバが束ねられた(バンドルされた)ものである。ライトガイド120は、光源部200に接続されており、光源部200によって入力された合波光を照明光学系130へと導光する。かかるライトガイド120については、特に限定されるものではなく、公知の様々なライトガイドを利用することが可能である。
 (照明光学系130)
 照明光学系130は、ライトガイド120によって伝播された照明光の観察対象物への結像状態を調整する光学系である。かかる照明光学系130については、特に限定されるものではなく、公知の様々な照明光学系を利用することが可能である。
 (対物光学系140)
 対物光学系140は、照明光の照射領域の観察像を得るための光学系である。かかる対物光学系140については、特に限定されるものではなく、公知の各種の光学系を利用することが可能である。対物光学系140により伝播された観察像は、リレー光学系150によって、更に結像光学系160へと導光される。
 (リレー光学系150)
 リレー光学系150は、対物光学系140で観察された像を結像光学系160へとリレーする光学系である。なお、リレー光学系150は、特に限定されるものではなく、公知の様々なリレー光学系を利用することが可能である。
 (結像光学系160)
 結像光学系160は、リレー光学系150により伝播された観察対象物の観察像を、撮像部170に結像させるための光学系であり、後段の撮像部170と光学的に接続されている。かかる結像光学系160については、特に限定されるものではなく、公知の様々な結像光学系を利用することが可能である。
 (撮像部170)
 撮像部170は、制御部110による制御のもと、光源部200からの照明光による生体の内部の観察像を撮像して、撮像画像の画像データを生成する構成である。より具体的には、撮像部170は、可視光帯域の波長に感度のある撮像素子(例えば、CCDまたはCMOS等)を用いることで、人間の眼で直接観察する状況に近い画像を撮像し、かかる画像を適切に現像した上で、観察画像として、表示部(図示なし。ディスプレイ等)に提供することで、観察者が表示部を介して観察画像を確認することができるようにする。
 (制御部110)
 制御部110は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等により実現される。制御部110は、画像取得システムの全体的な機能を統括して制御する構成であり、例えば、画像取得システムのカメラコントロールユニット(CCU)に該当するユニットである。
 また、本実施例に係る制御部110は、上記のとおり、合成光が照明光として照射された領域の温度を所定の方法により予測する予測部として機能し、当該予測に基づいて狭帯域光および広帯域光の出力を制御する。
 ここで、上記のとおり、当該予測方法は任意である。例えば、制御部110は、撮像素子に入射する、照射領域からの反射光もしくは散乱光の光量に基づいて照射領域の温度を予測してもよい。より具体的には、撮像素子に入射する反射光等の光量は、照射領域の温度と相関を有しているため、制御部110は、撮像素子に入射する光量に基づいて照射領域の温度を予測することができる。例えば、制御部110は、撮像素子に入射する光量と照射領域の温度との対応関係を記録したテーブルを保持しておき、撮像素子に入射する光量と当該テーブルに基づいて照射領域の温度を予測してもよい。
 また、撮像素子に入射する光量は、照明光学系130の射出口と照射領域との離隔距離および照明光の光量に応じても変化する。ここで、照明光の光量は既知である(光源部200の各色光源部210の制御情報によって特定される)ため、制御部110は、撮像素子に入射する光量に基づいて射出口と照射領域との離隔距離を予測することができる。そして、制御部110は、当該離隔距離に基づいて照射領域の温度を予測してもよい。例えば、制御部110は、照明光の光量、射出口と照射領域との離隔距離、および、照射領域の温度の対応関係を記録したテーブルを保持しておき、照明光の光量(既知)と、射出口と照射領域との離隔距離の予測結果と、当該テーブルに基づいて照射領域の温度を予測してもよい。
 なお、制御部110は、併せて、照明光の照射の継続時間を考慮してもよい。より具体的には、照明光の照射の継続時間によって熱損傷の激しさが異なる場合がある。例えば、照明光の光量が少ない場合であってもより長い時間照射され続けることによって熱損傷が発生したり、熱損傷が激しくなったりする場合がある。したがって、制御部110は、例えば、照明光の照射の継続時間に関する情報を上記のテーブルに追加することで、より適切に熱損傷の発生を防ぐことができる。
 また、制御部110は、撮像画像を解析することで照射領域の状態を判定し、当該判定結果に基づいて照射領域の温度を予測してもよい。より具体的には、照射領域の温度の上昇に伴い照射領域が視覚的に変化する場合がある。例えば、生体内部に照明光が照射される場合、照射領域の温度上昇に伴いタンパク質の変性が生じ、照射領域が白く変色する場合がある。さらに変性が進展すると、タンパク質の炭化が生じ、照射領域が黒く変色する場合がある。制御部110は、撮像画像を解析することで、照射領域の温度上昇に伴う変化(例えば、タンパク質の変性等)を検知し、検知結果に基づいて照射領域の温度を予測してもよい。
 また、制御部110は、照射領域が有する熱を計測し視覚化する装置(例えば、サーモグラフィー等)を用いて照射領域の温度を予測してもよい。例えば、本実施例に係る画像取得システムが、照射領域を撮像し、照射領域の温度を測定するサーモグラフィーを備えており、制御部110は、当該サーモグラフィーによる出力に基づいて照射領域の温度を予測(または把握)してもよい。
 なお、制御部110が予測する照射領域の温度とは、特に限定されるものではなく、照射領域における温度の最大値であってもよいし、照射領域における温度の平均値であってもよいし、照射領域における所定の一点の温度であってもよい。
 そして、制御部110は、照射領域の温度の予測に基づいて、照明光の出力(明るさ)および色味が変わらないように(または、照明光の出力(明るさ)および色味の変化量が所定の範囲内の値に保たれるように)狭帯域光および広帯域光の出力を制御する。
 出力(明るさ)の維持についてより具体的に説明すると、制御部110は、予測した照射領域の温度が所定の閾値よりも高く、熱損傷または熱傷が発生するリスクが高い場合、広帯域光の光量を減少させるように制御する。そして、制御部110は、減少させた広帯域光の光量分だけ狭帯域光の光量を増加させることで、射出される照明光の光量の合計値を一定にすることができる。なお、上記の制御の前後において、制御部110は、照明光の光量の合計値を一定にしなくても、観察に支障が出ない程度に適宜変更させてもよい。
 また、色味の維持についてより具体的に説明すると、色味は色温度によって表され、照明光の色温度は、基本的に各色光が混合される割合によって決まる。制御部110は、上記のように、制御の前後において照明光の光量の合計値を一定にしつつ、各色光が混合される割合を調整することで照明光の色温度が一定となるように制御を行う。
 例えば、事前のシミュレーション等により、各色光源部210の駆動電流(または駆動電圧)と射出される光量との対応関係、および、各色光源部210の駆動電流(または駆動電圧)と照射光の色温度との対応関係を記録したテーブルが作成されているとする。これにより、制御部110は、当該テーブルを参照することで、各色光源部210の駆動電流の増減によって光量および色温度を自在に調整することができる。制御部110は、各色光源部210の駆動電流を決定すると、当該情報を含む制御信号を生成し、当該信号を各色光源制御部220に提供することによって上記の制御を実現する。なお、この方法はあくまで一例であり、適宜変更され得る。また、上記の制御の前後で、撮像部170は撮像素子のゲインを変更しない(または、変更前の値から所定の範囲内の値に保つ)こととする。
 なお、上記の処理はあくまで一例であり、制御部110はその他の各種処理を行ってもよい。例えば、制御部110は、各種情報(熱損傷が発生する危険性に関する情報、上記の処理内容の進捗状況に関する情報等)を観察者に通知する処理を行ってもよい。例えば、制御部110は、熱損傷が発生する危険性が高いと判断した場合、鳴動装置(図示なし。スピーカ等)を制御することでアラームを鳴らしたり、表示部(図示なし。ディスプレイ等)を制御することで当該情報を表示させたりしてもよい。
 (2-3.本実施例に係る画像取得システムの動作)
 上記では、本実施例に係る画像取得システムの構成について説明した。続いて、図6を参照して、本実施例に係る画像取得システムの動作について説明する。図6は、本実施例に係る画像取得システムの動作の一例を示すフローチャートである。
 ステップS1000では、画像取得装置100の制御部110が、例えば上記のように、撮像素子に入射する光量に基づいて照明光の照射領域の温度を予測する。照射領域の温度予測の結果、制御部110が狭帯域光と広帯域光の出力の調整が必要と判断した場合(例えば、照射領域の温度が所定の閾値より高い場合や、照射領域の温度が所定の閾値よりも早いペースで上昇している場合等)(ステップS1004/Yes)、ステップS1008にて、制御部110が、変更前における光量(各色光源制御部220から射出される光の光量、照明光の光量等)および色温度(各色光源制御部220から射出される光の色温度、照明光の色温度等)を把握する。
 ここで、把握方法は任意である。例えば、制御部110は、各色光源制御部220の駆動電流を確認し、当該駆動電流に基づいて光量および色温度を算出してもよい。なお、照射領域の温度予測の結果、制御部110が狭帯域光と広帯域光の出力の調整が不要と判断した場合(ステップS1004/No)には、ステップS1008以降の処理は行われない。
 ステップS1012では、制御部110は、広帯域光である白色光の光量を低減させる。ここで、白色光の光量の低減量は任意である。例えば、制御部110は、照射領域の温度や当該温度の上昇スピードに応じて白色光の光量の低減量を決定してもよい。ステップS1016では、制御部110は、白色光の光量の低減量だけ狭帯域光の光量を増加させる。換言すると、制御部110は、狭帯域光である各色光(赤色光、緑色光、青色光)の光量の合計値を白色光の光量の低減量だけ増加させる。これによって制御部110は、照明光の光量の合計値を一定に維持することで照明光の出力(明るさ)を一定に維持することができる。併せて、制御部110は、変更後における照明光の色温度が変更前における照明光の色温度と同等となるように各色光が混合される割合を調整する。
 上記の動作によって、本実施例に係る制御部110は、照明光の出力(明るさ)および色味が変わらないように(または、照明光の出力(明るさ)や色味の変化量が所定の範囲内の値に保たれるように)しつつ、照射領域の温度を低減させることができる。また、本実施例に係る制御部110は、図6に示した動作を連続的に繰り返すことによって、継続してより適切な照明光を光源部200に射出させ続けることができる。
  <3.変形例に係る画像取得システム>
 上記では、本実施例に係る画像取得システムの動作について説明した。続いて、本開示の変形例に係る画像取得システムについて説明する。
 上記の実施例においては、制御部110は、例えば図6に示したように、変更前における光量および色温度を把握し、これらの値が一定となるように(または変更前との差分が所定の範囲内に保たれるように)各色光源制御部220の駆動電流を変更していた。一方、本開示の変形例に係る画像取得システムは、合波光をセンシングできるカラーセンサーを備えており、制御部110は、当該カラーセンサーからの出力に基づいて各色光源制御部220の駆動電流を制御する。
 当該カラーセンサーは、合波光が入力されると、赤色光に対応する成分をR信号として出力し、緑色光に対応する成分をG信号として出力し、青色光に対応する成分をB信号として出力することとする。本変形例において、制御部110は、カラーセンサーの出力である各信号(R信号、G信号、B信号)の値を変更前後で一定にする(または差分が所定の範囲内に保たれるようにする)という、より簡易な方法によって、変更前後で照明光の出力(明るさ)および色味が一定となるようにすることができる。
 ここで、図7を参照して、変形例に係る画像取得システムの動作について説明する。図7は、変形例に係る画像取得システムの動作の一例を示すフローチャートである。
 ステップS1100では、画像取得装置100の制御部110が、例えば上記のように、撮像素子に入射する光量に基づいて照明光の照射領域の温度を予測する。照射領域の温度予測の結果、制御部110が狭帯域光と広帯域光の出力の調整が必要と判断した場合(例えば、予測温度が所定の閾値より高い場合や、予測温度が所定の閾値よりも早いペースで上昇している場合等)(ステップS1104/Yes)、ステップS1108にて、制御部110が、変更前における照明光の情報をカラーセンサーから出力される信号に基づいて把握する。ここで、変更前にカラーセンサーから出力されたR信号の値をCとし、G信号の値をCとし、B信号の値をCとする。
 ステップS1112では、制御部110は、広帯域光である白色光の光量を低減させる。ステップS1116では、制御部110は、R光源部212の駆動電流を変更し、カラーセンサーから出力されたR信号の値が変更前の値であるCに一致しているか否かを確認し、R信号の値がCに一致していない場合(ステップS1120/No)、ステップS1116にてR光源部212の駆動電流を再度変更する。R信号の値がCに一致した場合(ステップS1120/Yes)、R光源部212に対する処理が終了する。
 ステップS1124では、制御部110は、G光源部213の駆動電流を変更し、カラーセンサーから出力されたG信号の値が変更前の値であるCに一致しているか否かを確認し、G信号の値がCに一致していない場合(ステップS1128/No)、ステップS1124にてG光源部213の駆動電流を再度変更する。G信号の値がCに一致した場合(ステップS1128/Yes)、G光源部213に対する処理が終了する。
 ステップS1132では、制御部110は、B光源部214の駆動電流を変更し、カラーセンサーから出力されたB信号の値が変更前の値であるCに一致しているか否かを確認し、B信号の値がCに一致していない場合(ステップS1136/No)、ステップS1132にてB光源部214の駆動電流を再度変更する。B信号の値がCに一致した場合(ステップS1136/Yes)、B光源部214に対する処理が終了する。
 上記の動作によって、変形例に係る制御部110は、カラーセンサーを用いたより簡易な方法によって変更前後で照明光の出力(明るさ)および色味が一定となるように(または差分が所定の範囲内に保たれるように)しつつ、照射領域の温度を低減させることができる。
  <4.ハードウェア構成>
 次に、図8を参照しながら、本開示に係る制御部110のハードウェア構成について、詳細に説明する。図8は、本開示に係る制御部110のハードウェア構成の一例を示すブロック図である。
 制御部110は、主に、CPU901と、ROM903と、RAM905と、を備える。また、制御部110は、更に、ホストバス907と、ブリッジ909と、外部バス911と、インターフェース913と、入力装置915と、出力装置917と、ストレージ装置919と、ドライブ921と、接続ポート923と、通信装置925とを備える。
 CPU901は、演算処理装置及び制御装置として機能し、ROM903、RAM905、ストレージ装置919、又はリムーバブル記録媒体927に記録された各種プログラムに従って、制御部110内または画像取得装置100内の動作全般又はその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM905は、CPU901が使用するプログラムや、プログラムの実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバス等の内部バスにより構成されるホストバス907により相互に接続されている。
 ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
 入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ及びレバーなどユーザが操作する操作手段である。また、入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよいし、制御部110の操作に対応した携帯電話やPDA等の外部接続機器929であってもよい。さらに、入力装置915は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。ユーザは、この入力装置915を操作することにより、制御部110に対して各種のデータを入力したり処理動作を指示したりすることができる。
 出力装置917は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプなどの表示装置や、スピーカ及びヘッドホンなどの音声出力装置や、プリンタ装置、携帯電話、ファクシミリなどがある。出力装置917は、例えば、制御部110が行った各種処理により得られた結果を出力する。具体的には、表示装置は、制御部110が行った各種処理により得られた結果を、テキスト又はイメージで表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して出力する。
 ストレージ装置919は、制御部110の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等により構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、及び外部から取得した各種データなどを格納する。
 ドライブ921は、記録媒体用リーダライタであり、制御部110に内蔵、あるいは外付けされる。ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体927に記録を書き込むことも可能である。
 リムーバブル記録媒体927は、例えば、DVDメディア、HD-DVDメディア、Blu-ray(登録商標)メディア等である。また、リムーバブル記録媒体927は、コンパクトフラッシュ(登録商標)(CompactFlash:CF)、フラッシュメモリ、又は、SDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体927は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)又は電子機器等であってもよい。
 接続ポート923は、機器を制御部110に直接接続するためのポートである。接続ポート923の一例として、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポート等がある。接続ポート923の別の例として、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポート等がある。この接続ポート923に外部接続機器929を接続することで、制御部110は、外部接続機器929から直接各種データを取得したり、外部接続機器929に各種データを提供したりする。
 通信装置925は、例えば、通信網931に接続するための通信デバイス等で構成された通信インターフェースである。通信装置925は、例えば、有線又は無線LAN(Local Area Network)、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード等である。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は、各種通信用のモデム等であってもよい。この通信装置925は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置925に接続される通信網931は、有線又は無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信又は衛星通信等であってもよい。
 以上、本開示に係る制御部110の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、上記の実施例または変形例を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
  <5.むすび>
 以上で説明してきたように、本開示に係る画像取得システム、画像取得方法、制御装置および制御方法は、狭帯域光と広帯域光によって生成された照明光が照射された領域の温度を予測し、当該予測に基づいて狭帯域光および広帯域光の出力を制御することで熱損傷の発生を防ぐことができる。また、本開示に係る画像取得システム、画像取得方法、制御装置および制御方法は、上記の制御の前後において、照明光の出力(明るさ)および色味を一定にすることができる。また、変形例に係る画像取得システム、画像取得方法、制御装置および制御方法は、カラーセンサーを用いたより簡易な方法によって、制御の前後において、照明光の出力(明るさ)および色味を一定にすることができる。
 以上、添付図面を参照しながら本開示の好適な実施例について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上記の各フローチャートに示した各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。すなわち、各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
 また、画像取得装置100または光源部200の機能構成は適宜変更されてもよい。例えば、画像取得装置100または光源部200の機能構成の一部は、適宜外部装置に備えられてもよい。また、画像取得装置100の機能の一部が、制御部110によって具現されてもよい。また、光源部200の機能の一部が、各色光源制御部220や画像取得装置100の制御部110によって具現されてもよい。
 また、本開示に係る画像取得システムは、狭帯域光と広帯域光の出力を制御するだけでは熱損傷を防げないと判断した場合、照明光の光量を低減させて撮像素子のゲインを上げるという処理を行ってもよい。例えば、誤操作等によって照明光の射出口が照射対象に接近し過ぎた場合、狭帯域光と広帯域光の出力を制御するだけでは熱損傷を防ぐことが困難になる場合がある。そのとき、本開示に係る画像取得システムは、照明光の光量を低減させて撮像素子のゲインを上げるという処理を行う(または、当該処理を行うモードに切り替える)ことで熱損傷を防いでもよい。
 また、上記で説明した各種処理の一部は、観察者によって手動で行われてもよい。例えば、広帯域光の出力を低減させ狭帯域光の出力を増加させる処理は、観察者によって行われてもよい。その際、本開示に係る画像取得システムは、観察者がより適切に作業を行えるように各種情報(光量に関する情報、色温度に関する情報または照射領域の温度に関する情報等)を提供する等の補助的な処理を行ってもよい。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 特定帯域にピーク強度を有する狭帯域光を射出する第1の光源部と、
 前記特定帯域よりも広い帯域を有する広帯域光を射出する第2の光源部と、
 前記狭帯域光および前記広帯域光を用いて合波光を生成する生成部と、
 前記合波光の照射対象を撮像する撮像部と、
 前記照射対象における前記合波光が照射された領域の温度の予測を行う予測部と、
 前記予測に基づいて前記狭帯域光および前記広帯域光の出力の制御を行う制御部と、を備える、
 画像取得システム。
(2)
 前記制御部は、前記温度が所定値よりも高いと予測された場合、前記広帯域光の出力を下げ、前記狭帯域光の出力を上げる、
 前記(1)に記載の画像取得システム。
(3)
 前記制御部は、前記温度が所定値よりも低いと予測された場合、前記広帯域光の出力を上げ、前記狭帯域光の出力を下げる、
 前記(1)または(2)に記載の画像取得システム。
(4)
 前記制御部は、前記制御の前後で、前記合波光の光量が一定値もしく前記一定値から所定の範囲内の値に保たれるように前記制御を行う、
 前記(1)から(3)のいずれか1項に記載の画像取得システム。
(5)
 前記制御部は、前記制御の前後で、前記合波光の色温度が一定値もしく前記一定値から所定の範囲内の値に保たれるように前記制御を行う、
 前記(1)から(4)のいずれか1項に記載の画像取得システム。
(6)
 前記制御部は、前記合波光が入力されたカラーセンサーによる出力に基づいて前記制御を行う、
 前記(4)または(5)に記載の画像取得システム。
(7)
 前記撮像部は、前記制御の前後で、撮像素子のゲインを一定値もしく前記一定値から所定の範囲内の値に保つ、
 前記(1)から(6)のいずれか1項に記載の画像取得システム。
(8)
 前記予測部は、前記照射対象からの反射光もしくは散乱光の、前記撮像部への入射に基づいて前記予測を行う、
 前記(1)から(7)のいずれか1項に記載の画像取得システム。
(9)
 前記予測部は、前記入射に基づいて、前記合波光が射出される射出口と前記照射対象との離隔距離を予測し、前記離隔距離に基づいて前記予測を行う、
 前記(8)に記載の画像取得システム。
(10)
 前記予測部は、前記照射対象が撮像された撮像画像の解析、または、前記照射対象を撮像したサーモグラフィーによる出力に基づいて前記予測を行う、
 前記(1)から(7)のいずれか1項に記載の画像取得システム。
(11)
 前記生成部は、白色光である前記合波光を生成する、
 前記(1)から(10)のいずれか1項に記載の画像取得システム。
(12)
 前記第1の光源部は、互いに合波されることで白色光が生成される複数種類の前記狭帯域光を射出する、
 前記(11)に記載の画像取得システム。
(13)
 前記第2の光源部は、前記広帯域光として白色光を射出する、
 前記(11)または(12)に記載の画像取得システム。
(14)
 前記画像取得システムは、内視鏡システムまたは顕微鏡システムである、
 前記(1)から(13)のいずれか1項に記載の画像取得システム。
(15)
 特定帯域にピーク強度を有する狭帯域光を射出することと、
 前記特定帯域よりも広い帯域を有する広帯域光を射出することと、
 前記狭帯域光および前記広帯域光を用いて合波光を生成することと、
 前記合波光の照射対象を撮像することと、
 前記照射対象における前記合波光が照射された領域の温度の予測を行うことと、
 前記予測に基づいて前記狭帯域光および前記広帯域光の出力の制御を行うことと、を有する、
 コンピュータにより実行される画像取得方法。
(16)
 特定帯域にピーク強度を有する狭帯域光と前記特定帯域よりも広い帯域を有する広帯域光を用いて生成された合波光の照射領域の温度の予測に基づいて前記狭帯域光および前記広帯域光の出力の制御を行う制御部を備える、
 制御装置。
(17)
 特定帯域にピーク強度を有する狭帯域光と前記特定帯域よりも広い帯域を有する広帯域光を用いて生成された合波光の照射領域の温度の予測に基づいて前記狭帯域光および前記広帯域光の出力の制御を行うことを有する、
 コンピュータにより実行される制御方法。
 100  画像取得装置
 110  制御部
 120  ライトガイド
 130  照明光学系
 140  対物光学系
 150  リレー光学系
 160  結像光学系
 170  撮像部
 200  光源部
 210  各色光源部
 220  各色光源制御部
 230  合波光学系

Claims (17)

  1.  特定帯域にピーク強度を有する狭帯域光を射出する第1の光源部と、
     前記特定帯域よりも広い帯域を有する広帯域光を射出する第2の光源部と、
     前記狭帯域光および前記広帯域光を用いて合波光を生成する生成部と、
     前記合波光の照射対象を撮像する撮像部と、
     前記照射対象における前記合波光が照射された領域の温度の予測を行う予測部と、
     前記予測に基づいて前記狭帯域光および前記広帯域光の出力の制御を行う制御部と、を備える、
     画像取得システム。
  2.  前記制御部は、前記温度が所定値よりも高いと予測された場合、前記広帯域光の出力を下げ、前記狭帯域光の出力を上げる、
     請求項1に記載の画像取得システム。
  3.  前記制御部は、前記温度が所定値よりも低いと予測された場合、前記広帯域光の出力を上げ、前記狭帯域光の出力を下げる、
     請求項1に記載の画像取得システム。
  4.  前記制御部は、前記制御の前後で、前記合波光の光量が一定値もしく前記一定値から所定の範囲内の値に保たれるように前記制御を行う、
     請求項1に記載の画像取得システム。
  5.  前記制御部は、前記制御の前後で、前記合波光の色温度が一定値もしく前記一定値から所定の範囲内の値に保たれるように前記制御を行う、
     請求項1に記載の画像取得システム。
  6.  前記制御部は、前記合波光が入力されたカラーセンサーによる出力に基づいて前記制御を行う、
     請求項4に記載の画像取得システム。
  7.  前記撮像部は、前記制御の前後で、撮像素子のゲインを一定値もしく前記一定値から所定の範囲内の値に保つ、
     請求項1に記載の画像取得システム。
  8.  前記予測部は、前記照射対象からの反射光もしくは散乱光の、前記撮像部への入射に基づいて前記予測を行う、
     請求項1に記載の画像取得システム。
  9.  前記予測部は、前記入射に基づいて、前記合波光が射出される射出口と前記照射対象との離隔距離を予測し、前記離隔距離に基づいて前記予測を行う、
     請求項8に記載の画像取得システム。
  10.  前記予測部は、前記照射対象が撮像された撮像画像の解析、または、前記照射対象を撮像したサーモグラフィーによる出力に基づいて前記予測を行う、
     請求項1に記載の画像取得システム。
  11.  前記生成部は、白色光である前記合波光を生成する、
     請求項1に記載の画像取得システム。
  12.  前記第1の光源部は、互いに合波されることで白色光が生成される複数種類の前記狭帯域光を射出する、
     請求項11に記載の画像取得システム。
  13.  前記第2の光源部は、前記広帯域光として白色光を射出する、
     請求項11に記載の画像取得システム。
  14.  前記画像取得システムは、内視鏡システムまたは顕微鏡システムである、
     請求項1に記載の画像取得システム。
  15.  特定帯域にピーク強度を有する狭帯域光を射出することと、
     前記特定帯域よりも広い帯域を有する広帯域光を射出することと、
     前記狭帯域光および前記広帯域光を用いて合波光を生成することと、
     前記合波光の照射対象を撮像することと、
     前記照射対象における前記合波光が照射された領域の温度の予測を行うことと、
     前記予測に基づいて前記狭帯域光および前記広帯域光の出力の制御を行うことと、を有する、
     コンピュータにより実行される画像取得方法。
  16.  特定帯域にピーク強度を有する狭帯域光と前記特定帯域よりも広い帯域を有する広帯域光を用いて生成された合波光の照射領域の温度の予測に基づいて前記狭帯域光および前記広帯域光の出力の制御を行う制御部を備える、
     制御装置。
  17.  特定帯域にピーク強度を有する狭帯域光と前記特定帯域よりも広い帯域を有する広帯域光を用いて生成された合波光の照射領域の温度の予測に基づいて前記狭帯域光および前記広帯域光の出力の制御を行うことを有する、
     コンピュータにより実行される制御方法。
PCT/JP2018/009839 2017-05-08 2018-03-14 画像取得システム、画像取得方法、制御装置および制御方法 WO2018207456A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019517475A JP7234920B2 (ja) 2017-05-08 2018-03-14 画像取得システム、画像取得方法、制御装置および制御方法
US16/609,745 US10849486B2 (en) 2017-05-08 2018-03-14 Image acquisition system, image acquisition method, control device, and control method
CN201880027921.3A CN110545709B (zh) 2017-05-08 2018-03-14 图像获取系统、图像获取方法、控制装置和控制方法
EP18798270.7A EP3610780B1 (en) 2017-05-08 2018-03-14 Image acquisition system, image acquisition method, control device and control method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017092443 2017-05-08
JP2017-092443 2017-05-08

Publications (1)

Publication Number Publication Date
WO2018207456A1 true WO2018207456A1 (ja) 2018-11-15

Family

ID=64104630

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/009839 WO2018207456A1 (ja) 2017-05-08 2018-03-14 画像取得システム、画像取得方法、制御装置および制御方法

Country Status (5)

Country Link
US (1) US10849486B2 (ja)
EP (1) EP3610780B1 (ja)
JP (1) JP7234920B2 (ja)
CN (1) CN110545709B (ja)
WO (1) WO2018207456A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019042413A (ja) * 2017-09-07 2019-03-22 ソニー・オリンパスメディカルソリューションズ株式会社 医療用観察装置、および医療用観察システム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6646644B2 (ja) * 2017-12-22 2020-02-14 株式会社フジクラ レーザシステム
EP3667299B1 (en) * 2018-12-13 2022-11-09 Imec VZW Multimodal imaging system
CN111557632A (zh) * 2020-06-12 2020-08-21 深圳开立生物医疗科技股份有限公司 一种内窥镜光源和内窥镜系统
CN114052628A (zh) * 2021-11-26 2022-02-18 深圳英美达医疗技术有限公司 一种多光谱冷光源装置
CN116634254A (zh) * 2022-02-11 2023-08-22 深超光电(深圳)有限公司 成像系统及光学装置
CN116869460B (zh) * 2022-11-28 2024-07-02 上海澳华内镜股份有限公司 一种内窥镜光源装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05228098A (ja) * 1992-02-20 1993-09-07 Asahi Optical Co Ltd 測温内視鏡
JP2003290125A (ja) * 2002-03-29 2003-10-14 Olympus Optical Co Ltd センチネルリンパ節検出装置及び検出方法
JP2011200347A (ja) * 2010-03-25 2011-10-13 Fujifilm Corp 画像撮像装置
JP2016049370A (ja) 2014-09-02 2016-04-11 Hoya株式会社 電子内視鏡システム
WO2016056459A1 (ja) * 2014-10-10 2016-04-14 オリンパス株式会社 光源装置及び光源装置の制御方法
WO2016092958A1 (ja) * 2014-12-09 2016-06-16 ソニー株式会社 照明装置及び照明装置の制御方法並びに画像取得システム
JP2016120105A (ja) * 2014-12-25 2016-07-07 ソニー株式会社 照明装置、照明方法及び観察装置
WO2016203985A1 (ja) * 2015-06-19 2016-12-22 ソニー株式会社 医療支援装置および方法、並びに、医療支援システム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3361305B2 (ja) * 1999-01-14 2003-01-07 日本電信電話株式会社 光 源
JP2003000537A (ja) * 2001-06-27 2003-01-07 Fuji Photo Film Co Ltd 内視鏡用の撮像方法および装置
US8998802B2 (en) * 2006-05-24 2015-04-07 Olympus Medical Systems Corp. Endoscope, endoscopic apparatus, and examination method using endoscope
EP2470100B1 (en) * 2009-08-27 2017-09-20 New Jersey Institute of Technology Integrated fiber optic raman spectroscopy and radio frequency ablation
JP5534997B2 (ja) * 2010-08-03 2014-07-02 富士フイルム株式会社 電子内視鏡システム
AU2013371430A1 (en) * 2013-01-07 2015-07-30 Securus Medical Group, Inc. Temperature measurement systems, method and devices
US20140273051A1 (en) * 2013-03-15 2014-09-18 Rakesh Reddy Chemical sensing apparatus having multiple immobilized reagents
US10568522B2 (en) * 2013-10-23 2020-02-25 The Trustees Of Dartmouth College Surgical vision augmentation system
US10420608B2 (en) 2014-05-20 2019-09-24 Verily Life Sciences Llc System for laser ablation surgery
US9412667B2 (en) * 2014-11-25 2016-08-09 International Business Machines Corporation Asymmetric high-k dielectric for reducing gate induced drain leakage
EP3206560B1 (en) * 2014-12-25 2024-06-12 Sony Group Corporation Medical imaging system and illumination device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05228098A (ja) * 1992-02-20 1993-09-07 Asahi Optical Co Ltd 測温内視鏡
JP2003290125A (ja) * 2002-03-29 2003-10-14 Olympus Optical Co Ltd センチネルリンパ節検出装置及び検出方法
JP2011200347A (ja) * 2010-03-25 2011-10-13 Fujifilm Corp 画像撮像装置
JP2016049370A (ja) 2014-09-02 2016-04-11 Hoya株式会社 電子内視鏡システム
WO2016056459A1 (ja) * 2014-10-10 2016-04-14 オリンパス株式会社 光源装置及び光源装置の制御方法
WO2016092958A1 (ja) * 2014-12-09 2016-06-16 ソニー株式会社 照明装置及び照明装置の制御方法並びに画像取得システム
JP2016120105A (ja) * 2014-12-25 2016-07-07 ソニー株式会社 照明装置、照明方法及び観察装置
WO2016203985A1 (ja) * 2015-06-19 2016-12-22 ソニー株式会社 医療支援装置および方法、並びに、医療支援システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3610780A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019042413A (ja) * 2017-09-07 2019-03-22 ソニー・オリンパスメディカルソリューションズ株式会社 医療用観察装置、および医療用観察システム
JP7023643B2 (ja) 2017-09-07 2022-02-22 ソニー・オリンパスメディカルソリューションズ株式会社 医療用観察装置、および医療用観察システム

Also Published As

Publication number Publication date
EP3610780A4 (en) 2020-04-01
US20200069164A1 (en) 2020-03-05
US10849486B2 (en) 2020-12-01
CN110545709A (zh) 2019-12-06
EP3610780B1 (en) 2023-02-01
JP7234920B2 (ja) 2023-03-08
JPWO2018207456A1 (ja) 2020-03-12
EP3610780A1 (en) 2020-02-19
CN110545709B (zh) 2022-04-26

Similar Documents

Publication Publication Date Title
WO2018207456A1 (ja) 画像取得システム、画像取得方法、制御装置および制御方法
US11759092B2 (en) Endoscope system, processor device, and method of operating endoscope system
US20190180865A1 (en) Information processing apparatus, information processing method, program, and medical observation system
US10799087B2 (en) Endoscope system, operation method for endoscope system, and program for balancing conflicting effects in endoscopic imaging
US20210120646A1 (en) Light source system, control device, and control method
US10568492B2 (en) Medical observation device and medical observation method
US11509870B2 (en) Image acquisition system and image acquisition method
US20190113454A1 (en) Information processing device, image acquisition system, information processing method, image information acquisition method, and program
JP2021029258A (ja) 手術支援システム、手術支援方法、情報処理装置、及び情報処理プログラム
US10003774B2 (en) Image processing device and method for operating endoscope system
JP6927210B2 (ja) 観察装置
JP2019168423A (ja) 画像取得装置及び画像取得方法
JP2019023953A (ja) 光源装置および光源制御システム
WO2021033215A1 (ja) 内視鏡用プロセッサ、内視鏡システム、情報処理装置、プログラム及び情報処理方法
US20230131637A1 (en) Laser combination with in vivo target feedback analysis
JPWO2019216084A1 (ja) 検査動画処理装置、検査動画処理方法及び検査動画処理プログラム
WO2019146228A1 (ja) 医療用撮像装置及び医療用撮像方法
WO2019193995A1 (ja) 画像投影装置
WO2018207423A1 (ja) 医療用光源システム、医療用光源装置、医療用光源装置の光量調整方法
US20230126066A1 (en) Characterizing tissue using fluorescence emission
WO2021199566A1 (ja) 内視鏡システム、制御方法、及び制御プログラム
US20220022739A1 (en) Endoscope control device, method of changing wavelength characteristics of illumination light, and information storage medium
JP7556960B2 (ja) 内視鏡システム及びその作動方法
WO2024079785A1 (ja) 内視鏡システム、画像生成装置および画像生成方法
WO2021205777A1 (ja) プロセッサ装置及びその作動方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18798270

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019517475

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018798270

Country of ref document: EP

Effective date: 20191112