WO2019087557A1 - 内視鏡システム - Google Patents

内視鏡システム Download PDF

Info

Publication number
WO2019087557A1
WO2019087557A1 PCT/JP2018/032442 JP2018032442W WO2019087557A1 WO 2019087557 A1 WO2019087557 A1 WO 2019087557A1 JP 2018032442 W JP2018032442 W JP 2018032442W WO 2019087557 A1 WO2019087557 A1 WO 2019087557A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
light
image signal
unit
fluorescence
Prior art date
Application number
PCT/JP2018/032442
Other languages
English (en)
French (fr)
Inventor
竹腰 聡
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2019549897A priority Critical patent/JPWO2019087557A1/ja
Publication of WO2019087557A1 publication Critical patent/WO2019087557A1/ja
Priority to US16/864,828 priority patent/US20200337540A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00188Optical arrangements with focusing or zooming features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/26Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes using light guides
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/08Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification adapted to co-operate with a remote control mechanism
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/07Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres

Definitions

  • the present invention relates to an endoscope system which forms a plurality of optical images from a plurality of lights of different wavelengths to acquire a plurality of image signals.
  • fluorescence observation is performed by administering a fluorescent agent to a subject, irradiating excitation light to the subject, and diagnosing whether or not there is a lesion site based on the light emission state of fluorescence from the subject.
  • Is conventionally performed Specifically, in surgery, infrared blood flow observation using, for example, ICG (indocyanine green) is performed to evaluate blood flow in tissues or identify lymph nodes.
  • ICG indocyanine green
  • the transmittance of the first wavelength band including the excitation wavelength for generating fluorescence described in WO 2016/072172 is a predetermined transmittance and the transmittance of the second wavelength band.
  • a first filter having a first transmittance, a second filter having a second transmittance having a second transmittance, and a second transmittance having a predetermined transmittance for the first wavelength band A light source device for emitting light of the first and second wavelength bands by inserting a filter and a first or second filter on the optical path of light emitted from the light source, a camera unit, a reflected light image From the first filter to the second filter when the brightness of the reflected light image falls below the reference value after performing control to maintain the brightness of the light source at the reference value.
  • Control unit that performs control to switch to the filter It includes an endoscope system having a.
  • visible light and special light for example, infrared light, ultraviolet light, etc.
  • visible light image it is also possible to obtain a visible light image as well as a special light image.
  • the focal position differs between the normal image in the visible light region and the fluorescence image in the infrared region. Since the depth of the fluorescent site may be different (not in the surface layer), at least one of the normal image and the fluorescence image is out of focus, resulting in a blurred image.
  • the present invention has been made in view of the above circumstances, and it is an object of the present invention to provide an endoscope system capable of reducing a difference in sharpness caused in an image due to different imaging positions when light wavelengths are different.
  • An endoscope system includes: an illumination unit configured to irradiate a subject with a first light and a second light whose wavelength is different from that of the first light in a time division manner; Light from the lens as an optical image, and an imaging lens whose focal position can be changed, and the illumination unit picks up the optical image of the object irradiated with the And an imaging unit for capturing the optical image of the object irradiated with the second light by the illumination unit to obtain a second image signal; and the second image signal Detecting a first focusing position using the first image signal without using the second image signal without using the first image signal and detecting a second focusing position using the second image signal without using the first image signal.
  • a focus detection unit for detecting, and the first focusing prior to acquiring the first image signal.
  • An endoscope system includes an illumination unit configured to irradiate a subject with a first light and a second light having a wavelength different from that of the first light, and the subject from the subject A light is formed as an optical image, and an imaging lens whose focal position is fixed, and an illumination unit picks up the optical image of the object irradiated with the first light to obtain a first image.
  • An imaging unit that acquires a signal and captures the optical image of the subject irradiated with the second light by the illumination unit to acquire a second image signal; and a floor of the second image signal
  • an image processing unit that performs tone conversion processing to reduce the tone.
  • FIG. 7 is a diagram showing spectral transmission characteristics of the excitation light cut filter according to the first embodiment.
  • 5 is a timing chart showing time-division acquisition of a white light image and a fluorescence image in the endoscope system of the first embodiment.
  • FIG. 7 is a diagram showing an example of focus detection for a white light image in the focus detection unit of the first embodiment and an example of focus detection for a fluorescence image.
  • 6 is a flowchart showing the operation of the endoscope system in the first embodiment.
  • the block diagram which shows the structure of the endoscope system in Embodiment 2 of this invention.
  • FIG. 10 is a flowchart showing fluorescence image processing in the endoscope system in the second embodiment.
  • FIG. 13 is a diagram showing an example of a spatial distribution of luminance of a fluorescent portion before gradation conversion processing in the second embodiment.
  • the line drawing which shows an example of the space distribution of the brightness
  • FIG. 13 is a diagram showing an example in which a blurred area around the fluorescent area is displayed in a different color from the fluorescent area in the second embodiment.
  • the table in the said Embodiment 2 which shows the example which changes the gradation number after performing the gradation conversion process according to the blurring amount of a fluorescence image.
  • Embodiment 1 1 to 5 show a first embodiment of the present invention
  • FIG. 1 is a block diagram showing a configuration of an endoscope system 1.
  • the endoscope system 1 includes an endoscope 2, a light source unit 3, an image calculation unit 4, and a monitor 5.
  • the endoscope 2 is an imaging device that is inserted into a body cavity of a subject 90, configured to image a living tissue or the like in the body cavity and output an image signal.
  • the light source unit 3 is a light source device configured to supply light irradiated to the subject 90 to the endoscope 2.
  • the image calculation unit 4 is a processor configured to generate and output an observation image by performing various image processing on the image signal output from the endoscope 2.
  • the monitor 5 is a display device configured to display the observation image output from the image calculation unit 4 on the screen 5a.
  • the endoscope 2 extends from, for example, the operation unit 22 and an operation unit 22 provided on the proximal end side of the insertion unit 21.
  • the insertion unit 21 has an elongated shape that can be inserted into the body cavity of the subject 90.
  • a light guide cable 23 is provided, which is detachable from the light source unit 3, and a signal cable 24 which is provided extending from the operation unit 22 and which is detachable from the image calculation unit 4.
  • the operation unit 22 is configured as a shape that can be held by a user such as an operator, and one or more switches that can output various instruction signals according to the user's operation to the image calculation unit 4 And a scope switch (not shown).
  • a light guide 11 for transmitting light supplied from the light source unit 3 is inserted through the light guide cable 23 to the tip of the insertion portion 21.
  • the light guide 11 is configured, for example, as a light guide fiber bundle in which a plurality of optical fibers are bundled, and the incident end of the light guide 11 is an optical path of light supplied from the light source unit 3 via the condensing lens 34. Is located in Further, an illumination lens 12 is disposed on the optical path of the light transmitted by the light guide 11 and emitted from the emission end of the light guide 11. Thus, light is irradiated to the subject 90 by the illumination lens 12.
  • the illumination unit that irradiates the first light and the second light having a different wavelength from the first light onto the subject 90 by time division includes a light source unit including the condensing lens 34. 3 and a light guide 11 and an illumination lens 12.
  • the first light is normal light (white light, reference light, etc.) for acquiring return light from the subject 90.
  • the second light is excitation light for exciting the fluorescent agent administered to the subject 90 and acquiring fluorescence from the fluorescent agent.
  • the illumination lens 12 described above is disposed at the distal end of the insertion portion 21, and an objective window 13 for incidence of light from the subject 90 is disposed.
  • An imaging lens 14 and an imaging element 16 are provided on the optical path of light incident from the objective window 13.
  • the imaging lens 14 is for imaging the light from the subject 90 as an optical image, and is capable of changing the focal position (focus position).
  • the imaging device 16 is configured to photoelectrically convert an optical image formed by the imaging lens 14 to generate an electrical image signal.
  • the excitation light cut filter 15 is disposed at any position on the optical path from the objective window 13 to the imaging device 16 (in the example shown in FIG. 1, between the imaging lens 14 and the imaging device 16). ing.
  • FIG. 2 is a diagram showing the spectral transmission characteristics of the excitation light cut filter 15.
  • ICG Indocyanine Green
  • the excitation wavelength is 808 nm.
  • fluorescence that is near-infrared light belonging to a wavelength band longer than the wavelength 808 nm of the excitation light is emitted.
  • ICG is used as a fluorescent agent and narrow band light including light with a wavelength of 808 nm (which will be near infrared light) is used as excitation light.
  • white light as normal light for acquiring return light from the subject 90 (however, the normal light is not limited to this, and for example, reference light such as G light or B light) ) Is assumed to be used.
  • the excitation light cut filter 15 cuts narrow band light including light of a wavelength of 808 nm, for example, light in a band of 803 to 813 nm (transmittance almost 0%) And light having other wavelengths are transmitted at high transmittance (98% as an example).
  • the image pickup device 16 is a color image pickup device in which a color filter of, for example, a primary color system (or a complementary color system, but will be described assuming that it is a primary color system below) is attached to an image pickup surface , Color CMOS image sensor is assumed.
  • the imaging device 16 is configured to perform an imaging operation according to an imaging device drive signal output from an image reading unit 41 described later of the image calculation unit 4 and to output the obtained image signal to the image reading unit 41. There is.
  • an optical image image formed by the imaging lens 14 of the subject 90 irradiated with the first light (normal light) by the illumination unit (the light source unit 3, the light guide 11, and the illumination lens 12) Optical image) to obtain a first image signal (normal image signal), and an optical image (subjected by the imaging lens 14) of the subject 90 irradiated with the second light (excitation light) by the illumination unit.
  • An imaging unit that captures an imaged optical image and acquires a second image signal (fluorescent image signal) includes an excitation light cut filter 15 and an imaging element 16.
  • the light source unit 3 includes, for example, a white light source 31, an excitation light source 32, a beam splitter 33, and a condensing lens 34.
  • the white light source 31 includes, for example, a white LED (or R-LED, G-LED, and B-LED), a xenon (Xe) lamp, or the like, and is a white light as normal light (No. 1) can be emitted.
  • a white LED or R-LED, G-LED, and B-LED
  • Xe xenon
  • the excitation light source 32 is a light source that emits narrow band light including light of a wavelength of 808 nm as excitation light (second light having a wavelength different from the first light), and emits light of a wavelength of 808 nm, for example A laser diode (LD) is used.
  • LD laser diode
  • the white light source 31 and the excitation light source 32 are controlled by the timing control unit 48 so as to emit light in a time division manner as described later.
  • the beam splitter 33 reflects, for example, light of a wavelength of 808 nm which is excitation light emitted from the excitation light source 32 and light of a wavelength of 808 nm or more with a reflectance of approximately 100%, and is emitted from the white light source 31 And a dichroic mirror surface configured to transmit white light with approximately 100% transmission.
  • the condensing lens 34 condenses the white light or the excitation light emitted from the beam splitter 33 on the incident end of the light guide 11.
  • the image calculation unit 4 includes an image reading unit 41, a white light image processing unit 42, a fluorescence image processing unit 43, a superimposed image generation unit 44, an image combining unit 45, a focus detection unit 46, and a lens drive unit 47. And a timing control unit 48. Note that each unit of the image calculation unit 4 may be configured as an individual electronic circuit, or may be configured as a circuit block in an integrated circuit such as a field programmable gate array (FPGA).
  • FPGA field programmable gate array
  • the image reading unit 41 transmits the imaging device drive signal to the imaging device 16 as described above based on the control signal from the timing control unit 48 to perform the imaging operation, and is output from the imaging device 16 by the imaging operation. Receive an image signal.
  • the image reading unit 41 transmits the image signal input from the imaging device 16 to the white light image processing unit 42. Do. On the other hand, when the control signal from the timing control unit 48 is a control signal indicating acquisition of a fluorescence image, the image reading unit 41 transmits the image signal input from the imaging device 16 to the fluorescence image processing unit 43. Thus, the image reading unit 41 functions as a selector that changes the output destination of the input image signal based on the control signal from the timing control unit 48.
  • the white light image processing unit 42 is, for example, a demosaicing, white balance correction, noise removal, or gamma correction to a white light image signal which is a first image signal input from the image reading unit 41 and is a normal image signal.
  • An image processing unit that performs various types of image processing.
  • the normal image signal is a reference light image signal
  • the reference light image processing unit is disposed instead of the white light image processing unit 42.
  • the fluorescence image processing unit 43 performs various image processing such as demosaicing, noise removal, conversion to a luminance signal, gamma correction, etc. to a fluorescence image signal which is a second image signal input from the image reading unit 41. It is an image processing unit that generates a fluorescence image signal composed of luminance signals.
  • the superimposed image generation unit 44 visually distinguishes the fluorescence image composed of the luminance signal input from the fluorescence image processing unit 43 visually because the display color (red-based color component is relatively large in the living body) Although G is mentioned here as an example which can be done, it converts into the signal of not only this but an arbitrary color which set the ratio of RGB (R: red, G: green, B: blue) arbitrarily. . Then, the superimposed image generation unit 44 superimposes the fluorescence image converted to the display color and the white light image input from the white light image processing unit 42 after adjusting the signal level as necessary, Generate an image.
  • the superimposed image generation unit 44 outputs the fluorescence image converted to the display color, the white light image input from the white light image processing unit 42, and the generated superimposed image to the image combining unit 45.
  • the image combining unit 45 outputs one of the fluorescence image, the white light image, and the superimposed image input from the superimposed image generating unit 44 as a combined image to the monitor 5 or combines two or more of them. A composite image is generated, and the generated composite image is output to the monitor 5.
  • the form of the image output from the image combining unit 45 is determined based on the setting when the setting is made by the user, and is determined based on the predetermined initial setting when the setting is not made by the user.
  • the setting by the user can be performed by an operation panel or switches (not shown) provided in the image calculation unit 4 or a scope switch of the endoscope 2 or the like.
  • Some examples of the composite image generated by the image combining unit 45 include a parallel display image of a fluorescence image and a superimposed image, a parallel display image of a white light image and a superimposed image, a parallel display of a fluorescence image and a white light image.
  • Three parallel display images of a display image, a fluorescence image, a white light image and a superimposed image can be mentioned.
  • the display size may be changed according to the image, or a display area of another image may be provided in a part of the display area of a certain image.
  • parallel display has been described as an example here, any combination of images may be displayed on the monitor 5 by time division.
  • the focus detection unit 46 is a first image signal acquired in the past and input from the white light image processing unit 42 when it is a white light image to be acquired next based on the control signal from the timing control unit 48.
  • a first focus position is detected using a certain white light image signal (without using a fluorescence image signal acquired in the past), and when it is a fluorescence image to be acquired next, a fluorescence image processing unit is acquired in the past.
  • the second in-focus position is detected using the fluorescence image signal which is the second image signal input from 43 (without using the white light image signal acquired in the past).
  • focus detection by the focus detection unit 46 performs so-called wobbling to change the focus position, acquires a plurality of images having different focus positions, detects the contrast value of each acquired image, and peaks the contrast value. Contrast AF is assumed, in which the focus position for taking a position is the in-focus position. Then, the focus detection unit 46 outputs the detected in-focus position to the lens drive unit 47.
  • the lens driving unit 47 drives the imaging lens 14 to the first in-focus position prior to acquiring the white light image signal, which is the first image signal, based on the control signal from the timing control unit 48. It is configured to drive the imaging lens 14 to a second in-focus position prior to acquiring a fluorescence image signal which is an image signal of 2.
  • the timing control unit 48 includes units including the image reading unit 41, the focus detection unit 46, and the lens driving unit 47 in the image calculation unit 4, and units including the white light source 31 and the excitation light source 32 in the light source unit 3. , And control to acquire a white light image signal and a fluorescence image signal in a time division manner.
  • the monitor 5 is a display device capable of color display, and displays the image output from the image combining unit 45 on the screen 5a.
  • the user connects each part of the endoscope system 1 and turns on the power, and then, for example, operates the fluorescence observation start switch (not shown) of the image calculation unit 4 to start the fluorescence observation of the subject.
  • An instruction signal (fluorescence observation start signal) for inputting is input to the endoscope system 1.
  • the user inserts the insertion portion 21 into the body cavity of the subject 90, and places the tip of the insertion portion 21 in the vicinity of the fluorescent portion 91 to be observed.
  • timing control unit 48 detects the fluorescence observation start signal, the timing at which the white light source 31 generates white light, the timing at which the excitation light source 32 generates excitation light, and the image pickup unit 41 controlled by the image reading unit 41.
  • a control signal for synchronizing the operation of each unit in the endoscope system 1 including the imaging operation, the focus detection operation in the focus detection unit 46 and the focusing operation of the imaging lens 14 in the lens drive unit 47 is generated, Output to each part.
  • the timing control unit 48 detects the first in-focus position using the white light image signal without using the fluorescence image signal. Control signal to generate the focus control signal and output it to the focus detection unit 46. In addition, when the next exposure period is a period for exposing the fluorescence image, the timing control unit 48 detects the second in-focus position using the fluorescence image signal without using the white light image signal. A control signal is generated and output to the focus detection unit 46.
  • the timing control unit 48 outputs, to the lens driving unit 47, a control signal for driving the imaging lens 14 based on the in-focus position detected by the focus detection unit 46.
  • the lens driving unit 47 drives the imaging lens 14 to the first in-focus position prior to acquiring the white light image signal, and images to the second in-focus position prior to acquiring the fluorescent image signal.
  • the lens 14 is driven.
  • the timing control unit 48 generates a control signal for alternately generating (in time division) white light and excitation light, for example, in a blanking period in which exposure is not performed, and the white light source 31 It alternately outputs to the excitation light source 32. Thereby, in the exposure period, one of the white light source 31 and the excitation light source 32 emits light (light is emitted alternately in each exposure period).
  • the timing control unit 48 generates a control signal related to the imaging operation and outputs the control signal to the image reading unit 41.
  • the image reading unit 41 transmits, for example, an imaging device drive signal for performing a rolling shutter type imaging operation to the imaging device 16, and causes the imaging device 16 to perform an imaging operation.
  • the white light emitted by the white light source 31 is irradiated to the subject, and the reflected light of the white light which is the return light from the subject is imaged by the imaging element 16 and the white light image signal Are output from the imaging element 16.
  • the excitation light emitted by the excitation light source 32 is applied to the subject, the excitation light of the return light from the subject is cut by the excitation light cut filter 15, and only the fluorescence is excited.
  • the light cut filter 15 is transmitted to form an image on the imaging device 16 for imaging, and a fluorescence image signal is output from the imaging device 16.
  • the timing control unit 48 sets, for example, the output destination of the image signal input to the image reading unit 41 in the white light emission period to the white light image processing unit 42, and the image reading unit 41 in the excitation light emission period.
  • a control signal for setting the output destination of the input image signal to the fluorescence image processing unit 43 is generated and output to the image reading unit 41.
  • the superimposed image generation unit 44 generates a superimposed image by superimposing the white light image signal (normal image signal) and the fluorescence image signal acquired adjacent to each other in the time-division order as described above. Thereby, in the white light image, a superimposed image in which the fluorescent portion 91 is shown, for example, in green is generated and output to the image combining unit 45.
  • the image combining unit 45 displays one or more of the fluorescence image, the white light image, and the superimposed image in the predetermined display mode based on the initial setting or the display mode set by the user as described above. Is generated and output to the monitor 5. Thereby, the composite image is displayed on the screen 5 a of the monitor 5.
  • FIG. 3 is a timing chart showing time-division acquisition of the white light image and the fluorescence image in the endoscope system 1.
  • the timing control unit 48 controls each unit in the endoscope system 1 so as to alternately acquire a white light image and a fluorescence image in time division.
  • FIG. 3 it is shown that the exposure of the white light image is performed and acquired when the white light is on, and the exposure of the fluorescence image is performed and acquired when the fluorescence (infrared) is on ( When off, exposure and acquisition of the corresponding image is not performed).
  • FIG. 5 is a flowchart showing the operation of the endoscope system 1.
  • the focus detection unit 46 determines whether the image to be acquired next (specifically, the image of the next frame) is a white light image based on the control signal from the timing control unit 48. It determines (step S1).
  • step S1 When it is determined in step S1 that the image is a white light image, the focus detection unit 46 determines, based on the latest m (m is an integer of 1 or more, preferably an integer of 3 or more) white light images. The focus position is detected (step S2).
  • step S1 when it is determined in step S1 that the image is not a white light image (that is, it is a fluorescence image), the focus detection unit 46 detects the focus position based on the latest m white light images (step S3). .
  • FIG. 4 is a diagram showing an example of focus detection for a white light image in the focus detection unit 46 (see curve of solid line) and an example of focus detection for a fluorescence image (see curve of dotted line).
  • An example of m 3 is shown in FIG.
  • the white light image acquired next in step S2 is the image of the nth frame in FIG. 3 will be described as an example.
  • the latest three white light images are images acquired at (n-6), (n-4) and (n-2) frames, respectively.
  • step S2 the focus detection unit 46 determines that the focus position f (n-6) of the image of the (n-6) th frame and the contrast value (not shown, but C (n-6)). And so on), the focus position f (n-4) and the contrast value C (n-4) of the (n-4) -th frame image, and the focus position f (n-2) of the (n-2) -th frame image
  • the peak position of the contrast value is estimated based on -2) and the contrast value C (n-2), and the focus position f (n) corresponding to the estimated peak position is acquired next for the white light image Focus position.
  • the fluorescence image acquired next in step S3 is an image of the (n + 1) th frame in FIG. 3
  • the latest three fluorescence images are images acquired at (n-5), (n-3) and (n-1) frames, respectively.
  • step S3 the focus detection unit 46 determines that the focus position f (n-5) of the image of the (n-5) th frame and the contrast value (not shown, but C (n-5)). And so on), the focus position f (n-3) and the contrast value C (n-3) of the (n-3) -th frame image, and the focus position f (n-1) of the (n-1) -th frame image -1) and the contrast value C (n-1), the peak position of the contrast value is estimated, and the focus position f (n + 1) corresponding to the estimated peak position is acquired next. Focus position.
  • the focus detection unit 46 detects the first focus position for the white light image to be acquired next using the white light image signal in the past (without using the fluorescence image signal in the past),
  • the fluorescence image signal of the past is used to detect the second focus position for the fluorescence image to be acquired next, without using the white light image signal of the past.
  • the detection accuracy of the peak position of the contrast value may be further enhanced as m ⁇ 4, or focusing may be performed from the contrast value of one or two frames by another technique. If the position can be estimated, m may be 1 or 2.
  • the lens drive unit 47 drives the imaging lens 14 to the focus position acquired from the focus detection unit 46 based on the control signal from the timing control unit 48 to perform focus adjustment. (Step S4).
  • the imaging device 16 captures an optical image formed by the imaging lens 14 at the adjusted focus position, and acquires an image signal (step S5).
  • the timing control unit 48 determines whether or not an instruction to end imaging has been input from a switch or the like (step S6).
  • the timing control unit 48 changes the next image type (that is, when the white light image signal is acquired in step S5), When a fluorescence image is set as the type of image to be acquired and a fluorescence image signal is acquired in step S5, a white light image is set as the type of image to be acquired next (step S7), the process returns to step S1 and described above. Repeat the same operation.
  • step S6 when it is determined in step S6 that there is an instruction to end imaging, the timing control unit 48 ends this process.
  • the fluorescence observation was described as an example of performing observation by irradiating the subject with the first light and the second light whose wavelength is different from that of the first light in a time division manner.
  • the present invention can be widely applied to the case of observing with a plurality of types of light with different wavelengths, such as narrow band imaging (NBI).
  • NBI narrow band imaging
  • the present invention is not limited to this, and the present invention is not limited to this, and the present invention is not limited to this. It can apply.
  • the first image acquired by irradiating the first light Using a signal (without using the second image signal) to detect the first focusing position and drive the imaging lens 14 prior to acquiring the first image signal
  • the second light To obtain a second image signal to drive the imaging lens 14 by detecting the second focus position (without using the first image signal) using the second image signal acquired by Since this is done prior to the step, it is possible to reduce the difference in sharpness (or the difference in blur of the image) caused in the image due to the difference in the imaging position when the wavelength of light is different. As a result, it is possible to suppress a sense of discomfort when observing an image of the first image signal and an image of the second image signal.
  • an endoscope system 1 suitable for fluorescence observation when the first light is ordinary light (white light, reference light, etc.) and the second light is excitation light for acquiring fluorescence from a fluorescent agent Can be built.
  • the superimposed image generation unit 44 since the superimposed image generation unit 44 is further provided, the normal image signal and the fluorescence image signal are simultaneously observed in the superimposed image, so the difference in sharpness of the image is more noticeable and the sense of discomfort is felt. Although clearly remembered, such discomfort can be properly reduced by the above-described configuration.
  • FIGS. 6 to 11 show Embodiment 2 of the present invention
  • FIG. 6 is a block diagram showing the configuration of the endoscope system 1.
  • the imaging lens 14 of Embodiment 1 described above is capable of changing the focal position (focus position), but the imaging lens 14A of this embodiment has a fixed focal position (focus position), and the focal position for each frame You can not change it automatically. Therefore, in the present embodiment, image processing (electrical processing) is performed on at least one of the first image signal and the second image signal, and the processing is performed between the first image signal and the second image signal. It is intended to reduce the difference in sharpness of the image.
  • the endoscope 2 of the present embodiment includes the imaging lens 14A of fixed focus.
  • the image calculation unit 4 does not include the lens driving unit 47 of the first embodiment described above, and includes the blur amount detection unit 49 in place of the focus detection unit 46 (however, the focus detection unit 46 detects).
  • the focus detection unit 46 may be used as the blur amount detection unit 49 because the contrast value can be used to detect the blur amount as described later.
  • the blur amount detection unit 49 is configured to detect the blur amount around the fluorescence region indicated by the fluorescence image signal.
  • the blur amount detection unit 49 detects the blur amount based on the fluorescence image input to the fluorescence image processing unit 43, and outputs the detected blur amount to the fluorescence image processing unit 43 to perform fluorescence image processing.
  • the section 43 performs image processing (more specifically, gradation conversion processing for reducing the gradation) that brings the sharpness of the fluorescence image closer to the sharpness of the white light image, and the white light image of the processing result is superimposed on the image generation unit 44 It is designed to output to
  • the fluorescence image processing unit 43 is an image processing unit that performs gradation conversion processing that lowers the gradation of the fluorescence image that is the second image signal.
  • FIG. 7 is a flowchart showing fluorescence image processing in the endoscope system 1.
  • the blur amount detection unit 49 detects, for example, the contrast value of the fluorescence image.
  • the contrast value indicates that the blur amount is small when the value is high, and the blur amount is large when the value is low (see FIG. 11). Therefore, the blur amount detection unit 49 can detect the blur amount of the fluorescence image according to the detected contrast value (step S11).
  • the contrast value is used to detect the amount of blur here, the present invention is not limited to this, and the amount of blur may be detected by applying an appropriate blur amount detection filter.
  • the blur amount detection unit 49 outputs the detected blur amount to the fluorescence image processing unit 43.
  • the fluorescence image processing unit 43 determines the number of gradations after performing the gradation conversion processing on the fluorescence image according to the magnitude of the detected blur amount, as shown in FIG. Step S12).
  • FIG. 11 is a chart showing an example of changing the number of gradations after the gradation conversion processing is performed according to the blur amount of the fluorescence image.
  • the number of gradations is set to 2, and the blur amount is equal to or less than the first threshold and the second threshold (first threshold> first).
  • first threshold first The number of gradations is set to 3 when it is larger than the threshold of 2), and the number of gradations is set to 4 when the amount of blurring is equal to or less than the second threshold.
  • FIG. 11 shows only an example, and the number of gradations after gradation conversion processing may be set to a fixed value (for example, 2) regardless of the magnitude of the amount of blurring.
  • the blur amount detection unit 49 may be omitted, and the number of gradations may be changed more finely according to the magnitude of the blur amount (however, the number of gradations may be different). If the number is increased, the sharpness of the image approaches before the gradation conversion processing, so it is preferable to keep the number of gradations (for example, 4) as appropriate.
  • the fluorescence image processing unit 43 decreases (decreases) the number of gradations after the gradation conversion processing is performed. It is configured to handle as.
  • the axial position of the insertion portion 21 is manually adjusted as described above. Not only is the irradiated subject 90 focused, but the tonality of the image is also determined.
  • the number of gradations is set low as described above to suppress the reduction in sharpness.
  • the fluorescence image processing unit 43 performs gradation conversion processing on the fluorescence image so as to obtain the determined number of gradations (step S13).
  • FIG. 8 is a diagram showing an example of the spatial distribution of luminance of the fluorescent portion 91 before gradation conversion processing
  • FIG. 9 is an example of the spatial distribution of luminance of the fluorescent portion 91 after gradation conversion processing of the fluorescence image FIG.
  • the image signal output from the imaging device 16 is, for example, a signal having a gradation number such as 10 bits (1024 gradations) or 12 bits (4096 gradations), and the fluorescent portion 91 is as shown in FIG. It shows a smooth luminance change.
  • the number of gradations is set to 2, for example (that is, when the setting of binarization is made)
  • the luminance value of the pixel is equal to or higher than the third threshold Th3
  • the luminance constant to the pixel is obtained.
  • a gradation conversion process is performed to give a value L1 and to set the luminance value of the pixel to 0 when the luminance value of the pixel is less than the third threshold value Th3.
  • the constant luminance value L1 may be the peak luminance value LP before gradation conversion, or the area of the portion surrounded by the curve in FIG. 8 is equal to the area of the portion surrounded by the rectangle in FIG.
  • the luminance value L1 may be determined, or the luminance value L1 may be set to another appropriate value.
  • the endoscope system 1 of the present embodiment is configured such that the user can select whether or not to display the blurred area Ro around the fluorescent area Rf using the switch or the like of the image calculation unit 4. There is.
  • the luminance value is less than the third threshold Th3 and not less than the fourth threshold Th4 (third threshold> fourth threshold> 0).
  • the fluorescence image processing unit 43 performs an image process for giving the pixels included in the blurred area Ro the constant luminance value L1 of a color different from the fluorescent area Rf to the pixels included in the blurred area Ro (step S15) ).
  • the fourth threshold value Th4 is set to a value that does not include noise in the blurred region Ro.
  • FIG. 10 is a diagram showing an example in which the blurred region Ro around the fluorescent region Rf is displayed in a different color from the fluorescent region Rf.
  • the fluorescent region Rf is displayed by G (green) and the blurred region Ro is displayed by B (blue) (B mentioned here also has a relatively large red-based color component.
  • G green
  • B blue
  • B mentioned here also has a relatively large red-based color component.
  • the display color may be set appropriately.
  • the fluorescence image processing unit 43 applies to the blurred area Ro in which the pixel value is converted from a predetermined threshold (fourth threshold Th4) or more to 0 by gradation conversion processing around the fluorescence area indicated by the fluorescence image signal. It is configured to perform processing so as to display in a color different from that of the fluorescent region Rf.
  • step S14 When it is determined in step S14 that no blurred area Ro is added, the fluorescence image subjected to gradation conversion processing in step S13 is added, and when it is determined in step S14 that blurred area Ro is added, blurred area Ro is added in step S15.
  • the fluorescence image processing unit 43 outputs the obtained fluorescence image to the superimposed image generation unit 44 (step S16), and returns from the fluorescence image processing to the main processing (not shown).
  • the superimposed image generation unit 44 After that, the superimposed image generation unit 44 generates a superimposed image, but the superimposed image generated here is a white light image signal acquired adjacent to each other in the time division order as described in the first embodiment described above.
  • (Normal image signal) and fluorescence image signal may be superimposed as one image, but white light image signal (normal image signal) and fluorescence image signal are time-division superimposed (displayed alternately for each frame) Time division superposition) may be used.
  • the endoscope system 1 of the present embodiment can acquire the first image signal and the second image signal at the same focal position, the first image signal and the second image signal can be obtained.
  • the present invention is not limited to the configuration in which time division is performed on the image signal and can be applied to a configuration in which the first image signal and the second image signal are simultaneously acquired.
  • G light and B light are irradiated as reference light, and excitation light which is near infrared light is also irradiated simultaneously with the reference light, for example, arranged in the imaging device 16 provided with a primary color Bayer filter.
  • the reference light may be imaged by G pixels and B pixels, and simultaneously, it may be applied to a simultaneous configuration in which fluorescence is imaged by R pixels.
  • the superimposed image generation unit 44 generates a superimposed image by superimposing the reference light image signal (normal image signal) acquired simultaneously (instead of time division) and the fluorescence image signal.
  • the gradation conversion processing for reducing the gradation of the fluorescence image signal as described above may be applied to the configuration of Embodiment 1 (that is, the gradation conversion processing of the present embodiment is an imaging lens of fixed focus) 14A is not limited to application to the endoscope system 1).
  • automatic focusing is performed separately for the white light image and the fluorescent light image, but autofocusing is performed only for the white light image, and the focus position adjusted based on the white light image
  • the mode may be set as it is (that is, automatic focus adjustment to a fluorescence image is omitted) to obtain a fluorescence image (hereinafter referred to as a single focus mode).
  • the endoscope system 1 stops the detection of the second focus position by the focus detection unit 46 and the driving of the imaging lens 14 to the second focus position by the lens driving unit 47. It shall be settable.
  • the fluorescence image acquired by the imaging device 16 (that is, the fluorescence image with some blurring due to axial chromatic aberration) is detected by the fluorescence image processing unit 43.
  • the fluorescence image processing unit 43 may perform tone conversion processing to lower the tone of the fluorescence image signal.
  • the second embodiment in the endoscope system 1 having the same effects as those of the first embodiment described above and emitting the first light and the second light having different wavelengths, the second embodiment Since the second image signal acquired by irradiating light is subjected to gradation conversion processing to lower the gradation, if the light wavelength is different, the image forming position is different and the difference in sharpness (or And the difference in blurring of the image). As a result, it is possible to suppress a sense of discomfort when observing an image of the first image signal and an image of the second image signal.
  • an endoscope system 1 suitable for fluorescence observation when the first light is ordinary light (white light, reference light, etc.) and the second light is excitation light for acquiring fluorescence from a fluorescent agent Can be built.
  • the sharpness is appropriately reduced when the blur amount is large.
  • the amount of blurring is small, it is possible to give a sense of gradation of the image.
  • the endoscope system 1 capable of automatically adjusting the focal position according to the first embodiment described above, by applying the gradation conversion processing according to the present embodiment when the single focus mode is set, frames are obtained in time division. It is possible to reduce the difference in image sharpness between the normal image signal and the fluorescence image signal without adjusting the focal position every time.
  • each unit may be a processor configured as an electronic circuit, or each circuit unit in a processor configured as an integrated circuit such as an FPGA (Field Programmable Gate Array).
  • the processor as one or more CPUs may execute the functions of the respective units by reading and executing the processing program recorded in the recording medium.
  • the endoscope system may be an operation method of operating the endoscope system as described above, or a process for causing the computer to perform the same process as the endoscope system. It may be a program, a non-transitory recording medium readable by a computer that records the processing program, and the like.
  • the present invention is not limited to the above-described embodiment as it is, and in the implementation stage, the constituent elements can be modified and embodied without departing from the scope of the invention.
  • various aspects of the invention can be formed by appropriate combinations of a plurality of constituent elements disclosed in the above-described embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, components in different embodiments may be combined as appropriate. As a matter of course, various modifications and applications are possible without departing from the scope of the invention.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Astronomy & Astrophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Endoscopes (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

波長が異なる第1,第2の光を時分割で照射する光源部(3)と、焦点位置を変更可能な撮像レンズ(14)と、第1,第2の光に係る第1,第2の画像を各取得する撮像素子(16)と、第1の画像に基づいて第1の合焦位置を検出し、第2の画像に基づいて第2の合焦位置を検出する焦点検出部(46)と、第1の画像を取得するに先立って第1の合焦位置へ撮像レンズ(14)を駆動し、第2の画像を取得するに先立って第2の合焦位置へ撮像レンズ(14)を駆動するレンズ駆動部(47)と、を備える内視鏡システム(1)。

Description

内視鏡システム
 本発明は、波長が異なる複数の光から複数の光学像を結像して複数の画像信号を取得する内視鏡システムに関する。
 医療分野においては、例えば、蛍光薬剤を被検体に投与して、励起光を被検体に照射し、被検体からの蛍光の発光状態に基づいて病変部位があるか否か等を診断する蛍光観察が従来より行われている。具体的に、外科手術において、例えばICG(インドシアニングリーン)を用いた赤外蛍光観察を行うことで、組織の血流評価またはリンパ節同定などが行われている。
 こうした蛍光観察を行う例としては、WO2016/072172号に記載の、蛍光を発生させるための励起波長を含む第1の波長帯域の透過率が所定の透過率でありかつ第2の波長帯域の透過率が第1の透過率である第1のフィルタと、第1の波長帯域の透過率が所定の透過率でありかつ第2の波長帯域の透過率が第2の透過率である第2のフィルタと、光源から発せられる光の光路上に第1または第2のフィルタを介挿させることにより、第1及び第2の波長帯域の光を出射する光源装置と、カメラユニットと、反射光画像の明るさを基準値に維持するための制御を行った後で、反射光画像の明るさが基準値未満になった際に、光路上に介挿されるフィルタを第1のフィルタから第2のフィルタへ切り替えるための制御を行う制御部と、を有する内視鏡システムが挙げられる。
 また、医療分野に限らず、医療以外の分野、例えば工業用内視鏡の分野においても、可視光と、可視光とは波長が異なる特殊光(例えば、赤外光や紫外光など)と、を照射して、可視光画像を取得すると共に、特殊光画像を取得することも可能である。
 しかしながら、波長が異なる複数の光を結像する際には、光学系に軸上色収差が生じることが知られている。
 具体的に、上述したICGによる蛍光観察の例においては、蛍光が赤外領域であるために、可視光領域の通常画像と赤外領域の蛍光画像とでは焦点位置(フォーカス位置)が異なり、しかも蛍光を発する部位の深度が異なる(表層ではない)こともあるために、通常画像と蛍光画像との少なくとも一方にピントずれが生じてピンぼけ画像となってしまっていた。
 本発明は上記事情に鑑みてなされたものであり、光の波長が異なると結像位置が異なることにより画像に生じる鮮鋭さの相違を軽減することができる内視鏡システムを提供することを目的としている。
 本発明の一態様による内視鏡システムは、第1の光と、前記第1の光とは波長が異なる第2の光と、を時分割で被検体へ照射する照明部と、前記被検体からの光を光学像として結像するものであり、焦点位置を変更可能な撮像レンズと、前記照明部により前記第1の光が照射された前記被検体の前記光学像を撮像して第1の画像信号を取得すると共に、前記照明部により前記第2の光が照射された前記被検体の前記光学像を撮像して第2の画像信号を取得する撮像部と、前記第2の画像信号を用いることなく前記第1の画像信号を用いて第1の合焦位置を検出すると共に、前記第1の画像信号を用いることなく前記第2の画像信号を用いて第2の合焦位置を検出する焦点検出部と、前記第1の画像信号を取得するに先立って前記第1の合焦位置へ前記撮像レンズを駆動し、前記第2の画像信号を取得するに先立って前記第2の合焦位置へ前記撮像レンズを駆動するレンズ駆動部と、を備える。
 本発明の他の態様による内視鏡システムは、第1の光と、前記第1の光とは波長が異なる第2の光と、を被検体へ照射する照明部と、前記被検体からの光を光学像として結像するものであり、焦点位置が固定された撮像レンズと、前記照明部により前記第1の光が照射された前記被検体の前記光学像を撮像して第1の画像信号を取得すると共に、前記照明部により前記第2の光が照射された前記被検体の前記光学像を撮像して第2の画像信号を取得する撮像部と、前記第2の画像信号の階調を下げる階調変換処理を行う画像処理部と、を備える。
本発明の実施形態1における内視鏡システムの構成を示すブロック図。 上記実施形態1における励起光カットフィルタの分光透過特性を示す線図。 上記実施形態1の内視鏡システムにおける白色光画像と蛍光画像の時分割取得の様子を示すタイミングチャート。 上記実施形態1の焦点検出部における白色光画像に対する焦点検出の例と、蛍光画像に対する焦点検出の例と、を示す線図。 上記実施形態1における内視鏡システムの作用を示すフローチャート。 本発明の実施形態2における内視鏡システムの構成を示すブロック図。 上記実施形態2における内視鏡システムにおける蛍光画像処理を示すフローチャート。 上記実施形態2において、階調変換処理前の蛍光部分の輝度の空間分布の一例を示す線図。 上記実施形態2において、蛍光画像を階調変換処理した後の蛍光部分の輝度の空間分布の一例を示す線図。 上記実施形態2において、蛍光領域の周辺のボケ領域を蛍光領域とは色を異ならせて表示する例を示す線図。 上記実施形態2において、蛍光画像のボケ量に応じて階調変換処理を行った後の階調数を変化させる例を示す図表。
 以下、図面を参照して本発明の実施の形態を説明する。
[実施形態1]
 図1から図5は本発明の実施形態1を示したものであり、図1は内視鏡システム1の構成を示すブロック図である。
 内視鏡システム1は、例えば図1に示すように、内視鏡2と、光源部3と、画像演算部4と、モニタ5と、を備えている。
 内視鏡2は、被検体90の体腔内に挿入され、体腔内の生体組織等を撮像して画像信号を出力するように構成された撮像装置である。
 光源部3は、被検体90へ照射される光を内視鏡2に供給するように構成された光源装置である。
 画像演算部4は、内視鏡2から出力される画像信号に対して種々の画像処理を施すことにより観察画像を生成して出力するように構成されたプロセッサである。
 モニタ5は、画像演算部4から出力される観察画像を画面5a上に表示するように構成された表示装置である。
 内視鏡2は、被検体90の体腔内に挿入可能な細長形状に形成された挿入部21と、挿入部21の基端側に設けられた操作部22と、例えば操作部22から延びて設けられ、光源部3に対して着脱可能なライトガイドケーブル23と、操作部22から延びて設けられ、画像演算部4に対して着脱可能な信号ケーブル24と、を備えている。
 ここに、操作部22は、術者等のユーザが把持可能な形状として構成されており、ユーザの操作に応じた種々の指示信号を画像演算部4へ出力することができる1つ以上のスイッチで構成されたスコープスイッチ(不図示)を備えている。
 ライトガイドケーブル23から挿入部21の先端部にかけての内部には、光源部3から供給される光を伝送するためのライトガイド11が挿通されている。
 ライトガイド11は、例えば複数の光ファイバを束ねたライトガイドファイババンドルとして構成されていて、ライトガイド11の入射端は、集光レンズ34を経由して光源部3から供給される光の光路上に配置されている。また、ライトガイド11により伝送され、ライトガイド11の出射端から出射される光の光路上には、照明レンズ12が配設されている。こうして、照明レンズ12により光が被検体90へ照射されるようになっている。
 そして、本実施形態における、第1の光と、第1の光とは波長が異なる第2の光と、を時分割で被検体90へ照射する照明部は、集光レンズ34を含む光源部3と、ライトガイド11と、照明レンズ12と、を有して構成されている。後述するように、第1の光は、本実施形態の具体例では、被検体90からの戻り光を取得するための通常光(白色光、参照光など)である。また、第2の光は、本実施形態の具体例では、被検体90に投与された蛍光薬剤を励起して、蛍光薬剤からの蛍光を取得するための励起光である。
 挿入部21の先端部には、上述した照明レンズ12が配置されていると共に、被検体90からの光を入射するための対物窓13が配置されている。
 対物窓13から入射される光の光路上には、撮像レンズ14と、撮像素子16と、が設けられている。
 撮像レンズ14は、被検体90からの光を光学像として結像するものであり、焦点位置(フォーカス位置)を変更可能となっている。
 撮像素子16は、撮像レンズ14により結像された光学像を光電変換して電気的な画像信号を生成するように構成されている。
 さらに、対物窓13から撮像素子16に至るまでの光路上の何れかの位置(図1に示す例では、撮像レンズ14と撮像素子16との間)には、励起光カットフィルタ15が配置されている。
 ここで、図2は、励起光カットフィルタ15の分光透過特性を示す線図である。
 本実施形態においては、蛍光薬剤として例えばICG(インドシアニングリーン)(ただし、これに限定されるものではない)を用いることを想定しており、励起波長は808nmである。ここに、波長808nmの励起光を照射されたICGからは、励起光の波長808nmよりも長波長側の波長帯域に属する近赤外光である蛍光が発せられる。
 以下においては、特に言及しない限り、蛍光薬剤としてICGを用い、励起光として808nmの波長の光(近赤外光となる)を含む狭帯域光を用いる場合を説明する。また、本実施形態においては、被検体90からの戻り光を取得するための通常光として白色光(ただし、通常光はこれに限定されるものではなく、例えばG光やB光などの参照光でも構わない)を用いることを想定している。
 従って、励起光カットフィルタ15は、図2に模式的に示すように、808nmの波長の光を含む狭帯域の光、一例として803~813nmの帯域の光をカットし(透過率をほぼ0%とする)、それ以外の波長の光を高い透過率(一例として98%)で透過する分光透過特性を備えたものとなっている。
 撮像素子16は、例えば原色系(または補色系でも構わないが、以下では原色系である場合を想定して説明する)のカラーフィルタを撮像面に取り付けたカラー撮像素子であり、具体的には、カラーCMOSイメージセンサを想定している。この撮像素子16は、画像演算部4の後述する画像読出部41から出力される撮像素子駆動信号に応じて撮像動作を行い、取得した画像信号を画像読出部41へ出力するように構成されている。
 そして、本実施形態における、照明部(光源部3、ライトガイド11、および照明レンズ12)により第1の光(通常光)が照射された被検体90の光学像(撮像レンズ14により結像された光学像)を撮像して第1の画像信号(通常画像信号)を取得すると共に、照明部により第2の光(励起光)が照射された被検体90の光学像(撮像レンズ14により結像された光学像)を撮像して第2の画像信号(蛍光画像信号)を取得する撮像部は、励起光カットフィルタ15と、撮像素子16と、を有して構成されている。
 次に、光源部3は、例えば、白色光光源31と、励起光光源32と、ビームスプリッタ33と、集光レンズ34と、を備えている。
 白色光光源31は、例えば、白色LED(または、R-LED、G-LED、およびB-LED)、またはキセノン(Xe)ランプなどを備えて構成されていて、通常光としての白色光(第1の光)を発光可能となっている。
 励起光光源32は、808nmの波長の光を含む狭帯域光を励起光(第1の光とは波長が異なる第2の光)として発光する光源であり、例えば808nmの波長の光を発光するレーザダイオード(LD)が用いられる。
 これら白色光光源31と励起光光源32は、後述するように、時分割で光を発光するように、タイミング制御部48により制御される。
 ビームスプリッタ33は、例えば、励起光光源32から出射された励起光である808nmの波長の光、および808nmの波長以上の光をほぼ100%の反射率で反射し、白色光光源31から出射された白色光をほぼ100%の透過率で透過するように構成されたダイクロイックミラー面を備えている。
 集光レンズ34は、ビームスプリッタ33から出射された白色光または励起光を、ライトガイド11の入射端へ集光する。
 画像演算部4は、画像読出部41と、白色光画像処理部42と、蛍光画像処理部43と、重畳画像生成部44と、画像合成部45と、焦点検出部46と、レンズ駆動部47と、タイミング制御部48と、を有して構成されている。なお、画像演算部4の各部は、個々の電子回路として構成されていてもよいし、FPGA(Field Programmable Gate Array)等の集積回路における回路ブロックとして構成されていても構わない。
 画像読出部41は、タイミング制御部48からの制御信号に基づいて、上述したように撮像素子16へ撮像素子駆動信号を送信して撮像動作を行わせ、撮像動作により撮像素子16から出力される画像信号を受信する。
 さらに、画像読出部41は、タイミング制御部48からの制御信号が白色光画像の取得を示す制御信号である場合には、撮像素子16から入力された画像信号を白色光画像処理部42へ送信する。一方、画像読出部41は、タイミング制御部48からの制御信号が蛍光画像の取得を示す制御信号である場合には、撮像素子16から入力された画像信号を蛍光画像処理部43へ送信する。こうして、画像読出部41は、タイミング制御部48からの制御信号に基づいて、入力される画像信号の出力先を変更するセレクタとして機能するようになっている。
 白色光画像処理部42は、画像読出部41から入力される第1の画像信号であり通常画像信号である白色光画像信号に、例えば、デモザイキング、ホワイトバランス補正、ノイズ除去、ガンマ補正などの各種の画像処理を行う画像処理部である。なお、通常画像信号が参照光画像信号である場合には、白色光画像処理部42に代えて参照光画像処理部を配置することになる。
 蛍光画像処理部43は、画像読出部41から入力される第2の画像信号である蛍光画像信号に、例えば、デモザイキング、ノイズ除去、輝度信号への変換、ガンマ補正などの各種の画像処理を行って、輝度信号で構成される蛍光画像信号を生成する画像処理部である。
 重畳画像生成部44は、蛍光画像処理部43から入力された輝度信号で構成される蛍光画像を、表示色(生体内では赤色系の色成分が比較的大きいために、視覚的に容易に区別することができる例としてここではGを挙げるが、これに限らず、RGB(R:赤、G:緑、B:青)の比率を任意に設定した任意色で構わない)の信号に変換する。そして、重畳画像生成部44は、表示色に変換した蛍光画像と、白色光画像処理部42から入力された白色光画像とを、必要に応じて信号レベルを調整してから重畳して、重畳画像を生成する。
 そして、重畳画像生成部44は、表示色に変換された蛍光画像と、白色光画像処理部42から入力された白色光画像と、生成した重畳画像と、を画像合成部45へ出力する。
 画像合成部45は、重畳画像生成部44から入力された蛍光画像と白色光画像と重畳画像との内の、1つを合成画像としてモニタ5へ出力するか、または2つ以上を合成して合成画像を生成し、生成した合成画像をモニタ5へ出力する。
 ここに、画像合成部45から出力される画像の形態は、ユーザによる設定があるときにはその設定に基づいて決定され、ユーザによる設定がないときには所定の初期設定に基づいて決定される。ここに、ユーザによる設定は、画像演算部4に設けられている図示しない操作パネルやスイッチ類、または内視鏡2のスコープスイッチ等により行うことが可能となっている。
 画像合成部45により生成される合成画像の幾つかの例としては、蛍光画像と重畳画像との並列表示画像、白色光画像と重畳画像との並列表示画像、蛍光画像と白色光画像との並列表示画像、蛍光画像と白色光画像と重畳画像との3つの並列表示画像が挙げられる。並列表示を行う際には、画像に応じて表示サイズを異ならせてもよいし、ある画像の表示領域内の一部に他の画像の表示領域を設ける等を行っても構わない。また、ここでは並列表示を例に挙げたが、何れかの画像の組み合わせを時分割でモニタ5に表示する態様であっても構わない。
 焦点検出部46は、タイミング制御部48からの制御信号に基づいて、次に取得するのが白色光画像であるときには過去に取得し白色光画像処理部42から入力された第1の画像信号である白色光画像信号を用いて(過去に取得した蛍光画像信号を用いることなく)第1の合焦位置を検出し、次に取得するのが蛍光画像であるときには過去に取得し蛍光画像処理部43から入力された第2の画像信号である蛍光画像信号を用いて(過去に取得した白色光画像信号を用いることなく)第2の合焦位置を検出する。
 ここに、焦点検出部46による焦点検出は、焦点位置を変化させるいわゆるウォブリングを行って、焦点位置の異なる複数の画像を取得し、取得した各画像のコントラスト値を検出して、コントラスト値のピーク位置をとる焦点位置を合焦位置とする、コントラストAFを想定している。そして、焦点検出部46は、検出した合焦位置をレンズ駆動部47へ出力する。
 レンズ駆動部47は、タイミング制御部48からの制御信号に基づいて、第1の画像信号である白色光画像信号を取得するに先立って第1の合焦位置へ撮像レンズ14を駆動し、第2の画像信号である蛍光画像信号を取得するに先立って第2の合焦位置へ撮像レンズ14を駆動するように構成されている。
 タイミング制御部48は、画像演算部4内の画像読出部41、焦点検出部46、およびレンズ駆動部47を含む各部と、光源部3内の白色光光源31および励起光光源32を含む各部と、に制御信号を送信して、白色光画像信号と蛍光画像信号とを時分割で取得するように制御を行う。
 モニタ5は、カラー表示が可能な表示装置であり、画像合成部45から出力された画像を画面5a上に表示する。
 次に、本実施形態の内視鏡システム1の動作等について説明する。なお、以降においては、蛍光観察が行われる前に、被検体90に蛍光薬剤としてICGが予め投与されていて、被検体90内に蛍光薬剤が存在する蛍光部分91(図1等参照)が存在するものとして説明を進める。また、本実施形態の内視鏡システム1では、白色光を照射して白色光画像のみを観察する白色光観察モードでの動作も可能であるが、白色光観察モードに関する説明は省略して、蛍光観察モードにおける動作等を説明するものとする。
 まず、ユーザは、内視鏡システム1の各部を接続して電源を投入した後に、例えば、画像演算部4の蛍光観察開始スイッチ(不図示)を操作することにより、被写体の蛍光観察を開始するための指示信号(蛍光観察開始信号)を内視鏡システム1に入力する。
 そして、ユーザは、挿入部21を被検体90の体腔内に挿入して、観察対象である蛍光部分91の近傍に挿入部21の先端部を配置する。
 タイミング制御部48は、蛍光観察開始信号を検知すると、白色光光源31による白色光の発生タイミングと、励起光光源32による励起光の発生タイミングと、画像読出部41により制御される撮像素子16の撮像動作と、焦点検出部46における焦点検出動作およびレンズ駆動部47における撮像レンズ14のフォーカス動作と、を含む内視鏡システム1内の各部の動作を同期させるための制御信号を生成して、各部へそれぞれ出力する。
 具体的に、タイミング制御部48は、次の露光期間が白色光画像を露光する期間である場合には、蛍光画像信号を用いることなく白色光画像信号を用いて第1の合焦位置を検出するための制御信号を生成して焦点検出部46へ出力する。また、タイミング制御部48は、次の露光期間が蛍光画像を露光する期間である場合には、白色光画像信号を用いることなく蛍光画像信号を用いて第2の合焦位置を検出するための制御信号を生成して焦点検出部46へ出力する。
 さらに、タイミング制御部48は、焦点検出部46により検出された合焦位置に基づき撮像レンズ14を駆動するための制御信号を、レンズ駆動部47へ出力する。これにより、レンズ駆動部47は、白色光画像信号を取得するに先立って第1の合焦位置へ撮像レンズ14を駆動し、蛍光画像信号を取得するに先立って第2の合焦位置へ撮像レンズ14を駆動する。
 また、タイミング制御部48は、例えば、露光が行われないブランキング期間に、白色光と励起光とを交互に(時分割に)発生させるための制御信号を生成して、白色光光源31と励起光光源32とへ交互に出力する。これにより、露光期間には、白色光光源31と励起光光源32との何れか一方が発光する(露光期間毎に交互に発光する)。
 そして、タイミング制御部48は、撮像動作に係る制御信号を生成して画像読出部41へ出力する。すると、画像読出部41は、例えば、ローリングシャッタ方式の撮像動作を行わせるための撮像素子駆動信号を撮像素子16へ送信して、撮像素子16に撮像動作を行わせる。
 これにより、白色光発光期間には、白色光光源31により発光された白色光が被写体に照射され、被写体からの戻り光である白色光の反射光が撮像素子16により撮像され、白色光画像信号が撮像素子16から出力される。
 また、励起光発光期間には、励起光光源32により発光された励起光が被写体に照射され、被写体からの戻り光の内の、励起光が励起光カットフィルタ15によりカットされ、蛍光のみが励起光カットフィルタ15を透過して撮像素子16に結像されて撮像され、蛍光画像信号が撮像素子16から出力される。
 さらに、タイミング制御部48は、例えば、白色光発光期間に画像読出部41に入力される画像信号の出力先を白色光画像処理部42に設定するとともに、励起光発光期間に画像読出部41に入力される画像信号の出力先を蛍光画像処理部43に設定するための制御信号を生成して、画像読出部41へ出力する。これにより、白色光発光期間に露光して得られた画像信号は白色光画像処理部42により画像処理され、励起光発光期間に露光して得られた画像信号は蛍光画像処理部43により画像処理されて、重畳画像生成部44へそれぞれ出力される。
 重畳画像生成部44は、時分割の順序において隣り合って取得された白色光画像信号(通常画像信号)と蛍光画像信号とを上述したように重畳して、重畳画像を生成する。これにより、白色光画像において、蛍光部分91が例えば緑色で示されるような重畳画像が生成され、画像合成部45へ出力される。
 画像合成部45は、上述したように、初期設定に基づく所定の表示態様、もしくはユーザにより設定された表示態様で、蛍光画像と白色光画像と重畳画像との内の1つ以上を表示するための合成画像を生成して、モニタ5へ出力する。これにより、モニタ5の画面5a上に、合成画像が表示される。
 次に、図3および図4を参照しながら、図5に沿って、内視鏡システム1における焦点調節に関連する動作を説明する。
 まず、図3は、内視鏡システム1における白色光画像と蛍光画像の時分割取得の様子を示すタイミングチャートである。
 タイミング制御部48は、図3に示すように、白色光画像と蛍光画像とを時分割で交互に取得するように内視鏡システム1内の各部を制御する。この図3において、白色光がオンのときに白色光画像の露光が行われて取得され、蛍光(赤外)がオンのとき蛍光画像の露光が行われて取得されることを示している(オフのときには該当する画像の露光および取得は行われない)。
 このような撮像動作に係る制御の下に、焦点調節に関連する動作が図5に示すように行われる。ここに、図5は、内視鏡システム1の作用を示すフローチャートである。
 この処理を開始すると、焦点検出部46は、タイミング制御部48からの制御信号に基づき、次に取得する画像(具体的には、次のフレームの画像)が白色光画像であるか否かを判定する(ステップS1)。
 このステップS1において白色光画像であると判定した場合に、焦点検出部46は、最新のm(mは1以上の整数であり、好ましくは3以上の整数)個の白色光画像に基づいて、焦点位置を検出する(ステップS2)。
 一方、ステップS1において白色光画像でない(つまり、蛍光画像である)と判定した場合に、焦点検出部46は、最新のm個の白色光画像に基づいて、焦点位置を検出する(ステップS3)。
 ここで、図4は、焦点検出部46における白色光画像に対する焦点検出の例(実線の曲線参照)と、蛍光画像に対する焦点検出の例(点線の曲線参照)と、を示す線図である。この図4には、m=3の例を示している。
 ステップS2において次に取得する白色光画像が、図3のnフレーム目の画像である場合を例に挙げる。このとき、最新の3個の白色光画像は、(n-6),(n-4),(n-2)フレーム目にそれぞれ取得された画像となる。
 すると、焦点検出部46は、ステップS2において、(n-6)フレーム目の画像のフォーカス位置f(n-6)およびコントラスト値(図示は省略するが、C(n-6)であるとする、以下同様)と、(n-4)フレーム目の画像のフォーカス位置f(n-4)およびコントラスト値C(n-4)と、(n-2)フレーム目の画像のフォーカス位置f(n-2)およびコントラスト値C(n-2)と、に基づいて、コントラスト値のピーク位置を推定し、推定したピーク位置に対応するフォーカス位置f(n)を、次に取得する白色光画像の合焦位置とする。
 同様に、ステップS3において次に取得する蛍光画像が、図3の(n+1)フレーム目の画像である場合を例に挙げる。このとき、最新の3個の蛍光画像は、(n-5),(n-3),(n-1)フレーム目にそれぞれ取得された画像となる。
 すると、焦点検出部46は、ステップS3において、(n-5)フレーム目の画像のフォーカス位置f(n-5)およびコントラスト値(図示は省略するが、C(n-5)であるとする、以下同様)と、(n-3)フレーム目の画像のフォーカス位置f(n-3)およびコントラスト値C(n-3)と、(n-1)フレーム目の画像のフォーカス位置f(n-1)およびコントラスト値C(n-1)と、に基づいて、コントラスト値のピーク位置を推定し、推定したピーク位置に対応するフォーカス位置f(n+1)を、次に取得する蛍光画像の合焦位置とする。
 このように、焦点検出部46は、(過去の蛍光画像信号を用いることなく)過去の白色光画像信号を用いて、次に取得する白色光画像に対する第1の合焦位置を検出し、(過去の白色光画像信号を用いることなく)過去の蛍光画像信号を用いて、次に取得する蛍光画像に対する第2の合焦位置を検出するようになっている。
 なお、ここではm=3の例を挙げたが、m≧4としてコントラスト値のピーク位置の検出精度をより高めるようにしても良いし、他の技術により1または2フレームのコントラスト値から合焦位置を推定可能な場合には、m=1または2としても構わない。
 ステップS2またはステップS3の処理を行ったら、レンズ駆動部47は、タイミング制御部48からの制御信号に基づき、焦点検出部46から取得したフォーカス位置に撮像レンズ14を駆動して、焦点調節を行う(ステップS4)。
 そして、調節された焦点位置において撮像レンズ14により結像された光学像を撮像素子16が撮像して、画像信号を取得する(ステップS5)。
 その後、タイミング制御部48は、撮像を終了する指示がスイッチ等から入力されたか否かを判定する(ステップS6)。
 ここでまだ撮像を終了する指示がないと判定した場合には、タイミング制御部48は、次の画像種類を変更して(つまり、ステップS5において白色光画像信号を取得した場合には、次に取得する画像種類として蛍光画像を設定し、ステップS5において蛍光画像信号を取得した場合には、次に取得する画像種類として白色光画像を設定する)(ステップS7)、ステップS1へ戻って上述したような動作を繰り返して行う。
 一方、ステップS6において、撮像を終了する指示があったと判定した場合には、タイミング制御部48は、この処理を終了する。
 なお、上述では、第1の光と、第1の光とは波長が異なる第2の光と、を時分割で被検体へ照射して観察を行う例として蛍光観察を挙げたが、これに限定されるものではなく、例えば、狭帯域光観察(NBI:Narrow Band Imaging)などの、波長が異なる複数種類の光で観察を行う場合に対して本発明を広く適用することが可能である。
 また、上述では医療用の内視鏡システムの例を主に説明したが、本発明はこれに限定されるものではなく、医療以外の分野、例えば工業用の内視鏡システムに対しても、適用することができる。
 このような実施形態1によれば、波長が異なる第1の光と第2の光とを時分割で照射する内視鏡システム1において、第1の光を照射して取得した第1の画像信号を用いて(第2の画像信号を用いることなく)第1の合焦位置を検出して撮像レンズ14を駆動することを第1の画像信号を取得するに先立って行い、第2の光を照射して取得した第2の画像信号を用いて(第1の画像信号を用いることなく)第2の合焦位置を検出して撮像レンズ14を駆動することを第2の画像信号を取得するに先立って行うようにしたために、光の波長が異なると結像位置が異なることにより画像に生じる鮮鋭さの相違(または、画像のボケの相違)を軽減することができる。これにより、第1の画像信号に係る画像と第2の画像信号に係る画像とを観察する際の違和感を抑制することが可能となる。
 また、第1の光を通常光(白色光、参照光など)、第2の光を蛍光薬剤からの蛍光を取得するための励起光とした場合に、蛍光観察に適した内視鏡システム1を構築することができる。
 そして、重畳画像生成部44をさらに備えたために、重畳画像においては通常画像信号と蛍光画像信号とが同時に観察されることになるために、画像の鮮鋭さの相違がより目立ち易くなって違和感をはっきりと覚えることになるが、こうした違和感を上述した構成によって適切に軽減することができる。
[実施形態2]
 図6から図11は本発明の実施形態2を示したものであり、図6は内視鏡システム1の構成を示すブロック図である。
 この実施形態2において、上述の実施形態1と同様である部分については同一の符号を付すなどして説明を適宜省略し、主として異なる点についてのみ説明する。
 上述した実施形態1の撮像レンズ14は焦点位置(フォーカス位置)を変更可能であったが、本実施形態の撮像レンズ14Aは焦点位置(フォーカス位置)が固定となっていて、フレーム毎に焦点位置を自動的に変更することができない。そこで、本実施形態においては、第1の画像信号と第2の画像信号との少なくとも一方に画像処理(電気的な処理)を行って、第1の画像信号と第2の画像信号との間の画像の鮮鋭さの相違を軽減するようにしたものとなっている。
 すなわち、本実施形態の内視鏡2は、固定焦点の撮像レンズ14Aを備えている。また、画像演算部4は、上述した実施形態1のレンズ駆動部47を備えておらず、焦点検出部46に代えてボケ量検出部49を備えている(ただし、焦点検出部46が検出するコントラスト値は、後述するようにボケ量の検出に用いることができるために、焦点検出部46をボケ量検出部49として用いても構わない)。ボケ量検出部49は、蛍光画像信号が示す蛍光領域の周辺のボケ量を検出するように構成されている。
 本実施形態においては、内視鏡2の挿入部21の軸方向位置をユーザが手動で調整することで白色光画像が合焦するように調節したときに、軸上色収差により蛍光画像が幾らかボケた状態となっていることを想定している。このために、ボケ量検出部49は、蛍光画像処理部43に入力された蛍光画像に基づいてボケ量を検出し、検出したボケ量を蛍光画像処理部43へ出力することで、蛍光画像処理部43が蛍光画像の鮮鋭さを白色光画像の鮮鋭さに近付ける画像処理(具体的には、階調を下げる階調変換処理)を行って、処理結果の白色光画像を重畳画像生成部44へ出力するようになっている。
 こうして、蛍光画像処理部43は、第2の画像信号である蛍光画像の階調を下げる階調変換処理を行う画像処理部となっている。
 次に、図7は、内視鏡システム1における蛍光画像処理を示すフローチャートである。
 上述したように、この処理を行う前に、手動により白色光画像の合焦が行われているものとする。また、白色光画像と蛍光画像とを時分割で取得するのは上述した実施形態1と同様である。
 励起光を発光して蛍光画像が取得されると、この処理が開始され、蛍光画像処理部43に蛍光画像が入力されると、蛍光画像処理部43は入力された蛍光画像をボケ量検出部49へ出力する。
 すると、ボケ量検出部49は、蛍光画像の例えばコントラスト値を検出する。コントラスト値は、値が高ければボケ量が小さく、値が低ければボケ量が大きいことを示している(図11参照)。従って、ボケ量検出部49は、検出したコントラスト値に応じて、蛍光画像のボケ量を検出することができる(ステップS11)。
 なお、ここではボケ量の検出にコントラスト値を用いたが、これに限定されるものではなく、適宜のボケ量検出フィルタをかけることにより、ボケ量を検出するようにしても構わない。
 次に、ボケ量検出部49は、検出したボケ量を蛍光画像処理部43へ出力する。すると、蛍光画像処理部43は、例えば図11に示すように、検出されたボケ量の大きさに応じて、蛍光画像に対して階調変換処理を行った後の階調数を決定する(ステップS12)。
 ここで、図11は、蛍光画像のボケ量に応じて階調変換処理を行った後の階調数を変化させる例を示す図表である。
 この図11に示す例では、ボケ量が第1の閾値よりも大きいときに階調数を2に設定し、ボケ量が第1の閾値以下でかつ第2の閾値(第1の閾値>第2の閾値)よりも大きいときに階調数を3に設定し、ボケ量が第2の閾値以下であるときに階調数を4に設定している。
 ただし、この図11は一例を示しただけであり、ボケ量の大きさに関わらず、階調変換処理を行った後の階調数を固定値(例えば2)に設定するようにしても良い(この場合には、ボケ量検出部49を省略しても構わない)し、ボケ量の大きさに応じてより細かく階調数を変化させるようにしても構わない(ただし、階調数を多くすると画像の鮮鋭さが階調変換処理を行う前に近付いてしまうために、適宜の階調数(例えば上記4)程度に留めておくことが好ましい)。
 こうして蛍光画像処理部43は、ボケ量検出部49により検出されたボケ量の大きさが大きくなる(増加する)に従って、階調変換処理を行った後の階調数が小さくなる(減少する)ように処理するように構成されている。
 通常画像(白色光画像)は被検体90の細部の形状を把握する必要があって画像の解像度が求められるために、上述したように挿入部21の軸方向位置を手動調節して白色光が照射された被検体90を合焦させるようにしているだけでなく、画像の階調性も求められる。これに対して、蛍光画像は蛍光を発光している蛍光部分91の範囲を把握すれば良いために、通常画像(白色光画像)のような高い階調性を求めなくても構わない。そこで、このように階調数を低く設定して鮮鋭さの低下を抑制するようにしている。
 こうして階調数を決定したら、蛍光画像処理部43は、決定した階調数になるように蛍光画像を階調変換処理する(ステップS13)。
 ここに、図8は階調変換処理前の蛍光部分91の輝度の空間分布の一例を示す線図、図9は蛍光画像を階調変換処理した後の蛍光部分91の輝度の空間分布の一例を示す線図である。
 撮像素子16から出力される画像信号は、例えば、10ビット(1024階調)、または12ビット(4096階調)等の階調数の信号であり、蛍光部分91は、図8に示すように滑らかな輝度変化を示している。
 そして、階調数が例えば2に設定されたとき(すなわち、2値化の設定がなされたとき)には、画素の輝度値が第3の閾値Th3以上である場合に該画素に一定の輝度値L1を与え、画素の輝度値が第3の閾値Th3未満である場合に該画素の輝度値を0とするような階調変換処理が行われる。
 なお、一定の輝度値L1は階調変換前のピーク輝度値LPであってもよいし、図8の曲線で囲まれる部分の面積が図9の矩形で囲まれる部分の面積に等しくなるように輝度値L1を決めてもよいし、輝度値L1がその他の適宜の値をとるようにしても構わない。
 このような階調変換処理を行うと、図8に示した第3の閾値Th3以上の蛍光領域Rfと第3の閾値Th3未満のボケ領域Roとの内の、蛍光領域Rfのみが一定の輝度値L1により表示されることとなる。これにより、どの部分が蛍光領域Rfであるかを明確に区別することができ、ボケ領域Roがないために蛍光画像に鮮鋭さを感じることができ、白色光画像との鮮鋭さの相違が軽減される。
 続いて、蛍光領域Rfの周辺のボケ領域Roを付加するか否かを判定する(ステップS14)。本実施形態の内視鏡システム1は、ユーザが画像演算部4のスイッチ等を用いて、蛍光領域Rfの周辺のボケ領域Roを表示するか否かを選択することができるように構成されている。
 このステップS14において、ボケ領域Roを付加すると判定された場合には、輝度値が第3の閾値Th3未満でかつ第4の閾値Th4(第3の閾値>第4の閾値>0)以上である画素を、ボケ領域Roに含まれる画素として、ボケ領域Roに含まれる画素に対して蛍光領域Rfとは異なる色の一定の輝度値L1を与える画像処理を蛍光画像処理部43が行う(ステップS15)。ここに、第4の閾値Th4は、ノイズをボケ領域Roに含めることがない程度の値に設定されている。
 これにより蛍光部分91が、図10に示すような空間分布で表示される。ここに、図10は、蛍光領域Rfの周辺のボケ領域Roを蛍光領域Rfとは色を異ならせて表示する例を示す線図である。
 この図10に示す例においては、蛍光領域RfがG(緑)で表示され、ボケ領域RoがB(青)で表示される(ここで挙げたBも、赤色系の色成分が比較的大きい生体内において、視覚的に容易に区別することができる色の一例である)。ただし、表示色を適宜に設定して構わないことはいうまでもない。
 また、G成分とB成分とでは輝度成分に寄与する割合が異なる(輝度成分Yは、例えばY=0.299×R+0.587×G+0.114×Bとして算出され、Gの係数とBの係数とでは値が異なる)ために、蛍光領域Rfとボケ領域Roとを同一の輝度値L1に設定するに限定されるものでもない。
 こうして、蛍光画像処理部43は、蛍光画像信号が示す蛍光領域の周辺において、階調変換処理により画素値が所定の閾値(第4の閾値Th4)以上から0に変換されたボケ領域Roに対して、蛍光領域Rfとは異なる色で表示するように処理するように構成されている。
 ステップS14においてボケ領域Roを付加しないと判定された場合にはステップS13で階調変換処理した蛍光画像、ステップS14においてボケ領域Roを付加すると判定された場合にはステップS15でボケ領域Roを付加した蛍光画像を、蛍光画像処理部43が重畳画像生成部44へ出力して(ステップS16)、この蛍光画像処理から図示しないメイン処理にリターンする。
 その後は、重畳画像生成部44が重畳画像を生成するが、ここで生成する重畳画像は、上述した実施形態1で説明したような、時分割の順序において隣り合って取得された白色光画像信号(通常画像信号)と蛍光画像信号とを1つの画像として重畳したものであってもよいが、白色光画像信号(通常画像信号)と蛍光画像信号とを時分割重畳(フレーム毎に交互に表示する時分割重畳)したものであっても構わない。
 なお、本実施形態の内視鏡システム1は、第1の画像信号と第2の画像信号とを同一の焦点位置において取得することができるために、第1の画像信号と第2の画像信号とを時分割で取得する構成に限定されるものではなく、第1の画像信号と第2の画像信号とを同時に取得する構成に対しても適用することができる。
 例えば、白色光に代えて、G光およびB光を参照光として照射し、参照光と同時に近赤外光である励起光も照射して、例えば原色ベイヤーフィルタを備える撮像素子16に配置された画素の内の、G画素とB画素とで参照光を撮像し、同時に、R画素で蛍光を撮像する同時式の構成に対して適用してもよい。
 この場合に、重畳画像生成部44は、(時分割でなく)同時に取得された参照光画像信号(通常画像信号)と蛍光画像信号とを重畳して重畳画像を生成することになる。
 また、上述したような蛍光画像信号の階調を下げる階調変換処理は、実施形態1の構成に適用しても構わない(すなわち、本実施形態の階調変換処理は、固定焦点の撮像レンズ14Aを備える内視鏡システム1に対して適用するに限定されるものではない)。
 上述した実施形態1では、白色光画像と蛍光画像とはそれぞれ個別に自動焦点調節を行っていたが、白色光画像のみに対して自動焦点調節を行い、白色光画像に基づき調整された焦点位置のまま(つまり、蛍光画像に対する自動焦点調節を省略して)蛍光画像を取得するモード(以下では、単一焦点モードと呼称することにする)に設定することができるようにしても構わない。
 すなわち、内視鏡システム1は、焦点検出部46による第2の合焦位置の検出、およびレンズ駆動部47による第2の合焦位置への撮像レンズ14の駆動を停止する単一焦点モードに設定可能であるものとする。
 そして、内視鏡システム1が単一焦点モードに設定された場合には、撮像素子16により取得された蛍光画像(すなわち、軸上色収差によるボケが幾らかある蛍光画像)が蛍光画像処理部43に入力された際に、蛍光画像処理部43により、蛍光画像信号の階調を下げる階調変換処理を行うようにすればよい。
 このような実施形態2によれば、上述した実施形態1とほぼ同様の効果を奏するとともに、波長が異なる第1の光と第2の光とを照射する内視鏡システム1において、第2の光を照射して取得した第2の画像信号に階調を下げる階調変換処理を行うようにしたために、光の波長が異なると結像位置が異なることにより画像に生じる鮮鋭さの相違(または、画像のボケの相違)を軽減することができる。これにより、第1の画像信号に係る画像と第2の画像信号に係る画像とを観察する際の違和感を抑制することが可能となる。
 また、第1の光を通常光(白色光、参照光など)、第2の光を蛍光薬剤からの蛍光を取得するための励起光とした場合に、蛍光観察に適した内視鏡システム1を構築することができる。
 さらに、ボケ量の大きさが大きくなる(増加する)に従って階調変換処理を行った後の階調数が小さくなる(減少する)ようにしたために、ボケ量が大きいときには鮮鋭さの低下を適切に抑制し、ボケ量が小さいときには画像の階調感を出すことが可能となる。
 そして、蛍光領域の周辺のボケ領域を、蛍光領域とは異なる色で表示することができるようにしたために、蛍光が弱い輝度で発生しているボケ領域を明確に観察することが可能となる。
 加えて、重畳画像生成部44を備えることにより同時的に観察可能となる通常画像信号と蛍光画像信号との画像の鮮鋭さの相違を、適切に軽減することができる。
 一方、上述した実施形態1の、焦点位置を自動調節可能な内視鏡システム1において、単一焦点モードに設定したときに本実施形態の階調変換処理を適用することで、時分割でフレーム毎に焦点位置を調節しなくても、通常画像信号と蛍光画像信号との画像の鮮鋭さの相違を軽減することが可能となる。
 なお、上述した各部の処理は、ハードウェアとして構成された1つ以上のプロセッサが行うようにしてもよい。例えば、各部は、それぞれが電子回路として構成されたプロセッサであっても構わないし、FPGA(Field Programmable Gate Array)等の集積回路で構成されたプロセッサにおける各回路部であってもよい。または、1つ以上のCPUで構成されるプロセッサが、記録媒体に記録された処理プログラムを読み込んで実行することにより、各部としての機能を実行するようにしても構わない。
 また、上述では主として内視鏡システムについて説明したが、内視鏡システムを上述したように作動させる作動方法であってもよいし、コンピュータに内視鏡システムと同様の処理を行わせるための処理プログラム、該処理プログラムを記録するコンピュータにより読み取り可能な一時的でない記録媒体、等であっても構わない。
 さらに、本発明は上述した実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明の態様を形成することができる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能であることは勿論である。
 本出願は、2017年11月6日に日本国に出願された特願2017-214019号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲、図面に引用されたものとする。

Claims (9)

  1.  第1の光と、前記第1の光とは波長が異なる第2の光と、を時分割で被検体へ照射する照明部と、
     前記被検体からの光を光学像として結像するものであり、焦点位置を変更可能な撮像レンズと、
     前記照明部により前記第1の光が照射された前記被検体の前記光学像を撮像して第1の画像信号を取得すると共に、前記照明部により前記第2の光が照射された前記被検体の前記光学像を撮像して第2の画像信号を取得する撮像部と、
     前記第2の画像信号を用いることなく前記第1の画像信号を用いて第1の合焦位置を検出すると共に、前記第1の画像信号を用いることなく前記第2の画像信号を用いて第2の合焦位置を検出する焦点検出部と、
     前記第1の画像信号を取得するに先立って前記第1の合焦位置へ前記撮像レンズを駆動し、前記第2の画像信号を取得するに先立って前記第2の合焦位置へ前記撮像レンズを駆動するレンズ駆動部と、
     を備えることを特徴とする内視鏡システム。
  2.  前記第1の光は、前記被検体からの戻り光を取得するための通常光であって、前記第1の画像信号は通常画像信号であり、
     前記第2の光は、前記被検体に投与された蛍光薬剤を励起して、前記蛍光薬剤からの蛍光を取得するための励起光であって、前記第2の画像信号は蛍光画像信号であることを特徴とする請求項1に記載の内視鏡システム。
  3.  前記時分割の順序において隣り合って取得された前記通常画像信号と前記蛍光画像信号とを重畳する重畳画像生成部をさらに備えることを特徴とする請求項2に記載の内視鏡システム。
  4.  前記内視鏡システムは、前記焦点検出部による前記第2の合焦位置の検出、および前記レンズ駆動部による前記第2の合焦位置への前記撮像レンズの駆動を停止する単一焦点モードに設定可能であり、
     前記蛍光画像信号の階調を下げる階調変換処理を行う蛍光画像処理部をさらに備え、
     前記単一焦点モードに設定された場合には、前記蛍光画像処理部により前記階調変換処理を行うことを特徴とする請求項2に記載の内視鏡システム。
  5.  第1の光と、前記第1の光とは波長が異なる第2の光と、を被検体へ照射する照明部と、
     前記被検体からの光を光学像として結像するものであり、焦点位置が固定された撮像レンズと、
     前記照明部により前記第1の光が照射された前記被検体の前記光学像を撮像して第1の画像信号を取得すると共に、前記照明部により前記第2の光が照射された前記被検体の前記光学像を撮像して第2の画像信号を取得する撮像部と、
     前記第2の画像信号の階調を下げる階調変換処理を行う画像処理部と、
     を備えることを特徴とする内視鏡システム。
  6.  前記第1の光は、前記被検体からの戻り光を取得するための通常光であって、前記第1の画像信号は通常画像信号であり、
     前記第2の光は、前記被検体に投与された蛍光薬剤を励起して、前記蛍光薬剤からの蛍光を取得するための励起光であって、前記第2の画像信号は蛍光画像信号であることを特徴とする請求項5に記載の内視鏡システム。
  7.  前記蛍光画像信号が示す蛍光領域の周辺のボケ量を検出するボケ量検出部をさらに備え、
     前記画像処理部は、前記ボケ量検出部により検出された前記ボケ量の大きさが大きくなるに従って、前記階調変換処理を行った後の階調数が小さくなるように処理することを特徴とする請求項6に記載の内視鏡システム。
  8.  前記画像処理部は、前記蛍光画像信号が示す蛍光領域の周辺において、前記階調変換処理により画素値が所定の閾値以上から0に変換されたボケ領域に対して、前記蛍光領域とは異なる色で表示するように処理することを特徴とする請求項6に記載の内視鏡システム。
  9.  前記通常画像信号と前記蛍光画像信号とを重畳する重畳画像生成部をさらに備えることを特徴とする請求項6に記載の内視鏡システム。
PCT/JP2018/032442 2017-11-06 2018-08-31 内視鏡システム WO2019087557A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019549897A JPWO2019087557A1 (ja) 2017-11-06 2018-08-31 内視鏡システム
US16/864,828 US20200337540A1 (en) 2017-11-06 2020-05-01 Endoscope system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017214019 2017-11-06
JP2017-214019 2017-11-06

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/864,828 Continuation US20200337540A1 (en) 2017-11-06 2020-05-01 Endoscope system

Publications (1)

Publication Number Publication Date
WO2019087557A1 true WO2019087557A1 (ja) 2019-05-09

Family

ID=66332532

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/032442 WO2019087557A1 (ja) 2017-11-06 2018-08-31 内視鏡システム

Country Status (3)

Country Link
US (1) US20200337540A1 (ja)
JP (1) JPWO2019087557A1 (ja)
WO (1) WO2019087557A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021039869A1 (ja) * 2019-08-28 2021-03-04 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置及び医療用観察システム
JP2021132812A (ja) * 2020-02-26 2021-09-13 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置及び医療用観察システム
WO2021193927A3 (en) * 2020-03-27 2021-12-09 Sony Group Corporation Medical observation system, apparatus, control method, and imaging apparatus

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110325098A (zh) 2016-11-28 2019-10-11 适内有限责任公司 具有可分离一次性轴的内窥镜
USD1018844S1 (en) 2020-01-09 2024-03-19 Adaptivendo Llc Endoscope handle
CN117042671A (zh) * 2020-12-22 2023-11-10 史赛克公司 用于医学成像照射的系统和方法
USD1031035S1 (en) 2021-04-29 2024-06-11 Adaptivendo Llc Endoscope handle
CN113376931B (zh) * 2021-06-10 2022-11-04 复旦大学 用于甲状旁腺探测的荧光区域光强补光方法、装置及系统

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003159209A (ja) * 2001-11-29 2003-06-03 Fuji Photo Film Co Ltd 蛍光診断画像表示方法および表示装置
JP2010051350A (ja) * 2008-08-26 2010-03-11 Fujifilm Corp 画像処理装置および方法ならびにプログラム
JP2010082041A (ja) * 2008-09-30 2010-04-15 Fujifilm Corp 電子内視鏡システム
JP2010227200A (ja) * 2009-03-26 2010-10-14 Rohm Co Ltd 内視鏡
JP2012085917A (ja) * 2010-10-21 2012-05-10 Fujifilm Corp 電子内視鏡システム、電子内視鏡システムのプロセッサ装置、及び蛍光画像の高感度化方法
JP2012110585A (ja) * 2010-11-26 2012-06-14 Olympus Corp 蛍光内視鏡装置
WO2012165505A1 (ja) * 2011-06-02 2012-12-06 オリンパス株式会社 蛍光観察装置
WO2012172908A1 (ja) * 2011-06-14 2012-12-20 オリンパスメディカルシステムズ株式会社 医療機器
JP2015029841A (ja) * 2013-08-06 2015-02-16 三菱電機エンジニアリング株式会社 撮像装置および撮像方法
WO2016092674A1 (ja) * 2014-12-11 2016-06-16 オリンパス株式会社 観察システム、光学部品、及び観察方法
JP2016170182A (ja) * 2013-07-22 2016-09-23 オリンパスメディカルシステムズ株式会社 医療用観察装置
WO2017141524A1 (ja) * 2016-02-18 2017-08-24 ソニー株式会社 撮像装置、撮像方法及び撮像システム
JP2018155605A (ja) * 2017-03-17 2018-10-04 株式会社モリタ製作所 三次元スキャナ

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012166505A1 (en) * 2011-06-02 2012-12-06 A. Raymond Et Cie Structural component made by three-dimensional printing

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003159209A (ja) * 2001-11-29 2003-06-03 Fuji Photo Film Co Ltd 蛍光診断画像表示方法および表示装置
JP2010051350A (ja) * 2008-08-26 2010-03-11 Fujifilm Corp 画像処理装置および方法ならびにプログラム
JP2010082041A (ja) * 2008-09-30 2010-04-15 Fujifilm Corp 電子内視鏡システム
JP2010227200A (ja) * 2009-03-26 2010-10-14 Rohm Co Ltd 内視鏡
JP2012085917A (ja) * 2010-10-21 2012-05-10 Fujifilm Corp 電子内視鏡システム、電子内視鏡システムのプロセッサ装置、及び蛍光画像の高感度化方法
JP2012110585A (ja) * 2010-11-26 2012-06-14 Olympus Corp 蛍光内視鏡装置
WO2012165505A1 (ja) * 2011-06-02 2012-12-06 オリンパス株式会社 蛍光観察装置
WO2012172908A1 (ja) * 2011-06-14 2012-12-20 オリンパスメディカルシステムズ株式会社 医療機器
JP2016170182A (ja) * 2013-07-22 2016-09-23 オリンパスメディカルシステムズ株式会社 医療用観察装置
JP2015029841A (ja) * 2013-08-06 2015-02-16 三菱電機エンジニアリング株式会社 撮像装置および撮像方法
WO2016092674A1 (ja) * 2014-12-11 2016-06-16 オリンパス株式会社 観察システム、光学部品、及び観察方法
WO2017141524A1 (ja) * 2016-02-18 2017-08-24 ソニー株式会社 撮像装置、撮像方法及び撮像システム
JP2018155605A (ja) * 2017-03-17 2018-10-04 株式会社モリタ製作所 三次元スキャナ

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021039869A1 (ja) * 2019-08-28 2021-03-04 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置及び医療用観察システム
JP2021132812A (ja) * 2020-02-26 2021-09-13 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置及び医療用観察システム
US11615514B2 (en) * 2020-02-26 2023-03-28 Sony Olympus Medical Solutions Inc. Medical image processing apparatus and medical observation system
WO2021193927A3 (en) * 2020-03-27 2021-12-09 Sony Group Corporation Medical observation system, apparatus, control method, and imaging apparatus
JP7452177B2 (ja) 2020-03-27 2024-03-19 ソニーグループ株式会社 医療用観察システム、制御装置、制御方法、および撮像装置

Also Published As

Publication number Publication date
JPWO2019087557A1 (ja) 2020-12-03
US20200337540A1 (en) 2020-10-29

Similar Documents

Publication Publication Date Title
WO2019087557A1 (ja) 内視鏡システム
JP5259882B2 (ja) 撮像装置
JP5968944B2 (ja) 内視鏡システム、プロセッサ装置、光源装置、内視鏡システムの作動方法、プロセッサ装置の作動方法、光源装置の作動方法
JP5460506B2 (ja) 内視鏡装置の作動方法及び内視鏡装置
JP5303012B2 (ja) 内視鏡システム、内視鏡システムのプロセッサ装置及び内視鏡システムの作動方法
WO2019123796A1 (ja) 内視鏡システム
JP5460507B2 (ja) 内視鏡装置の作動方法及び内視鏡装置
JP4855728B2 (ja) 照明装置及び観察装置
JP4709606B2 (ja) 生体観測装置
KR101050882B1 (ko) 생체 관측 시스템
JP6243364B2 (ja) 内視鏡用のプロセッサ装置、及び作動方法、並びに制御プログラム
JP2011200367A (ja) 画像撮像方法および装置
JP6203452B1 (ja) 撮像システム
JPWO2016080130A1 (ja) 観察装置
JP6581952B2 (ja) 内視鏡システム及びその作動方法
WO2018047369A1 (ja) 内視鏡システム
JP6891294B2 (ja) 内視鏡システム及びその作動方法
JP6616071B2 (ja) 内視鏡用のプロセッサ装置、内視鏡用のプロセッサ装置の作動方法、内視鏡用の制御プログラム
JP5677555B2 (ja) 内視鏡装置
WO2012002320A1 (ja) 画像処理装置および画像処理方法
JP6137892B2 (ja) 撮像システム
CN111712178B (zh) 内窥镜系统及其工作方法
JP5764472B2 (ja) 内視鏡診断装置
JP6396717B2 (ja) 感度調整方法および撮像装置
CN108882835B (zh) 内窥镜图像信号处理装置及方法以及存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18872178

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019549897

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18872178

Country of ref document: EP

Kind code of ref document: A1