WO2015145814A1 - 生体観察システム - Google Patents

生体観察システム Download PDF

Info

Publication number
WO2015145814A1
WO2015145814A1 PCT/JP2014/074083 JP2014074083W WO2015145814A1 WO 2015145814 A1 WO2015145814 A1 WO 2015145814A1 JP 2014074083 W JP2014074083 W JP 2014074083W WO 2015145814 A1 WO2015145814 A1 WO 2015145814A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
light
enhancement
observation
unit
Prior art date
Application number
PCT/JP2014/074083
Other languages
English (en)
French (fr)
Inventor
五十嵐 誠
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2015538791A priority Critical patent/JP5905170B2/ja
Priority to EP14887381.3A priority patent/EP3066974B1/en
Priority to CN201480067794.1A priority patent/CN105813538B/zh
Publication of WO2015145814A1 publication Critical patent/WO2015145814A1/ja
Priority to US15/177,388 priority patent/US9949624B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/044Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for absorption imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0669Endoscope light sources at proximal end of an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0676Endoscope light sources at distal tip of an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/07Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • A61B5/14551Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • A61B5/1459Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters invasive, e.g. introduced into the body by a catheter
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/26Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes using light guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00057Operational features of endoscopes provided with means for testing or calibration

Definitions

  • the present invention relates to a living body observation system, and more particularly to a living body observation system used for observation of a living tissue.
  • ESD endoscopic submucosal dissection
  • Japanese Patent No. 5355820 discloses an endoscope system that can be used for ESD.
  • Japanese Patent No. 5355820 discloses an object inside a feature space formed around the wavelength band or spatial frequency band of two or more band images selected from a plurality of band images. For the two or more selected band images based on the enhancement amount set for the area where the observation object (the deep blood vessels under the mucosal surface, the pit pattern on the mucosal surface layer, or the blood vessels on the mucosal surface layer) is distributed.
  • An endoscope system including a configuration that performs an enhancement process and performs a color conversion process for adjusting a color tone on the plurality of band images including the two or more band images subjected to the enhancement process. It is disclosed.
  • a pigment such as indigo carmine
  • the layer boundary between the submucosa layer and the muscle layer is formed.
  • a technique is used to make it visible.
  • the present invention has been made in view of the above-described circumstances, and an object of the present invention is to provide a living body observation system capable of reducing the burden on an operator when performing treatment on a lesion site such as cancer.
  • the living body observation system of one embodiment of the present invention includes a first light having a peak wavelength in a blue region and a red region as light for illuminating a subject including a region to which a pigment having an absorption peak in the red region is administered.
  • An illumination light generator configured to generate a second light having a peak wavelength, and imaging a return light from the subject illuminated by the light emitted from the illumination light generator
  • An imaging unit configured to perform imaging, a first image obtained by imaging the return light of the first light, and a second image obtained by imaging the return light of the second light
  • an arithmetic unit configured to perform processing for calculating a degree of difference, which is a value indicating a degree of difference in luminance value in the same pixel, and an image obtained by imaging the return light, The degree of difference calculated by the calculation unit exceeds a predetermined threshold value.
  • An enhancement coefficient calculation unit configured to perform processing for calculating a first enhancement coefficient corresponding to a pixel, and the first enhancement coefficient calculated by the enhancement coefficient calculation unit.
  • An enhancement processing unit configured to perform a process for enhancing the contrast of a pixel in which the degree of difference calculated by the calculation unit exceeds a predetermined threshold among the pixels included in the image of the image, and the enhancement process
  • An observation image generation unit configured to generate an observation image using the first image and the second image that have been processed by a unit, and to output the generated observation image to a display device And having.
  • the living body observation system of one embodiment of the present invention includes a first light having a peak wavelength in a blue region and a red region as light for illuminating a subject including a region to which a pigment having an absorption peak in the red region is administered.
  • An illumination light generator configured to generate a second light having a peak wavelength, and imaging a return light from the subject illuminated by the light emitted from the illumination light generator Based on the imaging unit configured to do so and the second image obtained by imaging the return light of the second light, the variation of the luminance value with respect to the average value of the luminance value of the second image is shown.
  • a calculation unit configured to perform a process for calculating a variation amount as a value for each pixel, and the difference calculated by the calculation unit among images obtained by imaging the return light Emphasis function corresponding to a pixel whose pixel exceeds a predetermined threshold
  • An enhancement coefficient calculation unit configured to perform processing for calculating the calculation unit, and the calculation unit among the pixels included in the first image based on the enhancement coefficient calculated by the enhancement coefficient calculation unit
  • An enhancement processing unit configured to perform a process for enhancing the contrast of a pixel in which the amount of variation calculated by the above exceeds a predetermined threshold; and the first image subjected to the process by the enhancement processing unit;
  • an observation image generation unit configured to generate an observation image using the second image and to output the generated observation image to a display device.
  • the flowchart for demonstrating the emphasis process which concerns on a 1st Example The figure which shows an example of the image used as the process target of the emphasis process which concerns on a 1st Example.
  • the flowchart for demonstrating the emphasis process which concerns on a 2nd Example. The figure which shows an example of the image used as the process target of the emphasis process which concerns on a 2nd Example.
  • FIG. 1 is a diagram illustrating a configuration of a main part of the living body observation system according to the embodiment.
  • the living body observation system 101 includes an elongated insertion portion that can be inserted into a subject that is a living body, and also captures an imaging signal by imaging a subject such as a living tissue in the subject.
  • a processor 3 that generates and outputs an observation image according to a signal, a display device 4 that displays an observation image and the like output from the processor 3, and an instruction according to a user input operation are given to the processor 3.
  • an input device 5 having a switch and / or a button capable of being configured.
  • the endoscope 1 images an illumination optical system 11 that irradiates the subject with light transmitted by the light guide 6 and reflected light (return light) emitted from the subject in accordance with the light emitted from the illumination optical system 11.
  • the imaging unit 12 that outputs the obtained imaging signal is provided at the distal end of the insertion unit.
  • the endoscope 1 includes a scope switch 13 that can give various instructions to the processor 3 in accordance with user operations.
  • the imaging unit 12 is configured to capture the reflected light (return light) from the subject illuminated by the illumination light emitted from the light source device 2 and output an imaging signal. Specifically, the imaging unit 12 matches the imaging surface of the objective optical system 12a with an objective optical system 12a that forms an image of reflected light (returned light) emitted from the subject and a primary color filter 121.
  • the image pickup device 12b is arranged.
  • the image pickup device 12b includes, for example, a CCD and is driven according to the image pickup device drive signal output from the processor 3, and images reflected light (return light) from the subject imaged on the image pickup surface.
  • the obtained imaging signal is output.
  • the scope switch 13 includes an observation mode switch 13a and a highlight display switch 13b.
  • the observation mode change-over switch 13a instructs the processor 3 to set (switch) the observation mode of the living body observation system 101 to either the white light observation mode or the special light observation mode in accordance with a user operation. It is configured to be able to.
  • the light source device 2 includes a light source control unit 21 and a light emitting unit 22 including a white light generation unit 22a and a special light generation unit 22b.
  • the light source controller 21 includes, for example, a control circuit. On the basis of the system control signal output from the processor 3, the light source control unit 21 detects, for example, that the observation mode of the living body observation system 101 is set to the white light observation mode. A light emission control signal for generating white light from 22 a and quenching the special light generator 22 b is generated, and the generated light emission control signal is output to the light emitting unit 22.
  • the light source control unit 21 detects that the observation mode of the living body observation system 101 is set to the special light observation mode based on the system control signal output from the processor 3, the light source control unit 21 sets the white light generation unit 22a.
  • the special light generator 22b generates a light emission control signal for sequentially generating NB1 light, NR1 light, and NR2 light, which will be described later, and outputs the generated light emission control signal to the light emitting unit 22. ing.
  • the special light generation unit 22b includes, for example, a plurality of LEDs, and based on the light emission control signal output from the light source control unit 21, NB1 light that is narrow band blue light, NR1 light that is narrow band red light, And it is comprised so that NR2 light which is narrow band red light set to a wavelength band different from NR1 light can be generated individually or simultaneously.
  • FIG. 2 is a diagram for explaining an example of the wavelength of light emitted from the light source device when the observation mode of the biological observation system according to the embodiment is set to the special light observation mode.
  • the NB1 light has a peak wavelength at which the absorption coefficient of indigo carmine, which is a coloring agent having an absorption peak near 610 nm belonging to the red region, is sufficiently smaller than the absorption coefficient of oxyhemoglobin.
  • blue light set to have a bandwidth.
  • the wavelength band of the NB1 light is set to have a peak wavelength of 460 nm, which is a wavelength showing an absorption coefficient smaller than the absorption peak of oxyhemoglobin in the blue region. .
  • the NR1 light has a peak wavelength of 600 nm, which is a wavelength at which the absorption coefficient of oxyhemoglobin in the red region is larger than that of the NR2 light, and does not overlap with the NR2 light.
  • Red light set to have a sufficient bandwidth.
  • the absorption coefficient of oxyhemoglobin is sufficiently smaller than the absorption coefficient of indigo carmine
  • the absorption coefficient of oxyhemoglobin in the red region is smaller than that of NR 1 light
  • the absorption of indigo carmine is set to have a peak wavelength of 630 nm, which is a wavelength whose coefficient is larger than that of the NB1 light, and further to have a bandwidth that does not overlap with the NR1 light.
  • the processor 3 includes a preprocessing unit 31, an image signal processing unit 32, an observation image generation unit 33, and a control unit 34.
  • the preprocessing unit 31 includes, for example, a noise reduction circuit, an A / D conversion circuit, and the like, and performs digital processing by performing processing such as noise removal and A / D conversion on the imaging signal output from the endoscope 1. An image signal is generated, and the generated image signal is output to the image signal processing unit 32.
  • the image signal processing unit 32 includes, for example, a signal processing circuit. Further, the image signal processing unit 32 performs preprocessing when detecting that the observation mode of the biological observation system 101 is set to the white light observation mode based on the system control signal output from the control unit 34, for example.
  • the image signal output from the unit 31 is separated for each color component of R (red) component, G (green) component, and B (blue) component obtained by imaging reflected light (returned light) of white light. It is configured to output to the observation image generation unit 33.
  • the image signal processing unit 32 sets the observation mode of the living body observation system 101 to the special light observation mode, and the predetermined enhancement processing is set to OFF. If this is detected, the image signal output from the preprocessing unit 31 is imaged with the NB1 component obtained by imaging the reflected light (returned light) of the NB1 light and the reflected light (returned light) of the NR1 light.
  • the NR1 component obtained in this way and the reflected light (return light) of the NR2 light are separated for each color component of the NR2 component obtained by imaging and output to the observation image generation unit 33.
  • the image signal processing unit 32 Based on the system control signal output from the control unit 34, for example, the image signal processing unit 32 sets the observation mode of the living body observation system 101 to the special light observation mode, and the predetermined enhancement processing is set to ON. When this is detected, the image signal output from the preprocessing unit 31 is separated for each of the NB1 component, the NR1 component, and the NR2 component, and a predetermined enhancement process based on the separated color components is performed. And output to the observation image generation unit 33.
  • the observation image generation unit 33 includes, for example, an image processing circuit. Further, based on the system control signal output from the control unit 34, for example, the observation image generation unit 33 detects that the observation mode of the living body observation system 101 is set to the white light observation mode.
  • the luminance value of the R component output from the processing unit 32 is assigned to the R channel corresponding to the red color of the display device 4, and the luminance value of the G component output from the image signal processing unit 32 is set to G corresponding to the green color of the display device 4.
  • An observation image is generated by allocating the luminance value of the B component output from the image signal processing unit 32 to the B channel corresponding to the blue color of the display device 4 and assigning the generated observation image to the display device 4. Is configured to do.
  • the observation image generation unit 33 is output from the image signal processing unit 32, for example, when the observation mode of the living body observation system 101 is set to the special light observation mode.
  • the brightness value of the NR1 component output from the image signal processing unit 32 is assigned to the G channel, and the brightness value of the NB1 component output from the image signal processing unit 32 is assigned to the B channel.
  • An observation image is generated by allocating, and the generated observation image is output to the display device 4.
  • the control unit 34 is configured to generate and output an image sensor drive signal for driving the image sensor 12b.
  • the control unit 34 includes, for example, a CPU or a control circuit, and generates a system control signal for performing an operation corresponding to the observation mode set in the observation mode changeover switch 13a to generate the light source control unit 21 and the image signal. It is configured to output to the processing unit 32 and the observation image generation unit 33.
  • the control unit 34 is configured to generate a system control signal for performing an operation corresponding to on / off of the predetermined enhancement processing set in the enhancement display changeover switch 13b and output the system control signal to the image signal processing unit 32. .
  • the user turns on the power of each part of the living body observation system 101, sets the observation mode of the living body observation system 101 to the white light observation mode, and then confirms the observation image (white light image) displayed on the display device 4. Then, the insertion portion of the endoscope 1 is inserted into the subject.
  • the observation mode changeover switch 13a is operated to set the observation mode of the living body observation system 101 to the special light observation mode, and the highlight display changeover switch 13b is operated to determine the predetermined mode. Set emphasis processing on.
  • control unit 34 detects that the observation mode of the living body observation system 101 is set to the special light observation mode, for example, a timing for simultaneously generating NB1 light and NR2 light, a timing for generating NR1 light alone, Are generated and output to the light source control unit 21, the image signal processing unit 32, and the observation image generation unit 33.
  • the special light observation mode for example, a timing for simultaneously generating NB1 light and NR2 light, a timing for generating NR1 light alone, Are generated and output to the light source control unit 21, the image signal processing unit 32, and the observation image generation unit 33.
  • the light source control unit 21 Based on the system control signal output from the control unit 34, the light source control unit 21 performs control for simultaneously generating NB1 light and NR2 light and control for generating NR1 light alone, as a special light generation unit. Repeatedly for 22b. Then, according to the control of the light source control unit 21, NB1 light, NR1 light, and NR2 light, which are illumination lights for illuminating the subject, are sequentially irradiated through the illumination optical system 11 and reflected light from the subject ( An imaging signal obtained by imaging the (return light) is output from the imaging device 12b, and an image signal generated based on the imaging signal from the imaging device 12b is output from the preprocessing unit 31.
  • the NB1 light The control for generating the NR1 light alone, the control for generating the NR1 light alone, and the control for generating the NR2 light alone may be sequentially repeated.
  • the image signal processing unit 32 separates the image signal output from the preprocessing unit 31 for each color component of the NB1 component, the NR1 component, and the NR2 component, and performs predetermined enhancement processing on the separated NB1 component.
  • FIG. 3 is a flowchart for explaining the enhancement processing according to the first embodiment.
  • FIG. 4 is a diagram illustrating an example of an image to be processed in the enhancement process according to the first embodiment.
  • the image signal processing unit 32 displays a line profile (luminance information) indicating a distribution state of luminance values of each pixel located on a line segment parallel to the horizontal direction of the image. Processing for acquiring the same number of pixels as the vertical direction of the image is performed (step S1 in FIG. 3).
  • the information described in FIG. 6 is used as the information indicating the distribution state of the luminance value of each pixel located on the line segment LS1 shown in FIG. 5 in the image shown in FIG. A case where a line profile as shown is acquired will be described as an example.
  • FIG. 5 is a diagram showing a line segment LS1 used when acquiring a line profile from the image of FIG.
  • FIG. 6 is a diagram illustrating an example of a line profile acquired from each pixel located on the line segment LS1 of FIG. In FIG. 6, for the sake of simplicity, it is assumed that the magnitude relationship between the luminance values between the NB1 image, the NR1 image, and the NR2 image is not accurately shown.
  • the image signal processing unit 32 aligns the luminance level of the line profile LP1 of the NB1 image acquired by the process of step S1 in FIG. 3 with the luminance level of the line profile LP2 of the NR2 image acquired by the process of step S1 of FIG.
  • the calculation process is performed (step S2 in FIG. 3).
  • the image signal processing unit 32 for example, in step S2 of FIG. 3, the average value AV1 of the luminance values of each pixel included in a predetermined region (for example, the entire image) in the NB1 image, and the corresponding NR2 image A value obtained by calculating the average value AV2 of the luminance values of each pixel included in the predetermined area and then dividing the average value AV2 by the average value AV1 for each luminance value included in the line profile LP1. A process of multiplying (AV2 / AV1) is performed.
  • the image signal processing unit 32 uses the line profile LP2 to calibrate the line profile LB1 of the NB1 image after the brightness level adjustment obtained as a result of the processing in step S2 in FIG. 3 (the reference value of the brightness value in the line profile LB1 is set). Is set to 0 (step S3 in FIG. 3).
  • step S3 of FIG. 3 the image signal processing unit 32 divides the luminance value of one pixel included in the line profile LB1 by the luminance value of the one pixel included in the line profile LP2. After performing the process, a calculation process is further performed to subtract 1 from each luminance value obtained by the process.
  • the luminance value of the pixel in the area AR1 is indicated by a value larger than 0, and the luminance value of the pixel in the area AR2 is 0.
  • a line profile LC1 of the NB1 image as indicated by the following values is acquired (see FIG. 7).
  • FIG. 7 is a diagram illustrating an example of the line profile LC1 acquired in the enhancement processing according to the first embodiment.
  • the image signal processing unit 32 of the present embodiment is not limited to the one that acquires the line profile LC1 by performing the above-described processing in step S3 of FIG.
  • the line profile LC1 may be acquired by performing a process of subtracting the luminance value of the one pixel included in the line profile LP2 from the luminance value of the pixel.
  • the image signal processing unit 32 having a function as a calculation unit obtains the degree of difference, which is a value indicating the degree of difference in luminance value in the same pixel of the NB1 image and the NR2 image in step S2 and step S3 in FIG. Processing for calculating the line profile LC1 is performed.
  • the image signal processing unit 32 has a maximum luminance value MBL in the NB1 image that is less than the maximum luminance value MRL in the NR2 image, and a difference value between the maximum luminance value MRL and the maximum luminance value MBL. If it is smaller, the line profile LC1 may be acquired by skipping the process of step S2 in FIG. 3 and then performing the following process in step S3 of FIG.
  • the image signal processing unit 32 skips the process of step S2 in FIG. 3, and then in step S3 of FIG. A process of dividing the luminance value by the luminance value of the one pixel included in the line profile LP2 is performed, and further, an arithmetic process that subtracts 1 from each luminance value obtained by the process is performed to obtain the line profile LC1. You may acquire.
  • the image signal processing unit 32 skips the process of step S2 in FIG. 3, and then in step S3 of FIG. 3, from the luminance value of one pixel included in the line profile LP1.
  • the line profile LC1 is obtained by performing a process of reducing the luminance value of the one pixel included in the line profile LP2 and further performing an arithmetic process of subtracting 1 from each luminance value obtained by the process. There may be.
  • the image signal processing unit 32 is based on the line profile LC1 of the NB1 image obtained as the processing result of step S3 in FIG. 3, and includes an enhancement coefficient line profile for each pixel located on the line segment LS1. Processing for acquiring LE1 is performed (step S4 in FIG. 3).
  • step S4 of FIG. 3 the image signal processing unit 32 maintains the luminance value larger than 0 as it is for the line profile LC1, and uniformly converts the luminance value of 0 or less to 0.
  • further processing for multiplying each luminance value obtained by the processing by a constant RA (RA> 1) is performed for each pixel located on the line segment LS1.
  • RA RA> 1
  • FIG. 8 is a diagram illustrating an example of the line profile LE1 acquired in the enhancement processing according to the first embodiment.
  • the image signal processing unit 32 having a function as an enhancement coefficient calculation unit calculates an enhancement coefficient for each pixel located on the line segment LS1 based on the line profile LC1 in step S4 of FIG.
  • a process for acquiring each calculated enhancement coefficient as the line profile LE1 is performed.
  • the image signal processing unit 32 increases the luminance value of the pixels in the area AR1 among the pixels located on the line segment LS1 based on the line profile LC1 in step S4 of FIG. Processing is performed to calculate an enhancement coefficient that maintains the luminance value of the pixels outside the area AR1.
  • the image signal processing unit 32 calculates an enhancement coefficient corresponding to a pixel whose difference calculated by the processing in steps S2 and S3 in FIG. 3 exceeds a predetermined threshold. Process.
  • the image signal processing unit 32 having a function as the enhancement processing unit maintains the contrast of the area AR2 based on each enhancement coefficient included in the line profile LE1 for enhancement obtained as a result of the process in step S4 of FIG.
  • the line profile LP1 is subjected to enhancement processing that enhances the contrast of the area AR1 (step S5 in FIG. 3).
  • the image signal processing unit 32 determines the luminance value La of one pixel in the line profile LP1 and the enhancement coefficient Ea corresponding to the one pixel in the line profile LE1 as the luminance.
  • a process (La + Ea * La) of adding a value (Ea * La) obtained by multiplying the value La is performed on each pixel included in the line profile LP1.
  • the image signal processing unit 32 performs step S2 and step S3 in FIG. 3 among the pixels included in the NB1 image based on the enhancement coefficient calculated in step S4 in FIG. 3 in step S5 in FIG.
  • the processing for enhancing the contrast of the pixels whose dissimilarity calculated by the above processing exceeds a predetermined threshold is performed.
  • the image signal processing unit 32 is obtained by separating the NB1 image generated by performing the enhancement processing as shown in FIG. 3 (for each line profile) and the image signal output from the preprocessing unit 31.
  • the NR1 image and the NR2 image are output to the observation image generation unit 33.
  • the observation image generation unit 33 assigns the luminance value of the NR2 image output from the image signal processing unit 32 to the R channel, assigns the luminance value of the NR1 image output from the image signal processing unit 32 to the G channel, and performs enhancement processing.
  • an observation image is generated by assigning the luminance value of the NB1 image output from the image signal processing unit 32 to the B channel, and the generated observation image is output to the display device 4.
  • the blue intensity of the area AR1 is higher than that in the case where the enhancement process is not performed, while the red intensity of the area AR2 performs the enhancement process.
  • An observation image that is substantially the same as when there is no image is displayed on the display device 4.
  • FIG. 9 is a flowchart for explaining an enhancement process according to a modification of the first embodiment.
  • the image signal processing unit 32 calibrates the line profile LP2 of the NR2 image acquired by the process after performing the process of step S1 in FIG. 3 (sets the reference value of the luminance value in the line profile LP2 to 0). Is performed (step S11 in FIG. 9).
  • the image signal processing unit 32 calculates the average value AV2 of the luminance values of each pixel included in a predetermined region in the NR2 image, and further includes it in the line profile LP2. An arithmetic process is performed to subtract the average value AV2 from each luminance value.
  • the image signal processing unit 32 having a function as a calculation unit calculates, for each pixel, a variation amount that is a value indicating the variation of the luminance value with respect to the average luminance value of the NR2 image in step S11 of FIG. Process to do.
  • the image signal processing unit 32 is based on the line profile LC2 of the NR2 image obtained as the processing result of step S11 in FIG. 9, and includes an enhancement coefficient line profile for each pixel located on the line segment LS1. Processing for acquiring LE2 is performed (step S12 in FIG. 9).
  • the image signal processing unit 32 acquires the absolute value of each luminance value included in the line profile LC2 in step S12 of FIG. 9, and is larger than 0 in the absolute value of each acquired luminance value.
  • a constant RB (RB> 1) is further set for each brightness value obtained by the process.
  • an enhancement coefficient for each pixel located on the line segment LS1 is calculated.
  • the image signal processing unit 32 having a function as an enhancement coefficient calculation unit calculates an enhancement coefficient for each pixel located on the line segment LS1 based on the line profile LC2 in step S12 of FIG.
  • a process for acquiring each calculated enhancement coefficient as the line profile LE2 is performed.
  • the image signal processing unit 32 increases the luminance value of the pixels in the area AR1 among the pixels located on the line segment LS1 based on the line profile LC2 in step S12 of FIG. Processing is performed to calculate an enhancement coefficient that maintains the luminance value of the pixels outside the area AR1.
  • the image signal processing unit 32 performs processing for calculating an enhancement coefficient corresponding to a pixel in which the amount of variation calculated by the processing of step S11 of FIG. 9 exceeds a predetermined threshold in step S12 of FIG. I do.
  • the image signal processing unit 32 having a function as an enhancement processing unit maintains the contrast of the area AR2 based on each enhancement coefficient included in the line profile LE2 for enhancement obtained as a result of the process in step S12 of FIG.
  • the line profile LP1 is subjected to an enhancement process that enhances the contrast of the area AR1 (step S13 in FIG. 9).
  • the image signal processing unit 32 calculates the luminance value Lb of one pixel in the line profile LP1 and the enhancement coefficient Eb corresponding to the one pixel in the line profile LE2.
  • a process of adding the value (Eb ⁇ Lb) obtained by multiplying the value Lb and (Lb + Eb ⁇ Lb) is performed on each pixel included in the line profile LP1.
  • the image signal processing unit 32 performs the process of step S11 of FIG. 9 among the pixels included in the NB1 image based on the enhancement coefficient calculated by the process of step S12 of FIG. 9 in step S13 of FIG. A process for enhancing the contrast of the pixel whose calculated fluctuation amount exceeds a predetermined threshold value is performed.
  • the image signal processing unit 32 is obtained by separating the NB1 image generated by performing the enhancement processing as shown in FIG. 9 (for each line profile) and the image signal output from the preprocessing unit 31.
  • the NR1 image and the NR2 image are output to the observation image generation unit 33.
  • the observation image generation unit 33 assigns the luminance value of the NR2 image output from the image signal processing unit 32 to the R channel, assigns the luminance value of the NR1 image output from the image signal processing unit 32 to the G channel, and performs enhancement processing.
  • an observation image is generated by assigning the luminance value of the NB1 image output from the image signal processing unit 32 to the B channel, and the generated observation image is output to the display device 4.
  • the blue intensity of the area AR1 is higher than that in the case where the enhancement process is not performed, while the red intensity of the area AR2 performs the enhancement process.
  • An observation image that is substantially the same as when there is no image is displayed on the display device 4.
  • the enhancement process is performed to enhance the contrast of the area AR1 while maintaining the contrast of the area AR2 (without affecting the contrast of the area AR2).
  • the observed image can be displayed on the display device 4.
  • the concentration of indigo carmine in the area AR1 is low, it is possible to display an observation image in which the area AR1 can be viewed on the display device 4. Therefore, according to the present embodiment, it is possible to improve the visibility of the layer boundary between the submucosal layer and the muscle layer without deteriorating the visibility of the bleeding site caused by the blood vessel damage or the like, that is, cancer It is possible to reduce the burden on the operator when performing treatment on the lesion site such as the above.
  • the special light generator 22b of this embodiment may be configured to generate NB2 light, which is narrow-band blue light having a peak wavelength of 415 nm, for example, instead of NB1 light.
  • the observation image generation unit 33 of the present embodiment sets the luminance value of the NR1 image output from the image signal processing unit 32 as R when the observation mode of the biological observation system 101 is set to the special light observation mode.
  • the observation image may be generated by assigning the luminance value of the NB1 image output from the image signal processing unit 32 to the B channel in a state where the channel is assigned to the channel and the G channel and the enhancement process is performed.
  • the processing for calculating the enhancement coefficient is not limited to one performed for each line profile, and may be performed for each pixel, for example, and includes a plurality of pixels. It may be performed for each region of interest to be performed, or may be performed collectively for all pixels in the image.
  • (Second embodiment) 10 to 16 relate to a second embodiment of the present invention.
  • the living body observation system of the present embodiment has substantially the same configuration as each part of the living body observation system 101 described in the first embodiment, while the image signal processing unit 32 performs enhancement processing different from that of the first embodiment. Configured to do.
  • the image signal processing unit 32 of the present embodiment sets the observation mode of the living body observation system 101 to the special light observation mode and sets the predetermined enhancement processing to ON.
  • the image signal output from the preprocessing unit 31 is separated for each of the NB1 component, the NR1 component, and the NR2 component, and predetermined enhancement processing based on the separated color components is performed.
  • the component and the NR1 component are applied to the observation image generation unit 33 and output.
  • FIG. 10 is a flowchart for explaining the enhancement processing according to the second embodiment.
  • FIG. 11 is a diagram illustrating an example of an image to be processed in the enhancement process according to the second embodiment.
  • the image signal processing unit 32 displays a line profile, which is information indicating the distribution state of the luminance value of each pixel located on a line segment parallel to the horizontal direction of the image, in each of the NB1 image, the NR1 image, and the NR2 image.
  • a process for acquiring the same number of pixels in the vertical direction is performed (step S21 in FIG. 10).
  • the line profile as shown in FIG. 13 is acquired as information indicating the distribution state of the luminance value of each pixel located on the line segment LS2 shown in FIG. An example will be described.
  • FIG. 12 is a diagram showing a line segment LS2 used when acquiring a line profile from the image of FIG. FIG.
  • FIG. 13 is a diagram illustrating an example of a line profile acquired from each pixel located on the line segment LS2 of FIG. In FIG. 13, for the sake of simplicity, it is assumed that the magnitude relationship of the luminance values between the NB1 image, the NR1 image, and the NR2 image is not accurately shown.
  • the image signal processing unit 32 aligns the luminance level of the line profile LP3 of the NB1 image acquired by the process of step S21 of FIG. 10 with the luminance level of the line profile LP4 of the NR2 image acquired by the process of step S21 of FIG. Is performed (step S22 in FIG. 10).
  • the image signal processing unit 32 for example, in step S22 of FIG. 10, the average value AV3 of the luminance values of each pixel included in a predetermined region (for example, the entire image) in the NB1 image, and the NR2 image A value obtained by calculating the average value AV4 of the luminance values of each pixel included in the predetermined area and then dividing the average value AV4 by the average value AV3 for each luminance value included in the line profile LP3. A process of multiplying (AV4 / AV3) is performed.
  • the image signal processing unit 32 uses the line profile LP4 to calibrate the line profile LB2 of the NB1 image after the brightness level adjustment obtained as a result of the process of step S22 in FIG. 10 (the reference value of the brightness value in the line profile LB2 is set). (Set to 0) is performed (step S23 in FIG. 10).
  • step S23 of FIG. 10 the image signal processing unit 32 divides the luminance value of one pixel included in the line profile LB2 by the luminance value of the one pixel included in the line profile LP4. After performing the process, a calculation process is further performed to subtract 1 from each luminance value obtained by the process. Then, when such calculation processing is performed in step S23 of FIG. 10, the luminance values of the pixels in the area AR3 and the area AR5 are indicated by a value larger than 0, and the luminance of the pixels in the area AR4 is displayed. A line profile LC2 of the NB1 image whose value is indicated by a value of 0 or less is acquired (see FIG. 14).
  • FIG. 14 is a diagram illustrating an example of the line profile LC2 acquired in the enhancement processing according to the second embodiment.
  • the image signal processing unit 32 having a function as a calculation unit obtains the degree of difference, which is a value indicating the degree of difference in luminance value in the same pixel of the NB1 image and the NR2 image in step S22 and step S23 in FIG. Processing for calculating the line profile LC2 is performed.
  • the image signal processing unit 32 is based on the line profile LC2 of the NB1 image obtained as the processing result of step S23 in FIG. 10, and includes an enhancement coefficient line profile for each pixel located on the line segment LS2. Processing for acquiring LE3 and LE4 is performed (step S24 in FIG. 10).
  • step S24 of FIG. 10 the image signal processing unit 32 maintains the luminance value larger than 0 as it is for the line profile LC2 and uniformly converts the luminance value of 0 or less to 0.
  • step S24 of FIG. 10 the image signal processing unit 32 maintains the luminance value larger than 0 as it is for the line profile LC2 and uniformly converts the luminance value of 0 or less to 0.
  • processing such as multiplying each luminance value obtained by the processing by a constant RC (RC> 1), for each pixel located on the line segment LS2. Calculate the enhancement factor.
  • a line profile LE3 for enhancement processing as illustrated in FIG. 15 is acquired.
  • step S24 of FIG. 10 the image signal processing unit 32 maintains the luminance value larger than 0 as it is for the line profile LC2 and uniformly converts the luminance value of 0 or less to 0.
  • the image signal processing unit 32 maintains a luminance value of 0 or less as it is for the line profile LC2 while uniformly converting a luminance value greater than 0 to 0.
  • the enhancement coefficient for each pixel located on the line segment LS2 is obtained by performing processing such as multiplying each luminance value obtained by the processing by a constant RD (RD> 1). calculate.
  • RD constant RD
  • FIG. 15 is a diagram illustrating an example of the line profile LE3 acquired in the enhancement processing according to the second embodiment.
  • FIG. 16 is a diagram illustrating an example of the line profile LE4 acquired in the enhancement processing according to the second embodiment.
  • the image signal processing unit 32 having a function as an enhancement coefficient calculation unit calculates an enhancement coefficient for each pixel located on the line segment LS2 based on the line profile LC2 in step S24 of FIG. Processing for acquiring the calculated enhancement coefficients as the line profile LE3 and the line profile LE4 is performed. In other words, in step S24 of FIG. 10, the image signal processing unit 32 determines the luminance value of the pixel in the area AR3 and the luminance value of the area AR5 among the pixels located on the line segment LS2 based on the line profile LC2.
  • the image signal processing unit 32 calculates an enhancement coefficient corresponding to a pixel in which the degree of difference calculated by the processing in steps S22 and S23 in FIG. 10 exceeds a predetermined threshold in step S24 in FIG. Process.
  • the image signal processing unit 32 having a function as an enhancement processing unit, based on the enhancement coefficients included in the line profiles LE3 and LE4 for enhancement obtained as a result of the process in step S24 of FIG. 10 is applied to the line profile LP3 and the line profile LP5 of the NR1 image acquired by the process of step S21 in FIG. 10 (step in FIG. 10). S25).
  • the image signal processing unit 32 for example, in step S25 of FIG. 10, the luminance value Lc of one pixel included in the line profile LP3 and the enhancement coefficient Ec corresponding to the one pixel in the line profile LE3.
  • a value (Ec ⁇ Lc) obtained by multiplying the luminance value Lc by (Lc + Ec ⁇ Lc) is added to each pixel included in the line profile LP3.
  • the image signal processing unit 32 determines the luminance value Ld of one pixel included in the line profile LP5 and the enhancement coefficient Ed corresponding to the one pixel in the line profile LE4 as luminance values.
  • a value (Ed ⁇ Ld) obtained by multiplying Ld is added (Ld + Ed ⁇ Ld) to each pixel included in the line profile LP5.
  • the image signal processing unit 32 performs step S22 in FIG. 10 among the pixels included in the NB1 image and the NR1 image based on the enhancement coefficient calculated in step S24 in FIG. 10 in step S25 in FIG. And the process for emphasizing the contrast of the pixel whose dissimilarity calculated by the process of step S23 exceeds a predetermined threshold value is performed.
  • the image signal processing unit 32 performs the enhancement process as shown in FIG. 10 (for each line profile) and the enhancement process as shown in FIG. 10 (for each line profile).
  • the generated NR1 image and the NR2 image obtained by separating the image signal output from the preprocessing unit 31 are output to the observation image generating unit 33.
  • the observation image generation unit 33 assigns the luminance value of the NR2 image output from the image signal processing unit 32 to the R channel, and the luminance value of the NR1 image output from the image signal processing unit 32 in a state where the enhancement processing is performed.
  • An observation image is generated by assigning the luminance value of the NB1 image output from the image signal processing unit 32 to the B channel in the state where the enhancement processing is performed and assigned to the G channel, and the generated observation image is sent to the display device 4. Output.
  • the blue intensity of the area AR3 is higher than that when the enhancement process is not performed, and the red intensity of the area AR4 is not subjected to the enhancement process.
  • an observation image is displayed on the display device 4 such that the red intensity of the area AR5 becomes substantially the same as that when the enhancement process is not performed.
  • a process for further increasing the red intensity of the area AR4 may be included in the enhancement process of FIG.
  • the line profile LE5 corresponding to the absolute value of each luminance value included in the line profile LE4 shown in FIG. 16 is acquired, and the luminance value Le of one pixel included in the line profile LP4 is obtained.
  • Each pixel included in the line profile LP4 performs (Le + Ee ⁇ Le) processing of adding a value (Ee ⁇ Le) obtained by multiplying the luminance value Le by the enhancement coefficient Ee corresponding to the one pixel in the line profile LE5.
  • the processing to be applied to may be included in the enhancement processing of FIG.
  • the luminance value of the NR2 image generated through such processing is assigned to the R channel, the luminance value of the NR1 image generated through the enhancement processing of FIG.
  • the enhancement processing of FIG. 10 is assigned to the G channel, and the enhancement processing of FIG. 10 is performed.
  • the luminance value of the generated NB1 image By assigning the luminance value of the generated NB1 image to the B channel, the blue intensity of the area AR3 becomes higher than when the enhancement process is not performed, and the red intensity of the area AR4 is subjected to the enhancement process of FIG.
  • an observation image can be displayed on the display device 4 such that the red intensity in the area AR5 becomes substantially the same as that in the case where the enhancement process is not performed, while being further higher than the case.
  • the red intensity of the area AR4 may be further increased by setting the value of the constant RD in the enhancement processing of FIG. 10 to a sufficiently large value.
  • step S25 of FIG. 10 a process for enhancing the contrast of either the area AR3 or the area AR4 may be performed.
  • the enhancement process that increases the contrast of the area AR3 and the area AR4 while maintaining the contrast of the area AR5 (without affecting the contrast of the area AR5). Can be displayed on the display device 4. Further, according to the present embodiment, for example, even when the concentration of indigo carmine in the area AR3 is low, an observation image that can visually recognize the area AR3 can be displayed on the display device 4.
  • the visibility of the layer boundary between the submucosal layer and the muscle layer, the damage of the blood vessel, etc. without deteriorating the visibility of the deep blood vessels (large blood vessels) traveling in the submucosa layer
  • the visibility of the bleeding site that accompanies it can be improved, that is, the burden on the operator when performing treatment on a lesion site such as cancer can be reduced.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Signal Processing (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Multimedia (AREA)
  • Endoscopes (AREA)

Abstract

 生体観察システムは、赤色域に吸収ピークを有する色素が投与された被写体を照明するための光として、青色域に属する第1の光と、赤色域に属する第2の光と、を発生する照明光発生部と、撮像部と、第1の光の戻り光を撮像して得られた第1の画像と、第2の光の戻り光を撮像して得られた第2の画像と、の同一画素における輝度値の相違の度合いを示す相違度を算出する演算部と、相違度が所定の閾値を超える画素に対応する強調係数を算出する強調係数算出部と、強調係数に基づき、第1の画像に含まれる各画素のうち、相違度が所定の閾値を超える画素のコントラストを強調する強調処理部と、強調処理部による処理が施された第1の画像と、第2の画像と、を用いて観察画像を生成する観察画像生成部と、を有する。

Description

生体観察システム
 本発明は、生体観察システムに関し、特に、生体組織の観察に用いられる生体観察システムに関するものである。
 内視鏡観察下において癌等の病変部位に対する処置を行うための手法として、例えば、ESD(内視鏡的粘膜下層剥離術)が近年提案されている。また、例えば、日本国特許第5355820号公報には、ESDに利用可能な内視鏡システムが開示されている。
 具体的には、日本国特許第5355820号公報には、複数の帯域画像の中から選択された2以上の帯域画像の波長帯域または空間周波数帯域を軸として形成された特徴空間内における被検体内の観察対象(粘膜表面下の深部の血管、粘膜表層のピットパターンまたは粘膜表層の血管)が分布する領域に対して設定された強調量に基づき、当該選択された2以上の帯域画像に対して強調処理を行い、当該強調処理が施された当該2以上の帯域画像を含む当該複数の帯域画像に対して色調を調整するための色変換処理を行うような構成を具備する内視鏡システムが開示されている。
 また、癌等の病変部位に対する処置においては、例えば、当該病変部位を含む処置対象領域の粘膜下層にインジゴカルミン等のような色素剤を投与することにより、粘膜下層と筋層との層境界を視認可能な状態にするような手法が用いられている。
 しかし、日本国特許第5355820号公報に開示された構成によれば、可視域の長波長側に属する狭帯域光を照明光として用いて帯域画像を生成しているため、粘膜下層を走行する深部血管(太径の血管)の視認性が向上する反面、白色光を照明光として用いた場合よりもさらに層境界の視認性が低下してしまうような状況が発生し易い、という問題点がある。
 その結果、日本国特許第5355820号公報に開示された構成によれば、例えば、癌等の病変部位に対する処置の最中において、筋層の損傷等による偶発症の発生を防ぐために、術者に過度な負担を強いてしまう、という前述の問題点に応じた課題が生じている。
 本発明は、前述した事情に鑑みてなされたものであり、癌等の病変部位に対する処置を行う際の術者の負担を軽減可能な生体観察システムを提供することを目的としている。
 本発明の一態様の生体観察システムは、赤色域に吸収ピークを有する色素が投与された領域を含む被写体を照明するための光として、青色域にピーク波長を有する第1の光と、赤色域にピーク波長を具備する第2の光と、を発生することができるように構成された照明光発生部と、前記照明光発生部から発せられる光により照明された前記被写体からの戻り光を撮像するように構成された撮像部と、前記第1の光の戻り光を撮像して得られた第1の画像と、前記第2の光の戻り光を撮像して得られた第2の画像と、の同一画素における輝度値の相違の度合いを示す値である相違度を算出するための処理を行うように構成された演算部と、前記戻り光を撮像して得られた画像のうち、前記演算部により算出された前記相違度が所定の閾値を超える画素に対応する第1の強調係数を算出するための処理を行うように構成された強調係数算出部と、前記強調係数算出部により算出された前記第1の強調係数に基づき、前記第1の画像に含まれる各画素のうち、前記演算部により算出された前記相違度が所定の閾値を超える画素のコントラストを強調するための処理を行うように構成された強調処理部と、前記強調処理部による処理が施された前記第1の画像と、前記第2の画像と、を用いて観察画像を生成し、当該生成した観察画像を表示装置に出力するように構成された観察画像生成部と、を有する。
 本発明の一態様の生体観察システムは、赤色域に吸収ピークを有する色素が投与された領域を含む被写体を照明するための光として、青色域にピーク波長を有する第1の光と、赤色域にピーク波長を具備する第2の光と、を発生することができるように構成された照明光発生部と、前記照明光発生部から発せられる光により照明された前記被写体からの戻り光を撮像するように構成された撮像部と、前記第2の光の戻り光を撮像して得られた第2の画像に基づき、前記第2の画像の輝度値の平均値に対する輝度値の変動を示す値である変動量を各画素毎に算出するための処理を行うように構成された演算部と、前記戻り光を撮像して得られた画像のうち、前記演算部により算出された前記相違度が所定の閾値を超える画素に対応する強調係数を算出するための処理を行うように構成された強調係数算出部と、前記強調係数算出部により算出された前記強調係数に基づき、前記第1の画像に含まれる各画素のうち、前記演算部により算出された前記変動量が所定の閾値を超える画素のコントラストを強調するための処理を行うように構成された強調処理部と、前記強調処理部による処理が施された前記第1の画像と、前記第2の画像と、を用いて観察画像を生成し、当該生成した観察画像を表示装置に出力するように構成された観察画像生成部と、を有する。
実施例に係る生体観察システムの要部の構成を示す図。 実施例に係る生体観察システムの観察モードが特殊光観察モードに設定された際に光源装置から発せられる光の波長の一例を説明するための図。 第1の実施例に係る強調処理を説明するためのフローチャート。 第1の実施例に係る強調処理の処理対象となる画像の一例を示す図。 図4の画像からラインプロファイルを取得する際に用いられる線分LS1を示す図。 図5の線分LS1上に位置する各画素から取得したラインプロファイルの一例を示す図。 第1の実施例に係る強調処理において取得されるラインプロファイルLC1の一例を示す図。 第1の実施例に係る強調処理において取得されるラインプロファイルLE1の一例を示す図。 第1の実施例の変形例に係る強調処理を説明するためのフローチャート。 第2の実施例に係る強調処理を説明するためのフローチャート。 第2の実施例に係る強調処理の処理対象となる画像の一例を示す図。 図11の画像からラインプロファイルを取得する際に用いられる線分LS2を示す図。 図12の線分LS2上に位置する各画素から取得したラインプロファイルの一例を示す図。 第2の実施例に係る強調処理において取得されるラインプロファイルLC2の一例を示す図。 第2の実施例に係る強調処理において取得されるラインプロファイルLE3の一例を示す図。 第2の実施例に係る強調処理において取得されるラインプロファイルLE4の一例を示す図。
 以下、本発明の実施の形態について、図面を参照しつつ説明を行う。
(第1の実施例)
 図1から図9は、本発明の第1の実施例に係るものである。図1は、実施例に係る生体観察システムの要部の構成を示す図である。
 生体観察システム101は、図1に示すように、生体である被検体内に挿入可能な細長形状の挿入部を具備するとともに、当該被検体内の生体組織等の被写体を撮像して撮像信号を出力する内視鏡1と、内視鏡1の内部に挿通配置されたライトガイド6を介して当該被写体の観察に用いられる光を供給する光源装置2と、内視鏡1から出力される撮像信号に応じた観察画像等を生成して出力するプロセッサ3と、プロセッサ3から出力される観察画像等を表示する表示装置4と、ユーザの入力操作に応じた指示等をプロセッサ3に対して行うことが可能なスイッチ及び/またはボタン等を備えた入力装置5と、を有して構成されている。
 内視鏡1は、ライトガイド6により伝送された光を被写体へ照射する照明光学系11と、照明光学系11から照射された光に応じて当該被写体から発せられる反射光(戻り光)を撮像して得られた撮像信号を出力する撮像部12と、を挿入部の先端部に設けて構成されている。また、内視鏡1は、ユーザの操作に応じた種々の指示をプロセッサ3に対して行うことが可能なスコープスイッチ13を有して構成されている。
 撮像部12は、光源装置2から発せられる照明光により照明された被写体からの反射光(戻り光)を撮像して撮像信号を出力するように構成されている。具体的には、撮像部12は、被写体から発せられる反射光(戻り光)を結像する対物光学系12aと、原色カラーフィルタ121を備えた撮像面が対物光学系12aの結像位置に合わせて配置された撮像素子12bと、を有して構成されている。
 撮像素子12bは、例えば、CCD等を具備し、プロセッサ3から出力される撮像素子駆動信号に応じて駆動するとともに、撮像面に結像された被写体からの反射光(戻り光)を撮像して得られた撮像信号を出力するように構成されている。
 スコープスイッチ13は、観察モード切替スイッチ13aと、強調表示切替スイッチ13bと、を有して構成されている。
 観察モード切替スイッチ13aは、ユーザの操作に応じ、生体観察システム101の観察モードを白色光観察モードまたは特殊光観察モードのいずれかに設定する(切り替える)ための指示をプロセッサ3に対して行うことができるように構成されている。
 強調表示切替スイッチ13bは、ユーザの操作に応じ、特殊光観察モードにおける所定の強調処理(後述)のオンオフを設定する(切り替える)ための指示をプロセッサ3に対して行うことができるように構成されている。
 光源装置2は、光源制御部21と、白色光発生部22a及び特殊光発生部22bを備えた発光ユニット22と、を有して構成されている。
 光源制御部21は、例えば、制御回路等を具備して構成されている。また、光源制御部21は、プロセッサ3から出力されるシステム制御信号に基づき、例えば、生体観察システム101の観察モードが白色光観察モードに設定されたことを検出した場合には、白色光発生部22aから白色光を発生させるとともに、特殊光発生部22bを消光させるための発光制御信号を生成し、当該生成した発光制御信号を発光ユニット22へ出力するように構成されている。
 光源制御部21は、プロセッサ3から出力されるシステム制御信号に基づき、例えば、生体観察システム101の観察モードが特殊光観察モードに設定されたことを検出した場合には、白色光発生部22aを消光させるとともに、特殊光発生部22bから後述のNB1光、NR1光及びNR2光を順次発生させるための発光制御信号を生成し、当該生成した発光制御信号を発光ユニット22へ出力するように構成されている。
 白色光発生部22aは、例えば、1以上のLEDを具備し、光源制御部21から出力される発光制御信号に基づき、赤色域、緑色域及び青色域を含む広帯域光である白色光を発生することができるように構成されている。なお、本実施例の白色光発生部22aは、1以上のLEDを具備して構成されるものに限らず、例えば、キセノンランプ等を具備して構成されていてもよい。
 特殊光発生部22bは、例えば、複数のLEDを具備し、光源制御部21から出力される発光制御信号に基づき、狭帯域な青色光であるNB1光、狭帯域な赤色光であるNR1光、及び、NR1光とは異なる波長帯域に設定された狭帯域な赤色光であるNR2光を個別にまたは同時に発生することができるように構成されている。図2は、実施例に係る生体観察システムの観察モードが特殊光観察モードに設定された際に光源装置から発せられる光の波長の一例を説明するための図である。
 NB1光は、例えば、図2に示すように、赤色域に属する610nm付近に吸収ピークを具備する色素剤であるインジゴカルミンの吸収係数が酸化ヘモグロビンの吸収係数に比べて十分小さくなるようなピーク波長及び帯域幅を具備するように設定された青色光である。なお、本実施例においては、好適には、NB1光の波長帯域は、青色域の酸化ヘモグロビンの吸収ピークよりも小さな吸収係数を示す波長である、460nmをピーク波長として具備するように設定される。
 NR1光は、例えば、図2に示すように、赤色域における酸化ヘモグロビンの吸収係数がNR2光に比べて大きくなるような波長である600nmをピーク波長として具備し、さらに、NR2光と重複しないような帯域幅を具備するように設定された赤色光である。
 NR2光は、例えば、図2に示すように、酸化ヘモグロビンの吸収係数がインジゴカルミンの吸収係数に比べて十分小さく、赤色域における酸化ヘモグロビンの吸収係数がNR1光より小さく、かつ、インジゴカルミンの吸収係数がNB1光に比べて大きくなるような波長である630nmをピーク波長として具備し、さらに、NR1光と重複しないような帯域幅を具備するように設定された赤色光である。
 プロセッサ3は、前処理部31と、画像信号処理部32と、観察画像生成部33と、制御部34と、を有して構成されている。
 前処理部31は、例えば、ノイズ低減回路及びA/D変換回路等を具備し、内視鏡1から出力される撮像信号に対してノイズ除去及びA/D変換等の処理を施すことによりデジタルな画像信号を生成し、当該生成した画像信号を画像信号処理部32へ出力するように構成されている。
 画像信号処理部32は、例えば、信号処理回路等を具備して構成されている。また、画像信号処理部32は、制御部34から出力されるシステム制御信号に基づき、例えば、生体観察システム101の観察モードが白色光観察モードに設定されたことを検出した場合には、前処理部31から出力される画像信号を、白色光の反射光(戻り光)を撮像して得られるR(赤色)成分、G(緑色)成分及びB(青色)成分の色成分毎に分離して観察画像生成部33へ出力するように構成されている。
 画像信号処理部32は、制御部34から出力されるシステム制御信号に基づき、例えば、生体観察システム101の観察モードが特殊光観察モードに設定され、かつ、所定の強調処理がオフに設定されたことを検出した場合には、前処理部31から出力される画像信号を、NB1光の反射光(戻り光)を撮像して得られるNB1成分、NR1光の反射光(戻り光)を撮像して得られるNR1成分、及び、NR2光の反射光(戻り光)を撮像して得られるNR2成分の色成分毎に分離して観察画像生成部33へ出力するように構成されている。
 画像信号処理部32は、制御部34から出力されるシステム制御信号に基づき、例えば、生体観察システム101の観察モードが特殊光観察モードに設定され、かつ、所定の強調処理がオンに設定されたことを検出した場合には、前処理部31から出力される画像信号を、NB1成分、NR1成分及びNR2成分の色成分毎に分離し、当該分離した各色成分に基づく所定の強調処理をNB1成分に施して観察画像生成部33へ出力するように構成されている。
 観察画像生成部33は、例えば、画像処理回路等を具備して構成されている。また、観察画像生成部33は、制御部34から出力されるシステム制御信号に基づき、例えば、生体観察システム101の観察モードが白色光観察モードに設定されたことを検出した場合には、画像信号処理部32から出力されるR成分の輝度値を表示装置4の赤色に対応するRチャンネルに割り当て、画像信号処理部32から出力されるG成分の輝度値を表示装置4の緑色に対応するGチャンネルに割り当て、画像信号処理部32から出力されるB成分の輝度値を表示装置4の青色に対応するBチャンネルに割り当てることにより観察画像を生成し、当該生成した観察画像を表示装置4へ出力するように構成されている。
 観察画像生成部33は、制御部34から出力されるシステム制御信号に基づき、例えば、生体観察システム101の観察モードが特殊光観察モードに設定された場合には、画像信号処理部32から出力されるNR2成分の輝度値をRチャンネルに割り当て、画像信号処理部32から出力されるNR1成分の輝度値をGチャンネルに割り当て、画像信号処理部32から出力されるNB1成分の輝度値をBチャンネルに割り当てることにより観察画像を生成し、当該生成した観察画像を表示装置4へ出力するように構成されている。
 制御部34は、撮像素子12bを駆動するための撮像素子駆動信号を生成して出力するように構成されている。
 制御部34は、例えば、CPUまたは制御回路等を具備し、観察モード切替スイッチ13aにおいて設定された観察モードに対応する動作を行わせるためのシステム制御信号を生成して光源制御部21、画像信号処理部32及び観察画像生成部33へ出力するように構成されている。
 制御部34は、強調表示切替スイッチ13bにおいて設定された所定の強調処理のオンオフに対応する動作を行わせるためのシステム制御信号を生成して画像信号処理部32へ出力するように構成されている。
 続いて、本実施例に係る生体観察システムの作用について説明する。なお、以降においては、簡単のため、生体観察システム101の観察モードが白色光観察モードに設定された場合における具体的な動作の説明を省略する。
 ユーザは、生体観察システム101の各部の電源を投入し、生体観察システム101の観察モードを白色光観察モードに設定した後、表示装置4に表示される観察画像(白色光画像)を確認しながら、内視鏡1の挿入部を被検体内に挿入してゆく。
 そして、ユーザは、被検体内における癌等の病変部位を含む処置対象領域の近傍に内視鏡1の挿入部の先端部を配置し、当該処置対象領域の粘膜下層にインジゴカルミン(色素剤)を投与した(局注または散布した)後、観察モード切替スイッチ13aを操作することにより生体観察システム101の観察モードを特殊光観察モードに設定するとともに、強調表示切替スイッチ13bを操作することにより所定の強調処理をオンに設定する。
 制御部34は、生体観察システム101の観察モードが特殊光観察モードに設定されたことを検出すると、例えば、NB1光及びNR2光を同時に発生させるタイミングと、NR1光を単独で発生させるタイミングと、をそれぞれ特定可能なシステム制御信号を生成して光源制御部21、画像信号処理部32及び観察画像生成部33へ出力する。
 光源制御部21は、制御部34から出力されるシステム制御信号に基づき、NB1光及びNR2光を同時に発生させるための制御と、NR1光を単独で発生させるための制御と、を特殊光発生部22bに対して順次繰り返し行う。そして、このような光源制御部21の制御に応じ、被写体を照明するための照明光であるNB1光、NR1光及びNR2光が照明光学系11を経て順次照射され、当該被写体からの反射光(戻り光)を撮像して得られた撮像信号が撮像素子12bから出力され、撮像素子12bからの撮像信号に基づいて生成された画像信号が前処理部31から出力される。
 なお、本実施例によれば、例えば、原色カラーフィルタ121を具備する撮像素子12bの代わりに、原色カラーフィルタ121を具備しないモノクロの撮像素子が撮像部12に設けられている場合において、NB1光を単独で発生させるための制御と、NR1光を単独で発生させるための制御と、NR2光を単独で発生させるための制御と、が順次繰り返し行われるようにしてもよい。
 画像信号処理部32は、前処理部31から出力される画像信号を、NB1成分、NR1成分及びNR2成分の色成分毎に分離し、当該分離したNB1成分に対して所定の強調処理を施す。
 ここで、本実施例の画像信号処理部32により行われる強調処理の詳細について、図3のフローチャートを適宜参照しつつ説明する。図3は、第1の実施例に係る強調処理を説明するためのフローチャートである。
 なお、以降においては、簡単のため、図4に示すような、インジゴカルミンが投与された領域AR1と、血管の損傷等に伴う(少量の)出血が生じている領域AR2と、を含む被写体を撮像して得られた画像信号に対して強調処理が施される場合を例に挙げて説明する。また、以降においては、簡単のため、前処理部31からの画像信号を分離して得られた各色成分に対応するNB1画像、NR1画像及びNR2画像に基づいて強調処理が行われるものとして説明する。図4は、第1の実施例に係る強調処理の処理対象となる画像の一例を示す図である。
 画像信号処理部32は、NB1画像、NR1画像及びNR2画像の各々において、画像の水平方向に平行な線分上に位置する各画素の輝度値の分布状態を示すラインプロファイル(輝度情報)を、画像の垂直方向の画素数と同数分取得するための処理を行う(図3のステップS1)。なお、以降においては、簡単のため、前述の処理により、図4に示した画像内における図5に示す線分LS1上に位置する各画素の輝度値の分布状態を示す情報として、図6に示すようなラインプロファイルが取得された場合を例に挙げて説明する。図5は、図4の画像からラインプロファイルを取得する際に用いられる線分LS1を示す図である。図6は、図5の線分LS1上に位置する各画素から取得したラインプロファイルの一例を示す図である。なお、図6においては、図示の簡単のため、NB1画像、NR1画像及びNR2画像の各画像間における輝度値の大小関係が正確には示されていないものとする。
 画像信号処理部32は、図3のステップS1の処理により取得したNB1画像のラインプロファイルLP1の輝度レベルを、図3のステップS1の処理により取得したNR2画像のラインプロファイルLP2の輝度レベルに揃えるための演算処理を行う(図3のステップS2)。
 具体的には、画像信号処理部32は、例えば、図3のステップS2において、NB1画像における所定の領域(例えば画像全域)に含まれる各画素の輝度値の平均値AV1と、NR2画像における当該所定の領域に含まれる各画素の輝度値の平均値AV2と、を算出した後、さらに、ラインプロファイルLP1に含まれる各輝度値に対し、平均値AV2を平均値AV1で除して得られる値(AV2/AV1)を乗じるような処理を行う。
 画像信号処理部32は、ラインプロファイルLP2を用い、図3のステップS2の処理結果として得られた輝度レベル調整後のNB1画像のラインプロファイルLB1を較正する(ラインプロファイルLB1における輝度値の基準値を0に設定する)ための処理を行う(図3のステップS3)。
 具体的には、画像信号処理部32は、例えば、図3のステップS3において、ラインプロファイルLB1に含まれる一の画素の輝度値をラインプロファイルLP2に含まれる当該一の画素の輝度値で除する処理を行った後、さらに、当該処理により得られた各輝度値から1を減ずるような演算処理を行う。そして、このような演算処理が図3のステップS3において行われた場合には、領域AR1内の画素の輝度値が0より大きな値で示され、かつ、領域AR2内の画素の輝度値が0以下の値で示されるようなNB1画像のラインプロファイルLC1が取得される(図7参照)。図7は、第1の実施例に係る強調処理において取得されるラインプロファイルLC1の一例を示す図である。
 なお、本実施例の画像信号処理部32は、図3のステップS3において、前述のような処理を行うことによりラインプロファイルLC1を取得するものに限らず、例えば、ラインプロファイルLB1に含まれる一の画素の輝度値からラインプロファイルLP2に含まれる当該一の画素の輝度値を減ずる処理を行うことによりラインプロファイルLC1を取得するものであってもよい。
 すなわち、演算部としての機能を具備する画像信号処理部32は、図3のステップS2及びステップS3において、NB1画像及びNR2画像の同一画素における輝度値の相違の度合いを示す値である相違度をラインプロファイルLC1として算出するための処理を行う。
 一方、本実施例の画像信号処理部32は、例えば、NB1画像における最大輝度値MBLがNR2画像における最大輝度値MRL未満であり、かつ、最大輝度値MRLと最大輝度値MBLとの差分値が小さい場合には、図3のステップS2の処理をスキップした後、図3のステップS3において以下のような処理を行うことにより、ラインプロファイルLC1を取得するようにしてもよい。
 具体的には、画像信号処理部32は、例えば、前述のような場合に、図3のステップS2の処理をスキップした後、図3のステップS3において、ラインプロファイルLP1に含まれる一の画素の輝度値をラインプロファイルLP2に含まれる当該一の画素の輝度値で除する処理を行い、さらに、当該処理により得られた各輝度値から1を減ずるような演算処理を行うことによりラインプロファイルLC1を取得するものであってもよい。
 または、画像信号処理部32は、例えば、前述のような場合に、図3のステップS2の処理をスキップした後、図3のステップS3において、ラインプロファイルLP1に含まれる一の画素の輝度値からラインプロファイルLP2に含まれる当該一の画素の輝度値を減ずる処理を行い、さらに、当該処理により得られた各輝度値から1を減ずるような演算処理を行うことによりラインプロファイルLC1を取得するものであってもよい。
 画像信号処理部32は、図3のステップS3の処理結果として得られたNB1画像のラインプロファイルLC1に基づき、線分LS1上に位置する各画素毎の強調係数を具備する強調処理用のラインプロファイルLE1を取得するための処理を行う(図3のステップS4)。
 具体的には、画像信号処理部32は、例えば、図3のステップS4において、ラインプロファイルLC1に対し、0より大きな輝度値をそのまま維持する一方で0以下の輝度値を一律に0に変換するような処理を行った後、さらに、当該処理により得られた各輝度値に対して定数RA(RA>1)を乗じるような処理を行うことにより、線分LS1上に位置する各画素毎の強調係数を算出する。そして、このような処理が図3のステップS4において行われた場合には、図8に例示するような強調処理用のラインプロファイルLE1が取得される。図8は、第1の実施例に係る強調処理において取得されるラインプロファイルLE1の一例を示す図である。
 換言すると、強調係数算出部としての機能を具備する画像信号処理部32は、図3のステップS4において、ラインプロファイルLC1に基づき、線分LS1上に位置する各画素毎に強調係数を算出し、当該算出した各強調係数をラインプロファイルLE1として取得するための処理を行う。また、換言すると、画像信号処理部32は、図3のステップS4において、ラインプロファイルLC1に基づき、線分LS1上に位置する各画素のうち、領域AR1内の画素の輝度値を増加させつつ、領域AR1外の画素の輝度値を維持するような強調係数を算出するための処理を行う。また、換言すると、画像信号処理部32は、図3のステップS4において、図3のステップS2及びステップS3の処理により算出された相違度が所定の閾値を超える画素に対応する強調係数を算出するための処理を行う。
 強調処理部としての機能を具備する画像信号処理部32は、図3のステップS4の処理結果として得られた強調処理用のラインプロファイルLE1に含まれる各強調係数に基づき、領域AR2のコントラストを維持しつつ、領域AR1のコントラストを強調するような強調処理をラインプロファイルLP1に対して施す(図3のステップS5)。
 具体的には、画像信号処理部32は、例えば、図3のステップS5において、ラインプロファイルLP1における一の画素の輝度値Laと、ラインプロファイルLE1における当該一の画素に対応する強調係数Eaを輝度値Laに乗じて得られる値(Ea×La)と、を加算する(La+Ea×La)処理をラインプロファイルLP1に含まれる各画素に対して施す。
 すなわち、画像信号処理部32は、図3のステップS5において、図3のステップS4の処理により算出された強調係数に基づき、NB1画像に含まれる各画素のうち、図3のステップS2及びステップS3の処理により算出された相違度が所定の閾値を超える画素のコントラストを強調するための処理を行う。
 そして、画像信号処理部32は、図3に示したような強調処理を(各ラインプロファイル毎に)施して生成したNB1画像と、前処理部31から出力される画像信号を分離して得られたNR1画像及びNR2画像と、を観察画像生成部33へ出力する。
 観察画像生成部33は、画像信号処理部32から出力されるNR2画像の輝度値をRチャンネルに割り当て、画像信号処理部32から出力されるNR1画像の輝度値をGチャンネルに割り当て、強調処理が施された状態で画像信号処理部32から出力されるNB1画像の輝度値をBチャンネルに割り当てることにより観察画像を生成し、当該生成した観察画像を表示装置4へ出力する。そして、このような観察画像生成部33の動作によれば、例えば、領域AR1の青色の強度が強調処理を行わない場合に比べて高くなる一方で、領域AR2の赤色の強度が強調処理を行わない場合と略同じになるような観察画像が表示装置4に表示される。
 なお、本実施例の画像信号処理部32は、図3に示したような強調処理を行うものに限らず、例えば、図9に示すような強調処理を行うものであってもよい。図9は、第1の実施例の変形例に係る強調処理を説明するためのフローチャートである。
 画像信号処理部32は、図3のステップS1の処理を行った後、当該処理により取得したNR2画像のラインプロファイルLP2を較正する(ラインプロファイルLP2における輝度値の基準値を0に設定する)ための処理を行う(図9のステップS11)。
 具体的には、画像信号処理部32は、例えば、図9のステップS11において、NR2画像における所定の領域に含まれる各画素の輝度値の平均値AV2を算出し、さらに、ラインプロファイルLP2に含まれる各輝度値から平均値AV2を減ずるような演算処理を行う。
 すなわち、演算部としての機能を具備する画像信号処理部32は、図9のステップS11において、NR2画像の輝度値の平均値に対する輝度値の変動を示す値である変動量を各画素毎に算出するための処理を行う。
 画像信号処理部32は、図9のステップS11の処理結果として得られたNR2画像のラインプロファイルLC2に基づき、線分LS1上に位置する各画素毎の強調係数を具備する強調処理用のラインプロファイルLE2を取得するための処理を行う(図9のステップS12)。
 具体的には、画像信号処理部32は、例えば、図9のステップS12において、ラインプロファイルLC2に含まれる各輝度値の絶対値を取得し、当該取得した各輝度値の絶対値における0より大きな輝度値をそのまま維持する一方で0以下の輝度値を一律に0に変換するような処理を行った後、さらに、当該処理により得られた各輝度値に対して定数RB(RB>1)を乗じるような処理を行うことにより、線分LS1上に位置する各画素毎の強調係数を算出する。
 換言すると、強調係数算出部としての機能を具備する画像信号処理部32は、図9のステップS12において、ラインプロファイルLC2に基づき、線分LS1上に位置する各画素毎に強調係数を算出し、当該算出した各強調係数をラインプロファイルLE2として取得するための処理を行う。また、換言すると、画像信号処理部32は、図9のステップS12において、ラインプロファイルLC2に基づき、線分LS1上に位置する各画素のうち、領域AR1内の画素の輝度値を増加させつつ、領域AR1外の画素の輝度値を維持するような強調係数を算出するための処理を行う。また、換言すると、画像信号処理部32は、図9のステップS12において、図9のステップS11の処理により算出された変動量が所定の閾値を超える画素に対応する強調係数を算出するための処理を行う。
 強調処理部としての機能を具備する画像信号処理部32は、図9のステップS12の処理結果として得られた強調処理用のラインプロファイルLE2に含まれる各強調係数に基づき、領域AR2のコントラストを維持しつつ、領域AR1のコントラストを強調するような強調処理をラインプロファイルLP1に対して施す(図9のステップS13)。
 具体的には、画像信号処理部32は、例えば、図9のステップS13において、ラインプロファイルLP1における一の画素の輝度値Lbと、ラインプロファイルLE2における当該一の画素に対応する強調係数Ebを輝度値Lbに乗じて得られる値(Eb×Lb)と、を加算する(Lb+Eb×Lb)処理をラインプロファイルLP1に含まれる各画素に対して施す。
 すなわち、画像信号処理部32は、図9のステップS13において、図9のステップS12の処理により算出された強調係数に基づき、NB1画像に含まれる各画素のうち、図9のステップS11の処理により算出された変動量が所定の閾値を超える画素のコントラストを強調するための処理を行う。
 そして、画像信号処理部32は、図9に示したような強調処理を(各ラインプロファイル毎に)施して生成したNB1画像と、前処理部31から出力される画像信号を分離して得られたNR1画像及びNR2画像と、を観察画像生成部33へ出力する。
 観察画像生成部33は、画像信号処理部32から出力されるNR2画像の輝度値をRチャンネルに割り当て、画像信号処理部32から出力されるNR1画像の輝度値をGチャンネルに割り当て、強調処理が施された状態で画像信号処理部32から出力されるNB1画像の輝度値をBチャンネルに割り当てることにより観察画像を生成し、当該生成した観察画像を表示装置4へ出力する。そして、このような観察画像生成部33の動作によれば、例えば、領域AR1の青色の強度が強調処理を行わない場合に比べて高くなる一方で、領域AR2の赤色の強度が強調処理を行わない場合と略同じになるような観察画像が表示装置4に表示される。
 以上に述べたように、本実施例によれば、領域AR2のコントラストを維持しつつ(領域AR2のコントラストに対して影響を与えずに)、領域AR1のコントラストを強調するような強調処理が施された観察画像を表示装置4に表示させることができる。また、本実施例によれば、例えば、領域AR1におけるインジゴカルミンの濃度が低い場合であっても、領域AR1を視認可能な観察画像を表示装置4に表示させることができる。従って、本実施例によれば、血管の損傷等に伴って生じる出血部位の視認性を悪化させることなく、粘膜下層と筋層との層境界の視認性を向上させることができ、すなわち、癌等の病変部位に対する処置を行う際の術者の負担を軽減することができる。
 なお、本実施例の特殊光発生部22bは、NB1光の代わりに、例えば、415nmをピーク波長として具備する狭帯域な青色光であるNB2光を発生するように構成されていてもよい。
 また、本実施例の観察画像生成部33は、生体観察システム101の観察モードが特殊光観察モードに設定された場合において、例えば、画像信号処理部32から出力されるNR1画像の輝度値をRチャンネル及びGチャンネルに割り当て、強調処理が施された状態で画像信号処理部32から出力されるNB1画像の輝度値をBチャンネルに割り当てることにより観察画像を生成するように構成されていてもよい。
 一方、本実施例によれば、強調係数を算出するための処理が、ラインプロファイル毎に行われるものに限らず、例えば、1画素毎に行われるものであってもよく、複数の画素を具備する関心領域毎に行われるものであってもよく、または、画像内の全画素に対して一括で行われてもよい。
(第2の実施例)
 図10から図16は、本発明の第2の実施例に係るものである。
 なお、本実施例においては、第1の実施例と同様の構成等を有する部分に関する詳細な説明を省略するとともに、第1の実施例と異なる構成等を有する部分に関して主に説明を行う。
 本実施例の生体観察システムは、第1の実施例において述べた生体観察システム101の各部と略同様の構成を有する一方で、画像信号処理部32が第1の実施例とは異なる強調処理を行うように構成されている。
 本実施例の画像信号処理部32は、制御部34から出力されるシステム制御信号に基づき、生体観察システム101の観察モードが特殊光観察モードに設定され、かつ、所定の強調処理がオンに設定されたことを検出した場合に、前処理部31から出力される画像信号を、NB1成分、NR1成分及びNR2成分の色成分毎に分離し、当該分離した各色成分に基づく所定の強調処理をNB1成分及びNR1成分に施して観察画像生成部33へ出力するように構成されている。
 続いて、本実施例の画像信号処理部32により行われる強調処理の詳細について、図10のフローチャートを適宜参照しつつ説明する。図10は、第2の実施例に係る強調処理を説明するためのフローチャートである。
 なお、以降においては、簡単のため、図11に示すような、インジゴカルミンが投与された領域AR3と、血管の損傷等に伴う(少量の)出血が生じている領域AR4と、粘膜下層を走行する深部血管(太径の血管)が存在する領域AR5と、を含む被写体を撮像して得られた画像信号に対して強調処理が施される場合を例に挙げて説明する。また、以降においては、簡単のため、前処理部31からの画像信号を分離して得られた各色成分に対応するNB1画像、NR1画像及びNR2画像に基づいて強調処理が行われるものとして説明する。図11は、第2の実施例に係る強調処理の処理対象となる画像の一例を示す図である。
 画像信号処理部32は、NB1画像、NR1画像及びNR2画像の各々において、画像の水平方向に平行な線分上に位置する各画素の輝度値の分布状態を示す情報であるラインプロファイルを、画像の垂直方向の画素数と同数分取得するための処理を行う(図10のステップS21)。なお、以降においては、簡単のため、前述の処理により、図12に示す線分LS2上に位置する各画素の輝度値の分布状態を示す情報として、図13に示すようなラインプロファイルが取得された場合を例に挙げて説明する。図12は、図11の画像からラインプロファイルを取得する際に用いられる線分LS2を示す図である。図13は、図12の線分LS2上に位置する各画素から取得したラインプロファイルの一例を示す図である。なお、図13においては、図示の簡単のため、NB1画像、NR1画像及びNR2画像の各画像間における輝度値の大小関係が正確には示されていないものとする。
 画像信号処理部32は、図10のステップS21の処理により取得したNB1画像のラインプロファイルLP3の輝度レベルを、図10のステップS21の処理により取得したNR2画像のラインプロファイルLP4の輝度レベルに揃えるための演算処理を行う(図10のステップS22)。
 具体的には、画像信号処理部32は、例えば、図10のステップS22において、NB1画像における所定の領域(例えば画像全域)に含まれる各画素の輝度値の平均値AV3と、NR2画像における当該所定の領域に含まれる各画素の輝度値の平均値AV4と、を算出した後、さらに、ラインプロファイルLP3に含まれる各輝度値に対し、平均値AV4を平均値AV3で除して得られる値(AV4/AV3)を乗じるような処理を行う。
 画像信号処理部32は、ラインプロファイルLP4を用い、図10のステップS22の処理結果として得られた輝度レベル調整後のNB1画像のラインプロファイルLB2を較正する(ラインプロファイルLB2における輝度値の基準値を0に設定する)ための処理を行う(図10のステップS23)。
 具体的には、画像信号処理部32は、例えば、図10のステップS23において、ラインプロファイルLB2に含まれる一の画素の輝度値をラインプロファイルLP4に含まれる当該一の画素の輝度値で除する処理を行った後、さらに、当該処理により得られた各輝度値から1を減ずるような演算処理を行う。そして、このような演算処理が図10のステップS23において行われた場合には、領域AR3及び領域AR5内の画素の輝度値が0より大きな値で示され、かつ、領域AR4内の画素の輝度値が0以下の値で示されるようなNB1画像のラインプロファイルLC2が取得される(図14参照)。図14は、第2の実施例に係る強調処理において取得されるラインプロファイルLC2の一例を示す図である。
 すなわち、演算部としての機能を具備する画像信号処理部32は、図10のステップS22及びステップS23において、NB1画像及びNR2画像の同一画素における輝度値の相違の度合いを示す値である相違度をラインプロファイルLC2として算出するための処理を行う。
 画像信号処理部32は、図10のステップS23の処理結果として得られたNB1画像のラインプロファイルLC2に基づき、線分LS2上に位置する各画素毎の強調係数を具備する強調処理用のラインプロファイルLE3及びLE4を取得するための処理を行う(図10のステップS24)。
 具体的には、画像信号処理部32は、例えば、図10のステップS24において、ラインプロファイルLC2に対し、0より大きな輝度値をそのまま維持する一方で0以下の輝度値を一律に0に変換するような処理を行った後、さらに、当該処理により得られた各輝度値に対して定数RC(RC>1)を乗じるような処理を行うことにより、線分LS2上に位置する各画素毎の強調係数を算出する。そして、このような処理が図10のステップS24において行われた場合には、図15に例示するような強調処理用のラインプロファイルLE3が取得される。また、画像信号処理部32は、例えば、図10のステップS24において、ラインプロファイルLC2に対し、0以下の輝度値をそのまま維持する一方で0より大きい輝度値を一律に0に変換するような処理を行った後、さらに、当該処理により得られた各輝度値に対して定数RD(RD>1)を乗じるような処理を行うことにより、線分LS2上に位置する各画素毎の強調係数を算出する。そして、このような処理が図10のステップS24において行われた場合には、図16に例示するような強調処理用のラインプロファイルLE4が取得される。図15は、第2の実施例に係る強調処理において取得されるラインプロファイルLE3の一例を示す図である。図16は、第2の実施例に係る強調処理において取得されるラインプロファイルLE4の一例を示す図である。
 換言すると、強調係数算出部としての機能を具備する画像信号処理部32は、図10のステップS24において、ラインプロファイルLC2に基づき、線分LS2上に位置する各画素毎に強調係数を算出し、当該算出した各強調係数をラインプロファイルLE3及びラインプロファイルLE4として取得するための処理を行う。また、換言すると、画像信号処理部32は、図10のステップS24において、ラインプロファイルLC2に基づき、線分LS2上に位置する各画素のうち、領域AR3内の画素の輝度値及び領域AR5内の画素の輝度値をそれぞれ増加させつつ、領域AR3外かつ領域AR5外の画素の輝度値を維持するための第1の強調係数と、領域AR4内の画素の輝度値を減少させつつ、領域AR4外の画素の輝度値を維持するための第2の強調係数と、を算出するための処理を行う。また、換言すると、画像信号処理部32は、図10のステップS24において、図10のステップS22及びステップS23の処理により算出された相違度が所定の閾値を超える画素に対応する強調係数を算出するための処理を行う。
 強調処理部としての機能を具備する画像信号処理部32は、図10のステップS24の処理結果として得られた強調処理用のラインプロファイルLE3及びLE4に含まれる各強調係数に基づき、領域AR5のコントラストを維持しつつ、領域AR3及び領域AR4のコントラストを強調するような強調処理を、ラインプロファイルLP3及び図10のステップS21の処理により取得したNR1画像のラインプロファイルLP5に対して施す(図10のステップS25)。
 具体的には、画像信号処理部32は、例えば、図10のステップS25において、ラインプロファイルLP3に含まれる一の画素の輝度値Lcと、ラインプロファイルLE3における当該一の画素に対応する強調係数Ecを輝度値Lcに乗じて得られる値(Ec×Lc)と、を加算する(Lc+Ec×Lc)処理をラインプロファイルLP3に含まれる各画素に対して施す。また、画像信号処理部32は、例えば、図10のステップS25において、ラインプロファイルLP5に含まれる一の画素の輝度値Ldと、ラインプロファイルLE4における当該一の画素に対応する強調係数Edを輝度値Ldに乗じて得られる値(Ed×Ld)と、を加算する(Ld+Ed×Ld)処理をラインプロファイルLP5に含まれる各画素に対して施す。
 すなわち、画像信号処理部32は、図10のステップS25において、図10のステップS24の処理により算出された強調係数に基づき、NB1画像及びNR1画像に含まれる各画素のうち、図10のステップS22及びステップS23の処理により算出された相違度が所定の閾値を超える画素のコントラストを強調するための処理を行う。
 そして、画像信号処理部32は、図10に示したような強調処理を(各ラインプロファイル毎に)施して生成したNB1画像と、図10に示したような強調処理を(各ラインプロファイル毎に)施して生成したNR1画像と、前処理部31から出力される画像信号を分離して得られたNR2画像と、を観察画像生成部33へ出力する。
 観察画像生成部33は、画像信号処理部32から出力されるNR2画像の輝度値をRチャンネルに割り当て、強調処理が施された状態で画像信号処理部32から出力されるNR1画像の輝度値をGチャンネルに割り当て、強調処理が施された状態で画像信号処理部32から出力されるNB1画像の輝度値をBチャンネルに割り当てることにより観察画像を生成し、当該生成した観察画像を表示装置4へ出力する。
 そして、このような観察画像生成部33の動作によれば、例えば、領域AR3の青色の強度が強調処理を行わない場合に比べて高くなり、領域AR4の赤色の強度が強調処理を行わない場合に比べて高くなる一方で、領域AR5の赤色の強度が強調処理を行わない場合と略同じになるような観察画像が表示装置4に表示される。
 なお、本実施例によれば、領域AR4の赤色の強度をさらに高めるための処理を図10の強調処理に含めるようにしてもよい。
 具体的には、例えば、図16に示したラインプロファイルLE4に含まれる各輝度値の絶対値に相当するラインプロファイルLE5を取得し、さらに、ラインプロファイルLP4に含まれる一の画素の輝度値Leと、ラインプロファイルLE5における当該一の画素に対応する強調係数Eeを輝度値Leに乗じて得られる値(Ee×Le)と、を加算する(Le+Ee×Le)処理をラインプロファイルLP4に含まれる各画素に対して施す処理を図10の強調処理に含めるようにしてもよい。そして、このような処理を経て生成されたNR2画像の輝度値をRチャンネルに割り当て、図10の強調処理を経て生成されたNR1画像の輝度値をGチャンネルに割り当て、図10の強調処理を経て生成されたNB1画像の輝度値をBチャンネルに割り当てることにより、領域AR3の青色の強度が強調処理を行わない場合に比べて高くなり、領域AR4の赤色の強度が図10の強調処理を行った場合に比べてさらに高くなる一方で、領域AR5の赤色の強度が強調処理を行わない場合と略同じになるような観察画像を表示装置4に表示させることができる。
 また、本実施例によれば、例えば、図10の強調処理における定数RDの値を十分大きな値に設定することにより、領域AR4の赤色の強度をさらに高めるようにしてもよい。
 また、本実施例によれば、例えば、図10のステップS25において、領域AR3または領域AR4のいずれか一方のコントラストを強調するための処理が行われるようにしてもよい。
 以上に述べたように、本実施例によれば、領域AR5のコントラストを維持しつつ(領域AR5のコントラストに対して影響を与えずに)、領域AR3及び領域AR4のコントラストを高めるような強調処理が施された観察画像を表示装置4に表示させることができる。また、本実施例によれば、例えば、領域AR3におけるインジゴカルミンの濃度が低い場合であっても、領域AR3を視認可能な観察画像を表示装置4に表示させることができる。従って、本実施例によれば、粘膜下層を走行する深部血管(太径の血管)の視認性を悪化させることなく、粘膜下層と筋層との層境界の視認性、及び、血管の損傷等に伴って生じる出血部位の視認性を併せて向上させることができ、すなわち、癌等の病変部位に対する処置を行う際の術者の負担を軽減することができる。
 本発明は、上述した各実施例に限定されるものではなく、発明の趣旨を逸脱しない範囲内において種々の変更や応用が可能であることは勿論である。
 本出願は、2014年3月28日に日本国に出願された特願2014-069674号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲、図面に引用されたものとする。

Claims (7)

  1.  赤色域に吸収ピークを有する色素が投与された領域を含む被写体を照明するための光として、青色域にピーク波長を有する第1の光と、赤色域にピーク波長を具備する第2の光と、を発生することができるように構成された照明光発生部と、
     前記照明光発生部から発せられる光により照明された前記被写体からの戻り光を撮像するように構成された撮像部と、
     前記第1の光の戻り光を撮像して得られた第1の画像と、前記第2の光の戻り光を撮像して得られた第2の画像と、の同一画素における輝度値の相違の度合いを示す値である相違度を算出するための処理を行うように構成された演算部と、
     前記戻り光を撮像して得られた画像のうち、前記演算部により算出された前記相違度が所定の閾値を超える画素に対応する第1の強調係数を算出するための処理を行うように構成された強調係数算出部と、
     前記強調係数算出部により算出された前記第1の強調係数に基づき、前記第1の画像に含まれる各画素のうち、前記演算部により算出された前記相違度が所定の閾値を超える画素のコントラストを強調するための処理を行うように構成された強調処理部と、
     前記強調処理部による処理が施された前記第1の画像と、前記第2の画像と、を用いて観察画像を生成し、当該生成した観察画像を表示装置に出力するように構成された観察画像生成部と、
     を有することを特徴とする生体観察システム。
  2.  前記演算部は、前記第1の画像の輝度レベルを前記第2の画像の輝度レベルに揃えるための処理を経て得られる輝度レベル調整後の前記第1の画像と、前記第2の画像と、に基づいて前記相違度を算出する
     ことを特徴とする請求項1に記載の生体観察システム。
  3.  前記照明光発生部は、前記第1の光と、前記第2の光と、赤色域における酸化ヘモグロビンの吸収係数が前記第2の光に比べて大きくなるようなピーク波長を具備する第3の光と、を発生するように構成されている
     ことを特徴とする請求項1に記載の生体観察システム。
  4.  前記強調係数算出部は、前記演算部により算出された前記相違度が前記所定の閾値以下となる画素に対応する第2の強調係数を算出するための処理をさらに行い、
     前記強調処理部は、前記強調係数算出部により算出された前記第2の強調係数に基づき、前記第3の光の戻り光を撮像して得られた第3の画像に含まれる各画素のうち、前記演算部により算出された前記相違度が所定の閾値を超える画素のコントラストを強調するための処理をさらに行い、
     前記観察画像生成部は、前記強調処理部による処理が施された前記第1の画像と、前記第2の画像と、前記強調処理部による処理が施された前記第3の画像と、を用いて前記観察画像を生成する
     ことを特徴とする請求項3に記載の生体観察システム。
  5.  前記観察画像生成部は、前記第2の画像を前記表示装置の赤色チャンネルに割り当て、前記第3の光の戻り光を撮像して得られた第3の画像を前記表示装置の緑色チャンネルに割り当て、前記強調処理部による処理が施された前記第1の画像を前記表示装置の青色チャンネルに割り当てることにより前記観察画像を生成する
     ことを特徴とする請求項3に記載の生体観察システム。
  6.  前記観察画像生成部は、前記第2の画像を前記表示装置の赤色チャンネルに割り当て、前記強調処理部による処理が施された前記第3の画像を前記表示装置の緑色チャンネルに割り当て、前記強調処理部による処理が施された前記第1の画像を前記表示装置の青色チャンネルに割り当てることにより前記観察画像を生成する
     ことを特徴とする請求項4に記載の生体観察システム。
  7.  赤色域に吸収ピークを有する色素が投与された領域を含む被写体を照明するための光として、青色域にピーク波長を有する第1の光と、赤色域にピーク波長を具備する第2の光と、を発生することができるように構成された照明光発生部と、
     前記照明光発生部から発せられる光により照明された前記被写体からの戻り光を撮像するように構成された撮像部と、
     前記第2の光の戻り光を撮像して得られた第2の画像に基づき、前記第2の画像の輝度値の平均値に対する輝度値の変動を示す値である変動量を各画素毎に算出するための処理を行うように構成された演算部と、
     前記戻り光を撮像して得られた画像のうち、前記演算部により算出された前記相違度が所定の閾値を超える画素に対応する強調係数を算出するための処理を行うように構成された強調係数算出部と、
     前記強調係数算出部により算出された前記強調係数に基づき、前記第1の画像に含まれる各画素のうち、前記演算部により算出された前記変動量が所定の閾値を超える画素のコントラストを強調するための処理を行うように構成された強調処理部と、
     前記強調処理部による処理が施された前記第1の画像と、前記第2の画像と、を用いて観察画像を生成し、当該生成した観察画像を表示装置に出力するように構成された観察画像生成部と、
     を有することを特徴とする生体観察システム。
PCT/JP2014/074083 2014-03-28 2014-09-11 生体観察システム WO2015145814A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015538791A JP5905170B2 (ja) 2014-03-28 2014-09-11 生体観察システム
EP14887381.3A EP3066974B1 (en) 2014-03-28 2014-09-11 In vivo observation system
CN201480067794.1A CN105813538B (zh) 2014-03-28 2014-09-11 活体观察系统
US15/177,388 US9949624B2 (en) 2014-03-28 2016-06-09 Living body observation system with contrast enhancement processing

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014069674 2014-03-28
JP2014-069674 2014-03-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/177,388 Continuation US9949624B2 (en) 2014-03-28 2016-06-09 Living body observation system with contrast enhancement processing

Publications (1)

Publication Number Publication Date
WO2015145814A1 true WO2015145814A1 (ja) 2015-10-01

Family

ID=54194392

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/074083 WO2015145814A1 (ja) 2014-03-28 2014-09-11 生体観察システム

Country Status (5)

Country Link
US (1) US9949624B2 (ja)
EP (1) EP3066974B1 (ja)
JP (1) JP5905170B2 (ja)
CN (1) CN105813538B (ja)
WO (1) WO2015145814A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017216883A1 (ja) * 2016-06-14 2017-12-21 オリンパス株式会社 内視鏡装置
WO2017216878A1 (ja) * 2016-06-14 2017-12-21 オリンパス株式会社 内視鏡装置
WO2018105020A1 (ja) * 2016-12-05 2018-06-14 オリンパス株式会社 内視鏡装置
WO2018193465A1 (en) * 2017-04-20 2018-10-25 Irillic Pvt Ltd System for extending dynamic range and contrast of a video under fluorescence imaging

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11076106B2 (en) * 2017-05-22 2021-07-27 Sony Corporation Observation system and light source control apparatus
WO2019171703A1 (ja) * 2018-03-05 2019-09-12 オリンパス株式会社 内視鏡システム
CN113518574B (zh) * 2019-03-05 2024-06-18 奥林巴斯株式会社 内窥镜装置和图像处理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007039981A1 (ja) * 2005-09-30 2007-04-12 Olympus Medical Systems Corp. 内視鏡装置
JP2010131265A (ja) * 2008-12-05 2010-06-17 Fujifilm Corp 撮像装置、方法、及びプログラム
WO2012098798A1 (ja) * 2011-01-17 2012-07-26 オリンパスメディカルシステムズ株式会社 生体内観察装置およびカプセル型内視鏡装置
WO2012107884A1 (en) * 2011-02-09 2012-08-16 Tel Hashomer Medical Research Infrastructure And Services Ltd. Methods and devices suitable for imaging blood-containing tissue

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7303528B2 (en) * 2004-05-18 2007-12-04 Scimed Life Systems, Inc. Serialization of single use endoscopes
JP5159904B2 (ja) * 2011-01-11 2013-03-13 富士フイルム株式会社 内視鏡診断装置
WO2012140970A1 (ja) * 2011-04-11 2012-10-18 オリンパスメディカルシステムズ株式会社 内視鏡装置
JP5865606B2 (ja) * 2011-05-27 2016-02-17 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
JP5426620B2 (ja) * 2011-07-25 2014-02-26 富士フイルム株式会社 内視鏡システムおよび内視鏡システムの作動方法
CN103501681B (zh) 2011-09-20 2015-11-25 奥林巴斯医疗株式会社 图像处理装置以及内窥镜系统
WO2014014956A1 (en) * 2012-07-17 2014-01-23 The Arizona Board Of Regents On Behalf Of The University Of Arizona Formulaic imaging for tissue diagnosis

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007039981A1 (ja) * 2005-09-30 2007-04-12 Olympus Medical Systems Corp. 内視鏡装置
JP2010131265A (ja) * 2008-12-05 2010-06-17 Fujifilm Corp 撮像装置、方法、及びプログラム
WO2012098798A1 (ja) * 2011-01-17 2012-07-26 オリンパスメディカルシステムズ株式会社 生体内観察装置およびカプセル型内視鏡装置
WO2012107884A1 (en) * 2011-02-09 2012-08-16 Tel Hashomer Medical Research Infrastructure And Services Ltd. Methods and devices suitable for imaging blood-containing tissue

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3066974A4 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017216883A1 (ja) * 2016-06-14 2017-12-21 オリンパス株式会社 内視鏡装置
WO2017216878A1 (ja) * 2016-06-14 2017-12-21 オリンパス株式会社 内視鏡装置
JPWO2017216883A1 (ja) * 2016-06-14 2019-04-04 オリンパス株式会社 内視鏡装置
JPWO2017216878A1 (ja) * 2016-06-14 2019-04-11 オリンパス株式会社 内視鏡装置
US11399706B2 (en) 2016-06-14 2022-08-02 Olympus Corporation Endoscope apparatus for switching between one-substance observation mode and two-substance observation mode based on input of selection of desired observation mode
WO2018105020A1 (ja) * 2016-12-05 2018-06-14 オリンパス株式会社 内視鏡装置
US10863936B2 (en) 2016-12-05 2020-12-15 Olympus Corporation Endoscope apparatus
WO2018193465A1 (en) * 2017-04-20 2018-10-25 Irillic Pvt Ltd System for extending dynamic range and contrast of a video under fluorescence imaging
US11650157B2 (en) 2017-04-20 2023-05-16 Irillic Pvt Ltd System for extending dynamic range and contrast of a video under fluorescence imaging

Also Published As

Publication number Publication date
EP3066974B1 (en) 2019-04-10
JP5905170B2 (ja) 2016-04-20
EP3066974A1 (en) 2016-09-14
JPWO2015145814A1 (ja) 2017-04-13
CN105813538A (zh) 2016-07-27
CN105813538B (zh) 2018-04-20
EP3066974A4 (en) 2017-09-06
US20160278621A1 (en) 2016-09-29
US9949624B2 (en) 2018-04-24

Similar Documents

Publication Publication Date Title
JP5905170B2 (ja) 生体観察システム
JP6285383B2 (ja) 画像処理装置、内視鏡システム、画像処理装置の作動方法、及び内視鏡システムの作動方法
US9629527B2 (en) Endoscope system, processor device of endoscope system, and image processing method
JP5670264B2 (ja) 内視鏡システム、及び内視鏡システムの作動方法
US20200337540A1 (en) Endoscope system
JP6039606B2 (ja) 内視鏡システム、光源装置、内視鏡システムの作動方法、及び光源装置の作動方法
JP5808031B2 (ja) 内視鏡システム
US9072453B2 (en) Endoscope apparatus
US20180033142A1 (en) Image-processing apparatus, biological observation apparatus, and image-processing method
WO2016079831A1 (ja) 画像処理装置、画像処理方法、画像処理プログラムおよび内視鏡装置
US9962070B2 (en) Endoscope system, processor device, and method for operating endoscope system
JP6203088B2 (ja) 生体観察システム
WO2017022324A1 (ja) 画像信号処理方法、画像信号処理装置および画像信号処理プログラム
JP6979510B2 (ja) 内視鏡システム及びその作動方法
WO2014156604A1 (ja) 内視鏡システム及びその作動方法並びにプロセッサ装置
JP6210923B2 (ja) 生体観察システム
JP6203092B2 (ja) 生体観察システム
JP7163386B2 (ja) 内視鏡装置、内視鏡装置の作動方法及び内視鏡装置の作動プログラム
US10321103B2 (en) Image pickup system and image processing apparatus
JP7116254B2 (ja) 画像処理装置及びその作動方法
WO2015025620A1 (ja) 内視鏡システム及びプロセッサ装置並びに作動方法
JP6196599B2 (ja) 内視鏡用のプロセッサ装置、内視鏡用のプロセッサ装置の作動方法
JP6378140B2 (ja) 内視鏡システム及びその作動方法
JP5970054B2 (ja) 内視鏡システム、内視鏡システムの光源装置、及び内視鏡システムの作動方法
JP2017209343A (ja) 制御装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2015538791

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14887381

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2014887381

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014887381

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE