WO2017170232A1 - 内視鏡画像信号処理装置および方法並びにプログラム - Google Patents

内視鏡画像信号処理装置および方法並びにプログラム Download PDF

Info

Publication number
WO2017170232A1
WO2017170232A1 PCT/JP2017/012037 JP2017012037W WO2017170232A1 WO 2017170232 A1 WO2017170232 A1 WO 2017170232A1 JP 2017012037 W JP2017012037 W JP 2017012037W WO 2017170232 A1 WO2017170232 A1 WO 2017170232A1
Authority
WO
WIPO (PCT)
Prior art keywords
rgb
gradation
luminance
signal
ratio
Prior art date
Application number
PCT/JP2017/012037
Other languages
English (en)
French (fr)
Inventor
昌之 蔵本
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN201780020273.4A priority Critical patent/CN108882835B/zh
Priority to JP2018509245A priority patent/JP6580778B2/ja
Publication of WO2017170232A1 publication Critical patent/WO2017170232A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to an endoscope image signal processing apparatus, method, and program for performing gradation processing on RGB signals obtained by imaging an imaging target using an endoscope.
  • diagnosis using an endoscope system including a light source device, an endoscope, and a processor device has been widely performed.
  • diagnosis using a color endoscope system diagnosing a medical condition such as a digestive mucous membrane by observing the color of a captured endoscopic image.
  • Patent Document 1 an RGB signal output from an imaging element is displayed in an endoscopic image captured by irradiating an imaging target with white light in order to emphasize blood vessels and lesions.
  • it has been proposed to perform gradation processing using an RGB gradation table.
  • the illumination light is sufficiently irradiated to the area on the near side with respect to the distal end of the endoscope.
  • the illumination light does not reach the range on the side sufficiently, resulting in a dark image.
  • Patent Document 2 discloses that ⁇ correction is performed on each of the R signal, the G signal, and the B signal, and the curve of ⁇ correction is changed between a bright image and a dark image. Is disclosed.
  • Patent Document 3 discloses that a brightness level is detected from a dominant color (for example, red) signal in an image, and gradation processing is performed on the RGB image signal based on the brightness level. ing.
  • Patent Document 2 and Patent Document 3 cannot suppress the color balance collapse as described above.
  • the present invention provides an endoscope that can maintain, for example, a normal mucosa color balance between a bright range and a dark range even when an imaging target in which a bright range and a dark range are mixed is captured.
  • An object of the present invention is to provide an image signal processing apparatus and method, and a program.
  • the first endoscopic image signal processing device of the present invention includes an image signal acquisition unit that acquires an RGB signal obtained by imaging an imaging target using an endoscope, an RGB input value, and an output value.
  • a gradation processing unit that performs gradation processing on the RGB signal using the associated RGB gradation table, and the RGB gradation table is set for each luminance or R component size, and When an RGB signal whose RGB ratio is the first ratio is input to each of the RGB gradation tables for each luminance or R component size, the RGB ratio becomes the second ratio.
  • the output value is set to be output from each RGB gradation table, and the gradation processing unit acquires the luminance or the R component based on the RGB signal, and the RGB corresponding to the size of the luminance or the R component Gradation using gradation table Subjected to a physical.
  • the above “brightness” represents the degree of brightness, and includes the brightness in a so-called color space.
  • the gradation processing unit obtains luminance or R component for each pixel constituting the RGB signal, and performs gradation processing for each pixel. be able to.
  • the RGB gradation table can be set only for a part of luminance or R component size.
  • the gradation processing unit interpolates and uses the RGB gradation table set for each luminance or R component size. Tone processing can be performed.
  • the RGB gradation table for each luminance or R component size maintains a hue when an RGB signal having a first ratio is input. Thus, it is possible to output an output value whose brightness and saturation change.
  • the first endoscopic image signal processing apparatus of the present invention includes a low frequency image generation processing unit that performs low frequency image generation processing on the RGB signals to generate a low frequency image, and the gradation processing unit includes: The luminance or R component can be acquired based on the low frequency image.
  • an RGB signal obtained by imaging an imaging target irradiated with illumination light including narrowband light can be used.
  • blue narrow band light or green narrow band light can be used as the narrow band light.
  • an RGB signal obtained by imaging a luminal organ as an imaging target can be used.
  • the first ratio is preferably the RGB ratio of the RGB signal obtained by imaging the normal mucous membrane.
  • each RGB gradation table has an R output corresponding to an R input value when an RGB signal obtained by imaging a normal mucous membrane is input. It is preferable that the ratio of the R output value to the R input value when the RGB signal obtained by imaging the mucous membrane having redness is input is larger than the ratio of the values.
  • each RGB gradation table has an R output corresponding to an R input value when an RGB signal obtained by imaging a normal mucous membrane is input. It is preferable that the ratio of the output value of R to the input value of R when the RGB signal obtained by imaging the atrophic mucosa is input is smaller than the ratio of the values.
  • a second endoscopic image signal processing device includes an image signal acquisition unit that acquires an RGB signal obtained by imaging an imaging target using an endoscope, and an RGB input value and output value.
  • a gradation processing unit that performs gradation processing on the RGB signal using the associated RGB gradation table, and the RGB gradation table is set for each luminance or R component size, and
  • RGB signals obtained by imaging normal mucous membranes with the RGB ratio being the first ratio are input to the RGB gradation tables for each luminance or R component size, RGB Is set so that an output value at which the ratio is the second ratio is output from each RGB gradation table
  • the gradation processing unit acquires the luminance or R component for each pixel constituting the RGB signal, Of its luminance or R component And characterized by applying gradation processing for each pixel by using the RGB tone table corresponding to of come.
  • the endoscopic image signal processing method of the present invention acquires an RGB signal obtained by imaging an imaging target using an endoscope, and creates an RGB gradation table in which RGB input values and output values are associated with each other.
  • the RGB gradation table is set for each luminance or R component size, and for each luminance or R component size.
  • an RGB signal whose RGB ratio is the first ratio is input to each RGB gradation table
  • an output value whose RGB ratio is the second ratio is the RGB gradation table.
  • the luminance or R component is acquired based on the RGB signal, and gradation processing is performed using an RGB gradation table corresponding to the luminance or R component size.
  • An endoscope image signal processing program includes an image signal acquisition unit that acquires an RGB signal obtained by imaging a subject to be imaged using an endoscope, an RGB input value, and an output value.
  • An endoscopic image signal processing program that functions as a gradation processing unit that performs gradation processing on an RGB signal using the associated RGB gradation table, wherein the RGB gradation table is a luminance or R component
  • the RGB gradation table is a luminance or R component
  • An output value in which the RGB ratio is the second ratio is set to be output from each RGB gradation table, and the gradation processing unit acquires the luminance or the R component based on the RGB signal, and the brightness value is obtained. Or subjected to gradation processing using the RGB tone table corresponding to the magnitude of the R component.
  • the RGB gradation table is set for each luminance or R component size.
  • the RGB gradation table for each luminance or R component size is input to the RGB gradation table with an RGB signal having an RGB ratio of the first ratio, the RGB ratio is the second ratio.
  • An output value as a ratio is set to be output from each RGB gradation table.
  • the luminance or R component is acquired based on the RGB signal obtained by imaging the imaging target using the endoscope, and the magnitude of the luminance or R component.
  • gradation processing is performed on RGB signals using an RGB gradation table according to the above, even when an imaging target in which a bright range and a dark range are mixed is captured, the bright range and the dark range For example, the color balance of the normal mucous membrane can be maintained.
  • Figure showing the spectrum of white light Diagram showing the spectrum of narrowband light The block diagram which shows the concrete structure of the gradation process part of a normal light image generation part.
  • luminance The block diagram which shows the concrete structure of the gradation process part of a narrow-band light image generation part
  • luminance used by special light observation mode The flowchart for demonstrating the effect
  • the figure which shows an example of C gradation table, H gradation table, and L gradation table The block diagram which shows the modification of the endoscope system of 1st Embodiment.
  • the figure which shows the emission spectrum of purple light V, blue light B, green light G, and red light R The figure for demonstrating the gradation process using the conventional RGB gradation table
  • FIG. 1 is a diagram illustrating a schematic configuration of an endoscope system 10 according to the present embodiment.
  • the endoscope system 10 of the present embodiment includes an endoscope 12, a light source device 14, a processor device 16, a monitor 18, and an input device 20.
  • the endoscope 12 is optically connected to the light source device 14 and electrically connected to the processor device 16.
  • the endoscope 12 includes an insertion portion 21 to be inserted into a subject, an operation portion 22 provided at a proximal end portion of the insertion portion, a bending portion 23 and a distal end portion 24 provided on the distal end side of the insertion portion 21.
  • the operation section 22 is provided with an angle knob 22a, and the bending section 23 is bent by rotating the angle knob 22a. With this bending operation, the tip 24 is directed in a desired direction.
  • the operation unit 22 is provided with a mode switch 22b and a zoom operation unit 22c.
  • the mode switch 22b is used for switching operation between two types of modes, a normal light observation mode and a narrow-band light observation mode.
  • the normal light observation mode is a mode in which white light is used for illumination of an imaging target in the subject.
  • the narrow-band light observation mode is a mode that uses bluish narrow-band light to illuminate the imaging target in the subject, and is a mode that emphasizes mucosal color changes and blood vessel fluoroscopy due to atrophic gastritis. is there.
  • the zoom operation unit 22c is used for a zoom operation for driving a zoom lens 47 (see FIG. 2) in the endoscope 12 to enlarge an imaging target.
  • the monitor 18 and the input device 20 are electrically connected to the processor device 16.
  • the monitor 18 displays an endoscopic image captured by the endoscope 12 and color numerical value information described later.
  • the input device 20 accepts input operations such as function settings, and includes a keyboard and a mouse. In addition, you may make it use the monitor 18 and the input device 20 together by using a touch panel.
  • FIG. 2 is a block diagram showing an internal configuration of the endoscope system 10 of the present embodiment.
  • the light source device 14 includes a blue laser light source 34 that emits blue laser light having a central wavelength of 445 nm, and a blue-violet laser light source 36 that emits blue-violet laser light having a central wavelength of 405 nm.
  • the light sources 34 and 36 are individually controlled by the light source control unit 40, and the light quantity ratio between the emitted light of the blue laser light source 34 and the emitted light of the blue-violet laser light source 36 can be changed.
  • the light source control unit 40 mainly drives the blue laser light source 34 in the normal light observation mode. Note that the blue-violet laser light source 36 may be controlled so that the blue-violet laser light is slightly emitted.
  • the light source control unit 40 drives both the blue laser light source 34 and the blue-violet laser light source 36, and the light intensity of the blue laser light is the light of the blue-violet laser light. It is controlled to be larger than the strength.
  • the half-value width of the blue laser beam or the blue-violet laser beam is preferably about ⁇ 2 nm, and is preferably blue narrow-band light.
  • a broad area type InGaN laser diode, InGaAsN laser diode, GaAsN laser diode, or the like can be used as the blue laser light source 34 and the blue-violet laser light source 36.
  • a light-emitting body such as a light-emitting diode may be used as the light source.
  • the laser light emitted from each of the light sources 34 and 36 enters a light guide (LG) 41 via an optical member (not shown) such as a condenser lens.
  • the light guide 41 is accommodated in the universal cord 13 and is optically connected to the endoscope 12.
  • Blue laser light or blue-violet laser light is propagated through the light guide 41 to the distal end portion 24 of the endoscope 12.
  • a multimode fiber can be used as the light guide 41.
  • the distal end portion 24 of the endoscope 12 has an illumination optical system 24a and an imaging optical system 24b.
  • the illumination optical system 24 a is provided with a phosphor 44 on which blue laser light or blue-violet laser light emitted from the light guide 41 is incident, and an illumination lens 45.
  • the phosphor 44 is excited by being irradiated with blue laser light, and fluorescence is emitted from the phosphor 44. Some of the blue laser light passes through the phosphor 44 as it is.
  • the blue-violet laser light is transmitted without exciting the phosphor 44.
  • the light emitted from the phosphor 44 is irradiated to the imaging target via the illumination lens 45.
  • the imaging target is irradiated with light SL obtained by combining the blue-violet laser light VL, the blue laser light BL, and the fluorescence FL.
  • narrow-band light observation mode in addition to blue laser light, blue-violet laser light, which is narrow-band light, is included, so broadband light that contains a lot of blue components and has a wavelength range that covers almost the entire visible light range, Irradiates the imaging target.
  • the light irradiated to the imaging target in the narrow-band light observation mode is simply referred to as narrow-band light. That is, the light SL shown in FIG. 4 is simply referred to as narrowband light SL.
  • the blue narrow-band light such as the blue laser light and the blue-violet laser light of the present embodiment has a large absorption with respect to a light-absorbing substance in the mucous membrane, specifically, blood (especially hemoglobin) contained in the digestive organ. Therefore, the difference between the normal mucosal region and the atrophic mucosal region can be increased when photographing in the narrow band light observation mode.
  • the phosphor 44 absorbs part of the blue laser light and emits green to yellow light by excitation (e.g., YAG (Yttrium Aluminum Garnet) phosphor or BAM (BaMgAl 10 O 17 )). It is preferable to use a material comprising a phosphor such as If a semiconductor light emitting device is used as an excitation light source for the phosphor 44 as in this embodiment, high intensity white light can be obtained with high luminous efficiency, the intensity of white light can be easily adjusted, and the color of white light can be adjusted. Changes in temperature and chromaticity can be kept small.
  • the phosphor 44 is provided at the distal end portion 24 of the endoscope 12, but the phosphor 44 may be provided in the light source device 14 instead. In this case, it is preferable to provide a phosphor 44 between the light guide 41 and the blue laser light source 34.
  • the imaging optical system 24b of the endoscope 12 includes an imaging lens 46, a zoom lens 47, and an imaging element 48. Reflected light from the imaging target enters the imaging element 48 via the imaging lens 46 and the zoom lens 47. As a result, a reflected image of the imaging target is formed on the imaging element 48.
  • the zoom lens 47 is moved by operating the zoom operation unit 22c.
  • the image sensor 48 is a color image sensor, which captures a reflected image to be imaged and outputs a RAW signal.
  • the image sensor 48 is preferably a CCD (Charge-Coupled Device) image sensor, a CMOS (Complementary Metal-Oxide Semiconductor) image sensor, or the like.
  • the image sensor 48 of the present embodiment is a simultaneous image sensor in which RGB color filters are provided on the imaging surface.
  • the R component R signal is output from the element provided with the R (red) color filter
  • the G component G signal is output from the element provided with the G (green) color filter
  • the B (blue) color is output.
  • a B component B signal is output from the element provided with the filter.
  • the R signal, the G signal, and the B signal may be collectively referred to as an RGB signal.
  • the filter array may be a Bayer array or a honeycomb array.
  • the image sensor 48 may be an image sensor having C (cyan), M (magenta), Y (yellow), and G (green) CMYG filters on the imaging surface.
  • a C component C signal is output from an element provided with a C (cyan) color filter
  • an M component output from an element provided with an M (magenta) color filter The M signal is output
  • the Y component Y signal is output from the element provided with the Y (yellow) color filter
  • the G component G signal is output from the element provided with the G (green) color filter.
  • RGB signals output from the image sensor 48 are output to the CDS / AGC circuit 50.
  • the CDS / AGC circuit 50 performs correlated double sampling (CDS (correlated sampling)) and automatic gain control (AGC (Auto gain ⁇ control)) on the RGB signal which is an analog signal.
  • CDS correlated double sampling
  • AGC automatic gain control
  • the RGB signal that has passed through the CDS / AGC circuit 50 is subjected to gamma conversion in the gamma conversion unit 51 and then converted into a digital signal by the A / D conversion unit 52.
  • the A / D converted RGB signal is input to the processor device 16.
  • the processor device 16 includes an image signal acquisition unit 60, a noise removal unit 61, a normal light image generation unit 62, a narrowband light image generation unit 63, and a display control unit 65.
  • the processor device 16 is composed of a computer having a CPU (Central Processing Unit), a semiconductor memory, and a hard disk, and is installed with an embodiment of the endoscope image signal processing program of the present invention. .
  • the above-described units function when the endoscope image signal processing program is executed by the CPU.
  • the image signal acquisition unit 60 acquires the RGB signal output from the endoscope 12.
  • the RGB signals acquired by the image signal acquisition unit 60 are temporarily stored in a memory or the like.
  • the RGB signal acquired by the image signal acquisition unit 60 is subjected to demosaic processing by a demosaic processing unit (not shown), and an R signal, a G signal, and a B signal are generated for each pixel.
  • the noise removing unit 61 performs a noise removing process on the demodulated RGB signal. Specifically, the moving average filter or median filter processing is performed.
  • the normal light image generation unit 62 includes a matrix processing unit 62a, a gradation processing unit 62b, a three-dimensional LUT processing unit 62c, a color enhancement unit 62d, and a structure enhancement unit 62e.
  • the matrix processing unit 62a, the gradation processing unit 62b, and the three-dimensional LUT processing unit 62c perform color conversion processing on the RGB signals. Specifically, the RGB signal is subjected to 3 ⁇ 3 matrix processing by the matrix processing unit 62a, gradation processing is performed by the gradation processing unit 62b, and three-dimensional LUT processing is performed by the three-dimensional LUT processing unit 62c. Is given.
  • an RGB gradation table in which input values and outputs of RGB signals are associated with each other is set in advance.
  • the gradation processing unit 62b is input using the RGB gradation table. Tone processing is performed on RGB signals.
  • FIG. 5 is a block diagram showing a specific configuration of the gradation processing unit 62b.
  • the gradation processing unit 62 b includes a first LUT processing unit 70, a second LUT processing unit 71, and a luminance calculation unit 72.
  • the first LUT processing unit 70 is set in advance with an RGB gradation table for a normal image used when generating a normal image in the normal light observation mode.
  • the second LUT processing unit 71 is a special image RGB gradation table used when generating a special image in the normal light observation mode.
  • the first LUT processing unit 70 and the second LUT processing unit 71 are: The normal image generation instruction input and the special image generation instruction input are switched and used.
  • an RGB gradation table for each luminance calculated from RGB signals is set.
  • the luminance calculation unit 72 calculates the luminance of the RGB signal input to the gradation processing unit 62b.
  • the luminance calculated by the luminance calculation unit 72 is input to the second LUT processing unit 71, and the second LUT processing unit 71 performs gradation processing on the RGB signal using the RGB gradation table corresponding to the input luminance. It is something to apply.
  • FIGS. 6I and 6II are diagrams showing an example of an RGB gradation table set for each luminance.
  • the RGB gradation table shown in FIGS. 6I and 6II will be described.
  • the imaging target is gray
  • the R signal, the G signal output from the endoscope 12, and A case where the ratio of the B signal is 1: 1: 1 will be described.
  • FIG. 6I shows an example of an RGB gradation table used when the R signal, G signal, and B signal that are input values are R_in1, G_in1, and B_in1, respectively.
  • FIG. 6II shows the R value that is the input value.
  • An example of the RGB gradation table used when the signal, the G signal, and the B signal are R_in2, G_in2, and B_in2, respectively.
  • 6I is an RGB gradation table corresponding to the luminance calculated from R_in1, G_in1, and B_in1
  • FIG. 6II is an RGB gradation table corresponding to the luminance calculated from R_in2, G_in2, and B_in2.
  • R_in1, G_in1 and B_in1 are indicated by “A”
  • R_in2 and B_in2 are indicated by “B”.
  • the RGB gradation table associates the R gradation tables RC1 and RC2 in which the input value and output value of the R signal are associated with each other, and the input value and output value of the G signal.
  • the R gradation tables RC1 and RC2, the G gradation tables GC1 and GC2, and the B gradation tables BC1 and BC2 are set so that the hue and saturation of a specific imaging target such as a normal mucous membrane are in predetermined positions. It is preferable that the gradation table is such that other imaging target colors such as redness are emphasized. That is, for RGB signals representing normal mucous membranes, the RGB ratio is set to a predetermined ratio after gradation processing, and for RGB signals representing redness, the R component ratio is higher than the predetermined ratio after gradation processing. It is preferable that the gradation table has a large value. Such a gradation table can be set by acquiring in advance the distribution of RGB signals representing normal mucous membranes and the distribution of RGB signals representing redness, and analyzing the relationship between these distributions and output values. .
  • the RGB gradation table shown in FIG. 6I and the RGB gradation table shown in FIG. 6II are RGB gradation tables set for each luminance as described above, but these RGB gradation tables are input. Even when the luminance calculated from the RGB signal of the value changes, the RGB ratio of the output value is set to a predetermined ratio with respect to the input of the RGB signal having the RGB ratio of the predetermined ratio. That is, when an RGB signal whose RGB ratio is the first ratio (for example, an RGB signal obtained by imaging a normal mucous membrane) is input to each of the RGB gradation tables shown in FIGS. 6I and 6II, the RGB ratio Is set to be output from each RGB gradation table.
  • an RGB signal whose RGB ratio is the first ratio for example, an RGB signal obtained by imaging a normal mucous membrane
  • the RGB gradation table shown in FIG. 6I is an RGB gradation table used when the input value is A, the output value of the R signal is R_out1, the output value of the G signal is G_out1 and the B signal. The output value is B_out1.
  • the RGB gradation table shown in FIG. 6II is an RGB gradation table used when the input value is B. The output value of the R signal is R_out2, the output value of the G signal is G_out2, and the output value of the B signal is B_out2.
  • 6I and 6II are set such that the ratios of R_out1, G_out1, and B_out1 and the ratios of R_out2, G_out2, and B_out2 are the same.
  • the straight lines RL, BL, and GL shown in FIG. 6I are the same as the straight lines RL, BL, and GL shown in FIG. I understand that there is no.
  • the RGB gradation table for each luminance and preventing the ratio of the R signal, G signal and B signal of the output value from changing even when the luminance of a predetermined input value changes, for example,
  • a luminal organ such as the large intestine or the small intestine
  • the color balance of the normal mucous membrane can be maintained, for example, between the imaging range in the foreground and the imaging range on the back side with different brightness, and more accurate color Can be generated. Thereby, more accurate image diagnosis can be performed.
  • the second LUT processing unit 71 calculates the luminance Y for each pixel according to the following equation, and calculates the output values R_out, G_out, and B_out for each pixel using an RGB gradation table corresponding to the luminance.
  • LUT_R [R] [Y] is an R gradation table corresponding to luminance
  • LUT_G [G] [Y] is a G gradation table corresponding to luminance
  • LUT_B [B] [Y] Is a B gradation table corresponding to the luminance.
  • the luminance Y is a value from 0 to 255, but the RGB gradation table does not have to be set for all the values from 0 to 255, and only some luminance values among the values from 0 to 255 are used. You may make it set.
  • the RGB gradation table set for the luminance values before and after the luminance Y May be used to calculate the output values R_out, G_out, and B_out.
  • an RGB gradation table set to the luminance before and after may be interpolated and used.
  • the image sensor 48 includes a CMYG complementary color filter
  • the CMYG signal is converted into an RGB signal, and then the gradation process using the RGB gradation table described above is performed. That's fine.
  • the color enhancement unit 62d accepts a setting input by the user and further performs various color enhancement processes on the color-converted RGB signal.
  • the structure enhancement unit 62e performs structure enhancement processing such as spatial frequency enhancement on the RGB signals that have been subjected to color enhancement processing.
  • a normal image generation parameter and a special image generation parameter are set in advance, respectively.
  • the normal image generation and the special image generation are switched by the user inputting an instruction from the input device 20. Not only the instruction input from the input device 20 but also a switch for switching between normal image generation and special image generation may be provided in the operation unit 22.
  • the narrowband light image generation unit 64 includes a matrix processing unit 64a, a gradation processing unit 64b, a three-dimensional LUT processing unit 64c, a color enhancement unit 64d, and a structure enhancement unit 64e.
  • the matrix processing unit 64a, the gradation processing unit 64b, and the three-dimensional LUT processing unit 62c perform color conversion processing for narrowband images on the RGB signals. Specifically, 3 ⁇ 3 matrix processing is performed on the RGB signal by the matrix processing unit 64a, gradation processing is performed by the gradation processing unit 64b, and three-dimensional LUT processing is performed by the three-dimensional LUT processing unit 64c. Is given.
  • the gradation processing unit 64b is also preset with an RGB gradation table in which input values and outputs of RGB signals are associated with each other.
  • a tone table is used to perform gradation processing on the input RGB signal.
  • the basic configuration of the gradation processing unit 64b is the same as that of the gradation processing unit 62b, and includes a first LUT processing unit 73, a second LUT processing unit 74, and a luminance calculation unit 75 as shown in FIG. ing.
  • the first LUT processing unit 73 is a preset RGB gradation table for narrowband images used in narrowband image generation in the narrowband light observation mode.
  • the second LUT processing unit 74 is preset with an RGB gradation table for a special narrowband image used when generating a special narrowband image in the narrowband light observation mode.
  • the first LUT processing unit 73 and the second LUT processing unit 74 are switched between a case where an instruction input for narrowband image generation is received and a case where an instruction input for special narrowband image generation is received.
  • the second LUT processing unit 74 has an RGB gradation table set for each luminance similarly to the second LUT processing unit 71 of the normal light image generation unit 62.
  • the RGB gradation table for each luminance when an RGB signal whose RGB ratio is the first ratio is input to each RGB gradation table for each luminance, an output value in which the RGB ratio is the second ratio is obtained. It is set to output from each RGB gradation table.
  • 8 and 9 are diagrams illustrating specific examples of the RBG gradation table set in the gradation processing unit 64b.
  • the RGB ratio (first ratio) of the input RGB signal is the same as the RGB ratio (second ratio) of the RGB signal after gradation processing. It is set to be.
  • the RGB gradation table shown in FIG. 14 is an RGB gradation table used in the case of H.143.
  • the atrophy mucosa to be highlighted in the narrow-band light observation mode has a larger G signal and B signal than the normal mucosa and a smaller R signal than the normal mucosa.
  • the R signal is larger than that of normal mucosa
  • the G signal and B signal are smaller than those of normal mucous membrane.
  • the ratio of the output value to the input value is set higher than the reference point, and for input values lower than the reference point. By making the ratio of the output value to the input value lower than the reference point, color enhancement can be performed. That is, each RGB gradation table is preferably set so that the ratio of the output value to the input value increases as the input value increases.
  • each RGB gradation table images mucous membranes having redness more than the ratio of the R output value to the R input value when an RGB signal obtained by imaging normal mucous membranes is input. It is preferable that the ratio of the output value of R to the input value of R when the RGB signal obtained in this way is input is increased.
  • each RGB gradation table includes an RGB signal obtained by imaging the atrophic mucosa rather than the ratio of the R output value to the R input value when the RGB signal obtained by imaging the normal mucosa is input. It is preferable to reduce the ratio of the R output value to the R input value when.
  • the color emphasizing unit 64d accepts a setting input by the user and further performs various color emphasizing processes on the color-converted RGB signals.
  • the structure emphasizing unit 64e performs structure emphasis processing such as spatial frequency emphasis on the color-enhanced RGB signal.
  • a parameter for generating a narrowband image and a parameter for generating a special narrowband image are set in advance, respectively.
  • the narrow band image generation and the special narrow band image generation are switched when the user inputs an instruction from the input device 20. Not only the instruction input from the input device 20, but a switch for switching between narrowband image generation and special narrowband image generation may be provided in the operation unit 22.
  • the RGB signal input to the narrowband optical image generation unit 64 is subjected to processing for a narrowband image in each unit, and is narrowed as a narrowband image signal.
  • the light output from the band light image generation unit 64 is output to the display control unit 65.
  • the special narrowband image is processed in each unit for the RGB signal input to the narrowband optical image generation unit 64.
  • the signal is output from the narrowband light image generation unit 64 to the display control unit 65 as a signal.
  • the display control unit 65 can display the normal image signal, special image signal, narrow band image signal, or special narrow band image signal output from the normal light image generation unit 62 or the narrow band light image generation unit 64 on the monitor 18. Convert to display image signal.
  • the monitor 18 displays a normal image, a special image, a narrow band image, or a special narrow band image based on the display image signal.
  • the mode switch 22b is operated by the user, and the normal light observation mode or the narrow band light observation mode is selected and set (S10).
  • the normal light observation mode is set, the RGB signal output from the imaging device 48 by irradiating the imaging target with the white light WL by the endoscope 12 and imaging the imaging target is the processor device 16. And the demosaic process is performed (S12).
  • the RGB signal subjected to the demosaic process is input to the noise removing unit 61, subjected to the noise removing process in the noise removing unit 61, and then input to the normal light image generating unit 62.
  • the RGB signal input to the normal light image generation unit 62 is subjected to matrix processing in the matrix processing unit 62a.
  • an RGB signal is input to the first LUT processing unit 70 of the gradation processing unit 62b.
  • the gradation processing using the RGB gradation table is performed (S24).
  • the RGB signal subjected to the gradation processing is input to the three-dimensional LUT processing unit 62c and subjected to the three-dimensional LUT processing, and then input to the color enhancement unit 62d to be subjected to the color enhancement processing.
  • the structure enhancement unit 62e performs structure enhancement processing on the color-enhanced RGB signal to generate a normal image signal (S26), which is output to the display control unit 65.
  • the display control unit 65 displays a normal image on the monitor 18 based on the input normal image signal (S28).
  • the process end instruction is input and the process ends (S48, YES).
  • the process returns to S10, and the normal light observation mode is continued or switched to the narrow band light observation mode.
  • the RGB signals are input to the second LUT processing unit 71 and the luminance calculation unit 72.
  • the luminance calculation unit 72 calculates the luminance for each pixel based on the input RGB signal for each pixel (S16). Then, the luminance calculated by the luminance calculation unit 72 is output to the second LUT processing unit 71, and the second LUT processing unit 71 sets the RGB gradation table for the special image set for each luminance based on the input luminance. Is used to perform gradation processing on the RGB signal for each pixel (S18).
  • the RGB signal subjected to the gradation processing is input to the three-dimensional LUT processing unit 62c and subjected to the three-dimensional LUT processing, and then input to the color enhancement unit 62d to be subjected to the color enhancement processing.
  • the structure enhancement process is performed on the RGB signal after the color enhancement process in the structure enhancement unit 62e, and a special image signal is generated (S20), and is output to the display control unit 65.
  • the display control unit 65 displays a special image on the monitor 18 based on the input special image signal (S22).
  • the process end instruction is input and the process ends (S48, YES).
  • the process returns to S10, and the normal light observation mode is continued or switched to the narrow band light observation mode.
  • the mode switch 22b When the mode switch 22b is operated by the user and the narrow-band light observation mode is set, the narrow-band light SL is irradiated to the imaging target by the endoscope 12, and the imaging element is captured by imaging the imaging target.
  • the RGB signals output from 48 are acquired by the image signal acquisition unit 60 of the processor device 16 and subjected to demosaic processing (S30).
  • the RGB signal subjected to demosaic processing is input to the noise removal unit 61, subjected to noise removal processing by the noise removal unit 61, and then input to the narrowband light image generation unit 64.
  • the RGB signals input to the narrow band light image generation unit 64 are subjected to matrix processing in the matrix processing unit 64a and then input to the gradation processing unit 64b.
  • an RGB signal is input to the first LUT processing unit 73 of the gradation processing unit 64b, and the RGB signal is narrowed.
  • the gradation process using the RGB gradation table for the band image is performed (S42).
  • the RGB signal subjected to the gradation processing is input to the three-dimensional LUT processing unit 64c and subjected to the three-dimensional LUT processing, and then input to the color enhancement unit 64d to be subjected to the color enhancement processing.
  • the structure enhancement process is performed on the RGB signal that has been subjected to the color enhancement process in the structure enhancement unit 64 e to generate a narrowband image signal (S 44), and is output to the display control unit 65.
  • the display control unit 65 displays a narrowband image on the monitor 18 based on the input narrowband image signal (S46).
  • the process end instruction is input and the process ends (S48, YES).
  • the process returns to S10, and the normal light observation mode is continued or switched to the narrow band light observation mode.
  • the RGB signal is input to the second LUT processing unit 74 and the luminance calculation unit 75.
  • the luminance calculation unit 75 calculates the luminance for each pixel based on the input RGB signal for each pixel (S34). Then, the luminance calculated by the luminance calculation unit 75 is output to the second LUT processing unit 74, and the second LUT processing unit 74 performs RGB processing for the special narrowband image set for each luminance based on the input luminance.
  • gradation processing is performed on the RGB signals for each pixel (S36).
  • the RGB signal subjected to the gradation processing is input to the three-dimensional LUT processing unit 64c and subjected to the three-dimensional LUT processing, and then input to the color enhancement unit 64d to be subjected to the color enhancement processing.
  • the structure enhancement process is performed on the RGB signal that has been subjected to the color enhancement process in the structure enhancement unit 64e to generate a special narrowband image signal (S38), which is output to the display control unit 65.
  • the display control unit 65 displays a special narrow band image on the monitor 18 based on the input special narrow band image signal (S40).
  • the process end instruction is input and the process ends (S48, YES).
  • the process returns to S10, and the narrow-band light observation mode is continued or switched to the normal light observation mode.
  • FIG. 11 is a diagram illustrating a schematic configuration of a gradation processing unit of the endoscope system according to the present embodiment.
  • 11 is a diagram collectively showing the gradation processing unit 62b of the normal light image generation unit 62 and the gradation processing unit 64b of the special light image generation unit 64 shown in FIG.
  • the gradation processing units 62b and 64b of the endoscope system according to the second embodiment are further compared to the gradation processing units 62b and 64b of the endoscope system according to the first embodiment. , 67 are provided.
  • the low-frequency image generation processing units 66 and 67 perform low-frequency image generation processing on the RGB signals that have been demosaiced by the image signal acquisition unit 60.
  • the luminance calculation units 72 and 75 of the gradation processing units 62b and 64b calculate the luminance using the RGB signals subjected to the low frequency image generation processing in the low frequency image generation processing units 66 and 67.
  • the low-frequency image generation process is a so-called blur process, and a known filter process or the like can be used.
  • RGB signals that have been subjected to low-frequency image generation processing when calculating luminance in this way, extremely high luminance noise signals and the like can be removed, and the structure can be easily grasped.
  • An RGB gradation table can be used. Note that the gradation processing unit 62b uses an RGB signal that has not been subjected to low-frequency image generation processing as an input value for gradation processing.
  • the RGB gradation table As the RGB gradation table, the R gradation table RC1, RC2, B gradation table BC1, BC2, and G gradation table GC1, The gradation table that outputs R_out, G_out, and B_out directly to the input values R_in, G_in, and B_in is used using GC2, but the configuration of the RGB gradation table is not limited to this. .
  • a color space conversion table that converts an RGB signal into a color space other than RGB
  • a gradation table of the converted color space and an RGB conversion table that converts the output value of the gradation table back to an RGB signal again.
  • You may make it comprise a tone table.
  • the RGB gradation table of the present invention includes such a thing that performs gradation processing using a gradation table in a color space other than RGB as described above.
  • an RGB signal is converted into an HCL color space signal.
  • the C gradation table in which the luminance value In_L of the input value obtained by this conversion is associated with the output value Out_C of C (saturation), and the luminance value In_L of the input value and the output value Out_H of H (hue) are associated with each other.
  • the H gradation table added and the L gradation table in which the luminance value In_L of the input value is associated with the output value Out_L of L (brightness) are set in advance, and the luminance In_L is set using these gradation tables.
  • Output values Out_C, Out_H, and Out_L corresponding to are calculated.
  • the C gradation table, the H gradation table, and the L gradation table are set so that a predetermined hue is maintained even when the luminance changes, and the lightness and saturation change according to the luminance. It is preferable that Since the hue does not change even when the luminance changes in this way, the effect of maintaining the color balance against the change in luminance can be obtained as in the first and second embodiments.
  • the output values Out_C, Out_H, Out_L are converted again into RGB signals using the RGB conversion table.
  • the processing after the conversion to the RGB signal is the same as in the first and second embodiments.
  • the RGB gradation table for each luminance is set in advance.
  • the R component of the RGB signal is changed. You may make it preset the RGB gradation table for every magnitude
  • the configuration for calculating the luminance from the RGB signal can be omitted, and the processing can be simplified. Even when the R signal is used instead of the luminance, it is not necessary to set the RGB gradation table for all the values of 0 to 255, and only the values of some of the R signals among the values of 0 to 255 are set. You may make it do. Even when the R signal is used instead of the luminance, the R signal subjected to the blurring process may be used.
  • different RGB gradation tables may be provided for the normal light observation mode and the narrowband light observation mode.
  • the normal image is generated in the normal light observation mode in which the imaging target is irradiated with the normal light.
  • An image signal in a desired wavelength band may be generated by performing a preset matrix operation on the RGB signals input to the.
  • RGB signals that are acquired in, for example, the narrow-band light observation mode may be generated by performing the matrix operation described above.
  • a known calculation method can be used.
  • a narrowband image is generated in the narrowband light observation mode in which the imaging target is irradiated with narrowband light.
  • An image signal in a desired wavelength band may be generated by performing a preset matrix operation on the RGB signals input to the image generation unit 64.
  • an image signal in the wavelength band of the blue-violet laser light VL may be generated by performing the matrix operation described above.
  • a known calculation method can be used.
  • a narrow band including blue narrow-band light blue laser light and blue-violet laser light
  • blue narrow-band light blue laser light and blue-violet laser light
  • band light light including green narrow band light (for example, a wavelength component of 540 to 560 nm) having high light absorbability with respect to a mucous membrane absorbing substance may be used.
  • the blue laser light source 34 and the blue-violet laser light source 36 are used as the light sources, and the phosphor 44 is irradiated with the blue laser light.
  • the configuration of the light source device 14 is not limited to this, and other configurations may be used.
  • the light source device 14 includes a V-LED (VioletioEmitting Diode) 42a, a B-LED (Blue Light Emitting Diode) 42b, and a G-LED (Green It is also possible to provide a light (Emitting / Diode) 42c and an R-LED (Red / Light Emitting / Diode) 42d.
  • the light source device 14 further includes a light source control unit 40 that controls driving of the four color LEDs 42a to 42d and an optical path coupling unit 43 that couples the optical paths of the four color lights emitted from the four color LEDs 42a to 42d. The light coupled by the optical path coupling unit 43 is irradiated into the subject through the light guide 41.
  • the V-LED 42a generates violet light V having a center wavelength of 405 ⁇ 10 nm and a wavelength range of 380 to 420 nm.
  • the B-LED 42b generates blue light B having a center wavelength of 460 ⁇ 10 nm and a wavelength range of 420 to 500 nm.
  • the G-LED 42c generates green light G having a wavelength range of 480 to 600 nm.
  • the R-LED 42d generates red light R having a center wavelength of 620 to 630 nm and a wavelength range of 600 to 650 nm.
  • the light source control unit 40 performs the V-LED 42a, the B-LED 42b, the G-LED 42c, and the R-LED 42d in any of the normal light observation mode, the first narrow band light observation mode, and the second narrow band light observation mode. Lights up. Accordingly, the observation target is irradiated with light in which four colors of light of purple light V, blue light B, green light G, and red light R are mixed. In the normal light observation mode, the light source control unit 40 sets the LEDs 42a to 42d so that the light quantity ratio among the violet light V, blue light B, green light G, and red light R is Vc: Bc: Gc: Rc. To control.
  • the light source controller 40 is configured so that the light quantity ratio among the violet light V, the blue light B, the green light G, and the red light R becomes Vs: Bs: Gs: Rs.
  • the LEDs 42a to 42d are controlled.
  • the first narrow-band light observation mode is a mode for displaying whether or not the first narrow-band image is displayed on the monitor 18 when determining whether or not the sterilization of H. pylori has been successful.
  • the second narrowband light observation mode is a mode for displaying whether or not the second narrowband image is displayed on the monitor 18 when determining whether or not the virus is infected with H. pylori.
  • the simultaneous imaging device is used.
  • the present invention is also applied to a so-called frame sequential endoscope system. be able to.
  • a rotating filter provided with an R (red) filter, a G (green) filter, and a B (blue) filter along the circumferential direction rotates.
  • R red
  • G green
  • B blue
  • a reflected image from the imaging target due to the irradiation of the blue light, the green light, and the red light is picked up by the monochrome image pickup device, and the R signal, the G signal, and the B signal are sequentially output from the image pickup device. Will be obtained.
  • the imaging target is sequentially irradiated with blue narrow band light, green light, and red light.
  • a reflected image from the imaging target by irradiation with blue narrow-band light, green light, and red light is picked up by a monochrome image pickup device, and an R signal, a G signal, and a Bn signal are sequentially output from the image pickup device, and this signal is obtained as an image signal. It is acquired by the unit 60.
  • the Bn signal is handled and processed in the same manner as the B signal.
  • the present invention is not limited to the endoscope system including the insertion unit 21 such as the endoscope systems 10 and 11 of the first and second embodiments, but can be applied to a capsule endoscope.

Abstract

【課題】明るい範囲と暗い範囲とでたとえば正常粘膜のカラーバランスを維持することができる内視鏡画像信号処理装置および方法並びにプログラムを提供する。 【解決手段】RGB階調テーブルが、輝度またはR成分の大きさ毎にそれぞれ設定され、かつその輝度またはR成分の大きさ毎のRGB階調テーブルが、その各RGB階調テーブルにRGBの比率が第1の比率であるRGB信号が入力された場合、RGBの比率が第2の比率となる出力値が各RGB階調テーブルから出力されるように設定されており、階調処理部(62b)が、RGB信号に基づいて輝度またはR成分を取得し、その輝度またはR成分の大きさに応じたRGB階調テーブルを用いて撮像対象を撮像したRGB信号に階調処理を施す。

Description

内視鏡画像信号処理装置および方法並びにプログラム
 本発明は、内視鏡を用いて撮像対象を撮像して得られたRGB信号に対して階調処理を施す内視鏡画像信号処理装置および方法並びにプログラムに関するものである。
 医療分野においては、光源装置、内視鏡、およびプロセッサ装置を備えた内視鏡システムを用いた診断が広く行われるようになってきた。特に、カラー内視鏡システムの性能向上により、撮像された内視鏡画像の色を観察することによって、消化器の粘膜などの病状を診断することが行われている。
 たとえば胃の粘膜が胃がんの原因と考えられているピロリ菌に感染している場合、胃の粘膜上に萎縮または斑状に赤い炎症部分が現れることが知られている。したがって、このような萎縮または炎症部分の色を内視鏡画像を用いて観察することにより、ピロリ菌の感染の有無を確認することが行われている。
 ここで、たとえば特許文献1においては、白色光を撮像対象に照射することによって撮像された内視鏡画像において、血管や病変部などを強調して表示させるため、撮像素子から出力されたRGB信号に対してRGBの階調テーブルを用いて階調処理を施すことが提案されている。
特許第5467754号公報 特開2000-330037号公報 特開2011-10131号公報
 しかしながら、たとえば大腸および小腸などといった管腔臓器に内視鏡を挿入して粘膜を撮像する場合、内視鏡の先端に対して手前側の範囲には十分に照明光が照射されるが、奥側の範囲には照明光が十分に届かず、暗い画像となってしまう。
 このように明るい範囲と暗い範囲とが混在する撮像対象を撮像して得られたRGB信号に対して、一律に同じ階調テーブルを用いて階調処理を行った場合、明るい範囲と暗い範囲とで強調の程度が異なり、強調が強すぎたり、逆に強調が弱すぎたりして、明るい範囲と暗い範囲とで正常粘膜のカラーバランスが異なる画像が撮像される問題がある。以下、具体的な例を説明するが、ここでは、説明を分かりやすくするために、撮像対象をグレーとし、R信号、G信号およびB信号の比が1:1:1である場合について説明する。
 たとえば、図15に示すようなR成分の階調テーブルRCとG成分の階調テーブルGCとB成分の階調テーブルBCとが設定されている場合、R信号、G信号およびB信号の入力値がAである場合には、階調処理による出力値はR_out1,G_out1,B_out1となる。これに対し、R信号、G信号およびB信号の入力値がBである場合には、階調処理による出力値はR_out2,G_out2,B_out2となる。入力値Aと入力値Bとで出力値のカラーバランスが変わらないようにするためには、それぞれの出力値が図15に示す点線上に存在しなければならないが、入力値Bに対する出力値G_out2,B_out2は点線より大きくなっており、結果として入力値がAの場合よりもシアンが強い画像となる。すなわち、入力値の輝度によってRGBのカラーバランスが異なる。
 このようにカラーバランスが崩れた画像では、たとえば赤く強調されるべき範囲が強調されないこと、または正常粘膜の色味が変わってしまうことで正確な画像診断を行うことができない可能性がある。
 なお、特許文献2には、R信号、G信号、B信号に対してそれぞれγ補正を施すことが開示されており、明るい画像の場合と、暗い画像の場合とで、γ補正のカーブを変更することが開示されている。
 また、特許文献3には、画像中における支配的な色(たとえば赤)の信号から明るさレベルを検出し、その明るさレベルに基づいて、RGB画像信号に階調処理を施すことが開示されている。
 しかしながら、特許文献2および特許文献3に記載の方法では、上述したようなカラーバランスの崩れを抑制することはできない。
 本発明は、上記の問題に鑑み、明るい範囲と暗い範囲とが混在する撮像対象を撮像した場合においても、明るい範囲と暗い範囲とでたとえば正常粘膜のカラーバランスを維持することができる内視鏡画像信号処理装置および方法並びにプログラムを提供することを目的とする。
 本発明の第1の内視鏡画像信号処理装置は、内視鏡を用いて撮像対象を撮像して得られたRGB信号を取得する画像信号取得部と、RGBの入力値と出力値とを対応付けたRGB階調テーブルを用いて、RGB信号に対して階調処理を施す階調処理部とを備え、RGB階調テーブルが、輝度またはR成分の大きさ毎にそれぞれ設定され、かつその輝度またはR成分の大きさ毎のRGB階調テーブルが、その各RGB階調テーブルにRGBの比率が第1の比率であるRGB信号が入力された場合、RGBの比率が第2の比率となる出力値が各RGB階調テーブルから出力されるように設定されており、階調処理部が、RGB信号に基づいて輝度またはR成分を取得し、その輝度またはR成分の大きさに応じたRGB階調テーブルを用いて階調処理を施す。
 ここで、上記「輝度」とは、明るさの度合いを表すものであり、いわゆる色空間における明度も含むものとする。
 また、上記本発明の第1の内視鏡画像信号処理装置において、階調処理部は、RGB信号を構成する各画素について輝度またはR成分をそれぞれ取得し、その画素毎に階調処理を施すことができる。
 また、上記本発明の第1の内視鏡画像信号処理装置において、RGB階調テーブルは、一部の輝度またはR成分の大きさについてのみ設定することができる。
 また、上記本発明の第1の内視鏡画像信号処理装置において、階調処理部は、一部の輝度またはR成分の大きさ毎に設定されたRGB階調テーブルを補間して用いて階調処理を施すことができる。
 また、上記本発明の第1の内視鏡画像信号処理装置において、輝度またはR成分の大きさ毎のRGB階調テーブルは、第1の比率のRGB信号が入力された場合に色相を維持して、明度および彩度が変化する出力値を出力することができる。
 また、上記本発明の第1の内視鏡画像信号処理装置においては、RGB信号に低周波画像生成処理を施して低周波画像を生成する低周波画像生成処理部を備え、階調処理部は、低周波画像に基づいて輝度またはR成分を取得することができる。
 また、上記本発明の第1の内視鏡画像信号処理装置においては、RGB信号として、狭帯域光を含む照明光が照射された撮像対象を撮像して得られたものを用いることができる。
 また、上記本発明の第1の内視鏡画像信号処理装置においては、狭帯域光として、青色狭帯域光または緑色狭帯域光を用いることができる。
 また、上記本発明の第1の内視鏡画像信号処理装置においては、RGB信号として、撮像対象として管腔臓器を撮像して得られたものを用いることができる。
 また、上記本発明の第1の内視鏡画像信号処理装置において、第1の比率は、正常粘膜を撮像して得られたRGB信号のRGBの比率であることが好ましい。
 また、上記本発明の第1の内視鏡画像信号処理装置において、各RGB階調テーブルは、正常粘膜を撮像して得られたRGB信号が入力された場合のRの入力値に対するRの出力値の比よりも発赤を有する粘膜を撮像して得られたRGB信号が入力された場合のRの入力値に対するRの出力値の比を大きくすることが好ましい。
 また、上記本発明の第1の内視鏡画像信号処理装置において、各RGB階調テーブルは、正常粘膜を撮像して得られたRGB信号が入力された場合のRの入力値に対するRの出力値の比よりも萎縮粘膜を撮像して得られたRGB信号が入力された場合のRの入力値に対するRの出力値の比を小さくすることが好ましい。
 本発明の第2の内視鏡画像信号処理装置は、内視鏡を用いて撮像対象を撮像して得られたRGB信号を取得する画像信号取得部と、RGBの入力値と出力値とを対応付けたRGB階調テーブルを用いて、RGB信号に対して階調処理を施す階調処理部とを備え、RGB階調テーブルが、輝度またはR成分の大きさ毎にそれぞれ設定され、かつその輝度またはR成分の大きさ毎のRGB階調テーブルが、その各RGB階調テーブルにRGBの比率が第1の比率である正常粘膜を撮像して得られたRGB信号が入力された場合、RGBの比率が第2の比率となる出力値が各RGB階調テーブルから出力されるように設定され、階調処理部が、記RGB信号を構成する各画素について輝度またはR成分をそれぞれ取得し、その輝度またはR成分の大きさに応じたRGB階調テーブルを用いて画素毎に階調処理を施すことを特徴とする。
 本発明の内視鏡画像信号処理方法は、内視鏡を用いて撮像対象を撮像して得られたRGB信号を取得し、RGBの入力値と出力値とを対応付けたRGB階調テーブルを用いてRGB信号に対して階調処理を施す内視鏡画像信号処理方法において、RGB階調テーブルを、輝度またはR成分の大きさ毎にそれぞれ設定し、かつその輝度またはR成分の大きさ毎のRGB階調テーブルが、その各RGB階調テーブルにRGBの比率が第1の比率であるRGB信号が入力された場合、RGBの比率が第2の比率となる出力値が各RGB階調テーブルから出力されるように設定されており、上記RGB信号に基づいて輝度またはR成分を取得し、その輝度またはR成分の大きさに応じたRGB階調テーブルを用いて階調処理を施す。
 本発明の内視鏡画像信号処理プログラムは、コンピュータを、内視鏡を用いて撮像対象を撮像して得られたRGB信号を取得する画像信号取得部と、RGBの入力値と出力値とを対応付けたRGB階調テーブルを用いて、RGB信号に対して階調処理を施す階調処理部として機能させる内視鏡画像信号処理プログラムであって、RGB階調テーブルが、輝度またはR成分の大きさ毎にそれぞれ設定され、かつその輝度またはR成分の大きさ毎のRGB階調テーブルが、その各RGB階調テーブルにRGBの比率が第1の比率であるRGB信号が入力された場合、RGBの比率が第2の比率となる出力値が各RGB階調テーブルから出力されるように設定されており、階調処理部が、RGB信号に基づいて輝度またはR成分を取得し、その輝度またはR成分の大きさに応じたRGB階調テーブルを用いて階調処理を施す。
 本発明の内視鏡画像信号処理装置および方法並びにプログラムによれば、RGB階調テーブルを輝度またはR成分の大きさ毎にそれぞれ設定する。そして、その輝度またはR成分の大きさ毎のRGB階調テーブルが、その各RGB階調テーブルにRGBの比率が第1の比率であるRGB信号が入力された場合、RGBの比率が第2の比率となる出力値が各RGB階調テーブルから出力されるように設定されている。このようなRGB階調テーブルの設定のもとで、内視鏡を用いて撮像対象を撮像して得られたRGB信号に基づいて輝度またはR成分を取得し、その輝度またはR成分の大きさに応じたRGB階調テーブルを用いてRGB信号に対して階調処理を施すようにしたので、明るい範囲と暗い範囲とが混在する撮像対象を撮像した場合においても、明るい範囲と暗い範囲とでたとえば正常粘膜のカラーバランスを維持することができる。
本発明の内視鏡画像信号処理装置の一実施形態を用いた内視鏡システムの概略構成を示す図 第1の実施形態の内視鏡システムの内部構成を示すブロック図 白色光の分光スペクトルを示す図 狭帯域光の分光スペクトルを示す図 通常光画像生成部の階調処理部の具体的な構成を示すブロック図 輝度毎のRGB階調テーブルの一例を示す図 狭帯域光画像生成部の階調処理部の具体的な構成を示すブロック図 特殊光観察モードで使用される輝度毎のRGB階調テーブルの一例を示す図 特殊光観察モードで使用される輝度毎のRGB階調テーブルのその他の例を示す図 第1の実施形態の内視鏡システムの作用を説明するためのフローチャート 第2の実施形態の内視鏡システムの階調処理部の内部構成を示すブロック図 C階調テーブル、H階調テーブルおよびL階調テーブルの一例を示す図 第1の実施形態の内視鏡システムの変形例を示すブロック図 紫色光V、青色光B、緑色光G、および赤色光Rの発光スペクトルを示す図 従来のRGBの階調テーブルを用いた階調処理を説明するための図
 以下、本発明の内視鏡画像信号処理装置および方法並びにプログラムの第1の実施形態を用いた内視鏡システムについて、図面を参照しながら詳細に説明する。図1は、本実施形態の内視鏡システム10の概略構成を示す図である。
 本実施形態の内視鏡システム10は、内視鏡12と、光源装置14と、プロセッサ装置16と、モニタ18と、入力装置20とを有する。内視鏡12は、光源装置14に光学的に接続され、プロセッサ装置16に電気的に接続される。
 内視鏡12は、被検体内に挿入される挿入部21と、挿入部の基端部分に設けられた操作部22と、挿入部21の先端側に設けられる湾曲部23および先端部24を有している。操作部22には、アングルノブ22aが設けられており、このアングルノブ22aを回転操作することによって、湾曲部23が湾曲動作する。この湾曲動作に伴って、先端部24が所望の方向に向けられる。
 また、操作部22には、モード切替スイッチ22bと、ズーム操作部22cとが設けられている。モード切替スイッチ22bは、通常光観察モードと狭帯域光観察モードの2種類のモード間の切り替え操作に用いられる。通常光観察モードは、被検体内の撮像対象の照明に白色光を用いるモードである。狭帯域光観察モードは、被検体内の撮像対象の照明に青味を帯びた狭帯域光を用いるモードであり、萎縮性胃炎による粘膜の色の変化や血管の透見像を強調するモードである。ズーム操作部22cは、内視鏡12内のズームレンズ47(図2参照)を駆動させて、撮像対象を拡大させるズーム操作に用いられる。
 モニタ18および入力装置20は、プロセッサ装置16に電気的に接続されるものである。モニタ18は、内視鏡12によって撮像された内視鏡画像および後述する色数値情報を表示するものである。入力装置20は、機能設定等などの入力操作を受け付けるものであり、キーボードおよびマウスなどを備えたものである。なお、タッチパネルを用いることによってモニタ18と入力装置20とを兼用するようにしてもよい。
 図2は、本実施形態の内視鏡システム10の内部構成を示すブロック図である。
 光源装置14は、中心波長445nmの青色レーザ光を発する青色レーザ光源34と、中心波長405nmの青紫色レーザ光を発する青紫色レーザ光源36とを備えている。各光源34、36は、光源制御部40により個別に制御され、青色レーザ光源34の出射光と、青紫色レーザ光源36の出射光の光量比は変更可能になっている。
 光源制御部40は、通常光観察モードの場合には、主として青色レーザ光源34を駆動させる。なお、青紫色レーザ光源36については、青紫色レーザ光がわずかに発光されるように制御してもよい。
 これに対し、光源制御部40は、狭帯域光観察モードの場合には、青色レーザ光源34と青紫色レーザ光源36の両方を駆動させるとともに、青色レーザ光の光強度が青紫色レーザ光の光強度よりも大きくなるように制御している。なお、青色レーザ光または青紫色レーザ光の半値幅は±2nm程度とし、青色狭帯域光とすることが好ましい。また、青色レーザ光源34および青紫色レーザ光源36としては、ブロードエリア型のInGaN系レーザダイオード、InGaAsN系レーザダイオードおよびGaAsN系レーザダイオードなどを用いることができる。また、上記光源として、発光ダイオードなどの発光体を用いた構成としてもよい。
 各光源34、36から出射されるレーザ光は、集光レンズなどの光学部材(図示省略)を介してライトガイド(LG)41に入射する。ライトガイド41は、ユニバーサルコード13内に収容されており、内視鏡12に光学的に接続される。
 青色レーザ光または青紫色レーザ光は、ライトガイド41を介して、内視鏡12の先端部24まで伝搬される。なお、ライトガイド41としては、マルチモードファイバを使用することができる。
 内視鏡12の先端部24は照明光学系24aと撮像光学系24bを有している。照明光学系24aには、ライトガイド41から出射された青色レーザ光または青紫色レーザ光が入射する蛍光体44と、照明レンズ45が設けられている。蛍光体44に、青色レーザ光が照射されることで励起され、蛍光体44から蛍光が発せられる。また、一部の青色レーザ光は、そのまま蛍光体44を透過する。青紫色レーザ光は、蛍光体44を励起させることなく透過する。蛍光体44を出射した光は、照明レンズ45を介して、撮像対象に照射される。
 ここで、通常光観察モードにおいては、主として青色レーザ光が蛍光体44に入射する。したがって、図3に示すような、青色レーザ光BLと蛍光体44から発せられた蛍光FLとを合波した白色光WLが、撮像対象に照射される。一方、狭帯域光観察モードにおいては、青紫色レーザ光と青色レーザ光の両方が蛍光体44に入射する。したがって、図4に示すような、青紫色レーザ光VL、青色レーザ光BL、および蛍光FLを合波した光SLが、撮像対象に照射される。この狭帯域光観察モードでは、青色レーザ光に加えて、狭帯域光である青紫色レーザ光が含まれているため、青色成分を多く含みかつ波長範囲がほぼ可視光全域に及ぶ広帯域光が、撮像対象に照射される。なお、本明細書においては、狭帯域光観察モードにおいて撮像対象に照射される光のことを、単に狭帯域光と呼ぶことにする。すなわち、図4に示す光SLを、単に狭帯域光SLと呼ぶことにする。
 本実施形態の青色レーザ光および青紫色レーザ光のような青色狭帯域光は、粘膜内の吸光物質、具体的には、消化器に多く含まれる含む血液(特に、ヘモグロビン)に対する吸収が大きい。したがって、狭帯域光観察モードで撮影した時に正常な粘膜領域と萎縮粘膜領域の差を大きくすることができる。
 なお、蛍光体44は、青色レーザ光の一部を吸収して、緑色~黄色に励起発光する複数種の蛍光体(例えばYAG(Yttrium Aluminum Garnet)系蛍光体、或いはBAM(BaMgAl1017)等の蛍光体)を含んで構成されるものを使用することが好ましい。本実施形態のように、半導体発光素子を蛍光体44の励起光源として用いれば、高い発光効率で高強度の白色光が得られ、白色光の強度を容易に調整できる上に、白色光の色温度、色度の変化を小さく抑えることができる。
 なお、本実施形態においては、蛍光体44を内視鏡12の先端部24に設けたが、これに代えて、蛍光体44を光源装置14内に設けてもよい。この場合には、ライトガイド41と青色レーザ光源34との間に、蛍光体44を設けることが好ましい。
 また、内視鏡12の撮像光学系24bは、撮像レンズ46、ズームレンズ47、および撮像素子48を有している。撮像対象からの反射光は、撮像レンズ46およびズームレンズ47を介して、撮像素子48に入射する。これにより、撮像素子48に撮像対象の反射像が結像される。ズームレンズ47は、ズーム操作部22cを操作することで移動する。
 撮像素子48はカラーのイメージセンサであり、撮像対象の反射像を撮像してRAW信号を出力する。なお、撮像素子48は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサ等であることが好ましい。
 また、本実施形態の撮像素子48は、撮像面にRGBのカラーフィルタが設けられた同時式撮像素子である。R(赤)のカラーフィルタが設けられた素子からR成分のR信号が出力され、G(緑)のカラーフィルタが設けられた素子からG成分のG信号が出力され、B(青)のカラーフィルタが設けられた素子からB成分のB信号が出力される。なお、以下、R信号、G信号およびB信号をまとめてRGB信号と呼ぶことがある。フィルタ配列としては、ベイヤー配列でもよいし、ハニカム配列でもよい。
 また、撮像素子48としては、撮像面にC(シアン)、M(マゼンタ)、Y(イエロー)およびG(緑)のCMYGフィルタを備えたイメージセンサであっても良い。CMYGフィルタを備えたイメージセンサの場合には、C(シアン)のカラーフィルタが設けられた素子からC成分のC信号が出力され、M(マゼンダ)のカラーフィルタが設けられた素子からM成分のM信号が出力され、Y(イエロー)のカラーフィルタが設けられた素子からY成分のY信号が出力され、G(緑)のカラーフィルタが設けられた素子からG成分のG信号が出力される。
 撮像素子48から出力されたRGB信号は、CDS/AGC回路50に出力される。CDS/AGC回路50は、アナログ信号であるRGB信号に相関二重サンプリング(CDS(correlated double sampling))や自動利得制御(AGC(Auto gain control))を行う。CDS/AGC回路50を経たRGB信号は、ガンマ変換部51においてガンマ変換が施された後、A/D変換部52により、デジタル信号に変換される。A/D変換されたRGB信号は、プロセッサ装置16に入力される。
 プロセッサ装置16は、画像信号取得部60と、ノイズ除去部61と、通常光画像生成部62と、狭帯域光画像生成部63と、表示制御部65とを備える。プロセッサ装置16は、CPU(Central Processing Unit)、半導体メモリおよびハードディスクなどを備えたコンピュータから構成されるものであり、本発明の内視鏡画像信号処理プログラムの一実施形態がインストールされたものである。この内視鏡画像信号処理プログラムがCPUによって実行されることによって、上記各部が機能する。
 画像信号取得部60は、内視鏡12から出力されたRGB信号を取得するものである。画像信号取得部60によって取得されたRGB信号は、メモリなどに一旦記憶される。また、画像信号取得部60によって取得されたRGB信号には、図示省略したデモザイク処理部によってデモザイク処理が施され、画素毎について、R信号、G信号およびB信号が生成される。
 ノイズ除去部61は、デモザイク処理の施されたRGB信号に対してノイズ除去処理を施すものである。具体的には、移動平均フィルタまたはメディアンフィルタ処理を施すものである。
 通常光画像生成部62は、マトリックス処理部62a、階調処理部62b、3次元LUT処理部62c、色彩強調部62dおよび構造強調部62eを備えている。マトリックス処理部62a、階調処理部62bおよび3次元LUT処理部62cは、RGB信号に対して色変換処理を施すものである。具体的には、RGB信号に対して、マトリックス処理部62aによって3×3のマトリックス処理が施され、階調処理部62bによって階調処理が施され、3次元LUT処理部62cによって3次元LUT処理が施される。
 階調処理部62bには、RGB信号の入力値と出力とを対応付けたRGB階調テーブルが予め設定されており、階調処理部62bは、このRGB階調テーブルを用いて、入力されたRGB信号に対して階調処理を施すものである。
 図5は、階調処理部62bの具体的な構成を示すブロック図である。階調処理部62bは、図5に示すように、第1LUT処理部70と、第2LUT処理部71と、輝度算出部72とを備えている。
 第1LUT処理部70は、通常光観察モードにおける通常画像生成の際に用いられる通常画像用のRGB階調テーブルが予め設定されたものである。
 第2LUT処理部71は、通常光観察モードにおける特殊画像生成の際に用いられる特殊画像用のRGB階調テーブルが予め設定されたものである
 第1LUT処理部70と第2LUT処理部71とは、通常画像生成の指示入力を受けた場合と特殊画像生成の指示入力を受けた場合とで切り替えて使用される。
 第2LUT処理部71には、RGB信号から算出される輝度毎のRGB階調テーブルがそれぞれ設定されている。輝度算出部72は、階調処理部62bに入力されたRGB信号の輝度を算出するものである。輝度算出部72によって算出された輝度は、第2LUT処理部71に入力され、第2LUT処理部71は、入力された輝度に応じたRGB階調テーブルを用いてRGB信号に対して階調処理を施すものである。
 図6Iおよび図6IIは、輝度毎に設定されたRGB階調テーブルの一例を示す図である。以下、図6Iおよび図6IIに示すRGB階調テーブルについて説明するが、ここでは、説明を分かりやすくするために、撮像対象がグレーであり、内視鏡12から出力されたR信号、G信号およびB信号の比が1:1:1である場合について説明する。
 図6Iは、入力値であるR信号、G信号およびB信号が、それぞれR_in1、G_in1およびB_in1である場合に用いられるRGB階調テーブルの一例を示しており、図6IIは、入力値であるR信号、G信号およびB信号が、それぞれR_in2、G_in2およびB_in2である場合に用いられるRGB階調テーブルの一例を示している。すなわち、図6Iは、R_in1、G_in1およびB_in1から算出される輝度に応じたRGB階調テーブルであり、図6IIは、R_in2、G_in2およびB_in2から算出される輝度に応じたRGB階調テーブルである。なお、図6Iおよび図6IIにおいては、R_in1、G_in1およびB_in1を「A」で示し、R_in2、G_in2およびB_in2を「B」で示している。
 図6Iおよび図6IIに示すように、RGB階調テーブルは、R信号の入力値と出力値とを対応付けたR階調テーブルRC1,RC2と、G信号の入力値と出力値とを対応付けたG階調テーブルGC1,GC2と、B信号の入力値と出力値とを対応付けたB階調テーブルBC1,BC2を備えている。
 R階調テーブルRC1,RC2と、G階調テーブルGC1,GC2と、B階調テーブルBC1,BC2とは、たとえば正常粘膜など特定の撮像対象の色相および彩度が所定の位置になるようにしつつ、発赤などの他の撮像対象の色が強調されるような階調テーブルであることが好ましい。すなわち、正常粘膜を表すRGB信号については、階調処理後にそのRGBの比率が所定の比率になるようにし、発赤を表すRGB信号については、階調処理後に上記所定の比率よりもR成分の比率が大きくなるような階調テーブルとすることが好ましい。このような階調テーブルは、正常粘膜を表すRGB信号の分布と、発赤を表すRGB信号の分布とを予め取得し、それらの分布と出力値との関係を解析することによって設定することができる。
 さらに、図6Iに示すRGB階調テーブルと、図6IIに示すRGB階調テーブルとは、上述したように輝度毎に設定されたRGB階調テーブルであるが、これらのRGB階調テーブルは、入力値のRGB信号から算出される輝度が変化した場合でも、RGBの比率が所定の比率のRGB信号の入力に対して、出力値のRGBの比率が所定の比率となるように設定されている。すなわち、図6Iおよび図6IIに示す各RGB階調テーブルにRGBの比率が第1の比率であるRGB信号(たとえば正常粘膜を撮像して得られたRGB信号)が入力された場合、RGBの比率が第2の比率となる出力値が各RGB階調テーブルから出力されるように設定されている。
 具体的には、図6Iに示すRGB階調テーブルは、入力値がAの場合に用いられるRGB階調テーブルであり、R信号の出力値はR_out1、G信号の出力値はG_out1およびB信号の出力値はB_out1になる。一方、図6IIに示すRGB階調テーブルは、入力値がBの場合に用いられるRGB階調テーブルであり、R信号の出力値はR_out2、G信号の出力値はG_out2およびB信号の出力値はB_out2になる。そして、図6Iおよび図6IIに示すRGB階調テーブルは、R_out1とG_out1とB_out1の比率と、R_out2とG_out2とB_out2の比率とが同じになるように設定されている。なお、図6Iに示す直線RL,BL,GLと図6IIに示す直線RL,BL,GLとは同じ直線であり、R_out1とG_out1とB_out1の比率と、R_out2とG_out2とB_out2の比率とが変わっていないことが分かる。
 このように輝度毎にRGB階調テーブルを設定し、所定の入力値の輝度が変化した場合でも、出力値のR信号、G信号およびB信号の比率が変化しないようにすることによって、たとえば内視鏡12によって大腸または小腸などの管腔臓器を撮像した際、明るさが異なる手前の撮像範囲と奥側の撮像範囲とでたとえば正常粘膜のカラーバランスを維持することができ、より正確な色を表した画像を生成することができる。これにより、より高精度な画像診断を行うことができる。
 第2LUT処理部71は、具体的には、画素毎について、下式に従って輝度Yを算出し、その輝度に応じたRGB階調テーブルを用いて、画素毎の出力値R_out,G_out,B_outを算出する。なお、下式におけるLUT_R[R][Y]が輝度に応じたR階調テーブルであり、LUT_G[G][Y]が輝度に応じたG階調テーブルであり、LUT_B[B][Y]が輝度に応じたB階調テーブルである。
Y=0.3×R_in+0.6×G_in+0.1×B_in
R_out=LUT_R[R_in][Y]
G_out=LUT_G[G_in][Y]
B_out=LUT_B[B_in][Y]
 なお、輝度Yは、0~255の値となるが、RGB階調テーブルは、0~255の値の全てについて設定する必要はなく、0~255の値のうち一部の輝度の値についてのみ設定するようにしてもよい。
 そして、たとえば入力値R_in,G_in,B_inから算出された輝度Yに対応するRGB階調テーブルが予め設定されていない場合には、その輝度Yの前後の輝度の値について設定されたRGB階調テーブルを用いて出力値R_out,G_out,B_outを算出するようにすればよい。具体的には、前後の輝度に設定されたRGB階調テーブルを補間して用いるようにすればよい。
 また、撮像素子48が、CMYGの補色系のカラーフィルタを備えたものである場合には、CMYG信号をRGB信号に変換した後、上述したRGB階調テーブルを用いた階調処理を行うようすればよい。
 図2に戻り、色彩強調部62dは、ユーザによる設定入力を受け付けて色変換済のRGB信号に対して、さらに各種の色彩強調処理を施すものである。構造強調部62eは、色彩強調処理済のRGB信号に対して、空間周波数強調などの構造強調処理を行うものである。
 マトリックス処理部62a、色彩強調部62dおよび構造強調部62eには、それぞれ通常画像生成用のパラメータと特殊画像生成用のパラメータとが予め設定されている。
 通常画像生成と特殊画像生成は、ユーザが入力装置20から指示入力することによって切り替えられる。なお、入力装置20からの指示入力に限らず、操作部22に通常画像生成と特殊画像生成とを切り替えるスイッチを設けるようにしてもよい。
 ユーザによって通常画像生成の指示入力がされた場合には、通常光画像生成部62に入力されたRGB信号に対して各部において通常画像用の処理が施され、通常画像信号として通常光画像生成部62から表示制御部65に出力される。ユーザによって特殊画像生成の指示入力がされた場合には、通常光画像生成部62に入力されたRGB信号に対して各部において特殊画像用の処理が施され、特殊画像信号として通常光画像生成部62から表示制御部65に出力される。
 狭帯域光画像生成部64は、マトリックス処理部64a、階調処理部64b、3次元LUT処理部64c、色彩強調部64dおよび構造強調部64eを備えている。マトリックス処理部64a、階調処理部64bおよび3次元LUT処理部62cは、RGB信号に対して狭帯域画像用の色変換処理を施すものである。具体的には、RGB信号に対して、マトリックス処理部64aによって3×3のマトリックス処理が施され、階調処理部64bによって階調処理が施され、3次元LUT処理部64cによって3次元LUT処理が施される。
 階調処理部64bにも、階調処理部62bと同様に、RGB信号の入力値と出力とを対応付けたRGB階調テーブルが予め設定されており、階調処理部64bは、このRGB階調テーブルを用いて、入力されたRGB信号に対して階調処理を施すものである。
 階調処理部64bの基本的な構成は、階調処理部62bと同様であり、図7に示すように、第1LUT処理部73と、第2LUT処理部74と、輝度算出部75とを備えている。
 第1LUT処理部73は、狭帯域光観察モードにおける狭帯域画像生成の際に用いられる狭帯域画像用のRGB階調テーブルが予め設定されたものである。
 第2LUT処理部74は、狭帯域光観察モードにおける特殊狭帯域画像生成の際に用いられる特殊狭帯域画像用のRGB階調テーブルが予め設定されたものである。
 第1LUT処理部73と第2LUT処理部74とは、狭帯域画像生成の指示入力を受けた場合と特殊狭帯域画像生成の指示入力を受けた場合とで切り替えて使用される。
 そして、第2LUT処理部74は、通常光画像生成部62の第2LUT処理部71と同様に、輝度毎に設定されたRGB階調テーブルを有するものである。この輝度毎のRGB階調テーブルも、輝度毎の各RGB階調テーブルにRGBの比率が第1の比率であるRGB信号が入力された場合、RGBの比率が第2の比率となる出力値が各RGB階調テーブルから出力されるように設定されている。図8および図9は、階調処理部64bに設定されるRBG階調テーブルの具体的な例を示す図である。
 図8Iおよび図8IIに示すRGB階調テーブルは、入力されるRGB信号のRGBの比率(第1の比率)と階調処理後のRGB信号のRGBの比率(第2の比率)とが同じになるように設定されたものである。そして、図8Iに示すRGB階調テーブルは、輝度がY=82の場合に用いられるRGB階調テーブルであり、図8IIに示すRGB階調テーブルは、輝度がY=143の場合に用いられるRGB階調テーブルである。
 図8Iに示すRGB階調テーブル(RC1,GC1,BC1)は、R_in=128,G_in=67,B_in=34のRGB信号に対して、R_out=128,G_out=67,B_out=34の出力値を出力する。このとき入力されるRGB信号のRGBの比率は、R:G:B=1:0.53:0.27であり、出力値のRGBの比率も、R:G:B=1:0.53:0.27である。
 一方、図8IIに示すRGB階調テーブル(RC2,GC2,BC2)は、R_in=224,G_in=118,B_in=59のRGB信号に対して、R_out=224,G_out=118,B_out=59の出力値を出力する。このとき入力されるRGB信号のRGBの比率は、R:G:B=1:0.53:0.27であり、出力値のRGBの比率も、R:G:B=1:0.53:0.27である。
 すなわち、図8Iに示すRGB階調テーブルと図8IIに示すRGB階調テーブルは、ともにRGBの比率がR:G:B=1:0.53:0.27(第1の比率)であるRGB信号が入力された場合、RGBの比率がR:G:B=1:0.53:0.27(第2の比率)となる出力値が各RGB階調テーブルから出力されるように設定されている。
 次に、図9Iおよび図9IIに示すRGB階調テーブルは、入力されるRGB信号のRGBの比率(第1の比率)がR:G:B=1:0.53:0.27の場合、階調処理後のRGB信号のRGBの比率(第2の比率)がR:G:B=1:0.5:0.3となるように設定されたものである。
 そして、図9Iに示すRGB階調テーブル(RC1,GC1,BC1)は、輝度がY=82の場合に用いられるRGB階調テーブルであり、図9IIに示すRGB階調テーブルは、輝度がY=143の場合に用いられるRGB階調テーブルである。
 図9Iに示すRGB階調テーブルは、R_in=34,G_in=67,B_in=128のRGB信号に対して、R_out=128,G_out=63,B_out=38の出力値を出力する。このとき入力されるRGB信号のRGBの比率は、上述したようにR:G:B=1:0.53:0.27であり、出力値のRGBの比率は、R:G:B=1:0.5:0.3である。
 一方、図9IIに示すRGB階調テーブル(RC2,GC2,BC2)は、R_in=224,G_in=118,B_in=59のRGB信号に対して、R_out=224,G_out=111,B_out=66の出力値を出力する。このとき入力されるRGB信号のRGBの比率は、上述したようにR:G:B=1:0.53:0.27であり、出力値のRGBの比率は、R:G:B=1:0.5:0.3である。
 すなわち、図9Iに示すRGB階調テーブルと図9IIに示すRGB階調テーブルは、ともにRGBの比率がR:G:B=1:0.53:0.27(第1の比率)であるRGB信号が入力された場合、RGBの比率がR:G:B=1:0.5:0.3(第2の比率)となる出力値が各RGB階調テーブルから出力されるように設定されている。
 狭帯域光観察モードで強調表示させたい萎縮粘膜は、萎縮粘膜と正常粘膜が同一輝度の場合、G信号およびB信号が正常粘膜に比べて大きく、R信号が正常粘膜に比べて小さい。また、発赤は、発赤と正常粘膜が同一輝度の場合、R信号が正常粘膜に比べて大きく、G信号およびB信号が正常粘膜に比べて小さい。図8および図9に示すRGB階調テーブルのように、基準点よりも高い入力値に対しては入力値に対する出力値の比率を基準点より高くし、基準点より低い入力値に対しては入力値に対する出力値の比率を基準点より低くすることで色強調することが可能になる。すなわち、各RGB階調テーブルは、入力値が大きくなるほど入力値に対する出力値の比が大きくなるように設定することが好ましい。
 より具体的には、各RGB階調テーブルは、正常粘膜を撮像して得られたRGB信号が入力された場合のRの入力値に対するRの出力値の比よりも発赤を有する粘膜を撮像して得られたRGB信号が入力された場合のRの入力値に対するRの出力値の比を大きくするものであることが好ましい。
 また、各RGB階調テーブルは、正常粘膜を撮像して得られたRGB信号が入力された場合のRの入力値に対するRの出力値の比よりも萎縮粘膜を撮像して得られたRGB信号が入力された場合のRの入力値に対するRの出力値の比を小さくするものであることが好ましい。
 図2に戻り、色彩強調部64dは、ユーザによる設定入力を受け付けて色変換済のRGB信号に対して、さらに各種の色彩強調処理を施すものである。構造強調部64eは、色彩強調処理済のRGB信号に対して、空間周波数強調などの構造強調処理を行うものである。
 マトリックス処理部64a、色彩強調部64dおよび構造強調部64eには、それぞれ狭帯域画像生成用のパラメータと特殊狭帯域画像生成用のパラメータとが予め設定されている。
 狭帯域画像生成と特殊狭帯域画像生成は、ユーザが入力装置20から指示入力することによって切り替えられる。なお、入力装置20からの指示入力に限らず、操作部22に狭帯域画像生成と特殊狭帯域画像生成とを切り替えるスイッチを設けるようにしてもよい。
 ユーザによって狭帯域画像生成の指示入力がされた場合には、狭帯域光画像生成部64に入力されたRGB信号に対して各部において狭帯域画像用の処理が施され、狭帯域画像信号として狭帯域光画像生成部64から表示制御部65に出力される。ユーザによって特殊狭帯域画像生成の指示入力がされた場合には、狭帯域光画像生成部64に入力されたRGB信号に対して各部において特殊狭帯域画像用の処理が施され、特殊狭帯域画像信号として狭帯域光画像生成部64から表示制御部65に出力される。
 表示制御部65は、通常光画像生成部62または狭帯域光画像生成部64から出力された通常画像信号、特殊画像信号、狭帯域画像信号または特殊狭帯域画像信号を、モニタ18で表示可能な表示画像信号に変換する。モニタ18は、表示画像信号に基づいて、通常画像、特殊画像、狭帯域画像または特殊狭帯域画像を表示する。
 次に、本実施形態の内視鏡システムの作用について、図10に示すフローチャートを参照しながら説明する。
 まず、ユーザによってモード切替スイッチ22bが操作され、通常光観察モードまたは狭帯域光観察モードが選択されて設定される(S10)。通常光観察モードが設定された場合には、内視鏡12によって撮像対象に対して白色光WLが照射され、撮像対象を撮像することによって撮像素子48から出力されたRGB信号は、プロセッサ装置16の画像信号取得部60によって取得され、デモザイク処理が施される(S12)。
 デモザイク処理の施されたRGB信号はノイズ除去部61に入力され、ノイズ除去部61においてノイズ除去処理が施された後、通常光画像生成部62に入力される。通常光画像生成部62に入力されたRGB信号は、マトリックス処理部62aにおいてマトリックス処理が施される。
 そして、ユーザによって通常画像生成の指示入力がされた場合には(S14、通常画像)、階調処理部62bの第1LUT処理部70にRGB信号が入力され、そのRGB信号に対して通常画像用のRGB階調テーブルを用いた階調処理が施される(S24)。
 階調処理の施されたRGB信号は3次元LUT処理部62cに入力されて3次元LUT処理が施された後、色彩強調部62dに入力されて色彩強調処理が施される。次いで、色彩強調処理済のRGB信号に対して構造強調部62eにおいて構造強調処理が施されて通常画像信号が生成され(S26)、表示制御部65に出力される。表示制御部65は、入力された通常画像信号に基づいてモニタ18に通常画像を表示させる(S28)。
 ユーザが処理を終了したいと考えた場合には、処理の終了指示が入力されて処理を終了する(S48,YES)。または、処理を終了しない場合には(S48,NO)、S10に戻り、引き続き通常光観察モードが継続されるか、狭帯域光観察モードに切り換えられる。
 一方、ユーザによって特殊画像生成の指示入力がされた場合には(S14、特殊画像)、RGB信号は第2LUT処理部71と輝度算出部72に入力される。輝度算出部72は、入力された画素毎のRGB信号に基づいて、画素毎に輝度を算出する(S16)。そして、輝度算出部72によって算出された輝度は第2LUT処理部71に出力され、第2LUT処理部71は、入力された輝度に基づいて、輝度毎に設定された特殊画像用のRGB階調テーブルを用いて、画素毎のRGB信号に対して階調処理を施す(S18)。
 階調処理の施されたRGB信号は3次元LUT処理部62cに入力されて3次元LUT処理が施された後、色彩強調部62dに入力されて色彩強調処理が施される。次いで、色彩強調処理済のRGB信号に対して構造強調部62eにおいて構造強調処理が施されて特殊画像信号が生成され(S20)、表示制御部65に出力される。表示制御部65は、入力された特殊画像信号に基づいてモニタ18に特殊画像を表示させる(S22)。
 ユーザが処理を終了したいと考えた場合には、処理の終了指示が入力されて処理を終了する(S48,YES)。または、処理を終了しない場合には(S48,NO)、S10に戻り、引き続き通常光観察モードが継続されるか、狭帯域光観察モードに切り換えられる。
 ユーザによってモード切替スイッチ22bが操作され、狭帯域光観察モードが設定された場合には、内視鏡12によって撮像対象に対して狭帯域光SLが照射され、撮像対象を撮像することによって撮像素子48から出力されたRGB信号は、プロセッサ装置16の画像信号取得部60によって取得され、デモザイク処理が施される(S30)。
 デモザイク処理の施されたRGB信号はノイズ除去部61に入力され、ノイズ除去部61においてノイズ除去処理が施された後、狭帯域光画像生成部64に入力される。狭帯域光画像生成部64に入力されたRGB信号は、マトリックス処理部64aにおいてマトリックス処理が施された後、階調処理部64bに入力される。
 そして、ユーザによって狭帯域画像生成の指示入力がされた場合には(S32、狭帯域画像)、階調処理部64bの第1LUT処理部73にRGB信号が入力され、そのRGB信号に対して狭帯域画像用のRGB階調テーブルを用いた階調処理が施される(S42)。
 階調処理の施されたRGB信号は3次元LUT処理部64cに入力されて3次元LUT処理が施された後、色彩強調部64dに入力されて色彩強調処理が施される。次いで、色彩強調処理済のRGB信号に対して構造強調部64eにおいて構造強調処理が施されて狭帯域画像信号が生成され(S44)、表示制御部65に出力される。表示制御部65は、入力された狭帯域画像信号に基づいてモニタ18に狭帯域画像を表示させる(S46)。
 ユーザが処理を終了したいと考えた場合には、処理の終了指示が入力されて処理を終了する(S48,YES)。または、処理を終了しない場合には(S48,NO)、S10に戻り、引き続き通常光観察モードが継続されるか、狭帯域光観察モードに切り換えられる。
 一方、ユーザによって特殊狭帯域画像生成の指示入力がされた場合には(S32、特殊画像)、RGB信号は第2LUT処理部74と輝度算出部75に入力される。輝度算出部75は、入力された画素毎のRGB信号に基づいて、画素毎に輝度を算出する(S34)。そして、輝度算出部75によって算出された輝度は第2LUT処理部74に出力され、第2LUT処理部74は、入力された輝度に基づいて、輝度毎に設定された特殊狭帯域画像用のRGB階調テーブルを用いて、画素毎のRGB信号に対して階調処理を施す(S36)。
 階調処理の施されたRGB信号は3次元LUT処理部64cに入力されて3次元LUT処理が施された後、色彩強調部64dに入力されて色彩強調処理が施される。次いで、色彩強調処理済のRGB信号に対して構造強調部64eにおいて構造強調処理が施されて特殊狭帯域画像信号が生成され(S38)、表示制御部65に出力される。表示制御部65は、入力された特殊狭帯域画像信号に基づいてモニタ18に特殊狭帯域画像を表示させる(S40)。
 ユーザが処理を終了したいと考えた場合には、処理の終了指示が入力されて処理を終了する(S48,YES)。または、処理を終了しない場合には(S48,NO)、S10に戻り、引き続き狭帯域光観察モードが継続されるか、通常光観察モードに切り換えられる。
 次に、本発明の内視鏡画像信号処理装置および方法並びにプログラムの第2の実施形態を用いた内視鏡システムについて説明する。図11は、本実施形態の内視鏡システムの階調処理部の概略構成を示す図である。なお、図11は、図2に示す通常光画像生成部62の階調処理部62bと特殊光画像生成部64の階調処理部64bとをまとめて示した図である。第2の実施形態の内視鏡システムの階調処理部62b,64bは、第1の実施形態の内視鏡システムの各階調処理部62b,64bに対して、さらに低周波画像生成処理部66,67をそれぞれ設けたものである。
 低周波画像生成処理部66,67は、画像信号取得部60においてデモザイク処理の施されたRGB信号に対して低周波画像生成処理を施すものである。そして、階調処理部62b,64bの輝度算出部72,75は、低周波画像生成処理部66,67において低周波画像生成処理の施されたRGB信号を用いて輝度を算出する。低周波画像生成処理は、いわゆるボケ処理であり、公知のフィルタ処理などを用いることができる。
 このように輝度を算出する際に低周波画像生成処理の施されたRGB信号を用いることによって、極端に輝度が高いノイズ信号などを除去することができ、構造をとらえやすくなるので、より適切なRGB階調テーブルを用いることができる。なお、階調処理部62bは、階調処理の入力値としては、低周波画像生成処理の施されていないRGB信号を用いる。
 なお、その他の構成については、上記第1の実施形態の内視鏡システム10と同様である。
 また、上記第1および第2の実施形態の内視鏡システム10,11においては、RGB階調テーブルとして、R階調テーブルRC1,RC2,B階調テーブルBC1,BC2およびG階調テーブルGC1,GC2を用い、入力値のR_in,G_inおよびB_inに対して直接、R_out,G_outおよびB_outを出力する階調テーブルを用いるようにしたが、RGB階調テーブルの構成としてはこれに限られるものではない。
 たとえばRGB信号をRGB以外の色空間に変換する色空間変換テーブルと、その変換した色空間の階調テーブルと、その階調テーブルの出力値を再びRGB信号に変換するRGB変換テーブルとからRGB階調テーブルを構成するようにしてもよい。すなわち、本発明のRGB階調テーブルは、このようにRGB以外の色空間の階調テーブルを用いて階調処理を行うものも含むものとする。
 具体的には、たとえばRGB信号をHCL色空間の信号に変換する。そして、この変換によって得られる入力値の輝度In_LとC(彩度)の出力値Out_Cとを対応付けたC階調テーブルと、入力値の輝度In_LとH(色相)の出力値Out_Hとを対応付けたH階調テーブルと、入力値の輝度In_LとL(明度)の出力値Out_Lとを対応付けたL階調テーブルとを予め設定しておき、これらの階調テーブルを用いて、輝度In_Lに応じた出力値Out_C,Out_H,Out_Lを算出する。
 C階調テーブル、H階調テーブルおよびL階調テーブルは、図12に示すように、輝度が変化しても所定の色相を維持し、明度および彩度が輝度に応じて変化するように設定されていることが好ましい。このように輝度が変化しても色相は変化しないので、上記第1および第2の実施形態と同様に、輝度の変化に対してカラーバランスを維持する効果を得ることができる。
 そして、出力値Out_C,Out_H,Out_Lを、RGB変換テーブルを用いて再びRGB信号に変換する。RGB信号に変換された後の処理については、上記第1および第2の実施形態と同様である。
 また、上記第1および第2の実施形態の内視鏡システム10,11においては、輝度毎のRGB階調テーブルを予め設定するようにしたが、輝度の代わりにRGB信号のうちのR成分のR信号の大きさ毎のRGB階調テーブルを予め設定するようにしてもよい。長波長の光は、血管などが多い粘膜に対する吸収特性がその他のG成分およびB成分よりも低い。したがって、R信号は、粘膜の吸収特性の影響を受けずに粘膜の表面のおおまかな構造を表した信号となるので、輝度の代わりに用いることができる。
 このように輝度の代わりにR信号を用いるようにした場合には、RGB信号から輝度を算出する構成を省略することができ、処理を簡略化することができる。なお、輝度の代わりにR信号を用いる場合にも、0~255の値の全てについてRGB階調テーブルを設定する必要はなく、0~255の値のうち一部のR信号の値についてのみ設定するようにしてもよい。輝度の代わりにR信号を用いる場合においてもボケ処理を施したR信号を用いるようにしてもよい。
 また、上記第1および第2の実施形態の内視鏡システムにおいては、通常光観察モードと狭帯域光観察モードとで、異なるRGB階調テーブルを備えるようにしてもよい。
 また、上記第1および第2の実施形態の内視鏡システムにおいては、通常光を撮像対象に照射する通常光観察モードにおいて、通常画像を生成するようにしたが、さらに通常光画像生成部62に入力されたRGB信号に対して予め設定されたマトリクス演算を施すことによって、所望の波長帯域の画像信号を生成するようにしてもよい。具体的には、上述したマトリクス演算を行うことによって、たとえば狭帯域光観察モードにおいて取得されるようなRGB信号を生成するようにしてもよい。なお、このようなマトリクス演算としては、既に公知な演算方法を用いることができる。
 また、上記第1および第2の実施形態の内視鏡システムにおいては、狭帯域光を撮像対象に照射する狭帯域光観察モードにおいて、狭帯域画像を生成するようにしたが、さらに狭帯域光画像生成部64に入力されたRGB信号に対して予め設定されたマトリクス演算を施すことによって、所望の波長帯域の画像信号を生成するようにしてもよい。具体的には、上述したマトリクス演算を行うことによって、たとえば青紫色レーザ光VLの波長帯域の画像信号を生成するようにしてもよい。なお、このようなマトリクス演算としては、既に公知な演算方法を用いることができる。
 また、上記第1および第2の実施形態の内視鏡システム10,11では、粘膜の吸収物質に対して光吸収性が高い青色狭帯域光(青色レーザ光および青紫色レーザ光)を含む狭帯域光を用いた場合について説明したが、粘膜の吸収物質に対して光吸収性が高い緑色狭帯域光(例えば、540~560nmの波長成分)を含む光を用いるようにしてもよい。
 また、上記第1および第2の実施形態の内視鏡システム10,11においては、光源として、青色レーザ光源34と青紫色レーザ光源36とを用い、蛍光体44に青色レーザ光を照射することによって白色光を得るようにしたが、光源装置14の構成は、これに限らず、その他の構成でもよい。
 具体的には、図13に示す内視鏡システム15のように、光源装置14が、V-LED(Violet Light Emitting Diode)42a、B-LED(Blue Light Emitting Diode)42b、G-LED(Green Light Emitting Diode)42c、およびR-LED(Red Light Emitting Diode)42dを備えるようにしてもよい。光源装置14は、さらに4色のLED42a~42dの駆動を制御する光源制御部40と4色のLED42a~42dから発せられる4色の光の光路を結合する光路結合部43とを備えている。光路結合部43で結合された光は、ライトガイド41を介して、被検体内に照射される。
 図14に示すように、V-LED42aは、中心波長405±10nm、波長範囲380~420nmの紫色光Vを発生する。B-LED42bは、中心波長460±10nm、波長範囲420~500nmの青色光Bを発生する。G-LED42cは、波長範囲が480~600nmに及ぶ緑色光Gを発生する。R-LED42dは、中心波長620~630nmで、波長範囲が600~650nmに及ぶ赤色光Rを発生する。
 光源制御部40は、通常光観察モード、第1狭帯域光観察モード、及び第2狭帯域光観察モードのいずれの観察モードにおいても、V-LED42a、B-LED42b、G-LED42c、R-LED42dを点灯する。したがって、紫色光V、青色光B、緑色光G、及び赤色光Rの4色の光が混色した光が、観察対象に照射される。また、光源制御部40は、通常光観察モード時には、紫色光V、青色光B、緑色光G、赤色光R間の光量比がVc:Bc:Gc:Rcとなるように、各LED42a~42dを制御する。一方、光源制御部40は、第1及び第2狭帯域光観察モード時には、紫色光V、青色光B、緑色光G、赤色光R間の光量比がVs:Bs:Gs:Rsとなるように、各LED42a~42dを制御する。なお、第1狭帯域光観察モードは、ピロリ菌の除菌が成功したか否かを判断する場合に用いられ、第1狭帯域画像をモニタ18上に表示するモードである。第2狭帯域光観察モードは、ピロリ菌に感染しているか否かを判断する場合に用いられ、第2狭帯域画像をモニタ18上に表示するモードである。
 また、上記第1および第2の実施形態の内視鏡システム10,11においては、同時式撮像素子を用いるようにしたが、本発明は、いわゆる面順次方式の内視鏡システムにも適用することができる。
 面順次方式の内視鏡システムにおいては、通常光観察モードの場合には、R(赤)フィルタ、G(緑)フィルタおよびB(青)フィルタが周方向に沿って設けられた回転フィルタが回転することで、青色光、緑色光および赤色光が撮像対象に順次照射される。
 青色光、緑色光および赤色光の照射による撮像対象からの反射像がモノクロの撮像素子によって撮像され、撮像素子からR信号、G信号およびB信号が順次出力され、この信号が画像信号取得部60によって取得されることになる。
 また、狭帯域光観察モードにおいては、中心波長415nmの青色狭帯域光を透過させるBnフィルタ、GフィルタおよびRフィルタが周方向に沿って設けられた回転フィルタを回転させることによって、撮像対象に対して青色狭帯域光、緑色光および赤色光が撮像対象に順次照射される。
 青色狭帯域光、緑色光および赤色光の照射による撮像対象からの反射像がモノクロの撮像素子によって撮像され、撮像素子からR信号、G信号およびBn信号が順次出力され、この信号が画像信号取得部60によって取得されることになる。なお、Bn信号は、B信号と同様に取り扱われて処理される。
 また、本発明は、第1および第2の実施形態の内視鏡システム10,11のような挿入部21を備えた内視鏡システムに限らず、カプセル内視鏡にも適用可能である。
10,11,15    内視鏡システム
12  内視鏡
13  ユニバーサルコード
14  光源装置
16  プロセッサ装置
18  モニタ
20  入力装置
21  挿入部
22  操作部
22a アングルノブ
22b モード切替スイッチ
22c ズーム操作部
23  湾曲部
24  先端部
24a 照明光学系
24b 撮像光学系
34  青色レーザ光源
36  青紫色レーザ光源
40  光源制御部
41  ライトガイド
43  光路結合部
44  蛍光体
45  照明レンズ
46  撮像レンズ
47  ズームレンズ
48  撮像素子
50  CDS/AGC回路
51  ガンマ変換部
52  A/D変換部
60  画像信号取得部
62b 階調処理部
62  ノイズ除去部
63  通常光画像生成部
64  狭帯域光画像生成部
65  表示制御部
66  ボケ処理部
70,73   第1LUT処理部
71,74   第2LUT処理部
72,75   輝度算出部
A   入力値
B   入力値
BC,BC1,BC2  B階調テーブル
GC,GC1,GC2  G階調テーブル
RC,RC1,RC2  R階調テーブル
RL,BL,GL    直線
SL  狭帯域光
BL  青色レーザ光
FL  蛍光
VL  青紫色レーザ光
WL  白色光
V   紫色光
R   赤色光
G   緑色光
B   青色光
42a V-LED
42b B-LED
42c G-LED
42d R-LED

Claims (15)

  1.  内視鏡を用いて撮像対象を撮像して得られたRGB信号を取得する画像信号取得部と、
     RGBの入力値と出力値とを対応付けたRGB階調テーブルを用いて、前記RGB信号に対して階調処理を施す階調処理部とを備え、
     前記RGB階調テーブルが、輝度またはR成分の大きさ毎にそれぞれ設定され、かつ該輝度またはR成分の大きさ毎のRGB階調テーブルが、該各RGB階調テーブルにRGBの比率が第1の比率である前記RGB信号が入力された場合、RGBの比率が第2の比率となる出力値が前記各RGB階調テーブルから出力されるように設定されており、
     前記階調処理部が、前記RGB信号に基づいて輝度またはR成分を取得し、該輝度またはR成分の大きさに応じた前記RGB階調テーブルを用いて前記階調処理を施すことを特徴とする内視鏡画像信号処理装置。
  2.  前記階調処理部が、前記RGB信号を構成する各画素について輝度またはR成分をそれぞれ取得し、該画素毎に前記階調処理を施す請求項1記載の内視鏡画像信号処理装置。
  3.  前記RGB階調テーブルが、一部の輝度またはR成分の大きさについてのみ設定されている請求項1または2記載の内視鏡画像信号処理装置。
  4.  前記階調処理部が、前記一部の輝度またはR成分の大きさ毎に設定されたRGB階調テーブルを補間して用いて前記階調処理を施す請求項3記載の内視鏡画像信号処理装置。
  5.  前記輝度またはR成分の大きさ毎のRGB階調テーブルが、前記第1の比率であるRGB信号が入力された場合に色相を維持して、明度および彩度が変化する出力値を出力する請求項1から4いずれか1項記載の内視鏡画像信号処理装置。
  6.  前記RGB信号に低周波画像生成処理を施して低周波画像を生成する低周波画像生成処理部を備え、
     前記階調処理部が、前記低周波画像に基づいて輝度またはR成分を取得する請求項1から5いずれか1項記載の内視鏡画像信号処理装置。
  7.  前記RGB信号が、狭帯域光を含む照明光が照射された前記撮像対象を撮像して得られた請求項1から6いずれか1項記載の内視鏡画像信号処理装置。
  8.  前記狭帯域光が、青色狭帯域光または緑色狭帯域光である請求項7記載の内視鏡画像信号処理装置。
  9.  前記RGB信号が、前記撮像対象として管腔臓器を撮像して得られた請求項1から8いずれか1項記載の内視鏡画像信号処理装置。
  10.  前記第1の比率が、正常粘膜を撮像して得られたRGB信号のRGBの比率である請求項1から9いずれか1項記載の内視鏡画像信号処理装置。
  11.  前記各RGB階調テーブルが、正常粘膜を撮像して得られたRGB信号が入力された場合のRの入力値に対するRの出力値の比よりも発赤を有する粘膜を撮像して得られたRGB信号が入力された場合のRの入力値に対するRの出力値の比を大きくする請求項1から10いずれか1項記載の内視鏡画像信号処理装置。
  12.  前記各RGB階調テーブルが、正常粘膜を撮像して得られたRGB信号が入力された場合のRの入力値に対するRの出力値の比よりも萎縮粘膜を撮像して得られたRGB信号が入力された場合のRの入力値に対するRの出力値の比を小さくする請求項1から11いずれか1項記載の内視鏡画像信号処理装置。
  13.  内視鏡を用いて撮像対象を撮像して得られたRGB信号を取得する画像信号取得部と、
     RGBの入力値と出力値とを対応付けたRGB階調テーブルを用いて、前記RGB信号に対して階調処理を施す階調処理部とを備え、
     前記RGB階調テーブルが、輝度またはR成分の大きさ毎にそれぞれ設定され、かつ該輝度またはR成分の大きさ毎のRGB階調テーブルが、該各RGB階調テーブルにRGBの比率が第1の比率である正常粘膜を撮像して得られた前記RGB信号が入力された場合、RGBの比率が第2の比率となる出力値が前記各RGB階調テーブルから出力されるように設定され、
     前記階調処理部が、記RGB信号を構成する各画素について輝度またはR成分をそれぞれ取得し、該輝度またはR成分の大きさに応じた前記RGB階調テーブルを用いて前記画素毎に前記階調処理を施すことを特徴とする内視鏡画像信号処理装置。
  14.  内視鏡を用いて撮像対象を撮像して得られたRGB信号を取得し、RGBの入力値と出力値とを対応付けたRGB階調テーブルを用いて前記RGB信号に対して階調処理を施す内視鏡画像信号処理方法において、
     前記RGB階調テーブルを、輝度またはR成分の大きさ毎にそれぞれ設定し、かつ該輝度またはR成分の大きさ毎のRGB階調テーブルが、該各RGB階調テーブルにRGBの比率が第1の比率である前記RGB信号が入力された場合、RGBの比率が第2の比率となる出力値が前記各RGB階調テーブルから出力されるように設定されており、
     前記RGB信号に基づいて輝度またはR成分を取得し、該輝度またはR成分の大きさに応じた前記RGB階調テーブルを用いて前記階調処理を施すことを特徴とする内視鏡画像信号処理方法。
  15.  コンピュータを、内視鏡を用いて撮像対象を撮像して得られたRGB信号を取得する画像信号取得部と、
     RGBの入力値と出力値とを対応付けたRGB階調テーブルを用いて、前記RGB信号に対して階調処理を施す階調処理部として機能させる内視鏡画像信号処理プログラムであって、
     前記RGB階調テーブルが、輝度またはR成分の大きさ毎にそれぞれ設定され、かつ該輝度またはR成分の大きさ毎のRGB階調テーブルが、該各RGB階調テーブルにRGBの比率が第1の比率である前記RGB信号が入力された場合、RGBの比率が第2の比率となる出力値が前記各RGB階調テーブルから出力されるように設定されており、
     前記階調処理部が、前記RGB信号に基づいて輝度またはR成分を取得し、該輝度またはR成分の大きさに応じた前記RGB階調テーブルを用いて前記階調処理を施すことを特徴とする内視鏡画像信号処理プログラム。
PCT/JP2017/012037 2016-03-30 2017-03-24 内視鏡画像信号処理装置および方法並びにプログラム WO2017170232A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201780020273.4A CN108882835B (zh) 2016-03-30 2017-03-24 内窥镜图像信号处理装置及方法以及存储介质
JP2018509245A JP6580778B2 (ja) 2016-03-30 2017-03-24 内視鏡画像信号処理装置およびプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-067333 2016-03-30
JP2016067333 2016-03-30

Publications (1)

Publication Number Publication Date
WO2017170232A1 true WO2017170232A1 (ja) 2017-10-05

Family

ID=59964516

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/012037 WO2017170232A1 (ja) 2016-03-30 2017-03-24 内視鏡画像信号処理装置および方法並びにプログラム

Country Status (3)

Country Link
JP (1) JP6580778B2 (ja)
CN (1) CN108882835B (ja)
WO (1) WO2017170232A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020208770A1 (ja) * 2019-04-11 2020-10-15 オリンパス株式会社 内視鏡装置、制御装置、内視鏡装置の作動方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013017638A (ja) * 2011-07-11 2013-01-31 Olympus Corp 画像処理装置、内視鏡装置及びプログラム
WO2016039269A1 (ja) * 2014-09-08 2016-03-17 オリンパス株式会社 内視鏡システム、内視鏡システムの作動方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4891990B2 (ja) * 2006-04-12 2012-03-07 オリンパスメディカルシステムズ株式会社 内視鏡装置
JP5215506B2 (ja) * 2010-12-17 2013-06-19 オリンパスメディカルシステムズ株式会社 内視鏡装置
JP5355827B1 (ja) * 2012-03-30 2013-11-27 オリンパスメディカルシステムズ株式会社 内視鏡装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013017638A (ja) * 2011-07-11 2013-01-31 Olympus Corp 画像処理装置、内視鏡装置及びプログラム
WO2016039269A1 (ja) * 2014-09-08 2016-03-17 オリンパス株式会社 内視鏡システム、内視鏡システムの作動方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020208770A1 (ja) * 2019-04-11 2020-10-15 オリンパス株式会社 内視鏡装置、制御装置、内視鏡装置の作動方法及びプログラム
JPWO2020208770A1 (ja) * 2019-04-11 2020-10-15
JP7123247B2 (ja) 2019-04-11 2022-08-22 オリンパス株式会社 内視鏡制御装置、内視鏡制御装置による照明光の波長特性の変更方法及びプログラム

Also Published As

Publication number Publication date
CN108882835B (zh) 2021-01-29
JPWO2017170232A1 (ja) 2019-01-31
JP6580778B2 (ja) 2019-09-25
CN108882835A (zh) 2018-11-23

Similar Documents

Publication Publication Date Title
JP6461739B2 (ja) 画像処理装置及び内視鏡システム並びに画像処理装置の作動方法
US10335014B2 (en) Endoscope system, processor device, and method for operating endoscope system
JP6121368B2 (ja) 医用画像処理装置及びその作動方法並びに内視鏡システム
JP5789280B2 (ja) プロセッサ装置、内視鏡システム、及び内視鏡システムの作動方法
JP6313884B2 (ja) 内視鏡システム及びその作動方法
JP5932894B2 (ja) 医用画像処理装置及びその作動方法
JP6099603B2 (ja) 医用画像処理装置及びその作動方法並びに内視鏡システム
JP7051845B2 (ja) 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法
JP6050286B2 (ja) 医用画像処理装置及びその作動方法並びに内視鏡システム
WO2018061414A1 (ja) 内視鏡システム、プロセッサ装置、及び内視鏡システムの作動方法
JP6909856B2 (ja) 内視鏡システム
JP5972312B2 (ja) 医用画像処理装置及びその作動方法
JP6556076B2 (ja) 内視鏡画像信号処理装置および方法並びにプログラム
JP2016107003A (ja) 医用画像処理装置及びその作動方法
WO2021060158A1 (ja) 内視鏡システム及びその作動方法
JP7096788B2 (ja) 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法
JP6580778B2 (ja) 内視鏡画像信号処理装置およびプログラム
JP6047536B2 (ja) 医用画像処理装置及びその作動方法
JP6247784B2 (ja) 医用画像処理装置及び内視鏡システム
JP6659817B2 (ja) 医用画像処理装置
JP6456459B2 (ja) 医用画像処理装置
JP6383829B2 (ja) 医用画像処理装置及びその作動方法並びに内視鏡システム
WO2019208236A1 (ja) 医療画像処理システム
JP2021184924A (ja) 医用画像処理装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2018509245

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17774769

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17774769

Country of ref document: EP

Kind code of ref document: A1