WO2019225691A1 - 内視鏡画像処理装置及び内視鏡システム - Google Patents

内視鏡画像処理装置及び内視鏡システム Download PDF

Info

Publication number
WO2019225691A1
WO2019225691A1 PCT/JP2019/020418 JP2019020418W WO2019225691A1 WO 2019225691 A1 WO2019225691 A1 WO 2019225691A1 JP 2019020418 W JP2019020418 W JP 2019020418W WO 2019225691 A1 WO2019225691 A1 WO 2019225691A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
brightness correction
point image
endoscope
point
Prior art date
Application number
PCT/JP2019/020418
Other languages
English (en)
French (fr)
Inventor
恭輔 水野
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Publication of WO2019225691A1 publication Critical patent/WO2019225691A1/ja
Priority to US17/099,026 priority Critical patent/US11265483B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/26Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes using light guides
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Definitions

  • the present invention relates to an endoscope image processing apparatus and an endoscope system, and more particularly, to an endoscope image processing apparatus and an endoscope system having a signal processing function for a near point image and a far point image.
  • endoscopes having elongated insertion portions have been widely used in the medical field and the like.
  • An operator or the like can observe the inside of the subject by inserting the insertion portion into the subject and displaying an endoscopic image in the subject on a display device.
  • the endoscopic image displayed on the display device is adjusted to an appropriate brightness by controlling the amount of illumination light or the aperture based on the brightness of the acquired endoscopic image.
  • the near point image is an image obtained when the distal end portion of the insertion portion approaches the subject
  • the illumination range of illumination light emitted from two illumination windows overlaps when the subject is away from the distal end of the insertion portion, but when the subject is close to the distal end, the illumination light directly hits. Since there is no region, light distribution unevenness may occur in the endoscopic image.
  • the brightness of the dark area is detected by detecting a dark pixel having a pixel value equal to or less than a predetermined threshold in the endoscopic image and increasing only the pixel value of the dark pixel by a predetermined gain. There is a way to increase it.
  • the present invention provides an endoscope image processing apparatus and endoscope that can reduce uneven light distribution in a near point image in an endoscope image processing apparatus that performs signal processing on a near point image and a far point image.
  • the purpose is to provide a system.
  • An endoscope image processing apparatus performs signal processing on a near-point image captured at a near point with respect to a subject and a far-point image captured at a far point with respect to the subject.
  • An endoscopic image processing apparatus for performing a storage unit that stores a first threshold value for determining a first dark part in the input near point image, and according to an acquisition timing of the near point image The first brightness correction is performed on the near point image based on the first threshold value, and the far point image is determined based on the second threshold value according to the acquisition timing of the far point image.
  • a brightness correction unit that performs the second brightness correction or does not perform the second brightness correction for the far-point image.
  • An endoscope system includes the endoscope image processing device according to one aspect and an endoscope that acquires the near point image and the far point image.
  • FIG. 6 is a schematic diagram illustrating an example of a near point image when brightness correction is performed by a brightness correction circuit according to the first embodiment of the present invention. It is a block diagram which shows the typical structure of the endoscope apparatus concerning the 2nd Embodiment of this invention.
  • FIG. 1 is a configuration diagram showing a schematic configuration of an endoscope apparatus according to the present embodiment.
  • the endoscope apparatus 1 is an endoscope system that includes an endoscope 2, a main body device 3, and a display device 4.
  • the endoscope 2 includes an elongated insertion portion 5, an operation portion 6 to which the proximal end of the insertion portion 5 is connected, and a cable 7 extending from the operation portion 6.
  • the endoscope 2 is connected to the main body device 3 by a connector provided at the proximal end portion of the cable 7.
  • the insertion portion 5 includes a distal end portion 11, a bending portion 12, and a flexible tube portion 13 in order from the distal end.
  • the tip 11 has an observation window 14 and two illumination windows 15.
  • An objective optical system and an image sensor 16 are disposed behind the observation window 14.
  • a plurality of signal lines connected to the image sensor 16 are inserted into the bending portion 12 and the flexible tube portion 13. In FIG. 1, only the signal line 16 a that transmits the imaging signal among the plurality of signal lines of the imaging element 16 is illustrated.
  • the two illumination windows 15 are disposed on the distal end surface 11a of the distal end portion 11 so as to sandwich the observation window 14 therebetween. Since the white illumination light from the two illumination windows 15 is emitted so as to extend in parallel with the optical axis of the objective optical system, the observation site of the subject is illuminated substantially evenly.
  • the endoscope apparatus 1 has a far point observation mode and a near point observation mode.
  • the far point observation mode is a so-called normal observation mode.
  • the far point means a middle far point.
  • the endoscopic image obtained in the far-point observation mode is a far-point image captured at a far point with respect to the subject.
  • the endoscopic image obtained in the near point observation mode is a near point image captured at a near point with respect to the subject.
  • the main body device 3 is an endoscope image processing device that performs signal processing on a near point image captured at a near point with respect to a subject and a far point image captured at a far point with respect to the subject. is there.
  • the distal end portion 11 is separated from the observation site of the subject by a predetermined distance or more, the two illumination ranges of the subject with the two illumination lights overlap. Therefore, the observation site of the subject is illuminated substantially evenly.
  • the two illumination ranges of the two illumination lights on the subject do not overlap. Therefore, the observation site of the subject is not illuminated substantially evenly. For example, since the two illumination ranges are separated, the central portion of the near point image becomes dark.
  • FIG. 2 is a diagram for explaining the illumination ranges of two illumination lights in the near point observation mode and the far point observation mode.
  • the illumination ranges LR and LL of the two illumination lights emitted from the two illumination windows 15 are included.
  • the illumination ranges LR and LL of the two illumination lights emitted from the two illumination windows 15 are displayed. There may be a region Aa where the two do not overlap.
  • the near point image may include a dark part due to the area Aa where the illumination ranges LR and LL of the two illumination lights do not overlap.
  • the objective optical system can be switched between two focal positions, a near point and a far point.
  • FIG. 1 shows only the movable lens 17 that moves along the optical axis when the two focal positions can be switched.
  • the movable lens 17 is connected to an actuator 18 as indicated by a dotted line, and is moved to a near point position or a far point position by an actuator 18 provided in the distal end portion 11.
  • the actuator 18 has, for example, a voice coil motor.
  • a signal line 18 a connected to the actuator 18 is inserted into the bending portion 12 and the flexible tube portion 13 and connected to the main body device 3.
  • the actuator 18 is driven by a drive signal DS from the main body device 3.
  • the front end surface of the light guide 19 is disposed behind each lighting window 15.
  • the light guide 19 is inserted into the endoscope 2.
  • Light emitted from a light source device to be described later is incident on the base end surface of the light guide 19.
  • the front end portion of the light guide 19 is branched into two, and illumination light is emitted from the front end surface of each branch portion toward the illumination window 15.
  • the bending portion 12 includes a plurality of bending pieces (not shown), and a plurality of bending portions inserted into the flexible tube portion 13 in accordance with operations of two bending operation knobs (not shown) provided in the operation portion 6. By pulling or relaxing the wire, the distal end portion 11 can be bent in the vertical and horizontal directions.
  • FIG. 1 shows only a switching button 20 for switching between the near point observation mode and the far point observation mode among the plurality of buttons.
  • the switching button 20 is in the near-point observation mode, the focal position of the objective optical system is a near point, and when the switching button 20 is in the far-point observation mode, the focal position of the objective optical system is a far point, in this case, a middle distance It becomes a point.
  • the signal line 20 a connected to the switching button 20 is connected to the main body device 3, and the switching signal TR of the switching button 20 operated by the user is supplied to the processor 21 of the main body device 3.
  • the acquisition timing of the near point image and the acquisition timing of the far point image are determined based on a signal from the endoscope 2 that acquires the near point image and the far point image, here, the switching signal TR.
  • the time or period when the switching button 20 is in the near point observation mode is the acquisition timing of the near point image in the endoscope apparatus 1, and the time or period when the switching button 20 is in the state of the far point observation mode It is a far point image acquisition timing in the endoscope apparatus 1.
  • the main unit 3 which is a so-called video processor, includes a processor 21, an optical black (OB) circuit 22, a pre-gain circuit 23, a white balance (WB) circuit 24, a dimming control circuit 25, a light source 26, and a driver 27. , A gamma correction circuit 28, a brightness correction circuit 29, an enlargement circuit 30, an output circuit 31, and a driver 32.
  • OB optical black
  • WB white balance
  • a gamma correction circuit 28 a brightness correction circuit 29, an enlargement circuit 30, an output circuit 31, and a driver 32.
  • the main body device 3 is an endoscope image processing device that processes an imaging signal from the endoscope 2 to generate an endoscope image and outputs the endoscope image to the display device 4.
  • the processor 21 includes hardware circuits such as a central processing unit (hereinafter referred to as CPU) 21a and a memory 21b.
  • the memory 21b includes a ROM, a RAM, and the like.
  • the CPU 21a implements various functions of the endoscope apparatus 1 by executing various control programs stored in the ROM.
  • the processor 21 may be configured by an integrated circuit such as an FPGA (Field Programmable Gate Array).
  • FPGA Field Programmable Gate Array
  • a threshold TH used for brightness correction described later and data of gain G described later are stored in advance as defaults.
  • a threshold THn and gain Gn for near-point observation, and a threshold THf and gain Gf for far-point observation are stored in the ROM.
  • the threshold value THn is used to determine a dark part in the near point image
  • the threshold value THf is used to determine a dark part in the far point image. Therefore, the memory 21b stores the threshold value THn and the gain Gn for determining the dark part in the input near point image, and the threshold value THf and the gain Gf for determining the dark part in the input far point image.
  • a storage unit is configured.
  • the threshold TH and the gain G can be changed by the user, and the data whose setting has been changed is stored in the RAM or in a nonvolatile rewritable memory such as a flash memory (not shown).
  • FIG. 3 is a diagram for explaining the magnitude relation between the threshold THn for the near-point observation mode and the threshold THf for the far-point observation mode.
  • the vertical axis is a luminance value, and when the luminance value is a value in a range from 0 to, for example, 255, the threshold THn for the near-point observation mode is greater than the threshold THf for the far-point observation mode.
  • a large value that is, a bright value. That is, the threshold value THf is smaller than the threshold value THn.
  • the brightness correction circuit 29 corrects the pixel value of the pixel to a value multiplied by the gain Gn.
  • the value Dn shown as an example in FIG. 3 is corrected to the value Dn1. That is, the brightness correction circuit 29 corrects the brightness of the near-point image so that the dark portion of the near-point image becomes bright using the gain Gn.
  • the pixel value of the pixel in the far point image is equal to or less than the threshold value THf
  • the pixel value of the pixel is corrected by the brightness correction circuit 29 to a value multiplied by the gain Gf.
  • the value Df shown as an example in FIG. 3 is corrected to the value Df1. That is, the brightness correction circuit 29 corrects the brightness of the far point image so that the dark part of the far point image becomes bright using the gain Gf.
  • the gains Gn and Gf are preferably values at which noise is not noticeable in the near-point image and the far-point image whose brightness has been corrected.
  • the optical black (OB) circuit 22 is a circuit that receives an image signal from the image sensor 16 and performs an optical black clamp process on the image signal.
  • the pre-gain circuit 23 performs gain adjustment on the output signal from the optical black (OB) circuit 22.
  • the white balance (WB) circuit 24 performs white balance processing on the output signal of the pre-gain circuit 23.
  • the dimming control circuit 25 controls the driver 27 for the light source 26 based on the image signal from the white balance (WB) circuit 24 to perform dimming control.
  • the light source 26 is a device that includes a light emitting element such as a light emitting diode and emits white illumination light.
  • the driver 27 is a circuit that outputs a drive current supplied to the light emitting element of the light source 26.
  • the gamma correction circuit 28 performs gamma correction processing on the image signal output via the dimming control circuit 25. That is, the gamma correction circuit 28 outputs an image signal of the live image LG of the subject obtained by the image sensor 16.
  • the brightness correction circuit 29 corrects the brightness of the live image LG.
  • the brightness correction circuit 29 includes two registers R1 and R2. Data of the threshold value TH is set in the register R1. Data of gain G is set in the register R2. The threshold value TH and gain G data set in the registers R1 and R2 are written by the processor 21.
  • the brightness correction circuit 29 compares the pixel value of each pixel in a plurality of pixels input serially with the threshold value TH stored in the register R1, and stores the pixel value in the register R2 when the pixel value is equal to or less than the threshold value TH.
  • the corrected gain G is used to correct the pixel value to be higher.
  • the brightness correction circuit 29 does not correct the pixel value when the pixel value is not equal to or less than the threshold value TH.
  • the enlargement circuit 30 is a scaling circuit that adjusts the size of the live image LG in order to appropriately display the live image LG on the display device 4.
  • the output circuit 31 is a circuit that outputs the image signal output from the enlargement circuit 30 to the display device 4.
  • the processor 21 monitors the switching signal TR of the switching button 20.
  • the processor 21 outputs a control signal to the driver 32 and outputs the drive signal DS to the signal line 18a. To move the movable lens 17 to the near point position.
  • the processor 21 when the switching button 20 is switched from the far-point observation mode to the near-point observation mode, the processor 21 outputs a control signal to the driver 32, outputs a drive signal DS to the signal line 18a, and moves the movable lens 17. Move to the far point position.
  • the processor 21 reads the near-point observation threshold THn and the gain Gn stored in the ROM or RAM, respectively, and the brightness. Write to the registers R1 and R2 of the correction circuit 29.
  • the processor 21 When the switching button 20 is switched from the far point observation mode to the near point observation mode, the processor 21 reads the far point observation threshold value THf and the gain Gf stored in the ROM or RAM, and the brightness is increased. Write to the registers R1 and R2 of the correction circuit 29.
  • the surgeon While viewing the live image LG, the surgeon operates the switching button 20 as necessary to move the movable lens 17 of the objective optical system to the near point position or the far point position, and performs endoscopy. be able to.
  • the processor 21 can determine whether the user has selected the far point observation mode or the near point observation mode based on the switching signal TR of the switching button 20.
  • the processor 21 reads out the far-field observation mode threshold THf and the gain Gf, or the near-point observation mode threshold THn and the gain Gn, which are stored in the memory 21b, when the endoscope apparatus 1 is activated, and performs a brightness correction circuit. Write to 29 registers R1, R2.
  • the processor 21 controls the driver 32 to drive the actuator 18 to move the movable lens 17 of the objective optical system to the far point position.
  • the processor 21 reads the threshold value THf and gain Gf data for the far point observation mode stored in the memory 21b, and registers R1 of the brightness correction circuit 29. , R2 respectively. Therefore, the processor 21 configures a threshold value setting unit that sets the threshold value THf in the register R1 based on the far point image acquisition timing, more specifically, at the timing of switching the switch button 20 to the far point image mode. To do.
  • the brightness correction circuit 29 compares the pixel value of each pixel of the image signal of the live image LG output from the gamma correction circuit 28 with the threshold value THf stored in the register R1.
  • the brightness correction circuit 29 corrects the pixel value using the gain Gf stored in the register R2.
  • the gain Gf is a coefficient value, and the pixel value is corrected by multiplying the pixel value by the gain Gf.
  • FIG. 4 is a schematic diagram showing an example of a far point image when the brightness correction by the brightness correction circuit 29 is not performed.
  • the far point image GAf is an image captured at a far point with respect to the subject.
  • the endoscopic image GAf that is a far-point image is displayed brightly in the area NA of the inner wall portion close to the distal end portion 11.
  • the inner area FA in the lumen is black.
  • FIG. 5 is a schematic diagram showing an example of a far point image when the brightness correction by the brightness correction circuit 29 is performed.
  • the threshold value THf is a level value for determining, for example, the brightness (or darkness) of the region FA at the back of the lumen in the far-point observation mode.
  • the area FA behind the lumen is displayed in black before the correction, but the brightness correction circuit 29 causes the area FA in the lumen that was black in FIG. As shown by the diagonal lines, it becomes slightly brighter.
  • the back area FA is slightly brighter, so that the user can feel a sense of depth in the far point image GAf.
  • the processor 21 controls the driver 32 to drive the actuator 18 to move the movable lens 17 of the objective optical system to the near point position.
  • the processor 21 reads the threshold value THn and the gain Gn for the near point observation mode stored in the memory 21b, and registers R1, R2 of the brightness correction circuit 29. To set each. Therefore, the processor 21 configures a threshold value setting unit that sets the threshold value THn in the register R1 at the timing of switching to the near point image mode of the switching button 20 according to the near point image acquisition timing. To do.
  • the brightness correction circuit 29 compares the pixel value of each pixel of the image signal of the live image LG output from the gamma correction circuit 28 with the threshold value THn stored in the register R1.
  • the brightness correction circuit 29 corrects the pixel value using the gain Gn stored in the register R2.
  • the gain Gn is a coefficient value, and the pixel value is corrected by multiplying the pixel value by the gain Gn.
  • observation mode is switched to one of two observation modes by the switching button 20, but the observation mode may be set by a push button.
  • the time or period when the push button is pressed is the near-point image acquisition timing.
  • the time or period when the push button is not pressed is the far-point image acquisition timing.
  • a push button for the near point observation mode is provided in place of the switching button 20, and the brightness correction circuit 29 uses the threshold value THn for near point observation and the gain Gn only when the push button is pressed.
  • the brightness correction circuit 29 performs the brightness correction using the threshold THf and the gain Gf for the far point observation. Also good.
  • FIG. 6 is a schematic diagram showing an example of a near point image when the brightness correction by the brightness correction circuit 29 is not performed.
  • the near point image is an image captured at a near point with respect to the subject.
  • the area CA of the central portion of the endoscopic image GAn that is a near-point image is a slanted line with a narrow line width. As shown, it gets dark. Therefore, the regions RA and LA of the part to which the illumination light from each illumination window 15 hits are displayed brightly, but the region CA of the central portion of the endoscopic image GAn that is a near-point image is slightly dark. .
  • FIG. 7 is a schematic diagram illustrating an example of a near-point image when the brightness correction is performed by the brightness correction circuit 29.
  • the threshold value THn is a value of a level for determining, for example, the brightness (or darkness) of the central area CA where the illumination light is not directly applied in the near point observation mode.
  • the center area CA is displayed slightly dark before correction, but the brightness correction circuit 29 causes the center area CA that is slightly dark in FIG. 6 to be slightly dark as shown in FIG. It becomes brighter.
  • the area CA in the central portion is indicated by oblique lines having a wider line width than the oblique lines in FIG. 6.
  • the brightness correction circuit 29 as the brightness correction unit performs the near-point based on the threshold value THn according to the near-point image acquisition timing, that is, the switching signal TR of the switching button 20 or the ON signal of the push button. Perform brightness correction on the image. Further, the brightness correction circuit 29 performs brightness correction on the far point image based on the threshold value THf according to the far point image acquisition timing, that is, the switching signal TR of the switching button 20 or the non-on signal of the push button. Do.
  • the threshold TH is different in the far-point observation mode and the near-point observation mode, and the threshold THn in the near-point observation mode is greater than the threshold THf in the far-point observation mode. Therefore, a region that is slightly dark in the near point image is also displayed brightly, and as a result, uneven light distribution in the near point image is reduced.
  • the brightness correction is performed using the threshold THn and the gain Gn for the near point observation mode. Then, when the observation mode is the near point observation mode, the light distribution state of the endoscopic image is determined. When the light distribution state is the light distribution state of the near point image, brightness correction is performed, and the light distribution state is determined. Brightness correction is not performed when the light state is not the light distribution state of the near-point image.
  • FIG. 8 is a configuration diagram showing a schematic configuration of the endoscope apparatus according to the present embodiment.
  • the endoscope 2 of the endoscope apparatus 1A has a nonvolatile memory 41 such as a flash memory.
  • the memory 41 is built in, for example, a connector provided at the base end of the cable 7.
  • the memory 41 stores near-point image (hereinafter referred to as reference near-point image) RNG image data that is referred to as reference data when determining the light distribution state.
  • reference near-point image RNG image data that is referred to as reference data when determining the light distribution state.
  • the image data of the reference near point image RNG stored in the memory 41 includes information on uneven light distribution of the near point image of the endoscope.
  • image data of an average image of the near point image obtained when the endoscope is set to the near point observation mode and the subject is imaged at the near point is stored in the memory 41 as the reference near point image RNG. Is done.
  • the image data of the reference near-point image RNG may be image data of an endoscopic image obtained by actually capturing in the near-point observation mode using the endoscope, or created by simulation using a computer.
  • the image data may be the same.
  • the main unit 3A includes a light distribution state determination circuit 42.
  • the light distribution state determination circuit 42 can read the image data of the reference near point image RNG from the memory 41.
  • the light distribution state determination circuit 42 determines whether the live image LG output from the gamma correction circuit 28 is a near point image based on the reference near point image RNG, and outputs the determination result signal JS to the processor 21. .
  • the determination result signal JS indicates whether or not the light distribution state of the endoscopic image obtained by the image sensor 16 is the light distribution state of the near point image.
  • the light distribution state determination circuit 42 distributes the live image from the endoscope 2 input to the brightness correction circuit 29 based on the light distribution information acquired from the endoscope 2 connected to the main body device 3.
  • a light distribution state determination unit that determines whether the light state is the light distribution state of the proximity image is configured.
  • the light distribution state determination circuit 42 compares the live image LG from the gamma correction circuit 28 with the reference near point image RNG from the memory 41 for each pixel, calculates a difference in pixel values, and calculates a difference between all pixels. Calculate the sum.
  • the light distribution state determination circuit 42 determines that the live image LG from the gamma correction circuit 28 is a near point image, and generates a determination result signal JS of “1”. Output to the processor 21.
  • the light distribution state determination circuit 42 determines that the live image LG from the gamma correction circuit 28 is not a near-point image, and uses the determination result signal JS of “0” as a processor. To 21.
  • the live image LG has a light distribution as shown in FIG.
  • Image data of an image as shown in FIG. 6 is stored in the memory 41 as the reference near point image RNG.
  • the calculated sum is less than a predetermined value.
  • the user may point the tip 11 toward the back of the lumen while the user is in the near point observation mode.
  • the live image LG is an image as shown in FIG. Therefore, the image as shown in FIG. 4 differs greatly in light distribution from the image as shown in FIG. 6, and therefore the sum calculated by the light distribution state determination circuit 42 exceeds a predetermined value.
  • the live image LG is divided into a plurality of predetermined regions
  • the reference near point image RNG is also divided into a plurality of regions in the same manner as the live image LG
  • the light distribution state determination circuit 42 is connected to the live image LG and the reference near point image.
  • the average value of the luminance values for each divided area in RNG is compared, and the number of areas where the difference of each average value is less than a predetermined value or the ratio of the number of areas where the difference of each average value relative to the total number of divided areas is less than the predetermined value Based on this, it may be determined whether or not the live image LG is a near point image.
  • the processor 21 When the determination result signal JS is “1”, the processor 21 outputs an ON signal (ON) for enabling the brightness correction to the brightness correction circuit 29. When the determination result signal JS is “0”, the processor 21 outputs an off signal (OFF) that invalidates the brightness correction to the brightness correction circuit 29.
  • the brightness correction circuit 29 performs brightness correction while receiving an ON signal (ON), and does not perform brightness correction while receiving an OFF signal (OFF). That is, the brightness correction circuit 29 performs the brightness correction when the light distribution state determination circuit 42 determines that the light distribution state of the live image LG is the light distribution state of the proximity image, and the light distribution state determination circuit 42 When it is determined that the light distribution state of the live image LG is not the light distribution state of the proximity image, brightness correction is not performed.
  • the light distribution state of the obtained live image LG is the light distribution state of the reference near point image RNG. If they are not similar, the processor 21 outputs an off signal (OFF) to the brightness correction circuit 29. As a result, the brightness correction circuit 29 does not perform brightness correction.
  • the endoscope apparatus 1A when the user sets the endoscope apparatus 1A to the near point observation mode, if the live image LG has an image light distribution state as shown in FIG. Since the ON signal (ON) is received, brightness correction is performed using the threshold THn and the gain Gn for the near-point observation mode. As a result, an endoscopic image as shown in FIG. 7 is displayed on the display device 4.
  • the brightness correction circuit 29 receives the off signal (OFF), so that the brightness correction using the threshold THn and the gain Gn for the near-point observation mode is not performed, or the far point is not performed. Brightness correction is performed using the threshold THf and gain Gf for the observation mode. As a result, an image as shown in FIG. 6 or 7 is displayed on the display device 4.
  • the brightness correction circuit 29 When the brightness correction circuit 29 receives an off signal (OFF) when in the near point observation mode, brightness correction is not performed on the live image LG, or the threshold THf for far point observation is set. Whether to perform brightness correction using the gain Gf may be set by the user. In that case, the setting information on whether or not to perform the brightness correction set by the user is stored in the RAM of the memory 21 b and is referred to by the brightness correction circuit 29.
  • the operation in the far point observation mode is the same as the operation in the far point observation mode in the first embodiment.
  • the same effect as in the first embodiment is produced, and only when the live image has the light distribution state of the near point image in the near point observation mode.
  • the brightness correction for the near point observation mode is automatically performed.
  • light distribution unevenness of a near-point image is reduced in an endoscope image processing apparatus that performs signal processing on a near-point image and a far-point image. It is possible to provide an endoscope image processing apparatus and an endoscope system that can perform the above-described operation.
  • the two embodiments described above are applied to an endoscope apparatus that performs so-called normal light observation using white light as illumination light.
  • the two embodiments described above use narrowband light.
  • the present invention can also be applied to an endoscope apparatus that performs special light observation.
  • an endoscope apparatus that enables observation of a microvascular structure or the like using narrowband light having center wavelengths of 415 nm and 540 nm and a half width of 10 nm.
  • an endoscope apparatus has a near point observation mode and a far point observation mode, the above-described two embodiments can be applied to such an endoscope apparatus.
  • the brightness correction is performed on the live image LG obtained by the endoscope, but is also applied to the recorded image of the endoscopic examination that has already been performed. Is possible.
  • a moving image live image LG obtained by endoscopy is recorded in a storage device 51 such as a hard disk drive (HDD) indicated by a dotted line in FIGS. 1 and 2, and observation mode information, that is, a near-point image. If the information on the acquisition timing of the far-point image is also linked to the image and recorded in the storage device 51, the image signal read from the storage device 51 is input to the processor 21 and the brightness correction circuit 29, thereby At the time of reproduction, the brightness correction described in the above-described two embodiments can be performed.
  • a storage device 51 such as a hard disk drive (HDD) indicated by a dotted line in FIGS. 1 and 2
  • observation mode information that is, a near-point image.
  • the near point image and the far point image acquired by the endoscope are recorded in the storage device 51, and the acquisition timing of the near point image and the far point image are stored in the storage device 51.
  • the brightness correction described in the above-described two embodiments can also be applied to the reproduction of a recorded endoscopic image by making a determination based on a signal stored in association with an image. .
  • brightness correction using the near-point observation threshold THn and gain Gn is performed only in the near-point image acquisition and other observation modes, and brightness correction is not performed when not in the near-point observation mode. May be.
  • the threshold THf in the far point observation mode is set to 0, it is possible to prevent the brightness from being corrected in the far point observation mode.
  • the user may be able to select whether or not to correct the brightness in the far-point observation mode.
  • a selection button is provided on the operation unit 6 so that the user can select whether or not to perform brightness correction when in the far-point observation mode.
  • a preset threshold value THf is used, and brightness correction is performed with the selection button in the far-point observation mode.
  • a threshold value THf of 0 is used.
  • Some surgeons do not want to display the dark area brightly in the far-point observation mode, so it is possible to select whether or not to perform brightness correction, so that such surgeons' requests can be met. be able to.
  • the processor 21 has one threshold TH and one gain G for each of the near point observation mode and the far point observation mode.
  • a plurality of threshold values TH and gains G may be provided for at least one of the observation mode and the far point observation mode, and the user may select a desired threshold value TH and gain G from them.
  • the surgeon can select a desired threshold TH and gain G from a plurality of thresholds TH and gain G according to his / her preference, and thus brightness correction is performed according to the surgeon's preference.
  • the live image LG can be displayed on the display device 4.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

本体装置3は、被検体に対して近点で撮像された近点画像及び被検体に対して遠点で撮像された遠点画像に対して信号処理を施す内視鏡画像処理装置であって、 入力された近点画像内において暗部と判断するための閾値THnを記憶するメモリ21bと、近点画像の取得タイミングに応じて、閾値THnに基づいて近点画像に対して明るさ補正を行い、かつ、遠点画像に対して閾値THfに基づいて遠点画像に対して第2の明るさ補正を行う明るさ補正回路29と、を有する。

Description

内視鏡画像処理装置及び内視鏡システム
 本発明は、内視鏡画像処理装置及び内視鏡システムに関し、特に、近点画像及び遠点画像の信号処理機能を有する内視鏡画像処理装置及び内視鏡システムに関する。
 従来より、細長の挿入部を有する内視鏡が医療分野等で広く利用されている。術者などは、挿入部を被検体内に挿入し、被検体内の内視鏡画像を表示装置に表示させるなどして、被検体内を観察することができる。表示装置に表示される内視鏡画像は、取得された内視鏡画像の明るさに基づき、照明光量あるいは絞りを制御することにより、適切な明るさに調整される。
 さらに、近年は、通常観察に加えて、近点観察が可能な内視鏡も提案されている。近点観察は、被検体を近点で撮像して、被検体の部位を拡大した観察を可能にする。近点画像の調光制御に関しては、例えば、国際公開2013/180147号に、被検体との距離が近く十分な明るさが得られる場合には、絞りの開口の大きさを可能な限り大きくするように絞りを制御する内視鏡装置が提案されている。
 一般に、近点画像は、挿入部の先端部が被検体に近づいて得られた画像であるため、内視鏡画像に照明光の配光ムラが生じるという問題がある。例えば、2つの照明窓から照射される照明光の照明範囲は、被検体が挿入部の先端部から離れていれば重なるが、被検体が先端部に近接しているときは照明光が直接当たらない領域が生じるため、内視鏡画像に配光ムラが生じる場合がある。
 また、近点観察モードでない通常観察モードのときに、内視鏡画像において、例えば管腔のような奥の部位の領域が真っ暗になってしまう場合がある。このような場合に、内視鏡画像中で所定の閾値以下の画素値を有する暗部の画素を検出し、暗部の画素の画素値だけを所定のゲインだけ増加することにより、暗部の領域の明るさを高める方法がある。
 よって、このような内視鏡画像における暗部の画像の明るさを高める方法を用いて、上述した近点画像における照明光が直接当たらない暗部の画素の画素値を上げることも考えられる。
 しかし、被検体の先端部に近点画像の暗部の明るさと、通常観察モード時の管腔の奥の部位のような暗部の明るさの差は大きい。そのため、近点画像と遠点画像に対して信号処理を行う内視鏡画像処理装置において、通常観察モード時の暗部を判定するための閾値を用いても、近点画像の暗部の検出できず、結果として、近点画像の配光ムラを低減することはできない。
 そこで、本発明は、近点画像と遠点画像に対して信号処理を行う内視鏡画像処理装置において近点画像の配光ムラを低減することができる内視鏡画像処理装置及び内視鏡システムを提供することを目的とする。
 本発明の一態様の内視鏡画像処理装置は、被検体に対して近点で撮像された近点画像及び前記被検体に対して遠点で撮像された遠点画像に対して信号処理を施す内視鏡画像処理装置であって、入力された前記近点画像内における第1の暗部を判断するための第1の閾値を記憶する記憶部と、前記近点画像の取得タイミングに応じて、前記第1の閾値に基づいて前記近点画像に対して第1の明るさ補正を行い、かつ、前記遠点画像の取得タイミングに応じて、第2の閾値に基づいて前記遠点画像に対して第2の明るさ補正を行うかもしくは前記遠点画像に対して前記第2の明るさ補正を行わない明るさ補正部と、を備える。
 本発明の一態様の内視鏡システムは、一態様の内視鏡画像処理装置と、前記近点画像及び前記遠点画像を取得する内視鏡と、を有する。
本発明の第1の実施の形態に係わる内視鏡装置の模式的構成を示す構成図である。 本発明の第1の実施の形態に係わる、近点観察モードと遠点観察モードにおける2つの照明光の照明範囲を説明するための図である。 本発明の第1の実施の形態に係わる、近点観察モード用の閾値と遠点観察モード用の閾値の大小関係を説明するための図である。 本発明の第1の実施の形態に係わる、明るさ補正回路による明るさ補正がされない場合における、遠点画像の例を示す模式的な図である。 本発明の第1の実施の形態に係わる、明るさ補正回路による明るさ補正がされた場合における、遠点画像の例を示す模式的な図である。 本発明の第1の実施の形態に係わる、明るさ補正回路による明るさ補正がされない場合における、近点画像の例を示す模式的な図である。 本発明の第1の実施の形態に係わる、明るさ補正回路による明るさ補正がされた場合における、近点画像の例を示す模式的な図である。 本発明の第2の実施の形態に係わる、内視鏡装置の模式的構成を示す構成図である。
 以下、図面を参照して本発明の実施の形態を説明する。
(第1の実施の形態)
 図1は、本実施の形態に係わる内視鏡装置の模式的構成を示す構成図である。
 内視鏡装置1は、内視鏡2と、本体装置3と、表示装置4とを含む内視鏡システムである。
 内視鏡2は、細長の挿入部5と、挿入部5の基端が接続された操作部6と、操作部6から延出したケーブル7とを有する。内視鏡2は、ケーブル7の基端部に設けられたコネクタにより本体装置3と接続される。
 挿入部5は、先端から順に、先端部11、湾曲部12、可撓管部13を有する。
 先端部11は、観察窓14と、2つの照明窓15とを有している。観察窓14の後ろ側には、対物光学系と、撮像素子16が配設されている。撮像素子16に接続された複数の信号線が、湾曲部12と可撓管部13内に挿通されている。なお、図1では、撮像素子16の複数の信号線のうち、撮像信号を伝送する信号線16aのみが示されている。
 2つの照明窓15は、観察窓14を挟むように、先端部11の先端面11aに配設される。2つの照明窓15からの白色の照明光は、対物光学系の光軸に平行にかつ広がるように出射するため、被検体の観察部位は、略均等に照明される。
 後述するように、内視鏡装置1は、遠点観察モードと近点観察モードを有している。遠点観察モードは、所謂通常観察モードである。ここでは、遠点とは、中遠点を意味する。遠点観察モードのときに得られる内視鏡画像は、被検体に対して遠点で撮像された遠点画像である。近点観察モードのときに得られる内視鏡画像は、被検体に対して近点で撮像された近点画像である。
 よって、本体装置3は、被検体に対して近点で撮像された近点画像及び被検体に対して遠点で撮像された遠点画像に対して信号処理を施す内視鏡画像処理装置である。
 遠点観察モードのときは、先端部11が被検体の観察部位から所定の距離以上離れているため、被検体の2つの照明光による2つの照明範囲は重なる。よって、被検体の観察部位は、略均等に照明される。
 しかし、近点観察モードのときは、先端部11が被検体の観察部位から所定の距離未満まで近づくと、被検体における2つの照明光による2つの照明範囲が重ならなくなる。よって、被検体の観察部位は、略均等に照明されなくなる。例えば、2つの照明範囲が離れるため、近点画像の中央部分は暗くなる。
 図2は、近点観察モードと遠点観察モードにおける2つの照明光の照明範囲を説明するための図である。
 一点鎖線で示すように、遠点観察モードのとき、被検体の表面SSが先端部11の先端面11aから遠いため、2つの照明窓15から出射する2つの照明光の照明範囲LR、LLには、重なる領域Abが生じる。
 二点鎖線で示すように、近点観察モードのとき、被検体の表面SSが先端部11の先端面11aに近いため、2つの照明窓15から出射する2つの照明光の照明範囲LR、LLが重ならない領域Aaが生じる場合がある。
 よって、近点画像は、2つの照明光の照明範囲LR、LLが重ならない領域Aaによる、暗部を含む場合がある。
 対物光学系は、近点と遠点の2つの焦点位置に切り替え可能である。
 図1では、2つの焦点位置を切り替えられるときに光軸上に沿って動く可動レンズ17のみが示されている。可動レンズ17は、点線で示すようにアクチュエータ18と接続されており、先端部11内に設けられたアクチュエータ18により近点位置あるいは遠点位置に動かされる。
 アクチュエータ18は、例えばボイスコイルモータを有している。アクチュエータ18に接続された信号線18aは、湾曲部12と可撓管部13内に挿通され、本体装置3に接続されている。アクチュエータ18は、本体装置3からの駆動信号DSにより駆動される。
 各照明窓15の後ろ側には、ライトガイド19の先端面が配設されている。ライトガイド19は、内視鏡2内に挿通されている。ライトガイド19の基端面には、後述する光源装置の出射光が入射される。ライトガイド19の先端部分は、2つに分岐しており、各分岐部分の先端面から照明窓15に向けて照明光が出射する。
 湾曲部12は、図示しない複数の湾曲駒を含み、操作部6に設けられた2つの湾曲操作ノブ(図示せず)の操作に応じて、可撓管部13内に挿通された複数の湾曲ワイヤが牽引あるいは弛緩されることにより、先端部11が上下左右方向に湾曲可能となっている。
 術者などのユーザにより操作される複数のボタンが、操作部6に配設されている。図1では、複数のボタンのうち、近点観察モードと遠点観察モードを切り替える切り替えボタン20のみが示されている。切り替えボタン20が近点観察モードにあるとき、対物光学系の焦点位置が近点になり、切り替えボタン20が遠点観察モードにあるとき、対物光学系の焦点位置は、遠点、ここでは中遠点となる。
 切り替えボタン20に接続された信号線20aは、本体装置3に接続され、ユーザにより操作される切り替えボタン20の切り替え信号TRは、本体装置3のプロセッサ21に供給される。プロセッサ21では、近点画像の取得タイミング及び遠点画像の取得タイミングは、近点画像及び遠点画像を取得する内視鏡2からの信号、ここでは切り替え信号TR、に基づいて判定される。
 切り替えボタン20が近点観察モードの状態にある時又は期間が、内視鏡装置1における近点画像の取得タイミングであり、切り替えボタン20が遠点観察モードの状態にある時又は期間が、内視鏡装置1における遠点画像の取得タイミングである。
 所謂ビデオプロセッサである本体装置3は、プロセッサ21、オプティカルブラック(OB)回路22と、プリゲイン回路23と、ホワイトバランス(WB)回路24と、調光制御回路25と、光源26と、ドライバ27と、ガンマ補正回路28と、明るさ補正回路29と、拡大回路30と、出力回路31と、ドライバ32とを含む。
 本体装置3は、内視鏡2からの撮像信号を処理して、内視鏡画像を生成し、表示装置4に出力する内視鏡画像処理装置である。
 プロセッサ21は、中央処理装置(以下、CPUという)21a、メモリ21bなどのハードウエア回路を含む。メモリ21bは、ROM、RAMなどを含む。CPU21aは、ROMに記憶された各種制御プログラムを実行することによって、内視鏡装置1の各種機能を実現する。
 なお、プロセッサ21は、FPGA(Field Programmable Gate Array)等の集積回路により構成されていてもよい。
 ROMには、デフォルトとして、後述する明るさ補正に用いられる閾値THのデータと、後述するゲインGのデータが予め格納されている。ここでは、閾値THとゲインGとして、近点観察用の閾値THnとゲインGnと、遠点観察用の閾値THfとゲインGfとが、ROMに格納されている。
 後述するように、閾値THnは、近点画像内において暗部を判断するために用いられ、閾値THfは、遠点画像内において暗部を判断するために用いられる。よって、メモリ21bは、入力された近点画像内における暗部を判断するための閾値THn及びゲインGnと、入力された遠点画像内における暗部を判断するための閾値THf及びゲインGfと、を記憶する記憶部を構成する。
 閾値THとゲインGは、ユーザにより設定変更が可能であり、設定変更されたデータは、RAM中に、あるいは図示しないフラッシュメモリなどの不揮発性の書き換え可能なメモリに格納される。
 図3は、近点観察モード用の閾値THnと遠点観察モード用の閾値THfの大小関係を説明するための図である。
 図3において、縦軸は、輝度値であり、輝度値は、0から、例えば255の範囲の値であるとき、近点観察モード用の閾値THnは、遠点観察モード用の閾値THfよりも大きな値、すなわち明るい値である。すなわち、閾値THfは、閾値THnよりも小さい。
 近点画像において画素の画素値が閾値THn以下であるとき、明るさ補正回路29により、その画素の画素値は、ゲインGnが乗算された値に補正される。図3において例として示した値Dnは、値Dn1に補正される。すなわち、明るさ補正回路29は、ゲインGnを用いて近点画像の暗部が明るくなるように、近点画像の明るさを補正する。
 また、遠点画像において画素の画素値が閾値THf以下であるとき、明るさ補正回路29により、その画素の画素値は、ゲインGfが乗算された値に補正される。図3において例として示した値Dfは、値Df1に補正される。すなわち、明るさ補正回路29は、ゲインGfを用いて遠点画像の暗部が明るくなるように、遠点画像の明るさを補正する。
 よって、近点画像において、閾値THf以下の画素の画素値が、ゲインGnにより補正されるだけでなく、閾値THfを超えて閾値THn未満の画素の画素値も、ゲインGnにより補正される。
 なお、ゲインGn、Gfは、明るさ補正された近点画像及び遠点画像においてノイズが目立たないレベルの値であることが好ましい。
 図1に戻り、オプティカルブラック(OB)回路22は、撮像素子16からの撮像信号を受信して、撮像信号に対してオプティカルブラッククランプ処理などを行う回路である。
 プリゲイン回路23は、オプティカルブラック(OB)回路22からの出力信号に対して、ゲイン調整を行う。
 ホワイトバランス(WB)回路24は、プリゲイン回路23の出力信号に対してホワイトバランス処理を行う。
 調光制御回路25は、ホワイトバランス(WB)回路24からの画像信号に基づいて、光源26のためのドライバ27を制御して、調光制御を行う。
 光源26は、発光ダイオードなどの発光素子を含み、白色光の照明光を出射する装置である。
 ドライバ27は、光源26の発光素子に供給する駆動電流を出力する回路である。
 ガンマ補正回路28は、調光制御回路25を介して出力された画像信号に対して、ガンマ補正処理を行う。すなわち、ガンマ補正回路28は、撮像素子16により得られた被検体のライブ画像LGの画像信号を出力する。
 明るさ補正回路29は、ライブ画像LGの明るさを補正する。明るさ補正回路29は、内部に2つのレジスタR1,R2を有する。レジスタR1には、閾値THのデータが設定される。レジスタR2には、ゲインGのデータが設定される。レジスタR1,R2に設定される閾値THとゲインGのデータは、プロセッサ21により書き込まれる。
 明るさ補正回路29には、ガンマ補正されたライブ画像LGをスキャンした各画素のデータがシリアルに入力される。
 明るさ補正回路29は、シリアルに入力される複数の画素における各画素の画素値と、レジスタR1に格納された閾値THとを比較し、画素値が閾値TH以下であるとき、レジスタR2に格納されたゲインGを用いて、その画素値を高くするように補正する。明るさ補正回路29は、画素値が閾値TH以下でないとき、その画素値を補正しない。
 拡大回路30は、ライブ画像LGを表示装置4に適切に表示するために、ライブ画像LGのサイズを調整するスケーリング回路である。
 出力回路31は、拡大回路30から出力された画像信号を表示装置4に出力する回路である。
 プロセッサ21は、切り替えボタン20の切り替え信号TRを監視し、切り替えボタン20が遠点観察モードから近点観察モードに切り替えられると、ドライバ32に制御信号を出力して、信号線18aに駆動信号DSを出力して、可動レンズ17を近点位置に移動させる。
 また、切り替えボタン20が遠点観察モードから近点観察モードに切り替えられると、プロセッサ21は、ドライバ32に制御信号を出力して、信号線18aに駆動信号DSを出力して、可動レンズ17を遠点位置に移動させる。
 さらに、切り替えボタン20が遠点観察モードから近点観察モードに切り替えられると、プロセッサ21は、ROMあるいはRAMに格納されている近点観察用の閾値THnとゲインGnを読み出して、それぞれ、明るさ補正回路29のレジスタR1とR2に書き込む。
 また、切り替えボタン20が遠点観察モードから近点観察モードに切り替えられると、プロセッサ21は、ROMあるいはRAMに格納されている遠点観察用の閾値THfとゲインGfを読み出して、それぞれ、明るさ補正回路29のレジスタR1とR2に書き込む。
(作用)
 次に、上述した内視鏡装置1の動作について説明する。術者が被検体内に挿入部5を挿入すると、被検体内の内視鏡画像すなわちライブ画像LGが表示装置4に表示される。
 術者は、ライブ画像LGを見ながら、必要に応じて、切り替えボタン20を操作して、対物光学系の可動レンズ17を近点位置あるいは遠点位置に移動させて、内視鏡検査を行うことができる。
 ここでは、近点観察モードと遠点観察モードの切り替えがあったときの明るさ補正処理についてのみ説明する。
 プロセッサ21は、切り替えボタン20の切り替え信号TRに基づいて、ユーザが遠点観察モードを選択しているか、あるいは近点観察モードを選択しているかを判定することができる。
 プロセッサ21は、内視鏡装置1の起動時、メモリ21bに格納されている遠点観察モードの閾値THfとゲインGf、あるいは近点観察モードの閾値THnとゲインGnを読み出して、明るさ補正回路29のレジスタR1,R2に、それぞれ書き込む。
 例えば内視鏡装置1の起動時に遠点観察モードが選択されていると、プロセッサ21は、ドライバ32を制御してアクチュエータ18を駆動し、対物光学系の可動レンズ17を遠点位置に移動させる。
 同時に、遠点観察モードが選択されていると、プロセッサ21は、メモリ21bに格納されている遠点観察モード用の閾値THfとゲインGfのデータとを読み出して、明るさ補正回路29のレジスタR1,R2に、それぞれ設定する。よって、プロセッサ21は、遠点画像の取得タイミングに基づいて、より具体的には、切り替えボタン20の遠点画像モードへの切り替えのタイミングにおいて、閾値THfをレジスタR1に設定する閾値設定部を構成する。
 遠点観察モードのとき、明るさ補正回路29は、ガンマ補正回路28から出力されるライブ画像LGの画像信号の各画素の画素値と、レジスタR1に格納されている閾値THfとを比較する。
 明るさ補正回路29は、画素値が閾値THf以下であるとき、その画素値を、レジスタR2に格納されているゲインGfを用いて補正する。例えば、ゲインGfは、係数値であり、画素値にゲインGfを乗算することにより、画素値は補正される。
 図4は、明るさ補正回路29による明るさ補正がされない場合における、遠点画像の例を示す模式的な図である。
 遠点画像GAfは、被検体に対して遠点で撮像された画像である。図4では、先端部11が管腔の奥の方へ向いているため、遠点画像である内視鏡画像GAfは、先端部11に近い内壁部位の領域NAは、明るく表示されているが、管腔内の奥の領域FAは、真っ黒になっている。
 図5は、明るさ補正回路29による明るさ補正がされた場合における、遠点画像の例を示す模式的な図である。
 上述したように、明るさ補正回路29において、画素値が閾値THf以下の画素は、ゲインGfにより補正される。閾値THfは、遠点観察モードにおいて、例えば管腔の奥の領域FAの明るさ(あるいは暗さ)を判定するレベルの値である。
 よって、管腔の奥の領域FAは、補正される前は真っ黒で表示されるが、明るさ補正回路29により、図4では真っ黒であった管腔内の奥の領域FAは、図5において斜線で示すように、やや明るくなる。
 図5のように、遠点観察モードにおいて、奥の領域FAがやや明るくなるので、ユーザは、遠点画像GAfに奥行き感を感じることができる。
 切り替えボタン20が、遠点観察モードから近点観察モードに切り替えられると、プロセッサ21は、ドライバ32を制御してアクチュエータ18を駆動し、対物光学系の可動レンズ17を近点位置に移動させる。
 同時に、近点観察モードが選択されていると、プロセッサ21は、メモリ21bに格納されている近点観察モード用の閾値THnとゲインGnとを読み出して、明るさ補正回路29のレジスタR1,R2に、それぞれ設定する。よって、プロセッサ21は、近点画像の取得タイミングに応じて、より具体的には、切り替えボタン20の近点画像モードへの切り替えのタイミングにおいて、閾値THnをレジスタR1に設定する閾値設定部を構成する。
 近点観察モードのとき、明るさ補正回路29は、ガンマ補正回路28から出力されるライブ画像LGの画像信号の各画素の画素値と、レジスタR1に格納されている閾値THnとを比較する。
 明るさ補正回路29は、画素値が閾値THn以下であるとき、その画素値を、レジスタR2に格納されているゲインGnを用いて補正する。例えば、ゲインGnは、係数値であり、画素値にゲインGnを乗算することにより、画素値は補正される。
 なお、ここでは、観察モードは、切り替えボタン20により、2つの観察モードのいずれかに切り替えられるが、観察モードは、押しボタンにより設定できるようにしてもよい。押しボタンが押下されている時又は期間が、近点画像の取得タイミングとなる。押しボタンが押下されていない時又は期間が、遠点画像の取得タイミングとなる。
 すなわち、切り替えボタン20に代えて近点観察モード用の押しボタンを設け、その押しボタンが押下されているときだけ、明るさ補正回路29は、近点観察用の閾値THnとゲインGnを用いた明るさ補正を行い、近点観察モード用の押しボタンがオンされていないときは、明るさ補正回路29は、遠点観察用の閾値THfとゲインGfを用いた明るさ補正を行うようにしてもよい。
 図6は、明るさ補正回路29による明るさ補正がされない場合における、近点画像の例を示す模式的な図である。
 近点画像は、被検体に対して近点で撮像された画像である。図6では、先端部11が管腔の内壁に向けられかつ内壁の近くに位置しているため、近点画像である内視鏡画像GAnの中央部分の領域CAは、線幅の狭い斜線で示すように、暗くなる。よって、各照明窓15からの照明光が当たる部位の領域RAとLAは、明るく表示されているが、近点画像である内視鏡画像GAnの中央部分の領域CAは、やや暗くなっている。
 図7は、明るさ補正回路29による明るさ補正がされた場合における、近点画像の例を示す模式的な図である。
 上述したように、明るさ補正回路29において、画素値が閾値THn以下の画素は、ゲインGfにより補正される。閾値THnは、近点観察モードにおいて、例えば照明光が直接当たらない中央部分の領域CAの明るさ(あるいは暗さ)を判定するレベルの値である。
 よって、例えば中央部分の領域CAは、補正される前はやや暗く表示されるが、明るさ補正回路29により、図6ではやや暗かった中央部分の領域CAは、図7に示すように、やや明るくなる。図7では、中央部分の領域CAは、図6の斜線よりも線幅が広い斜線で示されている。その結果、近点画像における配光ムラは低減されるので、ユーザにとって、内視鏡画像GAnが見やすくなる。
 以上のように、明るさ補正部としての明るさ補正回路29は、近点画像の取得タイミング、すなわち切り替えボタン20の切り替え信号TR又は押しボタンのオン信号に応じて、閾値THnに基づいて近点画像に対して明るさ補正を行う。さらに、明るさ補正回路29は、遠点画像の取得タイミング、すなわち切り替えボタン20の切り替え信号TR又は押しボタンの非オン信号に応じて、閾値THfに基づいて遠点画像に対して明るさ補正を行う。
 以上のように、上述した実施の形態によれば、閾値THは、遠点観察モードと近点観察モードにおいて異なっており、かつ近点観察モードの閾値THnは、遠点観察モードの閾値THfよりも大きいので、近点画像においてやや暗くなる領域も明るく表示され、結果として、近点画像の配光ムラが低減される。
(第2の実施の形態)
 第1の実施の形態では、観察モードが近点観察モードに設定されているとき、近点観察モード用の閾値THnとゲインGnを用いて明るさ補正が行われるが、第2の実施の形態では、観察モードが近点観察モードのときに、内視鏡画像の配光状態が判定し、その配光状態が近点画像の配光状態であるときは明るさ補正が行われ、その配光状態が近点画像の配光状態でないときは明るさ補正が行われない。
 第2の実施の形態の内視鏡装置の構成は、第1の実施の形態の内視鏡装置の構成と略同じであるので、同じ構成要素については説明を省略し、異なる構成要素についてのみ説明する。
 図8は、本実施の形態に係わる内視鏡装置の模式的構成を示す構成図である。
 本実施の形態に係わる内視鏡装置1Aの内視鏡2は、フラッシュメモリなどの不揮発性のメモリ41を有している。ここでは、メモリ41は、例えばケーブル7の基端部に設けられたコネクタに内蔵されている。
 メモリ41には、配光状態を判定するときに基準データとして参照される近点画像(以下、参照近点画像という)RNGの画像データが格納される。
 挿入部5の先端部11の観察窓と2つの照明窓の配置、各照明光の出射範囲などは、内視鏡の機種などによって異なる。よって、メモリ41に記憶される参照近点画像RNGの画像データは、当該内視鏡の近点画像の配光ムラの情報を含む。
 例えば、その内視鏡を近点観察モードにして被検体を近点で撮像したときに得られた近点画像の平均的な画像の画像データが、参照近点画像RNGとして、メモリ41に記憶される。
 なお、参照近点画像RNGの画像データは、当該内視鏡を用いて近点観察モードで実際に撮像して得られた内視鏡画像の画像データでもよいし、コンピュータを用いてシミュレーションにより作成された画像データでもよい。
 本体装置3Aは、配光状態判定回路42を含む。内視鏡2のケーブル7のコネクタが本体装置3に接続されると、配光状態判定回路42は、メモリ41から参照近点画像RNGの画像データを読み出すことができる。
 配光状態判定回路42は、参照近点画像RNGに基づいて、ガンマ補正回路28から出力されるライブ画像LGが近点画像であるかを判定し、その判定結果信号JSをプロセッサ21へ出力する。判定結果信号JSは、撮像素子16において得られた内視鏡画像の配光状態が近点画像の配光状態であるか否かを示す。
 すなわち、配光状態判定回路42は、本体装置3に接続される内視鏡2から取得した配光情報に基づいて、明るさ補正回路29に入力される内視鏡2からのライブ画像の配光状態が近接画像の配光状態であるかを判定する配光状態判定部を構成する。
 例えば、配光状態判定回路42は、ガンマ補正回路28からのライブ画像LGとメモリ41からの参照近点画像RNGとを画素毎に比較し、画素値の差分を計算し、全画素の差分の和を算出する。
 配光状態判定回路42は、算出された和が所定の値以下であるときは、ガンマ補正回路28からのライブ画像LGは近点画像であると判定し、「1」の判定結果信号JSをプロセッサ21へ出力する。
 配光状態判定回路42は、算出された和が所定の値以下でないときは、ガンマ補正回路28からのライブ画像LGは、近点画像でないと判定し、「0」の判定結果信号JSをプロセッサ21へ出力する。
 近点観察モードにおいて、先端部11の先端面11aを被検体の表面に正対させて近づけていると、ライブ画像LGは、図6のような配光を有する。参照近点画像RNGとして、図6のような画像の画像データが、メモリ41に格納される。
 よって、ガンマ補正回路28からのライブ画像LGが図6の画像と同様な配光を有していると、算出された和は所定の値以下となる。
 しかし、ユーザが近点観察モードに設定した状態のまま、管腔内の奥の方へ先端部11を向けてしまう場合もある。このような場合、ライブ画像LGは、図4のような画像になる。よって、図4のような画像は、図6のような画像とは配光が大きく異なるので、配光状態判定回路42において算出された和は所定の値を超える。
 なお、ライブ画像LGを所定の複数の領域に分割し、参照近点画像RNGもライブ画像LGと同様に複数の領域に分割し、配光状態判定回路42は、ライブ画像LGと参照近点画像RNGにおける分割領域毎の輝度値の平均値を比較し、各平均値の差が所定値以下の領域の数、あるいは全分割領域数に対する各平均値の差が所定値以下の領域数の割合に基づいて、ライブ画像LGが近点画像であるか否かを判定するようにしてもよい。
 判定結果信号JSが「1」であるとき、プロセッサ21は、明るさ補正を有効とするオン信号(ON)を明るさ補正回路29へ出力する。判定結果信号JSが「0」であるとき、プロセッサ21は、明るさ補正を無効とするオフ信号(OFF)を明るさ補正回路29へ出力する。
 明るさ補正回路29は、オン信号(ON)を受信している間は、明るさ補正を行い、オフ信号(OFF)を受信している間は、明るさ補正を行わない。すなわち、明るさ補正回路29は、配光状態判定回路42がライブ画像LGの配光状態が近接画像の配光状態であると判定したとき、明るさ補正を行い、配光状態判定回路42がライブ画像LGの配光状態が近接画像の配光状態でないと判定したとき、明るさ補正を行わない。
 よって、ユーザが切り替えボタン20を操作して内視鏡装置1Aを近点観察モードに設定している場合に、得られたライブ画像LGの配光状態が参照近点画像RNGの配光状態と類似しないときは、プロセッサ21は、オフ信号(OFF)を明るさ補正回路29へ出力する。その結果、明るさ補正回路29は、明るさ補正を行わない。
 例えば、ユーザが内視鏡装置1Aを近点観察モードに設定している場合に、ライブ画像LGが図6のような画像の配光状態を有していれば、明るさ補正回路29は、オン信号(ON)を受信するので、近点観察モード用の閾値THnとゲインGnを用いて明るさ補正を行う。その結果、表示装置4には、図7に示すような内視鏡画像が表示される。
 もしも、ユーザが内視鏡装置1Aを近点観察モードに設定している場合に、先端部11を管腔の奥の方へ向けてしまい、ライブ画像LGが図4のような画像の配光状態になっているときは、明るさ補正回路29は、オフ信号(OFF)を受信するので、近点観察モード用の閾値THnとゲインGnを用いた明るさ補正を行わないか、あるいは遠点観察モード用の閾値THfとゲインGfを用いた明るさ補正を行う。その結果、表示装置4には、図6又は図7に示すような画像が表示される。
 なお、明るさ補正回路29が近点観察モードのときにオフ信号(OFF)を受信したときに、ライブ画像LGに対して明るさ補正を行わないか、あるいは遠点観察時用の閾値THfとゲインGfを用いた明るさ補正を行うかは、ユーザにより設定可能としてもよい。その場合、ユーザにより設定された明るさ補正を行うか否かの設定情報は、メモリ21bのRAMに格納され、明るさ補正回路29により参照される。
 なお、遠点観察モードのときの動作は、第1の実施の形態における遠点観察モードの動作と同じである。
 よって、上述した第2の実施の形態によれば、第1の実施の形態と同じ効果が生じると共に、近点観察モードにおいてライブ画像が近点画像の配光状態を有している場合にのみ、近点観察モード用の明るさ補正が自動で行われる。
 以上のように、第1及び第2の実施の形態によれば、近点画像と遠点画像に対して信号処理を行う内視鏡画像処理装置において近点画像の配光ムラを低減することができる内視鏡画像処理装置及び内視鏡システムを提供することができる。
 なお、上述した2つの実施の形態は、照明光として白色光を用いる所謂通常光観察を行う内視鏡装置に適用されているが、上述した2つの実施の形態は、狭帯域光を用いた特殊光観察を行う内視鏡装置にも適用可能である。
 例えば、中心波長が415nmと540nmで半値幅が10nmの狭帯域光を用いて、微小血管構造などの観察を可能とする内視鏡装置がある。そのような内視鏡装置が、近点観察モードと遠点観察モードを有するとき、上述した2つの実施の形態は、そのような内視鏡装置に適用可能である。
 さらになお、上述した2つの実施の形態では、明るさ補正は、内視鏡により得られたライブ画像LGに対して行われるが、既に行われた内視鏡検査の記録画像に対しても適用可能である。
 例えば、内視鏡検査により得られた動画のライブ画像LGを、図1及び図2において点線で示すハードディスクドライブ(HDD)などの記憶装置51に記録し、かつ観察モードの情報、すなわち近点画像と遠点画像の取得タイミングの情報、も画像に紐付けて記憶装置51に記録すれば、記憶装置51から読み出した画像信号をプロセッサ21と明るさ補正回路29に入力することによって、記録画像の再生時に、上述した2つの実施の形態で説明した明るさ補正を行うことができる。
 すなわち、内視鏡により取得された近点画像及び遠点画像を、記憶装置51に記録し、近点画像の取得タイミング及び遠点画像の取得タイミングを、記憶装置51に近点画像及び遠点画像に紐付けられて記憶された信号に基づいて判定することによって、記録された内視鏡画像の再生する場合にも、上述した2つの実施の形態で説明した明るさ補正は適用可能である。
 次に、上述した2つの実施の形態の変形例について説明する。
(変形例1)
 上述した実施の形態では、遠点観察モードのとき、遠点観察用の閾値THfとゲインGfを用いた明るさ補正が行われているが、遠点観察モードのときは、閾値THfとゲインGfを用いた明るさ補正を行わないようにしてもよい。
 すなわち、近点画像の取得他ミ観察モードのときだけ、近点観察用の閾値THnとゲインGnを用いた明るさ補正を行い、近点観察モードでないときは、明るさ補正を行わないようにしてもよい。
 例えば、遠点観察モードの閾値THfを0に設定することにより、遠点観察モードのときに、明るさ補正がされないようにすることができる。
 なお、遠点観察モードのときに、明るさ補正をするか否かをユーザが選択できるようにしてもよい。
 例えば、操作部6に選択ボタンを設け、選択ボタンにより、ユーザが遠点観察モードのときに明るさ補正をするか否かを選択できるようにする。選択ボタンにより遠点観察モードのときに明るさ補正をするが選択されているときは、例えば予め設定されている0でない閾値THfが用いられ、選択ボタンにより遠点観察モードのときに明るさ補正をしないが選択されているときは、0の閾値THfが用いられるようにする。
 遠点観察モードのときに、暗部を明るく表示することを望まない術者もいるので、明るさ補正をするか否かを選択できるようにすることにより、そのような術者の要望にも応じることができる。
(変形例2)
 上述した2つの実施の形態及び変形例1では、プロセッサ21は、近点観察モードと遠点観察モードに対して、閾値THとゲインGをそれぞれ1つ有しているが、プロセッサ21が近点観察モードと遠点観察モードの少なくとも1つに対して閾値THとゲインGをそれぞれ複数有し、ユーザがそれらの中から所望の閾値THとゲインGを選択できるようにしてもよい。
 本変形例2によれば、術者が、好みに合わせて複数の閾値THとゲインGの中から所望の閾値THとゲインGを選択できるので、術者の好みに合わせた明るさ補正をしたライブ画像LGを表示装置4に表示させることができる。
 本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。
 本出願は、2018年5月23日に日本国に出願された特願2018-98973号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲に引用されるものとする。

Claims (14)

  1.  被検体に対して近点で撮像された近点画像及び前記被検体に対して遠点で撮像された遠点画像に対して信号処理を施す内視鏡画像処理装置であって、
     入力された前記近点画像内における第1の暗部を判断するための第1の閾値を記憶する記憶部と、
     前記近点画像の取得タイミングに応じて、前記第1の閾値に基づいて前記近点画像に対して第1の明るさ補正を行い、かつ、前記遠点画像の取得タイミングに応じて、第2の閾値に基づいて前記遠点画像に対して第2の明るさ補正を行うかもしくは前記遠点画像に対して前記第2の明るさ補正を行わない明るさ補正部と、
    を備えたことを特徴とする内視鏡画像処理装置。
  2.  前記第2の閾値は、前記遠点画像内における第2の暗部を判断するための閾値であり、前記第1の閾値よりも小さい、ことを特徴とする請求項1に記載の内視鏡画像処理装置。
  3.  前記近点画像の取得タイミングは、前記近点画像及び前記遠点画像を取得する内視鏡からの第1の信号に基づいて判定される、ことを特徴とする請求項2に記載の内視鏡画像処理装置。
  4.  前記遠点画像の取得タイミングは、前記近点画像及び前記遠点画像を取得する内視鏡からの第2の信号に基づいて判定される、ことを特徴とする請求項3に記載の内視鏡画像処理装置。
  5.  前記近点画像及び前記遠点画像は、記憶装置に記録され、
     前記近点画像の取得タイミングは、前記記憶装置に前記近点画像に紐付けられた記憶された第3の信号に基づいて判定される、ことを特徴とする請求項2に記載の内視鏡画像処理装置。
  6.  前記遠点画像の取得タイミングは、前記記憶装置に前記遠点画像に紐付けられて記憶された第4の信号に基づいて判定される、ことを特徴とする請求項5に記載の内視鏡画像処理装置。
  7.  前記第1の明るさ補正は、第1のゲインを用いて前記近点画像の前記第1の暗部が明るくなるように補正し、
     前記第2の明るさ補正は、第2のゲインを用いて前記遠点画像の前記第2の暗部が明るくなるように補正する、ことを特徴とする請求項2に記載の内視鏡画像処理装置。
  8.  前記内視鏡画像処理装置に接続される内視鏡から取得した配光情報に基づいて、前記明るさ補正部に入力される前記内視鏡からのライブ画像の配光状態が前記近接画像の配光状態であるかを判定する配光状態判定部を有する、ことを特徴とする請求項1に記載の内視鏡画像処理装置。
  9.  前記明るさ補正部は、前記配光状態判定部が前記ライブ画像の配光状態が前記近接画像の配光状態であると判定したとき、前記第1の明るさ補正を行い、前記配光状態判定部が前記ライブ画像の配光状態が前記近接画像の配光状態でないと判定したとき、前記第1の明るさ補正を行わないか前記第2の閾値に基づいて前記第2の明るさ補正を行う、ことを特徴とする請求項8に記載の内視鏡画像処理装置。
  10.  前記近点画像の取得タイミングに応じて、前記第1の閾値を所定のレジスタに設定する閾値設定部を有し、
     前記明るさ補正部は、前記閾値設定部により前記レジスタに設定された前記第1の閾値に基づいて、前記近点画像に対して前記第1の明るさ補正を行う、ことを特徴とする請求項1に記載の内視鏡画像処理装置。
  11.  請求項1に記載の内視鏡画像処理装置と、
     前記近点画像及び前記遠点画像を取得する内視鏡と、
    を有することを特徴とする内視鏡システム。
  12.  前記近点画像の取得タイミングは、前記内視鏡からの信号に基づいて判定される、ことを特徴とする請求項11に記載の内視鏡システム。
  13.  近点と遠点の2つの焦点位置に切り替え可能な対物光学系を有する内視鏡が接続され、
     前記明るさ補正部は、前記対物光学系により近点が焦点位置にされているときに、前記第1の閾値に基づいて前記近点画像に対して第1の明るさ補正を行い、かつ、前記対物光学系により遠点が焦点位置にされているときに、第2の閾値に基づいて前記遠点画像に対して第2の明るさ補正を行うかもしくは前記遠点画像に対して前記第2の明るさ補正を行わない、ことを特徴とする請求項1に記載の内視鏡画像処理装置。
  14.  前記対物光学系は、焦点位置を切り換えるためにアクチュエータにより光軸上に可動される可動レンズを備え、
     前記明るさ補正部は、前記アクチュエータにより動かされた前記可動レンズの位置に基づいて、明るさを補正するための閾値を決定する、ことを特徴とする請求項13に記載の内視鏡画像処理装置。
PCT/JP2019/020418 2018-05-23 2019-05-23 内視鏡画像処理装置及び内視鏡システム WO2019225691A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/099,026 US11265483B2 (en) 2018-05-23 2020-11-16 Endoscopic image processing apparatus and endoscope system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-098973 2018-05-23
JP2018098973A JP2019201887A (ja) 2018-05-23 2018-05-23 内視鏡画像処理装置及び内視鏡システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/099,026 Continuation US11265483B2 (en) 2018-05-23 2020-11-16 Endoscopic image processing apparatus and endoscope system

Publications (1)

Publication Number Publication Date
WO2019225691A1 true WO2019225691A1 (ja) 2019-11-28

Family

ID=68617052

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/020418 WO2019225691A1 (ja) 2018-05-23 2019-05-23 内視鏡画像処理装置及び内視鏡システム

Country Status (3)

Country Link
US (1) US11265483B2 (ja)
JP (1) JP2019201887A (ja)
WO (1) WO2019225691A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7085018B2 (ja) * 2018-11-30 2022-06-15 オリンパス株式会社 表示装置、表示制御方法及び内視鏡システム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6146922A (ja) * 1984-08-13 1986-03-07 Olympus Optical Co Ltd 内視鏡撮像装置
JP2003102675A (ja) * 2001-09-28 2003-04-08 Fuji Photo Optical Co Ltd 光学的変倍機構を備えた電子内視鏡装置
JP2006081616A (ja) * 2004-09-14 2006-03-30 Olympus Corp 内視鏡
JP2012090889A (ja) * 2010-10-28 2012-05-17 Olympus Corp 蛍光観察装置
JP2014117414A (ja) * 2012-12-14 2014-06-30 Fujifilm Corp 内視鏡装置及びその撮像制御方法
JP2016129618A (ja) * 2015-01-14 2016-07-21 オリンパス株式会社 カプセル型内視鏡
WO2017022324A1 (ja) * 2015-08-05 2017-02-09 オリンパス株式会社 画像信号処理方法、画像信号処理装置および画像信号処理プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7123288B2 (en) 2001-09-28 2006-10-17 Fujinon Corporation Electronic endoscope eliminating influence of light distribution in optical zooming
JP5953373B2 (ja) 2012-05-31 2016-07-20 オリンパス株式会社 内視鏡装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6146922A (ja) * 1984-08-13 1986-03-07 Olympus Optical Co Ltd 内視鏡撮像装置
JP2003102675A (ja) * 2001-09-28 2003-04-08 Fuji Photo Optical Co Ltd 光学的変倍機構を備えた電子内視鏡装置
JP2006081616A (ja) * 2004-09-14 2006-03-30 Olympus Corp 内視鏡
JP2012090889A (ja) * 2010-10-28 2012-05-17 Olympus Corp 蛍光観察装置
JP2014117414A (ja) * 2012-12-14 2014-06-30 Fujifilm Corp 内視鏡装置及びその撮像制御方法
JP2016129618A (ja) * 2015-01-14 2016-07-21 オリンパス株式会社 カプセル型内視鏡
WO2017022324A1 (ja) * 2015-08-05 2017-02-09 オリンパス株式会社 画像信号処理方法、画像信号処理装置および画像信号処理プログラム

Also Published As

Publication number Publication date
US20210075974A1 (en) 2021-03-11
JP2019201887A (ja) 2019-11-28
US11265483B2 (en) 2022-03-01

Similar Documents

Publication Publication Date Title
JP4745790B2 (ja) 電子内視鏡装置
JP5452785B1 (ja) 撮像システム
JP5326065B2 (ja) 内視鏡装置
JP4575720B2 (ja) 電子内視鏡システム
JP5927370B1 (ja) 撮像装置および処理装置
US11025835B2 (en) Imaging device, endoscope apparatus, and method for operating imaging device
JPWO2016185763A1 (ja) 光源制御装置及び光源制御方法並びに撮像システム
US10918265B2 (en) Image processing apparatus for endoscope and endoscope system
US10602916B2 (en) Endoscope system that adjusts luminance of frame image including images of a pluraliry of regions and actuating method for endoscope system
US11330971B2 (en) Endoscope system and processor with light adjustment control
JP2007215907A (ja) 内視鏡プロセッサ、内視鏡システム、及びブラックバランス調整プログラム
US20170172387A1 (en) Endoscope system
WO2014156253A1 (ja) 内視鏡装置
JP6489644B2 (ja) 撮像システム
WO2019225691A1 (ja) 内視鏡画像処理装置及び内視鏡システム
US20180344129A1 (en) Endoscope processor and operation method of endoscope processor
JP6850871B2 (ja) 電子内視鏡システム
JP2018007837A (ja) 画像処理装置
JP6064092B2 (ja) 内視鏡システム
JP7029281B2 (ja) 内視鏡システム及び内視鏡システムの作動方法
JP2001251613A (ja) 内視鏡システム
JP2019162165A (ja) 内視鏡システム
JP7089943B2 (ja) 内視鏡システム
JP6982677B2 (ja) 被検体観察システム、内視鏡用光源装置、被検体観察システムの作動方法、被検体観察システムの作動プログラム
JP2021171475A (ja) 内視鏡及び内視鏡システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19807474

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19807474

Country of ref document: EP

Kind code of ref document: A1