WO2016185734A1 - 内視鏡システム - Google Patents

内視鏡システム Download PDF

Info

Publication number
WO2016185734A1
WO2016185734A1 PCT/JP2016/053026 JP2016053026W WO2016185734A1 WO 2016185734 A1 WO2016185734 A1 WO 2016185734A1 JP 2016053026 W JP2016053026 W JP 2016053026W WO 2016185734 A1 WO2016185734 A1 WO 2016185734A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
light
halation
control unit
aiming
Prior art date
Application number
PCT/JP2016/053026
Other languages
English (en)
French (fr)
Inventor
泰憲 松井
山下 真司
譲 田辺
悠大 松野
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2016550660A priority Critical patent/JP6058235B1/ja
Publication of WO2016185734A1 publication Critical patent/WO2016185734A1/ja
Priority to US15/446,559 priority patent/US10441135B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00087Tools
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/012Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor
    • A61B1/018Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor for receiving instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/063Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for monochromatic or narrow-band illumination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/18Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves
    • A61B18/20Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves using laser
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00982Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body combined with or comprising means for visual or photographic inspections inside the body, e.g. endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/18Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves
    • A61B18/20Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves using laser
    • A61B2018/2015Miscellaneous features
    • A61B2018/2025Miscellaneous features with a pilot laser

Definitions

  • the present invention relates to an endoscope system, for example, an endoscope system having an imaging unit capable of outputting an observation image of a subject as an image signal and using a laser probe.
  • endoscopes equipped with an imaging unit for observing a subject have been widely used in the medical field and the industrial field.
  • There is also a known technique for constituting an endoscope system which is detachably connected to an endoscope and performs various signal processing related to the endoscope by a signal processing device called a video processor.
  • the treatment under the endoscope is, for example, a laser probe connected to the YAG laser device is inserted into an insertion channel formed in the insertion portion of the endoscope, and then, for example, the ureter is clogged.
  • a treatment for crushing and collecting these stones by irradiating the stones with the YAG laser is known (see Japanese Patent Application Laid-Open No. 2009-288682).
  • laser light such as a so-called YAG laser emitted from a laser probe as described above is invisible light
  • aiming laser A visible light laser (hereinafter referred to as aiming laser) for confirming the irradiation position is irradiated on the surface (see Japanese Patent Application Laid-Open No. 2009-288682).
  • the aiming laser beam is a narrow-band high-intensity light
  • the output level is extremely increased only by the light having the wavelength related to the aiming laser, and as a result, there is a possibility of causing halation.
  • the image of the aiming laser beam is increased by increasing the thickness of an optical filter (IR cut filter) disposed in the lens portion of the image sensor mounted on the distal end portion of the endoscope. Measures were taken to strongly suppress the energy incident on the sensor.
  • IR cut filter optical filter
  • the present invention has been made in view of the above-described problems, and provides an endoscope system capable of improving the visibility when irradiating an aiming laser without changing the size of the image sensor unit.
  • the purpose is to do.
  • An endoscope system controls an endoscope having an imaging element that images a subject, an illumination unit that irradiates the subject with illumination light, and intensity and duration of illumination light from the illumination unit.
  • a dimming section that is provided in the endoscope, and an insertion channel for inserting at least a laser probe capable of irradiating a monochromatic laser beam for aiming for confirming a laser irradiation position with respect to a predetermined position of the subject.
  • a gain control unit that controls the gain of the imaging signal output from the imaging device; a halation detection unit that detects halation associated with the subject when the aiming monochromatic laser light is irradiated; and at least the light control unit; A control unit that controls the gain control unit. If halation by chromatography light is detected, it controls the dimmer to dim the illumination light, and controls the gain control unit to control the gain.
  • FIG. 1 is a perspective view showing a schematic configuration of an endoscope system according to the first embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating a functional configuration of a main part of the endoscope system according to the first embodiment.
  • FIG. 3 is a main part perspective view showing a state when a laser probe is inserted from the laser device into the endoscope system according to the first embodiment.
  • FIG. 4 is a block diagram illustrating a functional configuration of a main part when a laser probe connected to the laser apparatus is inserted into the endoscope system according to the first embodiment.
  • FIG. 5 is an enlarged perspective view of a main part illustrating a configuration of a distal end portion of the endoscope insertion portion in the endoscope system according to the first embodiment.
  • FIG. 1 is a perspective view showing a schematic configuration of an endoscope system according to the first embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating a functional configuration of a main part of the endoscope system
  • FIG. 6 is a flowchart showing the control action of the aiming laser halation detector in the endoscope system according to the first embodiment.
  • FIG. 7 is a flowchart illustrating the control operation of the brightness detection unit in the endoscope system according to the first embodiment.
  • FIG. 8 is a diagram illustrating an example of RGB signal output levels at the time of aiming laser irradiation in a state where a laser probe is inserted from the laser device into the endoscope system according to the first embodiment.
  • FIG. 9 is a block diagram illustrating a functional configuration of a main part when a laser probe connected to the laser apparatus is inserted into the endoscope system according to the second embodiment of the present invention.
  • FIG. 1 is a perspective view showing a schematic configuration of an endoscope system according to the first embodiment of the present invention
  • FIG. 2 shows functions of main parts of the endoscope system according to the first embodiment. It is a block diagram which shows a structure.
  • FIG. 3 is a principal part perspective view showing a state when a laser probe is inserted from the laser device into the endoscope system according to the first embodiment
  • FIG. 4 is a first embodiment. It is a block diagram which shows the function structure of the principal part at the time of inserting the laser probe from the laser apparatus into the endoscope system concerning.
  • an endoscope system 1 includes an endoscope 2 that captures an in-vivo image of a subject by inserting a distal end portion into a body cavity of a subject and outputs an image signal of the subject image. And a video processor 3 that performs predetermined image processing on the image signal output from the endoscope 2 and comprehensively controls the operation of the entire endoscope system 1, and emits it from the distal end of the endoscope 2.
  • a light source device 4 that generates illumination light for display, and a display device 5 that displays an image subjected to image processing in the video processor 3.
  • the endoscope 2 in the endoscope system 1 includes a laser probe connected to a laser device 6 that generates YAG laser light and aiming monochromatic laser light. 7, a laser probe 7 capable of irradiating the YAG laser beam and the aiming monochromatic laser beam is inserted.
  • the laser probe 7 will be described in detail later.
  • the laser device 6 includes a YAG laser light source that generates laser light for pulverizing an object existing at a predetermined position of a subject, and an aiming that generates monochromatic laser light for aiming for confirming a laser irradiation position by the YAG laser.
  • a laser light source which will be described in detail later.
  • the endoscope 2 is a so-called urinary bladder renal pelvic videoscope, which is connected to an insertion portion 21 having a flexible elongated shape, and a proximal end side of the insertion portion 21.
  • An operation unit 22 that receives the input of the operation signal, and a universal cord 23 that extends from the operation unit 22 and incorporates various cables that are connected to the video processor 3 and the light source device 4.
  • the insertion portion 21 is connected to a distal end portion 24 having a built-in image sensor, which will be described later, a bending portion 25 formed of, for example, fluororubber and bendable in two directions, and a proximal end side of the bending portion 25. And a long flexible tube portion 26 having flexibility.
  • the front end portion 24 is configured using, for example, polysulfone, and as shown in FIGS. 1, 2, and 5, a light guide 241 that forms a light guide path of light generated by the light source device 4, and a front end of the light guide 241
  • An objective lens system including an illumination lens 242 that is an illumination section provided in the illumination lens, an illumination lens window 24b disposed on the distal end side of the illumination lens 242, an objective lens 24a that collects a subject image, and an objective lens 24a 243 and an imaging element 244 as an imaging device that is provided at an imaging position of the objective optical system 243, receives light collected by the objective optical system 243, photoelectrically converts it into an electrical signal, and performs predetermined signal processing; It has a treatment instrument channel 247 through which the treatment instrument such as the laser probe 7 described above is inserted, and a distal end opening 24c of the treatment instrument channel 247.
  • the image sensor 244 photoelectrically converts light from the objective optical system 243 and outputs an electrical signal as image information, and an electrical signal output by the sensor unit 244a.
  • An analog front end 244b (hereinafter referred to as “AFE unit 244b”) that performs noise removal and A / D conversion on the analog signal, and a P / S conversion that converts the digital signal output from the AFE unit 244b into parallel / serial and transmits the converted signal to the outside.
  • Unit 244c transmission unit
  • drive timing of the sensor unit 244a drive timing of the sensor unit 244a
  • timing generator 244d synchronization signal generation unit
  • storage unit 244k for storing various setting information.
  • the image sensor 244 employs a CMOS (Complementary Metal Metal Oxide Semiconductor) image sensor (CIS).
  • CMOS Complementary Metal Metal Oxide Semiconductor
  • the timing generator 244d receives various drive signals (synchronization signals) transmitted from the video processor 3.
  • the sensor unit 244a includes a light receiving unit 244f in which a plurality of pixels each having a photodiode that accumulates a charge corresponding to the amount of light and an amplifier that amplifies the charge accumulated by the photodiode are arranged in a two-dimensional matrix, and a light receiving unit 244f.
  • a readout unit 244g that reads out, as image information, an electrical signal generated by a pixel arbitrarily set as a readout target among the plurality of pixels.
  • the AFE unit 244b includes a noise reduction unit 244h that reduces a noise component included in the electrical signal (analog), and an AGC (Auto-Gain Control) unit that adjusts the amplification factor (gain) of the electrical signal and maintains a constant output level. 244i and an A / D conversion unit 244j that performs A / D conversion on the electrical signal output via the AGC unit 244i.
  • the noise reduction unit 244h performs noise reduction using, for example, a correlated double sampling method.
  • the control unit 244e controls various operations of the distal end portion 24 in accordance with the setting data received from the video processor 3.
  • the control unit 244e is configured using a CPU or the like.
  • the storage unit 244k is realized by using a flash memory or a semiconductor memory such as a DRAM (Dynamic Random Access Memory), and the identification information of the video processor 3 and the observation showing the frame sequential or simultaneous observation method.
  • Information in this embodiment, the video processor 3 adopts a frame sequential observation method
  • the imaging speed (frame rate) of the imaging device 244 and the readout speed of pixel information from any pixel of the sensor unit 244a or shutter control setting
  • the transmission control information of the pixel information read by the AFE unit 244b is stored.
  • a collective cable 245 in which a plurality of signal lines for transmitting and receiving electrical signals to and from the video processor 3 are bundled is connected between the operation unit 22 and the distal end unit 24, and between the operation unit 22 and the connector unit 27.
  • a collective cable 224 is connected between them.
  • the plurality of signal lines include a signal line for transmitting an image signal output from the image sensor 244 to the video processor 3 and a signal line for transmitting a control signal output from the video processor 3 to the image sensor 244.
  • a method of transmitting one signal using two signal lines (differential signal lines) (differential transmission) is used for transmission and reception of electrical signals.
  • the voltage between the differential signal lines is positive (+) and negative (-, phase inversion), so that even if noise is mixed in each line, it can be canceled. Resistant to noise, high-speed data transmission is possible.
  • the above-described differential transmission is preferably used when the length of the universal cord 23 or the flexible tube portion 26 is long. However, when the length is short, the single-end signal transmission using a single-end signal is used. Even if it exists, it is applicable.
  • the operation unit 22 includes a bending knob 221 for bending the bending portion 25 in the vertical direction, a treatment instrument insertion portion 222 for inserting at least a treatment instrument such as the laser probe 7, an air supply unit, a water supply unit, and the like. And a switch 223 having a plurality of input switches for inputting the video processor 3 or the setting of the light source device 4.
  • the laser probe 7 when the laser probe 7 is inserted from the treatment instrument insertion portion 222, the laser probe 7 passes from the distal end opening 24 c of the distal end portion 24 to the distal end portion via the treatment instrument channel 247 of the distal end portion 24. 7a appears.
  • a conversion circuit for converting the differential signal into a single-ended signal may be a differential buffer, or the differential signal transmitted from the distal end portion 24 to the connector portion 27 It is also possible to relay the operation unit 22 once and arrange a differential buffer.
  • a twinax line is used for differential signal transmission within the universal cord 23 and a coaxial line is used for single-ended signal transmission within the insertion portion 21. It is preferable to configure with an imaging cable suitable for the above.
  • the universal cord 23 includes at least a light guide 241 and a collective cable 224.
  • the universal cord 23 has a connector portion 27 (see FIG. 1) that is detachably attached to the light source device 4.
  • the connector portion 27 has a coiled coil cable 27a extending, and has an electrical connector portion 28 that is detachable from the video processor 3 at the extending end of the coil cable 27a.
  • the connector unit 27 includes a control unit 271 that controls the endoscope 2 inside, a FPGA (Field Programmable Gate Gate Array) 272, and a reference clock signal (for example, a reference for operation of each component of the endoscope 2). , 68 MHz clock), a first EEPROM 274 that records configuration data, and a second EEPROM 275 that records endoscope-specific data including imaging information.
  • the video processor 3 includes an S / P conversion unit 301, an image processing unit 302, a brightness detection unit 303, a dimming unit 304, a read address setting unit 305, a drive signal generation unit 306, and an input unit 307. , A storage unit 308, a control unit 309, a reference clock generation unit 310, and an aiming laser halation detection unit 311.
  • the S / P converter 301 When the endoscope 2 is connected to the video processor 3, the S / P converter 301 performs serial / parallel conversion on the image signal (digital signal) output from the endoscope 2.
  • the image processing unit 302 performs predetermined image processing on the parallel image signal output from the S / P conversion unit 301 to generate an in-vivo image displayed on the display device 5.
  • the image processing unit 302 includes a synchronization unit 302a, a white balance (WB) adjustment unit 302b, a gain adjustment unit 302c that is a gain control unit, a ⁇ correction unit 302d, a D / A conversion unit 302e, a format, A changing unit 302f, a sample memory 302g, and a still image memory 302h are included.
  • the synchronization unit 302a inputs an image signal input as pixel information to three memories (not shown) provided for each pixel, and associates the image signal with the pixel address of the light receiving unit 244f read by the reading unit 244g. Then, the values of the respective memories are held while being sequentially updated, and the image signals of these three memories are synchronized as RGB image signals.
  • the synchronization unit 302a sequentially outputs the synchronized RGB image signals to the white balance adjustment unit 302b, and outputs a part of the RGB image signals to the sample memory 302g for image analysis such as brightness detection. .
  • the white balance adjustment unit 302b automatically adjusts the white balance of the RGB image signal. Specifically, the white balance adjustment unit 302b automatically adjusts the white balance of the RGB image signal based on the color temperature included in the RGB image signal.
  • the gain adjusting unit 302c adjusts the gain of the RGB image signal.
  • the gain adjustment unit 302c outputs the RGB signal subjected to gain adjustment to the ⁇ correction unit 302d, and outputs some RGB image signals to the still image memory 302h for still image display. Details will be described later.
  • the ⁇ correction unit 302d performs gradation correction ( ⁇ correction) of the RGB image signal in correspondence with the display device 5.
  • the D / A conversion unit 302e converts the image signal output from the ⁇ correction unit 302d into an analog signal.
  • the format changing unit 302f changes the image signal converted into an analog signal to a moving image file format such as a high-definition method, and outputs it to the display device 5.
  • the aiming laser halation detection unit 311 is a circuit that characterizes the present invention, and is a circuit that detects halation of a subject when the aiming laser is irradiated from the laser probe 7 inserted into the insertion channel 247 in the endoscope 2. .
  • the aiming laser halation detection unit 311 holds the RGB image signals before being synchronized in the synchronization unit 302a in an internal memory based on the timing control signal output from the control unit 309. .
  • the signal level of “R” is “Rs”
  • the signal level of “G” is “Gs”
  • the signal is “B”.
  • the aiming laser halation detection unit 311 is “Rs / Gs” that is a luminance level ratio between “Rs” and “Gs”, and a luminance level ratio between “Rs” and “Bs”. From “Rs / Bs”, the “R” single color aiming laser halation is detected.
  • the specified level value of the R signal level “Rs” causing the halation on the monitor screen is “Rs_full”, and the luminance level ratios “Rs / Gs” and “Rs / Bs” are recognized as aiming laser beams.
  • the specified level values of “” are “RGaim_ratio” and “RBaim_ratio”, respectively.
  • the specified level values “Rs_full”, “RGaim_ratio”, and “RBaim_ratio” are specific values determined by the light source light amount or the imaging signal gain for each endoscope system, and in the present embodiment, in the control unit 309. It is held (not shown) as a parameter.
  • the aiming laser halation detection unit 311 performs aiming when the R signal level “Rs” of the RGB image signal and the luminance level ratios “Rs / Gs” and “Rs / Bs” both exceed the above-mentioned specified level values. Detected as halation by laser light, and outputs halation information by aiming laser to the brightness detection unit 303.
  • the brightness detection unit 303 detects the brightness level corresponding to each pixel from the RGB image signals held in the sample memory 302g, records the detected brightness level in a memory provided therein, and the control unit 309. Output to.
  • the brightness detection unit 303 calculates a white balance adjustment value, a gain adjustment value, and a light irradiation amount value so that the target brightness is obtained based on the detected brightness level under the control of the control unit 309.
  • the white balance adjustment value is output to the white balance adjustment unit 302b
  • the gain adjustment value is output to the gain adjustment unit 302c
  • the light irradiation amount value is output to the dimming unit 304.
  • the output control of the gain adjustment value and the light irradiation amount value by the brightness detection unit 303 under the control of the control unit 309 gives priority to the light irradiation amount value. Then, under the control of the control unit 309, the brightness detection unit 303 performs control to increase the light irradiation amount value when the brightness is insufficient, and when the brightness still does not reach the target value of the brightness, the gain adjustment value. Control to raise.
  • the brightness detection unit 303 is operated based on the halation information from the aiming laser halation detection unit 311 by changing the ratio between the gain adjustment value and the light irradiation amount value in the dimming operation. Control.
  • the brightness detection unit 303 controls the gain of the gain adjustment unit 302c under the control of the control unit 309 until the aiming laser halation level decreases to a certain level.
  • the output of the gain adjustment value is controlled so as to decrease (multiply the gain in the negative direction depending on the situation), and the light irradiation amount value output to the dimming unit 304 is increased, so that the brightness of the display image becomes the target level.
  • the brightness detection unit 303 does not perform the above-described control when the aiming laser halation level is equal to or less than the specified value (the gain of the gain adjustment unit 302c is a positive gain), and adjusts the gain so that the brightness reaches the target level.
  • the gain adjustment value of the unit 302c and the light irradiation amount of the light control unit 304 are controlled.
  • the light control unit 304 sets the type, light amount, light emission timing, and the like of the light generated by the light source device 4 based on the light irradiation amount value calculated by the brightness detection unit 303 under the control of the control unit 309.
  • a light source synchronization signal including the set conditions is transmitted to the light source device 4.
  • the read address setting unit 305 has a function of setting the pixel to be read and the reading order on the light receiving surface of the sensor unit 244a by communicating with the control unit 271 in the endoscope 2 under the control of the control unit 309. .
  • the control unit 271 in the endoscope 2 reads out the type information of the sensor unit 224 a stored in the second EEPROM 275 and transmits it to the video processor 3.
  • the read address setting unit 305 has a function of setting the pixel address of the sensor unit 244a read by the AFE unit 244b. Then, the readout address setting unit 305 outputs the set address information of the readout target pixel to the synchronization unit 302a.
  • the drive signal generation unit 306 generates drive timing signals (horizontal synchronization signal (HD) and vertical synchronization signal (VD)) for driving the endoscope 2, and is included in the FPGA 272 and the collective cables 224 and 245.
  • the signal is transmitted to the timing generator 244d (image sensor 244) via a predetermined signal line.
  • This timing signal includes address information of a pixel to be read.
  • the drive signal generation unit 306 generates a standby signal for performing transmission control of an electric signal transmitted from the endoscope 2 to the video processor 3.
  • the standby signal is a signal for setting the transmission of the electric signal (image information) by the P / S conversion unit 244c to the FPGA 272 side to either the transmission state or the stop state (standby state).
  • the input unit 307 receives an input of an operation instruction signal for instructing the operation of the endoscope system 1 such as freeze or release set by the front panel or the keyboard.
  • the storage unit 308 is realized by using a semiconductor memory such as a flash memory or a DRAM (Dynamic Random Access Memory).
  • the storage unit 308 stores various programs for operating the endoscope system 1 and data including various parameters necessary for the operation of the endoscope system 1.
  • the storage unit 308 stores identification information and observation information of the video processor 3.
  • the identification information includes unique information (ID) of the video processor 3, year, specification information of the control unit 309, and transmission rate information.
  • the control unit 309 is configured using a CPU or the like, and controls the driving of each component including the video processor 3 (particularly the aiming laser halation detector 311), the endoscope 2 and the light source device 4, and information on each component. Perform input / output control.
  • control unit 309 transmits setting data for imaging control to the FPGA 272 of the connector unit 27 in the endoscope 2 connected to the video processor 3, and collects necessary signals and data for the imaging element 244 in the collective cable 224.
  • the data is transmitted to the control unit 244e via a predetermined signal line included in H.245.
  • the reference clock generation unit 310 generates a reference clock signal that serves as a reference for the operation of each component of the endoscope system 1 and supplies the generated reference clock signal to each component of the endoscope system 1.
  • the light source device 4 includes a light source 41, a light source driver 42, a rotary filter 43, a drive unit 44, a drive driver 45, and a light source control unit 46.
  • the light source 41 is configured using a white LED (Light Emitting Diode), a xenon lamp, or the like, and generates white light under the control of the light source control unit 46.
  • a white LED Light Emitting Diode
  • a xenon lamp or the like
  • the light source driver 42 generates white light in the light source 41 by supplying current to the light source 41 under the control of the light source control unit 46.
  • the light generated by the light source 41 is emitted from the illumination lens window 24b of the distal end portion 24 via the rotary filter 43, a condenser lens (not shown), and the light guide 241.
  • the rotation filter 43 is disposed on the optical path of the white light emitted from the light source 41, and transmits only the light having a predetermined wavelength band through the white light emitted from the light source 41 by rotating.
  • the rotating filter 43 includes a red filter 431, a green filter 432, and a blue filter 433 that transmit light having respective wavelength bands of red light (R), green light (G), and blue light (B).
  • R red light
  • G green light
  • B blue light
  • the rotating filter 43 sequentially transmits light having red, green, and blue wavelength bands (for example, red: 600 nm to 800 nm, green: 500 nm to 600 nm, blue: 400 nm to 500 nm) by rotating.
  • red 600 nm to 800 nm
  • green 500 nm to 600 nm
  • blue 400 nm to 500 nm
  • the white light emitted from the light source 41 can sequentially emit one of the narrow-band red light, green light, and blue light to the endoscope 2.
  • the drive unit 44 is configured by using a stepping motor, a DC motor, or the like, and rotates the rotary filter 43 with reference to the synchronization signal transmitted from the video processor 3.
  • the drive driver 45 supplies a predetermined current to the drive unit 44 under the control of the light source control unit 46.
  • the light source control unit 46 controls the amount of current supplied to the light source 41 according to the dimming signal transmitted from the dimming unit 304.
  • the light source control unit 46 rotates the rotary filter 43 by driving the drive unit 44 via the drive driver 45 under the control of the control unit 309.
  • the display device 5 has a function of receiving and displaying the in-vivo image generated by the video processor 3 from the video processor 3 via the video cable.
  • the display device 5 is configured using liquid crystal, organic EL (Electro Lumines cence), or the like.
  • FIG. 3 is a perspective view of a main part showing a state when a laser probe is inserted from the laser device into the endoscope system according to the first embodiment
  • FIG. 4 is according to the first embodiment. It is a block diagram which shows the function structure of the principal part at the time of inserting the laser probe connected to the laser apparatus in the endoscope system.
  • the laser probe 7 connected to the laser device 6 is inserted into the endoscope 2 in the endoscope system 1 as described above. Yes.
  • the laser device 6 includes a YAG laser light source 62 that generates laser light for crushed an object existing at a predetermined position of a subject, and an aiming for confirming a laser irradiation position by the YAG laser. And an aiming laser light source 61 that generates a monochromatic laser beam (hereinafter, aiming laser beam).
  • a YAG laser light source 62 that generates laser light for crushed an object existing at a predetermined position of a subject, and an aiming for confirming a laser irradiation position by the YAG laser.
  • an aiming laser light source 61 that generates a monochromatic laser beam (hereinafter, aiming laser beam).
  • the laser device 6 is also provided with a turning mirror 67 disposed on the optical path of the YAG laser light output from the YAG laser light source 62 and an optical path of the aiming laser light output from the aiming laser light source 61.
  • the output of the YAG laser light from the YAG laser light source 62 and the output of the aiming laser light from the aiming laser light source 61 are switched by the control unit 63 according to the switching operation instruction from the input unit 64. It is like that.
  • the laser probe 7 can be connected to the laser device 6 on the proximal end side, and the distal end side is inserted from the treatment instrument insertion portion 222 in the endoscope 2, and the distal end passes through the treatment instrument channel 247 of the distal end portion 24.
  • the tip 7 a is exposed from the tip opening 24 c of the portion 24.
  • control unit 63 in the laser device 6 is controlled by the control unit 63 in the laser device 6 so that YAG laser light or aiming monochromatic laser light can be irradiated.
  • FIG. 6 is a flowchart showing the control action of the aiming laser halation detection unit in the endoscope system according to the first embodiment
  • FIG. 7 shows the brightness in the endoscope system according to the first embodiment. It is the flowchart which showed the control action of the length detection part.
  • the aiming laser halation detection unit 311 first holds the RGB image signals before being synchronized in the synchronization unit 302a in the internal memory based on the timing control signal output from the control unit 309.
  • the aiming laser halation detection unit 311 determines whether the R signal level “Rs” of the RGB image signals held in the internal memory has reached the specified level value “Rs_full”. Is detected (step S1).
  • step S1 if the R signal level “Rs” does not reach the specified level value “Rs_full”, the aiming laser halation detector 311 determines that no aiming laser halation has occurred (step S4).
  • step S2 when the R signal level “Rs” has reached the specified level value “Rs_full” in step S1, the aiming laser halation detection unit 311 determines that the aiming laser halation may have occurred, Then, “Rs / Gs”, which is the luminance level ratio between “Rs” and “Gs”, is compared with the specified level value “RGaim_ratio” (step S2).
  • the aiming laser halation detection unit 311 determines that no aiming laser halation has occurred (step S4).
  • the aiming laser halation detector 311 next selects the luminance level ratio between “Rs” and “Bs”. “Rs / Bs” and the specified level value “RBaim_ratio” are compared (step S3).
  • the aiming laser halation detection unit 311 determines that the aiming laser halation has not occurred when the luminance level ratio “Rs / Bs” is less than the specified level value “RBaim_ratio” (step S4).
  • the level ratio “Rs / Bs” is equal to or greater than the specified level value “RBaim_ratio”, it is determined that aiming laser halation has occurred (step S5).
  • the output level of the RGB image signal before being synchronized in the synchronization unit 302a is extremely high only in the signal output level of the narrowband R wavelength light related to the aiming laser. As a result, halation has occurred.
  • the aiming laser halation detection unit 311 When the aiming laser halation detection unit 311 detects the halation by the aiming laser beam, the aiming laser halation detection unit 311 outputs halation information by the aiming laser to the brightness detection unit 303.
  • dimming control by the brightness detection unit 303 in this embodiment particularly dimming control after detecting aiming laser halation will be described.
  • FIG. 7 is a flowchart showing the control action of the brightness detection unit in the endoscope system according to the first embodiment.
  • the brightness detection unit 303 detects the brightness level corresponding to each pixel from the RGB image signal held in the sample memory 302g, and the detected brightness level is stored in a memory provided therein. Record and output to the control unit 309.
  • the brightness detection unit 303 calculates a white balance adjustment value, a gain adjustment value, and a light irradiation amount value so that the target brightness is obtained based on the detected brightness level.
  • the balance adjustment value is output to the white balance adjustment unit 302b
  • the gain adjustment value is output to the gain adjustment unit 302c
  • the light irradiation amount value is output to the dimming unit 304.
  • the output control of the gain adjustment value and the light irradiation value by the brightness detection unit 303 under the control of the control unit 309 is set so as to give priority to the light irradiation value.
  • the brightness detection unit 303 controls to increase the light irradiation amount value when the brightness is insufficient, and when the brightness still does not reach the brightness target value, the gain adjustment value. It is supposed to be controlled to raise.
  • the brightness detection unit 303 is operated based on the halation information from the aiming laser halation detection unit 311 by changing the ratio between the gain adjustment value and the light irradiation amount value in the dimming operation. It comes to control.
  • step S11 when the aiming laser halation detection unit 311 detects halation (step S11), first, the gain value of the gain adjustment unit 302c is decreased until the aiming laser halation level drops to a certain level. The output of the gain adjustment value is controlled so as to decrease (step S15). In step S15, a negative gain is applied depending on the situation.
  • step S15 The decrease in the gain adjustment value in step S15 is continued until the aiming laser halation detector 311 does not detect halation (step S16).
  • steps S15 and S16 when the level of the aiming laser halation is lowered to a certain level by adjusting the gain adjustment value, the brightness detection unit 303 outputs light to the dimming unit 304 under the control of the control unit 309. Control is performed to increase the quantity value (step S17).
  • step S17 The adjustment of the light irradiation amount value in step S17 is continued until the brightness of the display image reaches the target luminance level (step S18).
  • step S11 when the aiming laser halation detection unit 311 does not detect halation in step S11 (step S11), the brightness detection unit 303 performs normal dimming control under the control of the control unit 309. (Step S12 to Step S14).
  • the brightness detection unit 303 does not perform the above-described control (the gain of the gain adjustment unit 302c is The gain adjustment value of the gain adjusting unit 302c and the light irradiation amount of the dimming unit 304 are controlled so that the brightness reaches the target level.
  • the output control of the gain adjustment value and the light irradiation amount value by the brightness detection unit 303 gives priority to the light irradiation amount value, and controls to increase the light irradiation amount value when the brightness is insufficient (step S12). However, if the brightness still does not reach the target value of brightness, control is performed to increase the gain adjustment value (step S13).
  • the brightness detection unit 303 outputs the white balance adjustment value, the white balance adjustment unit, and the light irradiation amount to the dimming unit 304.
  • the aiming laser beam is applied to the image sensor without increasing the thickness of the optical filter (IR cut filter) mounted on the lens portion of the image sensor.
  • the incident energy can be strongly suppressed, that is, the visibility when irradiating the aiming laser can be improved without changing the size of the image sensor unit.
  • the endoscope system 1 according to the first embodiment described above employs a so-called frame sequential observation method, while the endoscope system 101 according to the second embodiment employs a simultaneous observation method.
  • FIG. 9 is a block diagram showing a functional configuration of a main part when a laser probe connected to a laser apparatus is inserted into the endoscope system according to the second embodiment of the present invention.
  • the basic configuration of the endoscope system 101 according to the second embodiment is the same as that of the endoscope system 1 according to the first embodiment. Accordingly, only the differences from the first embodiment will be described here, and descriptions of common parts will be omitted.
  • the endoscope system 101 captures an in-vivo image of a subject by inserting a distal end portion into the body cavity of the subject, as in the first embodiment.
  • An endoscope 102 that outputs an image signal of the subject image, and a video that performs predetermined image processing on the image signal output from the endoscope 102 and comprehensively controls the operation of the entire endoscope system 101.
  • a processor 103, a light source device 104 that generates illumination light to be emitted from the distal end of the endoscope 102, and a display device 5 that displays an image subjected to image processing in the video processor 103 are provided.
  • the endoscope 102 includes a laser probe 7 connected to a laser device 6 that generates YAG laser light and aiming monochromatic laser light, and the YAG laser light and the aiming A laser probe 7 capable of emitting a monochromatic laser beam for use is inserted.
  • the endoscope system 101 employs the simultaneous observation method as described above, and the light receiving unit 244f of the imaging device 244 of the endoscope 102 has RGB3 corresponding to each pixel.
  • a primary color filter (not shown) is provided.
  • the light source device 104 includes a light source 41, a light source driver 42, and a light source control unit 46.
  • the light source 41 is configured using a white LED (Light Emitting Diode), a xenon lamp, or the like, and generates white light under the control of the light source control unit 46. Further, the light source driver 42 supplies white light to the light source 41 by supplying current to the light source 41 under the control of the light source control unit 46. Light generated by the light source 41 is emitted from the tip of the tip portion 24 via a condenser lens (not shown) and a light guide 241.
  • a condenser lens not shown
  • the light source control unit 46 controls the amount of current supplied to the light source 41 according to the dimming signal transmitted from the dimming unit 304.
  • the video processor 103 is similar to the first embodiment in that the S / P converter 301, the image processor 302, the brightness detector 303, the dimmer 304, and the readout
  • the address setting unit 305, the drive signal generation unit 306, the input unit 307, the storage unit 308, the control unit 309, the reference clock generation unit 310, and the aiming laser halation detection unit 311 are configured.
  • the image processing unit 302 performs predetermined image processing on the parallel image signal output from the S / P conversion unit 301 to generate an in-vivo image to be displayed on the display device 5. To do.
  • the image processing unit 302 includes a synchronization unit 302a, a white balance (WB) adjustment unit 302b, a gain adjustment unit 302c, a ⁇ correction unit 302d, a D / A conversion unit 302e, a format change unit 302f, It has a sample memory 302g and a still image memory 302h.
  • WB white balance
  • the synchronizer 302a receives image signals input as pixel information via the color filter in the image sensor 244 described above, and three memories (not shown) provided for each pixel. ) And the values of each memory are sequentially updated and held in correspondence with the pixel address of the light receiving unit 244f read by the reading unit 244g, and the image signals of these three memories are synchronized as RGB image signals. To do.
  • the synchronization unit 302a sequentially outputs the synchronized RGB image signals to the white balance adjustment unit 302b, and outputs a part of the RGB image signals to the sample memory 302g for image analysis such as brightness detection. .
  • the white balance adjustment unit 302b, gain adjustment unit 302c, ⁇ correction unit 302d, D / A conversion unit 302e, format change unit 302f, sample memory 302g, and still image memory 302h are the same as in the first embodiment. The description here is omitted.
  • the aiming laser halation detection unit 311 is a circuit that detects the halation of the subject when the aiming laser is irradiated from the laser probe 7 inserted into the insertion channel 247 in the endoscope 102, as in the first embodiment.
  • the aiming laser halation detection unit 311 holds RGB image signals in its internal memory based on the timing control signal output from the control unit 309 and the color filter array in the image sensor 244 described above. Yes.
  • the signal levels of the RGB image signals held in the internal memory in the aiming laser halation detector 311 are “Rs”, “Gs”, and “Bs”, respectively, and the luminance level ratio “ From “Rs / Gs” and “Rs / Bs”, the halation by the aiming laser of R single color is detected.
  • the aiming laser halation detection unit 311 performs aiming when the R signal level “Rs” of the RGB image signal and the luminance level ratios “Rs / Gs” and “Rs / Bs” both exceed the above-mentioned specified level values. Detected as halation by laser light, and outputs halation information by aiming laser to the brightness detection unit 303.
  • the configuration related to the brightness control function at the time of aiming laser irradiation in the video processor 103 in the second embodiment is the same as that in the first embodiment, and the brightness detection unit in the second embodiment also.
  • 303 controls based on the halation information from the aiming laser halation detection unit 311 to change the ratio between the gain adjustment value and the light irradiation amount value in the dimming operation.
  • the brightness detection unit 303 controls the gain of the gain adjustment unit 302c under the control of the control unit 309 until the aiming laser halation level decreases to a certain level.
  • the output of the gain adjustment value is controlled so as to decrease (multiply the gain in the negative direction depending on the situation), and the light irradiation amount value output to the dimming unit 304 is increased, so that the brightness of the display image becomes the target level.
  • the brightness detection unit 303 does not perform the above-described control when the aiming laser halation level is equal to or less than the specified value (the gain of the gain adjustment unit 302c is a positive gain), and adjusts the gain so that the brightness reaches the target level.
  • the gain adjustment value of the unit 302c and the light irradiation amount of the light control unit 304 are controlled.
  • the light control unit 304 sets the amount of light generated by the light source device 104 based on the light irradiation amount value calculated by the brightness detection unit 303 under the control of the control unit 309, and the set condition is set as the light source. Transmit to device 104.
  • the control unit 309 is configured using a CPU or the like, and controls driving of each component including the video processor 103 (particularly the aiming laser halation detection unit 311), the endoscope 102, and the light source device 104, and information on each component. Perform input / output control.
  • control unit 309 transmits setting data for imaging control to the FPGA 272 of the connector unit 27 in the endoscope 102 connected to the video processor 103, and signals and data necessary for the imaging element 244 are collected in the collective cable 224.
  • the data is transmitted to the control unit 244e via a predetermined signal line included in H.245.
  • the aiming laser halation detection unit 311 first holds the RGB image signals in the internal memory based on the timing control signal output from the control unit 309 and the color filter array in the image sensor 244 described above.
  • the aiming laser halation detection unit 311 determines whether or not the R signal level “Rs” of the RGB image signals held in the internal memory has reached the specified level value “Rs_full”, as in the first embodiment. (See step S1 in FIG. 6), the R signal level “Rs” reaches the specified level value “Rs_full”, and the luminance level ratios “Rs / Gs” and “Rs / Bs” are the specified level. If it is greater than or equal to the value, it is determined that aiming laser halation has occurred (see steps S2, S3, and S5 in FIG. 6).
  • the aiming laser halation detection unit 311 detects halation by the aiming laser beam
  • the aiming laser halation detection unit 311 outputs halation information by the aiming laser to the brightness detection unit 303, and the gain adjustment unit 302c until the level of the aiming laser halation is lowered to a certain level.
  • the output of the gain adjustment value is controlled so as to lower the gain value (see steps S15 and S16 in FIG. 7).
  • the brightness detection unit 303 Under the control of the control unit 309, the light irradiation amount value output to the light control unit 304 is controlled to increase (see step S17 in FIG. 7).
  • step S17 The adjustment of the light irradiation amount value in step S17 is continued until the brightness of the display image reaches the target luminance level (see step S18 in FIG. 7).
  • the brightness detection unit 303 performs normal dimming control under the control of the control unit 309 (steps S12 to S12 in FIG. 7). (See step S14).
  • the thickness of the optical filter (IR cut filter) mounted on the lens portion of the image sensor is not increased.
  • the incident energy of the aiming laser light to the image sensor can be strongly suppressed, that is, the visibility when irradiating the aiming laser can be improved without changing the size of the image sensor unit. Play.
  • the function concerning the aiming laser halation detection part 311 mentioned above shall be provided in the video processor 3 (103) in the embodiment mentioned above, it is not limited to this,
  • the endoscope 2 (102) A configuration provided in the image sensor 244, the operation unit 22, or the connector unit 27 is also included in the present invention.
  • the configuration of the endoscope system is given as an example of the embodiment of the present invention.
  • the present invention is not limited to this, and the present invention is not limited to the image processing function and other imaging systems. Even can be applied.
  • an endoscope system that can improve the visibility when irradiating the aiming laser without changing the size of the image sensor unit.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Optics & Photonics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)
  • Laser Surgery Devices (AREA)

Abstract

被写体を撮像する撮像素子244を有する内視鏡2と、照明部242からの照明光強度と照射時間を制御する調光部304と、エイミング用単色レーザー光を照射可能なレーザープローブ7を挿通する挿通チャネル247と、撮像素子244の撮像信号のゲインを制御するゲイン調整部302cと、エイミング用単色レーザー光を照射した際における被写体に係るハレーションを検知するエイミングレーザーハレーション検知部311と、エイミング用単色レーザー光によるハレーションが検知された場合、調光部304とゲイン制御部302cを制御する制御部309とを備える。

Description

内視鏡システム
 本発明は、内視鏡システム、例えば、被写体の観察画像を画像信号として出力可能な撮像部を有するとともにレーザープローブを利用可能な内視鏡システムに関する。
 従来、医療用分野及び工業用分野においては、被検体を観察する撮像部を備えた内視鏡が広く用いられている。また、内視鏡に着脱自在に接続され、内視鏡に係る各種信号処理をビデオプロセッサと称する信号処理装置により担い、内視鏡システムを構成する技術も知られるところにある。
 一方、近年、泌尿器分野では腎臓内で生成された石が尿管または尿道に詰まる尿路結石に対し、内視鏡下での処置が行われるようになっている。
 この内視鏡下での処置とは具体的に、たとえば、内視鏡の挿入部に形成された挿通チャンネルにYAGレーザー装置に接続されたレーザープローブを挿通し、その後たとえば尿管等に詰まった石に対して当該YAGレーザーを照射することによりこれら石を砕いて採取する処置が知られている(日本国特開2009-288682号公報参照)。
 ところで上述した如きレーザープローブから照射される、いわゆるYAGレーザー等のレーザー光は不可視光であるため、砕石対象物の照射位置を確認しやすくするために、これら砕石照射用のYAGレーザーを照射する前に照射位置確認用の可視光レーザー(以下、エイミングレーザー)を照射することが行われている(日本国特開2009-288682号公報参照)。
 しかし、上述したエイミングレーザーの出力エネルギーが高い場合、モニター上の内視鏡画像ではエイミングレーザーのポイントがハレーションを起こして測定部位の視認性が悪化してしまうという問題があった。
 すなわち、エイミングレーザー光は狭帯域の強度の高い光であるため、エイミングレーザーに係る波長の光だけ出力レベルが極端に大きくなり、結果的にハレーションを起こしてしまう虞があった。
 ここで上述したハレーションを防止するためには、エイミングレーザー装置側の出力エネルギーの調節をすることが考えられるが、内視鏡システムに組み合わされるエイミングレーザー装置は複数の種類種別が存在することから、内視鏡装置側からエイミングレーザー装置側の出力エネルギーの調節をすることは困難であるのが現状である。
 また、電子シャッタを搭載していないイメージセンサを備える内視鏡においては、上述した如き状況で生じるハレーションの低減は困難である。
 上述した問題に対し従来、内視鏡先端部に搭載するイメージセンサのレンズ部分に配置された、赤外光をカットする光学フィルタ(IRカットフィルタ)の厚みを増すことで、エイミングレーザー光のイメージセンサへの入射エネルギーを強く抑える対策を行っていた。
 しかし、前記光学フィルタの厚みを増加させることは、内視鏡先端部におけるイメージセンサユニット部の長さ方向の増大に繋がってしまい、これにより、内視鏡先端部の湾曲角度が小さくなってしまい、製品スペックを悪化させてしまうという問題があった。
 本発明は、上述した課題に鑑みてなされたものであって、イメージセンサユニット部の大きさを変えることなく、エイミングレーザーを照射する際の視認性を向上させることができる内視鏡システムを提供することを目的とする。
 本発明の一態様の内視鏡システムは、被写体を撮像する撮像素子を有する内視鏡と、前記被写体に照明光を照射する照明部と、前記照明部からの照明光強度と照射時間を制御する調光部と、前記内視鏡に設けられ、前記被写体の所定位置に対してレーザー照射位置を確認するためのエイミング用単色レーザー光を照射可能なレーザープローブを少なくとも挿通するための挿通チャネルと、前記撮像素子から出力された撮像信号のゲインを制御するゲイン制御部と、前記エイミング用単色レーザー光を照射した際における前記被写体に係るハレーションを検知するハレーション検知部と、少なくとも前記調光部および前記ゲイン制御部を制御する制御部と、を備え、前記制御部は、前記ハレーション検知部において前記エイミング用単色レーザー光によるハレーションが検知された場合、前記照明光を調光するよう前記調光部を制御すると共に、前記ゲインを制御するよう前記ゲイン制御部を制御する。
図1は、本発明の第1の実施の形態にかかる内視鏡システムの概略構成を示す斜視図である。 図2は、第1の実施の形態にかかる内視鏡システムの要部の機能構成を示すブロック図である。 図3は、第1の実施の形態にかかる内視鏡システムにレーザー装置からレーザープローブを挿入した際の状態を示した要部斜視図である。 図4は、第1の実施の形態にかかる内視鏡システムにレーザー装置に接続されたレーザープローブを挿入した際の要部の機能構成を示すブロック図である。 図5は、第1の実施の形態にかかる内視鏡システムにおける内視鏡挿入部の先端部の構成を示した要部拡大斜視図である。 図6は、第1の実施の形態にかかる内視鏡システムにおけるエイミングレーザーハレーション検知部の制御作用を示したフローチャートである。 図7は、第1の実施の形態にかかる内視鏡システムにおける明るさ検知部の制御作用を示したフローチャートである。 図8は、第1の実施の形態にかかる内視鏡システムにレーザー装置からレーザープローブを挿入した状態におけるエイミングレーザー照射時のRGB信号出力レベルの一例を示した図である。 図9は、本発明の第2の実施の形態にかかる内視鏡システムにレーザー装置に接続されたレーザープローブを挿入した際の要部の機能構成を示すブロック図である。
 以下、図面を参照して本発明の実施の形態を説明する。 
 また、この実施の形態により、この発明が限定されるものではない。さらに、図面の記載において、同一部分には同一の符号を付している。さらにまた、図面は、模式的なものであり、各部材の厚みと幅との関係、各部材の比率等は、現実と異なることに留意する必要がある。また、図面の相互間においても、互いの寸法や比率が異なる部分が含まれている。
 図1は、本発明の第1の実施の形態にかかる内視鏡システムの概略構成を示す斜視図であり、図2は、第1の実施の形態にかかる内視鏡システムの要部の機能構成を示すブロック図である。
 さらに、図3は、第1の実施の形態にかかる内視鏡システムにレーザー装置からレーザープローブを挿入した際の状態を示した要部斜視図であり、図4は、第1の実施の形態にかかる内視鏡システムにレーザー装置からレーザープローブを挿入した際の要部の機能構成を示すブロック図である。
 図1および図2に示すように、内視鏡システム1は、被検体の体腔内に先端部を挿入することによって被写体の体内画像を撮像し当該被写体像の画像信号を出力する内視鏡2と、内視鏡2から出力される画像信号に対して所定の画像処理を施すとともに内視鏡システム1全体の動作を統括的に制御するビデオプロセッサ3と、内視鏡2の先端から出射するための照明光を発生する光源装置4と、ビデオプロセッサ3において画像処理が施された画像を表示する表示装置5と、を備える。
 また、図3および図4に示すように、本実施形態において内視鏡システム1における内視鏡2には、YAGレーザー光およびエイミング用単色レーザー光を生成するレーザー装置6に接続されたレーザープローブ7であって、前記YAGレーザー光および前記エイミング用単色レーザー光を照射可能なレーザープローブ7が挿通されるようになっている。このレーザープローブ7については後に詳述する。
 前記レーザー装置6は、被写体の所定位置に存する対象物を砕石するためのレーザー光を生成するYAGレーザー光源と、当該YAGレーザーによるレーザー照射位置を確認するためのエイミング用単色レーザー光を生成するエイミングレーザー光源と、を備えるが、詳しくは後述する。
 図1および図2に戻って、内視鏡2は、いわゆる膀胱腎盂ビデオスコープであって、可撓性を有する細長形状をなす挿入部21と、挿入部21の基端側に接続され、各種の操作信号の入力を受け付ける操作部22と、操作部22から延出されビデオプロセッサ3および光源装置4と接続する各種ケーブルを内蔵するユニバーサルコード23と、を備える。
 挿入部21は、後述する撮像素子を内蔵した先端部24と、たとえばフッ素ゴムにより形成され上下2方向に湾曲自在な湾曲部25と、湾曲部25の基端側に接続され、たとえばフッ素樹脂により形成された可撓性を有する長尺状の軟性管部26と、を有する。
 先端部24は、たとえばポリスルフォン等を用いて構成され、図1、図2および図5に示すように、光源装置4が発生した光の導光路をなすライトガイド241と、ライトガイド241の先端に設けられた照明部である照明レンズ242と、当該照明レンズ242の先端側に配設された照明レンズ窓24bと、被写体像を集光する対物レンズ24aと、対物レンズ24aを含む対物光学系243と、対物光学系243の結像位置に設けられ、対物光学系243が集光した光を受光して電気信号に光電変換するとともに所定の信号処理を施す撮像装置としての撮像素子244と、上述したレーザープローブ7等の処置具が挿通される処置具チャンネル247と、当該処置具チャンネル247の先端開口部24cと、を有する。
 図2を参照して、撮像素子244の電気的な構成を説明する。 
 図2に示すように、撮像素子244は、対物光学系243からの光を光電変換して電気信号を画像情報として出力するセンサ部244a(撮像部)と、センサ部244aが出力した電気信号に対してノイズ除去およびA/D変換を行うアナログフロントエンド244b(以下、「AFE部244b」という)と、AFE部244bが出力したデジタル信号をパラレル/シリアル変換して外部に送信するP/S変換部244c(送信部)と、センサ部244aの駆動タイミング、AFE部244bおよびP/S変換部244cにおける各種信号処理のパルスを発生するタイミングジェネレータ244d(同期信号発生部)と、撮像素子244の動作を制御する制御部244eと、各種設定情報を記憶する記憶部244kと、を有する。
 撮像素子244は、本実施形態においては、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ(CIS)を採用する。タイミングジェネレータ244dは、ビデオプロセッサ3から送信される各種駆動信号(同期信号)を受信する。
 センサ部244aは、光量に応じた電荷を蓄積するフォトダイオードおよびフォトダイオードが蓄積した電荷を増幅する増幅器をそれぞれ有する複数の画素が2次元マトリックス状に配設された受光部244fと、受光部244fの複数の画素のうち読み出し対象として任意に設定された画素が生成した電気信号を画像情報として読み出す読み出し部244gと、を有する。
 AFE部244bは、電気信号(アナログ)に含まれるノイズ成分を低減するノイズ低減部244hと、電気信号の増幅率(ゲイン)を調整して一定の出力レベルを維持するAGC(Auto Gain Control)部244iと、AGC部244iを介して出力された電気信号をA/D変換するA/D変換部244jと、を有する。ノイズ低減部244hは、たとえば相関二重サンプリング(Correlated Double Sampling)法を用いてノイズの低減を行う。
 制御部244eは、ビデオプロセッサ3から受信した設定データにしたがって、先端部24の各種動作を制御する。なお、制御部244eは、CPU等を用いて構成される。
 記憶部244kは、本実施形態においては、フラッシュメモリまたはDRAM(Dynamic Random Access Memory )等の半導体メモリを用いて実現され、ビデオプロセッサ3の識別情報および面順次式もしくは同時式の観察方式を示す観察情報(なお本実施形態においてビデオプロセッサ3は面順次の観察方式を採用)、撮像素子244の撮像速度(フレームレート)、およびセンサ部244aの任意の画素からの画素情報の読み出し速度またはシャッタ制御設定ならびにAFE部244bが読み出した画素情報の伝送制御情報等を記憶する。
 操作部22と先端部24との間には、ビデオプロセッサ3との間で電気信号の送受信を行う複数の信号線が束ねられた集合ケーブル245が接続され、操作部22とコネクタ部27との間には集合ケーブル224が接続されている。なお、複数の信号線には、撮像素子244が出力した画像信号をビデオプロセッサ3へ伝送する信号線およびビデオプロセッサ3が出力する制御信号を撮像素子244へ伝送する信号線等が含まれる。
 また、本実施形態において、電気信号の送受信には2本の信号線(差動信号線)を用いて一つの信号を伝送する方式(差動伝送)が用いられる。この差動伝送方式は、差動信号線間の電圧をそれぞれ正(+)および負(-、位相反転)とすることによって、各線にノイズが混入してもキャンセルできるため、シングルエンド信号に比べてノイズに強く、データの高速伝送が可能となる。
 なお、上述した差動伝送は、ユニバーサルコード23または軟性管部26の長さが長い場合には用いられることが好ましいが、この長さが短い場合は、シングルエンド信号を用いるシングルエンド信号伝送であっても適用可能である。
 図1に戻って、操作部22は、湾曲部25を上下方向に湾曲させる湾曲ノブ221と、少なくともレーザープローブ7等の処理具を挿入する処置具挿入部222と、送気手段または送水手段等の切り替えを行う信号、並びにビデオプロセッサ3または光源装置4の設定を入力する複数の入力スイッチを備えるスイッチ223と、を有する。
 本実施形態においては、レーザープローブ7が処置具挿入部222から挿入された際、当該レーザープローブ7は、先端部24の処置具チャンネル247を経由して先端部24の先端開口部24cから先端部7aが表出するようになっている。
 一方、本実施形態においては、コネクタ部27から先端部24に信号を伝送する場合においては、ユニバーサルコード23で信号を中継して、差動信号をシングルエンド信号に変換する回路を配設する。
 ここで差動信号を先端部24まで伝送させる場合、この差動信号からシングルエンド信号に変換する変換回路を差動バッファとしてもよいし、先端部24からコネクタ部27に伝送する差動信号を一度操作部22で中継し、差動バッファを配置するようにしてもよい。
 なお、例えば、ユニバーサルコード23内の差動の信号伝達にはツイナックス線、挿入部21内のシングルエンド信号伝送には同軸線を適用するというように、挿入部21およびユニバーサルコード23でそれぞれの伝送に適した撮像ケーブルで構成することが好ましい。
 ユニバーサルコード23は、ライトガイド241と、集合ケーブル224と、を少なくとも内蔵している。ユニバーサルコード23は、光源装置4に着脱自在なコネクタ部27(図1を参照)を有する。
 コネクタ部27は、コイル状のコイルケーブル27aが延設し、コイルケーブル27aの延出端にビデオプロセッサ3と着脱自在な電気コネクタ部28を有する。
 このコネクタ部27は、内部に内視鏡2の制御を行う制御部271と、FPGA(Field Programmable Gate Array )272と、内視鏡2の各構成部の動作の基準となる基準クロック信号(例えば、68MHzのクロック)を生成する基準クロック生成部273と、コンフィグレーションデータを記録する第1EEPROM274と、撮像情報を含む内視鏡固有データを記録する第2EEPROM275と、を有する。
 つぎに、ビデオプロセッサ3の構成について説明する。 
 ビデオプロセッサ3は、S/P変換部301と、画像処理部302と、明るさ検出部303と、調光部304と、読出アドレス設定部305と、駆動信号生成部306と、入力部307と、記憶部308と、制御部309と、基準クロック生成部310と、エイミングレーザーハレーション検知部311と、を備えて構成される。
 なお、本実施の形態では、ビデオプロセッサ3として面順次を採用する構成を例に説明するが、本発明は同時式であっても適用することができる(同時式については第2の実施形態参照)。
 S/P変換部301は、当該ビデオプロセッサ3に内視鏡2が接続された際、内視鏡2から出力された画像信号(デジタル信号)をシリアル/パラレル変換する。
 画像処理部302は、S/P変換部301から出力されたパラレル形態の画像信号に所定の画像処理を施し、表示装置5が表示する体内画像を生成する。また、画像処理部302は、同時化部302aと、ホワイトバランス(WB)調整部302bと、ゲイン制御部であるゲイン調整部302cと、γ補正部302dと、D/A変換部302eと、フォーマット変更部302fと、サンプル用メモリ302gと、静止画像用メモリ302hと、を有する。
 同時化部302aは、画素情報として入力された画像信号を、画素ごとに設けられた3つのメモリ(図示せず)に入力し、読み出し部244gが読み出した受光部244fの画素のアドレスに対応させて、各メモリの値を順次更新しながら保持するとともに、これら3つのメモリの画像信号をRGB画像信号として同時化する。
 また、同時化部302aは、同時化したRGB画像信号をホワイトバランス調整部302bへ順次出力するとともに、一部のRGB画像信号を、明るさ検出などの画像解析用としてサンプル用メモリ302gへ出力する。
 ホワイトバランス調整部302bは、RGB画像信号のホワイトバランスを自動的に調整する。具体的には、ホワイトバランス調整部302bは、RGB画像信号に含まれる色温度に基づいて、RGB画像信号のホワイトバランスを自動的に調整する。
 ゲイン調整部302cは、RGB画像信号のゲイン調整を行う。ゲイン調整部302cは、ゲイン調整を行ったRGB信号をγ補正部302dへ出力するとともに、一部のRGB画像信号を、静止画像表示用として静止画像用メモリ302hへ出力する。なお、詳細については後述する。
 γ補正部302dは、表示装置5に対応させてRGB画像信号の階調補正(γ補正)を行う。
 D/A変換部302eは、γ補正部302dが出力した画像信号をアナログ信号に変換する。
 フォーマット変更部302fは、アナログ信号に変換された画像信号をハイビジョン方式等の動画用のファイルフォーマットに変更して表示装置5に出力する。
 <エイミングレーザー照射の際のハレーション検知機能>
 次に、ビデオプロセッサ3における、エイミングレーザー照射の際のハレーション検知機能に係る構成について説明する。
 エイミングレーザーハレーション検知部311は、本発明を特徴づける回路であって、内視鏡2における挿通チャネル247に挿通されたレーザープローブ7からエイミングレーザーを照射した際における被写体のハレーションを検知する回路である。
 またエイミングレーザーハレーション検知部311は、制御部309から出力されるタイミング制御信号に基づいて、同時化部302aにおいて同時化される前のRGB画像信号をそれぞれ内部のメモリに保持するようになっている。
 ここで、前記エイミングレーザーハレーション検知部311における内部メモリに保持されたRGB画像信号のうち、“R”の信号レベルを“Rs”、“G”の信号レベルを“Gs”、“B”の信号レベル“Bs”とすると、エイミングレーザーハレーション検知部311は、“Rs”と“Gs”との輝度レベル比率である“Rs/Gs”と、“Rs”と“Bs”との輝度レベル比率である“Rs/Bs”とから、“R”単色のエイミングレーザーによるハレーションを検出するようになっている。
 すなわち、まず、輝度レベルがモニター画面上でハレーションを引き起こすRの信号レベル“Rs”の規定レベル値を“Rs_full”とし、エイミングレーザー光として認識する輝度レベル比率“Rs/Gs”および“Rs/Bs”の規定レベル値をそれぞれ、“RGaim_ratio”、“RBaim_ratio”とする。
 なお、前記規定レベル値“Rs_full”、“RGaim_ratio”、“RBaim_ratio”は、内視鏡システムごとの光源光量または撮像信号ゲインによって定まる特定の値であり、本実施形態においては、制御部309内においてパラメータとして保持(図示せず)するようになっている。
 そしてエイミングレーザーハレーション検知部311は、RGB画像信号のR信号レベル“Rs”並びに輝度レベル比率“Rs/Gs”および“Rs/Bs”が、いずれも上述した規定レベル値を超えた場合にはエイミングレーザー光によるハレーションとして検知し、エイミングレーザーによるハレーション情報を明るさ検出部303に出力する。
 <エイミングレーザー照射の際の明るさ制御機能>
 次に、ビデオプロセッサ3における、エイミングレーザー照射の際の明るさ制御機能に係る構成について説明する。
 明るさ検出部303は、サンプル用メモリ302gが保持するRGB画像信号から、各画素に対応する明るさレベルを検出し、検出した明るさレベルを内部に設けられたメモリに記録するとともに制御部309へ出力する。
 また、明るさ検出部303は、制御部309の制御下に、検出した明るさレベルをもとに目標の明るさとなるようにホワイトバランス調整値、ゲイン調整値および光照射量値を算出し、ホワイトバランス調整値をホワイトバランス調整部302bへ、ゲイン調整値をゲイン調整部302cへ、光照射量値を調光部304へ出力する。
 ここで制御部309の制御下における明るさ検出部303によるゲイン調整値および光照射量値の出力制御は、光照射量値を優先する。そして、制御部309の制御下に明るさ検出部303は、明るさが足りない場合には光照射量値を上げるように制御し、それでも明るさの目標値に達しない場合にはゲイン調整値を上げるように制御する。
 また、本実施形態において明るさ検出部303は、エイミングレーザーハレーション検知部311からのハレーション情報に基づいて、調光動作におけるゲイン調整値と光照射量値との比率を変更して動作させるように制御する。
 すなわち、エイミングレーザーハレーション検知部311がハレーションを検知した場合には、明るさ検出部303は制御部309の制御下に、エイミングレーザーハレーションのレベルが一定のレベルに下がるまでゲイン調整部302cのゲインを下げる(状況によっては負方向ゲインを掛ける)ようにゲイン調整値の出力を制御すると共に、調光部304へ出力する光照射量値を上げることで、表示画像の明るさが目標のレベルになるように制御する。
 さらに明るさ検出部303は、エイミングレーザーハレーションレベルが規定値以下の場合には上述した制御は行わず(ゲイン調整部302cのゲインは正方向ゲイン)、明るさが目標レベルに達するようにゲイン調整部302cのゲイン調整値と調光部304の光照射量との制御を行う。
 また調光部304は、制御部309の制御下において、明るさ検出部303が算出した光照射量値に基づいて光源装置4が発生する光の種別、光量、発光タイミング等を設定し、この設定した条件を含む光源同期信号を光源装置4へ送信する。
 また読出アドレス設定部305は、制御部309の制御下において、センサ部244aの受光面における読み出し対象の画素および読み出し順序を、内視鏡2における制御部271と通信することにより設定する機能を有する。このとき内視鏡2における制御部271は、第2EEPROM275に格納されているセンサ部224aの種類情報を読み出し、ビデオプロセッサ3へ送信する。
 また、読出アドレス設定部305は、AFE部244bが読み出すセンサ部244aの画素のアドレスを設定する機能を有する。そして、読出アドレス設定部305は、設定した読み出し対象の画素のアドレス情報を同時化部302aへ出力する。
 駆動信号生成部306は、内視鏡2を駆動するための駆動用のタイミング信号(水平同期信号(HD)および垂直同期信号(VD))を生成し、FPGA272、集合ケーブル224,245に含まれる所定の信号線を介してタイミングジェネレータ244d(撮像素子244)へ送信する。このタイミング信号は、読み出し対象の画素のアドレス情報を含む。
 また、駆動信号生成部306は、内視鏡2からビデオプロセッサ3に送信される電気信号の送信制御を行なうためのスタンバイ信号を生成する。ここで、スタンバイ信号は、P/S変換部244cによる電気信号(画像情報)のFPGA272側への送信を送信状態または停止状態(スタンバイ状態)のいずれかに設定する信号である。
 入力部307は、フロントパネルまたはキーボードにより設定されるフリーズ、レリーズ等の内視鏡システム1の動作を指示する動作指示信号の入力を受け付ける。
 記憶部308は、フラッシュメモリまたはDRAM(Dynamic Random Access Memory)等の半導体メモリを用いて実現される。記憶部308は、内視鏡システム1を動作させるための各種プログラム、および内視鏡システム1の動作に必要な各種パラメータ等を含むデータを記憶する。
 また、記憶部308は、ビデオプロセッサ3の識別情報および観察情報を記憶する。ここで、識別情報には、ビデオプロセッサ3の固有情報(ID)、年式、制御部309のスペック情報および伝送レート情報が含まれる。
 制御部309は、CPU等を用いて構成され、ビデオプロセッサ3(特にエイミングレーザーハレーション検知部311)、内視鏡2および光源装置4を含む各構成部の駆動制御、および各構成部に対する情報の入出力制御等を行う。
 また制御部309は、撮像制御のための設定データを、ビデオプロセッサ3に接続された内視鏡2におけるコネクタ部27のFPGA272に送信し、撮像素子244に必要な信号およびデータを集合ケーブル224,245に含まれる所定の信号線を介して制御部244eに送信する。
 基準クロック生成部310は、内視鏡システム1の各構成部の動作の基準となる基準クロック信号を生成し、内視鏡システム1の各構成部に対して生成した基準クロック信号を供給する。
 つぎに、光源装置4の構成について説明する。 
 光源装置4は、光源41と、光源ドライバ42と、回転フィルタ43と、駆動部44と、駆動ドライバ45と、光源制御部46と、を備える。
 光源41は、白色LED(Light Emitting Diode)またはキセノンランプ等を用いて構成され、光源制御部46の制御のもと、白色光を発生する。
 光源ドライバ42は、光源41に対して光源制御部46の制御のもとで電流を供給することにより、光源41に白色光を発生させる。光源41が発生した光は、回転フィルタ43および集光レンズ(図示せず)および前記ライトガイド241を経由して先端部24の照明レンズ窓24bから照射される。
 回転フィルタ43は、光源41が発した白色光の光路上に配置され、回転することにより光源41が発する白色光を所定の波長帯域を有する光のみを透過させる。具体的には、回転フィルタ43は、赤色光(R)、緑色光(G)および青色光(B)のそれぞれの波長帯域を有する光を透過させる赤色フィルタ431、緑色フィルタ432および青色フィルタ433を有する。
 回転フィルタ43は、回転することにより、赤、緑および青の波長帯域(例えば、赤:600nm~800nm、緑:500nm~600nm、青:400nm~500nm)を有する光を順次透過させる。これにより、光源41が発する白色光は、狭帯域化した赤色光、緑色光および青色光のいずれかの光を内視鏡2に順次出射することができる。
 駆動部44は、ステッピングモータやDCモータ等を用いて構成され、ビデオプロセッサ3から送信される同期信号を基準として回転フィルタ43を回転動作させる。駆動ドライバ45は、光源制御部46の制御のもと、駆動部44に所定の電流を供給する。
 光源制御部46は、調光部304から送信された調光信号に従って光源41に供給する電流量を制御する。
 また、光源制御部46は、制御部309の制御下において、駆動ドライバ45を介して駆動部44を駆動することにより、回転フィルタ43を回転させる。
 表示装置5は、映像ケーブルを介してビデオプロセッサ3が生成した体内画像をビデオプロセッサ3から受信して表示する機能を有する。表示装置5は、液晶または有機EL(Electro Lumines cence )等を用いて構成される。
 次に、レーザー装置6について説明する。 
 図3は、第1の実施の形態にかかる内視鏡システムにレーザー装置からレーザープローブを挿入した際の状態を示した要部斜視図であり、図4は、第1の実施の形態にかかる内視鏡システムにレーザー装置に接続されたレーザープローブを挿入した際の要部の機能構成を示すブロック図である。
 図3および図4に示すように、本実施形態において内視鏡システム1における内視鏡2には、上述したように、レーザー装置6に接続されたレーザープローブ7が挿通されるようになっている。
 前記レーザー装置6は、図4に示すように、被写体の所定位置に存する対象物を砕石するためのレーザー光を生成するYAGレーザー光源62と、当該YAGレーザーによるレーザー照射位置を確認するためのエイミング用単色レーザー光(以下、エイミングレーザー光)を生成するエイミングレーザー光源61と、を備える。
 また、レーザー装置6は、前記YAGレーザー光源62から出力されたYAGレーザー光の光路上に配設されたターニングミラー67と、前記エイミングレーザー光源61から出力されたエイミングレーザー光の光路上に配設されたターニングミラー66と、前記YAGレーザー光または前記エイミングレーザー光を選択的に照射するフォーカシングレンズ65と、前記YAGレーザー光源62、エイミングレーザー光源61、ターニングミラー66およびターニングミラー67を制御する制御部63と、制御部63に対してレーザー光の切替操作等の所定の入力情報を提供する入力部64と、を備える。
 そしてレーザー装置6においては、入力部64からの切替操作指示に応じた制御部63により、YAGレーザー光源62からのYAGレーザー光の出力と、エイミングレーザー光源61からのエイミングレーザー光の出力が切り替えられるようになっている。
 レーザープローブ7は、その基端側においてレーザー装置6に接続可能であって、先端側は内視鏡2における処置具挿入部222から挿入され、先端部24の処置具チャンネル247を経由して先端部24の先端開口部24cから先端部7aが表出するようになっている。
 また、レーザー装置6における制御部63に制御され、YAGレーザー光またはエイミング用単色レーザー光が照射可能となっている。
 次に、本実施形態におけるエイミングレーザー照射の際のハレーション検知手法について説明する。
 図6は、第1の実施の形態にかかる内視鏡システムにおけるエイミングレーザーハレーション検知部の制御作用を示したフローチャートであり、図7は、第1の実施の形態にかかる内視鏡システムにおける明るさ検知部の制御作用を示したフローチャートである。
 エイミングレーザーハレーション検知部311は、まず、制御部309から出力されるタイミング制御信号に基づいて、同時化部302aにおいて同時化される前のRGB画像信号をそれぞれ内部のメモリに保持する。
 そして、エイミングレーザーハレーション検知部311は、図6に示すように、前記内部メモリに保持されたRGB画像信号のうち、Rの信号レベル“Rs”が規定レベル値“Rs_full”に達しているか否かを検出する(ステップS1)。
 このステップS1において、Rの信号レベル“Rs”が規定レベル値“Rs_full”に達していなければ、エイミングレーザーハレーション検知部311は、エイミングレーザーハレーションは生じていないと判定する(ステップS4)。
 一方、ステップS1において、Rの信号レベル“Rs”が規定レベル値“Rs_full”に達している場合は、エイミングレーザーハレーション検知部311は、エイミングレーザーハレーションが生じている可能性があるとして、次に、“Rs”と“Gs”との輝度レベル比率である“Rs/Gs”と、規定レベル値“RGaim_ratio”とを比較する(ステップS2)。
 ここで、輝度レベル比率“Rs/Gs”が規定レベル値“RGaim_ratio”未満であるときは、エイミングレーザーハレーション検知部311は、エイミングレーザーハレーションは生じていないと判定する(ステップS4)。
 一方、ステップS2において、輝度レベル比率“Rs/Gs”が規定レベル値“RGaim_ratio”以上である場合は、エイミングレーザーハレーション検知部311は、次に、“Rs”と“Bs”との輝度レベル比率である“Rs/Bs”と、規定レベル値“RBaim_ratio”とを比較する(ステップS3)。
 ここで、エイミングレーザーハレーション検知部311は、輝度レベル比率“Rs/Bs”が規定レベル値“RBaim_ratio”未満であるときは、エイミングレーザーハレーションは生じていないと判定し(ステップS4)、一方、輝度レベル比率“Rs/Bs”が規定レベル値“RBaim_ratio”以上であるときは、エイミングレーザーハレーションが生じていると判定する(ステップS5)。
 このとき、同時化部302aにおいて同時化される前のRGB画像信号の出力レベルは、図8に示すように、エイミングレーザーに係る狭帯域のR波長の光の信号出力レベルだけが極端に大きくなり、結果的にハレーションを起こしている。
 そしてエイミングレーザーハレーション検知部311は、エイミングレーザー光によるハレーションを検知すると、エイミングレーザーによるハレーション情報を明るさ検出部303に出力する。
 次に、本実施形態における明るさ検出部303による調光制御、特に、エイミングレーザーハレーションを検知した後の調光制御について説明する。
 図7は、第1の実施の形態にかかる内視鏡システムにおける明るさ検知部の制御作用を示したフローチャートである。
 まず、本実施形態において明るさ検出部303は、サンプル用メモリ302gが保持するRGB画像信号から、各画素に対応する明るさレベルを検出し、検出した明るさレベルを内部に設けられたメモリに記録するとともに制御部309へ出力する。
 そして明るさ検出部303は、制御部309の制御下に、検出した明るさレベルをもとに目標の明るさとなるようにホワイトバランス調整値、ゲイン調整値および光照射量値を算出し、ホワイトバランス調整値をホワイトバランス調整部302bへ、ゲイン調整値をゲイン調整部302cへ、光照射量値を調光部304へ出力する。
 ここで制御部309の制御下における明るさ検出部303によるゲイン調整値および光照射量値の出力制御は、通常時においては、光照射量値を優先するように設定されている。
 すなわち、制御部309の制御下に明るさ検出部303は、明るさが足りない場合には光照射量値を上げるように制御し、それでも明るさの目標値に達しない場合にはゲイン調整値を上げるように制御するようになっている。
 一方、本実施形態において明るさ検出部303は、エイミングレーザーハレーション検知部311からのハレーション情報に基づいて、調光動作におけるゲイン調整値と光照射量値との比率を変更して動作させるように制御するようになっている。
 すなわち、図7に示すように、エイミングレーザーハレーション検知部311がハレーションを検知した場合には(ステップS11)、エイミングレーザーハレーションのレベルが一定のレベルに下がるまで、まず、ゲイン調整部302cのゲイン値を下げるようにゲイン調整値の出力を制御する(ステップS15)。なお、このステップS15においては、状況によっては負方向ゲインを掛ける。
 このステップS15におけるゲイン調整値の減少は、エイミングレーザーハレーション検知部311がハレーションを検知しない状態になるまで続けられる(ステップS16)。
 そして、ステップS15、16において、ゲイン調整値の調整によりエイミングレーザーハレーションのレベルが一定のレベルに下がると、明るさ検出部303は制御部309の制御下に、調光部304へ出力する光照射量値を上げるよう制御する(ステップS17)。
 このステップS17における光照射量値の調整は、表示画像の明るさが目標の輝度レベルに達するまで続けられる(ステップS18)。
 一方、ステップS11において、エイミングレーザーハレーション検知部311によりハレーションが検知されない場合には(ステップS11)、明るさ検出部303は制御部309の制御下に、通常の調光制御を行うようになっている(ステップS12~ステップS14)。
 ここで本実施形態においては、上述したエイミングレーザーハレーションレベルが規定値以下の場合の通常の調光制御においては、明るさ検出部303は、上述した制御は行わず(ゲイン調整部302cのゲインは正方向ゲイン)、明るさが目標レベルに達するようにゲイン調整部302cのゲイン調整値と調光部304の光照射量との制御を行う。
 すなわち、明るさ検出部303によるゲイン調整値および光照射量値の出力制御は、光照射量値を優先し、明るさが足りない場合には光照射量値を上げるように制御し(ステップS12)、それでも明るさの目標値に達しない場合にはゲイン調整値を上げるように制御する(ステップS13)。
 そして、明るさ検出部303は、ホワイトバランス調整値、ホワイトバランス調整部、および光照射量を調光部304へ出力する。 
 以上説明したように、本第1の実施形態の内視鏡システムによると、イメージセンサのレンズ部分に搭載する光学フィルタ(IRカットフィルタ)の厚みを増すことなく、エイミングレーザー光のイメージセンサへの入射エネルギーを強く抑えることができ、すなわち、イメージセンサユニット部の大きさを変えることなく、エイミングレーザーを照射する際の視認性を向上させることができるという効果を奏する。
 <第2の実施形態>
 次に、本発明の第2の実施形態について説明する。 
 上述した第1の実施形態の内視鏡システム1はいわゆる面順次式の観察方式を採用するが、本第2の実施形態の内視鏡システム101は、同時式の観察方式を採用する。
 図9は、本発明の第2の実施の形態にかかる内視鏡システムにレーザー装置に接続されたレーザープローブを挿入した際の要部の機能構成を示すブロック図である。
 本第2の実施形態の内視鏡システム101は、その基本的な構成は第1の実施形態の内視鏡システム1と同様である。したがって、ここでは第1の実施形態との差異のみの説明にとどめ、共通する部分の説明については省略する。
 図9に示すように、本第2の実施形態の内視鏡システム101は、第1の実施形態と同様に、被検体の体腔内に先端部を挿入することによって被写体の体内画像を撮像し当該被写体像の画像信号を出力する内視鏡102と、内視鏡102から出力される画像信号に対して所定の画像処理を施すとともに内視鏡システム101全体の動作を統括的に制御するビデオプロセッサ103と、内視鏡102の先端から出射するための照明光を発生する光源装置104と、ビデオプロセッサ103において画像処理が施された画像を表示する表示装置5と、を備える。
 また、第2の実施形態においても、内視鏡102には、YAGレーザー光およびエイミング用単色レーザー光を生成するレーザー装置6に接続されたレーザープローブ7であって、前記YAGレーザー光および前記エイミング用単色レーザー光を照射可能なレーザープローブ7が挿通されるようになっている。
 そして、本第2の実施形態の内視鏡システム101は、上述したように同時式の観察方式を採用し、内視鏡102の撮像素子244における受光部244fには、各画素に対応するRGB3原色のカラーフィルタ(図示せず)が配設されている。
 また、光源装置104は、第1の実施形態における光源装置4とは異なり、光源41、光源ドライバ42および光源制御部46を備えて構成される。
 そして、光源41は、白色LED(Light Emitting Diode)またはキセノンランプ等を用いて構成され、光源制御部46の制御のもと、白色光を発生する。また、光源ドライバ42は、光源41に対して光源制御部46の制御のもとで電流を供給することにより、光源41に白色光を発生させる。光源41が発生した光は、集光レンズ(図示せず)およびライトガイド241を経由して先端部24の先端から照射される。
 光源制御部46は、調光部304から送信された調光信号に従って光源41に供給する電流量を制御する。
 また、第2の実施形態においてビデオプロセッサ103は、第1の実施形態と同様に、S/P変換部301と、画像処理部302と、明るさ検出部303と、調光部304と、読出アドレス設定部305と、駆動信号生成部306と、入力部307と、記憶部308と、制御部309と、基準クロック生成部310と、エイミングレーザーハレーション検知部311と、を備えて構成される。
 また、画像処理部302は、第1の実施形態と同様に、S/P変換部301から出力されたパラレル形態の画像信号に所定の画像処理を施し、表示装置5が表示する体内画像を生成する。また、画像処理部302は、同時化部302aと、ホワイトバランス(WB)調整部302bと、ゲイン調整部302cと、γ補正部302dと、D/A変換部302eと、フォーマット変更部302fと、サンプル用メモリ302gと、静止画像用メモリ302hと、を有する。
 同時化部302aは、本第2の実施形態においては、上述した撮像素子244における前記カラーフィルタを介して画素情報として入力された画像信号を、画素ごとに設けられた3つのメモリ(図示せず)に入力し、読み出し部244gが読み出した受光部244fの画素のアドレスに対応させて、各メモリの値を順次更新しながら保持するとともに、これら3つのメモリの画像信号をRGB画像信号として同時化する。
 また、同時化部302aは、同時化したRGB画像信号をホワイトバランス調整部302bへ順次出力するとともに、一部のRGB画像信号を、明るさ検出などの画像解析用としてサンプル用メモリ302gへ出力する。
 ホワイトバランス調整部302b、ゲイン調整部302c、γ補正部302d、D/A変換部302e、フォーマット変更部302f、サンプル用メモリ302gおよび静止画像用メモリ302hについては、第1の実施形態と同様なので、ここでの説明は省略する。
 <エイミングレーザー照射の際のハレーション検知機能>
 次に、ビデオプロセッサ103における、エイミングレーザー照射の際のハレーション検知機能に係る構成について説明する。
 エイミングレーザーハレーション検知部311は、第1の実施形態と同様に、内視鏡102における挿通チャネル247に挿通されたレーザープローブ7からエイミングレーザーを照射した際における被写体のハレーションを検知する回路である。
 またエイミングレーザーハレーション検知部311は、制御部309から出力されるタイミング制御信号と、上述した撮像素子244における前記カラーフィルタ配列とに基づいてRGB画像信号をそれぞれ内部のメモリに保持するようになっている。
 さらに、第1の実施形態と同様に、エイミングレーザーハレーション検知部311における内部メモリに保持されたRGB画像信号の信号レベルを、それぞれ“Rs”、“Gs”、“Bs”とし、輝度レベル比率“Rs/Gs”と“Rs/Bs”とから、R単色のエイミングレーザーによるハレーションを検出するようになっている。
 また、上記同様の規定レベル値“Rs_full”、“RGaim_ratio”、“RBaim_ratio”は、本第2の実施形態においても、制御部309内においてパラメータとして保持(図示せず)するようになっている。
 そしてエイミングレーザーハレーション検知部311は、RGB画像信号のR信号レベル“Rs”並びに輝度レベル比率“Rs/Gs”および“Rs/Bs”が、いずれも上述した規定レベル値を超えた場合にはエイミングレーザー光によるハレーションとして検知し、エイミングレーザーによるハレーション情報を明るさ検出部303に出力する。
 <エイミングレーザー照射の際の明るさ制御機能>
 本第2の実施形態におけるビデオプロセッサ103における、エイミングレーザー照射の際の明るさ制御機能に係る構成については、第1の実施形態と同様であり、本第2の実施形態においても明るさ検出部303は、エイミングレーザーハレーション検知部311からのハレーション情報に基づいて、調光動作におけるゲイン調整値と光照射量値との比率を変更して動作させるように制御する。
 すなわち、エイミングレーザーハレーション検知部311がハレーションを検知した場合には、明るさ検出部303は制御部309の制御下に、エイミングレーザーハレーションのレベルが一定のレベルに下がるまでゲイン調整部302cのゲインを下げる(状況によっては負方向ゲインを掛ける)ようにゲイン調整値の出力を制御すると共に、調光部304へ出力する光照射量値を上げることで、表示画像の明るさが目標のレベルになるように制御する。
 さらに明るさ検出部303は、エイミングレーザーハレーションレベルが規定値以下の場合には上述した制御は行わず(ゲイン調整部302cのゲインは正方向ゲイン)、明るさが目標レベルに達するようにゲイン調整部302cのゲイン調整値と調光部304の光照射量との制御を行う。
 また調光部304は、制御部309の制御下において、明るさ検出部303が算出した光照射量値に基づいて光源装置104が発生する光の光量等を設定し、この設定した条件を光源装置104へ送信する。
 制御部309は、CPU等を用いて構成され、ビデオプロセッサ103(特にエイミングレーザーハレーション検知部311)、内視鏡102および光源装置104を含む各構成部の駆動制御、および各構成部に対する情報の入出力制御等を行う。
 また制御部309は、撮像制御のための設定データを、ビデオプロセッサ103に接続された内視鏡102におけるコネクタ部27のFPGA272に送信し、撮像素子244に必要な信号およびデータを集合ケーブル224,245に含まれる所定の信号線を介して制御部244eに送信する。
 その他のビデオプロセッサ103の構成、表示装置5、およびレーザー装置6等の構成は、第1の実施形態と同様であるので、ここでの説明は省略する。
 次に、本第2の実施形態におけるエイミングレーザー照射の際のハレーション検知手法およびエイミングレーザーハレーションを検知した後の調光制御について説明する。
 エイミングレーザーハレーション検知部311は、まず、制御部309から出力されるタイミング制御信号と、上述した撮像素子244における前記カラーフィルタ配列とに基づいてRGB画像信号をそれぞれ内部のメモリに保持する。
 その後エイミングレーザーハレーション検知部311は、第1の実施形態と同様に、前記内部メモリに保持されたRGB画像信号のうち、Rの信号レベル“Rs”が規定レベル値“Rs_full”に達しているか否かを検出し(図6のステップS1参照)、Rの信号レベル“Rs”が規定レベル値“Rs_full”に達し、かつ、輝度レベル比率“Rs/Gs”および“Rs/Bs”が、規定レベル値以上である場合は、エイミングレーザーハレーションが生じていると判定する(図6のステップS2、S3,S5参照)。
 そしてエイミングレーザーハレーション検知部311は、エイミングレーザー光によるハレーションを検知すると、エイミングレーザーによるハレーション情報を明るさ検出部303に出力し、エイミングレーザーハレーションのレベルが一定のレベルに下がるまで、ゲイン調整部302cのゲイン値を下げるようにゲイン調整値の出力を制御し(図7のステップS15、S16参照)、ゲイン調整値の調整によりエイミングレーザーハレーションのレベルが一定のレベルに下がると、明るさ検出部303は制御部309の制御下に、調光部304へ出力する光照射量値を上げるよう制御する(図7のステップS17参照)。
 このステップS17における光照射量値の調整は、表示画像の明るさが目標の輝度レベルに達するまで続けられる(図7のステップS18参照)。
 一方、エイミングレーザーハレーション検知部311によりハレーションが検知されない場合には、明るさ検出部303は制御部309の制御下に、通常の調光制御を行うようになっている(図7のステップS12~ステップS14参照)。
 以上説明したように、本第2の実施形態の内視鏡システムによると、第1の実施形態と同様に、イメージセンサのレンズ部分に搭載する光学フィルタ(IRカットフィルタ)の厚みを増すことなく、エイミングレーザー光のイメージセンサへの入射エネルギーを強く抑えることができ、すなわち、イメージセンサユニット部の大きさを変えることなく、エイミングレーザーを照射する際の視認性を向上させることができるという効果を奏する。
 なお、上述したエイミングレーザーハレーション検知部311に係る機能は、上述した実施形態においてはビデオプロセッサ3(103)に設けるものとしたがこれに限定されることなく、例えば内視鏡2(102)における撮像素子244、操作部22またはコネクタ部27に設ける構成も本発明に含まれる。
 さらに、上述した実施の形態では、本発明の実施形態として内視鏡システムの構成を例に挙げたが、本発明はこれに限らず、本発明は画像処理機能と有する他の撮像システムに対しても適用することができる。
 本発明は、上述した実施形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。
 本発明によれば、イメージセンサユニット部の大きさを変えることなく、エイミングレーザーを照射する際の視認性を向上させることができる内視鏡システムを提供することができる。
 本出願は、2015年5月20日に日本国に出願された特願2015-103087号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲に引用されるものとする。

Claims (3)

  1.  被写体を撮像する撮像素子を有する内視鏡と、
     前記被写体に照明光を照射する照明部と、
     前記照明部からの照明光強度と照射時間を制御する調光部と、
     前記内視鏡に設けられ、前記被写体の所定位置に対してレーザー照射位置を確認するためのエイミング用単色レーザー光を照射可能なレーザープローブを少なくとも挿通するための挿通チャネルと、
     前記撮像素子から出力された撮像信号のゲインを制御するゲイン制御部と、
     前記エイミング用単色レーザー光を照射した際における前記被写体に係るハレーションを検知するハレーション検知部と、
     少なくとも前記調光部および前記ゲイン制御部を制御する制御部と、
     を備え、
     前記制御部は、前記ハレーション検知部において前記エイミング用単色レーザー光によるハレーションが検知された場合、前記照明光を調光するよう前記調光部を制御すると共に、前記ゲインを制御するよう前記ゲイン制御部を制御する
     ことを特徴とする内視鏡システム。
  2.  前記制御部は、前記撮像信号のゲインを下げると共に前記照明光の明るさを上げるよう前記調光部と前記ゲイン制御部とを切り替え制御する
     ことを特徴とする請求項1に記載の内視鏡システム。
  3.  前記制御部は、前記エイミング用単色レーザー光の同色成分の色ゲインを下げると共に、前記照明光であって少なくとも前記エイミング用単色レーザー光の波長を含む前記照明光の光量を上げるよう前記調光部と前記ゲイン制御部とを切り替え制御する
     ことを特徴とする請求項1に記載の内視鏡システム。
PCT/JP2016/053026 2015-05-20 2016-02-02 内視鏡システム WO2016185734A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016550660A JP6058235B1 (ja) 2015-05-20 2016-02-02 内視鏡システム
US15/446,559 US10441135B2 (en) 2015-05-20 2017-03-01 Endoscope system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-103087 2015-05-20
JP2015103087 2015-05-20

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/446,559 Continuation US10441135B2 (en) 2015-05-20 2017-03-01 Endoscope system

Publications (1)

Publication Number Publication Date
WO2016185734A1 true WO2016185734A1 (ja) 2016-11-24

Family

ID=57319703

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/053026 WO2016185734A1 (ja) 2015-05-20 2016-02-02 内視鏡システム

Country Status (3)

Country Link
US (1) US10441135B2 (ja)
JP (1) JP6058235B1 (ja)
WO (1) WO2016185734A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6230763B1 (ja) * 2016-09-01 2017-11-15 オリンパス株式会社 電子内視鏡、及び内視鏡システム
WO2018042717A1 (ja) * 2016-09-01 2018-03-08 オリンパス株式会社 電子内視鏡、及び内視鏡システム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112018001670T5 (de) * 2017-03-30 2019-12-19 Hoya Corporation Elektronische endoskopvorrichtung
WO2020144755A1 (ja) * 2019-01-09 2020-07-16 オリンパス株式会社 撮像システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006115964A (ja) * 2004-10-20 2006-05-11 Fujinon Corp 電子内視鏡装置
JP2007097711A (ja) * 2005-09-30 2007-04-19 Fujinon Corp 電子内視鏡装置
JP2009118988A (ja) * 2007-11-14 2009-06-04 Hoya Corp 内視鏡装置
JP2012065945A (ja) * 2010-09-27 2012-04-05 Fujifilm Corp 電子内視鏡システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4928172A (en) * 1988-01-07 1990-05-22 Olympus Optical Co., Ltd. Endoscope output signal control device and endoscope apparatus making use of the same
JP2821141B2 (ja) * 1988-07-28 1998-11-05 オリンパス光学工業株式会社 内視鏡用自動調光制御装置
US6545703B1 (en) * 1998-06-26 2003-04-08 Pentax Corporation Electronic endoscope
JP2000193896A (ja) * 1998-12-28 2000-07-14 Asahi Optical Co Ltd 内視鏡の光量制御装置
JP2009288682A (ja) 2008-05-30 2009-12-10 Olympus Medical Systems Corp 内視鏡対物光学系
JP5438633B2 (ja) * 2010-08-31 2014-03-12 富士フイルム株式会社 電子内視鏡システム
JP5438634B2 (ja) * 2010-08-31 2014-03-12 富士フイルム株式会社 電子内視鏡システム
JP5604248B2 (ja) * 2010-09-28 2014-10-08 富士フイルム株式会社 内視鏡画像表示装置
WO2014021022A1 (ja) * 2012-08-01 2014-02-06 オリンパスメディカルシステムズ株式会社 内視鏡装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006115964A (ja) * 2004-10-20 2006-05-11 Fujinon Corp 電子内視鏡装置
JP2007097711A (ja) * 2005-09-30 2007-04-19 Fujinon Corp 電子内視鏡装置
JP2009118988A (ja) * 2007-11-14 2009-06-04 Hoya Corp 内視鏡装置
JP2012065945A (ja) * 2010-09-27 2012-04-05 Fujifilm Corp 電子内視鏡システム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6230763B1 (ja) * 2016-09-01 2017-11-15 オリンパス株式会社 電子内視鏡、及び内視鏡システム
WO2018042717A1 (ja) * 2016-09-01 2018-03-08 オリンパス株式会社 電子内視鏡、及び内視鏡システム
US10667676B2 (en) 2016-09-01 2020-06-02 Olympus Corporation Electronic endoscope and endoscope system that sets a gain parameter according to a gamma characteristic of a connected processor

Also Published As

Publication number Publication date
JPWO2016185734A1 (ja) 2017-06-08
US20170172387A1 (en) 2017-06-22
US10441135B2 (en) 2019-10-15
JP6058235B1 (ja) 2017-01-11

Similar Documents

Publication Publication Date Title
JP5452785B1 (ja) 撮像システム
JP2009034224A (ja) 医療装置
JP5769892B2 (ja) 内視鏡
JP5467182B1 (ja) 撮像システム
JP6058235B1 (ja) 内視鏡システム
JP6049945B2 (ja) 撮像装置および処理装置
WO2013128764A1 (ja) 医療システム
WO2016104386A1 (ja) 調光装置、撮像システム、調光装置の作動方法および調光装置の作動プログラム
US20210307587A1 (en) Endoscope system, image processing device, total processing time detection method, and processing device
JP5926980B2 (ja) 撮像装置および撮像システム
JP6489644B2 (ja) 撮像システム
JP5810016B2 (ja) 内視鏡システム
WO2016088628A1 (ja) 画像評価装置、内視鏡システム、画像評価装置の作動方法および画像評価装置の作動プログラム
JP5885617B2 (ja) 撮像システム
JP6242552B1 (ja) 画像処理装置
US10188266B2 (en) Endoscopic imaging device for reducing data amount of image signal
JPWO2016059906A1 (ja) 内視鏡装置及び内視鏡用光源装置
JP2009095539A (ja) 内視鏡装置の電子内視鏡
JP4504040B2 (ja) 内視鏡装置
JP2013172765A (ja) 内視鏡システム
JP2017109037A (ja) 撮像システム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2016550660

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16796129

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16796129

Country of ref document: EP

Kind code of ref document: A1