WO2014188852A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
WO2014188852A1
WO2014188852A1 PCT/JP2014/061858 JP2014061858W WO2014188852A1 WO 2014188852 A1 WO2014188852 A1 WO 2014188852A1 JP 2014061858 W JP2014061858 W JP 2014061858W WO 2014188852 A1 WO2014188852 A1 WO 2014188852A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
unit
image signal
control device
image
Prior art date
Application number
PCT/JP2014/061858
Other languages
English (en)
French (fr)
Inventor
秀範 橋本
大野 渉
Original Assignee
オリンパスメディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパスメディカルシステムズ株式会社 filed Critical オリンパスメディカルシステムズ株式会社
Priority to JP2015518175A priority Critical patent/JP5815162B2/ja
Priority to CN201480027382.5A priority patent/CN105338882B/zh
Priority to EP14801784.1A priority patent/EP3000380A4/en
Publication of WO2014188852A1 publication Critical patent/WO2014188852A1/ja
Priority to US14/944,782 priority patent/US10188266B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00059Operational features of endoscopes provided with identification means for the endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/07Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2209/00Details of colour television systems
    • H04N2209/04Picture signal generators
    • H04N2209/041Picture signal generators using solid-state devices
    • H04N2209/042Picture signal generators using solid-state devices having a single pick-up sensor
    • H04N2209/044Picture signal generators using solid-state devices having a single pick-up sensor using sequential colour illumination

Definitions

  • the present invention relates to an imaging apparatus including an imaging element capable of outputting an electrical signal after photoelectric conversion as image information from a pixel arbitrarily designated as a readout target among a plurality of pixels for imaging.
  • an endoscope system is used to observe an organ of a subject such as a patient.
  • An endoscope system has, for example, an elongated shape having flexibility, an insertion unit that is inserted into a body cavity of a subject, an imaging unit that is provided at the distal end of the insertion unit and captures an in-vivo image, and an imaging unit. And a display unit capable of displaying the captured in-vivo image.
  • a plurality of types of illumination are switched at a predetermined timing.
  • an illumination method for example, a surface sequential type that sequentially switches illumination light of three color components of red (R), green (G), and blue (B) is known (see Patent Document 1).
  • a CCD (Charge Coupled Device) image sensor is used as an image pickup device, and images are individually picked up under illumination light that is sequentially switched.
  • a simultaneous type in which a color filter is provided in front of the light receiving portion of the image sensor and imaging is performed under white illumination light.
  • the present invention has been made in view of the above, and an object thereof is to provide an imaging apparatus capable of transmitting an image signal regardless of an illumination method.
  • an imaging apparatus sequentially irradiates a subject with light having different wavelengths, captures an optical image reflected by the subject, and images the subject.
  • a frame sequential imaging device that includes an imaging device that generates a signal, is communicably connected to a control device that performs predetermined image processing on the image signal, and performs bidirectional communication, and is connected to the imaging device. And a data control unit that controls a data amount of the image signal transmitted to the control device based on identification information of the control device.
  • the imaging apparatus further includes a data reduction unit that reduces a data amount of the image signal transmitted to the control device in the above invention, and the data control unit is based on identification information of the control device.
  • the image signal data is reduced by the data reduction unit and transmitted to the control device.
  • the data reduction unit reduces the data amount of the image signal by reducing an imaging area by the imaging element.
  • the data reduction unit may reduce the data amount of the image signal by thinning out a readout area for reading the image signal from the imaging area of the imaging element.
  • the data reduction unit reduces the data amount of the image signal by reducing the number of bits by thinning out the data sequence of the image signal. .
  • the data reduction unit reduces the data amount of the image signal by reducing the data amount per unit time with respect to the data of the image signal. It is characterized by.
  • the data reduction unit reduces the data amount of the image signal by performing compression processing according to a predetermined image compression format on the data of the image signal. It is characterized by reducing.
  • the control device simultaneously generates an image signal of the subject by imaging the subject irradiated with white light based on the identification information of the control device.
  • An observation method determination unit that determines whether or not the equation is an expression, and the data control unit, when the observation method determination unit determines that the control device is the simultaneous equation, to the data reduction unit. The data amount of the image signal is reduced as compared with the frame sequential method and transmitted to the control device.
  • the imaging device is connected to the control device according to the above invention, the distal end portion including the imaging device and the data control unit, an operation unit that receives input of instruction signals for instructing various operations, and the control device. And a connection unit including the data reduction unit.
  • the imaging device is the above invention, comprising the tip including the imaging device, the data control unit, and the data reduction unit, and a connection unit connected to the control device. It is characterized by.
  • the control unit that controls the data amount of the image signal to be transmitted to the control apparatus is provided based on the identification information of the control apparatus connected to the imaging apparatus, Therefore, the image signal can be transmitted.
  • FIG. 1 is a diagram illustrating a schematic configuration of an endoscope system that is an imaging apparatus according to a first embodiment of the present invention.
  • FIG. 2 is a cross-sectional view for explaining the outline of the internal configuration of the distal end portion of the endoscope shown in FIG.
  • FIG. 3 is a block diagram illustrating a functional configuration of a main part of the endoscope system according to the first embodiment of the present invention.
  • FIG. 4 is a diagram schematically illustrating an outline of a frame sequential image acquisition method executed by the endoscope of the endoscope system according to the first embodiment of the present invention.
  • FIG. 5 is a diagram schematically showing an overview of an image acquisition method using a simultaneous endoscope.
  • FIG. 1 is a diagram illustrating a schematic configuration of an endoscope system that is an imaging apparatus according to a first embodiment of the present invention.
  • FIG. 2 is a cross-sectional view for explaining the outline of the internal configuration of the distal end portion of the endoscope shown in FIG.
  • FIG. 6 is a diagram schematically illustrating a relationship between an outline of an image acquisition method that can be executed by the endoscope system according to the first embodiment of the present invention and a data amount of an image signal transmitted to the control device.
  • FIG. 7 is a diagram schematically illustrating a readout region for reading an image signal from the sensor unit by switching the transmission method according to the first embodiment of the present invention.
  • FIG. 8 is a flowchart illustrating an outline of processing executed by the endoscope system according to the first embodiment of the present invention.
  • FIG. 9 is a diagram schematically illustrating a readout region for reading an image signal from the sensor unit by switching another transmission method according to the first embodiment of the present invention.
  • FIG. 10 is a flowchart illustrating an outline of processing executed by the endoscope system according to the second embodiment of the present invention.
  • FIG. 11 is a block diagram illustrating a functional configuration of a main part of the endoscope system according to the third embodiment of the present invention.
  • FIG. 12 is a flowchart illustrating an outline of processing executed by the endoscope system according to the third embodiment of the present invention.
  • FIG. 13 is a diagram schematically illustrating a relationship between an outline of an image acquisition method that can be executed by the endoscope system according to the third embodiment of the present invention and a data amount of an image signal transmitted to the control device.
  • FIG. 14 is a block diagram illustrating a functional configuration of a main part of an endoscope system according to a modification of the third embodiment of the present invention.
  • FIG. 15 is a block diagram illustrating a functional configuration of a main part of the endoscope system according to the fourth embodiment of the present invention.
  • FIG. 16 is a flowchart illustrating an outline of processing executed by the endoscope system according to the fourth embodiment of the present invention.
  • FIG. 1 is a diagram illustrating a schematic configuration of an endoscope system that is an imaging apparatus according to a first embodiment of the present invention.
  • an endoscope system 1 includes an endoscope 2 that captures an in-vivo image of a subject by inserting a distal end portion into a body cavity of a subject, and an in-vivo image captured by the endoscope 2.
  • a control device 3 that performs predetermined image processing and comprehensively controls the operation of the entire endoscope system 1, a light source device 4 that generates illumination light emitted from the distal end of the endoscope 2, and a control device 3.
  • a display device 5 for displaying an in-vivo image subjected to image processing.
  • the endoscope 2 includes an insertion portion 21 having an elongated shape having flexibility, an operation portion 22 that is connected to a proximal end side of the insertion portion 21 and receives input of various operation signals, and an insertion portion from the operation portion 22. And a universal cord 23 that includes various cables that extend in a direction different from the direction in which 21 extends and that are connected to the control device 3 and the light source device 4.
  • the insertion portion 21 is connected to a distal end portion 24 incorporating an image pickup device to be described later, a bendable bending portion 25 constituted by a plurality of bending pieces, and a proximal end side of the bending portion 25, and has a flexible length. And a flexible tube portion 26 having a scale shape.
  • FIG. 2 is a cross-sectional view for explaining the outline of the internal configuration of the tip 24.
  • the distal end portion 24 is configured by using a glass fiber or the like, and forms a light guide path of light generated by the light source device 4, and an illumination lens 242 provided at the distal end of the light guide 241.
  • an optical system 243 for condensing, and an image sensor 244 that is provided at an imaging position of the optical system 243, receives light collected by the optical system 243, photoelectrically converts it into an electrical signal, and performs predetermined signal processing.
  • a treatment instrument channel 245 through which the treatment instrument for the endoscope 2 passes.
  • the optical system 243 includes at least a lens 243a and a lens 243b. Note that the types and number of lenses constituting the optical system 243 are not limited to those shown in FIG.
  • FIG. 3 is a block diagram showing a functional configuration of a main part of the endoscope system 1.
  • the configuration of the image sensor 244 will be described with reference to FIG.
  • the image sensor 244 includes a sensor unit 244a that photoelectrically converts an optical image from the optical system 243 and outputs an electrical signal, and noise removal and A / A with respect to the electrical signal output by the sensor unit 244a.
  • Analog front end 244b that performs D conversion (hereinafter referred to as “AFE unit 244b”), P / S conversion unit 244c that performs parallel / serial conversion on the digital signal output from the AFE unit 244b, drive timing of the sensor unit 244a, AFE
  • the image sensor 244 includes a timing generator 244d that generates various signal processing pulses in the unit 244b and the P / S converter 244c, and an imaging controller 244e that controls the operation of the image sensor 244.
  • the image sensor 244 is a complementary metal oxide oxide (CMOS). Semiconductor) image sensor.
  • CMOS complementary metal oxide oxide
  • the sensor unit 244a includes a light receiving unit 244f in which a plurality of pixels each having a photodiode that accumulates a charge corresponding to the amount of light and an amplifier that amplifies the charge accumulated by the photodiode are arranged in a two-dimensional matrix, and a light receiving unit 244f.
  • a readout unit 244g that reads out, as image information, an electrical signal generated by a pixel arbitrarily set as a readout target among the plurality of pixels.
  • the AFE unit 244b includes a noise reduction unit 244h that reduces a noise component included in an electric signal (analog), and an AGC (Auto Gain Control) unit that adjusts an amplification factor (gain) of the electric signal and maintains a constant output level. 244i and an A / D conversion unit 244j that performs A / D conversion on the electrical signal output via the AGC unit 244i.
  • the noise reduction unit 244h performs noise reduction using, for example, a correlated double sampling method.
  • the imaging control unit 244e controls various operations of the distal end portion 24 in accordance with the setting data received from the control device 3.
  • the imaging control unit 244e is configured using a CPU (Central Processing Unit) or the like.
  • the imaging control unit 244e includes a data control unit 244k and an observation method determination unit 244l.
  • the data control unit 244k controls the data amount of the image signal transmitted to the control device 3 based on the setting data received from the control device 3. Specifically, the data control unit 244k sets an area to be read by the reading unit 244g based on the setting data received from the control device 3.
  • the setting data includes the identification information of the control device 3, observation information indicating the frame sequential or simultaneous observation method, the imaging speed (frame rate) of the image sensor 244, and any pixel of the sensor unit 244a. Instruction information for instructing the reading speed of the pixel information, transmission control information of the pixel information read by the AFE unit 244b, and the like are included.
  • the data control unit 244k makes the reading region where the reading unit 244g reads image information from the light receiving unit 244f smaller than the frame sequential type based on the determination result of the observation method determination unit 244l described later.
  • the reading unit 244g functions as a data reduction unit according to the first embodiment.
  • the observation method determination unit 244l Based on the identification information of the control device 3 included in the setting data received from the control device 3, the observation method determination unit 244l generates an image signal of the subject by imaging the subject irradiated with white light. It is determined whether or not they are simultaneous expressions. Note that the observation method determination unit 244l may determine another observation method, such as a frame sequential method, based on the setting data received from the control device 3.
  • a collective cable 246 in which a plurality of signal lines for transmitting and receiving electrical signals to and from the control device 3 are bundled is connected to the electrode 244E provided on the substrate 244S.
  • the plurality of signal lines include a signal line for transmitting an image signal output from the image pickup device 244 to the control device 3, a signal line for transmitting a control signal output from the control device 3 to the image pickup device 244, and the like.
  • the operation unit 22 includes a bending knob 221 that bends the bending unit 25 in the vertical direction and the left-right direction, a treatment tool insertion unit 222 that inserts a treatment tool such as a biological forceps, a laser knife, and an inspection probe into the body cavity, and the control device 3.
  • a treatment tool such as a biological forceps, a laser knife, and an inspection probe into the body cavity
  • the control device 3 In addition to the light source device 4, it has a plurality of switches 223 which are operation input units for inputting operation instruction signals of peripheral devices such as air supply means, water supply means, and gas supply means.
  • the treatment tool inserted from the treatment tool insertion portion 222 is exposed from the opening 245a via the treatment tool channel 245 of the distal end portion 24.
  • the universal cord 23 includes at least a light guide 241 and a collective cable 246.
  • the universal cord 23 has a connector portion 27 (see FIG. 1) that is detachably attached to the light source device 4.
  • the connector portion 27 has a coiled coil cable 27a extending therein, and has an electrical connector portion 28 that is detachable from the control device 3 at the extending end of the coil cable 27a.
  • the connector unit 27 includes an FPGA (Field Programmable Gate Array) 271 therein.
  • the control device 3 includes an S / P conversion unit 301, an image processing unit 302, a brightness detection unit 303, a light control unit 304, a read address setting unit 305, a drive signal generation unit 306, and an input unit 307. , A storage unit 308, a control unit 309, and a reference clock generation unit 310.
  • the control device 3 will be described by taking a frame-sequential configuration as an example, but it can also be applied to a simultaneous type.
  • the S / P converter 301 performs serial / parallel conversion on the image signal (digital signal) received from the distal end portion 24.
  • the image processing unit 302 generates an in-vivo image displayed by the display device 5 based on the parallel image signal output from the S / P conversion unit 301.
  • the image processing unit 302 includes a synchronization unit 302a, a white balance (WB) adjustment unit 302b, a gain adjustment unit 302c, a ⁇ correction unit 302d, a D / A conversion unit 302e, a format change unit 302f, and a sample-use unit. It has a memory 302g and a still image memory 302h.
  • the synchronization unit 302a inputs an image signal input as pixel information to three memories (not shown) provided for each pixel, and associates the image signal with the pixel address of the light receiving unit 244f read by the reading unit 244g. Then, the values of the respective memories are held while being sequentially updated, and the image signals of these three memories are synchronized as RGB image signals.
  • the synchronization unit 302a sequentially outputs the synchronized RGB image signals to the white balance adjustment unit 302b, and outputs a part of the RGB image signals to the sample memory 302g for image analysis such as brightness detection.
  • the white balance adjustment unit 302b automatically adjusts the white balance of the RGB image signal. Specifically, the white balance adjustment unit 302b automatically adjusts the white balance of the RGB image signal based on the color temperature included in the RGB image signal.
  • the gain adjusting unit 302c adjusts the gain of the RGB image signal.
  • the gain adjustment unit 302c outputs the RGB signal subjected to gain adjustment to the ⁇ correction unit 302d, and a part of the RGB signal for still image display, enlarged image display, or emphasized image display 302h. Output to.
  • the ⁇ correction unit 302d performs gradation correction ( ⁇ correction) of the RGB image signal in correspondence with the display device 5.
  • the D / A conversion unit 302e converts the RGB image signal after gradation correction output from the ⁇ correction unit 302d into an analog signal.
  • the format changing unit 302f changes the image signal converted into an analog signal to a moving image file format such as a high-definition method, and outputs it to the display device 5.
  • the brightness detection unit 303 detects the brightness level corresponding to each pixel from the RGB image signals held in the sample memory 302g, records the detected brightness level in a memory provided therein, and the control unit 309. Output to. Further, the brightness detection unit 303 calculates a gain adjustment value and a light irradiation amount based on the detected brightness level, and outputs the gain adjustment value to the gain adjustment unit 302c, while adjusting the light irradiation amount to the light adjustment unit 304. Output to.
  • the light control unit 304 sets the type of light generated by the light source device 4, the light amount, the light emission timing, and the like based on the light irradiation amount calculated by the brightness detection unit 303.
  • a light source synchronization signal including the set conditions is transmitted to the light source device 4.
  • the read address setting unit 305 has a function of setting a pixel to be read and a reading order on the light receiving surface of the sensor unit 244a. That is, the read address setting unit 305 has a function of setting the pixel address of the sensor unit 244a read by the AFE unit 244b. Further, the read address setting unit 305 outputs the set address information of the pixel to be read to the synchronization unit 302a.
  • the drive signal generation unit 306 generates a drive timing signal for driving the image sensor 244 and transmits it to a timing generator 244d via a predetermined signal line included in the aggregate cable 246.
  • This timing signal includes address information of a pixel to be read out.
  • the input unit 307 receives input of various signals such as an operation instruction signal that instructs the operation of the endoscope system 1.
  • the storage unit 308 is realized by using a semiconductor memory such as a flash memory or a DRAM (Dynamic Random Access Memory).
  • the storage unit 308 stores various programs for operating the endoscope system 1 and data including various parameters necessary for the operation of the endoscope system 1.
  • the storage unit 308 stores the identification information and observation information of the control unit 309.
  • the identification information includes unique information (ID) of the control unit 309, a model year, specification information of the control unit 309, and transmission rate information.
  • the control unit 309 is configured using a CPU or the like, and performs drive control of each component including the tip 24 and the light source device 4, input / output control of information with respect to each component, and the like.
  • the control unit 309 transmits setting data for imaging control to the imaging control unit 244e via a predetermined signal line included in the collective cable 246.
  • the reference clock generation unit 310 generates a reference clock signal that serves as a reference for the operation of each component of the endoscope system 1 and supplies the generated reference clock signal to each component of the endoscope system 1.
  • the light source device 4 includes a light source 41, an LED (Light Emitting Diode) driver 42, a rotation filter 43, a drive unit 44, a drive driver 45, and a light source control unit 46.
  • LED Light Emitting Diode
  • the light source 41 is configured using a white LDE, a xenon lamp, or the like, and generates white light under the control of the light source control unit 46.
  • the LED driver 42 supplies white light to the light source 41 by supplying current to the light source 41 under the control of the light source control unit 46.
  • Light generated by the light source 41 is irradiated from the tip of the tip portion 24 via the rotary filter 43, a condenser lens (not shown), and the light guide 241.
  • the rotary filter 43 is disposed on the optical path of white light emitted from the light source 41, and rotates to allow only white light emitted from the light source 41 to pass through light having a predetermined wavelength band.
  • the rotary filter 43 includes a red filter 431, a green filter 432, and a blue filter that transmit light having respective wavelength bands of red light (R), green light (G), blue light (B), and white light. 433 and a transparent filter 434.
  • the rotating filter 43 rotates to sequentially transmit light having red, green, blue, and white wavelength bands (for example, red: 600 nm to 700 nm, green: 500 nm to 600 nm, blue: 400 nm to 500 nm, white: 400 nm to 700 nm).
  • red 600 nm to 700 nm
  • green 500 nm to 600 nm
  • blue 400 nm to 500 nm
  • white 400 nm to 700 nm
  • the drive unit 44 is configured using a stepping motor, a DC motor, or the like, and rotates the rotary filter 43.
  • the drive driver 45 supplies a predetermined current to the drive unit 44 under the control of the light source control unit 46.
  • the light source control unit 46 controls the amount of current supplied to the light source 41 in accordance with the light source synchronization signal transmitted from the dimming unit 304. Further, the light source control unit 46 rotates the rotary filter 43 by driving the drive unit 44 via the drive driver 45 under the control of the control unit 309.
  • the display device 5 has a function of receiving and displaying the in-vivo image generated by the control device 3 via the video cable from the control device 3.
  • the display device 5 is configured using liquid crystal or organic EL (Electro Luminescence).
  • FIG. 4 is a diagram schematically illustrating an outline of a frame sequential image acquisition method executed by the endoscope 2 of the endoscope system 1 according to the first embodiment.
  • FIG. 5 is a diagram schematically showing an outline of an image acquisition method by the simultaneous endoscope 2.
  • the endoscope 2 of the endoscope system 1 irradiates illumination light having different wavelengths at a predetermined timing as described above, and sequentially captures reflected light in synchronization with the illumination light. It is sequential. For this reason, as shown in FIG. 4, when the endoscope 2 outputs an image signal of a one-frame biological image, the number of times of reading from the sensor unit 244a is one for the simultaneous type (see FIG. 5). Three times are required (images of red, green, and blue are respectively captured), and the amount of transmission data transmitted to the control device 3 is increased (approximately three times) compared to the simultaneous method.
  • the image signal to be transmitted is transmitted when the control device 3 can support only the simultaneous method. Therefore, the processing capability of the control device 3 and the resolution of the image signal are reduced.
  • the endoscope 2 of the endoscope system 1 is based on the identification information and the observation information included in the setting data received from the control device 3 by the data control unit 244k from the sensor unit 244a. By switching the readout area from which the image information is read, the data amount of the image signal transmitted to the control device 3 is reduced.
  • FIG. 6 is a diagram schematically illustrating a relationship between an outline of an image acquisition method that can be executed by the endoscope system 1 according to the first embodiment and a data amount of an image signal transmitted to the control device 3.
  • the image sensor 244 is a CMOS image sensor as described above, and a focal plane electronic shutter (rolling shutter) is employed. For this reason, the imaging device 244 sequentially reads the accumulated charges for each horizontal line when imaging a plurality of frames continuously. As a result, there is a time difference between the horizontal line read first by the image sensor 244 and the horizontal line read last.
  • 6A shows the relationship between the imaging timing of the image sensor 244 and the illumination light
  • FIG. 6B shows a case where an image signal is transmitted to the control device 3 capable of frame sequential processing.
  • FIG. 6C shows the data amount when the image signal is transmitted to the control device 3 capable of simultaneous processing.
  • the vertical axis indicates the horizontal line (row) of the image sensor 244, and the horizontal axis indicates time.
  • the vertical axis indicates the amount of data for transmitting the image signal, and the horizontal axis indicates time.
  • the light source device 4 sequentially irradiates, for example, red ⁇ green ⁇ blue illumination light at predetermined timings.
  • the imaging device 244 starts from the horizontal line at the top of the screen immediately after the light source device 4 irradiates the illumination light, and sequentially reads out pixels to the lower horizontal line.
  • the data amount of the data which the image pick-up element 244 of the endoscope 2 transmits becomes large. Therefore, as shown in FIG. 7, when the control device 3 is a simultaneous type, the data control unit 244k is capable of handling a reading area in which the reading unit 244g reads image information from the sensor unit 244a in a frame sequential manner.
  • the sensor unit 244a is caused to pick up an image by switching to be smaller than the reading area. Thereby, as shown in FIG. 6C, the endoscope 2 reduces the data amount of image information transmitted to the control device 3, thereby transmitting the data regardless of the observation method that can be handled by the control device 3.
  • the rate and control device 3 can be shared.
  • FIG. 8 is a flowchart illustrating an outline of processing executed by the endoscope system 1 according to the first embodiment.
  • the following processing is performed immediately after the endoscope 2 is connected to the control device 3, and during the initial operation after the power is turned on to the endoscope system 1, the practitioner uses the endoscope system 1 to perform the treatment. This is performed at predetermined timings before starting the examination of the specimen or between examinations of the subject.
  • the imaging control unit 244e determines whether or not setting data has been received from the control device 3 (step S101). When setting data is received from the control device 3 (step S101: Yes), the imaging control unit 244e proceeds to step S102. On the other hand, when the setting data is not received from the control device 3 (step S101: No), the imaging control unit 244e continues this determination.
  • the data control unit 244k determines that the control device 3 is compatible with the frame sequential observation method based on the setting data received by the observation method determination unit 244l from the control device 3 (step S102: Yes). ) And when it is determined that the transmission path (transmission rate) for transmitting the image signal is compatible (step S103: Yes), the control device 3 determines that it is compatible (step S104: Yes). The data control unit 244k transmits the image signal generated by the sensor unit 244a (step S105), and ends this process.
  • the data control unit 244k determines that the control device 3 is not compatible with the frame sequential observation method based on the setting data received from the control device 3 by the observation method determination unit 244l (step S102). : No), when it is determined that the transmission path for transmitting the image signal is not compatible (step S103: No), and when it is determined that the control device 3 is not compatible (step S104: No), the reading unit 244g is the sensor unit. The transmission area is switched to a transmission method in which the reading area read from 244a is reduced to reduce the data amount of the image signal and transmitted to the control device 3 (step S106). Thereafter, the data control unit 244k proceeds to step S105.
  • the reading unit 244g reads image information from the sensor unit 244a based on the identification information and the observation information included in the setting data received from the control device 3 by the data control unit 244k.
  • the area (imaging area) is made smaller than the simultaneous readout area (imaging area), and the sensor unit 244a captures an image.
  • the endoscope 2 can reduce the data amount of the image information transmitted to the control device 3.
  • the endoscope 2 can transmit an image signal by sharing the transmission rate and the control device 3 regardless of the observation methods that can be handled by the control device 3.
  • the control device of a new generation 3 and older generation control devices 3 can transmit image signals with a common transmission rate.
  • the reading area read from the sensor unit 244a is switched according to the identification information and observation information included in the setting data received by the data control unit 244k from the control device 3, but for example, a sensor
  • the data amount of the image information may be reduced while thinning out the lines of the readout area read from the unit 244a.
  • the data control unit 244k can, for example, handle the control device 3 only simultaneously based on the identification information and the observation information included in the setting data received from the control device 3.
  • the data amount of the image signal is reduced so that the reading area read by the sensor unit 244a can correspond to the simultaneous reading area.
  • the data control unit 244k thins out the horizontal lines of the readout area read out from the sensor unit 244a by the readout unit 244g at equal intervals, thereby Let 244a image.
  • the endoscope 2 reduces the data amount of the image information to be transmitted to the control device 3, so that the transmission path and the control device can be used regardless of the observation information and the transmission type of the transmission path that can be handled by the control device 3. 3 can be shared.
  • the endoscope system according to the second embodiment has the same configuration as that of the above-described embodiment, and the processing executed by the endoscope of the endoscope system is different. For this reason, below, the process which the endoscope system concerning this Embodiment 2 performs is demonstrated. In addition, the same code
  • FIG. 10 is a flowchart showing an outline of processing executed by the endoscope system 1 according to the second embodiment.
  • Steps S201 to S205 correspond to Steps S101 to S105 in FIG. 8, respectively.
  • step S206 the data control unit 244k switches to a transmission method in which the number of bits is reduced by thinning out the data sequence of the image signal and transmitted to the control device 3.
  • the data control unit 244k is, for example, an image signal converted by the A / D conversion unit 244j when the control device 3 can handle only the simultaneous method.
  • the number of data bits is reduced to the number of image signal data bits that can be used simultaneously.
  • the data control unit 244k reduces the number of bits of the image signal data converted by the A / D conversion unit 244j from 10 bits to 8 bits.
  • the endoscope 2 can cope with the control device 3 by reducing the data amount of the image signal transmitted to the control device 3, regardless of the observation method, the type, and the performance. Can be shared.
  • the endoscope system 1 proceeds to step S205.
  • the A / D conversion unit 244j functions as a data reduction unit.
  • the A / D conversion that converts the analog image signal generated by the sensor unit 244a into a digital image signal based on the setting data received from the control device 3 by the data control unit 244k.
  • the unit 244j switches to a transmission method in which the number of bits of the image signal data is reduced by thinning out the image signal data string.
  • the endoscope 2 can cope with the control device 3 by reducing the data amount of the image signal transmitted to the control device 3, regardless of the observation method, the type, and the performance. Can be shared.
  • the imaging control unit 244e reduces the amount of data transmitted by the image signal by reducing the resolution of the number of bits converted by the A / D conversion unit 244j. Switching that thins out the number of bits may be performed by the FPGA 271 provided in the connector unit 27 that connects the endoscope 2 to the control device 3. Thereby, the data amount of the image signal can be reduced immediately before being transmitted from the endoscope 2 to the control device 3.
  • FIG. 11 is a block diagram illustrating a functional configuration of a main part of the endoscope system 100 according to the third embodiment.
  • An endoscope system 100 shown in FIG. 11 includes an image sensor 60 at the distal end portion 24 of the endoscope 2.
  • the imaging device 60 includes a sensor unit 244a, an AFE unit 244b, a P / S conversion unit 244c, a timing generator 244d, an imaging control unit 244e, a switch unit 61, and a data reduction unit 62.
  • the switch unit 61 is configured using a semiconductor switch or the like.
  • the switch unit 61 switches the transmission path of the image signal output from the AFE unit 244b under the control of the imaging control unit 244e.
  • the switch unit 61 switches the transmission path of the image signal output from the AFE unit 244b to the transmission path provided with the data reduction unit 62.
  • the data reduction unit 62 reduces the amount of data transmitted at a time by leveling the image signal data. Specifically, the data reduction unit 62 reduces the data amount of the image signal to be transmitted by reducing the amount of data transmitted per unit time with respect to the image signal data.
  • the data reduction unit 62 is configured using a partial memory.
  • FIG. 12 is a flowchart illustrating an outline of processing executed by the endoscope system 100 according to the third embodiment.
  • Steps S301 to S305 correspond to Steps S101 to S105 in FIG. 8, respectively.
  • step S306 the data control unit 244k switches the switch unit 61, thereby switching the transmission path of the image signal output from the AFE unit 244b to the transmission path provided with the data reduction unit 62, and leveling the image signal data. Switch to the transmission method.
  • FIG. 13 schematically shows the relationship between the outline of the image acquisition method that can be executed by the endoscope system 100 according to the third embodiment and the data amount of the image signal transmitted from the endoscope 2 to the control device 3.
  • FIG. 13A shows the relationship between the imaging timing of the image sensor 60 and the illumination light
  • FIG. 13B shows data when the image signal is transmitted to the control device 3 that can handle the frame sequential method.
  • FIG. 13C shows the amount of data when the image signal is transmitted to the control device 3 that can handle the simultaneous expression.
  • the vertical axis indicates the horizontal line (row) of the image sensor 60
  • the horizontal axis indicates time.
  • the vertical axis represents the data amount of the image signal
  • the horizontal axis represents time.
  • the light source device 4 sequentially irradiates illumination light at predetermined timings.
  • the imaging element 60 starts from the horizontal line at the top of the screen and reads pixels sequentially to the lower horizontal line immediately after the light source device 4 irradiates the illumination light and ends.
  • the imaging control unit 244e switches the data transmission path through which the image signal is output via the switch unit 61 to the data reduction unit 62 side. As a result, as shown in FIG.
  • the data reduction unit 62 reduces the amount of data output from the image sensor 60 to the control device 3 at a time by leveling the data amount of the image signal. Reduce the transmission rate. Furthermore, since the data reduction unit 62 only needs to output the image signal before the reading of the next sensor unit 244a is started, the image reduction unit 62 transmits the image signal to the control device 3 without impairing the data amount of the image signal itself. can do. After step S306, the endoscope system 100 proceeds to step S305.
  • the data reduction unit 62 provides a transmission path that the data control unit 244k outputs from the sensor unit 244a via the switch unit 61 based on the determination result of the observation method determination unit 244l. Switch to the specified transmission path.
  • the data reduction unit 62 equalizes the data amount of the image signal output from the sensor unit 244a, thereby reducing the data amount transmitted from the image sensor 60 to the control device 3 at a time, thereby increasing the transmission rate. Can be lowered.
  • the endoscope 2 can share the transmission path and the control device 3 regardless of the observation information and the transmission type of the transmission path that are compatible with the control device 3.
  • the data of the image signal is leveled before the data reduction unit 62 starts reading the image signal of the sensor unit 244a, the data amount of the image signal itself is not impaired.
  • An image signal can be transmitted to the control device 3.
  • the data reduction unit 62 is provided in the image sensor 244. However, as shown in FIG. 14, the data reduction unit 62 is provided in the FPGA 271 provided in the connector unit 27. May be. Thereby, the data amount of the image signal can be reduced immediately before being transmitted from the endoscope 2 to the control device 3.
  • the endoscope system according to the fourth embodiment is different from the above-described embodiment in the configuration of the imaging element of the endoscope and the processing executed by the endoscope system. For this reason, below, after demonstrating the structure of the endoscope system concerning this Embodiment 4, the process which the endoscope system concerning this Embodiment 4 performs is demonstrated. In addition, the same code
  • FIG. 15 is a block diagram illustrating a functional configuration of a main part of the endoscope system according to the fourth embodiment.
  • An endoscope system 120 illustrated in FIG. 15 includes an imaging element 70 at the distal end portion 24 of the endoscope 2.
  • the imaging element 70 includes a sensor unit 244a, a P / S conversion unit 244c, a timing generator 244d, an imaging control unit 244e, a switch unit 61, an AFE unit 71, and a data compression unit 72.
  • the AFE unit 71 includes a noise reduction unit 244h, an AGC unit 244i, a WB adjustment unit 711, a ⁇ correction unit 712, and an A / D conversion unit 244j.
  • the WB adjustment unit 711 automatically adjusts the white balance of the image signal. Specifically, the WB adjustment unit 711 automatically adjusts the white balance of the image signal based on the color temperature included in the image signal.
  • the ⁇ correction unit 712 performs tone correction ( ⁇ correction) of the image signal.
  • the data compression unit 72 compresses the image signal input from the AFE unit 71 via the switch unit 61 according to a predetermined image compression format and controls the data amount of the image signal under the control of the imaging control unit 244e. Reduce and output to the P / S converter 244c.
  • the predetermined format is a JPEG (Joint Photographic Experts Group) system or the like.
  • FIG. 16 is a flowchart illustrating an outline of processing executed by the endoscope system 120 according to the fourth embodiment.
  • Steps S401 to S405 correspond to steps S101 to S105 of FIG. 8 described above, respectively.
  • step S406 the data control unit 244k switches the switch unit 61 to switch the transmission path of the image signal output from the AFE unit 71 to the transmission path in which the data compression unit 72 is provided, and compresses the image signal data. Switch to the transmission method. Specifically, the data compression unit 72 reduces the data of the image signal transmitted to the control device 3 by performing a process of compressing the data on the image signal subjected to each image processing in the AFE unit 71. To do. After step S406, the endoscope system 120 proceeds to step S405.
  • the imaging control unit 244e switches the transmission path of the image signal to the transmission path provided with the data compression unit 72 based on the determination result of the observation method determination unit 244l. Switch methods.
  • the data compression unit 72 compresses the data amount of the image signal, so that the data amount of the image signal transmitted from the image sensor 70 to the control device 3 can be reduced.
  • the endoscope 2 can share the transmission rate and the control device 3 regardless of the observation method and the transmission rate of the transmission path that are compatible with the control device 3.
  • one image sensor is provided at the distal end portion of the endoscope.
  • two image sensors may be provided.
  • one light source 41 is provided in the light source device 4, but, for example, a red LED, a green LED, and a blue LED may be provided. Furthermore, you may provide the special light source which generate

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

 制御装置の種別に関わらず、画像信号を伝送することができる撮像装置を提供する。被写体に対して波長が異なる光を順次照射して該被写体で反射した光学像を撮像して該被写体の画像信号を生成する撮像素子244を備え、画像信号に所定の画像処理を行う制御装置3に接続され、双方向に通信を行う面順次方式の内視鏡2であって、内視鏡2に接続された制御装置3の識別情報に基づいて、制御装置3に伝送する画像信号のデータ量を制御するデータ制御部244kと、を備える。

Description

撮像装置
 本発明は、撮像用の複数の画素のうち読み出し対象として任意に指定された画素から光電変換後の電気信号を画像情報として出力可能である撮像素子を備えた撮像装置に関する。
 従来、医療分野においては、患者等の被検体の臓器を観察する際に内視鏡システムが用いられている。内視鏡システムは、例えば可撓性を有する細長形状をなし、被検体の体腔内に挿入される挿入部と、挿入部の先端に設けられて体内画像を撮像する撮像部と、撮像部が撮像した体内画像を表示可能な表示部とを有する。内視鏡システムを用いて体内画像を取得する際には、被検体の体腔内に挿入部を挿入した後、この挿入部の先端から体腔内の生体組織に白色光等の照明光を照射し、撮像部が体内画像を撮像する。医師等のユーザは、表示部が表示する体内画像に基づいて被検体の臓器の観察を行う。
 内視鏡システムを用いて観察を行う場合、複数の種類の照明を所定のタイミングで切り替える場合がある。このような照明方式として、たとえば、赤(R)、緑(G)、青(B)の三色成分の照明光を順次切り替える面順次式が知られている(特許文献1を参照)。この技術では、撮像素子としてCCD(Charge Coupled Device)イメージセンサを用いることにより、順次切り替わる照明光の下での画像の撮像を個別に行っている。
 また、撮像素子の受光部の前面にカラーフィルタを設け、白色光の照明光の下で撮像を行う同時式が知られている。
特開2006-288753号公報
 ところで、従来の内視鏡システムでは、照明方式に応じて異なる制御装置(プロセッサ)を用いなければならなかった。さらに、面順次式および同時式それぞれの内視鏡は、制御装置に伝送する画像信号のデータ量が異なるため、伝送レートを共通化することができなかった。このため、面順次式および同時式に対応可能な撮像装置が求められていた。
 本発明は、上記に鑑みてなされたものであって、照明方式によらず、画像信号を伝送することができる撮像装置を提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明にかかる撮像装置は、被写体に対して波長が異なる光を順次照射して該被写体で反射した光学像を撮像して該被写体の画像信号を生成する撮像素子を備え、前記画像信号に所定の画像処理を行う制御装置に通信可能に接続され、双方向に通信を行う面順次式の撮像装置であって、当該撮像装置に接続された前記制御装置の識別情報に基づいて、前記制御装置に送信する前記画像信号のデータ量を制御するデータ制御部と、を備えたことを特徴とする。
 また、本発明にかかる撮像装置は、上記発明において、前記制御装置に送信する前記画像信号のデータ量を削減するデータ削減部をさらに備え、前記データ制御部は、前記制御装置の識別情報に基づいて、前記画像信号のデータを前記データ削減部に削減させて前記制御装置に送信することを特徴とする。
 また、本発明にかかる撮像装置は、上記発明において、前記データ削減部は、前記撮像素子による撮像領域を小さくして前記画像信号のデータ量を削減することを特徴とする。
 また、本発明にかかる撮像装置は、上記発明において、前記データ削減部は、前記撮像素子の撮像領域から前記画像信号を読み出す読み出し領域を間引くことにより、前記画像信号のデータ量を削減することを特徴とする。
 また、本発明にかかる撮像装置は、上記発明において、前記データ削減部は、前記画像信号のデータ列を間引くことによってビット数を小さくして前記画像信号のデータ量を削減することを特徴とする。
 また、本発明にかかる撮像装置は、上記発明において、前記データ削減部は、前記画像信号のデータに対して単位時間あたりのデータ量を削減することにより、前記画像信号のデータ量を削減することを特徴とする。
 また、本発明にかかる撮像装置は、上記発明において、前記データ削減部は、前記画像信号のデータに対して所定の画像圧縮形式に従った圧縮処理を施すことにより、前記画像信号のデータ量を削減することを特徴とする。
 また、本発明にかかる撮像装置は、上記発明において、前記制御装置の識別情報に基づいて、前記制御装置が白色光で照射された前記被写体を撮像することにより前記被写体の画像信号を生成する同時式であるか否かを判定する観察方式判定部をさらに備え、前記データ制御部は、前記観察方式判定部によって前記制御装置が前記同時式であると判定された場合、前記データ削減部に前記面順次式に比して前記画像信号のデータ量を削減させて前記制御装置に送信することを特徴とする。
 また、本発明にかかる撮像装置は、上記発明において、前記撮像素子と前記データ制御部とを含む先端部と、各種の操作を指示する指示信号の入力を受け付ける操作部と、前記制御装置に接続され、前記データ削減部を含む接続部と、をさらに備えたことを特徴とする。
 また、本発明にかかる撮像装置は、上記発明において、前記撮像素子と、前記データ制御部と、前記データ削減部とを含む先端部と、前記制御装置に接続する接続部と、を備えたことを特徴とする。
 本発明にかかる撮像装置によれば、撮像装置に接続された制御装置の識別情報に基づいて、制御装置に伝送する画像信号のデータ量を制御する制御部を備えるので、制御装置の種別に関わらず、画像信号を伝送することができるという効果を奏する。
図1は、本発明の実施の形態1にかかる撮像装置である内視鏡システムの概略構成を示す図である。 図2は、図1の内視鏡の先端部の内部構成の概略を説明する断面図である。 図3は、本発明の実施の形態1にかかる内視鏡システムの要部の機能構成を示すブロック図である。 図4は、本発明の実施の形態1にかかる内視鏡システムの内視鏡が実行する面順次式の画像取得方法の概要を模式的に示す図である。 図5は、同時式の内視鏡による画像取得方法の概要を模式的に示す図である。 図6は、本発明の実施の形態1にかかる内視鏡システムが実行可能な画像取得方法の概要と制御装置に送信する画像信号のデータ量との関係を模式的に示す図である。 図7は、本発明の実施の形態1にかかる送信方法の切り替えによるセンサ部から画像信号を読み出す読み出し領域を模式的に示す図である。 図8は、本発明の実施の形態1にかかる内視鏡システムが実行する処理の概要を示すフローチャートである。 図9は、本発明の実施の形態1にかかる別の送信方法の切り替えによるセンサ部から画像信号を読み出す読み出し領域を模式的に示す図である。 図10は、本発明の実施の形態2にかかる内視鏡システムが実行する処理の概要を示すフローチャートである。 図11は、本発明の実施の形態3にかかる内視鏡システムの要部の機能構成を示すブロック図である。 図12は、本発明の実施の形態3にかかる内視鏡システムが実行する処理の概要を示すフローチャートである。 図13は、本発明の実施の形態3にかかる内視鏡システムが実行可能な画像取得方法の概要と制御装置に送信する画像信号のデータ量との関係を模式的に示す図である。 図14は、本発明の実施の形態3の変形例にかかる内視鏡システムの要部の機能構成を示すブロック図である。 図15は、本発明の実施の形態4にかかる内視鏡システムの要部の機能構成を示すブロック図である。 図16は、本発明の実施の形態4にかかる内視鏡システムが実行する処理の概要を示すフローチャートである。
 以下、本発明を実施するための形態(以下、「実施の形態」という)として、患者等の被検体の体腔内の画像を撮像して表示する医療用の内視鏡システムについて説明する。また、この実施の形態により、この発明が限定されるものではない。さらに、図面の記載において、同一部分には同一の符号を付している。さらにまた、図面は、模式的なものであり、各部材の厚みと幅との関係、各部材の比率等は、現実と異なることに留意する必要がある。また、図面の相互間においても、互いの寸法や比率が異なる部分が含まれている。
(実施の形態1)
 図1は、本発明の実施の形態1にかかる撮像装置である内視鏡システムの概略構成を示す図である。図1に示すように、内視鏡システム1は、被検体の体腔内に先端部を挿入することによって被写体の体内画像を撮像する内視鏡2と、内視鏡2が撮像した体内画像に所定の画像処理を施すとともに、内視鏡システム1全体の動作を統括的に制御する制御装置3と、内視鏡2の先端から出射する照明光を発生する光源装置4と、制御装置3が画像処理を施した体内画像を表示する表示装置5と、を備える。
 内視鏡2は、可撓性を有する細長形状をなす挿入部21と、挿入部21の基端側に接続され、各種の操作信号の入力を受け付ける操作部22と、操作部22から挿入部21が延びる方向と異なる方向に延び、制御装置3および光源装置4と接続する各種ケーブルを内蔵するユニバーサルコード23と、を備える。
 挿入部21は、後述する撮像素子を内蔵した先端部24と、複数の湾曲駒によって構成された湾曲自在な湾曲部25と、湾曲部25の基端側に接続され、可撓性を有する長尺状の可撓管部26と、を有する。
 図2は、先端部24の内部構成の概略を説明する断面図である。図2に示すように、先端部24は、グラスファイバ等を用いて構成されて光源装置4が発生した光の導光路をなすライトガイド241と、ライトガイド241の先端に設けられた照明レンズ242と、集光用の光学系243と、光学系243の結像位置に設けられ、光学系243が集光した光を受光して電気信号に光電変換して所定の信号処理を施す撮像素子244と、内視鏡2用の処置具が通る処置具チャンネル245と、を有する。
 光学系243は、少なくともレンズ243aおよびレンズ243bからなる。なお、光学系243を構成するレンズの種類や数は、図2に示されるものに限られるわけではない。
 図3は、内視鏡システム1の要部の機能構成を示すブロック図である。図3を参照して、撮像素子244の構成を説明する。図3に示すように、撮像素子244は、光学系243からの光学像を光電変換して電気信号を出力するセンサ部244aと、センサ部244aが出力した電気信号に対してノイズ除去やA/D変換を行うアナログフロントエンド244b(以下、「AFE部244b」という)と、AFE部244bが出力したデジタル信号をパラレル/シリアル変換するP/S変換部244cと、センサ部244aの駆動タイミング、AFE部244bおよびP/S変換部244cにおける各種信号処理のパルスを発生するタイミングジェネレータ244dと、撮像素子244の動作を制御する撮像制御部244eと、を有する、撮像素子244は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサである。
 センサ部244aは、光量に応じた電荷を蓄積するフォトダイオードおよびフォトダイオードが蓄積した電荷を増幅する増幅器をそれぞれ有する複数の画素が2次元マトリックス状に配設された受光部244fと、受光部244fの複数の画素のうち読み出し対象として任意に設定された画素が生成した電気信号を画像情報として読み出す読み出し部244gと、を有する。
 AFE部244bは、電気信号(アナログ)に含まれるノイズ成分を低減するノイズ低減部244hと、電気信号の増幅率(ゲイン)を調整して一定の出力レベルを維持するAGC(Auto Gain Control)部244iと、AGC部244iを介して出力された電気信号をA/D変換するA/D変換部244jと、を有する。ノイズ低減部244hは、たとえば相関二重サンプリング(Correleted Double Sampling)法を用いてノイズの低減を行う。
 撮像制御部244eは、制御装置3から受信した設定データにしたがって、先端部24の各種動作を制御する。撮像制御部244eは、CPU(Central Processing Unit)等を用いて構成される。撮像制御部244eは、データ制御部244kと、観察方式判定部244lと、を有する。
 データ制御部244kは、制御装置3から受信した設定データに基づいて、制御装置3に伝送する画像信号のデータ量を制御する。具体的には、データ制御部244kは、制御装置3から受信した設定データに基づいて、読み出し部244gが読み出す領域を設定する。ここで、設定データには、制御装置3の識別情報および面順次式または同時式の観察方式を示す観察情報、撮像素子244の撮像速度(フレームレート)、およびセンサ部244aの任意の画素からの画素情報の読み出し速度を指示する指示情報、ならびにAFE部244bが読み出した画素情報の伝送制御情報等が含まれる。たとえば、データ制御部244kは、後述する観察方式判定部244lの判定結果に基づいて、読み出し部244gが受光部244fから画像情報を読み出す読み出し領域を、面順次式に比して読み出し領域を小さくすることにより、センサ部244aが出力する画像信号のデータ量を削減する。すなわち、読み出し部244gが本実施の形態1にかかるデータ削減部として機能する。
 観察方式判定部244lは、制御装置3から受信した設定データに含まれる制御装置3の識別情報に基づいて、制御装置3が白色光で照射された被写体を撮像することにより被写体の画像信号を生成する同時式であるか否かを判定する。なお、観察方式判定部244lは、制御装置3から受信した設定データに基づいて、他の観察方式、たとえば面順次式等を判定してもよい。
 基板244Sに設けられる電極244Eには、制御装置3との間で電気信号の送受信を行う複数の信号線が束ねられた集合ケーブル246が接続している。複数の信号線には、撮像素子244が出力した画像信号を制御装置3へ伝送する信号線および制御装置3が出力する制御信号を撮像素子244へ伝送する信号線等が含まれる。
 操作部22は、湾曲部25を上下方向および左右方向に湾曲させる湾曲ノブ221と、体腔内に生体鉗子、レーザメスおよび検査プローブ等の処理具を挿入する処置具挿入部222と、制御装置3、光源装置4に加えて、送気手段、送水手段、送ガス手段等の周辺機器の操作指示信号を入力する操作入力部である複数のスイッチ223と、を有する。処置具挿入部222から挿入される処置具は、先端部24の処置具チャンネル245を経由して開口部245aから表出する。
 ユニバーサルコード23は、ライトガイド241と、集合ケーブル246と、を少なくとも内蔵している。ユニバーサルコード23は、光源装置4に着脱自在なコネクタ部27(図1を参照)を有する。コネクタ部27は、コイル状のコイルケーブル27aが延設し、コイルケーブル27aの延出端に制御装置3と着脱自在な電気コネクタ部28を有する。コネクタ部27は、内部にFPGA(Field Programmable Gate Array)271を有する。
 つぎに、制御装置3の構成について説明する。制御装置3は、S/P変換部301と、画像処理部302と、明るさ検出部303と、調光部304と、読出アドレス設定部305と、駆動信号生成部306と、入力部307と、記憶部308と、制御部309と、基準クロック生成部310と、を備える。なお、本実施の形態1では、制御装置3として面順次の構成を例に説明するが、同時式であっても適用することができる。
 S/P変換部301は、先端部24から受信した画像信号(デジタル信号)をシリアル/パラレル変換する。
 画像処理部302は、S/P変換部301から出力されたパラレル形態の画像信号をもとに、表示装置5が表示する体内画像を生成する。画像処理部302は、同時化部302aと、ホワイトバランス(WB)調整部302bと、ゲイン調整部302cと、γ補正部302dと、D/A変換部302eと、フォーマット変更部302fと、サンプル用メモリ302gと、静止画像用メモリ302hと、を有する。
 同時化部302aは、画素情報として入力された画像信号を、画素ごとに設けられた3つのメモリ(図示せず)に入力し、読み出し部244gが読み出した受光部244fの画素のアドレスに対応させて、各メモリの値を順次更新しながら保持するとともに、これら3つのメモリの画像信号をRGB画像信号として同時化する。同時化部302aは、同時化したRGB画像信号をホワイトバランス調整部302bへ順次出力するとともに、一部のRGB画像信号を、明るさ検出などの画像解析用としてサンプル用メモリ302gへ出力する。
 ホワイトバランス調整部302bは、RGB画像信号のホワイトバランスを自動的に調整する。具体的には、ホワイトバランス調整部302bは、RGB画像信号に含まれる色温度に基づいて、RGB画像信号のホワイトバランスを自動的に調整する。
 ゲイン調整部302cは、RGB画像信号のゲイン調整を行う。ゲイン調整部302cは、ゲイン調整を行ったRGB信号をγ補正部302dへ出力するとともに、一部のRGB信号を、静止画像表示用、拡大画像表示用または強調画像表示用として静止画像用メモリ302hへ出力する。
 γ補正部302dは、表示装置5に対応させてRGB画像信号の階調補正(γ補正)を行う。
 D/A変換部302eは、γ補正部302dが出力した階調補正後のRGB画像信号をアナログ信号に変換する。
 フォーマット変更部302fは、アナログ信号に変換された画像信号をハイビジョン方式等の動画用のファイルフォーマットに変更して表示装置5に出力する。
 明るさ検出部303は、サンプル用メモリ302gが保持するRGB画像信号から、各画素に対応する明るさレベルを検出し、検出した明るさレベルを内部に設けられたメモリに記録するとともに制御部309へ出力する。また、明るさ検出部303は、検出した明るさレベルをもとにゲイン調整値および光照射量を算出し、ゲイン調整値をゲイン調整部302cへ出力する一方、光照射量を調光部304へ出力する。
 調光部304は、制御部309の制御のもと、明るさ検出部303が算出した光照射量をもとに光源装置4が発生する光の種別、光量、発光タイミング等を設定し、この設定した条件を含む光源同期信号を光源装置4へ送信する。
 読出アドレス設定部305は、センサ部244aの受光面における読み出し対象の画素および読み出し順序を設定する機能を有する。すなわち、読出アドレス設定部305は、AFE部244bが読出すセンサ部244aの画素のアドレスを設定する機能を有する。また、読出アドレス設定部305は、設定した読み出し対象の画素のアドレス情報を同時化部302aへ出力する。
 駆動信号生成部306は、撮像素子244を駆動するための駆動用のタイミング信号を生成し、集合ケーブル246に含まれる所定の信号線を介してタイミングジェネレータ244dへ送信する。このタイミング信号は、読み出し対象の画素のアドレス情報を含む。
 入力部307は、内視鏡システム1の動作を指示する動作指示信号等の各種信号の入力を受け付ける。
 記憶部308は、フラッシュメモリやDRAM(Dynamic Random Access Memory)等の半導体メモリを用いて実現される。記憶部308は、内視鏡システム1を動作させるための各種プログラム、および内視鏡システム1の動作に必要な各種パラメータ等を含むデータを記憶する。また、記憶部308は、制御部309の識別情報および観察情報を記憶する。ここで、識別情報には、制御部309の固有情報(ID)、年式、制御部309のスペック情報および伝送レート情報が含まれる。
 制御部309は、CPU等を用いて構成され、先端部24および光源装置4を含む各構成部の駆動制御、および各構成部に対する情報の入出力制御などを行う。制御部309は、撮像制御のための設定データを、集合ケーブル246に含まれる所定の信号線を介して撮像制御部244eへ送信する。
 基準クロック生成部310は、内視鏡システム1の各構成部の動作の基準となる基準クロック信号を生成し、内視鏡システム1の各構成部に対して生成した基準クロック信号を供給する。
 つぎに、光源装置4の構成について説明する。光源装置4は、光源41と、LED(Light Emitting Diode)ドライバ42と、回転フィルタ43と、駆動部44と、駆動ドライバ45と、光源制御部46と、を備える。
 光源41は、白色LDEまたはキセノンランプ等を用いて構成され、光源制御部46の制御のもと、白色光を発生する。LEDドライバ42は、光源41に対して光源制御部46の制御のもとで電流を供給することにより、光源41に白色光を発生させる。光源41が発生した光は、回転フィルタ43および集光レンズ(図示せず)およびライトガイド241を経由して先端部24の先端から照射される。
 回転フィルタ43は、光源41が発した白色光の光路上に配置され、回転することにより、光源41が発する白色光を所定の波長帯域を有する光のみを透過させる。具体的には、回転フィルタ43は、赤色光(R)、緑色光(G)、青色光(B)および白色光それぞれの波長帯域を有する光を透過させる赤色フィルタ431、緑色フィルタ432、青色フィルタ433および透明フィルタ434を有する。回転フィルタ43は、回転することにより、赤、緑、青および白の波長帯域を有する光を順次透過させる(例えば、赤:600nm~700nm、緑:500nm~600nm、青:400nm~500nm、白:400nm~700nm)。これにより、光源41が発する白色光は、狭帯域化した赤色光、緑色光、青色光および白色光のいずれかの光を内視鏡2に順次出射することができる。
 駆動部44は、ステッピングモータやDCモータ等を用いて構成され、回転フィルタ43を回転動作させる。駆動ドライバ45は、光源制御部46の制御のもと、駆動部44に所定の電流を供給する。
 光源制御部46は、調光部304から送信された光源同期信号にしたがって光源41に供給する電流量を制御する。また、光源制御部46は、制御部309の制御のもと、駆動ドライバ45を介して駆動部44を駆動することにより、回転フィルタ43を回転させる。
 表示装置5は、映像ケーブルを介して制御装置3が生成した体内画像を制御装置3から受信して表示する機能を有する。表示装置5は、液晶または有機EL(Electro Luminescence)を用いて構成される。
 以上の構成を有する内視鏡システム1が実行する画像取得方法について説明する。図4は、本実施の形態1にかかる内視鏡システム1の内視鏡2が実行する面順次式の画像取得方法の概要を模式的に示す図である。図5は、同時式の内視鏡2による画像取得方法の概要を模式的に示す図である。
 図4に示すように、内視鏡システム1の内視鏡2は、上述したように所定のタイミングで波長が異なる照明光を照射し、この照明光に同期して反射光を順次撮像する面順次式である。このため、図4に示すように、内視鏡2は、1フレームの生体画像の画像信号を出力する場合、センサ部244aから読み出す回数が同時式の1回に対して(図5を参照)、3回必要になり(赤、緑および青それぞれを撮像)、同時式と比べて制御装置3に伝送する伝送データ量も多くなる(約3倍)。この結果、本実施の形態1の内視鏡システム1の内視鏡2で制御装置3に画像信号を送信する場合において、制御装置3が同時式のみに対応可能であるとき、伝送する画像信号のデータ量および伝送レートが異なるので、制御装置3の処理能力および画像信号の分解能が低下する。
 そこで、本実施の形態1にかかる内視鏡システム1の内視鏡2は、データ制御部244kが制御装置3から受信した設定データに含まれる識別情報および観察情報に基づいて、センサ部244aから画像情報を読み出す読み出し領域を切り替えることで、制御装置3に送信する画像信号のデータ量を削減する。
 図6は、本実施の形態1にかかる内視鏡システム1が実行可能な画像取得方法の概要と制御装置3に送信する画像信号のデータ量との関係を模式的に示す図である。撮像素子244は、上述したようにCMOSイメージセンサであり、フォーカルプレーン方式の電子シャッタ(ローリングシャッタ)が採用される。このため、撮像素子244は、複数のフレームを連続的に撮像する場合、蓄積された電荷の読み出しを1つの水平ラインごとに順次行う。この結果、撮像素子244で最初に読み出す水平ラインと、最後に読み出す水平ラインとでは時間差が生じる。また、図6において、図6(a)が撮像素子244の撮像タイミングと照明光との関係を示し、図6(b)が面順次式に対応可能な制御装置3に画像信号を送信する際のデータ量を示し、図6(c)が同時式に対応可能な制御装置3に画像信号を送信する際のデータ量を示す。なお、図6(a)において、縦軸が撮像素子244の水平ライン(行)を示し、横軸が時間を示す。さらに、図6(b),(c)において、縦軸が画像信号を送信するデータ量を示し、横軸が時間を示す。
 図6(a)に示す場合、光源装置4は、たとえば赤→緑→青の照明光を所定のタイミングごとに順次照射する。この際、撮像素子244は、光源装置4が照明光を照射して終了した直後に、画面上部の水平ラインからスタートして順次下方の水平ラインへと画素の読み出しを行う。このため、図6(b)に示すように、内視鏡2の撮像素子244が送信するデータのデータ量が大きくなる。そこで、図7に示すように、データ制御部244kは、制御装置3が同時式の場合、読み出し部244gがセンサ部244aから画像情報を読み出す読み出し領域を、面順次式に対応可能な制御装置3の読み出し領域よりも小さくする切り替えを行うことによって、センサ部244aに撮像させる。これにより、図6(c)に示すように、内視鏡2は、制御装置3に送信する画像情報のデータ量を削減することにより、制御装置3で対応可能な観察方式に関わらず、伝送レートおよび制御装置3を共通化することができる。
 つぎに、本実施の内視鏡システム1が実行する処理について説明する。図8は、本実施の形態1にかかる内視鏡システム1が実行する処理の概要を示すフローチャートである。なお、以下の処理は、内視鏡2が制御装置3に接続された直後、内視鏡システム1に電源が投入された後の初期動作時、施術者が内視鏡システム1を用いて被検体の検査を開始する前、または被検体の検査間に所定のタイミングごとに行われる。
 図8に示すように、撮像制御部244eは、制御装置3から設定データを受信したか否かを判定する(ステップS101)。制御装置3から設定データを受信した場合(ステップS101:Yes)、撮像制御部244eは、ステップS102へ移行する。これに対して、制御装置3から設定データを受信していない場合(ステップS101:No)、撮像制御部244eは、この判断を続ける。
 続いて、データ制御部244kは、観察方式判定部244lが制御装置3から受信した設定データに基づいて、制御装置3が面順次式の観察方法に対応可能であると判定し(ステップS102:Yes)、かつ、画像信号を伝送する伝送路(伝送レート)が対応可能であると判定した場合(ステップS103:Yes)において、制御装置3が対応可能であると判定したとき(ステップS104:Yes)、データ制御部244kは、センサ部244aが生成した画像信号の送信を行い(ステップS105)、本処理を終了する。
 これに対して、データ制御部244kは、観察方式判定部244lが制御装置3から受信した設定データに基づいて、制御装置3が面順次式の観察方法に対応可能でないと判定した場合(ステップS102:No)、画像信号を伝送する伝送路が対応可能でない判定した場合(ステップS103:No)、および制御装置3が対応可能でないと判定した場合(ステップS104:No)、読み出し部244gがセンサ部244aから読み出す読み出し領域を小さくして画像信号のデータ量を削減して制御装置3に送信する送信方法に切り替える(ステップS106)。その後、データ制御部244kは、ステップS105へ移行する。
 以上説明した本実施の形態1によれば、データ制御部244kが制御装置3から受信した設定データに含まれる識別情報および観察情報に基づいて、読み出し部244gがセンサ部244aから画像情報を読み出す読み出し領域(撮像領域)を、同時式の読み出し領域(撮像領域)よりも小さくしてセンサ部244aに撮像させる。これにより、内視鏡2は、制御装置3に伝送する画像情報のデータ量を削減することができる。この結果、内視鏡2は、制御装置3で対応可能な観察方式に関わらず、伝送レートおよび制御装置3を共通化して画像信号を伝送することができる。
 さらに、本実施の形態1によれば、観察方式判定部244lが制御装置3の識別情報を判定して、データ制御部244kが送信する画像信号のデータ量を調整するので、新しい世代の制御装置3と古い世代の制御装置3であっても、伝送レートを共通化して画像信号を送信することができる。
 なお、本実施の形態1では、データ制御部244kが制御装置3から受信した設定データに含まれる識別情報および観察情報に応じて、センサ部244aから読み出す読み出し領域を切り替えていたが、たとえば、センサ部244aから読み出す読み出し領域のラインを間引きながら画像情報のデータ量を削減してもよい。具体的には、図9に示すように、データ制御部244kは、制御装置3から受信した設定データに含まれる識別情報および観察情報に基づいて、たとえば制御装置3が同時式にのみ対応可能である場合、センサ部244aの読み出す読み出し領域を、同時式の読み出し領域に対応可能に画像信号のデータ量を削減する。具体的には、図9(a)および(b)に示すように、データ制御部244kは、読み出し部244gがセンサ部244aから読み出す読み出し領域の水平ラインを等間隔ごとに間引くことによって、センサ部244aに撮像させる。これにより、内視鏡2は、制御装置3に送信する画像情報のデータ量を削減することにより、制御装置3に対応可能な観察情報および伝送路の伝送種別に関わらず、伝送路および制御装置3を共通化することができる。
(実施の形態2)
 つぎに、本発明の実施の形態2について説明する。本実施の形態2にかかる内視鏡システムは、上述した実施の形態と同様の構成を有し、内視鏡システムの内視鏡が実行する処理が異なる。このため、以下においては、本実施の形態2にかかる内視鏡システムが実行する処理について説明する。なお、同一の構成には同一の符号を付して説明する。
 図10は、本実施の形態2にかかる内視鏡システム1が実行する処理の概要を示すフローチャートである。
 ステップS201~ステップS205は、図8のステップS101~ステップS105にそれぞれ対応する。
 ステップS206において、データ制御部244kは、画像信号のデータ列を間引くことによってビット数を削減して制御装置3に送信する送信方法に切り替える。具体的には、データ制御部244kは、観察方式判定部244lの判定結果に基づいて、たとえば制御装置3が同時式にのみ対応可能である場合、A/D変換部244jで変換される画像信号のデータのビット数を、同時式に対応可能な画像信号のデータのビット数に削減する。たとえば、データ制御部244kは、A/D変換部244jが変換する画像信号のデータのビット数を10ビットから8ビットに削減する。これにより、内視鏡2は、制御装置3に伝送する画像信号のデータ量を削減することにより、制御装置3に対応可能か観察方法および種別や性能に関わらず、伝送レートおよび制御装置3を共通化することができる。ステップS206の後、内視鏡システム1は、ステップS205へ移行する。なお、本実施の形態2では、A/D変換部244jがデータ削減部として機能する。
 以上説明した本実施の形態2では、データ制御部244kが制御装置3から受信した設定データに基づいて、センサ部244aによって生成されたアナログの画像信号をデジタルの画像信号に変換するA/D変換部244jに対して、画像信号のデータ列を間引くことにより画像信号のデータのビット数を削減して送信する送信方法に切り替える。これにより、内視鏡2は、制御装置3に伝送する画像信号のデータ量を削減することにより、制御装置3に対応可能か観察方法および種別や性能に関わらず、伝送路および制御装置3を共通化することができる。
 なお、上述した実施の形態2では、撮像制御部244eがA/D変換部244jが変換するビット数の分解能を低下させることにより、画像信号を伝送するデータ量を削減していたが、たとえば、内視鏡2を制御装置3に接続するコネクタ部27内に設けられたFPGA271でビット数を間引く切り替えを行ってもよい。これにより、内視鏡2から制御装置3に伝送される直前に画像信号のデータ量を削減することができる。
(実施の形態3)
 つぎに、本発明の実施の形態3について説明する。本実施の形態3にかかる内視鏡システムは、上述した実施の形態と内視鏡の撮像素子の構成が異なるとともに、内視鏡システムが実行する処理も異なる。このため、以下においては、本実施の形態3にかかる内視鏡システムの構成を説明後、本実施の形態3にかかる内視鏡システムが実行する処理について説明する。なお、同一の構成には同一の符号を付して説明する。
 図11は、本実施の形態3にかかる内視鏡システム100の要部の機能構成を示すブロック図である。図11に示す内視鏡システム100は、内視鏡2の先端部24に撮像素子60を備える。
 撮像素子60は、センサ部244aと、AFE部244bと、P/S変換部244cと、タイミングジェネレータ244dと、撮像制御部244eと、スイッチ部61と、データ削減部62と、を備える。
 スイッチ部61は、半導体スイッチ等を用いて構成される。スイッチ部61は、撮像制御部244eの制御のもと、AFE部244bから出力される画像信号の伝送路を切り替える。たとえば、スイッチ部61は、AFE部244bから出力される画像信号の伝送路をデータ削減部62が設けられた伝送路に切り替える。
 データ削減部62は、画像信号のデータに対して平準化を行うことによって、一度に伝送するデータ量を削減する。具体的には、データ削減部62は、画像信号のデータに対して単位時間あたりに送信するデータ量を削減することにより、送信する画像信号のデータ量を削減する。データ削減部62は、一部メモリを用いて構成される。
 このように構成された内視鏡システム100が実行する処理について説明する。図12は、本実施の形態3にかかる内視鏡システム100が実行する処理の概要を示すフローチャートである。
 ステップS301~ステップS305は、図8のステップS101~ステップS105にそれぞれ対応する。
 ステップS306において、データ制御部244kは、スイッチ部61を切り替えることにより、AFE部244bが出力する画像信号の伝送路をデータ削減部62が設けられた伝送路に切り替えて画像信号のデータを平準化して送信する送信方法に切り替える。
 ここで、データ制御部244kが切り替える送信方法について説明する。図13は、本実施の形態3にかかる内視鏡システム100が実行可能な画像取得方法の概要と内視鏡2から制御装置3に伝送する画像信号のデータ量との関係を模式的に示す図である。図13において、図13(a)が撮像素子60の撮像タイミングと照明光との関係を示し、図13(b)が面順次式に対応可能な制御装置3に画像信号を送信する際のデータ量を示し、図13(c)が同時式に対応可能な制御装置3に画像信号を送信する際のデータ量を示す。なお、図13(a)において、縦軸が撮像素子60の水平ライン(行)を示し、横軸が時間を示す。さらに、図13(b),(c)において、縦軸が画像信号のデータ量を示し、横軸が時間を示す。
 図13(a)に示す場合、光源装置4は、照明光を所定のタイミングごとに順次照射する。この場合、撮像素子60は、光源装置4が照明光を照射して終了した直後に、画面上部の水平ラインからスタートして順次下方の水平ラインへと画素の読み出しを行う。このため、図13(b)に示すように、内視鏡2の撮像素子60が出力する画像信号のデータ量が大きくなる。そこで、撮像制御部244eは、スイッチ部61を介して画像信号が出力されるデータの伝送路をデータ削減部62側に切り替える。これにより、図13(c)に示すように、データ削減部62は、画像信号のデータ量を平準化することにより、撮像素子60から制御装置3に一度に出力するデータ量を削減することによって伝送レートを低くする。さらに、データ削減部62は、次のセンサ部244aの読み出しが開始されるまでに画像信号の出力を行えばよいので、画像信号のデータ量そのものを損なうことなく、制御装置3に画像信号を伝送することができる。ステップS306の後、内視鏡システム100は、ステップS305へ移行する。
 以上説明した本実施の形態3によれば、データ制御部244kが観察方式判定部244lの判定結果に基づいて、スイッチ部61を介してセンサ部244aが出力する伝送路をデータ削減部62が設けられた伝送路に切り替える。これにより、データ削減部62がセンサ部244aから出力される画像信号のデータ量を平準化することにより、撮像素子60から制御装置3に一度に伝送するデータ量を削減することにより、伝送レートを低くすることができる。この結果、内視鏡2は、制御装置3に対応可能な観察情報および伝送路の伝送種別に関わらず、伝送路および制御装置3を共通化することができる。
 さらに、本実施の形態3によれば、データ削減部62がセンサ部244aの画像信号の読み出しを開始するまでに画像信号のデータを平準化するので、画像信号のデータ量そのものを損なうことなく、制御装置3に画像信号を伝送することができる。
 なお、上述した実施の形態3では、撮像素子244内にデータ削減部62が設けられていたが、図14に示すように、コネクタ部27内に設けられたFPGA271内にデータ削減部62を設けてもよい。これにより、内視鏡2から制御装置3に伝送される直前に画像信号のデータ量を削減することができる。
(実施の形態4)
 つぎに、本発明の実施の形態4について説明する。本実施の形態4にかかる内視鏡システムは、上述した実施の形態と内視鏡の撮像素子の構成が異なるとともに、内視鏡システムが実行する処理も異なる。このため、以下においては、本実施の形態4にかかる内視鏡システムの構成を説明後、本実施の形態4にかかる内視鏡システムが実行する処理について説明する。なお、同一の構成には同一の符号を付して説明する。
 図15は、本実施の形態4にかかる内視鏡システムの要部の機能構成を示すブロック図である。図15に示す内視鏡システム120は、内視鏡2の先端部24に撮像素子70を備える。
 撮像素子70は、センサ部244aと、P/S変換部244cと、タイミングジェネレータ244dと、撮像制御部244eと、スイッチ部61と、AFE部71と、データ圧縮部72と、を備える。
 AFE部71は、ノイズ低減部244hと、AGC部244iと、WB調整部711と、γ補正部712と、A/D変換部244jと、を有する。
 WB調整部711は、画像信号のホワイトバランスを自動的に調整する。具体的には、WB調整部711は、画像信号に含まれる色温度に基づいて、画像信号のホワイトバランスを自動的に調整する。γ補正部712は、画像信号の階調補正(γ補正)を行う。
 データ圧縮部72は、撮像制御部244eの制御のもと、スイッチ部61を介してAFE部71から入力された画像信号に対して、所定の画像圧縮形式に従って圧縮して画像信号のデータ量を削減してP/S変換部244cへ出力する。ここで、所定の形式としては、JPEG(Joint Photographic Experts Group)方式等である。
 このように構成された内視鏡システム120が実行する処理について説明する。図16は、本実施の形態4にかかる内視鏡システム120が実行する処理の概要を示すフローチャートである。
 ステップS401~ステップS405は、上述した図8のステップS101~ステップS105にそれぞれ対応する。
 ステップS406において、データ制御部244kは、スイッチ部61を切り替えることにより、AFE部71が出力する画像信号の伝送路をデータ圧縮部72が設けられた伝送路に切り替えて画像信号のデータを圧縮する送信方法に切り替える。具体的には、データ圧縮部72は、AFE部71内で各画像処理が施された画像信号に対してデータを圧縮する処理を行うことにより、制御装置3に伝送する画像信号のデータを削減する。ステップS406の後、内視鏡システム120は、ステップS405へ移行する。
 以上説明した本実施の形態4によれば、撮像制御部244eが観察方式判定部244lの判定結果に基づいて、画像信号の伝送路をデータ圧縮部72が設けられた伝送路に切り替えることによって送信方法を切り替える。これにより、データ圧縮部72が画像信号のデータ量を圧縮することにより、撮像素子70から制御装置3に伝送される画像信号のデータ量を削減することができる。この結果、内視鏡2は、制御装置3に対応可能な観察方法および伝送路の伝送レートに関わらず、伝送レートおよび制御装置3を共通化することができる。
(その他の実施の形態)
 なお、本実施の形態では、内視鏡の先端部に1つの撮像素子が設けられていたが、たとえば2つの撮像素子を設けてもよい。
 また、本実施の形態では、光源装置4に1つの光源41が設けられていたが、たとえば赤色LED、緑色LEDおよび青色LEDをそれぞれ設けてもよい。さらに、蛍光マーカを発光させる励起光を発生する特殊光源を設けてもよい。
 1,100,110,120 内視鏡システム
 2 内視鏡
 3 制御装置
 4 光源装置
 5 表示装置
 24 先端部
 21 挿入部
 22 操作部
 23 ユニバーサルコード
 25 湾曲部
 26 可撓管部
 27 コネクタ部
 28 電気コネクタ部
 41 光源
 42 LEDドライバ
 43 回転フィルタ
 44 駆動部
 45 駆動ドライバ
 46 光源制御部
 61 スイッチ部
 62 データ削減部
 72 データ圧縮部
 221 湾曲ノブ
 222 処置具挿入部
 223 スイッチ
 241 ライトガイド
 242 照明レンズ
 243 光学系
 60,70,244 撮像素子
 244a センサ部
 244b,71 アナログフロントエンド
 244c P/S変換部
 244d タイミングジェネレータ
 244e 撮像制御部
 244f 受光部
 244g 読み出し部
 244h ノイズ低減部
 244i AGC部
 244j A/D変換部
 244k データ制御部
 244l 観察方式判定部
 245 処置具チャンネル
 302 画像処理部
 304 調光部
 305 読出アドレス設定部
 306 駆動信号生成部
 307 入力部
 308 記憶部
 309 制御部
 310 基準クロック生成部

Claims (10)

  1.  被写体に対して波長が異なる光を順次照射して該被写体で反射した光学像を撮像して該被写体の画像信号を生成する撮像素子を備え、前記画像信号に所定の画像処理を行う制御装置に通信可能に接続され、双方向に通信を行う面順次式の撮像装置であって、
     当該撮像装置に接続された前記制御装置の識別情報に基づいて、前記制御装置に送信する前記画像信号のデータ量を制御するデータ制御部と、
     を備えたことを特徴とする撮像装置。
  2.  前記制御装置に送信する前記画像信号のデータ量を削減するデータ削減部をさらに備え、
     前記データ制御部は、前記制御装置の識別情報に基づいて、前記画像信号のデータを前記データ削減部に削減させて前記制御装置に送信することを特徴とする請求項1に記載の撮像装置。
  3.  前記データ削減部は、前記撮像素子による撮像領域を小さくして前記画像信号のデータ量を削減することを特徴とする請求項2に記載の撮像装置。
  4.  前記データ削減部は、前記撮像素子の撮像領域から前記画像信号を読み出す読み出し領域を間引くことにより、前記画像信号のデータ量を削減することを特徴とする請求項2に記載の撮像装置。
  5.  前記データ削減部は、前記画像信号のデータ列を間引くことによってビット数を小さくして前記画像信号のデータ量を削減することを特徴とする請求項4に記載の撮像装置。
  6.  前記データ削減部は、前記画像信号のデータに対して単位時間あたりのデータ量を削減することにより、前記画像信号のデータ量を削減することを特徴とする請求項2に記載の撮像装置。
  7.  前記データ削減部は、前記画像信号のデータに対して所定の画像圧縮形式に従った圧縮処理を施すことにより、前記画像信号のデータ量を削減することを特徴とする請求項4に記載の撮像装置。
  8.  前記制御装置の識別情報に基づいて、前記制御装置が白色光で照射された前記被写体を撮像することにより前記被写体の画像信号を生成する同時式であるか否かを判定する観察方式判定部をさらに備え、
     前記データ制御部は、前記観察方式判定部によって前記制御装置が前記同時式であると判定された場合、前記データ削減部に前記面順次式に比して前記画像信号のデータ量を削減させて前記制御装置に送信することを特徴とする請求項2に記載の撮像装置。
  9.  前記撮像素子と前記データ制御部とを含む先端部と、
     各種の操作を指示する指示信号の入力を受け付ける操作部と、
     前記制御装置に接続され、前記データ削減部を含む接続部と、
     をさらに備えたことを特徴とする請求項2に記載の撮像装置。
  10.  前記撮像素子と、前記データ制御部と、前記データ削減部とを含む先端部と、
     前記制御装置に接続する接続部と、
     を備えたことを特徴とする請求項2に記載の撮像装置。
PCT/JP2014/061858 2013-05-20 2014-04-28 撮像装置 WO2014188852A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015518175A JP5815162B2 (ja) 2013-05-20 2014-04-28 撮像装置
CN201480027382.5A CN105338882B (zh) 2013-05-20 2014-04-28 摄像装置
EP14801784.1A EP3000380A4 (en) 2013-05-20 2014-04-28 Imaging device
US14/944,782 US10188266B2 (en) 2013-05-20 2015-11-18 Endoscopic imaging device for reducing data amount of image signal

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-106329 2013-05-20
JP2013106329 2013-05-20

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/944,782 Continuation US10188266B2 (en) 2013-05-20 2015-11-18 Endoscopic imaging device for reducing data amount of image signal

Publications (1)

Publication Number Publication Date
WO2014188852A1 true WO2014188852A1 (ja) 2014-11-27

Family

ID=51933416

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/061858 WO2014188852A1 (ja) 2013-05-20 2014-04-28 撮像装置

Country Status (5)

Country Link
US (1) US10188266B2 (ja)
EP (1) EP3000380A4 (ja)
JP (1) JP5815162B2 (ja)
CN (1) CN105338882B (ja)
WO (1) WO2014188852A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016185746A1 (ja) * 2015-05-20 2018-03-08 ソニー・オリンパスメディカルソリューションズ株式会社 信号処理装置及び医療用観察システム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020151402A (ja) * 2019-03-22 2020-09-24 ソニー・オリンパスメディカルソリューションズ株式会社 医療用制御装置及び内視鏡システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10105695A (ja) * 1996-10-01 1998-04-24 Nissan Motor Co Ltd 画像入力装置
JP2005034166A (ja) * 2003-07-15 2005-02-10 Pentax Corp ホワイトバランス調整可能な電子内視鏡装置
JP2006288753A (ja) 2005-04-11 2006-10-26 Olympus Medical Systems Corp 電子内視鏡装置、電子内視鏡及び電子内視鏡用プロセッサ
JP2007312810A (ja) * 2006-05-23 2007-12-06 Olympus Corp 画像処理装置
JP2008142421A (ja) * 2006-12-12 2008-06-26 Olympus Corp 画像処理プロセッサ

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5379757A (en) * 1990-08-28 1995-01-10 Olympus Optical Co. Ltd. Method of compressing endoscope image data based on image characteristics
US5408265A (en) * 1992-02-07 1995-04-18 Olympus Optical Co., Ltd. Electronic endoscope system adaptable to different T.V. standards while utilizing a common light source
US5408263A (en) * 1992-06-16 1995-04-18 Olympus Optical Co., Ltd. Electronic endoscope apparatus
JP3780071B2 (ja) * 1997-07-31 2006-05-31 オリンパス株式会社 内視鏡撮像システム
JPH1147088A (ja) * 1997-08-01 1999-02-23 Olympus Optical Co Ltd 内視鏡撮像装置
US7193649B2 (en) * 2003-04-01 2007-03-20 Logitech Europe S.A. Image processing device supporting variable data technologies
WO2012002297A1 (ja) * 2010-06-30 2012-01-05 富士フイルム株式会社 撮像装置および撮像方法
WO2012033200A1 (ja) * 2010-09-10 2012-03-15 オリンパスメディカルシステムズ株式会社 撮像装置
JP5155496B2 (ja) * 2010-10-08 2013-03-06 オリンパスメディカルシステムズ株式会社 撮像装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10105695A (ja) * 1996-10-01 1998-04-24 Nissan Motor Co Ltd 画像入力装置
JP2005034166A (ja) * 2003-07-15 2005-02-10 Pentax Corp ホワイトバランス調整可能な電子内視鏡装置
JP2006288753A (ja) 2005-04-11 2006-10-26 Olympus Medical Systems Corp 電子内視鏡装置、電子内視鏡及び電子内視鏡用プロセッサ
JP2007312810A (ja) * 2006-05-23 2007-12-06 Olympus Corp 画像処理装置
JP2008142421A (ja) * 2006-12-12 2008-06-26 Olympus Corp 画像処理プロセッサ

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3000380A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016185746A1 (ja) * 2015-05-20 2018-03-08 ソニー・オリンパスメディカルソリューションズ株式会社 信号処理装置及び医療用観察システム
EP3278717B1 (en) * 2015-05-20 2023-11-08 Sony Olympus Medical Solutions Inc. Signal processing device and medical observation system

Also Published As

Publication number Publication date
CN105338882A (zh) 2016-02-17
CN105338882B (zh) 2017-07-28
JPWO2014188852A1 (ja) 2017-02-23
EP3000380A1 (en) 2016-03-30
US10188266B2 (en) 2019-01-29
JP5815162B2 (ja) 2015-11-17
EP3000380A4 (en) 2017-04-05
US20160066769A1 (en) 2016-03-10

Similar Documents

Publication Publication Date Title
JP5452785B1 (ja) 撮像システム
JP5769892B2 (ja) 内視鏡
JP5669997B1 (ja) 撮像装置
US8878921B2 (en) Imaging system
WO2016104386A1 (ja) 調光装置、撮像システム、調光装置の作動方法および調光装置の作動プログラム
WO2015114906A1 (ja) 撮像システムおよび撮像装置
JP6058235B1 (ja) 内視鏡システム
JP5810016B2 (ja) 内視鏡システム
JP5926980B2 (ja) 撮像装置および撮像システム
WO2020178962A1 (ja) 内視鏡システムおよび画像処理装置
JP6137892B2 (ja) 撮像システム
WO2016088628A1 (ja) 画像評価装置、内視鏡システム、画像評価装置の作動方法および画像評価装置の作動プログラム
JP5815162B2 (ja) 撮像装置
JP5885617B2 (ja) 撮像システム
JP6396717B2 (ja) 感度調整方法および撮像装置
JP2013172765A (ja) 内視鏡システム
WO2019130834A1 (ja) 画像処理装置および画像処理方法
WO2018079387A1 (ja) 画像処理装置および画像処理システム
WO2017022323A1 (ja) 画像信号処理方法、画像信号処理装置および画像信号処理プログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480027382.5

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14801784

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015518175

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2014801784

Country of ref document: EP