WO2015122355A1 - 内視鏡システム - Google Patents

内視鏡システム Download PDF

Info

Publication number
WO2015122355A1
WO2015122355A1 PCT/JP2015/053276 JP2015053276W WO2015122355A1 WO 2015122355 A1 WO2015122355 A1 WO 2015122355A1 JP 2015053276 W JP2015053276 W JP 2015053276W WO 2015122355 A1 WO2015122355 A1 WO 2015122355A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
subject
subject image
unit
view
Prior art date
Application number
PCT/JP2015/053276
Other languages
English (en)
French (fr)
Inventor
本田 一樹
高橋 毅
倉 康人
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to EP15749219.0A priority Critical patent/EP3106080A4/en
Priority to CN201580006312.6A priority patent/CN105939650B/zh
Priority to JP2015542070A priority patent/JP5942044B2/ja
Publication of WO2015122355A1 publication Critical patent/WO2015122355A1/ja
Priority to US15/224,923 priority patent/US20160338575A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00174Optical arrangements characterised by the viewing angles
    • A61B1/00181Optical arrangements characterised by the viewing angles for multiple fixed viewing angles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00131Accessories for endoscopes
    • A61B1/0014Fastening element for attaching accessories to the outside of an endoscope, e.g. clips, clamps or bands
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00194Optical arrangements adapted for three-dimensional imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/005Flexible endoscopes
    • A61B1/0051Flexible endoscopes with controlled bending of insertion part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/012Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor
    • A61B1/015Control of fluid supply or evacuation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/012Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor
    • A61B1/018Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor for receiving instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/12Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with cooling or rinsing arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2423Optical details of the distal end
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device
    • G06T3/047
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details

Definitions

  • the present invention relates to an endoscope system, and more particularly to an endoscope system capable of simultaneously observing a direct viewing direction and a side viewing direction.
  • An endoscope system including an endoscope that captures an object inside a subject and an image processing device that generates an observation image of the object captured by the endoscope is widely used in the medical field, the industrial field, and the like. It is used.
  • a direct-viewing observation lens that acquires a direct-view visual field image is provided on the distal end surface of the distal end portion of the insertion unit, and a plurality of side views that acquire side-view visual field images in the circumferential direction of the distal end portion.
  • An endoscope system including an endoscope provided with an observation lens is disclosed.
  • imaging elements are provided at the imaging positions of the direct-viewing observation lens and the plurality of side-viewing observation lenses, respectively, and a direct-view visual field image and a plurality of side-view visual field images are captured by these imaging elements.
  • the direct-view visual field image is arranged in the center, and a plurality of side-view visual field images are arranged on both sides of the direct-view visual field image and displayed on the monitor.
  • an object of the present invention is to provide an endoscope system capable of improving the visibility when the endoscope is inserted into a lumen and improving the operability of the endoscope.
  • An endoscope system includes an insertion unit that is inserted into a subject, and a first subject that is provided in the insertion unit and acquires a first subject image from a first region of the subject.
  • an image signal generation unit that generates an image signal by performing image processing so that the width of the image region increases as the distance from the adjacent region increases.
  • FIG. 1 is a diagram illustrating a configuration of an endoscope system according to the first embodiment
  • FIG. 2 is a perspective view illustrating a configuration of a distal end portion of an insertion portion of the endoscope
  • FIG. It is a figure which shows the structure of the principal part in 1 embodiment.
  • an endoscope system 1 includes an endoscope 2 that images an observation object and outputs an imaging signal, a light source device 31 that supplies illumination light for illuminating the observation object, A video processor 32 having a function as an image signal generation unit that generates and outputs a video signal (image signal) corresponding to the imaging signal; and a monitor 35 that displays an observation image corresponding to the video signal (image signal). is doing.
  • the endoscope 2 includes an operation unit 3 that an operator holds and operates, an elongated insertion unit 4 that is formed on the distal end side of the operation unit 3 and is inserted into a body cavity and the like, and a side portion of the operation unit 3 And a universal cord 5 provided with one end so as to extend from.
  • the endoscope 2 is a wide-angle endoscope capable of observing a field of view of 180 degrees or more by displaying a plurality of field images.
  • the back of the eyelid or the boundary of the organ For example, it is possible to prevent oversight of a lesion that is difficult to see only by observation in the direct viewing direction.
  • operations such as temporary fixing by twisting, reciprocating movement, intestinal wall hooking, etc. occur in the insertion portion 2 as in the case of a normal large intestine endoscope. To do.
  • the insertion portion 4 includes a hard distal end portion 6 provided on the most distal end side, a bendable bending portion 7 provided on the rear end of the distal end portion 6, and a long and long side provided on the rear end of the bending portion 7. And a flexible tube portion 8 having flexibility. Further, the bending portion 7 performs a bending operation according to the operation of the bending operation lever 9 provided in the operation portion 3.
  • the distal end surface of the distal end portion 6 of the endoscope 2 has a direct viewing direction (first direction) including the front substantially parallel to the longitudinal direction of the insertion portion 4, that is, a first subject.
  • a direct-view observation window 11a for observing the region of the endoscope 2 is disposed, and the side surface of the distal end portion 6 of the endoscope 2 has a longitudinal direction of the insertion portion 4 at least partially different from the direct-view direction (first direction).
  • a plurality of side-view observation windows 11b, 11c, 11d, and 11e for observing the side-view direction (second direction) including the intersecting direction, that is, the second region of the subject is arranged.
  • These side-view observation windows 11b to 11e are arranged at equal intervals in the circumferential direction of the distal end portion 6, for example, at intervals of 90 degrees. Note that the number of side-view observation windows 11b to 11e arranged at equal intervals in the circumferential direction of the distal end portion 6 is not limited to four. For example, one or more pairs such as a pair of left and right (two) are provided. The structure which arrange
  • a direct-view illumination window 12a that emits illumination light in the range of the direct-view field of the direct-view observation window 11a is disposed on the distal end surface of the distal end portion 6 of the endoscope 2 at a position adjacent to the direct-view observation window 11a. Further, on the side surface of the distal end portion 6 of the endoscope 2, a side that emits illumination light in a range of the side view field of the side view observation windows 11b to 11e at a position adjacent to each of the side view observation windows 11b to 11e. Visual illumination windows 12b to 12e are arranged.
  • the distal end surface of the distal end portion 6 of the endoscope 2 communicates with a treatment instrument channel (not shown) formed by a tube or the like disposed in the insertion section 4 and a treatment instrument inserted into the treatment instrument channel.
  • a tip opening 13 capable of projecting (the tip of) and a nozzle 14 for direct observation window for injecting gas or liquid for cleaning the direct observation window 11a are provided.
  • a nozzle part for a side view observation window (not shown) for injecting a gas or a liquid for cleaning the side view observation windows 11b to 11e is provided on the side surface of the distal end portion 6 of the endoscope 2.
  • 11e is provided adjacent to each.
  • the operation unit 3 includes an air / liquid feeding operation button 24 a capable of giving an operation instruction to eject a gas or a liquid for cleaning the direct-viewing observation window 11 a from the direct-viewing observation window nozzle unit 14,
  • An air / liquid feeding operation button 24b capable of operating instructions for injecting a gas or a liquid for cleaning the side viewing windows 11b to 11e from a nozzle part for the side viewing window (not shown) is provided.
  • Air supply and liquid supply can be switched by pressing the liquid operation buttons 24a and 24b.
  • a plurality of air / liquid feeding operation buttons are provided so as to correspond to the respective nozzle portions. For example, by operating one air / liquid feeding operation button, the direct-view observation window nozzle portion 14, Gas or liquid may be ejected from both of the side-viewing window nozzle portions (not shown).
  • a plurality of scope switches 25 are provided at the top of the operation unit 3, and functions for each switch are assigned so as to output signals corresponding to various on / off states that can be used in the endoscope 2. It has a possible configuration. Specifically, the scope switch 25 has a function of outputting a signal corresponding to, for example, start and stop of forward water supply, execution and release of freeze, and notification of the use state of the treatment tool. Can be assigned as a function.
  • At least one of the functions of the air / liquid feeding operation buttons 24a and 24b may be assigned to one of the scope switches 25.
  • the operation unit 3 is provided with a suction operation button 26 that can instruct a suction unit or the like (not shown) for sucking and collecting mucus or the like in the body cavity from the distal end opening 13. Yes.
  • the mucus etc. in the body cavity sucked according to the operation of the suction unit are provided in the vicinity of the front end of the distal end opening 13, the treatment instrument channel (not shown) in the insertion section 4, and the operation section 3. After passing through the treatment instrument insertion port 27, it is collected in a suction bottle or the like of a suction unit (not shown).
  • the treatment instrument insertion port 27 communicates with a treatment instrument channel (not shown) in the insertion portion 4 and is formed as an opening into which a treatment instrument (not shown) can be inserted. That is, the surgeon can perform treatment using the treatment tool by inserting the treatment tool from the treatment tool insertion port 27 and projecting the distal end side of the treatment tool from the distal end opening 13.
  • a connector 29 that can be connected to the light source device 31 is provided at the other end of the universal cord 5.
  • the tip of the connector 29 is provided with a base (not shown) serving as a connection end of the fluid conduit and a light guide base (not shown) serving as a supply end of illumination light. Further, an electrical contact portion (not shown) capable of connecting one end of the connection cable 33 is provided on the side surface of the connector 29. Furthermore, a connector for electrically connecting the endoscope 2 and the video processor 32 is provided at the other end of the connection cable 33.
  • the universal cord 5 includes a plurality of signal lines for transmitting various electrical signals and a light guide for transmitting illumination light supplied from the light source device 31 in a bundled state.
  • the light guide incorporated from the insertion portion 4 to the universal cord 5 has an end on the light emission side branched in at least five directions in the vicinity of the insertion portion 4, and each light emission end surface has a direct-view illumination window 12a and a side-view illumination window 12b. To 12e.
  • the light guide has a configuration in which the light incident side end is disposed on the light guide cap of the connector 29.
  • the light emitting portions arranged in the direct-view illumination window 12a and the side-view illumination windows 12b to 12e may be light-emitting elements such as light-emitting diodes (LEDs) instead of light guides.
  • LEDs light-emitting diodes
  • the video processor 32 outputs a drive signal for driving a plurality of image sensors provided at the distal end portion 6 of the endoscope 2.
  • the video processor 32 functions as an image signal generation unit that generates a video signal (image signal) and outputs it to the monitor 35 by performing signal processing on the imaging signals output from the plurality of imaging elements.
  • the processor 32 arranges the direct-view visual field image acquired by the direct-view observation window 11a in the center, and the four side-view visual field images acquired by the side-view observation windows 11b to 11e on the upper, lower, left, and right sides of the direct-view visual field image.
  • predetermined image processing deformation processing
  • the processor 32 performs a treatment so that the direct-view visual field image acquired by the direct-view observation window 11a and the side-view visual field images acquired by the side-view observation windows 11b to 11e are arranged adjacent to each other, and generates a video signal.
  • Peripheral devices such as the light source device 31, the video processor 32, and the monitor 35 are arranged on a gantry 36 together with a keyboard 34 for inputting patient information.
  • the direct-view observation window 11a constituting the first subject image acquisition unit is a direct-view direction (first direction) including the front substantially parallel to the longitudinal direction of the insertion unit 4, that is, the first view of the subject.
  • a first subject image is acquired from the region.
  • An imaging element 15a is arranged at the imaging position of the direct-viewing observation window 11a and an objective optical system (not shown), and photoelectrically converts the subject image acquired by the direct-viewing observation window 11a.
  • the insertion portion 4 shown in FIG. 3 is a cross-sectional view taken along line III-III in FIG.
  • the side-view observation window (at least one of the side-view observation windows 11b to 11e) constituting the second subject image acquisition unit is at least one of the direct-view direction (first direction).
  • the second subject image is acquired from the side view direction (second direction) including the direction intersecting the longitudinal direction of the insertion portion 4 having a different portion, that is, the second region of the subject.
  • boundary region between the first subject image and the second subject image may or may not overlap.
  • An overlapping subject image may be acquired by the subject image acquisition unit and the second subject image acquisition unit.
  • the imaging element 15b is disposed at the imaging position of the side-view observation window 11b and an objective optical system (not shown), and the subject image acquired by the side-view observation window 11b is photoelectrically converted.
  • an image sensor 15d is disposed at the imaging position of the side-view observation window 11d and an objective optical system (not shown), and photoelectrically converts the subject image acquired by the side-view observation window 11d.
  • an imaging element (not shown) hereinafter referred to as an imaging element 15c
  • an objective optical system not shown
  • an image sensor 15e is arranged at the image position. The subject images acquired by the side-view observation windows 11c and 11e are photoelectrically converted by the image sensors 15c and 15e.
  • the image pickup devices 15a to 15e are electrically connected to the image processing unit 32a, respectively.
  • the image is output to the image processing unit 32a.
  • the image processing unit 32a arranges the direct-view visual field image acquired by the direct-view observation window 11a in the center, arranges the four side-view visual field images acquired by the side-view observation windows 11b to 11e on the top, bottom, left and right of the direct-view visual field image, Predetermined visual field images and four side-view visual field images are subjected to predetermined image processing and output to the image output unit 32b.
  • the image output unit 32 b generates a signal to be displayed on the monitor 35 from the image signal generated by the image processing unit 32 a and outputs the signal to the monitor 35.
  • 4A and 4B are diagrams illustrating an example of an observation image displayed on the monitor by the image processing by the image processing unit 32a.
  • the image processing unit 32a acquires the direct-view visual field image 16a acquired by the direct-view observation window 11a and the side-view visual field images 16b to 16e acquired by the side-view observation windows 11b to 11e. Then, as shown in FIG. 4A, the image processing unit 32a arranges the direct-view visual field image 16a as the center, and arranges the side-view visual field images 16b to 16e so as to be adjacent to the top, bottom, left, and right of the direct-view visual field image 16a.
  • the image processing unit 32a arranges the side view field image 16b on the left side of the direct view field image 16a, arranges the side view field image 16c on the lower side of the direct view field image 16a, and sets the right side of the direct view field image 16a.
  • the side-view visual field image 16d is arranged on the upper side of the direct-view visual field image 16a.
  • the image processing unit 32a performs predetermined image processing on the direct view visual field image 16a and the side view visual field images 16b to 16b. Specifically, the image processing unit 32a performs a circular electronic mask process on the direct-view visual field image 16a to generate a substantially circular direct-view visual field image 17a.
  • the image processing unit 32a expands the side-view visual field images 16b to 16e arranged vertically and horizontally as they move away from the center, that is, an area adjacent to the direct-view field image 16a in the positional relationship with the direct-view field image 16a. Then, deformation processing (distortion) is performed so that the width of the image area increases as the distance from the image increases, and side-view visual field images 17b to 17e having a substantially fan shape or the like are generated.
  • the substantially circular direct-view visual field image 17a and the divergent side-view visual field images 17b to 17e generated by the image processing unit 32a are displayed on the monitor 35 via the image output unit 32b.
  • the image processing unit 32a generates the first image signal from the first subject image, generates the second image signal from the second subject image, and applies the second image signal to the second image signal.
  • Image processing is performed in the width expansion mode, which is an image processing mode in which processing is performed so that the width of the second subject image increases as the distance from the center of the first subject image increases.
  • the side-view visual field images 17b to 16e are arranged on the top, bottom, left and right of the direct-view field image 17a.
  • the side view visual field image may be arranged on either the left or right side of the direct view visual field image 17a.
  • a plurality of images are displayed on the monitor 35, but the present invention is not limited to this.
  • a plurality of, for example, five monitors 35 are arranged adjacent to each other, the direct-view visual field image 17a is displayed on the central monitor 35, and the side-view visual field images 17b to 17b are respectively displayed on the upper, lower, left, and right monitors 35. 17e may be displayed.
  • FIGS. 5A and 5B are diagrams for explaining specific shapes of the side-view visual field images 17b to 17e.
  • the image processing unit 32a may generate side-view visual field images 17b to 17e that are concentric with the center of the direct-view visual field image 17a and have a divergent shape with an inner angle of approximately 90 degrees. Further, as shown in FIG. 5B, the image processing unit 32a has the distortion (field curvature) level L1 of the side view visual field images 17b to 17e substantially equal to the distortion level L2 of the peripheral part of the direct view visual field image 17a.
  • the side-view visual field images 17b to 17e having a wide end shape may be generated.
  • the direct-view visual field image 17a originally has a certain amount of distortion on the periphery due to the optical system. Therefore, the image processing unit 32a performs image processing so that the side-view visual field images 17b to 17e become images that are distorted according to the peripheral part of the direct-view visual field image 17a (so that a radial perspective is obtained). At that time, the image processing unit 32a sets the field of view of the side-view visual field images 17b to 17e to be slightly wider so as to overlap the direct-view field-of-view image 17a cut out with the electronic mask, and looks directly when the images are superimposed. You may make it supplement the shortage (part which carried out the electronic mask process) of the visual field image 17a.
  • the endoscope system 1 acquires the direct-view visual field image 16a through the direct-view observation window 11a, acquires the side-view visual field images 16b through 16e through the side-view observation windows 11b through 11e, and focuses on the direct-view visual field image 16a.
  • the side-view visual field images 16b to 16e are arranged on the top, bottom, left and right of the direct-view visual field image 16a.
  • the endoscope system 1 then obtains a substantially circular direct-view visual field image 17a obtained by performing circular electronic mask processing on the direct-view visual field image 16a and side-view visual field images 16b to 16e from areas adjacent to the direct-view visual field image 16a.
  • Side-view visual field images 17b to 17e having a divergent shape subjected to a deformation process so that the width expands with increasing distance are generated.
  • the visibility when the endoscope is inserted into the lumen can be improved, and the operability of the endoscope can be improved.
  • FIG. 6 is a perspective view showing the configuration of the distal end portion of the insertion portion of the endoscope according to the second embodiment
  • FIG. 7 is a diagram showing the configuration of the main part in the second embodiment. 6 and 7, the same components as those in FIGS. 2 and 3 are denoted by the same reference numerals, and the description thereof is omitted.
  • the side-view observation windows 11c and 11e and the side-view illumination windows 12c and 12e are removed from the side surface of the distal end portion 6a of the endoscope 2 of this embodiment from the side surface of the distal end portion 6 of FIG. Has been configured. That is, the endoscope 2 of the present embodiment acquires the direct-view visual field image 16a through the direct-view observation window 11a, and acquires the two side-view visual field images 16b and 16d through the side-view observation windows 11b and 11d.
  • the video processor 32 of the present embodiment is configured using an image processing unit 32a1 instead of the image processing unit 32a of FIG.
  • the image processing unit 32a1 is arranged around the direct-view visual field image 16a acquired by the direct-view observation window 11a, and the side-view visual field images 16b and 16d acquired by the side-view observation windows 11b and 11d are arranged to the left and right of the direct-view visual field image 16a.
  • the side-view visual field images 16b and 16d are subjected to predetermined image processing (deformation processing).
  • the image processing unit 32a1 includes an attention area detection unit 32c.
  • the attention area detection unit 32c detects a predetermined attention area, for example, a lesion in the side-view visual field image subjected to the deformation process by detecting, for example, a color change.
  • the image processing unit 32a1 cancels the deformation process of the deformed side view visual field image showing the lesion and displays the enlarged image. If a portion having a color tone different from that of other portions occurs in the side-view visual field image (when a lesion is detected), the portion may be cut out and enlarged and displayed.
  • 8A to 8C are diagrams showing examples of observation images displayed on the monitor by the image processing by the image processing unit 32a1.
  • the image processing unit 32a1 acquires the direct-view visual field image 16a acquired by the direct-view observation window 11a and the side-view visual field images 16b and 16d acquired by the side-view observation windows 11b and 11d. Then, the image processing unit 32a1 arranges the direct-view visual field image 16a as the center, and arranges the side-view visual field images 16b and 16d on the left and right sides adjacent to the left and right of the direct-view visual field image 16a.
  • the image processing unit 32a1 generates the side view visual field images 18b and 18d obtained by deforming the side view visual field images 16b and 16d so as to expand as the distance from the region adjacent to the direct view visual field image 16a increases.
  • the lengths of the sides of the side-view visual field images 18b and 18d that are close to the direct-view field-of-view image 16a are substantially the same as the lengths of the sides of the direct-view field-of-view image 16a and are far from the direct-view field-of-view image 16a.
  • side-view visual field images 18b and 18d having a trapezoidal shape longer than the length of the side close to the direct-view visual field image 16a are generated.
  • the direct view visual field image 16a and the side view visual field images 18b and 18d subjected to the deformation process are displayed on the monitor 35 via the image output unit 32b.
  • the image processing unit 32a1 when the attention area detection unit 32c detects the lesion 19 in the side view visual field image 18d, the image processing unit 32a1 outputs the side view field image 18d1 obtained by canceling the deformation processing of the side view field image 18d in which the lesion is shown. It is displayed on the monitor 35. Further, the image processing unit 32a1 generates a side view field image 18d2 in which the side view field image 18d1 whose deformation processing has been canceled is enlarged and displays the side view field image 18d2 on the monitor 35.
  • the endoscope system 1 generates the side-view visual field images 18b and 18d that are deformed so as to expand as the distance from the center increases, so that the endoscope can be treated as a lumen as in the first embodiment. Visibility when inserted into the endoscope can be improved, and the operability of the endoscope can be improved. Further, when the lesion 19 is detected in the side view visual field image 18b or 18d, the endoscope system 1 cancels the deformation process of the side view visual field image 18b or 18d from which the lesion 19 is detected, thereby obtaining an image without distortion. The lesion 19 can be observed.
  • the direct-view visual field image 16a and the side-view visual field images 16b and 16d (18b and 18d) may be displayed on a plurality of monitors 35, respectively.
  • the overlapping portion when an overlapping portion is generated in two adjacent image signals, the overlapping portion may be deleted from the image signal and displayed.
  • FIG. 9 is a perspective view illustrating the configuration of the distal end portion of the insertion portion of the endoscope according to the modification
  • FIG. 10 is a front view illustrating the configuration of the distal end portion of the insertion portion of the endoscope according to the modification
  • FIG. 11 is a diagram illustrating a configuration of a main part in a modified example.
  • a columnar cylindrical portion 40 is formed at the distal end portion 6 b of the insertion portion 4 so as to protrude from a position eccentric to the upper side from the center of the distal end surface of the distal end portion 6 b. .
  • An objective optical system (not shown) that serves both as a direct view and a side view is provided at the tip of the cylindrical portion 40.
  • the tip of the cylindrical portion 40 includes a direct-view observation window 42 that constitutes a first subject image acquisition unit disposed at a position corresponding to the direct-view direction of the objective optical system (not shown), and the objective optical system (not shown).
  • a side-view observation window 43 that constitutes a second subject image acquisition unit arranged at a position corresponding to the side-view direction.
  • a side-view illumination unit 44 that emits light for illuminating the side-view direction is formed near the proximal end of the cylindrical unit 40.
  • the direct-view observation window 42 uses the return light (reflected light) from the observation object incident from the first region including the front of the insertion portion 4 substantially parallel to the longitudinal direction of the insertion portion 4 as a direct-view subject image.
  • a direct-view visual field image is acquired by capturing the image within.
  • the side-view observation window 43 can acquire a side-view visual field image by capturing the return light (reflected light) from the observation target incident from the circumferential direction in the cylindrical cylindrical portion 40 in the side-view visual field.
  • the side view mirror lens 45 is provided.
  • Such an image is realized by using a two-reflection optical system that reflects the return light twice by the side-view mirror lens 45, but is formed by reflecting the return light once by the reflection optical system. Then, this may be subjected to image processing by the video processor 32, and the orientations of the side-view visual field image and the direct-view visual field image may be matched.
  • an image of the observation object in the field of view of the direct-viewing observation window 42 is formed in the center as a circular direct-viewing field image at the imaging position of the objective optical system (not shown), and the field of view of the side-viewing observation window 43. It is assumed that the imaging element 60 (imaging surface thereof) shown in FIG. 11 is arranged so that the image of the object to be observed is formed as an annular side view field image on the outer periphery of the direct view field image. .
  • the front end surface of the front end portion 6 b is disposed at a position adjacent to the cylindrical portion 40, and is disposed in the insertion portion 4 and the direct view illumination window 46 that emits illumination light in the range of the direct view field of the direct view observation window 42.
  • a distal end opening 47 is provided which communicates with a treatment instrument channel (not shown) formed of a tube or the like and can project the treatment instrument (the distal end portion) inserted through the treatment instrument channel.
  • the distal end portion 6b of the insertion portion 4 has a support portion 48 provided so as to protrude from the distal end surface of the distal end portion 6b, and the support portion 48 is located adjacent to the lower side of the cylindrical portion 40.
  • the support portion 48 is configured to be able to support (or hold) each projecting member disposed so as to project from the distal end surface of the distal end portion 6b.
  • the support portion 48 includes a direct-viewing observation window nozzle portion 49 that emits a gas or a liquid for cleaning the direct-viewing observation window 42 as each projecting member described above, and light for illuminating the direct-viewing direction.
  • the direct-view illumination window 51 that emits light and the side-view observation window nozzle portion 52 that emits gas or liquid for cleaning the side-view observation window 43 can be supported (or held), respectively.
  • the support unit 48 acquires a side view visual field image including any one of the projecting members by causing each of the projecting members, which are objects different from the original observation target, to appear in the side view field of view. It is formed with a shielding portion 48a which is an optical shielding member so as not to be disturbed. That is, by providing the shielding portion 48a on the support portion 48, a side-view visual field image in which none of the direct-view observation window nozzle portion 49, the direct-view illumination window 51, and the side-view observation window nozzle portion 52 is included. Obtainable.
  • the side-view observation window nozzle portion 52 is provided at two locations of the support portion 48 and is arranged so that the tip protrudes from the side surface of the support portion 48.
  • the video processor 32 outputs a drive signal for driving the image sensor 60 provided at the distal end portion 6b of the endoscope 2.
  • the video processor 32 generates a video signal by performing signal processing on the imaging signal output from the imaging device 60 and outputs the video signal to the monitor 35.
  • an observation image including a direct-view visual field image having a circular shape and a side-view visual field image having an annular shape at the outer periphery of the image in the direct-view direction arranged adjacent to the direct-view visual field image is displayed on the monitor 35. Is done.
  • a portion that is optically shielded by the shielding portion 48a of the support portion 48 is not considered.
  • the direct-view visual field image and side-view visual field image display method of the modified example it is set to have an optical structure in which the screen spreads radially from the center to the periphery (with an annular lens). If there is such an optical characteristic automatically, it is relatively easy to obtain perspective and stereoscopic effect.
  • FIG. 12 is a diagram illustrating an example of an observation image displayed on the monitor by the image processing by the image processing unit 32a1.
  • the image processing unit 32 a 1 acquires a direct-view visual field image 61 having a circular shape and a side-view visual field image 62 having an annular shape on the outer periphery of the direct-view visual field image 61.
  • the image processing unit 32a1 divides the side-view visual field image 62 into four regions 62a, 62b, 62c, and 62d in the vertical and horizontal directions.
  • the area to be divided is not limited to four, but may be three or less, or five or more.
  • the image processing unit 32a1 includes only the region 62b of the side-view visual field image 62 including the lesion 19 as the distance from the region adjacent to the direct-view visual field image increases.
  • a distortion removal process is performed to eliminate the state where the width of the region is widened, and an enlarged image 62b1 is generated and displayed on the monitor 35 as a switching mode.
  • the lesion 19 is observed with an image without distortion by canceling the deformation processing of the region where the lesion 19 is detected. Can do.
  • FIG. 13 is a diagram illustrating a configuration of a main part in the third embodiment.
  • the same components as those in FIG. 7 are denoted by the same reference numerals and description thereof is omitted.
  • tip part of the insertion part 4 is the same as that of the front-end
  • the video processor 32 of this embodiment is configured using an image processing unit 32a2 instead of the image processing unit 32a1 of FIG.
  • the image processing unit 32a2 is arranged around the direct-view visual field image 16a acquired by the direct-view observation window 11a, and the side-view visual field images 16b and 16d acquired by the side-view observation windows 11b and 11d are arranged to the left and right of the direct-view visual field image 16a.
  • the side-view visual field images 16b and 16d are subjected to predetermined image processing (deformation processing).
  • the image processing unit 32a1 includes a distortion correction processing unit 32d that corrects distortion that is distortion in the horizontal and vertical directions.
  • the distortion correction processing unit 32d performs distortion removal processing so that the distortion becomes zero with respect to the direct-view visual field image 16a and the two side-view visual field images subjected to the deformation processing.
  • the direct-view visual field image and the two side-view visual field images that have been subjected to the distortion removal processing are displayed on the monitor 35 via the image output unit 32b.
  • FIG. 14 is a diagram showing an example of an observation image displayed on the monitor by the image processing by the image processing unit 32a2.
  • distortion is present in the obtained direct-view visual field image 16a and side-view visual field images 16b and 16d, and the distortion directions are different in the vicinity of the boundary between the direct-view visual field image 16a and the side-view visual field images 16b and 16d. .
  • a subject for example, a lesion 19
  • the appearance and behavior are different, and it may be difficult to recognize that the subject is the same.
  • the distortion correction processing unit 32d generates a direct-view visual field image 20a obtained by performing a distortion removal process so that the distortion is zero with respect to the direct-view visual field image 16a. Further, the distortion correction processing unit 32d causes the distortion to be zero with respect to the side-view visual field image that has been subjected to the deformation process so that the image processing unit 32a2 expands the side-view visual field images 16b and 16d as the distance from the center increases. The side view visual field images 20b and 20d subjected to the distortion removal process are generated.
  • the direct view visual field image 20a and the side view visual field images 20b and 20d thus subjected to the distortion removal processing are displayed on the monitor 35 via the image output unit 32b.
  • the subject (lesion 19) of the side-view visual field image 20d moves to the direct-view visual field image 20a
  • the appearance and behavior are substantially the same.
  • the subject (lesion 19) is changed from the side view image 20b or 20d to the direct view image 20a (or the direct view image 20a). Has the effect of improving the visibility when moving from the side view visual field image 20b or 20d).
  • the mechanism that realizes the function of illuminating and observing the side is the mechanism that realizes the function of illuminating and observing the front.
  • the mechanism for illuminating and observing the side may be a separate body that can be attached to and detached from the insertion portion 4.
  • FIG. 15 is a perspective view of the distal end portion 6 of the insertion portion 4 to which a side observation unit is attached.
  • the distal end portion 6 of the insertion portion 4 has a front vision unit 100.
  • the side viewing unit 110 has a structure that can be attached to and detached from the front viewing unit 100 by a clip portion 111.
  • the side view unit 110 has two observation windows 112 for acquiring an image in the left-right direction and two illumination windows 113 for illuminating the left-right direction.
  • the video processor 32 or the like obtains an observation image as described in the above-described embodiment by turning on and off each illumination window 113 of the side visual field unit 110 according to the frame rate of the front visual field. Display can be made.

Abstract

 内視鏡システム1は、被写体の内部に挿入される挿入部4と、挿入部4に設けられ、被写体の第1の領域から第1の被写体像を取得する直視観察窓11aと、挿入部4に設けられ、第1の領域とは少なくとも一部が異なる被写体の第2の領域から第2の被写体像を取得する側視観察窓11bと、第1の被写体像から第1の画像信号を生成するとともに第2の被写体像から第2の画像信号を生成する際に、第1の画像信号との配置関係において当該第1の画像信号と隣接する領域から離れるに従って画像領域の幅が広がるように画像処理して画像信号を生成するビデオプロセッサ32と、を有する。

Description

内視鏡システム
 本発明は、内視鏡システムに関し、特に、直視方向及び側視方向を同時に観察することが可能な内視鏡システムに関するものである。
 被検体の内部の被写体を撮像する内視鏡、及び、内視鏡により撮像された被写体の観察画像を生成する画像処理装置等を具備する内視鏡システムが、医療分野及び工業分野等において広く用いられている。
 例えば、特許第3337682号公報には、挿入部の先端部の先端面に直視視野画像を取得する直視観察用レンズが設けられ、先端部の周方向に側視視野画像を取得する複数の側視観察用レンズが設けられた内視鏡を備える内視鏡システムが開示されている。
 この内視鏡は、直視観察用レンズ及び複数の側視観察用レンズの結像位置にそれぞれ撮像素子が設けられており、これらの撮像素子により直視視野画像及び複数の側視視野画像を撮像する。そして、直視視野画像が中央に配置され、複数の側視視野画像が直視視野画像の両隣に配置され、モニタ上に表示される。
 しかしながら、このような複数の撮像部から得られる被写体像(内視鏡画像)を単純に並べてモニタに表示する従来の表示方式では、遠近感や立体感を得ることが困難なため、管腔内のどの領域を見ているのかの確認や動きの予測が困難になる可能性がある。また、遠近感がない内視鏡画像では視野として違和感が生じる可能性もある。そのため、内視鏡の挿入及び抜去の再、コントロールに手間が掛かるという問題がある。
 そこで、本発明は、内視鏡を管腔に挿入した際の視認性を向上させ、内視鏡の操作性を向上させることができる内視鏡システムを提供することを目的とする。
 本発明の一態様の内視鏡システムは、被写体の内部に挿入される挿入部と、前記挿入部に設けられ、前記被写体の第1の領域から第1の被写体像を取得する第1の被写体像取得部と、前記挿入部に設けられ、前記第1の領域とは少なくとも一部が異なる前記被写体の第2の領域から第2の被写体像を取得する第2の被写体像取得部と、前記第1の被写体像から第1の画像信号を生成するとともに前記第2の被写体像から第2の画像信号を生成する際に、前記第1の画像信号との配置関係において当該第1の画像信号と隣接する領域から離れるに従って画像領域の幅が広がるように画像処理して画像信号を生成する画像信号生成部と、を備える。
第1の実施形態に係る内視鏡システムの構成を示す図である。 内視鏡の挿入部の先端部の構成を示す斜視図である。 第1の実施形態における要部の構成を示す図である。 画像処理部32aによる画像処理により、モニタに表示される観察画像の一例を示す図である。 画像処理部32aによる画像処理により、モニタに表示される観察画像の一例を示す図である。 側視視野画像17b~17eの具体的な形状を説明するための図である。 側視視野画像17b~17eの具体的な形状を説明するための図である。 第2の実施形態に係る内視鏡の挿入部の先端部の構成を示す斜視図である。 第2の実施形態における要部の構成を示す図である。 画像処理部32a1による画像処理により、モニタに表示される観察画像の一例を示す図である。 画像処理部32a1による画像処理により、モニタに表示される観察画像の一例を示す図である。 画像処理部32a1による画像処理により、モニタに表示される観察画像の一例を示す図である。 変形例に係る内視鏡の挿入部の先端部の構成を示す斜視図である。 変形例に係る内視鏡の挿入部の先端部の構成を示す正面図である。 変形例における要部の構成を示す図である。 画像処理部32a1による画像処理により、モニタに表示される観察画像の一例を示す図である。 第3の実施形態における要部の構成を示す図である。 画像処理部32a2による画像処理により、モニタに表示される観察画像の一例を示す図である。 側方観察用のユニットが取り付けられた挿入部4の先端部6の斜視図である。
 以下、図面を参照して本発明の実施形態を説明する。
(第1の実施形態)
 まず、図1から図3を用いて第1の実施形態の内視鏡システムの構成について説明する。図1は、第1の実施形態に係る内視鏡システムの構成を示す図であり、図2は、内視鏡の挿入部の先端部の構成を示す斜視図であり、図3は、第1の実施形態における要部の構成を示す図である。
 図1に示すように、内視鏡システム1は、観察対象物を撮像して撮像信号を出力する内視鏡2と、観察対象物を照明するための照明光を供給する光源装置31と、撮像信号に応じた映像信号(画像信号)を生成及び出力する画像信号生成部としての機能を有するビデオプロセッサ32と、映像信号(画像信号)に応じた観察画像を表示するモニタ35と、を有している。
 内視鏡2は、術者が把持して操作を行う操作部3と、操作部3の先端側に形成され、体腔内等に挿入される細長の挿入部4と、操作部3の側部から延出するように一方の端部が設けられたユニバーサルコード5と、を有して構成されている。
 本実施形態の内視鏡2は、複数の視野画像を表示させることで180度以上の視野を観察可能な広角内視鏡であり、体腔内、特に大腸内において、襞の裏や臓器の境界等、直視方向の観察だけでは見難い場所の病変を見落とすことを防ぐことを実現する。大腸内に内視鏡2の挿入部4を挿入するにあたっては、通常の大腸内視鏡と同様、挿入部2に捻り、往復運動、腸壁のフックを行うことによる仮固定等の動作が発生する。
 挿入部4は、最も先端側に設けられた硬質の先端部6と、先端部6の後端に設けられた湾曲自在の湾曲部7と、湾曲部7の後端に設けられた長尺かつ可撓性を有する可撓管部8と、を有して構成されている。また、湾曲部7は、操作部3に設けられた湾曲操作レバー9の操作に応じた湾曲動作を行う。
 一方、図2に示すように、内視鏡2の先端部6の先端面には、挿入部4の長手方向に略平行な前方を含む直視方向(第1の方向)、つまり被写体の第1の領域を観察するための直視観察窓11aが配置され、内視鏡2の先端部6の側面には、直視方向(第1の方向)とは少なくとも一部が異なる挿入部4の長手方向とは交差する方向を含む側視方向(第2の方向)、つまり被写体の第2の領域を観察するための複数の側視観察窓11b、11c、11d及び11eが配置されている。これらの側視観察窓11b~11eは、先端部6の周方向に均等な間隔、例えば、90度の間隔で配置されている。なお、先端部6の周方向に均等な間隔で配置される側視観察窓11b~11eは、4つに限定されるものではなく、例えば左右一対(2つ)といったように、1つ以上の側視観察窓を配置する構成であってもよい。
 内視鏡2の先端部6の先端面には、直視観察窓11aに隣接する位置に、直視観察窓11aの直視視野の範囲に照明光を出射する直視照明窓12aが配置されている。また、内視鏡2の先端部6の側面には、側視観察窓11b~11eのそれぞれに隣接する位置に、側視観察窓11b~11eの側視視野の範囲に照明光を出射する側視照明窓12b~12eが配置されている。
 また、内視鏡2の先端部6の先端面には、挿入部4内に配設されたチューブ等により形成された図示しない処置具チャンネルに連通するとともに、処置具チャンネルに挿通された処置具(の先端部)を突出させることが可能な先端開口部13と、直視観察窓11aを洗浄するための気体または液体を射出する直視観察窓用ノズル部14と、が設けられている。さらに、内視鏡2の先端部6の側面には、側視観察窓11b~11eを洗浄するための気体または液体を射出する図示しない側視観察窓用ノズル部が、側視観察窓11b~11eのそれぞれに隣接して設けられている。
 操作部3には、図2に示すように、直視観察窓11aを洗浄するための気体または液体を直視観察窓用ノズル部14から射出させる操作指示が可能な送気送液操作ボタン24aと、側視観察窓11b~11eを洗浄するための気体または液体を図示しない側視観察窓用ノズル部から射出させる操作指示が可能な送気送液操作ボタン24bと、が設けられ、この送気送液操作ボタン24a及び24bの押下により送気と送液とが切り替え可能である。また、本実施形態では、それぞれのノズル部に対応するように複数の送気送液操作ボタンを設けているが、例えば1つの送気送液操作ボタンの操作により直視観察窓用ノズル部14、図示しない側視観察窓用ノズル部の両方から気体または液体が射出されるようにしてもよい。
 スコープスイッチ25は、操作部3の頂部に複数設けられており、内視鏡2において使用可能な種々の記載のオンまたはオフ等に対応した信号を出力させるように、各スイッチ毎の機能を割り付けることが可能な構成を有している。具体的には、スコープスイッチ25には、例えば、前方送水の開始及び停止、フリーズの実行及び解除、及び、処置具の使用状態の告知等に対応した信号を出力させる機能を、各スイッチ毎の機能として割り付けることができる。
 なお、本実施形態においては、送気送液操作ボタン24a及び24bのうちの少なくともいずれか一方の機能を、スコープスイッチ25のうちのいずれかに割り付けるようにしてもよい。
 また、操作部3には、体腔内の粘液等を先端開口部13より吸引して回収するための指示を図示しない吸引ユニット等に対して行うことが可能な吸引操作ボタン26が配設されている。
 そして、図示しない吸引ユニット等の動作に応じて吸引された体腔内の粘液等は、先端開口部13と、挿入部4内の図示しない処置具チャンネルと、操作部3の前端付近に設けられた処置具挿入口27とを経た後、図示しない吸引ユニットの吸引ボトル等に回収される。
 処置具挿入口27は、挿入部4内の図示しない処置具チャンネルに連通しているとともに、図示しない処置具を挿入可能な開口として形成されている。すなわち、術者は、処置具挿入口27から処置具を挿入し、処置具の先端側を先端開口部13から突出させることにより、処置具を用いた処置を行うことができる。
 一方、図1に示すように、ユニバーサルコード5の他方の端部には、光源装置31に接続可能なコネクタ29が設けられている。
 コネクタ29の先端部には、流体管路の接続端部となる口金(図示せず)と、照明光の供給端部となるライトガイド口金(図示せず)とが設けられている。また、コネクタ29の側面には、接続ケーブル33の一方の端部を接続可能な電気接点部(図示せず)が設けられている。さらに、接続ケーブル33の他方の端部には、内視鏡2とビデオプロセッサ32と電気的に接続するためのコネクタが設けられている。
 ユニバーサルコード5には、種々の電気信号を伝送するための複数の信号線、及び、光源装置31から供給される照明光を伝送するためのライトガイドが束ねられた状態として内蔵されている。
 挿入部4からユニバーサルコード5にかけて内蔵された前記ライトガイドは、光出射側の端部が挿入部4付近において少なくとも5方向に分岐され、各光出射端面が直視照明窓12a、側視照明窓12b~12eに配置されるような構成を有している。また、前記ライトガイドは、光入射側の端部がコネクタ29のライトガイド口金に配置されるような構成を有している。
 なお、直視照明窓12a、側視照明窓12b~12eに配置される光出射部は、ライトガイドに代えて発光ダイオード(LED)のような発光素子であってもよい。
 ビデオプロセッサ32は、内視鏡2の先端部6に設けられた複数の撮像素子を駆動するための駆動信号を出力する。そして、ビデオプロセッサ32は、複数の撮像素子から出力される撮像信号に対して信号処理を施すことにより、映像信号(画像信号)を生成してモニタ35へ出力する画像信号生成部として機能する。
 詳細は後述するが、プロセッサ32は、直視観察窓11aで取得した直視視野画像を中央に配置し、側視観察窓11b~11eで取得した4つの側視視野画像を直視視野画像の上下左右に配置するとともに、直視視野画像及び4つの側視視野画像に所定の画像処理(変形処理)を施し、モニタ35へ出力する。つまり、プロセッサ32は、直視観察窓11aで取得した直視視野画像と側視観察窓11b~11eで取得した側視視野画像とが隣り合う状態で配置するように処置を行い、映像信号を生成する。
 光源装置31、ビデオプロセッサ32及びモニタ35等の周辺装置は、患者情報の入力等を行うキーボード34とともに、架台36に配置されている。
 図3に示すように、第1の被写体像取得部を構成する直視観察窓11aは、挿入部4の長手方向に略平行な前方を含む直視方向(第1の方向)、つまり被写体の第1の領域から第1の被写体像を取得する。直視観察窓11a及び図示しない対物光学系の結像位置には、撮像素子15aが配置されており、直視観察窓11aで取得された被写体像を光電変換する。なお、図3に示す挿入部4は、図2のIII-III線の断面図である。
 また、第2の被写体像取得部を構成する側視観察窓(側視観察窓11b~11eのうち少なくとも1つ以上の側視観察窓)は、直視方向(第1の方向)とは少なくとも一部が異なる挿入部4の長手方向とは交差する方向を含む側視方向(第2の方向)、つまり被写体の第2の領域から第2の被写体像を取得する。
 なお、第1の被写体像と第2の被写体像との境界領域は、重複していても、あるいは、重複していなくてもよく、上記境界領域が重複している状態の場合、第1の被写体像取得部と第2の被写体像取得部とで重複した被写体像を取得してもよい。
 側視観察窓11b及び図示しない対物光学系の結像位置には、撮像素子15bが配置されており、側視観察窓11bで取得された被写体像を光電変換する。
 同様に、側視観察窓11d及び図示しない対物光学系の結像位置には、撮像素子15dが配置されており、側視観察窓11dで取得された被写体像を光電変換する。なお、側視観察窓11c及び図示しない対物光学系の結像位置には、図示しない撮像素子(以下、撮像素子15cとする)が配置され、側視観察窓11e及び図示しない対物光学系の結像位置には、図示しない撮像素子(以下、撮像素子15eとする)が配置されているものとする。そして、撮像素子15c及び15eにより、側視観察窓11c及び11eで取得された被写体像が光電変換される。
 撮像素子15a~15eは、それぞれ画像処理部32aに電気的に接続されており、撮像素子15aで撮像された直視視野画像と、撮像素子15b~15eのそれぞれで撮像された側視視野画像とを画像処理部32aに出力する。
 画像処理部32aは、直視観察窓11aで取得した直視視野画像を中央に配置し、側視観察窓11b~11eで取得した4つの側視視野画像を直視視野画像の上下左右に配置するとともに、直視視野画像及び4つの側視視野画像に所定の画像処理を施し、画像出力部32bに出力する。
 画像出力部32bは、画像処理部32aにより生成された画像信号からモニタ35に表示するための信号を生成し、モニタ35に出力する。
 次に、画像処理部32aによる画像処理について、図4A及び図4Bを用いて説明する。
 図4A及び図4Bは、画像処理部32aによる画像処理により、モニタに表示される観察画像の一例を示す図である。
 画像処理部32aは、直視観察窓11aで取得された直視視野画像16aと、側視観察窓11b~11eで取得された側視視野画像16b~16eとを取得する。そして、画像処理部32aは、図4Aに示すように、直視視野画像16aを中心に配置し、側視視野画像16b~16eを直視視野画像16aの上下左右に隣り合うように配置する。具体的には、画像処理部32aは、直視視野画像16aの左側に側視視野画像16bを配置し、直視視野画像16aの下側に側視視野画像16cを配置し、直視視野画像16aの右側に側視視野画像16dを配置し、直視視野画像16aの上側に側視視野画像16eを配置する。
 そして、画像処理部32aは、これらの直視視野画像16a及び側視視野画像16b~16bに所定の画像処理を施す。具体的には、画像処理部32aは、直視視野画像16aに円形の電子マスク処理を施し、略円形の直視視野画像17aを生成する。
 また、画像処理部32aは、上下左右に配置した側視視野画像16b~16eを、それぞれ中心から離れるに従って拡張するように、つまり直視視野画像16aとの配置関係において直視視野画像16aと隣接する領域から離れるに従って画像領域の幅が広がるように変形処理(歪ませる)を施し、略扇形状等の末広がり形状の側視視野画像17b~17eを生成する。画像処理部32aにより生成した略円形の直視視野画像17a、及び、末広がり形状の側視視野画像17b~17eは、画像出力部32bを介してモニタ35に表示される。
 このように、画像処理部32aは、第1の被写体像から第1の画像信号を生成し、第2の被写体像から第2の画像信号を生成するとともに、第2の画像信号に対して、第1の被写体像の中心から離れるに従って第2の被写体像の幅が広がる画像になるように処理する画像処理モードである、幅拡張モードでの画像処理を行う。
 なお、複数の画像をモニタ35に表示する場合、直視視野画像17aの上下左右に側視視野画像17b~16eが配置される構成であるが、これに限らず直視視野画像と側視視野画像とが隣り合っていればよく、直視視野画像17aの左右いずれか片隣に側視視野画像を配置する構成であってもよい。
 また、本実施形態では、モニタ35に複数の画像を表示しているが、これに限定されるものではない。図4Bに示すように、複数の、例えば、5台のモニタ35を隣接して配置し、中央のモニタ35に直視視野画像17aを表示し、上下左右のモニタ35にそれぞれ側視視野画像17b~17eを表示する構成であってもよい。
 なお、画像処理部32aにより生成される側視視野画像17b~17eの具体的な形状は、図5A及び図5Bに示すようにしてもよい。図5A及び図5Bは、側視視野画像17b~17eの具体的な形状を説明するための図である。
 画像処理部32aは、図5Aに示すように、直視視野画像17aの中心と同心の、内角略90度の末広がり形状の側視視野画像17b~17eを生成してもよい。また、画像処理部32aは、図5Bに示すように、側視視野画像17b~17eのディストーション(像面湾曲)レベルL1が、直視視野画像17aの周辺部のディストーションレベルL2と略同一となるような末広がり形状の側視視野画像17b~17eを生成してもよい。
 直視視野画像17aは、光学系の関係である程度の歪みが元々周辺部に付くようになっている。そのため、画像処理部32aは、側視視野画像17b~17eが直視視野画像17aの周辺部に合わせて歪む画像になるように(放射状の遠近感が得られるように)画像処理を行う。その際、画像処理部32aは、電子マスクで切り出した直視視野画像17aとオーバーラップするように、側視視野画像17b~17eの視野をやや広めに設定しておき、画像を重ねたときに直視視野画像17aの不足分(電子マスク処理された部分)を補うようにしてもよい。
 このように、内視鏡システム1は、直視観察窓11aにより直視視野画像16aを取得し、側視観察窓11b~11eにより側視視野画像16b~16eを取得し、直視視野画像16aを中心に配置し、側視視野画像16b~16eを直視視野画像16aの上下左右に配置する。そして、内視鏡システム1は、直視視野画像16aに円形の電子マスク処理を施した略円形の直視視野画像17aと、側視視野画像16b~16eを、それぞれ直視視野画像16aと隣接する領域から離れるに従って幅が拡張するように変形処理を施した末広がり形状の側視視野画像17b~17eを生成するようにした。
 この結果、モニタ35に表示される直視視野画像17a及び側視視野画像17b~17eに遠近感を生み出すことができるため、大腸等の筒状の管腔内での視認性が向上し、操作性が向上する。
 よって、本実施形態の内視鏡システムによれば、内視鏡を管腔に挿入した際の視認性を向上させ、内視鏡の操作性を向上させることができる。
(第2の実施形態)
 次に、第2の実施形態について説明する。
 図6は、第2の実施形態に係る内視鏡の挿入部の先端部の構成を示す斜視図であり、図7は、第2の実施形態における要部の構成を示す図である。なお、図6及び図7において、それぞれ図2及び図3と同様の構成については、同一の符号を付して説明を省略する。
 図6に示すように、本実施形態の内視鏡2の先端部6aの側面は、図2の先端部6の側面から側視観察窓11c及び11eと、側視照明窓12c及び12eが削除されて構成されている。すなわち、本実施形態の内視鏡2は、直視観察窓11aで直視視野画像16aを取得し、側視観察窓11b及び11dで2つの側視視野画像16b及び16dを取得する。
 また、図7に示すように、本実施形態のビデオプロセッサ32は、図3の画像処理部32aに代わり、画像処理部32a1を用いて構成されている。画像処理部32a1は、直視観察窓11aにより取得された直視視野画像16aを中心に配置し、側視観察窓11b及び11dにより取得された側視視野画像16b及び16dを直視視野画像16aの左右に隣り合わせて配置するとともに、側視視野画像16b及び16dに所定の画像処理(変形処理)を施す。
 また、画像処理部32a1は、注目領域検出部32cを備える。注目領域検出部32cは、例えば色調変化を検出することで、変形処理した側視視野画像中の所定の注目領域、例えば病変を検出する。画像処理部32a1は、注目領域検出部32cにより病変が検出されると、病変が映っている変形処理した側視視野画像の変形処理を解除して拡大表示する。なお、側視視野画像内に色調が他の部分と異なる部分が発生したら(病変を検出したら)、その部分を切り出して拡大表示するようにしてもよい。
 次に、画像処理部32a1による画像処理について、図8A~図8Cを用いて説明する。
 図8A~図8Cは、画像処理部32a1による画像処理により、モニタに表示される観察画像の一例を示す図である。
 画像処理部32a1は、直視観察窓11aで取得された直視視野画像16aと、側視観察窓11b及び11dで取得された側視視野画像16b及び16dとを取得する。そして、画像処理部32a1は、直視視野画像16aを中心に配置し、左右に側視視野画像16b及び16dを直視視野画像16aの左右に隣り合わせて配置する。
 そして、画像処理部32a1は、側視視野画像16b及び16dを、直視視野画像16aと隣接する領域から離れるに従って拡張するように変形処理した側視視野画像18b及び18dを生成する。具体的には、側視視野画像18b及び18dの直視視野画像16aに近い辺の長さが、直視視野画像16aの辺の長さと略同一で、かつ、直視視野画像16aから遠い辺の長さが、直視視野画像16aに近い辺の長さより長い台形形状の側視視野画像18b及び18dが生成される。これらの直視視野画像16a、変形処理された側視視野画像18b及び18dは、画像出力部32bを介してモニタ35に表示される。
 また、注目領域検出部32cが、例えば側視視野画像18dに病変19を検出すると、画像処理部32a1は、病変が映っている側視視野画像18dの変形処理を解除した側視視野画像18d1をモニタ35に表示させる。さらに、画像処理部32a1は、変形処理を解除した側視視野画像18d1を拡大表示した側視視野画像18d2を生成し、この側視視野画像18d2をモニタ35に表示させる。
 このように、内視鏡システム1は、中心から離れるに従って拡張するように変形処理する側視視野画像18b及び18dを生成することにより、第1の実施形態と同様に、内視鏡を管腔に挿入した際の視認性を向上させ、内視鏡の操作性を向上させることができる。さらに、内視鏡システム1は、側視視野画像18bまたは18dに病変19を検出した場合、病変19を検出した側視視野画像18bまたは18dの変形処理を解除することにより、歪みのない画像で病変19を観察することができる。
 なお、図8Bに示すように、直視視野画像16aと側視視野画像16b、16d(18b、18d)とを複数のモニタ35にそれぞれ表示させてもよい。また、図8Cに示すように、隣り合う2つの画像信号内で重複する部分が発生していたら、その重複している部分を画像信号から削除して表示させてもよい。
(変形例)
 次に、第2の実施形態の変形例について説明する。
 図9は、変形例に係る内視鏡の挿入部の先端部の構成を示す斜視図であり、図10は、変形例に係る内視鏡の挿入部の先端部の構成を示す正面図であり、図11は、変形例における要部の構成を示す図である。
 図9に示すように、挿入部4の先端部6bには、先端部6bの先端面の中央から上方寄りに偏心した位置から突出して設けられた、円柱形状の円筒部40が形成されている。
 円筒部40の先端部には、直視及び側視を兼ねる図示しない対物光学系が設けられている。また、円筒部40の先端部は、前記図示しない対物光学系の直視方向に相当する箇所に配置された第1の被写体像取得部を構成する直視観察窓42と、前記図示しない対物光学系の側視方向に相当する箇所に配置された第2の被写体像取得部を構成する側視観察窓43と、を有して構成されている。さらに、円筒部40の基端付近には、側視方向を照明するための光を出射する側視照明部44が形成されている。
 直視観察窓42は、挿入部4の長手方向に略平行な挿入部4の前方を含む第1の領域から入射される観察対象物からの戻り光(反射光)を直視の被写体像として直視視野内に捉えることにより直視視野画像を取得する。
 側視観察窓43は、円柱形状の円筒部40における周方向から入射される観察対象物からの戻り光(反射光)を側視視野内に捉えることにより側視視野画像を取得可能とするための、側視用ミラーレンズ45を備えている。
 このような画像は、側視用ミラーレンズ45で戻り光を2回反射させる2回反射光学系を用いることで実現させているが、戻り光を1回反射光学系により1回反射させて形成し、これをビデオプロセッサ32で画像処理し、側視視野画像と直視視野画像との向きを合わせてもよい。
 なお、前記図示しない対物光学系の結像位置には、直視観察窓42の視野内の観察対象物の画像が円形の直視視野画像として中心部に形成され、かつ、側視観察窓43の視野内の観察対象物の画像が円環形状の側視視野画像として直視視野画像の外周部に形成されるように、図11に示す撮像素子60(の撮像面)が配置されているものとする。
 先端部6bの先端面には、円筒部40に隣接する位置に配置され、直視観察窓42の直視視野の範囲に照明光を出射する直視照明窓46と、挿入部4内に配設されたチューブ等により形成された図示しない処置具チャンネルに連通するとともに、処置具チャンネルに挿通された処置具(の先端部)を突出させることが可能な先端開口部47と、が設けられている。
 また、挿入部4の先端部6bは、先端部6bの先端面から突出するように設けられた支持部48を有し、この支持部48は円筒部40の下部側に隣接して位置する。
 支持部48は、先端部6bの先端面から突出させるように配置された各突出部材を支持(または保持)可能に構成されている。具体的には、支持部48は、前述の各突出部材としての、直視観察窓42を洗浄するための気体または液体を射出する直視観察窓用ノズル部49と、直視方向を照明するための光を出射する直視照明窓51と、側視観察窓43を洗浄するための気体または液体を射出する側視観察窓用ノズル部52と、をそれぞれ支持(または保持)可能に構成されている。
 一方、支持部48は、本来の観察対象物とは異なる物体である前述の各突出部材が側視視野内に現れることにより、各突出部材のいずれかを含むような側視視野画像を取得してしまわないようにするための、光学的な遮蔽部材である遮蔽部48aを有して形成されている。すなわち、遮蔽部48aを支持部48に設けることにより、直視観察窓用ノズル部49、直視照明窓51、及び、側視観察窓用ノズル部52がいずれも含まれないような側視視野画像を得ることができる。
 側視観察窓用ノズル部52は、図9及び図10に示すように、支持部48の2箇所に設けられているとともに、支持部48の側面に先端が突出するように配置されている。
 ビデオプロセッサ32は、内視鏡2の先端部6bに設けられた撮像素子60を駆動するための駆動信号を出力する。そして、ビデオプロセッサ32は、前記撮像素子60から出力される撮像信号に対して信号処理を施すことにより、映像信号を生成してモニタ35へ出力する。これにより、円形形状をなす直視視野画像と、直視視野画像に隣接するように配置され直視方向の画像の外周において円環形状をなす側視視野画像とを具備した観察画像が、モニタ35に表示される。なお、本実施形態及び以降の実施形態において示される観察画像においては、支持部48の遮蔽部48aにより光学的に遮蔽される部分を考慮しないものとする。
 例えば、直視視野画像の隣に1つ以上の側視視野画像を並べただけでは、遠近感や立体感が得られず、管腔内を観察する画像として違和感なく認識することが困難である。
 これに対し、変形例の直視視野画像及び側視視野画像の表示方法であれば、中心から周辺に向けて放射状に画面が広がる光学的構造になるように設定されている(円環状のレンズであれば自動的にそのような光学特性になる)ので、比較的、遠近感や立体感が得られやすくなっている。
 次に、画像処理部32a1による画像処理について、図12を用いて説明する。
 図12は、画像処理部32a1による画像処理により、モニタに表示される観察画像の一例を示す図である。
 図12に示すように、画像処理部32a1は、円形形状をなす直視視野画像61と、直視視野画像61の外周において円環形状をなす側視視野画像62とを取得する。また、画像処理部32a1は、側視視野画像62を上下左右の4つの領域62a、62b、62c及び62dに分割する。なお、分割する領域は4つに限定されることなく、3つ以下、あるいは、5つ以上であってもよい。
 そして、画像処理部32a1は、注目領域検出部32cにより例えば病変19が検出された場合、病変19が含まれる例えば側視視野画像62の領域62bのみに直視視野画像と隣接する領域から離れるに従って画像領域の幅が広がる状態を解消する歪み除去処理を施し、拡大表示した画像62b1を生成し、モニタ35に切替モードとして表示される。この結果、変形例の内視鏡システム1によれば、第2の実施形態と同様に、病変19を検出した領域の変形処理を解除することにより、歪みのない画像で病変19を観察することができる。
(第3の実施形態)
 次に、第3の実施形態について説明する。
 図13は、第3の実施形態における要部の構成を示す図である。なお、図13において、図7と同様の構成については、同一の符号を付して説明を省略する。また、挿入部4の先端部の構成は、図6の先端部6aと同様である。
 図13に示すように、本実施形態のビデオプロセッサ32は、図7の画像処理部32a1に代わり、画像処理部32a2を用いて構成されている。画像処理部32a2は、直視観察窓11aにより取得された直視視野画像16aを中心に配置し、側視観察窓11b及び11dにより取得された側視視野画像16b及び16dを直視視野画像16aの左右に隣り合わせて配置するとともに、側視視野画像16b及び16dに所定の画像処理(変形処理)を施す。
 また、画像処理部32a1は、水平方向、垂直方向の歪みであるディストーションを補正するディストーション補正処理部32dを備える。ディストーション補正処理部32dは、直視視野画像16a及び変形処理が施された2つの側視視野画像に対し、ディストーションがゼロになるような歪み除去処理を施す。そして、歪み除去処理が施された直視視野画像及び2つの側視視野画像は、画像出力部32bを介して、モニタ35に表示される。
 次に、画像処理部32a2による画像処理について、図14を用いて説明する。
 図14は、画像処理部32a2による画像処理により、モニタに表示される観察画像の一例を示す図である。
 一般的に、取得される直視視野画像16a、側視視野画像16b及び16dには、ディストーションが存在し、直視視野画像16aと側視視野画像16b及び16dとの境界近傍では、互いに歪み方向が異なる。そのため、各画像間を被写体(例えば病変19)が移動する際に、同一の被写体であっても見え方や挙動が異なるため、同一の被写体であることの認識が困難となることがある。
 そこで、ディストーション補正処理部32dは、直視視野画像16aに対して、ディストーションがゼロになるような歪み除去処理を施した直視視野画像20aを生成する。さらに、ディストーション補正処理部32dは、画像処理部32a2が側視視野画像16b及び16dを中心から離れるに従って拡張するように変形処理を施した側視視野画像に対して、ディストーションがゼロになるような歪み除去処理を施した側視視野画像20b及び20dを生成する。
 このように歪み除去処理が施された直視視野画像20a、側視視野画像20b及び20dは、画像出力部32bを介してモニタ35に表示される。これにより、例えば、側視視野画像20dの被写体(病変19)が直視視野画像20aに移動した場合でも、見え方や挙動が略同一となる。この結果、本実施形態の内視鏡システムによれば、第1の実施形態の効果に加え、被写体(病変19)が側視視野画像20bまたは20dから直視視野画像20a(あるいは、直視視野画像20aから側視視野画像20bまたは20d)に移動した際の視認性が向上するという効果を有する。
 以上のような各実施形態中、複数の視野画像を隣り合うように並べて表示させる実施形態において、側方を照明及び観察する機能を実現する機構は、前方を照明及び観察する機能を実現する機構とともに、挿入部4の先端部6に内蔵されているが、側方を照明及び観察する機能を実現する機構は、挿入部4に対して着脱可能な別体にしてもよい。
 図15は、側方観察用のユニットが取り付けられた挿入部4の先端部6の斜視図である。挿入部4の先端部6は、前方視野用ユニット100を有している。側方視野用ユニット110は、前方視野用ユニット100に対してクリップ部111により着脱自在な構成を有している。
 側方視野用ユニット110は、左右方向の画像を取得するための2つの観察窓112と、左右方向を照明するための2つの照明窓113とを有している。
 ビデオプロセッサ32等は、側方視野用ユニット110の各照明窓113の点灯と消灯を、前方視野のフレームレートに合わせて行うようにして、上述した実施形態に示したような観察画像の取得と表示を行うことができる。
 本発明は、上述した実施形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。
 本出願は、2014年2月14日に日本国に出願された特願2014-26834号公報を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲、図面に引用されたものとする。

Claims (15)

  1.  被写体の内部に挿入される挿入部と、
     前記挿入部に設けられ、前記被写体の第1の領域から第1の被写体像を取得する第1の被写体像取得部と、
     前記挿入部に設けられ、前記第1の領域とは少なくとも一部が異なる前記被写体の第2の領域から第2の被写体像を取得する第2の被写体像取得部と、
     前記第1の被写体像から第1の画像信号を生成するとともに前記第2の被写体像から第2の画像信号を生成する際に、前記第1の画像信号との配置関係において当該第1の画像信号と隣接する領域から離れるに従って画像領域の幅が広がるように画像処理して画像信号を生成する画像信号生成部と、
    を備えることを特徴とする内視鏡システム。
  2.  前記画像信号生成部から出力された画像信号を表示する表示部をさらに備えることを特徴とする請求項1に記載の内視鏡システム。
  3.  前記画像信号生成部は、前記第1の被写体像と前記第2の被写体像とが隣り合って配置されるように前記表示部に表示させることを特徴とする請求項2に記載の内視鏡システム。
  4.  前記表示部は少なくとも2つ以上のモニタにより構成され、
     前記画像信号生成部は、前記第1の画像信号及び前記第2の画像信号の重複する領域を除去した各々の画像信号を前記モニタに出力することを特徴とする請求項3に記載の内視鏡システム。
  5.  前記画像信号生成部は、前記第1の被写体像を中心に配置し、前記第2の被写体像を前記第1の被写体像の少なくとも両脇を含む部位に配置するように前記表示部に表示させることを特徴とする請求項3に記載の内視鏡システム。
  6.  前記画像信号生成部は、前記表示部の1つの画面上に前記第1の被写体像と前記第2の被写体像とを表示させることを特徴とする請求項2に記載の内視鏡システム。
  7.  前記第1の被写体像は、前記挿入部の長手方向に略平行な挿入部前方を含む前記第1の領域の被写体像であり、
     前記第2の被写体像は、前記挿入部の長手方向と交差する方向の挿入部側方を含む前記第2の領域の被写体像であり、
     前記第1の被写体像取得部は、前記第1の領域の被写体像を取得する前方画像取得部であり、
     前記第2の被写体像取得部は、前記第2の領域の被写体像を取得する側方画像取得部であることを特徴とする請求項1に記載の内視鏡システム。
  8.  前記画像信号生成部は、前記第2の画像信号に対して、前記第2の被写体像の中における指定された所定の領域である注目領域にのみ前記第1の画像信号と隣接する領域から離れるに従って画像領域の幅が広がるモードを解除する、第1の切替モードで画像処理を行うことを特徴とする請求項1に記載の内視鏡システム。
  9.  前記画像信号生成部は、前記第2の画像信号に対して、前記第2の被写体像中の前記注目領域のみ拡大表示させる第2の切替モードでの画像処理を行うことを特徴とする請求項8に記載の内視鏡システム。
  10.  前記画像信号生成部は、前記第2の画像信号に対して、前記第2の被写体像の中における指定された所定の領域である注目領域が存在する前記第2の被写体像全体のみ、前記第1の画像信号と隣接する領域から離れるに従って画像領域の幅が広がるモードを解除して拡大表示させる、第3の切替モードでの画像処理を行うことを特徴とする請求項1に記載の内視鏡システム。
  11.  前記画像信号生成部は、前記第2の画像信号に対して、指定された前記第2の被写体像の水平方向と垂直方向の歪みを抑制する第4の切替モードでの画像処理を行うことを特徴とする請求項1に記載の内視鏡システム。
  12.  前記画像信号生成部は、さらに前記第1の被写体像に対しても前記第1の被写体像の水平方向と垂直方向の歪みを抑制する第5の切替モードでの画像処理を行うことを特徴とする請求項11に記載の内視鏡システム。
  13.  前記第2の被写体像取得部は、前記挿入部の周方向に略均等な角度で複数配置されており、
     前記表示部は、前記第1の被写体像を中心に配置し、前記第2の被写体像を前記第1の被写体像の周方向に略均等な角度で配置するように複数表示し、
     前記画像信号生成部は、各前記第2の画像信号に対して、前記第1の画像信号から離れるに従って画像領域の幅が広がるモードを行うことを特徴とする請求項5に記載の内視鏡システム。
  14.  前記第1の被写体像取得部は、前記挿入部の長手方向の先端部に、前記挿入部が挿入される方向に向けて配置され、
     前記第2の被写体像取得部は、前記挿入部の側面に、前記挿入部の周方向に向けて配置され、
     前記第1の被写体像取得部からの前記第1の被写体像を光電変換する第1の撮像部と、前記第2の被写体像取得部からの前記第2の被写体像を光電変換する第2の撮像部とが別々に設けられるとともに、前記第1の撮像部と前記第2の撮像部とが前記画像信号生成部に電気的に接続されていることを特徴とする請求項7に記載の内視鏡システム。
  15.  前記第1の被写体像取得部は、前記挿入部の長手方向の先端部に、前記挿入部が挿入される方向に向けて配置され、
     前記第2の被写体像取得部は、前記挿入部の周方向を囲むように配置され、
     前記第1の被写体像取得部からの前記第1の被写体像と前記第2の被写体像取得部からの前記第2の被写体像とを同じ面で光電変換するように配置されるとともに、前記画像信号生成部に電気的に接続されている撮像部を備えることを特徴とする請求項7に記載の内視鏡システム。
PCT/JP2015/053276 2014-02-14 2015-02-05 内視鏡システム WO2015122355A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP15749219.0A EP3106080A4 (en) 2014-02-14 2015-02-05 Endoscope system
CN201580006312.6A CN105939650B (zh) 2014-02-14 2015-02-05 内窥镜系统
JP2015542070A JP5942044B2 (ja) 2014-02-14 2015-02-05 内視鏡システム
US15/224,923 US20160338575A1 (en) 2014-02-14 2016-08-01 Endoscope system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014026834 2014-02-14
JP2014-026834 2014-02-14

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/224,923 Continuation US20160338575A1 (en) 2014-02-14 2016-08-01 Endoscope system

Publications (1)

Publication Number Publication Date
WO2015122355A1 true WO2015122355A1 (ja) 2015-08-20

Family

ID=53800102

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/053276 WO2015122355A1 (ja) 2014-02-14 2015-02-05 内視鏡システム

Country Status (5)

Country Link
US (1) US20160338575A1 (ja)
EP (1) EP3106080A4 (ja)
JP (1) JP5942044B2 (ja)
CN (1) CN105939650B (ja)
WO (1) WO2015122355A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3305169A1 (en) * 2016-10-05 2018-04-11 Fujifilm Corporation Endoscope system and method of driving endoscope system
JP2020037003A (ja) * 2016-09-29 2020-03-12 富士フイルム株式会社 内視鏡システム及び内視鏡システムの駆動方法
JP2020058639A (ja) * 2018-10-11 2020-04-16 富士フイルム株式会社 内視鏡システム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016100731A1 (en) * 2014-12-18 2016-06-23 Endochoice, Inc. Multiple viewing element endoscope system having multiple sensor motion synchronization
JPWO2017033728A1 (ja) * 2015-08-26 2018-06-14 オリンパス株式会社 内視鏡装置
WO2017126196A1 (ja) * 2016-01-18 2017-07-27 オリンパス株式会社 内視鏡
EP3682791B1 (en) * 2017-09-15 2023-12-20 FUJIFILM Corporation Medical image processing device
CN109274874B (zh) * 2018-10-26 2024-02-06 深圳市古安泰自动化技术有限公司 视频检测仪探头
US11793397B2 (en) * 2020-03-09 2023-10-24 Omniscient Imaging, Inc. Encapsulated opto-electronic system for co-directional imaging in multiple fields of view
US11506874B2 (en) * 2020-03-09 2022-11-22 Omniscient Imaging, Inc. Optical imaging systems and formation of co-oriented and co-directional images in different fields of view of the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012165204A1 (ja) * 2011-05-27 2012-12-06 オリンパス株式会社 内視鏡装置
DE102011115500A1 (de) * 2011-10-11 2013-04-11 Olympus Winter & Ibe Gmbh Videoendoskop mit mehreren Blickwinkeln

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5023725A (en) * 1989-10-23 1991-06-11 Mccutchen David Method and apparatus for dodecahedral imaging system
JPH0549637A (ja) * 1991-08-26 1993-03-02 Fujitsu Ltd 超音波診断装置
US5850225A (en) * 1996-01-24 1998-12-15 Evans & Sutherland Computer Corp. Image mapping system and process using panel shear transforms
JP3497805B2 (ja) * 2000-08-29 2004-02-16 オリンパス株式会社 画像投影表示装置
KR100870033B1 (ko) * 2001-01-16 2008-11-21 기븐 이미징 리미티드 체강의 광시야 영상화 시스템 및 방법
US20020103420A1 (en) * 2001-01-26 2002-08-01 George Coleman Endoscope with alterable viewing angle
US7006707B2 (en) * 2001-05-03 2006-02-28 Adobe Systems Incorporated Projecting images onto a surface
TWI276044B (en) * 2003-12-26 2007-03-11 Ind Tech Res Inst Real-time image warping method for curve screen
US7576767B2 (en) * 2004-07-26 2009-08-18 Geo Semiconductors Inc. Panoramic vision system and method
US9049396B2 (en) * 2004-09-29 2015-06-02 Hewlett-Packard Development Company, L.P. Creating composite images based on image capture device poses corresponding to captured images
US20090231551A1 (en) * 2008-03-11 2009-09-17 Robe Show Lighting S.R.O. Digital imaging system
WO2011063517A1 (en) * 2009-11-27 2011-06-03 Sentinelle Medical Inc. Systems and methods for tracking positions between imaging modalities and transforming a displayed three-dimensional image corresponding to a position and orientation of a probe
US20120036485A1 (en) * 2010-08-09 2012-02-09 XMG Studio Motion Driven User Interface
JP5855358B2 (ja) * 2011-05-27 2016-02-09 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
JP5682788B2 (ja) * 2011-09-27 2015-03-11 アイシン精機株式会社 車両周辺監視装置
BR112014013460A8 (pt) * 2011-12-08 2018-02-06 Koninklijke Philips Nv sistema de exame para examinar uma amostra de tecido associado, método para organizar um dispositivo de exibição e para visualizar as informações obtidas de uma pluralidade de transdutores de ultrassom (306a-c) em uma pluralidade de posições do transdutor do ultrassom, produto de programa de computador adaptado para viabilizar um sistema de computador, e utilização de um sistema de exame
US10457209B2 (en) * 2012-02-22 2019-10-29 Magna Electronics Inc. Vehicle vision system with multi-paned view
US9835564B2 (en) * 2012-06-08 2017-12-05 SeeScan, Inc. Multi-camera pipe inspection apparatus, systems and methods
US9492065B2 (en) * 2012-06-27 2016-11-15 Camplex, Inc. Surgical retractor with video cameras
US9642606B2 (en) * 2012-06-27 2017-05-09 Camplex, Inc. Surgical visualization system
US9801551B2 (en) * 2012-07-20 2017-10-31 Intuitive Sugical Operations, Inc. Annular vision system
CN105431074B (zh) * 2013-05-17 2017-12-05 安万特医疗系统公司 次级成像内窥镜装置
WO2014189969A1 (en) * 2013-05-21 2014-11-27 Camplex, Inc. Surgical visualization systems
WO2014188808A1 (ja) * 2013-05-22 2014-11-27 オリンパスメディカルシステムズ株式会社 内視鏡システム
EP3005232A4 (en) * 2013-05-29 2017-03-15 Kang-Huai Wang Reconstruction of images from an in vivo multi-camera capsule
JP2015026992A (ja) * 2013-07-26 2015-02-05 株式会社リコー 投影システム、画像処理装置、投影方法およびプログラム
EP3033987A4 (en) * 2013-09-27 2017-05-17 Olympus Corporation Endoscopy system
JP5810248B2 (ja) * 2013-10-02 2015-11-11 オリンパス株式会社 内視鏡システム
KR102039601B1 (ko) * 2013-12-09 2019-11-01 스크린엑스 주식회사 다면 상영관의 영상 생성 방법 및 이를 이용한 영상 관리 장치
WO2015151973A1 (ja) * 2014-03-31 2015-10-08 オリンパス株式会社 内視鏡システム
JP5959756B2 (ja) * 2014-03-31 2016-08-02 オリンパス株式会社 内視鏡システム
WO2015168066A1 (en) * 2014-05-01 2015-11-05 Endochoice, Inc. System and method of scanning a body cavity using a multiple viewing elements endoscope
CN106102550B (zh) * 2014-05-16 2018-04-03 奥林巴斯株式会社 内窥镜系统
US11606497B2 (en) * 2014-06-10 2023-03-14 Nitesh Ratnakar Endoscope with multiple views and novel configurations adapted thereto
WO2016072237A1 (ja) * 2014-11-06 2016-05-12 オリンパス株式会社 内視鏡システム
EP3120751B1 (en) * 2014-12-22 2019-02-20 Olympus Corporation Endoscope system
US20160295126A1 (en) * 2015-04-03 2016-10-06 Capso Vision, Inc. Image Stitching with Local Deformation for in vivo Capsule Images
US20170071456A1 (en) * 2015-06-10 2017-03-16 Nitesh Ratnakar Novel 360-degree panoramic view formed for endoscope adapted thereto with multiple cameras, and applications thereof to reduce polyp miss rate and facilitate targeted polyp removal

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012165204A1 (ja) * 2011-05-27 2012-12-06 オリンパス株式会社 内視鏡装置
DE102011115500A1 (de) * 2011-10-11 2013-04-11 Olympus Winter & Ibe Gmbh Videoendoskop mit mehreren Blickwinkeln

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3106080A4 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020037003A (ja) * 2016-09-29 2020-03-12 富士フイルム株式会社 内視鏡システム及び内視鏡システムの駆動方法
EP3305169A1 (en) * 2016-10-05 2018-04-11 Fujifilm Corporation Endoscope system and method of driving endoscope system
US10820786B2 (en) 2016-10-05 2020-11-03 Fujifilm Corporation Endoscope system and method of driving endoscope system
JP2020058639A (ja) * 2018-10-11 2020-04-16 富士フイルム株式会社 内視鏡システム
JP7092633B2 (ja) 2018-10-11 2022-06-28 富士フイルム株式会社 内視鏡システム

Also Published As

Publication number Publication date
JP5942044B2 (ja) 2016-06-29
JPWO2015122355A1 (ja) 2017-03-30
US20160338575A1 (en) 2016-11-24
CN105939650B (zh) 2018-01-30
CN105939650A (zh) 2016-09-14
EP3106080A1 (en) 2016-12-21
EP3106080A4 (en) 2017-10-25

Similar Documents

Publication Publication Date Title
JP5942044B2 (ja) 内視鏡システム
JP4884567B2 (ja) 内視鏡システム
JP4856286B2 (ja) 内視鏡システム
JP5974188B2 (ja) 内視鏡システム
JP2018519860A (ja) 動的視野内視鏡
JP2014524819A (ja) マルチカメラ内視鏡
JP2015533300A (ja) マルチカメラ内視鏡
JP2005312554A (ja) 内視鏡及び内視鏡システム
JP5942047B2 (ja) 内視鏡システム
JP5977912B1 (ja) 内視鏡システム及び内視鏡ビデオプロセッサ
US10349814B2 (en) Endoscope system
JP5608580B2 (ja) 内視鏡
WO2015198981A1 (ja) 内視鏡システム
WO2015146836A1 (ja) 内視鏡システム
US20160374542A1 (en) Endoscope system
JP5914787B1 (ja) 内視鏡と、この内視鏡を備えた内視鏡システム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2015542070

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15749219

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2015749219

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015749219

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE