WO2016080118A1 - 内視鏡システム - Google Patents

内視鏡システム Download PDF

Info

Publication number
WO2016080118A1
WO2016080118A1 PCT/JP2015/079181 JP2015079181W WO2016080118A1 WO 2016080118 A1 WO2016080118 A1 WO 2016080118A1 JP 2015079181 W JP2015079181 W JP 2015079181W WO 2016080118 A1 WO2016080118 A1 WO 2016080118A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
display
subject
endoscope system
Prior art date
Application number
PCT/JP2015/079181
Other languages
English (en)
French (fr)
Inventor
倉 康人
本田 一樹
健夫 鈴木
高範 渡辺
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2016538115A priority Critical patent/JP6064091B2/ja
Publication of WO2016080118A1 publication Critical patent/WO2016080118A1/ja
Priority to US15/485,352 priority patent/US20170215693A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00105Constructional details of the endoscope body characterised by modular construction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00131Accessories for endoscopes
    • A61B1/0014Fastening element for attaching accessories to the outside of an endoscope, e.g. clips, clamps or bands
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00174Optical arrangements characterised by the viewing angles
    • A61B1/00177Optical arrangements characterised by the viewing angles for 90 degrees side-viewing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00174Optical arrangements characterised by the viewing angles
    • A61B1/00181Optical arrangements characterised by the viewing angles for multiple fixed viewing angles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0615Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for radial illumination
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/12Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices with means for image conversion or intensification
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Definitions

  • the present invention relates to an endoscope system, and more particularly, to an endoscope system that acquires subject images of a front visual field and a side visual field.
  • the endoscope includes an illuminating unit and an observing unit at the distal end side of the insertion portion, and can be inserted into the subject to observe and inspect the subject.
  • a side visual field in which the side surface side of the insertion portion is an observation visual field is provided.
  • a multi-camera endoscope that can observe two or more directions provided has been proposed. If such a multi-camera endoscope is used, the examiner can observe the inside of the subject with a wide-angle visual field by simultaneously observing the two directions of the front and the side.
  • the conventional multi-camera endoscope has a problem that it is difficult to simultaneously view all of the front view screen and the side view screens provided on the left and right sides for the front view.
  • the observation image of the subject is often displayed in a round shape, and even when the observation can be performed on one screen, the screen is horizontally long, so the unused space on the screen. Will increase.
  • An object of the present invention is to provide an endoscope system that reduces the weight of the endoscope system.
  • An endoscope system includes an insertion unit that is inserted into a subject, and a first image acquisition unit that is provided in the insertion unit and acquires a first image from a first region of a subject.
  • a second image acquisition unit that is provided in the insertion unit and acquires a second image from a second region of the subject including a region adjacent to the first region, and a display unit for displaying the image
  • a first display area and a second display area adjacent to the first display area are respectively set, the first image is arranged in the first display area, and a part of the second image is set in the first display area.
  • An image processing unit that is disposed adjacent to the first image in the display area and that performs image processing so that the remaining portion of the second image is disposed in the second display area.
  • an endoscope system that can efficiently display an observation image displayed on a screen by reducing waste, and can improve fatigue of the user by improving the visibility of the observation image.
  • the block diagram which shows the structure of the endoscope system in connection with a 1st form Schematic showing the configuration of a processor for displaying an observation image on the three display devices
  • the figure explaining the image area cut out from the captured image area The figure for demonstrating the state by which the image area for front visual fields is converted similarly.
  • the figure for demonstrating the state by which the image area for 2nd side views is converted similarly
  • the figure explaining the procedure of image processing The figure which shows the state which displayed the observation image on the same three display apparatuses
  • the figure which shows the state which displayed the observation image on the same display device Schematic diagram showing the configuration of a processor for displaying an observation image on the display device of the first modified example
  • the figure explaining the procedure of the image processing of the 1st modification similarly
  • the figure which shows the state which displayed the observation image on one display apparatus of a 1st modification similarly.
  • Schematic showing the configuration of a processor for displaying an observation image on the display device of the second modification example The figure explaining the procedure of the image processing of the 2nd modification similarly
  • the figure which shows the state which displayed the observation image on one display apparatus of a 2nd modification similarly.
  • Schematic diagram showing the configuration of a processor for displaying an observation image on the display device of the third modification example The figure explaining the procedure of the image processing of a 3rd modification same as the above
  • the figure which shows the state which displayed the observation image on one display apparatus of a 3rd modification similarly.
  • Schematic diagram showing the configuration of a processor for displaying an observation image on the display device of the fourth modification example The figure explaining the procedure of the image processing of a 4th modification as same as the above.
  • photographed with the endoscope of the modification was displayed similarly.
  • the figure which shows the display apparatus on which the image recording part and endoscope image in connection with 3rd Embodiment were displayed The perspective view of the front-end
  • the endoscope in the following description of the configuration will be described by taking a so-called flexible endoscope having an insertion portion flexible for insertion into the digestive organs of the upper or lower part of the living body, but is not limited thereto.
  • the technique can be applied to a so-called rigid endoscope having a hard insertion portion used for surgery.
  • FIG. 1 is a configuration diagram showing the configuration of an endoscope system according to the present embodiment
  • FIG. 2 is a schematic diagram showing the configuration of a processor that displays observation images on three display devices
  • FIG. FIG. 4 is a diagram for explaining a state where an image region for a front visual field is converted
  • FIG. 5 is a diagram for explaining a state where an image region for a first side visual field is converted
  • FIG. 6 is a diagram for explaining the state in which the image area for the second lateral field of view is converted
  • FIG. 7 is a diagram for explaining the procedure of image processing
  • FIG. 8 is an observation on three display devices.
  • FIG. 9 is a diagram illustrating a state in which an image is displayed.
  • FIG. 9 is a diagram illustrating a state in which an observation image is displayed on one display device.
  • An endoscope system 1 shown in FIG. 1 includes an endoscope 2, a processor 3, a light source device 4, and monitors 5, 6, and 7 as three display devices here.
  • the endoscope 2 has a flexible insertion portion 10 to be inserted into the subject and an operation unit (not shown), and is connected to the processor 3 and the light source device 4 by an endoscope cable (not shown). Has been.
  • the endoscope 2 includes a front-view illumination window (first illumination unit) 12, an observation window (first image acquisition unit) 13, and two side-view illuminations at the distal end portion 11 of the insertion unit 10.
  • Windows (second illumination units) 14 and 15 and two observation windows (second image acquisition units) 16 and 17 are provided.
  • the endoscope 2 has two illumination windows 14 and 15 here in addition to the illumination window 12, and has two observation windows 16 and 17 here in addition to the observation window 13. .
  • the illumination window 14 and the observation window 16 are for the first side field, and the illumination window 15 and the observation window 17 are for the second side field.
  • the plurality of, here two, observation windows 16 and 17 are arranged at a substantially uniform angle in the circumferential direction of the insertion portion 10.
  • the distal end portion 11 of the insertion portion 10 has a distal end rigid member (not shown), the illumination window 12 is provided on the distal end surface of the distal end rigid member, and the two illumination windows 14 and 15 are disposed on the side surface of the distal end rigid member. Is provided.
  • an imaging unit 21 for the front visual field is disposed behind the observation window 13 for the front visual field.
  • a first side-view imaging unit 22 is disposed behind the observation window 16
  • a second side-view imaging unit 22 is disposed behind the observation window 17.
  • An imaging unit 23 is provided.
  • Each of the three imaging units 21, 22, and 23 serving as an imaging unit has an imaging element such as a CCD or a CMOS, is electrically connected to the processor 3, and is controlled by the processor 3 to send an imaging signal to the processor 3. Output. Accordingly, each of the imaging units 21, 22, and 23 constitutes an imaging unit that photoelectrically converts an image (subject image).
  • the observation window 13 is arranged at the distal end portion 11 of the insertion portion 10 in the direction in which the insertion portion 10 is inserted, and the observation windows 16 and 17 are arranged at the side surface portion of the insertion portion 10 in the outer diameter direction of the insertion portion 10. Is arranged.
  • the observation window 13 is provided at the distal end portion 11 of the insertion unit 10 and constitutes a first image acquisition unit that acquires a first subject image that is a first image from a front region that is a first region. is doing.
  • each of the observation windows 16 and 17 is provided at the distal end portion 11 of the insertion portion 10 and is a second image which is a second image from the side which is a second region as a region in the left-right direction here, which is different from the front.
  • a second image acquisition unit is configured to acquire two subject images.
  • the first subject image that is the first image becomes the subject image of the first region including the front of the insertion portion that is substantially parallel to the longitudinal direction of the insertion portion 10, and the second subject that is the second image.
  • the image becomes the subject image of the second region in the left-right direction including the side of the insertion portion that is substantially orthogonal to the longitudinal direction of the insertion portion 10.
  • the second region may be a vertical region provided at a position where the positions of the observation windows 16 and 17 are rotated by approximately 90 degrees around the central axis of the insertion portion 10.
  • a light-emitting element 24 for front-view illumination is disposed behind the illumination window 12 for front-view.
  • a first side-view illumination light emitting element 25 is disposed in the distal end portion 11.
  • an illumination light emitting element 26 for the second side field of view is disposed in the distal end portion 11.
  • illumination light emitting elements 24, 25, and 26 are, for example, light emitting diodes (LEDs). Accordingly, the illumination window 12 corresponding to the illumination light-emitting element 24 is an illumination unit that emits illumination light forward, and the illumination windows 14 and 15 corresponding to the illumination light-emitting elements 25 and 26 illuminate laterally. An illumination unit that emits light.
  • LEDs light emitting diodes
  • the light source device 4 has a built-in illumination control unit 33.
  • the illumination control unit 33 is controlled by the control unit 32 of the processor 3.
  • the illumination control unit 33 is a circuit that controls the light emission amount and on / off of the illumination light emitting elements 24, 25, and 26.
  • the illumination control unit 33 is connected to the illumination light emitting elements 24, 25, and 26 via the signal lines 24a, 25a, and 26a. Output a control signal. Further, the illumination control unit 33 controls the amount of light of each illumination light emitting element 24, 25, 26 based on the dimming signal from the control unit 32.
  • the illumination control unit 33 controls the on / off emission timing of each illumination light emitting element. That is, the illumination control unit 33 constitutes an illumination control unit that controls the emission of illumination light forward and the emission of illumination light to the side at predetermined timings different from each other.
  • the endoscope system 1 configured as described above synthesizes subject images acquired by the respective imaging units 21, 22, 23 provided at the distal end portion 11 of the endoscope 2 to provide three monitors 5, 6. , 7 are displayed.
  • the control unit 32 of the processor 3 includes a display area setting unit 35, three cutout units 41, 42, 43, three image conversion units 44, 45, 46, An image composition unit 47 and an image recording unit 48 such as various memories are provided.
  • the image recording unit 48 may be configured to be detachable from the processor 3.
  • the photometric signals obtained by photoelectric conversion by the three image pickup units 21, 22, and 23 built in the distal end portion 11 of the endoscope 2 are measured by the photometry unit 31 and the display area setting unit 35. Respectively.
  • the imaging signal from the imaging unit 21 for the front visual field is input to the cutout unit 41 for the front visual field, and the imaging signal from the imaging unit 22 for the first lateral visual field is the first side visual field.
  • the image pickup signal from the second side view image pickup unit 23 is input to the second side view cutout portion 43.
  • these three cutout units 41, 42, and 43 are predetermined from the approximately circular captured image region 50 here based on the respective input captured image signals, each of which is a square here. Only the image information of the image areas 51, 52, and 53 is converted into a captured (masked) image signal.
  • the three cutout units 41, 42, and 43 are image conversion units 44, 45, and 46 that are electrically connected to imaging signals obtained by cutting out only the image information of the set predetermined image areas 51, 52, and 53. Output to.
  • These three image conversion units 44, 45, and 46 convert an image based on the input imaging signal into a set shape.
  • the image conversion unit 44 for the front visual field makes the cut out predetermined image region 51 circular, and then masks the upper and lower sides so that both sides are convex. Distort to form an arc.
  • the image conversion unit 44 distorts the left and right corners UL, UR above and below the left and right corners DL of the image area 51 inwardly (center side), and also moves the image area 51 in the vertical direction.
  • the left and right intermediate portions CL and CR are converted into image data having an image shape distorted outward (on the opposite side to the center side).
  • the first side-view image conversion unit 45 distorts the cut out predetermined image region 52 so that the left side is convex and the right side is concave.
  • the image conversion unit 44 for the front visual field transforms the cut out predetermined image area 51 into a round image, and performs adjustments such as masking up and down thereafter, for example. By doing so, both sides such as an oval, a circle, and a barrel are distorted so as to form a convex arc.
  • the image conversion unit 46 deforms the left and right corners UL, UR above and below the left and right corners DL of the image region 53 to the left, and the left and right intermediate portions CL of the image region 51 in the vertical direction. , CR is converted into image data having an image shape deformed to the right.
  • the image conversion units 44, 45, 46 output the converted image data of the image areas 51, 52, 53 to the image composition unit 47.
  • the image composition unit 47 sets the image area 51 that is the front visual field in the center, and sets the first side visual field image area 52 to the left of the image area 51 so as to be adjacent to the image area 51. Then, the image area 52 for the second side field of view is synthesized as the right side with respect to the image area 51.
  • the combined image data is converted from the image combining unit 47 to a predesignated magnification, converted into a display signal by the image output unit 49, and output to the three monitors 5, 6, and 7.
  • the image composition unit 47 outputs the composite image data obtained by combining the three image data of the image areas 51, 52, and 53 to the image recording unit 48 at the same time.
  • the image recording unit 48 records input composite image data.
  • an observation image of the image area 51 in the front visual field direction is displayed in the center, and two image areas 52 in each lateral visual field direction are displayed. , 53, a part of the observation images 52a, 53a adjacent to the image region 51 is displayed.
  • the monitor 5 has a first display area where the observation image of the image area 51 is displayed and a second display area where the observation images 52a and 53a are displayed.
  • the display area setting unit 35 of the processor 3 recognizes each of the first display area and the second display area, and the observation image of the image area 51 is displayed in the first display area as described above.
  • the observation images are allocated by setting the display so that the observation images 52a and 53a are arranged.
  • the remaining portion of the observation image 52b excluding the observation image 52a in the image region 52 in the first lateral visual field direction is displayed.
  • the endoscope system 1 displays the front image area 51 in the first display area of the monitor 5, and the side image areas 52 and 53 in the second display area. Some observation images 52a and 53a are displayed.
  • the remaining observation images 52b and 53b in the side image areas 52 and 53 are displayed on the monitors 6 and 7, respectively.
  • the endoscope system 1 records the processed image in the image recording unit 48 provided in the control unit 32 of the processor 3.
  • the endoscope system 1 in addition to the observation image in the front visual field direction, a part of the observation image in each lateral visual field direction is displayed on the monitor 5 disposed in the center. Thus, the subject image is displayed without waste.
  • the endoscope system 1 can efficiently display the observation image of the front visual field and the observation image of each lateral visual field, and can feel continuity in the information of the subject image. That is, an image having an impression that an observation image in the front visual field direction and an observation image in each lateral visual field direction from the center of the central monitor 5 spread left and right.
  • the observation image of each side field of view is also displayed so that the information on the side of the subject image is also included. Oversight of lesions is prevented. The user is therefore required to look carefully at all the monitors 5, 6, and 7 in order to obtain information on the subject image on the side, and the degree of fatigue is reduced.
  • the endoscope system 1 reduces the fatigue of the user by reducing the waste of the observation image displayed on the monitors 5, 6, and 7 as the screen and improving the visibility of the observation image. can do.
  • the second region (side view) different from the first region (front view) means that the optical axis is in a different direction, and the view is greatly lost when the image is cut out.
  • the range of the front field of view and the side field of view is slightly small without overlapping, even if a part of the boundary between the front field of view and the side field of view is overlapped or adjacent to each other with almost no gap. It may be separated by an interval.
  • image processing for reducing a sense of discomfort may be performed by performing boundary processing for smoothly connecting the first subject image and the second subject image to adjacent portions.
  • the display portions are set as areas to be displayed one by one on the screens of the three monitors 5, 6, and 7, but a plurality of, for example, three display portions are displayed on one screen of one monitor. May be set by the processor 3 and may have a function of switching to operate in another operation mode in which a front view image and a side view image are displayed on the plurality of display portions, respectively.
  • FIG. 10 is a schematic diagram illustrating a configuration of a processor that displays an observation image on the display device according to the first modified example
  • FIG. 11 is a diagram illustrating an image processing procedure according to the first modified example
  • FIG. 13 is a diagram illustrating a state in which an observation image is displayed on three display devices according to a modification.
  • FIG. 13 is a diagram illustrating a state in which the observation image is displayed on one display device according to a first modification.
  • the endoscope system 1 includes an image division / distribution unit 36 instead of the image synthesis unit 47 in the control unit 32 of the processor 3, and includes three monitors 5, 6, and 7. In addition, a monitor 38 is provided.
  • the round images of the three captured image areas 50 are squared by the three image cutout units 41, 42, and 43 of the control unit 32 of the processor 3. cut.
  • the control unit 32 converts the front image region 51 into a round shape such as an oval, a circle, and a barrel shape by the image conversion unit 44, and converts the two side image regions 52 and 53 into the image conversion unit 45, 46 is converted into a concave shape.
  • control unit 32 performs conversion so that the image division / distribution unit 36 can divide a part of the side image regions 52 and 53 and display it together with the front image region 51 (note that only that portion may be synthesized). .
  • the endoscope system 1 displays the front image area 51 in the first display area of the monitor 5 out of the three monitors 5, 6, and 7, as shown in FIG.
  • the partial observation images 52a and 53a of the side image regions 52 and 53 are displayed in the region, and the remaining side observation images 52b and 53b are displayed on the monitors 6 and 7.
  • the endoscope system 1 records the processed image in the image recording unit 48 provided in the control unit 32 of the processor 3.
  • the endoscope system 1 can prevent part of the images on both sides from being hidden at the boundary between the monitor 5 and the monitors 6 and 7.
  • the display portions are set as areas to be displayed one by one on the screens of the three monitors 5, 6, 7 respectively.
  • FIG. 14 is a schematic diagram illustrating a configuration of a processor that displays an observation image on the display device according to the second modified example
  • FIG. 15 is a diagram illustrating an image processing procedure according to the second modified example
  • FIG. 17 is a diagram illustrating a state in which an observation image is displayed on three display devices according to a modification.
  • FIG. 17 is a diagram illustrating a state in which the observation image is displayed on one display device according to a second modification.
  • the endoscope system 1 of the present modification is not provided with the image conversion units 44, 45, 46 in the control unit 32 of the processor 3, and includes three monitors 5, 6, 7 and the like. Further, a monitor 38 is provided.
  • the round images of the three captured image areas 50 are converted into the three image cutout units 41, 42, 42 of the control unit 32 of the processor 3. Cut out a square with 43.
  • control unit 32 combines the cut-out square front and side three image regions 52 and 53 by the image combining unit 47, and, as shown in FIG.
  • the front image area 51 is displayed in the first display area of the monitor 5 and the observation images 52a and 53a of the side image areas 52 and 53 are displayed in the second display area.
  • 7 display the remaining lateral observation images 52b, 53b.
  • the endoscope system 1 also records the processed image in the image recording unit 48 provided in the control unit 32 of the processor 3 here.
  • the display portions are set as areas to be displayed one by one on the screens of the three monitors 5, 6 and 7, but one monitor There is a function of setting a plurality of, for example, three display portions on one screen of 38 by the processor 3 and switching to operate in another operation mode in which the front view image and the side view image are respectively displayed on the plurality of display portions. You may do it.
  • FIG. 18 is a schematic diagram illustrating a configuration of a processor that displays an observation image on a display device according to a third modification
  • FIG. 19 is a diagram illustrating an image processing procedure according to the third modification
  • FIG. 21 is a diagram illustrating a state in which an observation image is displayed on three display devices according to a modification
  • FIG. 21 is a diagram illustrating a state in which the observation image is displayed on one display device according to a third modification.
  • the endoscope system 1 is not provided with the image conversion units 44, 45, and 46 in the control unit 32 of the processor 3.
  • a distribution unit 36 is provided, and a monitor 38 is further provided in addition to the three monitors 5, 6, and 7.
  • control unit 32 performs conversion so that the image division / distribution unit 36 can divide a part of the side image areas 52 and 53 and display it together with the front image area 51 (only the part may be synthesized). .
  • the endoscope system 1 displays the front image area 51 in the first display area of the monitor 5 among the three monitors 5, 6, and 7 as shown in FIG.
  • the partial observation images 52a and 53a of the side image regions 52 and 53 are displayed in the region, and the remaining side observation images 52b and 53b are displayed on the monitors 6 and 7.
  • the endoscope system 1 also records the processed image in the image recording unit 48 provided in the control unit 32 of the processor 3 here.
  • the endoscope system 1 can prevent part of the images on both sides from being hidden at the boundary between the monitor 5 and the monitors 6 and 7.
  • the display portions are set as areas to be displayed one by one on the screens of the three monitors 5, 6, 7 respectively.
  • FIG. 22 is a schematic diagram illustrating a configuration of a processor that displays an observation image on a display device according to a fourth modification
  • FIG. 23 is a diagram illustrating an image processing procedure according to the fourth modification
  • FIG. 25 is a diagram illustrating a state in which an observation image is displayed on three display devices according to a modification
  • FIG. 25 is a diagram illustrating a state in which the observation image is displayed on one display device according to a fourth modification.
  • the endoscope system 1 includes only two image conversion units 45 and 46 in the control unit 32 of the processor 3, and includes three monitors 5, 6, and 7. Further, a monitor 38 is provided.
  • the control unit 32 of the processor 3 causes the image cutout unit 41 to generate a front image from the round images of the three captured image areas 50.
  • a round shape such as an oval, a circle, or a barrel
  • the image cutout units 42 and 43 cut out the two side images into a square.
  • control unit 32 converts the two side image regions 52 and 53 into a concave shape without converting the front image region 51, and the image composition unit 47 generates three images.
  • the areas 51, 52 and 53 are synthesized.
  • the remaining observation images 52b and 53b in the side image areas 52 and 53 are displayed on the monitors 6 and 7, respectively.
  • the endoscope system 1 records the processed image in the image recording unit 48 provided in the control unit 32 of the processor 3.
  • the endoscope system 1 displays the horizontal dimensions of the side images displayed in the display areas of the three monitors 5, 6, and 7 almost correctly.
  • the display portions are set as areas to be displayed one by one on the screens of the three monitors 5, 6 and 7, but one monitor There is a function of setting a plurality of, for example, three display portions on one screen of 38 by the processor 3 and switching to operate in another operation mode in which the front view image and the side view image are respectively displayed on the plurality of display portions. You may do it.
  • the endoscope system 1 is provided with only two image conversion units 45 and 46 in the control unit 32 of the processor 3, and further changes to the image composition unit 47 to divide the image.
  • a distribution unit 36 is provided, and a monitor 38 is further provided in addition to the three monitors 5, 6, and 7.
  • the control unit 32 of the processor 3 causes the image cutout unit 41 from the round images of the three captured image regions 50 to be a front image.
  • a round shape such as an oval, a circle, or a barrel
  • the image cutout units 42 and 43 cut out the two side images into a square.
  • control unit 32 only the two side image regions 52 and 53 are converted into concave shapes by the image conversion units 45 and 46.
  • control unit 32 performs conversion so that the image division / distribution unit 36 can divide a part of the side image regions 52 and 53 and display it together with the front image region 51 (note that only that portion may be synthesized). .
  • the endoscope system 1 displays the front image area 51 in the first display area of the monitor 5 out of the three monitors 5, 6, and 7, as shown in FIG.
  • the partial observation images 52a and 53a of the side image regions 52 and 53 are displayed in the region, and the remaining side observation images 52b and 53b are displayed on the monitors 6 and 7.
  • the endoscope system 1 records the processed image in the image recording unit 48 provided in the control unit 32 of the processor 3.
  • the endoscope system 1 can prevent part of the images on both sides from being hidden at the boundary between the monitor 5 and the monitors 6 and 7.
  • the display portions are set as areas to be displayed one by one on the screens of the three monitors 5, 6, and 7.
  • FIG. 30 is a diagram showing five monitors on which subject images photographed by an endoscope are displayed
  • FIG. 31 is a perspective view showing a configuration of a distal end portion of a modified endoscope
  • FIG. 32 is a modified example
  • FIG. 33 is a diagram showing five monitors on which subject images photographed by an endoscope are displayed
  • FIG. 33 is a diagram showing one monitor on which subject images photographed by an endoscope of a modified example are displayed.
  • the endoscope system 1 includes monitors 5, 6, 7, and 8 that are five display devices that display an endoscopic image synthesized by a processor 3 (not shown). , 9.
  • the endoscope system 1 newly has two monitors 8 and 9 in the vertical direction with respect to the monitor 5 disposed in the center in addition to the configuration of the first embodiment.
  • These two monitors 8 and 9 display the upper and lower portions of the subject image acquired by each imaging unit 21, 22 and 23.
  • the central monitor 5 has an observation image 51a in the image area 51 of the front visual field and observation images 52a and 53a in the captured image areas 52 and 53 in the lateral visual fields. Is displayed.
  • the left and right monitors 6 and 7 are similar to the first embodiment, in the image regions 52 and 53 in the lateral visual field directions, the remaining observation images 52b excluding the observation images 52a and 53a. , 53b are displayed.
  • the upper and lower monitors 8 and 9 include the remaining observation images 51b and 51c in the vertical direction excluding the observation image 51a and the captured image regions 52 and 53 in the lateral views of the image area 51 of the front view. A part of the observation images 52c, 52d, 53c, 53d in the vertical direction excluding the observation images 52a, 52b, 53a, 53b is displayed.
  • the vertical direction in the image areas 51, 52, 53 can be displayed on the upper and lower monitors 8, 9, the captured image area 50 (see FIG. 3) is not required to be cut out in the vertical direction.
  • the control for deforming and synthesizing the observation image is the same as in the first embodiment.
  • the monitor 5 in the captured image area 50 as the subject image acquired by each of the imaging units 21, 22, and 23 is compared with the first embodiment.
  • the cut-out (masking) portions that are not used in the display areas 6 and 7 can be made as small as possible, and wide-angle observation images by the plurality of imaging units 21, 22, and 23 can be shown effectively.
  • the endoscope system 1 is provided with monitors 8 and 9 in addition to the center and left and right monitors 5, 6, 7, so that subjects displayed on these five monitors 5, 6, 7, 8, 9 are displayed.
  • monitors 8 and 9 in addition to the center and left and right monitors 5, 6, 7, so that subjects displayed on these five monitors 5, 6, 7, 8, 9 are displayed.
  • the appearance of the image becomes a three-dimensional impression, and the visibility can be improved.
  • Display / non-display can be switched by a hand operation using a switch provided in an operation section of the device, a foot operation using a foot switch, a manual operation using a medical assistant, or the like.
  • the two monitors 8 and 9 may be configured to be housed on the back side of the central monitor 5 or the left and right monitors 6 and 7 when they are not required.
  • the endoscope system 1 can change a desired display form by the user, and can improve the efficiency and accuracy of the endoscopic examination.
  • the three observation windows 13, 16, 17 and the three imaging units 21, 22, 23 are provided in the distal end portion 11 of the endoscope 2.
  • two observation windows 27 and 28 and two imaging units 29 and 30 may be provided.
  • a third side-view imaging unit 29 is disposed behind the observation window 27, and the fourth side is disposed behind the observation window 28.
  • An imaging unit 30 for a field of view is provided.
  • Each of these observation windows 29 and 30 is provided at the distal end portion 11 of the insertion portion 10, and the third subject image is viewed from a direction different from the front, which is the first direction, and the side, which is the second direction in the left-right direction.
  • the third image acquisition unit that acquires the image is configured.
  • the subject images in the front and up / down / left / right directions acquired by the five imaging units 21, 22, 23, 29, and 30 are displayed on the five monitors 5, 6, 7, 8, and 9, as shown in FIG. Is done.
  • the central monitor 5 includes the observation image 51a of the image area 51 of the front visual field and the observation images 52a and 53a of the captured image areas 52 and 53 of the first and second lateral visual fields. Is displayed.
  • the left and right monitors 6 and 7 display the remaining portions of the observation images 52b and 53b except for the observation images 52a and 53a among the image regions 52 and 53 in the first and second lateral viewing directions. .
  • the endoscope system 1 configured as described above can display an observation image having a wider angle in the vertical direction in addition to the effects described above.
  • the display portions are set as areas to be displayed one by one on the screens of the five monitors 5, 6, 7, 8, and 9, but as shown in FIG.
  • a plurality of, for example, five display portions are set on one screen of one monitor (38) by the processor 3, and the front view image, the side view image and the vertical view image are respectively displayed on the plurality of display portions.
  • a function of switching to operate in the operation mode may be provided.
  • the field-of-view image may be cut out in a round shape as shown in FIGS. 30 and 32, but as shown in the second and third modifications of the first embodiment, for example, in a square state May be displayed.
  • this selection can be switched by, for example, a switch provided in the operation unit of the endoscope 2 or a switch provided in the processor 3 (both not shown).
  • FIG. 35 is a perspective view of the distal end portion 11 of the insertion portion 10 to which a side observation unit is attached according to the fourth embodiment.
  • the distal end portion 11 of the insertion portion 10 includes a front side viewing unit 600.
  • the side view unit 500 has a structure that can be attached to and detached from the front view unit 600 by a clip portion 503.
  • the processor 3 or the like obtains an observation image as described in the above-described embodiment by turning on and off each illumination window 502 of the side visual field unit 500 according to the frame rate of the front visual field. Display can be made.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Astronomy & Astrophysics (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Endoscopes (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

 内視鏡システム1は、被検体内に挿入される挿入部10と、挿入部10に設けられ、被写体の第1の領域から第1の画像を取得する第1の画像取得部13と、挿入部10に設けられ、第1の領域と隣り合う領域を含む被写体の第2の領域から第2の画像を取得する第2の画像取得部16,17と、画像を表示するための表示部5,6,7に第1の表示領域とこれに隣接した第2の表示領域とをそれぞれ設定し、第1の画像を第1の表示領域に配置し第2の画像の一部を第1の表示領域内に第1の画像と隣接させて配置するとともに、第2の画像の残りの部分を第2の表示領域内に配置するように画像処理する画像処理部と、を有する。

Description

内視鏡システム
 本発明は、内視鏡システムに関し、特に、前方視野および側方視野の被写体像を取得する内視鏡システムに関する。
 従来、内視鏡が、医療分野及び工業分野において広く用いられている。内視鏡は、挿入部の先端側に照明手段及び観察手段を備え、被検体内に挿入されて被検体内の観察及び検査をすることができる。
 近年において、例えば日本国特表2013-544617号公報に開示されるように、挿入部の前方側を観察視野とする前方視野の他に、挿入部の側面側を観察視野とする側方視野を備えた2以上の方向を観察できるマルチカメラ内視鏡が提案されている。このようなマルチカメラ内視鏡を用いれば、検査者は、前方と側方の2方向の同時に観察することで広角視野による被検体内の観察が行える。
 しかしながら、従来のマルチカメラ内視鏡では、前方視野用の画面およびこの前方視野用の左右に設けられた側方視野用の画面の全てを同時に見ることが困難であるという課題があった。
 そのため、医師などのユーザは、病変を見落としたり、全ての画面を注意深く見ることにより疲労が増加したりする問題があった。
 さらに、従来のマルチカメラ内視鏡では、被検体の観察画像が丸く表示される場合が多く、1つの画面で観察可能な場合においても、画面が横長であるため、画面における使用していないスペースが増加してしまう。
 そこで、本発明は、上記事情に鑑みてなされたものであり、画面に表示される観察画像の無駄を軽減して効率よく表示でき、観察画像の視認性を向上することでユーザへの疲労を軽減する内視鏡システムを提供することを目的とする。
 本発明における一態様の内視鏡システムは、被検体内に挿入される挿入部と、前記挿入部に設けられ、被写体の第1の領域から第1の画像を取得する第1の画像取得部と、前記挿入部に設けられ、前記第1の領域と隣り合う領域を含む被写体の第2の領域から第2の画像を取得する第2の画像取得部と、画像を表示するための表示部に第1の表示領域とこれに隣接した第2の表示領域とをそれぞれ設定し、前記第1の画像を前記第1の表示領域に配置し前記第2の画像の一部を前記第1の表示領域内に前記第1の画像と隣接させて配置するとともに、前記第2の画像の残りの部分を前記第2の表示領域内に配置するように画像処理する画像処理部と、を有する。
 本発明によれば、画面に表示される観察画像の無駄を軽減して効率よく表示でき、観察画像の視認性を向上することでユーザへの疲労を軽減する内視鏡システムを提供できる。
第1の形態に関わる内視鏡システムの構成を示す構成図 同、3つの表示装置に観察画像を表示させるプロセッサの構成を示す概略図 同、撮像画像領域から切出す画像領域を説明する図 同、前方視野用の画像領域が変換される状態を説明するための図 同、第1の側方視野用の画像領域が変換される状態を説明するための図 同、第2の側方視野用の画像領域が変換される状態を説明するための図 同、画像処理の手順を説明する図 同、3つの表示装置に観察画像を表示した状態を示す図 同、1つの表示装置に観察画像を表示した状態を示す図 同、第1の変形例の表示装置に観察画像を表示させるプロセッサの構成を示す概略図 同、第1の変形例の画像処理の手順を説明する図 同、第1の変形例の3つの表示装置に観察画像を表示した状態を示す図 同、第1の変形例の1つの表示装置に観察画像を表示した状態を示す図 同、第2の変形例の表示装置に観察画像を表示させるプロセッサの構成を示す概略図 同、第2の変形例の画像処理の手順を説明する図 同、第2の変形例の3つの表示装置に観察画像を表示した状態を示す図 同、第2の変形例の1つの表示装置に観察画像を表示した状態を示す図 同、第3の変形例の表示装置に観察画像を表示させるプロセッサの構成を示す概略図 同、第3の変形例の画像処理の手順を説明する図 同、第3の変形例の3つの表示装置に観察画像を表示した状態を示す図 同、第3の変形例の1つの表示装置に観察画像を表示した状態を示す図 同、第4の変形例の表示装置に観察画像を表示させるプロセッサの構成を示す概略図 同、第4の変形例の画像処理の手順を説明する図 同、第4の変形例の3つの表示装置に観察画像を表示した状態を示す図 同、第4の変形例の1つの表示装置に観察画像を表示した状態を示す図 同、第5の変形例の表示装置に観察画像を表示させるプロセッサの構成を示す概略図 同、第5の変形例の画像処理の手順を説明する図 同、第5の変形例の3つの表示装置に観察画像を表示した状態を示す図 同、第5の変形例の1つの表示装置に観察画像を表示した状態を示す図 同、第2の実施の形態に関わる内視鏡により撮影された被検体像が表示された5つの表示装置を示す図 同、変形例の内視鏡の先端部の構成を示す斜視図 同、変形例の内視鏡により撮影された被検体像が表示された5つの表示装置を示す図 同、変形例の内視鏡により撮影された被検体像が表示された1つの表示装置を示す図 第3の実施の形態に関わる画像記録部および内視鏡画像が表示された表示装置を示す図 第4の実施の形態に関わる側方観察用のユニットが取り付けられた挿入部10の先端部11の斜視図
 以下、本発明である内視鏡装置について説明する。なお、以下の説明において、各実施の形態に基づく図面は、模式的なものであり、各部分の厚みと幅との関係、夫々の部分の厚みの比率などは現実のものとは異なることに留意すべきであり、図面の相互間においても互いの寸法の関係や比率が異なる部分が含まれている場合がある。
 なお、以下の構成説明における内視鏡は、生体の上部または下部の消化器官に挿入するため挿入部が可撓性のある所謂軟性鏡を例に挙げて説明するが、これに限定されることなく、外科用に用いられる挿入部が硬質な所謂硬性鏡にも適用できる技術である。
(第1の実施の形態)
 先ず、図面に基づいて本発明の一態様の内視鏡システムを説明する。 
 図1は、本実施の形態に関わる内視鏡システムの構成を示す構成図、図2は3つの表示装置に観察画像を表示させるプロセッサの構成を示す概略図、図3は撮像画像領域から切出す画像領域を説明する図、図4は前方視野用の画像領域が変換される状態を説明するための図、図5は第1の側方視野用の画像領域が変換される状態を説明するための図、図6は第2の側方視野用の画像領域が変換される状態を説明するための図、図7は画像処理の手順を説明する図、図8は3つの表示装置に観察画像を表示した状態を示す図、図9は1つの表示装置に観察画像を表示した状態を示す図である。
 図1に示す、内視鏡システム1は、内視鏡2と、プロセッサ3と、光源装置4と、ここでは3つの表示装置としてのモニタ5,6,7とを含んで構成されている。
 内視鏡2は、被検体の内部に挿入される可撓性を備えた挿入部10と、図示しない操作部とを有し、図示しない内視鏡ケーブルにより、プロセッサ3および光源装置4に接続されている。
 内視鏡2は、挿入部10の先端部11に前方視野用の照明窓(第1の照明部)12と観察窓(第1の画像取得部)13と、側方視野用の2つの照明窓(第2の照明部)14、15と2つの観察窓(第2の画像取得部)16、17が設けられている。
 すなわち、内視鏡2は、照明窓12の他に、ここでは2つの照明窓14,15を有し、観察窓13の他に、ここでは2つの観察窓16と17とを有している。
 照明窓14と観察窓16は、第1の側方視野用であり、照明窓15と観察窓17は、第2の側方視野用である。そして、複数の、ここでは2つの観察窓16,17は、挿入部10の周方向に略均一な角度で配置されている。
 なお、挿入部10の先端部11は、図示しない先端硬性部材を有し、照明窓12が、先端硬性部材の先端面に設けられ、2つの照明窓14,15は、先端硬性部材の側面に設けられている。
 先端部11内において、前方視野用の観察窓13の後ろ側には、前方視野用の撮像ユニット21が配設されている。また、先端部11内において、観察窓16の後ろ側には、第1の側方視野用の撮像ユニット22が配設され、観察窓17の後ろ側には、第2の側方視野用の撮像ユニット23が配設されている。
 撮像部である3つの撮像ユニット21,22,23の各々は、CCD、CMOSなどの撮像素子を有し、プロセッサ3と電気的に接続され、プロセッサ3により制御されて、撮像信号をプロセッサ3へ出力する。したがって、各撮像ユニット21,22,23は、画像(被写体像)を光電変換する撮像部を構成している。
 そして、観察窓13は、挿入部10の先端部11において、挿入部10が挿入される方向に配置され、観察窓16,17は、挿入部10の側面部において、挿入部10の外径方向に配置されている。
 即ち、観察窓13は、挿入部10の先端部11に設けられ、第1の領域である前方の領域から第1の画像である第1の被写体像を取得する第1の画像取得部を構成している。
 また、観察窓16,17のそれぞれは、挿入部10の先端部11に設けられ、前方とは異なるここでは左右方向の領域としての第2の領域である側方から第2の画像である第2の被写体像を取得する第2の画像取得部を構成している。
 換言すると、第1の画像である第1の被写体像が挿入部10の長手方向に略平行な挿入部前方を含む、第1の領域の被写体像となり、第2の画像である第2の被写体像が挿入部10の長手方向に略直交する挿入部側方を含む左右方向である第2の領域の被写体像となる。なお、第2の領域は、観察窓16,17の位置を挿入部10の中心軸回りに略90度回転させた位置に設けた上下方向の領域としてもよい。
 前方視野用の照明窓12の後ろ側には、前方視野用の照明用発光素子24が配設されている。また、照明窓14の後ろ側には、第1の側方視野用の照明用発光素子25が先端部11内に配設されている。そして、照明窓15の後ろ側には、第2の側方視野用の照明用発光素子26が先端部11内に配設されている。
 これら照明用発光素子(以下、照明用発光素子という)24,25,26は、例えば発光ダイオード(LED)である。 
 したがって、照明用発光素子24に対応する照明窓12は、前方に照明光を出射する照明部であり、照明用発光素子25,26の各々に対応する照明窓14,15は、側方に照明光を出射する照明部である。
 プロセッサ3は、測光部31と、制御部32と、が内蔵されている。制御部32は、3つの撮像ユニット21,22,23から出力された3つの撮像信号が撮像ケーブル21a,22a,23aを介して入力され、これら3つの撮像信号に基づいた3つの内視鏡画像を生成し合成して、3つのモニタ5,6,7へ出力する。
 光源装置4は、照明制御部33が内蔵されている。照明制御部33は、プロセッサ3の制御部32により制御される。
 照明制御部33は、照明用発光素子24,25,26の発光量とオン/オフを制御する回路であり、照明用発光素子24,25,26毎に、信号線24a,25a,26aを介して制御信号を出力する。さらに、照明制御部33は、制御部32からの調光信号に基づいて、各照明用発光素子24,25,26の光量を制御する。
 さらに、照明制御部33は、各照明用発光素子のオンとオフの発光タイミングを制御する。すなわち、照明制御部33は、互いに異なる所定のタイミングで、前方への照明光の出射と、側方への照明光の出射を制御する照明制御部を構成する。
 以上のように構成された内視鏡システム1は、内視鏡2の先端部11に設けられた各撮像ユニット21,22,23により取得された被写体像を合成して3つのモニタ5,6,7に表示する。
 このとき、3つのモニタ5,6,7には、画像生成部であるプロセッサ3の制御部32により生成された合成画像が表示される。
 詳述すると、図2に示すように、プロセッサ3の制御部32には、表示領域設定部35と、3つの切り出し部41,42,43と、3つの画像変換部44,45,46と、画像合成部47と、各種メモリなどの画像記録部48と、が設けられている。なお、画像記録部48は、プロセッサ3に着脱自在な構成としてもよい。
 3つの切り出し部41,42,43には、内視鏡2の先端部11に内蔵された3つの撮像ユニット21,22,23によって光電変換された撮像信号が測光部31および表示領域設定部35を介してそれぞれ入力される。
 具体的には、前方視野用の撮像ユニット21からの撮像信号が前方視野用の切り出し部41に入力され、第1の側方視野用の撮像ユニット22からの撮像信号が第1の側方視野用の切り出し部42に入力され、第2の側方視野用の撮像ユニット23からの撮像信号が第2の側方視野用の切り出し部43に入力される。
 即ち、内視鏡2の視野方向毎に3つの切り出し部41,42,43が制御部32内に設けられている。
 これら3つの切り出し部41,42,43は、図3に示すように、入力されたそれぞれの撮像信号に基づいた、ここでは略円形の撮像画像領域50から、それぞれが、ここでは四角形となる所定の画像領域51,52,53の画像情報のみを切り出した(マスキングした)撮像信号に変換する。
 そして、3つの切り出し部41,42,43は、設定された所定の画像領域51,52,53の画像情報のみを切り出した撮像信号を電気的に接続されている画像変換部44,45,46に出力する。
 これら3つの画像変換部44,45,46は、入力された撮像信号に基づいた画像を設定された形状に変換する。
 具体的には、前方視野用の画像変換部44は、図4に示すように、切り出した所定の画像領域51を円形にした後、ここでは上下をマスキングすることで両側部が凸曲状の円弧状となるよう歪ませる。
 このとき、画像変換部44は、画像領域51の上方の左右の角部UL,UR側および下方の左右の角部DLを内方(中央側)に歪ませると共に、画像領域51の上下方向の左右の中間部CL,CRを外方(中央側と反対側)に歪ませた画像形状の画像データに変換する。
 また、第1の側方視野用の画像変換部45は、図5に示すように、切り出した所定の画像領域52の左側が凸曲状および右側が凹曲状となるよう歪ませる。
 このとき、画像変換部45は、画像領域52の上方の左右の角部UL,UR側および下方の左右の角部DLを右側に歪ませると共に、画像領域51の上下方向の左右の中間部CL,CRを左側に歪ませた画像形状の画像データに変換する。
 具体的には、前方視野用の画像変換部44は、図4に示すように、切り出した所定の画像領域51を丸い形状の画像に変形し、例えばその後で上下をマスキングする等の調整を行うことで長円形、円形、樽形のような両側部が凸曲状の円弧状となるよう歪ませる。
 このとき、画像変換部46は、画像領域53の上方の左右の角部UL,UR側および下方の左右の角部DLを左側に変形すると共に、画像領域51の上下方向の左右の中間部CL,CRを右側に変形させた画像形状の画像データに変換する。
 なお、各画像変換部44,45,46は、変換した前方視野方向の画像領域51の左右の両側部の凸曲状と、変換した各側方視野方向の2つの画像領域52,53の左右一方の側部の凹曲状と、が一致するように各画像領域51,52,53を歪ませる。
 各画像変換部44,45,46は、変換した画像領域51,52,53の画像データを画像合成部47に出力する。
 そして、画像合成部47は、入力された画像領域51,52,53の3つの画像データを画像領域51の左右の両側部の凸曲状に画像領域52,53の凹曲状を一致させた1つの画像に合成する。
 このとき、画像合成部47は、前方視野である画像領域51を中央にして、この画像領域51と隣接するように、第1の側方視野用の画像領域52を画像領域51に対して左側とし、第2の側方視野用の画像領域52を画像領域51に対して右側として合成する。
 この合成された画像データは、画像合成部47から、予め指定された倍率に変換されて、画像出力部49により表示信号に変換されて3つのモニタ5,6,7に出力される。
 このとき、画像合成部47は、同時に画像領域51,52,53の3つの画像データを合成した合成画像データを画像記録部48に出力する。なお、画像記録部48は、入力された合成画像データを記録する。
 そして、中央に設置されたモニタ5の表示領域には、図2に示したように、中央に前方視野方向の画像領域51の観察画像が表示され、各側方視野方向の2つの画像領域52,53のうち、画像領域51に隣接した一部の観察画像52a,53aが表示される。
 即ち、モニタ5は、画像領域51の観察画像が表示される第1の表示領域と観察画像52a,53aが表示される第2の表示領域を有している。
 プロセッサ3の表示領域設定部35は、第1の表示領域、第2の表示領域をそれぞれ認識し、上記のように第1の表示領域に画像領域51の観察画像が、第2の表示領域に観察画像52a,53aがそれぞれ配置されるように表示する設定を行って観察画像を割り振る。
 このときの前方視野方向の画像領域51の観察画像と、各側方視野方向の2つの画像領域52,53のうち、第1の表示領域に表示される画像領域51と、この画像領域51に隣接した第2の表示領域に表示される一部の観察画像52a,53aの表示割合は、ユーザが任意に設定できるものである。
 また、モニタ5の左に設置されたモニタ6には、第1の側方視野方向の画像領域52のうち、観察画像52aを除いた残りの部分の観察画像52bが表示される。
 なお、モニタ5の右に設置されたモニタ7には、第2の側方視野方向の画像領域53のうち、観察画像53aを除いた残りの部分の観察画像53bが表示される。
 即ち、本実施の形態の内視鏡システム1は、図7に示すように、プロセッサ3の制御部32によって、3つの撮像画像領域50の丸い画像を3つの画像切り出し部41,42,43が四角に切り出す。
 そして、制御部32は、前方の画像領域51を画像変換部44が長円形、円形、樽形のような丸い形状に変換し、2つの側方の画像領域52,53を画像変換部45,46が凹状に変換して、画像合成部47が3つの画像領域51,52,53を合成する。
 こうして、内視鏡システム1は、図8に示すように、モニタ5の第1の表示領域に前方の画像領域51を表示すると共に、第2の表示領域に側方の画像領域52,53の一部の観察画像52a,53aを表示する。
 なお、側方の画像領域52,53の残りの観察画像52b,53bは、モニタ6,7に表示される。
 こうして、3つのモニタ5,6,7には、各表示領域に表示される側方画像の水平方向の寸法が、ほぼ正しく表示される。
 さらに、内視鏡システム1は、プロセッサ3の制御部32に設けられた画像記録部48に処理した画像を記録する。
 以上に説明したように、本実施の形態の内視鏡システム1では、中央に配置されるモニタ5にも前方視野方向の観察画像に加え、各側方視野方向の観察画像の一部が表示されて、無駄なく被検体像が表示される。
 そのため、内視鏡システム1は、前方視野の観察画像と各側方視野の観察画像を効率よく表示させることができると共に、被検体像の情報に連続性を感じることができるようになる。即ち、中央のモニタ5の中央から前方視野方向の観察画像と各側方視野方向の観察画像が左右に広がるような印象の画像となる。
 また、ユーザは、中央に配置されたモニタ5に集中していても、各側方視野の観察画像も表示されることで被検体像の側方の情報も入るため、従来に比して、病変の見落としが防止される。そして、ユーザは、特に側方の被検体像の情報を得るために、全てのモニタ5,6,7を注意深く見る必要が軽減されて疲労度が軽減される。
 以上の説明により、内視鏡システム1は、画面であるモニタ5,6,7に表示される観察画像の無駄を軽減して、観察画像の視認性を向上することでユーザへの疲労を軽減することができる。
 また、第1の領域(前方視野)とは異なる第2の領域(側方視野)とは、光軸が異なる方向を向いていることを指し、また、画像を切り出す際に大きく視野が失われないように、前方視野と側方視野の範囲は前方視野と側方視野の境界部分においてそれぞれ、一部が重なっていても、ほぼ隙間なく隣り合っていても、重なった範囲を持たず僅かな間隔で離れていてもよい。
 さらに、第1の被写体像と第2の被写体像とが隣接する部分に円滑に接続する境界処理等を行って違和感を低減する画像処理を併せて行ってもよい。
 なお、図9に示すように、3つのモニタ5,6,7それぞれの画面に表示部分を1つずつ表示する領域として設定したが、1つのモニタの1つの画面に複数、例えば3つの表示部分をプロセッサ3により設定し、その複数の表示部分にそれぞれ前方視野画像、側方視野画像を表示させる他の動作モードで動作するよう切り替える機能を有していてもよい。
(第1の変形例)
 図10は、第1の変形例の表示装置に観察画像を表示させるプロセッサの構成を示す概略図、図11は第1の変形例の画像処理の手順を説明する図、図12は第1の変形例の3つの表示装置に観察画像を表示した状態を示す図、図13は第1の変形例の1つの表示装置に観察画像を表示した状態を示す図である。
 本変形例の内視鏡システム1は、図10に示すように、プロセッサ3の制御部32に画像合成部47に変えて画像分割振り分け部36が設けられ、3つのモニタ5,6,7の他にさらにモニタ38が設けられている。
 このように構成された内視鏡システム1では、図11に示すように、3つの撮像画像領域50の丸い画像をプロセッサ3の制御部32の3つの画像切り出し部41,42,43によって四角に切り出す。
 そして、制御部32は、前方の画像領域51を画像変換部44が長円形、円形、樽形のような丸い形状に変換し、側方の2つの画像領域52,53を画像変換部45,46が凹状に変換する。
 その後、制御部32は、画像分割振り分け部36が側方の画像領域52,53の一部を分割して前方の画像領域51と共に表示できるように変換(なお、その部分だけ合成でもよい)する。
 こうして、内視鏡システム1は、図12に示すように、3つのモニタ5,6,7のうち、モニタ5の第1の表示領域に前方の画像領域51を表示すると共に、第2の表示領域に側方の画像領域52,53の一部の観察画像52a,53aを表示して、モニタ6,7に側方の残りの観察画像52b,53bを表示する。
 さらに、内視鏡システム1は、プロセッサ3の制御部32に設けられた画像記録部48に処理した画像を記録する。
 このような構成とすることで、内視鏡システム1は、モニタ5とモニタ6,7との境界で、両側方の画像の一部が隠れないようにすることができる。
 なお、図13に示すように、本変形例の内視鏡システム1においても、3つのモニタ5,6,7それぞれの画面に表示部分を1つずつ表示する領域として設定したが、1つのモニタ38の1つの画面に複数、例えば3つの表示部分をプロセッサ3により設定し、その複数の表示部分にそれぞれ前方視野画像、側方視野画像を表示させる他の動作モードで動作するよう切り替える機能を有していてもよい。
(第2の変形例)
 図14は、第2の変形例の表示装置に観察画像を表示させるプロセッサの構成を示す概略図、図15は第2の変形例の画像処理の手順を説明する図、図16は第2の変形例の3つの表示装置に観察画像を表示した状態を示す図、図17は第2の変形例の1つの表示装置に観察画像を表示した状態を示す図である。
 本変形例の内視鏡システム1は、図14に示すように、プロセッサ3の制御部32に画像変換部44,45,46が設けられておらず、3つのモニタ5,6,7の他にさらにモニタ38が設けられている。
 このように構成された本変形例の内視鏡システム1では、図15に示すように、3つの撮像画像領域50の丸い画像をプロセッサ3の制御部32の3つの画像切り出し部41,42,43によって四角に切り出す。
 そして、制御部32は、切り出された四角い前方および側方の3つの画像領域52,53を画像合成部47によって合成して、図16に示すように、3つのモニタ5,6,7のうち、モニタ5の第1の表示領域に前方の画像領域51を表示すると共に、第2の表示領域に側方の画像領域52,53の一部の観察画像52a,53aを表示して、モニタ6,7に側方の残りの観察画像52b,53bを表示する。
 さらに、内視鏡システム1は、ここでもプロセッサ3の制御部32に設けられた画像記録部48に処理した画像を記録する。
 このような構成とすることで、内視鏡システム1は、各表示領域に表示される側方画像の水平方向の寸法をほぼ正しく表示することができる。
 なお、図17に示すように、本変形例の内視鏡システム1においても、3つのモニタ5,6,7それぞれの画面に表示部分を1つずつ表示する領域として設定したが、1つのモニタ38の1つの画面に複数、例えば3つの表示部分をプロセッサ3により設定し、その複数の表示部分にそれぞれ前方視野画像、側方視野画像を表示させる他の動作モードで動作するよう切り替える機能を有していてもよい。
(第3の変形例)
 図18は、第3の変形例の表示装置に観察画像を表示させるプロセッサの構成を示す概略図、図19は第3の変形例の画像処理の手順を説明する図、図20は第3の変形例の3つの表示装置に観察画像を表示した状態を示す図、図21は第3の変形例の1つの表示装置に観察画像を表示した状態を示す図である。
 本変形例の内視鏡システム1は、図18に示すように、プロセッサ3の制御部32に画像変換部44,45,46が設けられておらず、さらに画像合成部47に変えて画像分割振り分け部36が設けられ、3つのモニタ5,6,7の他にさらにモニタ38が設けられている。
 このように構成された本変形例の内視鏡システム1では、図19に示すように、3つの撮像画像領域50の丸い画像をプロセッサ3の制御部32の3つの画像切り出し部41,42,43によって四角に切り出す。
 そして、制御部32は、画像分割振り分け部36が側方の画像領域52,53の一部を分割して前方の画像領域51と共に表示できるように変換(なお、その部分だけ合成でもよい)する。
 こうして、内視鏡システム1は、図20に示すように、3つのモニタ5,6,7のうち、モニタ5の第1の表示領域に前方の画像領域51を表示すると共に、第2の表示領域に側方の画像領域52,53の一部の観察画像52a,53aを表示して、モニタ6,7に側方の残りの観察画像52b,53bを表示する。
 さらに、内視鏡システム1は、ここでもプロセッサ3の制御部32に設けられた画像記録部48に処理した画像を記録する。
 このような構成とすることで、内視鏡システム1は、モニタ5とモニタ6,7との境界で、両側方の画像の一部が隠れないようにすることができる。
 なお、図21に示すように、本変形例の内視鏡システム1においても、3つのモニタ5,6,7それぞれの画面に表示部分を1つずつ表示する領域として設定したが、1つのモニタ38の1つの画面に複数、例えば3つの表示部分をプロセッサ3により設定し、その複数の表示部分にそれぞれ前方視野画像、側方視野画像を表示させる他の動作モードで動作するよう切り替える機能を有していてもよい。
(第4の変形例)
 図22は、第4の変形例の表示装置に観察画像を表示させるプロセッサの構成を示す概略図、図23は第4の変形例の画像処理の手順を説明する図、図24は第4の変形例の3つの表示装置に観察画像を表示した状態を示す図、図25は第4の変形例の1つの表示装置に観察画像を表示した状態を示す図である。
 本変形例の内視鏡システム1は、図22に示すように、プロセッサ3の制御部32に画像変換部45,46が2つだけ設けられており、3つのモニタ5,6,7の他にさらにモニタ38が設けられている。
 このように構成された本変形例の内視鏡システム1では、図23に示すように、プロセッサ3の制御部32によって、3つの撮像画像領域50の丸い画像から画像切り出し部41が前方の画像を長円形、円形、樽形のような丸い形状に切り出し、画像切り出し部42,43が側方の2つの画像を四角に切り出す。
 そして、制御部32は、前方の画像領域51を変換することなく、2つの側方の画像領域52,53を画像変換部45,46が凹状に変換して、画像合成部47が3つの画像領域51,52,53を合成する。
 こうして、内視鏡システム1は、図24に示すように、モニタ5の第1の表示領域に前方の画像領域51を表示すると共に、第2の表示領域に側方の画像領域52,53の一部の観察画像52a,53aを表示する。
 なお、側方の画像領域52,53の残りの観察画像52b,53bは、モニタ6,7に表示される。
 さらに、内視鏡システム1は、プロセッサ3の制御部32に設けられた画像記録部48に処理した画像を記録する。
 このような構成とすることで、内視鏡システム1は、3つのモニタ5,6,7の各表示領域に表示される側方画像の水平方向の寸法が、ほぼ正しく表示される。
 なお、図25に示すように、本変形例の内視鏡システム1においても、3つのモニタ5,6,7それぞれの画面に表示部分を1つずつ表示する領域として設定したが、1つのモニタ38の1つの画面に複数、例えば3つの表示部分をプロセッサ3により設定し、その複数の表示部分にそれぞれ前方視野画像、側方視野画像を表示させる他の動作モードで動作するよう切り替える機能を有していてもよい。
(第5の変形例)
 図26は、第5の変形例の表示装置に観察画像を表示させるプロセッサの構成を示す概略図、図27は第5の変形例の画像処理の手順を説明する図、図28は第5の変形例の3つの表示装置に観察画像を表示した状態を示す図、図29は第5の変形例の1つの表示装置に観察画像を表示した状態を示す図である。
 本変形例の内視鏡システム1は、図26に示すように、プロセッサ3の制御部32に画像変換部45,46が2つだけ設けられており、さらに画像合成部47に変えて画像分割振り分け部36が設けられ、3つのモニタ5,6,7の他にさらにモニタ38が設けられている。
 このように構成された本変形例の内視鏡システム1では、図27に示すように、プロセッサ3の制御部32によって、3つの撮像画像領域50の丸い画像から画像切り出し部41が前方の画像を長円形、円形、樽形のような丸い形状に切り出し、画像切り出し部42,43が側方の2つの画像を四角に切り出す。
 そして、制御部32は、側方の2つの画像領域52,53のみを画像変換部45,46が凹状に変換する。
 その後、制御部32は、画像分割振り分け部36が側方の画像領域52,53の一部を分割して前方の画像領域51と共に表示できるように変換(なお、その部分だけ合成でもよい)する。
 こうして、内視鏡システム1は、図28に示すように、3つのモニタ5,6,7のうち、モニタ5の第1の表示領域に前方の画像領域51を表示すると共に、第2の表示領域に側方の画像領域52,53の一部の観察画像52a,53aを表示して、モニタ6,7に側方の残りの観察画像52b,53bを表示する。
 さらに、内視鏡システム1は、プロセッサ3の制御部32に設けられた画像記録部48に処理した画像を記録する。
 このような構成とすることで、内視鏡システム1は、モニタ5とモニタ6,7との境界で、両側方の画像の一部が隠れないようにすることができる。
 なお、図29に示すように、本変形例の内視鏡システム1においても、3つのモニタ5,6,7それぞれの画面に表示部分を1つずつ表示する領域として設定したが、1つのモニタ38の1つの画面に複数、例えば3つの表示部分をプロセッサ3により設定し、その複数の表示部分にそれぞれ前方視野画像、側方視野画像を表示させる他の動作モードで動作するよう切り替える機能を有していてもよい。
(第2の実施の形態)
 次に、本発明の第2の実施の形態の内視鏡システムについて、図面に基づいて、以下に説明する。なお、以下の説明において、上述した第1の実施の形態に記載した同一の構成要素について、同じ符号を用いて、それら構成要素の詳細な説明を省略する。
 図30は、内視鏡により撮影された被検体像が表示された5つのモニタを示す図、図31は変形例の内視鏡の先端部の構成を示す斜視図、図32は変形例の内視鏡により撮影された被検体像が表示された5つのモニタを示す図、図33は変形例の内視鏡により撮影された被検体像が表示された1つのモニタを示す図である。
 本実施の形態の内視鏡システム1は、図30に示すように、ここでは図示しないプロセッサ3によって合成された内視鏡画像を表示する5つの表示装置であるモニタ5,6,7,8,9を有している。
 即ち、内視鏡システム1は、第1の実施の形態の構成に加え、中央に配置されるモニタ5に対して上下方向に新たに2つのモニタ8,9を有している。
 これら2つのモニタ8,9には、各撮像ユニット21,22,23により取得された被写体像の上下部分が表示される。
 具体的に、中央のモニタ5には、第1の実施の形態と同様に、前方視野の画像領域51の観察画像51aおよび各側方視野の撮像画像領域52,53の観察画像52a,53aが表示される。
 また、左右のモニタ6,7には、第1の実施の形態と同様に、各側方視野方向の画像領域52,53のうち、観察画像52a,53aを除いた残りの部分の観察画像52b,53bが表示される。
 そして、上下のモニタ8,9には、前方視野の画像領域51のうち、観察画像51aを除いた上下方向の残りの観察画像51b,51cおよび各側方視野の撮像画像領域52,53のうち、観察画像52a,52b,53a,53bを除いた上下方向の一部の観察画像52c,52d,53c,53dが表示される。
 ここでは、画像領域51,52,53における上下方向が上下のモニタ8,9に表示できるため、プロセッサ3の制御部32に設けられる3つの切り出し部41,42,43による撮像画像領域50(図3参照)の上下方向に切り出しが必要なくなる。なお、観察画像を変形させて合成などする制御については、第1の実施の形態と同じである。
 このように構成された内視鏡システム1では、各撮像ユニット21,22,23により取得された被写体像としての撮像画像領域50のうち、第1の実施の形態に比して、モニタ5,6,7の表示領域では使用しない切り出し(マスキング)部分を極力小さくすることができ、複数の撮像ユニット21,22,23による広角観察画像を有効に見せることができる。
 さらに、内視鏡システム1は、中央および左右のモニタ5,6,7に加え上下にモニタ8,9を設けることで、これら5つのモニタ5,6,7,8,9に表示される被写体像の見た目が立体的な印象となり視認性を向上させることができる。
 なお、これら上下に配設される2つのモニタ8,9は、常に表示されていると、ユーザの視界に入ってくる情報量が多くなり、ユーザへの負担が増加するため、内視鏡2の操作部などに設けられるスイッチによる手元操作、フットスイッチによる足元操作、医療アシスタントによる手動操作などによって表示/非表示を切り替えることができるようになっている。
 さらに、2つのモニタ8,9は、それら自体を必要としない場合、中央のモニタ5または左右のモニタ6,7の背面側などに収納できるような構成としてもよい。
 これにより、内視鏡システム1は、ユーザにより所望の表示形態を変更できるようになり、内視鏡検査の効率および精度を向上させることができる。
(変形例)
 なお、上述では、内視鏡2の先端部11に3つの観察窓13,16,17および3つの撮像ユニット21,22,23を設けた構成としたが、図31に示すように、先端部11にさらに2つの観察窓27,28および2つの撮像ユニット29,30を設けてもよい。
 なお、挿入部10の先端部11内において、観察窓27の後ろ側には、第3の側方視野用の撮像ユニット29が配設され、観察窓28の後ろ側には、第4の側方視野用の撮像ユニット30が配設されている。
 これら観察窓29,30のそれぞれは、挿入部10の先端部11に設けられ、第1の方向である前方および左右方向の第2の方向である側方とは異なる方向から第3の被写体像を取得する第3の画像取得部を構成している。
 換言すると、上述したように、第1の被写体像が挿入部10の長手方向に略平行な挿入部前方を含む、第1の方向の被写体像となり、第2の被写体像が挿入部10の長手方向に略直交する挿入部側方を含む左右方向の第2の方向の被写体像となり、第3の被写体像が挿入部10の長手方向に略直交すると共に、第2の方向にも略直交する上下方向の第3の方向の被写体像となる。
 そして、これら5つの撮像ユニット21,22,23,29,30により取得された前方および上下左右方向の被写体像は、図32に示すように5つのモニタ5,6,7,8,9に表示される。
 具体的に、中央のモニタ5には、上述したように、前方視野の画像領域51の観察画像51aおよび第1,第2の側方視野の撮像画像領域52,53の観察画像52a,53aが表示される。
 そして、左右のモニタ6,7には第1,第2の側方視野方向の画像領域52,53のうち、観察画像52a,53aを除いた残りの部分の観察画像52b,53bが表示される。
 ここでの上下のモニタ8,9には、前方視野の画像領域51のうち、観察画像51aを除いた上下方向の残りの観察画像51b,51cおよび第3,第4の側方視野方向の画像領域54,55が表示される。
 このように構成された内視鏡システム1は、上述した効果に加え、上下方向により広角な観察画像を表示することができる。
 なお、図30、図32に示すように、5つのモニタ5,6,7,8,9それぞれの画面に表示部分を1つずつ表示する領域として設定したが、図33に示すように、1つのモニタ(38)の1つの画面に複数、例えば5つの表示部分をプロセッサ3により設定し、その複数の表示部分にそれぞれ前方視野画像、側方視野画像と上下方向の視野画像を表示させる他の動作モードで動作するよう切り替える機能を有していてもよい。
 その際の視野画像の切り出し方は、図30、図32のように丸い形状に切り出してもよいが、第1の実施の形態の第2、第3の変形例に記載のように例えば四角い状態で表示させてもよい。
(第3の実施の形態)
 次に、本発明の第3の実施の形態の内視鏡システムについて、図面に基づいて、以下に説明する。なお、以下の説明において、上述した第1,第2の実施の形態に記載した同一の構成要素について、同じ符号を用いて、それら構成要素の詳細な説明を省略する。さらに、以下に説明する構成は、第1,第2の実施の形態と組み合わせることができるものである。
 図34は、画像記録部および内視鏡画像が表示された表示装置を示す図である。 
 ここでの内視鏡システム1は、図34に示すように、プロセッサ3の制御部32に設けられる画像記録部48へのファイリング時に、前方の画像領域51と各側方の画像領域52,53を1つの画像としたファイリング形式で保存するか、前方の画像領域51と各側方の画像領域52,53の撮影時間を同期させた状態で個別に分けたファイリング形式で複数の記録モードで保存するかをユーザが選択できるように構成されている。
 なお、この選択の切り替えは、例えば、内視鏡2の操作部に設けられたスイッチ、プロセッサ3に設けられたスイッチなどで行うことができる(いずれも不図示)。
 このような構成により、内視鏡システム1は、ユーザの好みに合わせた記録モードに設定することで、それに対応したファイリング形式で観察画像を記録することができるため、各画像領域51,52,53における観察画像の検索、表示などを効率的に行うことができる。その結果、ユーザは、観察画像の見直し、レポートなどの作成が行い易くなる。
(第4の実施の形態)
 上述した各実施の形態および各変形例において、側方を照明および観察する機能を実現する機構は、前方を照明および観察する機能を実現する機構と共に、挿入部10に内蔵されているが、挿入部10に対して着脱自在な別体としてもよい。
 なお、図35は、第4の実施の形態に関わる、側方観察用のユニットが取り付けられた挿入部10の先端部11の斜視図である。
 挿入部10の先端部11は、前方側視用ユニット600を有している。側方視野用ユニット500は、前方視野用ユニット600に対してクリップ部503によって着脱自在な構成を有している。
 側方視野用ユニット500は、左右方向の画像を取得するための2つの観察窓501と、左右方向を照明する2つの照明窓502と、を有している。
 プロセッサ3等は、側方視野用ユニット500の各照明窓502の点灯と消灯を、前方視野のフレームレートに合わせて行うようにして、上述した実施の形態に示したような観察画像の取得と表示を行うことができる。
 以上のように、上述した各実施の形態および変形例によれば、広角な視野を有する内視鏡の視野方向の変更時に、迅速に観察可能な内視鏡システムを提供することができる。
 上述の実施の形態に記載した発明は、その実施の形態および変形例に限ることなく、その他、実施段階ではその要旨を逸脱しない範囲で種々の変形を実施し得ることが可能である。さらに、上記実施の形態には、種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組合せにより種々の発明が抽出され得るものである。
 例えば、実施の形態に示される全構成要件から幾つかの構成要件が削除されても、述べられている課題が解決でき、述べられている効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得るものである。
 本出願は、2014年11月18日に日本国に出願された特願2014-233871号を優先権主張の基礎として出願するものであり、上記の内容は、本願明細書、請求の範囲、および図面に引用されたものである。

Claims (13)

  1.  被検体内に挿入される挿入部と、
     前記挿入部に設けられ、被写体の第1の領域から第1の画像を取得する第1の画像取得部と、
     前記挿入部に設けられ、前記第1の領域と隣り合う領域を含む被写体の第2の領域から第2の画像を取得する第2の画像取得部と、
     画像を表示するための表示部に第1の表示領域とこれに隣接した第2の表示領域とをそれぞれ設定し、前記第1の画像を前記第1の表示領域に配置し前記第2の画像の一部を前記第1の表示領域内に前記第1の画像と隣接させて配置するとともに、前記第2の画像の残りの部分を前記第2の表示領域内に配置するように画像処理する画像処理部と、
     を有することを特徴とする内視鏡システム。
  2.  前記第1の画像と前記第2の画像とを表示信号にそれぞれ変換し、前記表示部に対して前記表示信号を出力する画像出力部を有していることを特徴とする請求項1に記載の内視鏡システム。
  3.  前記画像出力部は、
     隣り合った異なる複数の表示部を前記第1の表示領域及び前記第2の表示領域としてそれぞれ割り当てて前記第1の画像と前記第2の画像とを前記複数の表示部に表示する複数表示モードと、
     一つの表示部内の同一の画面に前記第1の表示領域と前記第2の表示領域とを隣り合わせて設定して、前記第1の画像と前記第2の画像とを表示する単一表示モードと、
     のうちいずれかをそれぞれ切り替えて前記表示信号を出力することを特徴とする請求項2に記載の内視鏡システム。
  4.  前記画像出力部から表示信号が入力されて、前記第1の画像と前記第2の画像とを表示する少なくとも一つの表示装置を備えていることを特徴とする請求項3に記載の内視鏡システム。
  5.  前記画像処理部は、前記第1の表示領域に隣接するように前記第2の表示領域における前記第2の画像の残りの部分を配置することを特徴とする請求項1に記載の内視鏡システム。
  6.  前記画像処理部は、二つの前記第2の画像におけるそれぞれの一部を前記第1の画像の両隣にそれぞれ隣接するように合成することを特徴とする請求項1に記載の内視鏡システム。
  7.  前記第1の画像取得部は、前記第1の画像を光電変換する第1の撮像部を備え、
     前記第2の画像取得部は、前記第2の画像を光電変換する前記第1の撮像部とは異なる第2の撮像部を備えていることを特徴とする請求項1に記載の内視鏡システム。
  8.  前記第1の領域は、前記挿入部の長手方向に沿った挿入部前方を含む領域で、前記第1の画像は、前記第1の画像取得部によって取得された前記第1の領域の画像であり、
     前記第2の領域は、前記挿入部の長手方向に直交する挿入部側方を含む領域で、前記第2の画像は、前記第2の画像取得部によって取得された前記第2の領域の画像であることを特徴とすることを特徴とする請求項1に記載の内視鏡システム。
  9.  前記第1の被写体像および前記第2の被写体像のうち少なくともいずれかを所定の形状に変換する画像変換部を備えることを特徴とする請求項1に記載の内視鏡システム。
  10.  前記画像変換部は、前記第1の被写体像の側端部が凸曲状になっている形状に変換し、前記第2の被写体像の一方の側端部を前記第1の被写体像の前記凸曲状と一致する凹曲状に歪んだ形状に変換することを特徴とする請求項9に記載の内視鏡システム。
  11.  前記第1の被写体像および前記第2の被写体像を1つの画像に合成する画像合成部を備えることを特徴とする請求項1に記載の内視鏡システム。
  12.  前記第1の被写体像および前記第2の被写体像を記録する画像記録部を有していることを特徴とする請求項1に記載の内視鏡システム。
  13.  前記第1の画像および前記第2の画像を1つに合成して一つのファイリング形式で前記画像記録部に保存する第1のモードと、
     前記第1の画像および前記第2の画像を個別に分けた複数のファイリング形式で前記画像記録部に保存する第2のモードと、
     一つのファイリング形式に合成した前記第1の画像および前記第2の画像と、複数のファイリング形式として分けた前記第1の画像および前記第2の画像とを、同時に前記画像記録部に保存する第3のモードと、
     を選択的に切り替えるスイッチを備えたことを特徴とする請求項12に記載の内視鏡システム。
PCT/JP2015/079181 2014-11-18 2015-10-15 内視鏡システム WO2016080118A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016538115A JP6064091B2 (ja) 2014-11-18 2015-10-15 内視鏡システム
US15/485,352 US20170215693A1 (en) 2014-11-18 2017-04-12 Endoscope system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014233871 2014-11-18
JP2014-233871 2014-11-18

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/485,352 Continuation US20170215693A1 (en) 2014-11-18 2017-04-12 Endoscope system

Publications (1)

Publication Number Publication Date
WO2016080118A1 true WO2016080118A1 (ja) 2016-05-26

Family

ID=56013676

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/079181 WO2016080118A1 (ja) 2014-11-18 2015-10-15 内視鏡システム

Country Status (3)

Country Link
US (1) US20170215693A1 (ja)
JP (1) JP6064091B2 (ja)
WO (1) WO2016080118A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022131016A1 (ja) * 2020-12-16 2022-06-23 ソニーグループ株式会社 内視鏡システム、画像処理装置、及び、画像処理方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0357441A (ja) * 1989-07-27 1991-03-12 Olympus Optical Co Ltd 超音波内視鏡
JP2000325307A (ja) * 1991-03-11 2000-11-28 Olympus Optical Co Ltd 撮像装置、撮像信号の重なり検出装置及び内視鏡システム
JP2002042109A (ja) * 2000-07-21 2002-02-08 Topcon Corp 医用画像合成処理装置及び方法並びに記憶媒体
JP2011131023A (ja) * 2009-12-25 2011-07-07 Olympus Corp 内視鏡画像処理装置、内視鏡画像表示システムおよび内視鏡画像処理方法
JP2014524303A (ja) * 2011-08-18 2014-09-22 エンドチョイス イノベーション センター リミテッド 多重観察要素内視鏡

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5937212A (en) * 1996-11-15 1999-08-10 Canon Kabushiki Kaisha Image pickup apparatus
JP4146938B2 (ja) * 1998-09-08 2008-09-10 オリンパス株式会社 パノラマ画像合成装置及びパノラマ画像合成プログラムを格納した記録媒体
JP5315482B1 (ja) * 2011-10-27 2013-10-16 オリンパスメディカルシステムズ株式会社 内視鏡システム
TWI513275B (zh) * 2012-07-17 2015-12-11 Univ Nat Chiao Tung 攝影裝置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0357441A (ja) * 1989-07-27 1991-03-12 Olympus Optical Co Ltd 超音波内視鏡
JP2000325307A (ja) * 1991-03-11 2000-11-28 Olympus Optical Co Ltd 撮像装置、撮像信号の重なり検出装置及び内視鏡システム
JP2002042109A (ja) * 2000-07-21 2002-02-08 Topcon Corp 医用画像合成処理装置及び方法並びに記憶媒体
JP2011131023A (ja) * 2009-12-25 2011-07-07 Olympus Corp 内視鏡画像処理装置、内視鏡画像表示システムおよび内視鏡画像処理方法
JP2014524303A (ja) * 2011-08-18 2014-09-22 エンドチョイス イノベーション センター リミテッド 多重観察要素内視鏡

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022131016A1 (ja) * 2020-12-16 2022-06-23 ソニーグループ株式会社 内視鏡システム、画像処理装置、及び、画像処理方法

Also Published As

Publication number Publication date
US20170215693A1 (en) 2017-08-03
JPWO2016080118A1 (ja) 2017-04-27
JP6064091B2 (ja) 2017-01-18

Similar Documents

Publication Publication Date Title
US11490795B2 (en) Dynamic field of view endoscope
JP7049302B2 (ja) 手術システムの作動方法
US9662042B2 (en) Endoscope system for presenting three-dimensional model image with insertion form image and image pickup image
CA2549567C (en) Endoscope system and endoscope
KR100847406B1 (ko) 내시경 및 내시경 시스템
JP5942044B2 (ja) 内視鏡システム
JP5977912B1 (ja) 内視鏡システム及び内視鏡ビデオプロセッサ
JP2015180449A (ja) 内視鏡システム
WO2016072237A1 (ja) 内視鏡システム
JP2011152202A (ja) 画像取得装置、観察装置、および観察システム
KR20190109406A (ko) 영상 신호 처리 장치, 영상 신호 처리 방법, 및 다이나믹 레인지 압축용 프로그램
JPWO2018221041A1 (ja) 医療用観察システム及び医療用観察装置
US10918265B2 (en) Image processing apparatus for endoscope and endoscope system
CN110945399A (zh) 信号处理设备、成像设备、信号处理方法和程序
JP6064091B2 (ja) 内視鏡システム
JP2005258062A (ja) 内視鏡システム、及び内視鏡装置
WO2020008920A1 (ja) 医療用観察システム、医療用観察装置、及び医療用観察装置の駆動方法
JP2006136743A (ja) 内視鏡システム、及び内視鏡装置
JP7163913B2 (ja) 医療用システム及び制御ユニット
JP6072373B2 (ja) 内視鏡システム
JP2007160123A (ja) 内視鏡及び内視鏡システム
WO2016084522A1 (ja) 内視鏡システム
JP5970741B2 (ja) 内視鏡手術用システム
JP2003210390A (ja) 内視鏡装置
WO2017126156A1 (ja) 内視鏡システム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2016538115

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15860833

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15860833

Country of ref document: EP

Kind code of ref document: A1