WO2016072237A1 - 内視鏡システム - Google Patents

内視鏡システム Download PDF

Info

Publication number
WO2016072237A1
WO2016072237A1 PCT/JP2015/079174 JP2015079174W WO2016072237A1 WO 2016072237 A1 WO2016072237 A1 WO 2016072237A1 JP 2015079174 W JP2015079174 W JP 2015079174W WO 2016072237 A1 WO2016072237 A1 WO 2016072237A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
detection target
display
endoscope system
Prior art date
Application number
PCT/JP2015/079174
Other languages
English (en)
French (fr)
Inventor
達也 小原
本田 一樹
幹生 猪股
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2016530037A priority Critical patent/JP6001219B1/ja
Publication of WO2016072237A1 publication Critical patent/WO2016072237A1/ja
Priority to US15/367,656 priority patent/US20170085762A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/00048Constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • A61B1/0004Operational features of endoscopes provided with input arrangements for the user for electronic operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00174Optical arrangements characterised by the viewing angles
    • A61B1/00181Optical arrangements characterised by the viewing angles for multiple fixed viewing angles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0615Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for radial illumination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0625Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for multiple fixed illumination angles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2423Optical details of the distal end
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2461Illumination
    • G02B23/2469Illumination using optical fibres
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/26Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes using light guides
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Definitions

  • the present invention relates to an endoscope system, and more particularly to an endoscope system that irradiates illumination light in at least two directions and acquires subject images from at least two directions.
  • the endoscope includes an illuminating unit and an observing unit at the distal end side of the insertion portion, and can be inserted into the subject to observe and inspect the subject.
  • endoscopes having a wide-angle visual field capable of observing two or more directions have been proposed.
  • Japanese Unexamined Patent Publication No. 2011-152202 and Japanese Unexamined Patent Publication No. 2012-245157 In addition to the front field of view that uses the front side as the observation field, an endoscopic device that has a side field of view that uses the side of the insertion section as the observation field of view and displays both the front field image and the side field image on the monitor is proposed. Has been. If such an endoscope apparatus is used, the operator or the examiner can simultaneously observe the two directions of the front and the side.
  • an object of the present invention is to provide an endoscope system that can reduce the burden on the operator when observing an endoscopic image with a wide-angle visual field.
  • An endoscope system includes an insertion unit that is inserted into a subject, a first image acquisition unit that is provided in the insertion unit and acquires a main image from a first region, A second image acquisition unit which is provided in the insertion unit and acquires a sub-image from a second region including a region different from the first region; and target detection which detects a set detection target from the sub-image And a first image signal based on the main image and a second image signal based on the sub-image, and when the detection target is detected by the target detection unit, the first image signal An image processing unit for outputting the second image signal.
  • FIG. 1 It is a figure which shows the example of a display of three images by the display part 4A which has the one display apparatus in connection with the modification 3 of the 1st Embodiment of this invention. It is a perspective view of the front-end
  • FIG. 1 is a configuration diagram illustrating a configuration of an endoscope system according to the present embodiment.
  • the endoscope system 1 includes an endoscope 2, a processor 3, and a display unit 4.
  • the endoscope 2 has an insertion section 6 inserted into the subject and an operation section (not shown), and is connected to the processor 3 by a cable (not shown).
  • the distal end portion 6a of the insertion portion 6 of the endoscope 2 is provided with an illumination window 7 and an observation window 8 for front vision, two illumination windows 7a and 7b for side vision, and two observation windows 8a and 8b. It has been.
  • the endoscope 2 has two illumination windows 7 a and 7 b in addition to the illumination window 7, and two observation windows 8 a and 8 b in addition to the observation window 8.
  • the illumination window 7a and the observation window 8a are for the first side field
  • the illumination window 7b and the observation window 8b are for the second side field.
  • a plurality of, here, two observation windows 8 a and 8 b are arranged at substantially equal angles in the circumferential direction of the insertion portion 6.
  • the distal end portion 6a of the insertion portion 6 has a distal end rigid member (not shown), the illumination window 7 is provided on the distal end surface of the distal end rigid member, and the illumination windows 7a and 7b are provided on the side surfaces of the distal end rigid member. .
  • a first side-view imaging unit 11a is disposed in the distal end portion 6a behind the observation window 8a, and a second side-view imaging unit 11b is located behind the observation window 8b. Is disposed in the distal end portion 6a.
  • An imaging unit 11c for the front visual field is disposed behind the observation window 8 for the front visual field.
  • Each of the three image pickup units 11a, 11b, and 11c which are image pickup units, has an image pickup device, is electrically connected to the processor 3, and is controlled by the processor 3 to output an image pickup signal to the processor 3.
  • Each of the imaging units 11a, 11b, and 11c is an imaging unit that photoelectrically converts an image (subject image).
  • the observation window 8 is disposed at the distal end portion 6a of the insertion portion 6 in the direction in which the insertion portion 6 is inserted, and the observation windows 8a and 8b are disposed on the side surface portion of the insertion portion 6 outside the insertion portion 6. They are arranged in the radial direction.
  • the observation window 8 is provided in the insertion unit 6 and constitutes a first image acquisition unit that acquires an image of the first subject from the front in the first direction
  • each of the observation windows 8a and 8b includes A second image acquisition unit that is provided in the insertion unit 6 and acquires a second subject image from a side that is a second direction different from the front is configured.
  • the image of the first subject is a subject image of the first region including the front of the insertion portion that is substantially parallel to the longitudinal direction of the insertion portion 6, and the image of the second subject is the longitudinal length of the insertion portion 6. It is a to-be-photographed object image of a 2nd area
  • the imaging unit 11c is an imaging unit that photoelectrically converts an image from the observation window 8, and the imaging units 11a and 11b are respectively different, that is, separate imaging units that photoelectrically convert two images from the observation windows 8a and 8b. It is.
  • a first side-view illumination light emitting element 12a is disposed in the distal end portion 6a, and on the rear side of the illumination window 7b is a second side-view illumination.
  • the light emitting element 12b is disposed in the tip 6a.
  • a light emitting element 12c for illumination for the front visual field is disposed.
  • Light emitting elements for illumination (hereinafter referred to as light emitting elements) 12a, 12b, and 12c are, for example, light emitting diodes (LEDs). Therefore, the illumination window 7 corresponding to the light emitting element 12c is an illumination unit that emits illumination light forward, and the illumination windows 7a and 7b corresponding to the light emitting elements 12a and 12b emit illumination light to the sides. It is an illumination part.
  • the processor 3 includes a control unit 21, an image processing unit 22, an imaging unit driving unit 23, an illumination control unit 24, and an image recording unit 25.
  • the control unit 21 includes a central processing unit (CPU), ROM, RAM, and the like, and controls the entire endoscope apparatus.
  • the image processing unit 22 generates image signals of three endoscopic images from the three images obtained based on the three imaging signals from the three imaging units 11a, 11b, and 11c under the control of the control unit 21. These image signals are converted into display signals and output to the display unit 4. Further, the image processing unit 22 performs image processing, setting processing, and the like under the control of the control unit 21.
  • the imaging unit drive unit 23 is connected to the imaging units 11a, 11b, and 11c by signal lines (not shown).
  • the imaging unit driving unit 23 drives the imaging units 11a, 11b, and 11c under the control of the control unit 21.
  • the driven imaging units 11a, 11b, and 11c generate imaging signals, respectively, and supply them to the image processing unit 22.
  • the illumination control unit 24 is connected to the light emitting elements 12a, 12b, and 12c through signal lines (not shown).
  • the illumination control unit 24 is a circuit that controls the light emitting elements 12a, 12b, and 12c under the control of the control unit 21, and performs on / off control for each light emitting element. Further, the illumination control unit 24 controls the light amount of each light emitting element based on the dimming signal from the control unit 21.
  • the image recording unit 25 is a recording unit that records three endoscopic images generated by the image processing unit 22 under the control of the control unit 21, and includes a nonvolatile memory such as a hard disk device.
  • the display unit 4 includes three display devices 4a, 4b, and 4c.
  • An image signal of an image to be displayed is supplied from the processor 3 to each display device 4a, 4b, 4c.
  • a front view image is displayed on the screen of the display device 4a, a first side view image is displayed on the screen of the display device 4b, and a second side view image is displayed on the screen of the display device 4c. Is displayed.
  • the processor 3 is provided with various operation buttons (not shown), a mouse, and the like, and an operator who is a user (hereinafter referred to as a user) gives instructions for executing various functions, for example, setting of an observation mode, internal viewing, etc.
  • a user an operator who is a user (hereinafter referred to as a user) gives instructions for executing various functions, for example, setting of an observation mode, internal viewing, etc.
  • An instruction to record a mirror image and display a detection target setting screen described later can be given to the processor 3.
  • FIG. 2 is a block diagram showing a configuration of the image processing unit 22.
  • the image processing unit 22 includes an image generation unit 31, a detection target setting unit 32, a feature amount calculation unit 33, and an image display determination unit 34. Three image pickup signals from the three image pickup units 11a, 11b, and 11c are input to the image processing unit 22.
  • the image generation unit 31 generates an image signal based on the imaging signals from the imaging units 11a, 11b, and 11c, and outputs the generated image signals to the feature amount calculation unit 33 and the image display determination unit 34.
  • the detection target setting unit 32 is a processing unit that sets a detection target to be detected by image processing in the first side field image and the second side field image obtained by imaging with the imaging units 11a and 11b.
  • the detection target is a lesion, a treatment tool, a lumen, bleeding, or the like.
  • FIG. 3 is a diagram illustrating an example of a detection target setting screen 41 for setting a detection target set in the detection target setting unit 32.
  • the detection target setting screen 41 shown in FIG. 3 is displayed on the screen of any display device of the display unit 4, for example, when the user operates a predetermined operation button of the processor 3. The user can set the detection target using the displayed detection target setting screen 41.
  • a detection target setting screen 41 that is a graphical user interface (GUI) includes a detection target specifying unit 42 that specifies a detection target, an index display setting unit 43 that specifies index display, and an OK button that is a button for instructing the completion of the setting. 44.
  • GUI graphical user interface
  • the detection target designating unit 42 includes a detection target name display unit 42a indicating a detection target and a plurality of check box groups 42b.
  • the user can designate a desired detection target by putting a check mark in the check box 42b corresponding to the target to be detected using the mouse of the processor 3 or the like.
  • the detection target setting unit 32 When the detection target is set, the detection target setting unit 32 outputs information on the set detection target to the image display determination unit 34, and should detect one or more set detection targets set in advance. Information on the feature amount is output to the feature amount calculation unit 33 and instructed.
  • the index display setting unit 43 includes an index character display unit 43a for displaying index display characters, and a check box 43b for index display instruction.
  • the check box 43b is used to specify whether or not to display an index indicating the position of the detection target. By placing a check mark in the check box 43b, the set detection target is detected. Then, an index indicating the position of the detected detection target is displayed. That is, the index display setting unit 43 is a setting unit that sets whether to display an index on the display unit 4.
  • the feature amount calculation unit 33 calculates the feature amount to be detected instructed from the detection target setting unit 32 for each lateral view image signal, and uses the calculated feature amount information as the image display determination unit. 34.
  • the feature amount calculation unit 33 can calculate a plurality of feature amounts, calculates the specified feature amount, and outputs the calculated feature amount to the image display determination unit 34.
  • the feature amount calculation unit 33 can detect a predetermined color tone, luminance, spatial frequency, presence / absence of an edge, etc., calculates the feature amount designated by the detection target setting unit 32, and calculates the feature amount information Is output to the image display determination unit 34.
  • the detection of the predetermined color tone is color tone detection for detecting whether or not there is a pixel with strong redness.
  • the predetermined luminance detection is luminance detection for detecting whether or not there is a lumen region, that is, luminance detection for detecting the presence or absence of dark pixels.
  • the detection of the predetermined spatial frequency is spatial frequency detection for detecting the presence or absence of a pixel region having a predetermined spatial frequency in order to detect whether or not there is a lesion.
  • the detection of the presence / absence of an edge is edge detection for detecting the presence / absence of a pixel region of an edge for detecting the presence / absence of an image of the treatment instrument.
  • the feature amount calculation unit 33 outputs information about the detection result of the pixel or pixel region having the specified feature amount to the image display determination unit 34.
  • the image display determination unit 34 inputs the three image signals from the image generation unit 31, and outputs the front view image to the display device 4 a of the display unit 4.
  • the image display determination unit 34 displays one or both of the two side field images in the display unit 4 based on the feature amount information for each image from the feature amount calculation unit 33. It is determined whether or not to display, and one or both of the two side field images are output to the display unit 4 based on the determination result.
  • the image display determination unit 34 determines whether or not the feature amount calculated by the feature amount calculation unit 33 satisfies a predetermined condition for the detection target specified by the detection target setting unit 32. Based on the determination result, it is determined whether or not to output a display signal for displaying both or one of the two side field images generated by the image generation unit 31 on the display unit 4.
  • the detection target setting unit 32 outputs information indicating that the detection target is a lesion to the image display determination unit 34, and the feature amount to be detected is a predetermined space.
  • Information indicating the frequency is output to the feature amount calculation unit 33.
  • the image display determination unit 34 stores determination criterion information such as threshold information for each detection target in advance. Therefore, when the detection target is a lesion, the image display determination unit 34 determines the presence / absence of a lesion based on whether the size of a pixel region having a predetermined spatial frequency is equal to or greater than a predetermined threshold TH1.
  • the detection target setting unit 32 When a treatment tool is specified as a detection target, the detection target setting unit 32 outputs information indicating that the detection target is a treatment tool to the image display determination unit 34, and a feature amount to be detected is predetermined. Is output to the feature amount calculation unit 33.
  • the treatment tool is metal, has a glossy surface, and has a completely different color and brightness from the biological tissue. Therefore, if there is an image of the treatment tool in the image, an edge is detected in the image. Therefore, when the detection target is a treatment tool, the image display determination unit 34 determines the presence / absence of the treatment tool based on whether the pixel region of the predetermined edge is equal to or greater than the predetermined threshold value TH2. As a result, for example, when the treatment instrument comes out of the treatment instrument channel, an image of the treatment instrument is displayed on the display unit 4.
  • the lumen portion is a dark region in the image. Therefore, depending on whether or not a pixel region whose luminance is equal to or lower than the threshold value TH3 is equal to or higher than a predetermined threshold value TH4. Cavity detection is performed.
  • the detection of bleeding is performed depending on whether or not the red pixel region is equal to or greater than a predetermined threshold value TH5.
  • a predetermined threshold value TH5 the luminance, spatial frequency, color, and edge feature values of the pixel or pixel region are used, but other feature values may be used. Therefore, the feature amount calculation unit 33 and the image display determination unit 34 constitute a target detection unit that detects the set detection target in each lateral view image by image processing.
  • the image display determination unit 34 When the set detection target is detected, the image display determination unit 34 outputs an image signal of a side field image including the detection target to the display unit 4. That is, the image generation unit 31 and the image display determination unit 34 generate an image signal of a front visual field image and an image signal of two side field images, and the feature amount calculation unit 33 and the image display determination unit 34 have detection targets. If detected, the image signal of the front visual field image and the image signal of the side visual field image from which the detection target is detected are converted into display signals and output to the display unit 4. As a result, the front visual field image is displayed on the display device 4a of the display unit 4, and the side visual field image from which the detection target is detected is displayed on the display device 4b or 4c.
  • the image recording unit 25 is a processing unit that records an endoscopic image under examination. When the examination is started, the image recording unit 25 is determined by the image display determination unit 34 and displayed on the display unit 4. In addition to recording the above images, the three images generated by the image generation unit 31, that is, the front visual field image and the first and second side visual field images are also recorded.
  • three images generated by the image generation unit 31 are used. Since the image is also recorded in the image recording unit 25, all the images under examination can be reproduced and viewed after the examination, thereby preventing the occurrence of oversight of lesions and the like.
  • the image recording unit 25 may record either one or two or more images displayed on the display unit 4 and all images generated by the image generation unit 31.
  • FIG. 4 is a diagram illustrating a display state of the three display devices 4a, 4b, and 4c of the display unit 4 in a predetermined mode.
  • the user sets the endoscope system 1 to a predetermined mode, first, only the front view image is displayed on the display device 4a, and the first side view image and the second side view image are hatched in FIG. As shown, it is not displayed on the display devices 4b and 4c.
  • the user performs an examination by inserting the insertion portion into the large intestine, and the lumen L is displayed in the front visual field image.
  • the image processing unit 22 detects the presence / absence of a detection target in the first side field image and the second side field image when outputting only the image signal of the front field image.
  • the image processing unit 22 outputs only the image signal of the front field image.
  • the image processing unit 22 uses the first side visual field image and the second side visual field image. The presence or absence of a detection target is detected.
  • the side view image including the detected detection target is Display on the corresponding display device.
  • FIG. 5 is a diagram illustrating a display state of the display unit 4 when a lesioned part PA is detected in the first lateral field image.
  • the detection target setting unit 32 for example, as shown in FIG. 3, when a lesion is detected when “lesion”, “lumen”, and “bleeding” are set as detection targets, the lesion PA is included. A side view image is displayed on the display unit 4.
  • FIG. 5 shows that the first lateral field-of-view image is displayed on the display device 4b where nothing has been displayed. Further, as shown in FIG. 3, since the index display is also set, the index M as an arrow mark is displayed in the vicinity of the detected lesioned part PA.
  • the image processing unit 22 displays the index M indicating the position of the detection target in the side view image on the corresponding display device 4b or 4c of the display unit 4 when outputting the image signal of the side view image. To output index information.
  • the user performs an intraluminal examination while advancing the distal end portion 6a of the insertion portion 6 in the insertion direction or the removal direction.
  • a front visual field image is displayed on the display device 4a of the display unit 4, and the front visual field image is displayed.
  • a detection target set such as a lesion is detected by image processing
  • a side field image including the detection target is displayed on the corresponding display device 4b or 4c of the display unit 4.
  • the set detection target is not detected, only the front visual field image can be viewed, that is, the inspection can be performed by focusing only on the front visual field image. There are few, and inspection can be advanced promptly.
  • the side field image including the detected detection object is displayed on the display unit 4.
  • the image processing unit 22 is displayed on the display unit 4 so that the front view image is arranged at the center and the two side view images sandwich the front view image.
  • the image signal of the front field image and the image signal of the two side field images are output.
  • An image signal of the side view image is output so that only the side view image is displayed.
  • the user can also see one or two side field images, so that the lesion can be confirmed by looking at the newly displayed side field image. it can. Only when the set detection target is detected, the user only has to carefully look at two or three images, so that the entire inspection can be performed quickly with less burden.
  • an image of the first subject from the front which is the first direction is obtained during operation of the endoscope system 1. Since it is required to observe almost always, it is defined as a main image which is an image to be mainly displayed.
  • the second subject image from the side in the second direction (second subject image, side field image) must always be displayed mainly on the main image. Since it is not limited, it is defined as a sub-image.
  • the side view image is defined as the main image
  • the front view image is defined as the sub image
  • the processing according to the first embodiment is performed. You may make it perform.
  • the region (first direction) for acquiring the main image is a region including the front of the insertion portion substantially parallel to the longitudinal direction of the insertion portion or a region including the side of the insertion portion substantially orthogonal to the longitudinal direction of the insertion portion.
  • the region (second direction) for acquiring the sub-image may be the other of the front side of the insertion portion or the side of the insertion portion.
  • FIG. 6 is a diagram illustrating another example of the display state of the display unit 4 when the lesioned part PA is detected in the first side field-of-view image related to the first modification.
  • the display unit 4 of FIG. 6 when the lesioned part PA is detected in the first lateral field image, not only the first lateral field image in which the lesioned part PA is detected but also the lesioned part PA is detected. A second side field image is also displayed.
  • the luminance of the side field image not including the detection target is detected so that the side field image including the detection target and the side field image not including the detection target can be easily identified. You may make it display lower than the brightness
  • FIG. 7 is a diagram illustrating another example of the display state of the display unit 4 when the lesioned part PA is detected in the first lateral field-of-view image related to the second modification.
  • the display unit 4 in FIG. 7 shows the region where the lesioned part PA is detected in the first lateral field image in which the lesioned part PA is detected. Only half of the area is displayed.
  • the image display determination unit 34 of the image processing unit 22 converts an image signal for displaying a part of the first lateral field image in which the lesioned part PA is detected into a display signal and outputs the display signal to the display device 4b. .
  • a region HA other than the image region including the detection target is provided so that the user can quickly view the detection target in the side field image including the detection target. Is not displayed.
  • the brightness of the area HA other than the image area including the detection target may be displayed lower than the brightness of the image area including the detection target.
  • the display unit 4 includes three display devices. However, three images may be displayed on one display device.
  • FIG. 8 is a diagram illustrating a display example of three images by the display unit 4A having one display device related to the modification example 3.
  • the display unit 4A includes one display device, and three images, that is, the front field images 4aA and 2 corresponding to the front field image 4a in FIG. 4 and the two side field images 4bA and 4cA, respectively. Two side field images 4bA and 4cA are displayed on one screen of the display device.
  • FIG. 8 three endoscopic images can be displayed in the display form as described above.
  • Modification 4 the mechanism for realizing the function of illuminating and observing the side is incorporated in the insertion unit 6 together with the mechanism for illuminating and observing the front.
  • the mechanism that realizes the function of illuminating and observing the image may be a separate body that is detachable from the insertion portion 6.
  • FIG. 9 is a perspective view of the distal end portion 6a of the insertion portion 6 to which a side observation unit is attached.
  • the distal end portion 6 a of the insertion portion 6 has a front vision unit 600.
  • the side view unit 500 has a structure that is detachable from the front view unit 600.
  • the side view unit 500 includes two observation windows 501 for acquiring an image in the left-right direction and two illumination windows 502 for illuminating the left-right direction.
  • the processor 3 or the like obtains an observation image as described in the above-described embodiment by turning on and off each illumination window 502 of the side visual field unit 500 according to the frame rate of the front visual field. Display can be made.
  • an endoscope system that can reduce the burden on the operator when observing an endoscope image with a wide-angle visual field. .
  • the distal end portion 6a of the insertion portion 6 of the endoscope according to the first embodiment incorporates two or more image sensors in order to acquire subject images from at least two directions.
  • One imaging element is incorporated in the distal end portion 6a of the insertion portion 6 of the endoscope in order to acquire subject images from at least two directions.
  • FIG. 10 is a configuration diagram showing the configuration of the endoscope system according to the present embodiment. Since the endoscope system 1A according to the present embodiment has substantially the same configuration as the endoscope system 1 according to the first embodiment, the same components as those in the endoscope system 1 are denoted by the same reference numerals. A description will be omitted and different configurations will be described.
  • the front end portion 6a of the insertion portion 6 of the endoscope 2A is provided with an illumination window 7 and an observation window 8 for front visual field, and two illumination windows 7a and 7b and an observation window 10 for side visual field.
  • the observation window 10 that is an image acquisition unit is disposed closer to the proximal end side of the insertion unit 6 than the observation window 8 that is an image acquisition unit.
  • a light guide 51 made of an optical fiber bundle is used for illumination instead of the light emitting element. Illumination light for the three illumination windows 7, 7 a, 7 b is incident on the base end portion of the light guide 51.
  • the front end portion of the light guide 51 is divided into three equal parts and arranged behind the three illumination windows 7, 7a, 7b.
  • FIG. 11 is a cross-sectional view of the distal end portion 6 a of the insertion portion 6.
  • FIG. 11 shows a cross section in which the front end portion 6a is cut so that cross sections of the side view illumination window 7a, the front illumination illumination window 7, and the front view observation window 8 can be seen. Yes.
  • a part of the tip surface of the light guide 51 is disposed behind the illumination window 7.
  • An observation window 8 is provided on the distal end surface of the distal end rigid member 61.
  • An objective optical system 13 is disposed behind the observation window 8.
  • An imaging unit 14 is disposed behind the objective optical system 13.
  • a cover 61 a is attached to the distal end portion of the distal end rigid member 61. Further, the insertion portion 6 is covered with an outer skin 61b.
  • the front illumination light is emitted from the illumination window 7, and the reflected light from the subject that is the observation site in the subject enters the observation window 8.
  • Two illumination windows 7a and 7b are disposed on the side surface of the distal end rigid member 61. Behind each illumination window 7a and 7b, one of the light guides 51 is provided via a mirror 15 having a curved reflecting surface. The tip surface of the part is disposed.
  • the illumination window 7 and the plurality of illumination windows 7a and 7b are used as a second region different from the first region and the first illumination light in the front region as the first region in the subject.
  • region of this is comprised.
  • the second area different from the first area refers to an area of the field of view in which the optical axes are directed in different directions.
  • the first area (first subject image) and the second area (second (The subject image) of the first illumination light may or may not overlap, and the irradiation range of the first illumination light and the irradiation range of the second illumination light may partially overlap. Also good.
  • the observation window 10 is disposed on the side surface of the distal end rigid member 61, and the objective optical system 13 is disposed on the rear side of the observation window 10.
  • the objective optical system 13 is configured to direct the reflected light from the front passing through the observation window 8 and the reflected light from the side passing through the observation window 10 to the imaging unit 14.
  • the objective optical system 13 has two optical members 17 and 18.
  • the optical member 17 is a lens having a convex surface 17 a
  • the optical member 18 has a reflective surface 18 a that reflects light from the convex surface 17 a of the optical member 17 toward the imaging unit 14 via the optical member 17.
  • the observation window 8 is provided in the insertion unit 6 and constitutes a first image acquisition unit that acquires an image of the first subject from the front, which is the first region, and the observation window 10 is provided in the insertion unit 6.
  • a second image acquisition unit is provided that acquires an image of the second subject from the side, which is a second region different from the front.
  • the image from the front area which is the first area
  • the image from the side area is a subject image of the second area including the side of the insertion section 6 substantially orthogonal to the longitudinal direction of the insertion section 6, and the observation window 8 includes the front of the insertion section 6.
  • the front image acquisition unit acquires a subject image of the first area
  • the observation window 10 is a side image acquisition unit that acquires a subject image of the second area including the side of the insertion unit 6.
  • the observation window 8 that is an image acquisition unit is arranged at the distal end portion 6 a of the insertion unit 6 in the direction in which the insertion unit 6 is inserted, and the observation window 10 that is an image acquisition unit is a side surface of the insertion unit 6. It is arrange
  • the imaging unit 14 that is an imaging unit is disposed so as to photoelectrically convert the subject image from the observation window 8 and the subject image from the observation window 10 on the same imaging plane, and is electrically connected to the processor 3 having the image processing unit 22. It is connected to the.
  • the observation window 8 is arranged at the distal end in the longitudinal direction of the insertion portion 6 so as to acquire the first subject image from the direction in which the insertion portion 6 is inserted, and the observation window 10 is in the second direction.
  • the imaging unit 14 electrically connected to the processor 3 photoelectrically converts the first subject image and the second subject image on one imaging surface, and supplies the imaging signal to the processor 3.
  • the imaging element 14a of the imaging unit 14 photoelectrically converts the optical image of the subject and outputs an imaging signal to the processor 3A.
  • the imaging signal from the imaging unit 14 is supplied to the processor 3 ⁇ / b> A which is an image generation unit, and an endoscopic image is generated.
  • the processor 3A converts an endoscope image signal, which is an observation image, into a display signal and outputs the display signal to the display unit 4B.
  • the processor 3A includes a control unit 21A, an image processing unit 22A, an imaging unit driving unit 23A, an illumination control unit 24A, and an image recording unit 25.
  • FIG. 12 is a block diagram illustrating a configuration of the image processing unit 22A.
  • the image processing unit 22A includes an image generation unit 31A, a detection target setting unit 32, a feature amount calculation unit 33A, and an image display determination unit 34A. An imaging signal from the imaging unit 14 is input to the image processing unit 22A.
  • the image generation unit 31A has the same function as the image generation unit 31 described above, generates an image signal based on the imaging signal from the imaging unit 14, and uses the generated image signal as the feature amount calculation unit 33A and the image display determination. To the unit 34A.
  • the detection target setting unit 32 has the same configuration as that of the first embodiment, and image processing is performed in the side view image obtained by imaging by the imaging unit 14 using the setting screen as shown in FIG. It is a process part which sets the detection target detected by this.
  • the feature amount calculation unit 33A calculates the feature amount to be detected instructed from the detection target setting unit 32 with respect to the side visual field image signal, and uses the calculated feature amount information as the image display determination unit 34A. Output to.
  • the feature amount calculation unit 33A has the same function as the feature amount calculation unit 33 described above, calculates the feature amount designated from the detection target setting unit 32 in the side view image, and calculates the calculated feature amount. Information is output to the image display determination unit 34A.
  • the image display determination unit 34A has the same function as the image display determination unit 34 described above, receives an image from the image generation unit 31A, converts the front view image into a display signal, and displays the display unit of the display unit 4 Always output to 4B.
  • 34 A of image display determination parts determine whether a side view image is displayed in the display part 4B based on the feature-value information about the image from the feature-value calculation part 33A about a side view image, and the determination result Based on the above, the side view image is converted into a display signal and output to the display unit 4B.
  • 34 A of image display determination parts will display a side view image on the display part 4B, if the set detection target is detected.
  • the image display determination unit 34A displays the side view image together with the front view image on the display unit 4B.
  • the image display determination unit 34A does not display the side view image but enlarges and displays the front view image. This is displayed on the part 4B.
  • the operation of the image recording unit 25 is the same as in the first embodiment.
  • FIG. 13 is a diagram illustrating an example of an endoscopic image display screen displayed on the display unit 4B according to the present embodiment.
  • a display image 81 that is an endoscopic image displayed on the screen of the display unit 4 is a substantially rectangular image, and includes two regions 82 and 83.
  • the central circular area 82 is an area for displaying the front visual field image
  • the C-shaped area 83 around the central area 82 is an area for displaying the side visual field image.
  • FIG. 13 shows a state when both the front view image and the side view image are displayed, and the image processing unit 22A displays the side view image around the front view image on the display unit 4B.
  • An image signal of a front view image and an image signal of a side view image are output.
  • the front visual field image is displayed on the screen of the display unit 4 so as to be substantially circular
  • the side visual field image is displayed on the screen so as to be substantially circular surrounding at least part of the periphery of the front visual field image. Is displayed. Therefore, a wide-angle endoscopic image is displayed on the display unit 4.
  • the endoscopic image shown in FIG. 13 is generated from the acquired image acquired by the image sensor 14a.
  • the front visual field image and the side visual field image are generated by being cut out from the image obtained by the imaging element 14a.
  • the display image 81 corresponds to the area 82 except for the area 84 that is blacked out as a mask area by photoelectrically converting the subject image projected on the imaging surface of the imaging element 14a by the optical system shown in FIG. It is generated by synthesizing the center front view image area and the side view image area corresponding to the area 83.
  • FIG. 14 is a diagram illustrating a display state of the display unit 4B in a predetermined mode.
  • a region 82 is cut out from an image obtained by imaging with the imaging device 14a and is enlarged and displayed on the display unit 4B, and a side view image is displayed. Not. For example, if the user inserts an insertion portion into the large intestine and performs an examination, the lumen L is displayed in the front visual field image.
  • the side visual field image including the detected detection target is displayed on the display unit 4B.
  • FIG. 15 is a diagram illustrating a display state of the display unit 4B when a lesioned part PA is detected in the side view image.
  • the detection target setting unit 32 as shown in FIG. 3, “lesion”, “lumen”, and “bleeding” are set as detection targets, and index display is also set.
  • index display is also set.
  • a side view image including the lesioned part PA is displayed on the display unit 4 together with the index M.
  • the front view image is not enlarged as in FIG.
  • the user performs an intraluminal examination while advancing the distal end portion of the insertion portion in the insertion direction or the removal direction.
  • the front visual field image is displayed on the display unit 4B, and only the front visual field image is observed.
  • a detection target such as a lesion is detected by image processing
  • a side view image including the detection target is displayed on the display unit 4B.
  • the examination can be performed by focusing only on the front view image. There is no need to view both images, and the examination can be carried out quickly with less burden.
  • the side field image including the detected object is displayed on the display unit 4B.
  • the user can also see the side view image, so that the lesion can be confirmed by looking at the newly displayed side view image. Only when the set detection target is detected, the user only has to carefully look at the side visual field image. Therefore, the entire inspection can be performed quickly with less burden.
  • FIG. 16 is a diagram illustrating an example of a display state of the display unit 4B when the lesioned part PA is detected in the lateral visual field image related to the modification example 2.
  • the display unit 4B in FIG. 16 has a half region including the region in which the lesioned part PA is detected in the side field image in which the lesioned part PA is detected. Only displayed.
  • the area HA other than the image area including the detection target is displayed in order to allow the user to quickly view the detection target in the side view image including the detection target.
  • the brightness of the area HA other than the image area including the detection target may be displayed lower than the brightness of the image area including the detection target.
  • an endoscope system that can reduce the burden on an operator when observing an endoscope image with a wide-angle visual field is provided. be able to. As a result, oversight of a site to be observed such as a lesion can be prevented.
  • an index is displayed in the vicinity of the detection target.
  • the display of the index may be set for each detection target. That is, an index may be displayed when a lesion is detected, and may not be displayed when a treatment tool is detected.
  • the side view image when the detection target is not detected, the side view image is not displayed.
  • the side view image when the detection target is not detected, the side view image is subjected to a gray mask or the like. Thus, the side view image may be displayed darkly.
  • the image processing units 22 and 22A reduce the luminance of the side field image so that the front field image can be distinguished from the side field image. You may make it output the image signal of an image, and the image signal of a side view image.
  • the detection target is detected based on the side image (sub-image, second image) of the image signal generated based on the imaging signal generated from the imaging unit.
  • the detection target may be directly detected from the imaging signals relating to the side (second region) generated from.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

 内視鏡システム1は、挿入部6と、挿入部6に設けられ、前方視野画像を取得する観察窓8と、挿入部6に設けられ、側方視野画像を取得する観察窓8a、8bと、 画像処理部22を有する。画像処理部22は、側方視野画像において、設定された検出対象を検出し、前方視野画像の画像信号と側方視野画像の画像信号を生成すると共に、検出対象が検出された場合、前方視野画像の画像信号と側方視野画像の画像信号を出力する。

Description

内視鏡システム
 本発明は、内視鏡システムに関し、特に、少なくとも2方向に照明光を照射し、その少なくとも2方向からの被写体像を取得する内視鏡システムに関する。
 従来、内視鏡が、医療分野及び工業分野において広く用いられている。内視鏡は、挿入部の先端側に照明手段及び観察手段を備え、被検体内に挿入されて被検体内の観察及び検査をすることができる。
 近年、2以上の方向を観察できる広角の視野を有する内視鏡が提案されており、例えば日本特開2011-152202号公報や日本特開2012-245157号公報に開示のように、挿入部の前方側を観察視野とする前方視野の他に、挿入部の側面側を観察視野とする側方視野を備え、前方視野画像と側方視野画像の両方をモニタに表示する内視鏡装置が提案されている。このような内視鏡装置を用いれば、術者あるいは検査者は、前方と側方の2方向を同時に観察することができる。
 しかし、前方視野と側方視野の両方画像がモニタに表示されるため、術者あるいは検査者は、従来に比べて広い範囲に渡って注視しなければならず、注意力を長い時間維持しなければならず、術者などの負担が大きい。 
 術者は、表示されている両方の画像を同様の注意力で注視するため、検査に掛かる時間も長くなってしまうという問題もある。
 そこで、本発明は、広角視野の内視鏡画像を観察するときの術者の負担を軽減することができる内視鏡システムを提供することを目的とする。
 本発明の一態様の内視鏡システムは、被検体の内部に挿入される挿入部と、前記挿入部に設けられ、第1の領域から主画像を取得する第1の画像取得部と、前記挿入部に設けられ、前記第1の領域とは異なる領域を含む第2の領域から副画像を取得する第2の画像取得部と、前記副画像から、設定された検出対象を検出する対象検出部と、前記主画像に基づく第1の画像信号と前記副画像に基づく第2の画像信号を生成すると共に、前記対象検出部において前記検出対象が検出された場合、前記第1の画像信号と前記第2の画像信号を出力する画像処理部と、を有する。
本発明の第1の実施の形態に関わる内視鏡システムの構成を示す構成図である。 本発明の第1の実施の形態に関わる画像処理部22の構成を示すブロック図である。 本発明の第1の実施の形態に関わる、検出対象設定部32において設定される検出対象を設定する検出対象設定画面41の例を示す図である。 本発明の第1の実施の形態に関わる、所定のモード時における、表示部4の3つの表示装置4a、4b、4cの表示状態を示す図である。 本発明の第1の実施の形態に関わる、第1側方視野画像中に病変部PAが検出されたときの表示部4の表示状態を示す図である。 本発明の第1の実施の形態の変形例1に関わる、第1側方視野画像中に病変部PAが検出されたときの表示部4の表示状態の他の例を示す図である。 本発明の第1の実施の形態の変形例2に関わる、第1側方視野画像中に病変部PAが検出されたときの表示部4の表示状態の他の例を示す図である。 本発明の第1の実施の形態の変形例3に関わる、1つの表示装置を有する表示部4Aによる3つの画像の表示例を示す図である。 本発明の第1の実施の形態の変形例4に関わる、側方観察用のユニットが取り付けられた挿入部6の先端部6aの斜視図である。 本発明の第2の実施の形態に関わる内視鏡システムの構成を示す構成図である。 本発明の第2の実施の形態に関わる挿入部6の先端部6aの断面図である。 本発明の第2の実施の形態に関わる画像処理部22Aの構成を示すブロック図である。 本発明の第2の実施の形態に関わる、表示部4Aに表示される内視鏡画像の表示画面の例を示す図である。 本発明の第2の実施の形態に関わる、所定のモード時における、表示部4Aの表示状態を示す図である。 本発明の第2の実施の形態に関わる、側方視野画像中に病変部PAが検出されたときの表示部4Aの表示状態を示す図である。 本発明の第2の実施の形態の変形例2に関わる、側方視野画像中に病変部PAが検出されたときの表示部4Aの表示状態の例を示す図である。
 以下、図面を参照して本発明の実施の形態を説明する。
(第1の実施の形態)
(構成)
 図1は、本実施の形態に関わる内視鏡システムの構成を示す構成図である。内視鏡システム1は、内視鏡2と、プロセッサ3と、表示部4とを含んで構成されている。
 内視鏡2は、被検体の内部に挿入される挿入部6と、図示しない操作部とを有し、図示しないケーブルにより、プロセッサ3に接続されている。内視鏡2の挿入部6の先端部6aには、前方視野用の照明窓7と観察窓8と、側方視野用の2つの照明窓7a、7bと2つの観察窓8a、8bが設けられている。
 すなわち、内視鏡2は、照明窓7の他に、2つの照明窓7aと7bを有し、観察窓8の他に、2つの観察窓8aと8bとを有する。照明窓7aと観察窓8aは、第1の側方視野用であり、照明窓7bと観察窓8bは、第2の側方視野用である。そして、複数の、ここでは2つの観察窓8aと8bは、挿入部6の周方向に略均等な角度で配置されている。 
 挿入部6の先端部6aは、図示しない先端硬性部材を有し、照明窓7が、先端硬性部材の先端面に設けられ、照明窓7aと7bは、先端硬性部材の側面に設けられている。 
 観察窓8aの後ろ側には、第1の側方視野用の撮像ユニット11aが先端部6a内に配設され、観察窓8bの後ろ側には、第2の側方視野用の撮像ユニット11bが先端部6a内に配設されている。前方視野用の観察窓8の後ろ側には、前方視野用の撮像ユニット11cが配設されている。
 撮像部である3つの撮像ユニット11a,11b,11cの各々は、撮像素子を有し、プロセッサ3と電気的に接続され、プロセッサ3により制御されて、撮像信号をプロセッサ3へ出力する。各撮像ユニット11a,11b,11cは、画像(被写体像)を光電変換する撮像部である。
 よって、観察窓8は、挿入部6の先端部6aに、挿入部6が挿入される方向に向けて配置され、観察窓8aと8bは、挿入部6の側面部に、挿入部6の外径方向に向けて配置されている。
 すなわち、観察窓8は、挿入部6に設けられ、第1の方向である前方から第1の被写体の画像を取得する第1の画像取得部を構成し、観察窓8aと8bの各々は、挿入部6に設けられ、前方とは異なる第2の方向である側方から第2の被写体像の画像を取得する第2の画像取得部を構成する。言い換えれば、第1の被写体の画像は、挿入部6の長手方向に略平行な挿入部前方を含む、第1の領域の被写体像であり、第2の被写体の画像は、挿入部6の長手方向に略直交する挿入部側方を含む、第2の領域の被写体像である。
 撮像ユニット11cは、観察窓8からの画像を光電変換する撮像部であり、撮像ユニット11aと11bは、それぞれ観察窓8aと8bからの2つの画像を光電変換するそれぞれ異なる、つまり別個の撮像部である。
 照明窓7aの後ろ側には、第1の側方視野用の照明用発光素子12aが先端部6a内に配設され、照明窓7bの後ろ側には、第2の側方視野用の照明用発光素子12bが先端部6a内に配設されている。前方視野用の照明窓7の後ろ側には、前方視野用の照明用発光素子12cが配設されている。照明用発光素子(以下、発光素子という)12a、12b、12cは、例えば発光ダイオード(LED)である。  
 よって、発光素子12cに対応する照明窓7は、前方に照明光を出射する照明部であり、発光素子12aと12bの各々に対応する照明窓7aと7bは、側方に照明光を出射する照明部である。
 プロセッサ3は、制御部21と、画像処理部22と、撮像ユニット駆動部23と、照明制御部24と、画像記録部25を有する。 
 制御部21は、中央処理装置(CPU)と、ROM、RAM等を含み、内視鏡装置全体の制御を行う。
 画像処理部22は、制御部21の制御の下、3つの撮像ユニット11a,11b,11cからの3つの撮像信号に基づき得られた3つの画像から3つの内視鏡画像の画像信号を生成して、これらの画像信号を表示信号に変換して表示部4へ出力する。 
 さらに、画像処理部22は、制御部21の制御の下、画像処理、設定処理などを行う。
 撮像ユニット駆動部23は、図示しない信号線により撮像ユニット11a、11b、11cと接続されている。撮像ユニット駆動部23は、制御部21の制御の下、撮像ユニット11a、11b、11cを駆動する。駆動された撮像ユニット11a、11b、11cは、それぞれ撮像信号を生成して、画像処理部22へ供給する。
 照明制御部24は、図示しない信号線により発光素子12a、12b、12cと接続されている。照明制御部24は、制御部21の制御の下、発光素子12a、12b、12cを制御する回路であり、発光素子毎に、オン/オフの制御を行う。さらに、照明制御部24は、制御部21からの調光信号に基づいて、各発光素子の光量を制御する。 
 画像記録部25は、制御部21の制御の下、画像処理部22において生成された3つの内視鏡画像を記録する記録部であり、ハードディスク装置などの不揮発性メモリを有する。
 表示部4は、3つの表示装置4a、4b、4cを有している。各表示装置4a、4b、4cには、表示すべき画像の画像信号がプロセッサ3から供給される。表示装置4aの画面上には、前方視野画像が表示され、表示装置4bの画面上には、第1側方視野画像が表示され、表示装置4cの画面上には、第2側方視野画像が表示される。
 プロセッサ3には、図示しない各種操作ボタン、マウスなどが設けられており、ユーザである術者等(以下、ユーザという)は、各種機能の実行のための指示、例えば観察モードの設定、内視鏡画像の記録、後述する検出対象設定画面の表示等の指示、をプロセッサ3に与えることができる。
 図2は、画像処理部22の構成を示すブロック図である。画像処理部22は、画像生成部31と、検出対象設定部32と、特徴量算出部33と、画像表示判定部34と、を含んでいる。画像処理部22には、3つの撮像ユニット11a,11b,11cからの3つの撮像信号が入力される。
 画像生成部31は、各撮像ユニット11a、11b、11cからの撮像信号に基づき、画像信号を生成し、生成した各画像信号を特徴量算出部33と画像表示判定部34へ出力する。
 検出対象設定部32は、撮像ユニット11aと11bにより撮像して得られた第1側方視野画像と第2側方視野画像中において、画像処理により検出する検出対象を設定する処理部である。例えば、検出対象は、病変、処置具、管腔、出血などである。
 図3は、検出対象設定部32において設定される検出対象を設定する検出対象設定画面41の例を示す図である。 
 図3に示す検出対象設定画面41は、ユーザがプロセッサ3の所定の操作ボタンを操作することによって、例えば、表示部4のいずれかの表示装置の画面上に表示される。ユーザは、表示された検出対象設定画面41を利用して、検出対象の設定を行うことができる。
 グラフィカルユーザインターフェース(GUI)である検出対象設定画面41は、検出対象を指定する検出対象指定部42と、指標表示を指定する指標表示設定部43と、設定の完了を指示するボタンであるOKボタン44とを含んでいる。
 検出対象指定部42は、検出対象を示す検出対象名表示部42aと、複数のチェックボックス群42bとを有している。ユーザは、プロセッサ3のマウスなどを利用して、検出したい対象に対応するチェックボックス42bにチェックマークを入れることによって、所望の検出対象を指定することができる。
 例えば、図3は、「病変」、「管腔」及び「出血」に対応するチェックボックス42bにチェックマークが入れられているので、「病変」、「管腔」及び「出血」が検出対象として指定されていることを示している。図3の状態で、ユーザがOKボタン44を押すと、すなわちクリックなどすると、画像処理部22に、「病変」、「管腔」及び「出血」が検出対象として設定される。
 検出対象設定部32は、検出対象が設定されると、設定された検出対象の情報を画像表示判定部34へ出力し、設定された1又は2以上の検出対象について予め設定された検出すべき特徴量の情報を、特徴量算出部33へ出力して指示する。
 また、指標表示設定部43は、指標表示の文字を表示する指標文字表示部43aと、指標表示指示用のチェックボックス43bを含んでいる。後述するように、チェックボックス43bは、検出対象の位置を示す指標を表示するか否かを指定するためのものであり、チェックボックス43bにチェックマークを入れることによって、設定された検出対象が検出されると、検出された検出対象の位置を示す指標が表示される。すなわち、指標表示設定部43は、表示部4に指標の表示をするか否かを設定する設定部である。
 図2に戻り、特徴量算出部33は、各側方視野画像信号について、検出対象設定部32から指示された検出すべき特徴量を算出し、算出した特徴量の情報を、画像表示判定部34へ出力する。
 特徴量算出部33は、複数の特徴量を算出可能であり、指定された特徴量を算出して、画像表示判定部34へ出力する。 
 特徴量算出部33は、所定の、色調、輝度、空間周波数、エッジの有無、等々を検出可能であり、検出対象設定部32から指定された特徴量を算出し、算出された特徴量の情報を画像表示判定部34へ出力する。
 所定の色調の検出は、ここでは、赤みの強い画素があるか否かを検出するための色調検出である。 
 所定の輝度の検出は、ここでは、管腔領域があるか否かを検出するための輝度、すなわち暗い画素の有無を検出するための輝度検出である。
 所定の空間周波数の検出は、ここでは、病変部があるか否かを検出するために所定の空間周波数の画素領域の有無を検出するための空間周波数検出である。 
 エッジの有無の検出は、ここでは、処置具の画像の有無を検出するためのエッジの画素領域の有無を検出するためのエッジ検出である。
 特徴量算出部33は、指定された特徴量を有する画素あるいは画素領域の検出結果の情報を画像表示判定部34に出力する。 
 画像表示判定部34は、画像生成部31からの3つの画像信号を入力し、前方視野画像は、表示部4の表示装置4aへ出力する。画像表示判定部34は、2つの側方視野画像については、特徴量算出部33からの各画像についての特徴量情報に基づいて、2つの側方視野画像の1つあるいは両方を表示部4において表示するかを判定し、その判定結果に基づいて、2つの側方視野画像の1つあるいは両方を表示部4へ出力する。
 具体的には、画像表示判定部34は、検出対象設定部32により指定された検出対象について、特徴量算出部33において算出された特徴量が所定の条件を満たすか否かを判定し、その判定結果に基づいて、画像生成部31で生成された2つの側方視野画像の両方又は1つを表示部4に表示するための表示信号を出力するか否かを判定する。
 例えば、検出対象として病変が指定されたとき、検出対象設定部32は、検出対象が病変であることを示す情報を画像表示判定部34へ出力し、かつ、検出すべき特徴量が所定の空間周波数であることを示す情報を、特徴量算出部33へ出力する。
 画像表示判定部34は、各検出対象について閾値情報などの判定基準情報を予め記憶している。よって、画像表示判定部34は、検出対象が病変の場合、所定の空間周波数を有する画素領域のサイズが、所定の閾値TH1以上であるか否かに基づいて、病変の有無を判定する。
 また、検出対象として処置具が指定されたとき、検出対象設定部32は、検出対象が処置具であることを示す情報を画像表示判定部34へ出力し、かつ、検出すべき特徴量が所定のエッジであることを示す情報を、特徴量算出部33へ出力する。
 処置具は、金属であり、表面は光沢を有し、生体組織とは、全く異なる色と輝度を有するので、画像中に処置具の画像があると、画像中にエッジが検出される。よって、画像表示判定部34は、検出対象が処置具の場合、所定のエッジの画素領域が、所定の閾値TH2以上あるか否かに基づいて、処置具の有無を判定する。その結果、例えば、処置具が処置具チャンネルから出てくると、処置具の画像が表示部4に表示される。
 同様に、管腔が検出対象として指定されたとき、管腔部分は、画像中、暗部領域となるので、輝度が閾値TH3以下である画素領域が所定の閾値TH4以上あるか否かによって、管腔の検出が行われる。
 また、出血が検出対象として指定されたとき、赤色の画素領域が、所定の閾値TH5以上であるか否かによって、出血の検出が行われる。 
 なお、ここでは、検出対象の検出のために、画素あるいは画素領域の輝度、空間周波数、色及びエッジの特徴量を用いているが、これら以外の特徴量を用いてもよい。 
 よって、特徴量算出部33と画像表示判定部34は、各側方視野画像において、設定された検出対象を、画像処理により検出する対象検出部を構成する。
 画像表示判定部34は、設定された検出対象が検出されると、その検出対象を含む側方視野画像の画像信号を表示部4へ出力する。 
 すなわち、画像生成部31と画像表示判定部34は、前方視野画像の画像信号と2つの側方視野画像の画像信号を生成すると共に、特徴量算出部33と画像表示判定部34において検出対象が検出された場合、前方視野画像の画像信号と検出対象が検出された側方視野画像の画像信号を表示信号に変換して表示部4へ出力する。その結果、前方視野画像は表示部4の表示装置4aに表示され、検出対象が検出された側方視野画像は表示装置4b又は4cに表示される。
 また、画像記録部25は、検査中の内視鏡画像を記録する処理部であり、検査が開始されると、画像表示判定部34で判定されて表示部4において表示されている1又は2以上の画像を記録すると共に、画像生成部31で生成された3つの画像、すなわち前方視野画像、第1及び第2の側方視野画像も記録する。
 ここでは、表示部4に表示された1以上の画像、すなわち前方視野画像に加えて検出対象が検出された1又は2の側方視野画像に加えて、画像生成部31で生成された3つの画像も画像記録部25に記録されているので、検査後に、再度検査中の全ての画像を再生して見ることができるので、病変などの見逃しの発生を防止している。
 なお、画像記録部25は、表示部4において表示されている1又は2以上の画像と、画像生成部31で生成された全て画像のいずれか一方を記録するようにしてもよい。
(作用)
 図4は、所定のモード時における、表示部4の3つの表示装置4a、4b、4cの表示状態を示す図である。
 ユーザが、内視鏡システム1を所定のモードに設定すると、はじめに、前方視野画像のみが表示装置4aに表示され、第1側方視野画像と第2側方視野画像は、図4において斜線で示すように、表示装置4bと4cに表示されない。図4では、ユーザが大腸内に挿入部を挿入して検査を行っており、前方視野画像には、管腔Lが表示されている。
 画像処理部22は、前方視野画像の画像信号のみを出力しているとき、第1側方視野画像と第2側方視野画像における検出対象の有無を検出する。検出対象設定部32において設定された検出対象が、第1側方視野画像と第2側方視野画像において検出されていないときは、画像処理部22は、前方視野画像の画像信号のみを出力する。
 すなわち、検出対象が検出されていない場合に画像処理部22が前方視野画像の画像信号のみを出力しているとき、画像処理部22は、第1側方視野画像と第2側方視野画像における検出対象の有無を検出する。
 前方視野画像以外の第1又は第2側方視野画像中に、上述した検出対象設定部32で設定された検出対象が検出されると、その検出された検出対象を含む側方視野画像を、対応する表示装置に表示する。
 図5は、第1側方視野画像中に病変部PAが検出されたときの表示部4の表示状態を示す図である。 
 検出対象設定部32において、例えば図3に示すように、「病変」、「管腔」及び「出血」が検出対象として設定されているときに、病変が検出されると、病変部PAを含む側方視野画像が、表示部4に表示される。
 図5は、それまで何も表示されていなかった表示装置4bに第1側方視野画像が表示されていることを示している。さらに、図3に示すように、指標表示も設定されているので、検出された病変部PAの近傍に、矢印マークである指標Mが表示されている。
 すなわち、画像処理部22は、側方視野画像の画像信号を出力しているとき、側方視野画像中の検出対象の位置を示す指標Mを表示部4の対応する表示装置4b又は4cに表示するための指標情報を出力する。
 ユーザは、挿入部6の先端部6aを挿入方向あるいは抜去方向に進めながら管腔内検査を実施するが、通常は、前方視野画像が表示部4の表示装置4aに表示され、その前方視野画像のみを注視して観察を行い、病変などの設定した検出対象が画像処理により検出されると、その検出対象が含まれる側方視野画像が表示部4の対応する表示装置4b又は4cに表示される。設定した検出対象が検出されなければ、前方視野画像のみを見て、すなわち前方視野画像のみに注力して検査を行うことができるので、ユーザは、3つの全ての画像を見る必要がなく、負担が少なく迅速に検査を進めることができる。
 しかし、設定された検出対象が2つの側方視野画像の少なくとも1つ中に検出されると、検出された検出対象を含む側方視野画像が、表示部4に表示される。 
 以上のように、側方視野画像は、2つあり、画像処理部22は、表示部4おいて前方視野画像を中心に配置し2つの側方視野画像が前方視野画像を挟むように表示されるように、前方視野画像の画像信号と2つの側方視野画像の画像信号を出力すると共に、2つの側方視野画像の一方に検出対象が検出されたときには、その検出対象が検出された側方視野画像のみを表示するように、側方視野画像の画像信号を出力する。
 よって、設定された検出対象が検出された場合、ユーザは1つ又は2つの側方視野画像も見ることができるので、新たに表示された側方視野画像を見て、病変を確認することができる。設定された検出対象が検出された場合だけ、ユーザは、2つ又は3つの画像を注意深く見ればよいので、検査全体では、負担が少なく迅速に検査を行うことができる。
 以上のように、上述した実施の形態によれば、広角視野の内視鏡画像を観察するときの術者の負担を軽減することができる内視鏡システムを提供することができる。
 結果として、病変などの観察すべき部位の見落としを防ぐことができる。
 本実施の形態及び後述する他の実施の形態において、第1の方向である前方からの第1の被写体の画像(第1の被写体像、前方視野画像)は、内視鏡システム1の動作時、ほぼ常に観察することが要求されるため、主要に表示する画像である主画像として定義される。
 また、第2の方向である側方からの第2の被写体の画像(第2の被写体像、側方視野画像)は、前記の主画像に対しては常に主要に表示する必要があるとは限らないため、副画像として定義される。
 尚、上記の主画像及び副画像の定義に基づけば、例えば主要な観察窓が挿入部6の側方を常に向くような側視型内視鏡において、挿入軸方向である前方への挿入性を向上させるために前方を向く簡易な観察窓を配置するような場合、側方視野画像を主画像として、前方視野画像を副画像として定義し、上記第1の実施の形態に準じた処理を行うようにしてもよい。
 つまり、主画像を取得する領域(第1の方向)は、前記挿入部の長手方向に略平行な挿入部前方を含む領域または前記挿入部の長手方向に略直交する挿入部側方を含む領域の一方であり、副画像を取得する領域(第2の方向)は、挿入部前方又は挿入部側方の他方であればよい。
(変形例1)
 上述した実施の形態では、検出対象が検出されると、検出対象を含む側方視野画像が表示部4に表示されるが、検出対象を含まない側方視野画像も表示するようにしてもよい。
 図6は、変形例1に関わる、第1側方視野画像中に病変部PAが検出されたときの表示部4の表示状態の他の例を示す図である。 
 図6の表示部4は、第1側方視野画像中に病変部PAが検出されたときに、病変部PAが検出された第1側方視野画像だけでなく、病変部PAが検出されていない第2側方視野画像も表示されている。
 すなわち、何らかの検出対象が表示されたときには、周辺領域の画像も確認したい場合もあるので、図6のように、2つの側方視野画像を表示するようにしてもよい。 
 なお、この場合、検出対象を含む側方視野画像と、検出対象を含まない側方視野画像とを簡単に識別できるようにするために、検出対象を含まない側方視野画像の輝度を、検出対象を含む側方視野画像の輝度よりも低くして表示するようにしてもよい。
(変形例2)
 上述した実施の形態では、検出対象が検出されると、検出対象を含む側方視野画像全体が表示部4に表示されるが、側方視野画像中、検出対象の近傍の画像領域だけを表示するようにしてもよい。
 図7は、変形例2に関わる、第1側方視野画像中に病変部PAが検出されたときの表示部4の表示状態の他の例を示す図である。 
 第1側方視野画像中に病変部PAが検出されたときに、図7の表示部4では、病変部PAが検出された第1側方視野画像中、病変部PAが検出された領域を含む半分の領域のみを表示されている。
 すなわち、画像処理部22の画像表示判定部34は、病変部PAが検出された第1側方視野画像の一部を表示するための画像信号を表示信号に変換して表示装置4bへ出力する。その結果、設定された検出対象が表示されたときには、ユーザが、検出対象を含む側方視野画像中、検出対象を迅速に視認できるようにするために、検出対象を含む画像領域以外の領域HAは、表示されない。
 なお、この場合、検出対象を含む画像領域以外の領域HAの輝度を、検出対象を含む画像領域の輝度よりも低くして表示するようにしてもよい。
(変形例3)
 上述した実施の形態及び変形例1と2では、表示部4は、3つの表示装置から構成されているが、1つの表示装置に、3つの画像を表示するようにしてもよい。
 図8は、変形例3に関わる、1つの表示装置を有する表示部4Aによる3つの画像の表示例を示す図である。表示部4Aは、1つの表示装置からなり、3つの画像、すなわち、それぞれが上述した図4の前方視野画像4aと、2つの側方視野画像4bA、4cAに対応する、前方視野画像4aA及び2つの側方視野画像4bA、4cAが、表示装置の1つの画面上に表示される。
 図8においても、上述したような表示形態で3つの内視鏡画像を表示することができる。
(変形例4)
 上述した実施の形態及び各変形例において、側方を照明及び観察する機能を実現する機構は、前方を照明及び観察する機能を実現する機構と共に、挿入部6に内蔵されているが、側方を照明及び観察する機能を実現する機構は、挿入部6に対して着脱可能な別体にしてもよい。
 図9は、側方観察用のユニットが取り付けられた挿入部6の先端部6aの斜視図である。挿入部6の先端部6aは、前方視野用ユニット600を有している。側方視野用ユニット500は、前方視野用ユニット600に対して着脱自在な構成を有している。
 側方視野用ユニット500は、左右方向の画像を取得するための2つの観察窓501と、左右方向を照明するための2つの照明窓502を有している。 
 プロセッサ3等は、側方視野用ユニット500の各照明窓502の点灯と消灯を、前方視野のフレームレートに合わせて行うようにして、上述した実施の形態に示したような観察画像の取得と表示を行うことができる。 
 以上のように、上述した実施の形態及び各変形例によれば、広角視野の内視鏡画像を観察するときの術者の負担を軽減することができる内視鏡システムを提供することができる。
 結果として、病変などの観察すべき部位の見落としを防ぐことができる。
 さらに、内視鏡画像の保存も、表示している画像と、全ての画像の両方を保存するので、後で見直す場合においても、見落としを防ぐことができる。
(第2の実施の形態)
 第1の実施の形態の内視鏡の挿入部6の先端部6aには、少なくとも2方向からの被写体像を取得するために、2以上の撮像素子が内蔵されているが、本実施の形態の内視鏡の挿入部6の先端部6aには、少なくとも2方向からの被写体像を取得するために1つの撮像素子が内蔵されている。
 図10は、本実施の形態に関わる内視鏡システムの構成を示す構成図である。本実施の形態の内視鏡システム1Aは、第1の実施の形態の内視鏡システム1と略同様の構成を有しているので、内視鏡システム1と同じ構成要素については、同じ符号を付して説明は省略し、異なる構成について説明する。
 内視鏡2Aの挿入部6の先端部6aには、前方視野用の照明窓7と観察窓8と、側方視野用の2つの照明窓7a、7bと観察窓10が設けられている。画像取得部である観察窓10は、画像取得部である観察窓8よりも、挿入部6の基端側に配置されている。
 また、照明のために、発光素子の代わりに、光ファイバ束からなるライトガイド51が用いられている。ライトガイド51の基端部には、3つの照明窓7,7a、7b用の照明光が入射される。ライトガイド51の先端部は、3等分されて、3つの照明窓7、7a、7bの後ろ側に配置される。
 図11は、挿入部6の先端部6aの断面図である。なお、図11は、側方視野用の照明窓7aと、前方照明用の照明窓7と、前方視野用の観察窓8の断面が分かるように、先端部6aが切られた断面を示している。
 照明窓7の後ろ側には、ライトガイド51の一部の先端面が配設されている。観察窓8が、先端硬性部材61の先端面に設けられている。観察窓8の後ろ側には、対物光学系13が配設されている。
 対物光学系13の後ろ側には、撮像ユニット14が配設されている。なお、先端硬性部材61の先端部には、カバー61aが取り付けられている。また、挿入部6には、外皮61bが被せられている。
 よって、前方用照明光は照明窓7から出射し、被検体内の観察部位である被写体からの反射光は、観察窓8に入射する。 
 先端硬性部材61の側面には、2つの照明窓7a、7bが配設されており、各照明窓7a、7bの後ろには、反射面が曲面のミラー15を介して、ライトガイド51の一部の先端面が配設されている。
 よって、照明窓7と複数の照明窓7a、7bは、被検体の内部において、第1の領域としての前方領域に第1の照明光を、かつ第1の領域とは異なる第2の領域としての側方領域に第2の照明光を出射する照明光出射部を構成する。
 第1の領域とは異なる第2の領域とは、光軸が異なる方向を向いている向きの視野の領域を指し、第1の領域(第1の被写体像)と第2の領域(第2の被写体像)との一部が重なっても重なっていなくてもよく、さらに、第1の照明光の照射範囲と第2の照明光の照射範囲が一部において重なっていても重なっていなくても良い。
 先端硬性部材61の側面には、観察窓10が配設されており、観察窓10の後ろ側には、対物光学系13が配設されている。対物光学系13は、観察窓8を通った前方からの反射光と、観察窓10を通った側方からの反射光を撮像ユニット14へ向けるように構成されている。図11では、対物光学系13は、2つの光学部材17と18を有する。光学部材17は、凸面17aを有するレンズであり、光学部材18は、光学部材17の凸面17aからの光を、光学部材17を介して撮像ユニット14へ向けて反射させる反射面18aを有する。
 すなわち、観察窓8は、挿入部6に設けられ、第1の領域である前方から第1の被写体の画像を取得する第1の画像取得部を構成し、観察窓10は、挿入部6に設けられ、前方とは異なる第2の領域である側方から第2の被写体の画像を取得する第2の画像取得部を構成する。
 より具体的には、第1の領域である前方領域からの画像は、挿入部6の長手方向に略平行な挿入部6の前方を含む第1の領域の被写体像であり、第2の領域である側方領域からの画像は、挿入部6の長手方向に略直交する挿入部6の側方を含む第2の領域の被写体像であり、観察窓8は、挿入部6の前方を含む第1の領域の被写体像を取得する前方画像取得部であり、観察窓10は、挿入部6の側方を含む第2の領域の被写体像を取得する側方画像取得部である。
 そして、画像取得部である観察窓8は、挿入部6の先端部6aに、挿入部6が挿入される方向に向けて配置され、画像取得部である観察窓10は、挿入部6の側面部に、挿入部6の外径方向に向けて配置されている。撮像部である撮像ユニット14は、観察窓8からの被写体像と観察窓10からの被写体像とを、同じ撮像面で光電変換するように配置され、画像処理部22を有するプロセッサ3に電気的に接続されている。
 すなわち、観察窓8は、挿入部6の長手方向における先端部に、挿入部6が挿入される方向から第1の被写体像を取得するように、配置され、観察窓10は、第2の方向から第2の被写体像を取得するように、挿入部6の周方向に沿って配置される。そして、プロセッサ3と電気的に接続されている撮像ユニット14は、第1の被写体像と第2の被写体像を1つの撮像面において光電変換して、撮像信号をプロセッサ3へ供給する。
 よって、前方用照明光は照明窓7から出射し、被写体からの反射光は、観察窓8を通って撮像ユニット14へ入射すると共に、側方用照明光は2つの照明窓7a、7bから出射し、被写体からの反射光は、観察窓10を通って撮像ユニット14へ入射する。撮像ユニット14の撮像素子14aは、被写体の光学像を光電変換して、撮像信号をプロセッサ3Aへ出力する。
 図10に戻り、撮像ユニット14からの撮像信号は、画像生成部であるプロセッサ3Aへ供給され、内視鏡画像が生成される。プロセッサ3Aは、観察画像である内視鏡画像の信号を表示信号に変換して表示部4Bに出力する。
 プロセッサ3Aは、制御部21Aと、画像処理部22Aと、撮像ユニット駆動部23Aと、照明制御部24Aと、画像記録部25を有する。 
 図12は、画像処理部22Aの構成を示すブロック図である。画像処理部22Aは、画像生成部31Aと、検出対象設定部32と、特徴量算出部33Aと、画像表示判定部34Aと、を含んでいる。画像処理部22Aには、撮像ユニット14からの撮像信号が入力される。
 画像生成部31Aは、上述した画像生成部31と同様の機能を有し、撮像ユニット14からの撮像信号に基づき、画像信号を生成し、生成した画像信号を特徴量算出部33Aと画像表示判定部34Aへ出力する。
 検出対象設定部32は、第1の実施の形態と同様の構成であり、図3において示したような設定画面により、撮像ユニット14により撮像して得られた側方視野画像中において、画像処理により検出する検出対象を設定する処理部である。
 図12に戻り、特徴量算出部33Aは、側方視野画像信号について、検出対象設定部32から指示された検出すべき特徴量を算出し、算出した特徴量の情報を、画像表示判定部34Aへ出力する。
 特徴量算出部33Aは、上述した特徴量算出部33と同様の機能を有し、側方視野画像中に、検出対象設定部32から指定された特徴量を算出し、算出された特徴量の情報を画像表示判定部34Aへ出力する。
 画像表示判定部34Aは、上述した画像表示判定部34と同様の機能を有し、画像生成部31Aからの画像を入力し、前方視野画像は、表示信号に変換して表示部4の表示部4Bへ常時出力する。画像表示判定部34Aは、側方視野画像については、特徴量算出部33Aからの画像についての特徴量情報に基づいて、側方視野画像を表示部4Bにおいて表示するかを判定し、その判定結果に基づいて、側方視野画像を表示信号に変換して表示部4Bへ出力する。 
 画像表示判定部34Aは、設定された検出対象が検出されると、側方視野画像を表示部4Bに表示させる。
 すなわち、画像表示判定部34Aは、検出対象設定部32において設定された検出対象が、側方視野画像中に検出されると、側方視野画像を、前方視野画像と共に表示部4Bに表示する。
 また、画像表示判定部34Aは、検出対象設定部32において設定された検出対象が側方視野画像中に検出されないときは、側方視野画像を表示せず、前方視野画像を拡大して、表示部4Bに表示する。 
 画像記録部25の動作は、第1の実施の形態と同様である。
 図13は、本実施の形態に関わる、表示部4Bに表示される内視鏡画像の表示画面の例を示す図である。 
 表示部4の画面上に表示される内視鏡画像である表示画像81は、略矩形の画像であり、2つの領域82と83を有する。中央部の円形の領域82は、前方視野画像を表示する領域であり、中央部の領域82の周囲のC字状の領域83は、側方視野画像を表示する領域である。図13は、前方視野画像と側方視野画像の両方を表示したときの状態を示し、画像処理部22Aは、表示部4Bにおいて前方視野画像の周囲に側方視野画像が表示されるように、前方視野画像の画像信号と側方視野画像の画像信号を出力する。
 すなわち、前方視野画像は、略円形状になるように表示部4の画面上に表示され、側方視野画像は、前方視野画像の周囲の少なくとも一部を囲む略円環状になるように画面上に表示される。よって、表示部4には、広角の内視鏡画像が表示される。
 図13に示す内視鏡画像は、撮像素子14aにより取得された取得画像から生成される。前方視野画像と側方視野画像は、撮像素子14aにおいて得られた画像から切り出されて生成される。表示画像81は、図11に示した光学系により、撮像素子14aの撮像面に投影された被写体像を光電変換して、マスク領域としての黒く塗りつぶされた領域84を除く、領域82に対応する中央の前方視野画像領域と、領域83に対応する側方視野画像領域とを合成して生成される。
(作用)
 図14は、所定のモード時における、表示部4Bの表示状態を示す図である。
 ユーザが、内視鏡システム1を所定のモードに設定すると、はじめに、撮像素子14aにおいて撮像して得られた画像から領域82が切り出されて表示部4Bに拡大表示され、側方視野画像は表示されない。ユーザは、例えば大腸内に挿入部を挿入して、検査を行っているとすれば、前方視野画像には、管腔Lが表示されている。
 しかし、側方視野画像中に、上述した検出対象設定部32で設定された検出対象が検出されると、その検出された検出対象を含む側方視野画像を、表示部4Bに表示する。
 図15は、側方視野画像中に病変部PAが検出されたときの表示部4Bの表示状態を示す図である。 
 第1の実施の形態と同様に、検出対象設定部32では、図3に示すように、「病変」、「管腔」及び「出血」が検出対象として設定され、指標表示も設定されているときに、病変が検出されると、病変部PAを含む側方視野画像が、指標Mと共に、表示部4に表示されている。図14では、前方視野画像は、図14のように拡大されていない。
 すなわち、ユーザは、挿入部の先端部を挿入方向あるいは抜去方向に進めながら管腔内検査を実施するが、通常は、前方視野画像が表示部4Bに表示され、その前方視野画像のみを注視して観察を行い、病変などの設定した検出対象が画像処理により検出されると、その検出対象が含まれる側方視野画像が表示部4Bに表示される。
 設定した検出対象が検出されなければ、拡大された前方視野画像のみを見て、すなわち前方視野画像のみに注力して検査を行うことができるので、ユーザは、前方視野画像と側方視野画像の両方の画像を見る必要がなく、負担が少なく迅速に検査を進めることができる。
 しかし、設定された検出対象が側方視野画像中に検出されると、検出された検出対象を含む側方視野画像が、表示部4Bに表示される。設定された検出対象が検出された場合、ユーザは側方視野画像も見ることができるので、新たに表示された側方視野画像を見て、病変を確認することができる。設定された検出対象が検出された場合だけ、ユーザは、側方視野画像を注意深く見ればよいので、検査全体では、負担が少なく迅速に検査を行うことができる。
 以上のように、上述した実施の形態によれば、広角視野の内視鏡画像を観察するときの術者の負担を軽減することができる内視鏡システムを提供することができる。
 結果として、病変などの観察すべき部位の見落としを防ぐことができる。
(変形例1)
 上述した第2の実施の形態は、側方視野画像が表示されないときは、前方視野画像は、拡大されて表示されているが、拡大しないで表示するようにしてもよい。
(変形例2)
 上述した第2の実施の形態では、検出対象が検出されると、検出対象を含む側方視野画像全体が表示部4Bに表示されるが、側方視野画像中、検出対象の近傍の画像領域だけを表示するようにしてもよい。
 図16は、変形例2に関わる、側方視野画像中に病変部PAが検出されたときの表示部4Bの表示状態の例を示す図である。 
 側方視野画像中に病変部PAが検出されたときに、図16の表示部4Bでは、病変部PAが検出された側方視野画像中、病変部PAが検出された領域を含む半分の領域のみを表示されている。
 すなわち、何らかの検出対象が表示されたときには、ユーザが、検出対象を含む側方視野画像中、検出対象を迅速に視認できるようにするために、検出対象を含む画像領域以外の領域HAは、表示されない。 
 なお、この場合、検出対象を含む画像領域以外の領域HAの輝度を、検出対象を含む画像領域の輝度よりも低くして表示するようにしてもよい。
 以上のように、上述した第2の実施の形態及び各変形例によれば、広角視野の内視鏡画像を観察するときの術者の負担を軽減することができる内視鏡システムを提供することができる。 
 結果として、病変などの観察すべき部位の見落としを防ぐことができる。
 さらに、内視鏡画像の保存も、表示している画像と、全ての画像の両方を保存するので、後で見直す場合においても、見落としを防ぐことができる。
 なお、上述した2つの実施の形態では、検出対象が検出されると、検出対象の近傍に指標を表示しているが、指標の表示は、検出対象毎に設定できるようにしてもよい。すなわち、病変の検出時には、指標を表示させ、処置具の検出時には、指標は表示させないようにできるようにしてもよい。
 さらになお、上述した各実施の形態では、検出対象が検出されていないとき、側方視野画像は表示されていないが、検出対象が検出されていないとき、側方視野画像にグレーマスクなどをかけて、側方視野画像を暗く表示するようにしてもよい。
 すなわち、検出対象が検出されていないときは、画像処理部22及び22Aは、側方視野画像の輝度を低下させて、前方視野画像を側方視野画像とは識別可能になるように、前方視野画像の画像信号と側方視野画像の画像信号を出力するようにしてもよい。
 また、各実施の形態では、撮像ユニットから生成される撮像信号に基づき生成された画像信号の側方画像(副画像、第2の画像)に基づき、検出対象を検出しているが、撮像ユニットから生成される側方(第2の領域)に関する撮像信号の中から直接検出対象を検出するようにしてもよい。
 本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。

 本出願は、2014年11月6日に日本国に出願された特願2014-226208号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲に引用されるものとする。

Claims (19)

  1.  被検体の内部に挿入される挿入部と、
     前記挿入部に設けられ、第1の領域から主画像を取得する第1の画像取得部と、
     前記挿入部に設けられ、前記第1の領域とは異なる領域を含む第2の領域から副画像を取得する第2の画像取得部と、
     前記副画像から、設定された検出対象を検出する対象検出部と、
     前記主画像に基づく第1の画像信号と前記副画像に基づく第2の画像信号を生成すると共に、前記対象検出部において前記検出対象が検出された場合、前記第1の画像信号と前記第2の画像信号を出力する画像処理部と、
    を有することを特徴とする内視鏡システム。
  2.  前記第1の領域は、前記挿入部の長手方向に略平行な挿入部前方を含む領域または前記挿入部の長手方向に略直交する挿入部側方を含む領域の一方であり、
     前記第2の領域は、前記挿入部の長手方向に略平行な挿入部前方を含む領域または前記挿入部の長手方向に略直交する挿入部側方を含む領域の他方であることを特徴とする請求項1に記載の内視鏡システム。
  3.  前記第1の領域は、前記挿入部の長手方向に略平行な挿入部前方を含む領域であり、
     前記第2の領域は、前記挿入部の長手方向に略直交する挿入部側方を含む領域であることを特徴とする請求項2に記載の内視鏡システム。
  4.  前記画像処理部は、前記第1の画像信号、又は前記第1の画像信号と前記第2の画像信号との両方を表示信号に変換すると共に、画像を表示するための表示部へ出力することを特徴とする請求項1に記載の内視鏡システム。
  5.  前記検出対象が前記対象検出部において検出されていないときは、前記画像処理部は、前記主画像に基づく前記第1の画像信号のみを出力することを特徴とする請求項1に記載の内視鏡システム。
  6.  前記検出対象が前記対象検出部において検出されていない場合に前記画像処理部が前記主画像に基づく前記表示信号のみを出力しているとき、前記対象検出部は、前記副画像における前記検出対象の有無を検出することを特徴とする請求項5に記載の内視鏡システム。
  7.  前記検出対象が前記対象検出部において検出されていないときは、前記画像処理部は、前記副画像の輝度を低下させて、前記主画像と前記副画像とが識別可能になるように、前記第1の画像信号と前記第2の画像信号を出力することを特徴とする請求項1に記載の内視鏡システム。
  8.  前記対象検出部において検出する前記検出対象を設定する検出対象設定部を有することを特徴とする請求項1に記載の内視鏡システム。
  9.  前記画像処理部は、前記第2の画像信号を出力しているとき、前記副画像中の前記検出対象の位置を示す指標を前記表示部に表示するための指標情報を出力する指標表示設定部を有することを特徴とする請求項4に記載の内視鏡システム。
  10.  前記画像処理部は、前記表示部において前記主画像を中心に配置し2つの前記副画像が前記主画像を挟むように表示されるように、前記第1の画像信号と前記第2の画像信号を出力すると共に、前記対象検出部において前記2つの前記副画像の一方に前記検出対象が検出されたときには、前記検出対象が検出された副画像のみを表示するように前記第2の画像信号を出力することを特徴とする請求項4に記載の内視鏡システム。
  11.  前記画像処理部は、前記表示部において前記主画像を中心に配置し2つの前記副画像が前記主画像を挟むように表示されるように、前記第1の画像信号と前記第2の画像信号を出力することを特徴とする請求項4に記載の内視鏡システム。
  12.  2つの前記副画像を取得するための前記第2の画像取得部は、複数あり、
     複数の前記第2の画像取得部は、前記挿入部の周方向に略均等な角度で配置されていることを特徴とする請求項11に記載の内視鏡システム。
  13.  前記検出対象は、病変、処置具、管腔又は出血の少なくとも1つであることを特徴とする請求項1に記載の内視鏡システム。
  14.  前記画像処理部は、前記表示部において前記主画像の周囲に前記副画像が表示されるように、前記第1の画像信号と前記第2の画像信号を出力することを特徴とする請求項4に記載の内視鏡システム。
  15.  前記第1の画像取得部は、前記挿入部の長手方向における先端部に、前記挿入部が挿入される方向である第1の方向から前記主画像を取得するように、配置され、
     前記第2の画像取得部は、第2の方向から前記副画像を取得するように、前記挿入部の周方向に沿って配置されていることを特徴とする請求項14に記載の内視鏡システム。
  16.  前記第1の画像取得部は、前記主画像を光電変換する第1の撮像部を有し、
     前記第2の画像取得部は、前記副画像を光電変換する前記第1の撮像部とは異なる第2の撮像部を有することを特徴とする請求項14に記載の内視鏡システム。
  17.  前記第1の画像取得部からの前記主画像と前記第2の画像取得部からの前記副画像とを1つの撮像面において光電変換する撮像部を有し、
     前記第1の画像信号と前記第2の画像信号は、前記撮像部において得られた画像から生成されることを特徴とする請求項16に記載の内視鏡システム。
  18.  前記第2の画像取得部は、前記第1の画像取得部よりも、前記挿入部の基端側に配置されていることを特徴とする請求項17に記載の内視鏡システム。
  19.  前記第1の被写体像は、略円形であり、
     前記第2の被写体像は、前記第1の被写体像の周囲の少なくとも一部を囲む略円環状であることを特徴とする請求項18に記載の内視鏡システム。
PCT/JP2015/079174 2014-11-06 2015-10-15 内視鏡システム WO2016072237A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016530037A JP6001219B1 (ja) 2014-11-06 2015-10-15 内視鏡システム
US15/367,656 US20170085762A1 (en) 2014-11-06 2016-12-02 Endoscope system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014226208 2014-11-06
JP2014-226208 2014-11-06

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/367,656 Continuation US20170085762A1 (en) 2014-11-06 2016-12-02 Endoscope system

Publications (1)

Publication Number Publication Date
WO2016072237A1 true WO2016072237A1 (ja) 2016-05-12

Family

ID=55908964

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/079174 WO2016072237A1 (ja) 2014-11-06 2015-10-15 内視鏡システム

Country Status (3)

Country Link
US (1) US20170085762A1 (ja)
JP (1) JP6001219B1 (ja)
WO (1) WO2016072237A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016182228A (ja) * 2015-03-26 2016-10-20 ソニー株式会社 情報処理装置および方法
WO2017212768A1 (ja) * 2016-06-07 2017-12-14 オリンパス株式会社 画像処理装置、内視鏡システム、画像処理方法およびプログラム
JP2017221486A (ja) * 2016-06-16 2017-12-21 ソニー株式会社 情報処理装置、情報処理方法、プログラム及び医療用観察システム
JP2018057605A (ja) * 2016-10-05 2018-04-12 富士フイルム株式会社 内視鏡システム及び内視鏡システムの駆動方法
JP2020058639A (ja) * 2018-10-11 2020-04-16 富士フイルム株式会社 内視鏡システム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105939650B (zh) * 2014-02-14 2018-01-30 奥林巴斯株式会社 内窥镜系统
JP6756054B2 (ja) * 2017-11-06 2020-09-16 Hoya株式会社 電子内視鏡用プロセッサ及び電子内視鏡システム
JP7116925B2 (ja) * 2019-03-22 2022-08-12 株式会社エビデント 観察装置の作動方法、観察装置、およびプログラム
EP3769659A1 (en) * 2019-07-23 2021-01-27 Koninklijke Philips N.V. Method and system for generating a virtual image upon detecting an obscured image in endoscopy

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04341232A (ja) * 1991-03-11 1992-11-27 Olympus Optical Co Ltd 電子内視鏡システム
JP2006191989A (ja) * 2005-01-11 2006-07-27 Olympus Corp 蛍光観察内視鏡装置
JP2012245157A (ja) * 2011-05-27 2012-12-13 Olympus Corp 内視鏡装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102469930B (zh) * 2009-11-06 2014-09-10 奥林巴斯医疗株式会社 内窥镜系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04341232A (ja) * 1991-03-11 1992-11-27 Olympus Optical Co Ltd 電子内視鏡システム
JP2006191989A (ja) * 2005-01-11 2006-07-27 Olympus Corp 蛍光観察内視鏡装置
JP2012245157A (ja) * 2011-05-27 2012-12-13 Olympus Corp 内視鏡装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016182228A (ja) * 2015-03-26 2016-10-20 ソニー株式会社 情報処理装置および方法
US10966590B2 (en) 2015-03-26 2021-04-06 Sony Corporation Surgical system, information processing device, and method
CN109068965B (zh) * 2016-06-07 2021-01-26 奥林巴斯株式会社 图像处理装置、内窥镜系统、图像处理方法以及存储介质
WO2017212768A1 (ja) * 2016-06-07 2017-12-14 オリンパス株式会社 画像処理装置、内視鏡システム、画像処理方法およびプログラム
JPWO2017212768A1 (ja) * 2016-06-07 2018-06-14 オリンパス株式会社 画像処理装置、内視鏡システム、画像処理方法およびプログラム
CN109068965A (zh) * 2016-06-07 2018-12-21 奥林巴斯株式会社 图像处理装置、内窥镜系统、图像处理方法以及程序
US10702133B2 (en) 2016-06-07 2020-07-07 Olympus Corporation Image processing device, endoscope system, image processing method, and computer-readable recording medium
JP2017221486A (ja) * 2016-06-16 2017-12-21 ソニー株式会社 情報処理装置、情報処理方法、プログラム及び医療用観察システム
US11107571B2 (en) 2016-06-16 2021-08-31 Sony Corporation Information processing apparatus, information processing method, program, and medical observation system
JP2018057605A (ja) * 2016-10-05 2018-04-12 富士フイルム株式会社 内視鏡システム及び内視鏡システムの駆動方法
US10820786B2 (en) 2016-10-05 2020-11-03 Fujifilm Corporation Endoscope system and method of driving endoscope system
JP2020058639A (ja) * 2018-10-11 2020-04-16 富士フイルム株式会社 内視鏡システム
JP7092633B2 (ja) 2018-10-11 2022-06-28 富士フイルム株式会社 内視鏡システム

Also Published As

Publication number Publication date
US20170085762A1 (en) 2017-03-23
JP6001219B1 (ja) 2016-10-05
JPWO2016072237A1 (ja) 2017-04-27

Similar Documents

Publication Publication Date Title
JP6001219B1 (ja) 内視鏡システム
JP6785941B2 (ja) 内視鏡システム及びその作動方法
JP7074065B2 (ja) 医療用画像処理装置、医療用画像処理方法、プログラム
JP5810248B2 (ja) 内視鏡システム
CN110461209B (zh) 内窥镜系统及处理器装置
WO2017159335A1 (ja) 医療用画像処理装置、医療用画像処理方法、プログラム
JP6581984B2 (ja) 内視鏡システム
JP6266179B2 (ja) 内視鏡用画像処理装置及び内視鏡システム
JP2015029841A (ja) 撮像装置および撮像方法
JP7328432B2 (ja) 医療用制御装置、医療用観察システム、制御装置及び観察システム
WO2011092951A1 (ja) 画像取得装置、観察装置、および観察システム
JPWO2017115442A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US20230200626A1 (en) Image processing apparatus, processor apparatus, endoscope system, image processing method, and program
JP2013005830A (ja) 内視鏡システム、プロセッサ装置及び撮影距離測定方法
JP6210923B2 (ja) 生体観察システム
JP2002345739A (ja) 画像表示装置
US20230039047A1 (en) Image processing apparatus, image processing method, navigation method and endoscope system
US20220022728A1 (en) Medical system, information processing device, and information processing method
WO2020009127A1 (ja) 医療用観察システム、医療用観察装置、及び医療用観察装置の駆動方法
JP2020171599A (ja) 画像生成装置、コンピュータプログラム及び画像生成方法
JP6663692B2 (ja) 画像処理装置、内視鏡システム、及び画像処理装置の制御方法
JP6064092B2 (ja) 内視鏡システム
US20230347169A1 (en) Phototherapy device, phototherapy method, and computer-readable recording medium
JP7441822B2 (ja) 医療用制御装置及び医療用観察装置
WO2024166306A1 (ja) 医療用装置、内視鏡システム、制御方法、制御プログラム、及び学習装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2016530037

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15857111

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15857111

Country of ref document: EP

Kind code of ref document: A1