WO2015146836A1 - 内視鏡システム - Google Patents

内視鏡システム Download PDF

Info

Publication number
WO2015146836A1
WO2015146836A1 PCT/JP2015/058508 JP2015058508W WO2015146836A1 WO 2015146836 A1 WO2015146836 A1 WO 2015146836A1 JP 2015058508 W JP2015058508 W JP 2015058508W WO 2015146836 A1 WO2015146836 A1 WO 2015146836A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
subject image
acceleration
displayed
Prior art date
Application number
PCT/JP2015/058508
Other languages
English (en)
French (fr)
Inventor
嵩 伊藤
倉 康人
高橋 毅
幹生 猪股
本田 一樹
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Publication of WO2015146836A1 publication Critical patent/WO2015146836A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0006Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means to keep optical surfaces clean, e.g. by preventing or removing dirt, stains, contamination, condensation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00174Optical arrangements characterised by the viewing angles
    • A61B1/00181Optical arrangements characterised by the viewing angles for multiple fixed viewing angles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes

Definitions

  • the present invention relates to an endoscope system, and more particularly to an endoscope system capable of simultaneously observing a direct viewing direction and a side viewing direction.
  • An endoscope system that includes an endoscope that images a subject inside a lumen such as a body cavity, and an image processing device that generates an observation image of the subject captured by the endoscope. Widely used in industrial fields.
  • a protrusion that protrudes from the distal end surface of the distal end of the insertion portion is provided, and a front observation lens that observes a subject located in front of the distal end surface of the protrusion is provided.
  • An endoscope system including an endoscope provided with a surrounding observation lens for observing a subject located opposite to the periphery of the protrusion is provided around the protrusion.
  • a subject observed with a front observation lens is imaged in a circular area at the center of the imaging element, and a subject observed with a surrounding observation lens is captured in a circular area of the same imaging element. Images are taken in the outer ring area.
  • the front image is formed in the center as a circular direct-view visual field image
  • the endoscopic image formed in the outer periphery of the direct-view visual field image as an annular side-view visual field image is displayed on the monitor. Is displayed.
  • Japanese Patent Laid-Open No. 2012-245157 discloses an endoscope apparatus that performs a scaling process on a display area of a direct view visual field image and a side view visual field image in order to display an attention area with an appropriate size. It is disclosed.
  • information on the endoscopic image is larger than a normal endoscopic system that mainly displays only the direct-view visual field image. The amount increases.
  • the amount of information required as an endoscopic image differs depending on the use situation such as insertion of an insertion portion of an endoscope, normal observation, detailed observation of a lesioned portion, and treatment using a treatment instrument. However, no attempt has been made to control the amount of information.
  • an object of the present invention is to provide an endoscope system capable of displaying an observation image controlled to an optimum amount of information necessary according to the use state of the endoscope.
  • An endoscope system includes an insertion portion that is inserted into a subject, and a first subject image that is provided in the insertion portion and that is mainly from a first region of the subject.
  • a first object image acquisition unit to acquire and a second object image that is provided in the insertion unit and acquires a second object image that is a subordinate from a second region of the subject that is different from the first region.
  • the subject image and the second subject image are displayed on a display unit capable of displaying them. Having an image processing unit for changing the amount of information of the second object image.
  • FIG. 1 is a diagram illustrating a configuration of an endoscope system according to the first embodiment
  • FIG. 2 is a perspective view illustrating a configuration of a distal end portion of an insertion portion of the endoscope
  • FIG. 4 is a front view showing a configuration of a distal end portion of an insertion portion of an endoscope
  • FIG. 4 is a diagram showing a configuration of a main part in the first embodiment
  • FIGS. 5A to 5C are image processing by an image processing unit. It is a figure which shows an example of the observation image displayed on a monitor.
  • an endoscope system 1 includes an endoscope 2 that images an observation object and outputs an imaging signal, a light source device 31 that supplies illumination light for illuminating the observation object, A video processor 32 having a function as an image signal generation unit that generates and outputs a video signal (image signal) corresponding to the imaging signal; and a monitor 35 that displays an observation image corresponding to the video signal (image signal). is doing.
  • the endoscope 2 includes an operation unit 3 that an operator holds and operates, an elongated insertion unit 4 that is formed on the distal end side of the operation unit 3 and is inserted into a body cavity and the like, and a side portion of the operation unit 3 And a universal cord 5 provided with one end so as to extend from.
  • the endoscope 2 is a wide-angle endoscope capable of observing a field of view of 180 degrees or more by displaying a plurality of field images.
  • the back of the eyelid or the boundary of the organ For example, it is possible to prevent oversight of a lesion that is difficult to see only by observation in the direct viewing direction.
  • operations such as temporary fixing by twisting, reciprocating movement, intestinal wall hooking, etc. occur in the insertion portion 2 as in the case of a normal large intestine endoscope. To do.
  • the insertion portion 4 includes a hard distal end portion 6 provided on the most distal end side, a bendable bending portion 7 provided on the rear end of the distal end portion 6, and a long and long side provided on the rear end of the bending portion 7. And a flexible tube portion 8 having flexibility. Further, the bending portion 7 performs a bending operation according to the operation of the bending operation lever 9 provided in the operation portion 3.
  • a columnar cylindrical portion 10 is formed at the distal end portion 6 of the insertion portion 4 so as to protrude from a position eccentric to the upper side from the center of the distal end surface of the distal end portion 6. ing.
  • An objective optical system (not shown) that serves both as a direct view and a side view is provided at the tip of the cylindrical portion 10. Further, the distal end portion of the cylindrical portion 10 is disposed at a position corresponding to the direct-viewing observation window 12 disposed at a position corresponding to the direct viewing direction of the objective optical system (not shown) and at a position corresponding to the side viewing direction of the objective optical system (not illustrated). And a side-view observation window 13. Further, a side-view illumination unit 14 that emits light for illuminating the side-view direction is formed near the proximal end of the cylindrical unit 10.
  • the side-view observation window 13 can acquire a side-view visual field image by capturing the return light (reflected light) from the observation target incident from the circumferential direction in the cylindrical cylindrical portion 10 in the side-view visual field.
  • the side view mirror lens 15 is provided.
  • an image of the observation object in the field of view of the direct-viewing observation window 12 is formed in the center as a circular direct-viewing field image at the imaging position of the objective optical system (not shown), and the field of view of the side-viewing observation window 13 It is assumed that the imaging element 40 (imaging surface thereof) shown in FIG. 4 is arranged so that the image of the observation object inside is formed as an annular side view field image on the outer periphery of the direct field image. .
  • Such an image is realized by using a two-reflection optical system that reflects the return light twice by the side-viewing mirror lens, but is formed by reflecting the return light once by the one-reflection optical system, This may be image-processed by the video processor 32 so that the orientations of the side-view visual field image and the direct-view visual field image are matched.
  • the distal end surface of the distal end portion 6 is disposed at a position adjacent to the cylindrical portion 10, and is disposed in the insertion portion 4 and the direct view illumination window 16 that emits illumination light in the range of the direct view field of the direct view observation window 12.
  • a distal end opening 17 is provided which communicates with a treatment instrument channel (not shown) formed of a tube or the like and can project the treatment instrument (the distal end portion) inserted through the treatment instrument channel.
  • the distal end portion 6 of the insertion portion 4 has a support portion 18 provided so as to protrude from the distal end surface of the distal end portion 6, and the support portion 18 is positioned adjacent to the lower side of the cylindrical portion 10.
  • the support portion 18 is configured to be able to support (or hold) each protruding member disposed so as to protrude from the distal end surface of the distal end portion 6.
  • the support portion 18 includes a direct-viewing observation window nozzle portion 19 that emits a gas or a liquid for cleaning the direct-viewing observation window 12 as the above-described protruding members, and light for illuminating the direct-viewing direction.
  • the direct-view illumination window 21 that emits light and the side-view observation window nozzle portion 22 that emits a gas or liquid for cleaning the side-view observation window 13 can be supported (or held), respectively.
  • the support unit 18 acquires a side-view visual field image including any one of the projecting members by causing each of the projecting members, which are objects different from the original observation target, to appear in the side-view visual field. It is formed with a shielding portion 18a, which is an optical shielding member, so as not to be disturbed. That is, by providing the shielding portion 18a on the support portion 18, a side-view visual field image that does not include any of the direct-view observation window nozzle portion 19, the direct-view illumination window 21, and the side-view observation window nozzle portion 22 is obtained. Obtainable.
  • the side-view observation window nozzle portion 22 is provided at two locations of the support portion 18, and is arranged so that the tip protrudes from the side surface of the support portion 18.
  • the operation unit 3 includes an air / liquid supply operation button 24 a capable of giving an operation instruction to eject a gas or liquid for cleaning the direct-view observation window 12 from the direct-view observation window nozzle unit 19,
  • An air / liquid feeding operation button 24b capable of operating instructions for injecting gas or liquid for cleaning the side viewing window 13 from the side viewing window nozzle 22 is provided.
  • Air supply and liquid supply can be switched by pressing the buttons 24a and 24b.
  • a plurality of air / liquid feeding operation buttons are provided so as to correspond to the respective nozzle portions. For example, by operating one air / liquid feeding operation button, the direct-view observation window nozzle unit 19, Gas or liquid may be ejected from both of the side-view observation window nozzle portions 22.
  • a plurality of scope switches 25 are provided at the top of the operation unit 3, and functions for each switch are assigned so as to output signals corresponding to various on / off states that can be used in the endoscope 2. It has a possible configuration. Specifically, the scope switch 25 has a function of outputting a signal corresponding to, for example, start and stop of forward water supply, execution and release of freeze, and notification of the use state of the treatment tool. Can be assigned as a function.
  • At least one of the functions of the air / liquid feeding operation buttons 24a and 24b may be assigned to one of the scope switches 25.
  • the operation unit 3 is provided with a suction operation button 26 that can instruct a suction unit or the like (not shown) to suck and collect mucus or the like in the body cavity from the distal end opening 17. Yes.
  • the mucus etc. in the body cavity sucked in response to the operation of the suction unit are provided in the vicinity of the front end of the distal end opening 17, the treatment instrument channel (not shown) in the insertion section 4, and the operation section 3. After passing through the treatment instrument insertion port 27, it is collected in a suction bottle or the like of a suction unit (not shown).
  • the treatment instrument insertion port 27 communicates with a treatment instrument channel (not shown) in the insertion portion 4 and is formed as an opening into which a treatment instrument (not shown) can be inserted. That is, the surgeon can perform treatment using the treatment tool by inserting the treatment tool from the treatment tool insertion port 27 and projecting the distal end side of the treatment tool from the distal end opening portion 17.
  • a connector 29 that can be connected to the light source device 31 is provided at the other end of the universal cord 5.
  • the tip of the connector 29 is provided with a base (not shown) serving as a connection end of the fluid conduit and a light guide base (not shown) serving as a supply end of illumination light. Further, an electrical contact portion (not shown) capable of connecting one end of the connection cable 33 is provided on the side surface of the connector 29. Furthermore, a connector for electrically connecting the endoscope 2 and the video processor 32 is provided at the other end of the connection cable 33.
  • the universal cord 5 includes a plurality of signal lines for transmitting various electrical signals and a light guide for transmitting illumination light supplied from the light source device 31 in a bundled state.
  • the light guide built in from the insertion portion 4 to the universal cord 5 has an end portion on the light emission side branched in at least two directions in the vicinity of the insertion portion 4, and the light emission end surface on one side is directly viewed as the light emission portion. It has the structure which is arrange
  • the light guide has a configuration in which the light incident side end is disposed on the light guide cap of the connector 29.
  • positioned at the direct view illumination windows 16 and 21 and the side view illumination part 14 may replace with a light guide, and may be a light emitting element like a light emitting diode (LED).
  • LED light emitting diode
  • the video processor 32 outputs a drive signal for driving the image sensor provided at the distal end portion 6 of the endoscope 2. Then, as will be described later, the video processor 32 generates an image signal based on the imaging signal output from the imaging element in accordance with the usage state of the endoscope 2, and performs signal processing (predetermined on the image signal). The video signal is generated and output to the monitor 35.
  • Peripheral devices such as the light source device 31, the video processor 32, and the monitor 35 are arranged on a gantry 36 together with a keyboard 34 for inputting patient information.
  • the endoscope 2 includes at least an image sensor 40, acceleration sensors 41a and 41b, and acceleration detectors 42a and 42b.
  • the video processor 32 includes at least an image processing unit 32a, a usage state detection unit 32b, an image output unit 32c, and an image signal generation unit 32d.
  • the direct-view observation window 12 constituting the first subject image acquisition unit is mainly from the direct-view direction (first direction) including the front substantially parallel to the longitudinal direction of the insertion unit 4, that is, the first region of the subject.
  • the side-view observation window 13 that acquires the first subject image and constitutes the second subject image acquisition unit is different from the longitudinal direction of the insertion portion that is at least partially different from the direct viewing direction (first direction).
  • a second subject image as a sub is acquired from the side viewing direction (second direction) including the intersecting direction, that is, from the second region of the subject.
  • the main subject image is a main subject image that is always displayed as described later, and the sub subject image is a subject whose display mode is changed as necessary, as will be described later. It is a specimen image.
  • the imaging element 40 is provided at the distal end portion 6 of the insertion portion 4 and photoelectrically converts the subject image in the direct viewing direction and the subject image in the side viewing direction on the same plane.
  • the imaging element 40 is electrically connected to the image signal generation unit 32d, and outputs the subject image acquired in the direct-view observation window 12 and the side-view observation window 13 to the image signal generation unit 32d.
  • the image signal generation unit 32d generates an image signal from the imaging signal output from the imaging element 40, and outputs the image signal to the image processing unit 32a.
  • the image processing unit 32a outputs a drive signal for driving the image sensor 40 provided at the distal end portion 6b of the endoscope 2.
  • the image processor 32a of the video processor 32 generates a video signal by performing predetermined signal processing on the image signal output from the image sensor 40 and generated by the image signal generator 32d. More specifically, the image processing unit 32a has an observation image including a direct-view field image having a circular shape and a side-view field image having an annular shape on the outer periphery of the image in the direct-view direction, that is, the side of the direct-view field image. In a state where the visual field images are adjacent to each other, an image arranged so that the side field of view image is surrounded by the direct field image is generated.
  • the boundary region between the direct-view visual field image and the side-view visual field image may or may not overlap.
  • the direct-view observation window 12 and the side-view observation window 13 In this case, the object image partially overlapped may be acquired, and the image processing unit 32a may perform a process of partially removing the overlapping region.
  • an insertion portion usage state detection unit that detects a usage state of the insertion portion and outputs a usage state detection result signal based on the detection result
  • an acceleration value is detected based on an acceleration sensor and a signal detected by the acceleration sensor
  • a method of detecting the use state of the insertion unit 4 by the use state detection unit based on the acceleration value is provided.
  • the acceleration sensor 41a is provided at the distal end portion 6 of the insertion portion 4, detects the acceleration in the advancing / retreating direction of the insertion portion 4, and outputs the detection result to the acceleration detector 42a.
  • the acceleration sensor 41b is provided at the distal end portion 6 of the insertion portion 4, detects the acceleration in the rotational direction of the insertion portion 4, and outputs the detection result to the acceleration detector 42b.
  • the acceleration detector 42a detects the value of the acceleration sensor 41a in the forward / backward direction and outputs it to the use state detection unit 32b. Moreover, the acceleration detector 42b detects the value of the acceleration sensor 41b in the rotation direction and outputs it to the use state detection unit 32b.
  • the acceleration detectors 42a and 42b may be provided in the video processor 32.
  • the usage state detection unit 32b Based on the value of the acceleration sensor 41a in the forward / backward direction from the acceleration detector 42a and the value of the acceleration sensor 41b in the rotational direction from the acceleration detector 42b, the usage state detection unit 32b as the insertion unit usage state detection unit The use state of the endoscope 2 is detected, and the detection result (use state detection result signal) is output to the image processing unit 32a.
  • the usage state detection unit 32b sets the usage state of the endoscope 2 to “ When the value of the acceleration sensor 41a in the forward / backward direction and the value of the acceleration sensor 41b in the rotational direction are less than the preset values, the usage state of the endoscope 2 is detected as “observing”.
  • the use state detection unit 32b detects whether the use state (use state) of the endoscope 2 is “inserting” or “observing”, only the acceleration value detected by each acceleration detector 27a and 27b is used. Rather, the direction of acceleration is positive or negative (+ and ⁇ ), that is, whether the acceleration of the insertion portion 4 is applied in the positive direction or the negative direction with respect to the insertion direction, or in the positive direction with respect to a predetermined rotation direction. You may add to the use condition detection result signal also about the frequency which changes whether it is hanging or it applies to a negative direction within the predetermined fixed time.
  • the image processing unit 32a has an annular shape on the outer periphery of the direct-view visual field image 50a having a circular shape acquired by the direct-view observation window 12 and the direct-view visual field image 50a acquired by the side-view observation window 13. And the side-view visual field image 50b.
  • the side-view visual field image 50b includes a shielding region 50c that is optically shielded by the shielding portion 18a of the support portion 18.
  • the image processing unit 32a generates an image signal obtained by cutting out predetermined regions of the acquired direct-view visual field image 50a and the side-view visual field image 50b according to the use state of the endoscope 2 detected by the use state detection unit 32b.
  • the image processing unit 32a generates an image signal by switching a plurality of modes having different display regions of the side-view visual field image 50b based on the detection result (use state detection result signal) from the use state detection unit 32b. .
  • the image output unit 32 c generates a signal to be displayed on the monitor 35 from the image signal generated by the image processing unit 32 a and outputs the signal to the monitor 35.
  • the image processing unit 32a displays an observation image 51a cut out in a range inscribed in the direct-view visual field image 50a as shown in FIG. 5B. To display.
  • the image processing unit 32a displays an observation image 51b cut out in a range in which the display areas of the direct-view visual field image 50a and the side-view visual field image 50b are the maximum area. As shown in 5C, it is displayed on the monitor 35.
  • FIG. 6 is a diagram for explaining the relationship between each acceleration sensor and the observation image to be displayed.
  • the surgeon When the insertion part 4 is being inserted into a lumen or the like, the surgeon performs a twisting operation to search for the lumen, and frequently repeats the advancing and retreating operation to insert into the deep part while shortening the intestinal tract. That is, while the insertion portion 4 is inserted into a lumen or the like, one of the values of acceleration in the rotational direction or the forward / backward direction of the insertion portion 4 is always large. Therefore, when the acceleration in the rotational direction or the acceleration in the forward / backward direction of the insertion unit 4 is greater than or equal to a preset value, the use state detection unit 32b determines that the movement of the insertion unit 4 is intense and uses the endoscope 2 Detects that the status is “Inserting”.
  • the surgeon slowly pulls out the insertion portion 4 in order to prevent oversight in a use state (screening) in which the entire lumen is observed. That is, the acceleration values in the rotational direction and the forward / backward direction of the insertion portion 4 are always in a small state. Therefore, when the acceleration in the rotation direction of the insertion unit 4 and the acceleration in the forward / backward direction are less than preset values, the use state detection unit 32b determines that the insertion unit 4 is not moving so much or the movement is constant. It determines and detects that the use state of the endoscope 2 is “under observation”.
  • the use state detection unit 32b detects whether the use state of the endoscope 2 is “inserting” or “observing” based on the detection results of the acceleration detectors 42a and 42b, and the detection result Is output to the image processing unit 32a.
  • the image processing unit 32a causes the monitor 35 to display the observation image 51a illustrated in FIG. 5B in which a predetermined region of the direct-view visual field image 50a is cut out.
  • the image processing unit 32a cuts out the predetermined regions of the direct-view visual field image 50a and the side-view visual field image 50b, as shown in FIG. 5C. Is displayed on the monitor 35.
  • the image processing unit 32a changes the information amount of the side view visual field image 50b while displaying at least the direct view visual field image 50a on the monitor 35 according to the use state of the endoscope (during insertion or observation).
  • the endoscope system 1 displays, on the monitor 35, the observation image 51a displaying only a predetermined region of the direct-view visual field image 50a when the operator inserts the insertion portion 4 into the lumen or the like.
  • the surgeon can insert the insertion portion 4 with the same feeling as that of a conventional endoscope.
  • the endoscope system 1 displays on the monitor 35 an observation image 51b in which predetermined areas of the direct-view visual field image 50a and the side-view visual field image 50b are displayed while the operator observes the lumen or the like.
  • the surgeon can observe the wide-angle endoscope 2 with full performance.
  • the endoscope system of the present embodiment it is possible to display an observation image controlled to an optimum amount of necessary information according to the use state of the endoscope (during insertion or observation).
  • FIG. 7 is a perspective view illustrating the configuration of the distal end portion of the insertion portion of the endoscope according to the first modification of the first embodiment
  • FIG. 8 illustrates the main part in the first modification of the first embodiment.
  • FIGS. 9A to 9C are diagrams illustrating an example of an observation image displayed on a monitor by image processing by an image processing unit.
  • a direct-view observation window 60a for observing the direct-view direction (first direction), that is, the first region of the subject, is disposed on the distal end surface of the distal end portion 6a of the endoscope 2.
  • a side viewing direction (second direction) including a direction intersecting with the longitudinal direction of the insertion portion that is at least partially different from the direct viewing direction (first direction), that is, Side-view observation windows 60b and 60c for observing the second region of the subject are arranged.
  • the side-view observation windows 60b and 60c are arranged at equal intervals in the circumferential direction of the tip end portion 6a, for example, at intervals of 180 degrees.
  • the main subject image is a main subject image that is always displayed, as in the first embodiment, and the sub subject image is a subject whose display mode is changed as necessary. It is a specimen image.
  • the number of side-view observation windows 60b and 60c arranged at equal intervals in the circumferential direction of the distal end portion 6a is not limited to two, and for example, a configuration in which one side-view observation window is arranged. Good. Further, the side-view observation windows 60b and 60c arranged at equal intervals in the circumferential direction of the distal end portion 6a, for example, arrange the side-view observation windows every 120 degrees in the circumferential direction (that is, three side-view visual field images). Or a configuration in which side-view observation windows are arranged every 90 degrees in the circumferential direction (that is, four side-view visual field images are acquired).
  • a direct-view illumination window 61a that emits illumination light in the range of the direct-view field of view of the direct-view observation window 60a is disposed on the distal end surface of the distal end portion 6a of the endoscope 2 at a position adjacent to the direct-view observation window 60a. Further, on the side surface of the distal end portion 6a of the endoscope 2, a side-view illumination window 61b that emits illumination light in a range of the side view field of the side-view observation window 60b is disposed at a position adjacent to the side-view observation window 60b.
  • a side-view illumination window 61c that emits illumination light in the range of the side-view visual field of the side-view observation window 60c is disposed at a position adjacent to the side-view observation window 60c.
  • a light emitting element such as a light emitting diode (LED) is disposed in the direct light illumination window 61a for emitting illumination light and the light emitting part disposed in the side view illumination unit 61b, and illumination light is emitted from the light source with a light guide.
  • a method of guiding can be considered.
  • the distal end opening 62 through which the treatment instrument (the distal end part) inserted through the treatment instrument channel can be projected and the direct-view observation window 60a are washed on the distal end surface of the distal end part 6a of the endoscope 2.
  • a direct-view observation window nozzle portion 63 for injecting gas or liquid for the purpose is provided on the side surface of the distal end portion 6a of the endoscope 2.
  • a side-view observation window nozzle unit (not shown) for injecting gas or liquid for cleaning the side-view observation windows 60b and 60c is provided. 60c is provided adjacent to each.
  • an imaging element 64a is arranged at the imaging position of the direct-viewing observation window 60a and an objective optical system (not shown).
  • An imaging element 64b is arranged at the imaging position of the side-view observation window 60b and an objective optical system (not shown), and an imaging element 64c is arranged at the imaging position of the side-view observation window 60c and the objective optical system (not shown).
  • the imaging elements 64a to 64c are electrically connected to the image signal generation unit 32d, respectively, and the direct-view field-of-view image captured by the imaging element 64a, that is, the first subject image, and the imaging elements 64b and 64c.
  • the side-view visual field images captured by the respective images, that is, the second subject image as a sub image are output to the image signal generating unit 32d.
  • the image signal generation unit 32d generates an image signal from the imaging signals output from the imaging elements 64a to 64c, and outputs the image signal to the image processing unit 32a.
  • the image processing unit 32a places the direct-view visual field image 65a captured by the image sensor 64a in the center, and is captured by the side-view visual field image 65b and the image sensor 64c captured by the image sensor 64b.
  • Image signals are generated so that the side-view visual field images 65c are arranged adjacent to each other so as to be adjacent to the direct-view visual field image 65a.
  • the image processing unit 32a causes the monitor 35 to display an observation image obtained by cutting out a predetermined region from the direct-view visual field image 65a, the side-view visual field image 65b, and 65c according to the detection result of the use state detection unit 32b.
  • the image processing unit 32a performs predetermined processing for only the direct-view visual field image 65a as illustrated in FIG. 9B.
  • An observation image 66 a obtained by cutting out the area is displayed on the monitor 35.
  • the image processing unit 32a when the usage state of the endoscope 2 is “observing”, the image processing unit 32a, as shown in FIG. 9C, direct view visual field image 65a and side visual field image 65b so that the display area becomes the maximum area. And the observation image 66c obtained by cutting out the predetermined area 65c is displayed on the monitor 35.
  • the image processing unit 32a changes the information amount of the side-view visual field image 65b while displaying at least the direct-view visual field image 65a on the monitor 35 according to the use state of the endoscope (during insertion or observation).
  • the internal system An observation image controlled to an optimum amount of necessary information can be displayed according to the use state of the endoscope (during insertion or observation).
  • FIGS. 10A to 10C are diagrams illustrating an example of an observation image displayed on the monitor by the image processing by the image processing unit.
  • the image processing unit 32a divides the acquired direct-view visual field image 65a and side-view visual field images 65b and 65c into a plurality of regions (9 regions in the example of FIG. 10A), respectively, and uses the endoscope 2 Accordingly, an arbitrary region is selected (or excluded) from the plurality of divided regions, and an observation image is generated.
  • the image processing unit 32a displays an observation image 67a in which the regions E11 to E19 having only the direct-view visual field image 65a are selected as illustrated in FIG. 10B. It is displayed on the monitor 35.
  • the image processing unit 32a when the use state of the endoscope 2 is “observing”, the image processing unit 32a, as shown in FIG. 10C, the regions E11 to E19 of the direct-view visual field image 65a and the regions E21 and E22 of the side-view visual field image 65b. , E24, E25, E27, E28 and the observation image 67b in which the regions E2, E3, E5, E6, E8, E9 of the side-view visual field image 65c are selected are displayed on the monitor 35.
  • the image processing unit 32a displays information on the side view field image 65b and the side view field image 65c while displaying at least the direct view field image 65a on the monitor 35 in accordance with the use state of the endoscope (during insertion or observation). Change the amount.
  • the endoscope system 1 As described above, in the endoscope system 1 according to the second modification of the first embodiment, as in the first embodiment, depending on the use state of the endoscope (during insertion or observation), It is possible to display an observation image controlled to an optimum amount of information necessary.
  • an endoscope system that switches an observation image to be displayed on the monitor 35 according to the use state of the treatment tool as the use state of the endoscope will be described.
  • FIG. 11 is a diagram showing the configuration of the distal end portion of the insertion portion of the endoscope
  • FIG. 12 is a diagram showing the configuration of the main part in the second embodiment
  • FIG. 13 is an enlarged view of the operation unit.
  • FIGS. 14A to 14D are diagrams illustrating an example of an observation image displayed on the monitor by the image processing by the image processing unit.
  • the configuration of the endoscope system 1 according to the present embodiment is the same as that of the endoscope system 1 according to the first embodiment. However, as shown in FIG. It is assumed that the optical design is made so that the tip opening 17 that projects the image is imaged.
  • the endoscope 2 is configured to include at least a sensor 70, a speed conversion unit 71, an acceleration conversion unit 72, and an edge detection unit 73.
  • the speed conversion unit 71, the acceleration conversion unit 72, and the edge detection unit 73 may be provided in the video processor 32.
  • the sensor 70 is provided adjacent to the treatment instrument channel 74 communicating with the treatment instrument insertion port 27 as shown in FIG.
  • the treatment instrument 75 is inserted into the treatment instrument channel 74, and the treatment instrument 75 protrudes from the distal end opening portion 17.
  • the treatment instrument 75 is provided with a plurality of markers 76 at equal intervals.
  • the sensor 70 detects the markers 76 provided at equal intervals on the treatment instrument 75 and outputs the detection result to the speed conversion unit 71.
  • the speed conversion unit 71 calculates the speed of the treatment instrument 75 from the detection interval (detection time) of the marker 76 detected by the sensor 70, and outputs the calculation result to the acceleration conversion unit 72.
  • the acceleration conversion unit 72 calculates the time change of the insertion speed, that is, the absolute value of the acceleration, from the insertion speed of the treatment instrument 75 calculated by the speed conversion unit 71, and outputs the calculation result to the use state detection unit 32b.
  • the imaging element 40 is electrically connected to the image signal generation unit 32 d via the edge detection unit 73, and the subject image acquired through the direct viewing observation window 12 and the side viewing observation window 13 is transmitted via the edge detection unit 73. Output to the image signal generator 32d.
  • the image signal generation unit 32d generates an image signal from the imaging signal output from the imaging element 40, and outputs the image signal to the image processing unit 32a.
  • the edge detection field 73 is input with the direct-view visual field image 50a acquired by the direct-view observation window 12 and the side-view visual field image 50b acquired by the side-view observation window 13.
  • the edge detection unit 73 detects whether or not the edge of the treatment instrument 75 exists in the direct-view visual field image 50a or the side-view visual field image 50b, and outputs the detection result to the use state detection unit 32b.
  • the use state detection unit 32 b detects the use state of the treatment tool 75 according to the acceleration of the treatment tool 75 calculated by the acceleration conversion unit 72 and the presence or absence of the edge of the treatment tool 75 detected by the edge detection unit 73. The detection result is output to the image processing unit 32a.
  • the use state detection unit 32b sets the use state of the endoscope 2 as “treatment instrument being inserted”. To detect. In addition, the use state detection unit 32b determines that the acceleration of the treatment instrument 75 calculated by the acceleration conversion unit 72 is less than a preset value, or the edge detection unit 73 applies only the side view visual field image 50b to the treatment instrument 75. When the edge is detected, the usage state of the endoscope 2 is detected as “before and after the treatment tool protrudes”.
  • the use state detection unit 32b detects the use state of the endoscope 2 as “in process”.
  • the use state detection unit 32b detects whether or not the use state (use state) of the treatment instrument 75 is “treatment instrument being inserted”, not only the acceleration value detected by the acceleration conversion unit 72 but also the acceleration value is detected.
  • the frequency of the positive / negative direction (+ and-) that is, whether the acceleration of the treatment instrument 75 is applied in the positive direction or in the negative direction with respect to the insertion direction is also used for a predetermined time. It may be added to the state detection result signal.
  • the image processing unit 32a causes the monitor 35 to display an observation image in which the cut-out ranges of the direct-view visual field image 50a and the side-view visual field image 50b are changed according to the use state of the endoscope 2 detected by the use state detection unit 32b. .
  • the image processing unit 32a monitors the observation image 51a cut out in a range inscribed in the direct-view visual field image 50a as illustrated in FIG. 14B. To display.
  • the image processing unit 32a has the maximum display areas of the direct-view visual field image 50a and the side-view visual field image 50b as illustrated in FIG. 14C.
  • the observation image 52b cut out in the range is displayed on the monitor 35.
  • the image processing unit 32a when the use state of the endoscope 2 is “before and after the projection of the treatment tool”, the image processing unit 32a, as shown in FIG. 14D, includes a part of the direct view visual field image 50a and the distal end opening of the side view visual field image 50b. 17 is displayed on the monitor 35.
  • FIG. 15 is a diagram for explaining the relationship between the acceleration of the treatment tool and the observation image to be displayed
  • FIG. 16 is a diagram for explaining the relationship between edge detection of the treatment tool and the observation image to be displayed
  • FIG. 17 is a flowchart for explaining the usage state detection processing by the usage state detection unit.
  • the surgeon inserts the treatment instrument 75 in a state where the treatment is captured by the direct view visual field image.
  • the surgeon repeats quick operation of the treatment tool until the treatment tool 75 reaches the vicinity of the distal end portion 6 of the insertion portion 4. That is, the speed when the treatment instrument 75 is inserted into the treatment instrument channel 74 has changed greatly, and the absolute value of the acceleration calculated by the acceleration conversion unit 72 is not less than a preset value. Therefore, the use state detection unit 32b detects that the use state of the treatment instrument 75 is “inserting” when the acceleration of the treatment instrument 75 is equal to or greater than a preset value.
  • the treatment instrument 75 when the treatment instrument 75 is to be protruded from the distal end opening 17 (or the distal end part 6), that is, when the surgeon determines that “the treatment instrument 75 has been inserted to the vicinity of the distal end opening 17”, The person carefully operates the treatment instrument 75 in order to prevent the treatment instrument 75 from suddenly protruding from the distal end opening portion 17. In other words, the speed of the treatment instrument 75 changes little, and the absolute value of the acceleration calculated by the acceleration conversion unit 72 is less than a preset value. Therefore, when the acceleration of the treatment instrument 75 is less than a preset value, the use state detection unit 32b detects that the use state of the treatment instrument 75 is “before and after the projection of the treatment instrument”.
  • the operator protrudes the treatment tool 75 too much and removes the mucous membrane or the like.
  • the treatment instrument 75 is carefully operated so as not to be damaged.
  • the speed of the treatment instrument 75 has a small change, and the absolute value of the acceleration calculated by the acceleration conversion unit 72 is less than a preset value.
  • the use state detection unit 32b detects that the use state of the endoscope 2 is “before and after the treatment instrument protrudes” of the treatment instrument 75.
  • the distal end portion of the treatment instrument 75 is captured by the direct-view visual field image 50a.
  • the edge of the treatment instrument 75 is detected from the direct-view visual field image 50a by the edge detection unit 73. Therefore, when the edge of the treatment tool 75 is detected in the direct-view visual field image 50a, the use state detection unit 32b detects that the use state of the treatment tool 75 is “being treated”.
  • step S1 it is determined whether or not the edge of the treatment instrument 75 is within the direct-view visual field image 50a (step S1).
  • the result is YES
  • the use state of the treatment tool 75 is detected as “in treatment” (step S2), and the process is terminated.
  • NO is determined, and it is determined whether or not the acceleration of the treatment instrument 75 is equal to or greater than a preset value (step S3).
  • step S4 If it is determined that the acceleration of the treatment instrument 75 is equal to or greater than a preset value, YES is determined, and the use state of the treatment instrument 75 is detected as “before and after the treatment instrument protrudes” (step S4), and the process ends. On the other hand, if it is determined that the acceleration of the treatment instrument 75 is not equal to or greater than a preset value (the acceleration of the treatment instrument 75 is less than a preset value), the determination is NO and the usage state of the treatment instrument 75 is “Inserting treatment instrument”. "Is detected (step S5), and the process is terminated.
  • the use state detection unit 32b outputs the detection result (“treatment in progress”, “before / after treatment instrument protrusion” or “during treatment instrument insertion”) to the image processing unit 32a.
  • the image processing unit 32a displays the observation image 51a shown in FIG. 14B on the monitor 35, which is a predetermined region of the direct-view visual field image 50a.
  • the image processing unit 32a cuts out the predetermined regions of the direct-view visual field image 50a and the side-view visual field image 50b, as shown in FIG. 14C.
  • the image 51b is displayed on the monitor 35.
  • the image processing unit 32a displays the observation image 51c shown in FIG. .
  • the endoscope system 1 captures the treatment target by displaying the observation image 51b of FIG. 14C on the monitor 35.
  • the treatment instrument 75 can be inserted in the state.
  • the endoscope system 1 displays the observation image 51c of FIG.
  • the treatment instrument 75 can be safely projected (inserted) while checking.
  • the image processing unit 32a displays at least the direct-view visual field image 50a on the monitor 35 and displays the side-view visual field image 50b according to the usage status of the treatment instrument 75 (when the treatment instrument is inserted, before and after the treatment instrument is projected, or during treatment). Change the amount of information.
  • the endoscope system 1 displays the observation image 51a of FIG. 14B on the monitor 35 when the surgeon is about to perform a procedure and is performing a procedure, so that only the region necessary for the procedure is displayed. You can pay attention.
  • the usage status of the endoscope here, the usage status of the treatment tool (during insertion of the treatment tool, before and after the treatment tool is projected, or during treatment).
  • An observation image controlled to an optimum amount of information can be displayed.
  • Modification 1 of the second embodiment will be described.
  • the first embodiment obtains one direct-view visual field image and a plurality of side-view visual field images by using the plurality of imaging elements 64a to 64c in the second embodiment described above.
  • the modified example 1 is applied.
  • FIG. 18 is a diagram illustrating the configuration of the distal end portion of the insertion portion of the endoscope
  • FIGS. 19A to 19D are diagrams illustrating examples of observation images displayed on the monitor by image processing by the image processing unit. .
  • the distal end portion 6b of the endoscope system 1 is provided with a distal end opening 62a on the inclined surface of the distal end surface of the distal end portion 6b. It is assumed that the optical design is made so that the distal end opening 62a from which the treatment instrument 75 (the distal end thereof) protrudes is imaged.
  • a direct-view visual field image 65a including the tip opening 62a is acquired by the direct-view observation window 60a, and side-view visual field images 65b and 65c are acquired by the side-view observation windows 60b and 60c.
  • predetermined regions of the direct-view visual field image 65 a and the side-view visual field images 65 b and 65 c are cut out and displayed on the monitor 35 according to the usage state of the treatment instrument 75.
  • an observation image 66a shown in FIG. 19B in which only the region of the direct-view visual field image 65a is cut out is displayed on the monitor 35.
  • the observation image shown in FIG. 19C is cut out in a range where the display areas of the direct-view visual field image 65a and the side-view visual field images 65b and 65c are the maximum area. 66 b is displayed on the monitor 35.
  • an observation image 66c shown in FIG. 19D that is cut out in an area where the display area of the distal end opening 62a is substantially the center is displayed on the monitor 35.
  • the image processing unit 32a displays at least the direct-view visual field image 65a on the monitor 35 and displays the side-view visual field image 65b or the like depending on the usage status of the treatment instrument 75 (when the treatment instrument is inserted, before or after the treatment instrument is projected, or during treatment).
  • the amount of information of the side view visual field image 65c is changed.
  • the internal system It is possible to display an observation image controlled to an optimum amount of necessary information according to the usage status of the endoscope, here, the usage status of the treatment tool (during insertion of the treatment tool, before and after the treatment tool is projected, or during treatment). .
  • Modification 2 of the second embodiment will be described.
  • the structure of the modification 2 of 2nd Embodiment is substantially the same as that of the modification 1 of 2nd Embodiment, and only a different structure is demonstrated.
  • FIG. 20 is a diagram illustrating a configuration of the distal end portion of the insertion portion of the endoscope
  • FIGS. 21A to 21D are diagrams illustrating examples of observation images displayed on the monitor by image processing by the image processing unit. .
  • the distal end portion 6c of the endoscope system 1 is a slope on the side surface of the distal end portion 6c, and a distal end opening portion on the rear end side of the side-view observation window 60b.
  • 62b is provided, and the optical design is such that the distal end opening 62b through which the treatment instrument 75 (the distal end thereof) protrudes is imaged by the side-view observation window 60b.
  • the side-view observation window 60b acquires the direct-view visual field image 65a by the direct-view observation window 60a
  • the side-view observation window 65b acquires the side-view visual field image 65b including the tip opening 62b.
  • the side view visual field image 65c is acquired by the side view observation window 65c.
  • predetermined regions of the direct-view visual field image 65 a and the side-view visual field images 65 b and 65 c are cut out and displayed on the monitor 35 according to the usage state of the treatment instrument 75.
  • an observation image 66a shown in FIG. 21B in which only the region of the direct-view visual field image 65a is cut out is displayed on the monitor 35.
  • the observation image shown in FIG. 21C is cut out in a range in which the display areas of the direct view visual field image 65a and the side view visual field images 65b and 65c are maximized.
  • 66 b is displayed on the monitor 35.
  • an observation image 66d shown in FIG. 21D cut out including an area where the distal end opening 62b can be visually recognized is displayed on the monitor 35.
  • the image processing unit 32a displays at least the direct-view visual field image 65a on the monitor 35 and displays the side-view visual field image 65b or the like depending on the usage status of the treatment instrument 75 (when the treatment instrument is inserted, before or after the treatment instrument is projected, or during treatment).
  • the amount of information of the side view visual field image 65c is changed.
  • the usage status of the endoscope As described above, in the endoscope system 1 according to the second modification of the second embodiment, similarly to the second embodiment, the usage status of the endoscope, here, the usage status of the treatment tool (treatment) It is possible to display an observation image controlled to an optimum amount of necessary information depending on whether the instrument is inserted, before or after the treatment instrument protrudes, or during treatment.
  • FIG. 22 is an enlarged view of the operation unit.
  • the treatment tool 75 a of the present embodiment changes the interval of the markers 76.
  • the marker 76 has a narrow interval on the distal end side of the treatment instrument 75a and a large interval on the proximal end side of the treatment instrument 75a. More specifically, the marker 76 has a wide interval between the markers 76 corresponding to the position where the treatment instrument 75a has reached the vicinity of the distal end opening 17.
  • the sensor 70 detects the marker 76 which changed the space
  • the acceleration conversion unit 72 artificially calculates the acceleration of the treatment instrument 75 based on the detection interval (time) of the marker 76 that changes the interval of the treatment instrument 75a.
  • the acceleration conversion unit 72 determines that the acceleration is reduced in a pseudo manner.
  • the use state detection unit 32b detects the use state of the treatment instrument 75a according to the pseudo acceleration calculated by the acceleration conversion unit 72. Then, the image processing unit 32a switches the observation image displayed on the monitor 35 based on the usage state of the treatment instrument 75a detected by the usage state detection unit 32b.
  • the observation image switching process is the same as that in the second embodiment.
  • FIG. 23 is a diagram for explaining the relationship between the acceleration of the treatment instrument and the observation image to be displayed
  • FIG. 24 is a flowchart for explaining the use state detection processing by the use state detection unit.
  • the treatment instrument 75a When the treatment instrument 75a is to be protruded from the distal end opening 17, an operator (or an assistant) who is not accustomed to inserting the treatment instrument 75a determines that the treatment instrument 75a has been inserted to the vicinity of the distal end opening 17.
  • the treatment instrument 75a may be inserted without reducing the insertion speed.
  • the acceleration of the treatment instrument becomes equal to or greater than a preset value, and the observation image 51c in which the distal end opening portion 17 shown in FIG. .
  • an operator (or an assistant) who is not accustomed to inserting the treatment instrument 75a frequently moves the treatment instrument 75a when the treatment instrument 75a is projected from the distal end opening 17. Even when the operation is performed, since the interval between the markers 76 is wide, the change in the pseudo speed of the treatment instrument 75a becomes small. For this reason, since the pseudo acceleration of the treatment instrument 75a calculated by the acceleration conversion unit 72 is less than a preset value, the use state detection unit 32b is an operator (or an assistant) who is not used to inserting the treatment instrument 75a. ) Can be detected as “before and after the projection of the treatment instrument” even when the treatment instrument 75 a is to be projected from the distal end opening portion 17.
  • step S11 when it is determined in step S1 that the edge of the treatment instrument 75a is not in the direct view visual field image 50a, it is determined whether or not the pseudo acceleration of the treatment instrument 75a is equal to or greater than a preset value (step S11). If it is determined that the pseudo acceleration of the treatment instrument 75a is equal to or greater than a preset value, the result is YES, and in step S4, the use state of the treatment instrument 75 is detected as “before and after the treatment instrument protrudes”, and the process ends.
  • step S5 if it is determined that the pseudo acceleration of the treatment instrument 75a is not equal to or greater than the preset value (the pseudo acceleration of the treatment instrument 75a is less than the preset value), NO is determined, and the use state of the treatment instrument 75 is determined in step S5. Is detected as “treatment tool being inserted”, and the process is terminated.
  • the image processing unit 32a displays the observation image 51a of FIG. 14B on the monitor 35 according to the use state of the treatment tool 75a from the use state detection unit 32b, 14C, the observation image 51b shown in FIG. 14C is displayed on the monitor 35.
  • the image processing unit 32a displays at least the direct-view visual field image 50a on the monitor 35 and displays the side-view visual field image 50b according to the usage status of the treatment instrument 75 (when the treatment instrument is inserted, before and after the treatment instrument is projected, or during treatment). Change the amount of information.
  • the second implementation is performed even when the insertion speed of the treatment instrument is not slowed down. Similar to the form, it is possible to display an observation image that is controlled to an optimum amount of information necessary depending on the use status of the treatment tool (during insertion of the treatment tool, before and after the treatment tool is projected, or during treatment).
  • an endoscope system that switches an observation image to be displayed on the monitor 35 in accordance with the use state of the bending operation lever as the use state of the endoscope will be described.
  • FIG. 25 is a diagram showing a configuration of a main part in the fourth embodiment
  • FIG. 26 is a diagram for explaining a relationship between a bending angle and an observation image to be cut out
  • FIGS. 27A to 27C are images. It is a figure which shows an example of the observation image displayed on a monitor by the image process by a process part.
  • the endoscope 2 is configured to include at least a sensor 80, a rotation angle detection unit 81, a rotation acceleration conversion unit 82, and a bending angle conversion unit 83.
  • the rotation angle detection unit 81, the rotation acceleration conversion unit 82, and the bending angle conversion unit 83 may be provided in the video processor 32.
  • the sensor 80 is provided adjacent to the bending operation lever 9, detects the operation state of the bending operation lever 9, and outputs it to the rotation angle detection unit 81.
  • the rotation angle detection unit 81 detects the rotation angle of the bending operation lever 9 from the operation state of the bending operation lever 9 from the sensor 80, and outputs it to the rotation acceleration conversion unit 82 and the bending angle conversion unit 83.
  • the rotation acceleration conversion unit 82 calculates the acceleration (rotation acceleration) of the bending operation lever 9 from the change in the rotation angle of the bending operation lever 9 from the rotation angle detection unit 81, and outputs it to the use state detection unit 32b.
  • the bending angle conversion unit 83 calculates the bending angle of the bending unit 7 from the rotation angle of the bending operation lever 9 from the rotation angle detection unit 81, and outputs it to the use state detection unit 32b.
  • the use state detection unit 32b detects that the use state of the endoscope 2 is “partial observation” when the rotational acceleration of the bending operation lever 9 is equal to or greater than a preset value. On the other hand, the use state detection unit 32b detects the use state of the endoscope 2 from the bending angle of the bending unit 7 when the rotational acceleration of the bending operation lever 9 is less than a preset value.
  • the use state detection unit 32b detects that the use state of the endoscope 2 is “under overall observation”.
  • the use state detection unit 32b detects that the use state of the endoscope 2 is “partial observation” when the bending angle (absolute value) of the bending unit 7 is larger than 0 degree and 45 degrees or less.
  • the use state detection unit 32b detects that the use state of the endoscope 2 is “in front view”.
  • the usage state detection unit 32b outputs the usage state of the endoscope 2 thus detected to the image processing unit 32a.
  • the imaging element 40 is electrically connected to the image signal generation unit 32d, and outputs the subject image acquired through the direct viewing observation window 12 and the side viewing observation window 13 to the image signal generation unit 32d.
  • the image signal generation unit 32d generates an image signal from the imaging signal output from the imaging element 40, and outputs the image signal to the image processing unit 32a.
  • the image processing unit 32a cuts out predetermined regions of the direct-view visual field image 50a and the side-view visual field image 50b based on the detection result detected by the use state detection unit 32b, and displays the cut-out observation image on the monitor 35.
  • the image processing unit 32a detects that “partial observation is in progress”, as shown in FIG. 26, the bending angle of the bending unit 7 is ⁇ 45 degrees on the L side (L side Max).
  • the observation image 84a obtained by cutting out the direct view visual field image 50a and the side view visual field image 50b at the position P1 is displayed on the monitor 35 as shown in FIG. 27A.
  • the image processing unit 32a displays an observation image 84b obtained by cutting out the direct-view visual field image 50a and the side-view visual field image 50b at the position P2 when the bending angle of the bending unit 7 is 0 degree. It is displayed on the monitor 35 as shown in 27B.
  • the image processing unit 32a displays the direct view visual field image 50a and the side view visual field image 50b at the position P3.
  • the cut out observation image 84c is displayed on the monitor 35 as shown in FIG. 27C.
  • the image processing unit 32a displays the observation image 84b cut out at the position P2 on the monitor 35 as shown in FIG. 27B.
  • the cut-out position can be changed in the same way in the up-down direction and in the up-down-left-right simultaneous operation.
  • the operator When observing the entire lumen, the operator makes the distal end portion 6 be arranged at the center of the lumen, and bends the bending portion 7 in order to efficiently and thoroughly observe the entire lumen. Remove slowly.
  • the use state detection unit 32b indicates that the rotation acceleration of the bending operation lever 9 is less than a preset value, and the bending angle of the bending unit 7 calculated from the rotation angle of the bending operation lever 9 is 0 degree. By detecting this, the usage state of the endoscope is detected as “overall observation”.
  • the surgeon makes the curved portion 7 slightly curved to make it easier to observe the site of interest.
  • the bending angle is not so large and is generally 45 degrees or less. That is, the rotational acceleration of the bending operation lever 9 is not less than a preset value, or the absolute value of the bending angle of the bending portion 7 is not more than 45 degrees. Therefore, the use state detection unit 32b detects that the rotational acceleration of the bending operation lever 9 is greater than or equal to a preset value, or the absolute value of the bending angle of the bending unit 7 is 45 degrees or less. The mirror usage state is detected as “partially observing”.
  • the surgeon largely curves the bending portion 7 in order to capture the target object at the center of the direct vision field.
  • the bending angle is generally greater than 45 degrees.
  • the distal end portion 6 is directed to the target of interest, the bending operation is not performed from a state where a certain amount of bending is applied. That is, the bending angle of the bending portion 7 is larger than 45, and the rotational acceleration of the bending operation lever 9 is almost zero.
  • the use state detection unit 32b detects that the rotational acceleration of the bending operation lever 9 is less than a preset value and that the absolute value of the bending angle of the bending unit 7 is greater than 45 degrees, whereby the endoscope It is detected that the usage state of is “in front view”.
  • FIG. 28 is a flowchart for explaining the usage state detection processing by the usage state detection unit.
  • step S21 it is determined whether or not the acceleration of the bending operation lever 9 is equal to or greater than a preset value. If the acceleration of the bending operation lever 9 is equal to or greater than a preset value, the result is YES, the use state of the endoscope 2 is detected as “partial observation” (step S22), and the process is terminated. On the other hand, if the acceleration of the bending operation lever 9 is not greater than or equal to a preset value, NO is determined and the bending angle (absolute value) of the bending portion 7 is determined (step S23).
  • step S24 When the bending angle (absolute value) of the bending portion 7 is 0 degree, the use state of the endoscope 2 is detected as “overall observation” (step S24), and the process is terminated. On the other hand, when the bending angle (absolute value) of the bending portion 7 is greater than 0 degree and equal to or less than 45 degrees, the use state of the endoscope 2 is detected as “partially observing” (step S25), and the process ends. On the other hand, when the bending angle (absolute value) of the bending portion 7 is greater than 45 degrees, the use state of the endoscope 2 is detected as “in front view” (step S26), and the process is terminated.
  • the image processing unit 32a displays FIG. 27A, FIG. 27B, or FIG. 27C on the monitor 35 in accordance with the use state of the endoscope 2 detected in this way.
  • the endoscope system 1 can display the observation image 84b of FIG. 27B on the monitor 35 to observe the entire lumen throughout. it can. Further, the endoscope system 1 displays the observation images 84a to 84c of FIGS. 27A to 27C on the monitor 35 according to the bending angle of the bending portion 7 when the operator wants to pay attention to a place where it is difficult to observe such as the back of the eyelid. By doing so, it is possible to emphasize the region to be noticed.
  • the endoscope system 1 is viewing a target of interest such as a lesion from the front, the endoscopic system 1 displays the observation image 84b of FIG. 27B on the monitor 35 so that the target portion can be identified in the same manner as a normal so-called direct-view endoscope. It can be observed directly.
  • the image processing unit 32 a changes the information amount of the side view visual field image 50 b while displaying at least the direct view visual field image 50 a on the monitor 35 according to the bending angle of the bending unit 7 by the operation of the bending operation lever 9.
  • the endoscope system of the present embodiment it is necessary depending on the use state of the endoscope, here, the use state of the bending operation lever (during overall observation, partial observation, or front view). An observation image controlled to an optimum amount of information can be displayed.
  • Modification Next, a modification of the fourth embodiment will be described. Note that a modification of the fourth embodiment is the same as that of the first embodiment in which one direct-view field-of-view image and a plurality of side-view field-of-view images are acquired by the plurality of imaging elements 64a to 64c. Modification 1 is applied.
  • FIGS. 29A to 29D are diagrams illustrating an example of an observation image displayed on the monitor by the image processing by the image processing unit.
  • the usage state detection process by the usage state detection unit 32b is the same as that in the fourth embodiment described above.
  • the image processing unit 32a converts the direct-view visual field image 65a and the side-view visual field images 65b and 65c acquired by the direct-view observation window 60a, the side-view observation windows 60b and 60c, The cutout position is changed according to the above and displayed on the monitor 35.
  • the image processing unit 32 a An observation image 68a obtained by cutting a part of the direct-view visual field image 65a at the position P4 is displayed on the monitor 35 as shown in FIG. 29B.
  • the image processing unit 32a displays an observation image 68b obtained by cutting out a portion of the direct-view visual field image 65a and the side-view visual field images 65b and 65c at the position P5 in FIG. 29C. As shown, it is displayed on the monitor 35.
  • the image processing unit 32a is an observation image obtained by cutting out a part of the side view visual field image 65b and the direct view visual field image 65a at the position P6. 68c is displayed on the monitor 35 as shown in FIG. 29D.
  • the image processing unit 32a causes the monitor 35 to display the observation image 68b shown in FIG.
  • the image processing unit 32a displays at least the direct view visual field image 65a on the monitor 35 according to the bending angle of the bending unit 7 by the operation of the bending operation lever 9, and information on the side view visual field image 65b and the side view visual field image 65c. Change the amount.
  • the endoscope system 1 including the endoscope 2 including the plurality of imaging elements 64a to 64c according to the modification of the fourth embodiment An observation image controlled to the optimum amount of information required can be displayed according to the usage status of the mirror, here, the usage status of the bending operation lever (during overall observation, partial observation, or front view).
  • an endoscope system will be described in which an observation image displayed on the monitor 35 is switched according to the use state of the suction operation as the use state of the endoscope.
  • FIG. 30 is a diagram showing a configuration of a main part in the fifth embodiment.
  • the endoscope 2 includes at least a sensor 90 and a suction operation detection unit 91.
  • the suction operation detection unit 91 may be provided in the video processor 32.
  • the sensor 90 detects the operation state of the suction operation button 26 and outputs the detection result to the suction operation detection unit 91.
  • the suction operation detection unit 91 detects whether or not the suction operation button 26 is operated based on the detection result of the sensor 90, and outputs the detection result to the use state detection unit 32b.
  • the suction operation detection unit 91 detects that the suction operation button 26 is not operated when the suction operation button 26 is OFF, and operates the suction operation button 26 when the suction operation button 26 is half-pressed or turned ON. It detects that it was done.
  • the use state detection unit 32b detects the use state of the endoscope 2 as “in sucking”.
  • the use state detection unit 32b performs acceleration and rotation of the insertion unit 4 from the acceleration detectors 42a and 42b. The usage state of the endoscope 2 is detected from the acceleration in the direction.
  • the use state detection by this acceleration is the same as in the first embodiment, and the use state detection unit 32b has a case in which the acceleration in the advancing / retreating direction of the insertion unit 4 or the acceleration in the rotation direction is greater than or equal to a preset value.
  • the use state of the endoscope 2 is detected as “inserting” and the acceleration in the advancing / retreating direction and the acceleration in the rotating direction of the insertion unit 4 are less than preset values, the use state of the endoscope 2 is determined. It is detected as “observing”.
  • the use state detection unit 32b detects whether the use state (use state) of the endoscope 2 is “inserting” or “observing”, only the acceleration value detected by each acceleration detector 27a and 27b is used. Rather, the direction of acceleration is positive or negative (+ and ⁇ ), that is, whether the acceleration of the insertion portion 4 is applied in the positive direction or the negative direction with respect to the insertion direction, or in the positive direction with respect to a predetermined rotation direction. You may add to the use condition detection result signal also about the frequency which changes whether it is hanging or it applies to a negative direction within the predetermined fixed time.
  • the imaging element 40 is electrically connected to the image signal generation unit 32d, and outputs the subject image acquired through the direct viewing observation window 12 and the side viewing observation window 13 to the image signal generation unit 32d.
  • the image signal generation unit 32d generates an image signal from the imaging signal output from the imaging element 40, and outputs the image signal to the image processing unit 32a.
  • the image processing unit 32a causes the monitor 35 to display an observation image 51c in which the distal end opening 17 shown in FIG. 14D can be visually recognized when the use state detection unit 32b detects “sucking”.
  • the image processing unit 32a displays the observation image 51a in which only a predetermined region of the direct-view visual field image 50a illustrated in FIG.
  • the observation image 51b obtained by cutting out the region where the display area of the direct view visual field image 50a and the side view visual field image 50b shown in FIG.
  • the suction operation button 26 When the suction operation is going to be performed and when the suction operation is being performed, the surgeon operates the suction operation button 26 with a finger. At that time, the suction operation button 26 is half pressed or turned on. That is, by detecting that the position of the suction operation button 26 has been changed by the sensor 90 and the suction operation detection unit 91, the use state detection unit 32b detects the use state of the endoscope 2 as “in sucking”. Can do.
  • FIG. 31 is a flowchart for explaining the usage state detection processing by the usage state detection unit.
  • step S31 it is determined whether or not the suction operation button has been operated.
  • the answer is YES
  • the use state of the endoscope 2 is detected as “in suction” (step S32), and the process is terminated.
  • the determination is NO, and it is determined whether the acceleration in the forward / backward direction or the rotational direction is equal to or greater than a preset value (step S33).
  • step S34 If the acceleration in the forward / backward direction or the rotational direction is greater than or equal to a preset value, the usage state of the endoscope 2 is detected as “inserting” (step S34), and the process ends. On the other hand, when the acceleration in the forward / backward direction or the rotational direction is not equal to or greater than a preset value, the use state of the endoscope 2 is detected as “observing” (step S35), and the process ends.
  • the image processing unit 32a displays FIG. 14A, FIG. 14B, or FIG. 14C on the monitor 35 according to the use state of the endoscope 2 detected in this way.
  • the endoscope system 1 displays the observation images 51 and 51b of FIGS. 14B and 14C on the monitor 35 in accordance with the acceleration in the forward / backward direction and the rotational direction at the normal time when the operator is not performing the suction operation. By doing so, the same effect as the first embodiment can be obtained. Further, when the surgeon is performing a suction operation, the endoscope system 1 makes it easier to perform the suction operation by displaying the observation image 51c in which the distal end opening 17 in FIG.
  • the image processing unit 32a changes the information amount of the side view visual field image 50b while displaying at least the direct view visual field image 50a on the monitor 35 according to the state of the suction operation.
  • the endoscope system of the present embodiment it is possible to display an observation image controlled to an optimum amount of necessary information in each of the use status of the endoscope, here, during normal time / during suction. it can.
  • suction operation has been described in the present embodiment, for example, whether or not the air / liquid feeding operation button 24b is pressed during the air / water feeding operation, and the observation screen is displayed as in the present embodiment. Switching can be done.
  • Modification Next, a modification of the fifth embodiment will be described. Note that a modification of the fifth embodiment is the same as that of the second embodiment in which one direct-view field-of-view image and a plurality of side-view field-of-view images are acquired by the plurality of imaging elements 64a to 64c. Modification 1 is applied. That is, it is assumed that the endoscope system 1 is optically designed so that the distal end opening 62a is imaged by the direct-view observation window 60a.
  • the use state detection unit 32b detects the use state of the endoscope 2 as “in sucking”.
  • the image processing unit 32a causes the monitor 35 to display an observation image 66c shown in FIG.
  • the image processing unit 32a determines the endoscope 2 from the acceleration in the advancing / retreating direction and the acceleration in the rotation direction of the insertion unit 4 as in the fifth embodiment. Detect the usage status of.
  • the image processing unit 32a displays the observation image 66a shown in FIG. 19C is displayed on the monitor 35.
  • the observation image 66b shown in FIG. 19C is cut out so that the display areas of the direct-view visual field image 65a and the side-view visual field images 65b and 65c are maximized.
  • the image processing unit 32a changes the information amount of the side view visual field image 65b and the side view visual field image 65c while displaying at least the direct view visual field image 65a on the monitor 35 according to the state of the suction operation.
  • the endoscope system 1 including the endoscope 2 including the plurality of image pickup devices 64a to 64c according to the modification of the fifth embodiment It is possible to display an observation image controlled to an optimum amount of necessary information in each of the usage conditions of the mirror, here, during normal time / during suction.
  • FIG. 32 is a diagram showing an example of an observation image displayed on the monitor by the image processing by the image processing unit.
  • the image processing unit 32a generates a plurality of observation images 92a to 92f having different cutout ranges in advance from the direct view visual field image 50a and the side view visual field image 50b.
  • the surgeon arbitrarily sets an observation image to be displayed on the monitor 35 from the plurality of observation images 92a to 92f according to the usage state of the endoscope 2.
  • the surgeon sets the observation image 92f when the usage state of the endoscope 2 is “inserting”, sets the observation image 92d when “use”, and “when the treatment tool protrudes before and after”
  • the observation image 92d is set, and when “treatment is in progress”, the observation image 92a is set.
  • the image processing unit 32a selects an observation image set for each operator based on the usage state of the endoscope 2 from the usage state detection unit 32b and displays the selected observation image on the monitor 35. That is, the image processing unit 32a causes the monitor 35 to display the observation image 92a set for the surgeon when the use state detection unit 32b detects “in process”.
  • the image processing unit 32a changes the information amount of the side-view visual field image 50b while displaying at least the direct-view visual field image 50a on the monitor 35 according to the use state of the endoscope.
  • the observation image to be displayed can be set according to the operator's preference, and the optimum information required for each operator according to the usage status of the endoscope. It is possible to display an observation image controlled in quantity.
  • the image processing unit 32a may divide the direct-view visual field image 50a and the side-view visual field image 50b into a plurality of regions, and generate an observation image except for regions that are inappropriate for display. For example, the image processing unit 32a detects the luminance values of the direct-view visual field image 50a and the side-view visual field image 50b, generates an observation image excluding a region where overexposure occurs, and displays the observation image on the monitor 35. May be. At this time, the image processing unit 32a generates an observation image that is dimmed only with the image of the selected region.
  • the image processing unit 32a automatically switches the observation image to be displayed according to the usage state of the endoscope 2 detected by the usage state detection unit 32b.
  • a mode in which the observation image to be displayed is automatically switched and a mode in which at least a part of the observation image can be manually switched by an operation from the operator may be selected as necessary.
  • the side is
  • the mechanism that realizes the function of illuminating and observing may be a separate structure from the mechanism that realizes the function of illuminating and observing the front, and may be detachable from the insertion portion 4.
  • FIG. 33 is a perspective view of the distal end portion 6 of the insertion portion 4 to which a side observation unit is attached.
  • the distal end portion 6 of the insertion portion 4 has a front vision unit 100.
  • the side viewing unit 110 has a structure that can be attached to and detached from the front viewing unit 100 by a clip portion 111.
  • the side visual field unit 110 has two observation windows 112 for acquiring an image in the left-right direction and two illumination windows 113 for illuminating the left-right direction.
  • a use state detection unit such as an acceleration sensor for the insertion unit 4 or the side view unit 500 having such a configuration
  • an operation is performed according to the use state of the endoscope as in the above-described embodiments. It is possible to display an observation image controlled to an optimum amount of information required for each person.
  • an observation image arranged side by side so that the side-view visual field images are arranged on both sides of the direct-view visual field image is not limited to the embodiment of FIG. It is not restricted to the form which displays a some image on 35.
  • FIG. 34 is a diagram for explaining an example in which a plurality of field-of-view images are displayed separately on a plurality of monitors.
  • a monitor 35a for displaying a direct-view visual field image 65a, a monitor 35b for displaying a side-view visual field image 65b, and a side-view visual field image 65c are displayed for a plurality of visual fields such as front and side.
  • the observation images may be displayed separately on a plurality of monitors.
  • steps in the flowchart in this specification may be executed in a different order for each execution by changing the execution order and executing a plurality of steps at the same time as long as it does not contradict its nature.
  • the main field of view can always be displayed even a little so that safety can be confirmed during use.
  • an endoscope displaying a wide-angle visual field has been described as an example.
  • the gist of the present invention may be applied to a side endoscope.
  • the main subject image is a subject image in the field of view in the lateral region, and the sub-subject image is inserted when, for example, a necessary part is inserted.
  • This is a subject image in the visual field in the front area for confirming the insertion direction.
  • the image processing unit 32a displays a direct-view visual field image or a side view when displaying an observation image controlled to an optimum amount of information necessary according to the use state of the endoscope 2 detected by the use state detection unit 32b.
  • a mask process for covering the display may be performed on a part of the observation image to display it on the monitor 35.

Landscapes

  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

 内視鏡システム1は、被検体の内部に挿入される挿入部4と、挿入部4に設けられ、被検体の第1の領域から主となる第1の被検体像を取得する第1の被検体像取得部12と、挿入部に設けられ、第1の領域とは異なる被検体の第2の領域から副となる第2の被検体像を取得する第2の被検体像取得部13と、挿入部の使用状態を検出し、検出結果に基づく使用状態検出結果信号を出力する挿入部使用状態検出部32bと、第1の被検体像と第2の被検体像のうち少なくとも第1の被検体像に基づく画像信号を生成する画像信号生成部32dと、挿入部使用状態検出部32bによって出力された使用状態検出結果信号に応じて第1の被検体像及び第2の被検体像を表示可能な表示部に表示させる、第2の被検体像の情報量を変化させる画像処理部32aと、を有する。

Description

内視鏡システム
 本発明は、内視鏡システムに関し、特に、直視方向及び側視方向を同時に観察することが可能な内視鏡システムに関するものである。
 体腔等、管腔の内部の被検体を撮像する内視鏡、及び、内視鏡により撮像された被検体の観察画像を生成する画像処理装置等を具備する内視鏡システムが、医療分野及び工業分野等において広く用いられている。
 例えば、特許第4955838号公報には、挿入部の先端部の先端面から突出する突出部が設けられて、この突出部の先端面に前方に位置する被検体を観察する前方観察用レンズが設けれ、突出部の周囲に、突出部の周囲に対向して位置する被検体を観察する周囲観察用レンズが設けられた内視鏡を備える内視鏡システムが開示されている。
 この内視鏡は、前方観察用レンズで観察された被検体を撮像素子の中心部に円形の領域で撮像し、周囲観察用レンズで観察された被検体を、同じ撮像素子の円形の領域の外周の円環の領域で撮像する。これにより、前方の画像が円形の直視視野画像として中心部に形成され、周囲方向の画像が円環形状の側視視野画像として直視視野画像の外周部に形成された内視鏡画像がモニタ上に表示される。
 また、例えば、特開2012-245157号公報には、注目領域を適正な大きさでの表示を行うために、直視視野画像及び側視視野画像の表示領域を変倍処理する内視鏡装置が開示されている。
 このような直視視野画像と側視視野画像とを1つのモニタ上に表示させる内視鏡システムでは、主に直視視野画像のみを表示する通常の内視鏡システムよりも、内視鏡画像の情報量が多くなる。
 しかしながら、内視鏡の挿入部の挿入時、通常の観察時、病変部の詳細な観察時、処置具を用いた処置時等の各使用状況によって内視鏡画像として必要となる情報量は異なるが、その情報量をコントロールすることについては従来検討されていなかった。
 そこで、本発明は、内視鏡の使用状況に応じて、必要となる最適な情報量にコントロールした観察画像を表示することができる内視鏡システムを提供することを目的とする。
 本発明の一態様の内視鏡システムは、被検体の内部に挿入される挿入部と、前記挿入部に設けられ、前記被検体の第1の領域から主となる第1の被検体像を取得する第1の被検体像取得部と、前記挿入部に設けられ、前記第1の領域とは異なる前記被検体の第2の領域から副となる第2の被検体像を取得する第2の被検体像取得部と、前記挿入部の使用状態を検出し、前記検出結果に基づく使用状態検出結果信号を出力する挿入部使用状態検出部と、前記第1の被検体像と前記第2の被検体像のうち少なくとも前記第1の被検体像に基づく画像信号を生成する画像信号生成部と、前記挿入部使用状態検出部によって出力された前記使用状態検出結果信号に応じて前記第1の被検体像及び前記第2の被検体像を表示可能な表示部に表示させる、前記第2の被検体像の情報量を変化させる画像処理部と、を有する。
第1の実施形態に係る内視鏡システムの構成を示す図である。 内視鏡の挿入部の先端部の構成を示す斜視図である。 内視鏡の挿入部の先端部の断面を示す断面図である。 第1の実施形態における要部の構成を示す図である。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 各加速度センサと表示する観察画像との関係を説明するための図である。 第1の実施形態の変形例1に係る内視鏡の挿入部の先端部の構成を示す斜視図である。 第1の実施形態の変形例1における要部の構成を示す図である。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 内視鏡の挿入部の先端部の構成を示す図である。 第2の実施形態における要部の構成を示す図である。 操作部を拡大した図である。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 処置具の加速度と表示する観察画像との関係を説明するための図である。 処置具のエッジ検出と表示する観察画像との関係を説明するための図である。 使用状態検出部による使用状態の検出処理について説明するためのフローチャートである。 内視鏡の挿入部の先端部の構成を示す図である。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 内視鏡の挿入部の先端部の構成を示す図である。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 操作部を拡大した図である。 処置具の加速度と表示する観察画像との関係を説明するための図である。 使用状態検出部による使用状態の検出処理について説明するためのフローチャートである。 第4の実施形態における要部の構成を示す図である。 湾曲角度と切り出す観察画像との関係を説明するための図である。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 使用状態検出部による使用状態の検出処理について説明するためのフローチャートである。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 第5の実施形態における要部の構成を示す図である。 使用状態検出部による使用状態の検出処理について説明するためのフローチャートである。 画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。 側方観察用のユニットが取り付けられた挿入部4の先端部6の斜視図である。 複数の視野画像を複数のモニタに分けて表示させる例を説明するための図である。
 以下、図面を参照して本発明の実施形態を説明する。
(第1の実施形態)
 まず、図1から図5を用いて第1の実施形態の内視鏡システムの構成について説明する。図1は、第1の実施形態に係る内視鏡システムの構成を示す図であり、図2は、内視鏡の挿入部の先端部の構成を示す斜視図であり、図3は、内視鏡の挿入部の先端部の構成を示す正面図であり、図4は、第1の実施形態における要部の構成を示す図であり、図5A~図5Cは、画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。
 図1に示すように、内視鏡システム1は、観察対象物を撮像して撮像信号を出力する内視鏡2と、観察対象物を照明するための照明光を供給する光源装置31と、撮像信号に応じた映像信号(画像信号)を生成及び出力する画像信号生成部としての機能を有するビデオプロセッサ32と、映像信号(画像信号)に応じた観察画像を表示するモニタ35と、を有している。
 内視鏡2は、術者が把持して操作を行う操作部3と、操作部3の先端側に形成され、体腔内等に挿入される細長の挿入部4と、操作部3の側部から延出するように一方の端部が設けられたユニバーサルコード5と、を有して構成されている。
 本実施形態の内視鏡2は、複数の視野画像を表示させることで180度以上の視野を観察可能な広角内視鏡であり、体腔内、特に大腸内において、襞の裏や臓器の境界等、直視方向の観察だけでは見難い場所の病変を見落とすことを防ぐことを実現する。大腸内に内視鏡2の挿入部4を挿入するにあたっては、通常の大腸内視鏡と同様、挿入部2に捻り、往復運動、腸壁のフックを行うことによる仮固定等の動作が発生する。
 挿入部4は、最も先端側に設けられた硬質の先端部6と、先端部6の後端に設けられた湾曲自在の湾曲部7と、湾曲部7の後端に設けられた長尺かつ可撓性を有する可撓管部8と、を有して構成されている。また、湾曲部7は、操作部3に設けられた湾曲操作レバー9の操作に応じた湾曲動作を行う。
 一方、図2に示すように、挿入部4の先端部6には、先端部6の先端面の中央から上方寄りに偏心した位置から突出して設けられた、円柱形状の円筒部10が形成されている。
 円筒部10の先端部には、直視及び側視を兼ねる図示しない対物光学系が設けられている。また、円筒部10の先端部は、前記図示しない対物光学系の直視方向に相当する箇所に配置された直視観察窓12と、前記図示しない対物光学系の側視方向に相当する箇所に配置された側視観察窓13と、を有して構成されている。さらに、円筒部10の基端付近には、側視方向を照明するための光を出射する側視照明部14が形成されている。
 側視観察窓13は、円柱形状の円筒部10における周方向から入射される観察対象物からの戻り光(反射光)を側視視野内に捉えることにより側視視野画像を取得可能とするための、側視用ミラーレンズ15を備えている。
 なお、前記図示しない対物光学系の結像位置には、直視観察窓12の視野内の観察対象物の画像が円形の直視視野画像として中心部に形成され、かつ、側視観察窓13の視野内の観察対象物の画像が円環形状の側視視野画像として直視視野画像の外周部に形成されるように、図4に示す撮像素子40(の撮像面)が配置されているものとする。
このような画像は側視用ミラーレンズで戻り光を2回反射させる2回反射光学系を用いることで実現させているが、戻り光を1回反射光学系により1回反射させて形成し、これをビデオプロセッサ32で画像処理し、側視視野画像と直視視野画像との向きを合わせてもよい。
 先端部6の先端面には、円筒部10に隣接する位置に配置され、直視観察窓12の直視視野の範囲に照明光を出射する直視照明窓16と、挿入部4内に配設されたチューブ等により形成された図示しない処置具チャンネルに連通するとともに、処置具チャンネルに挿通された処置具(の先端部)を突出させることが可能な先端開口部17と、が設けられている。
 また、挿入部4の先端部6は、先端部6の先端面から突出するように設けられた支持部18を有し、この支持部18は円筒部10の下部側に隣接して位置する。
 支持部18は、先端部6の先端面から突出させるように配置された各突出部材を支持(または保持)可能に構成されている。具体的には、支持部18は、前述の各突出部材としての、直視観察窓12を洗浄するための気体または液体を射出する直視観察窓用ノズル部19と、直視方向を照明するための光を出射する直視照明窓21と、側視観察窓13を洗浄するための気体または液体を射出する側視観察窓用ノズル部22と、をそれぞれ支持(または保持)可能に構成されている。
 一方、支持部18は、本来の観察対象物とは異なる物体である前述の各突出部材が側視視野内に現れることにより、各突出部材のいずれかを含むような側視視野画像を取得してしまわないようにするための、光学的な遮蔽部材である遮蔽部18aを有して形成されている。すなわち、遮蔽部18aを支持部18に設けることにより、直視観察窓用ノズル部19、直視照明窓21、及び、側視観察窓用ノズル部22がいずれも含まれないような側視視野画像を得ることができる。
 側視観察窓用ノズル部22は、図2及び図3に示すように、支持部18の2箇所に設けられているとともに、支持部18の側面に先端が突出するように配置されている。
 操作部3には、図1に示すように、直視観察窓12を洗浄するための気体または液体を直視観察窓用ノズル部19から射出させる操作指示が可能な送気送液操作ボタン24aと、側視観察窓13を洗浄するための気体または液体を側視観察窓用ノズル部22から射出させる操作指示が可能な送気送液操作ボタン24bと、が設けられ、この送気送液操作ボタン24a及び24bの押下により送気と送液とが切り替え可能である。また、本実施形態では、それぞれのノズル部に対応するように複数の送気送液操作ボタンを設けているが、例えば1つの送気送液操作ボタンの操作により直視観察窓用ノズル部19、側視観察窓用ノズル部22の両方から気体または液体が射出されるようにしてもよい。
 スコープスイッチ25は、操作部3の頂部に複数設けられており、内視鏡2において使用可能な種々の記載のオンまたはオフ等に対応した信号を出力させるように、各スイッチ毎の機能を割り付けることが可能な構成を有している。具体的には、スコープスイッチ25には、例えば、前方送水の開始及び停止、フリーズの実行及び解除、及び、処置具の使用状態の告知等に対応した信号を出力させる機能を、各スイッチ毎の機能として割り付けることができる。
 なお、本実施形態においては、送気送液操作ボタン24a及び24bのうちの少なくともいずれか一方の機能を、スコープスイッチ25のうちのいずれかに割り付けるようにしてもよい。
 また、操作部3には、体腔内の粘液等を先端開口部17より吸引して回収するための指示を図示しない吸引ユニット等に対して行うことが可能な吸引操作ボタン26が配設されている。
 そして、図示しない吸引ユニット等の動作に応じて吸引された体腔内の粘液等は、先端開口部17と、挿入部4内の図示しない処置具チャンネルと、操作部3の前端付近に設けられた処置具挿入口27とを経た後、図示しない吸引ユニットの吸引ボトル等に回収される。
 処置具挿入口27は、挿入部4内の図示しない処置具チャンネルに連通しているとともに、図示しない処置具を挿入可能な開口として形成されている。すなわち、術者は、処置具挿入口27から処置具を挿入し、処置具の先端側を先端開口部17から突出させることにより、処置具を用いた処置を行うことができる。
 一方、図1に示すように、ユニバーサルコード5の他方の端部には、光源装置31に接続可能なコネクタ29が設けられている。
 コネクタ29の先端部には、流体管路の接続端部となる口金(図示せず)と、照明光の供給端部となるライトガイド口金(図示せず)とが設けられている。また、コネクタ29の側面には、接続ケーブル33の一方の端部を接続可能な電気接点部(図示せず)が設けられている。さらに、接続ケーブル33の他方の端部には、内視鏡2とビデオプロセッサ32と電気的に接続するためのコネクタが設けられている。
 ユニバーサルコード5には、種々の電気信号を伝送するための複数の信号線、及び、光源装置31から供給される照明光を伝送するためのライトガイドが束ねられた状態として内蔵されている。
 挿入部4からユニバーサルコード5にかけて内蔵された前記ライトガイドは、光出射側の端部が挿入部4付近において少なくとも2方向に分岐されるとともに、一方の側の光出射端面が光出射部として直視照明窓16及び21に配置され、かつ、他方の側の光出射端面が光出射部として側視照明部14に配置されるような構成を有している。また、前記ライトガイドは、光入射側の端部がコネクタ29のライトガイド口金に配置されるような構成を有している。
 尚、直視照明窓16及び21、側視照明部14に配置される光出射部はライトガイドに代えて発光ダイオード(LED)のような発光素子であってもよい。
 ビデオプロセッサ32は、内視鏡2の先端部6に設けられた撮像素子を駆動するための駆動信号を出力する。そして、ビデオプロセッサ32は、後述するように、内視鏡2の使用状態に応じて、前記撮像素子から出力される撮像信号に基づき画像信号を生成するとともに該画像信号に対して信号処理(所定の領域を切り出す)を施すことにより、映像信号を生成してモニタ35へ出力する。
 光源装置31、ビデオプロセッサ32及びモニタ35等の周辺装置は、患者情報の入力等を行うキーボード34とともに、架台36に配置されている。
 図4に示すように、内視鏡2は、撮像素子40と、加速度センサ41a、41bと、加速度検出器42a、42bとを少なくとも有して構成されている。また、ビデオプロセッサ32は、画像処理部32aと、使用状態検出部32bと、画像出力部32cと、画像信号生成部32dとを少なくとも有して構成されている。
 第1の被検体像取得部を構成する直視観察窓12は、挿入部4の長手方向に略平行な前方を含む直視方向(第1の方向)つまり被検体の第1の領域から主となる第1の被検体像を取得し、第2の被検体像取得部を構成する側視観察窓13は、直視方向(第1の方向)とは少なくとも一部が異なる挿入部の長手方向とは交差する方向を含む側視方向(第2の方向)つまり被検体の第2の領域から副となる第2の被検体像を取得する。
 上記の主となる被検体像とは、後述するように常に表示させる主となる被検体像であり、副となる被検体像とは、後述するように必要に応じて表示の態様を変える被検体像である。
撮像素子40は、挿入部4の先端部6に設けられており、直視方向の被検体像と側視方向の被検体像とを同じ面で光電変換する。撮像素子40は、画像信号生成部32dに電気的に接続されており、直視観察窓12及び側視観察窓13で取得された被検体像を画像信号生成部32dに出力する。画像信号生成部32dは、撮像素子40から出力された撮像信号から画像信号を生成し、画像処理部32aに出力する。
 画像処理部32aは、内視鏡2の先端部6bに設けられた撮像素子40を駆動するための駆動信号を出力する。そして、ビデオプロセッサ32の画像処理部32aは、前記撮像素子40から出力され、画像信号生成部32dにより生成された画像信号に対して所定の信号処理を施すことにより、映像信号を生成する。より具体的には、画像処理部32aは、円形形状をなす直視視野画像と、直視方向の画像の外周において円環形状をなす側視視野画像とを具備した観察画像、つまり直視視野画像に側視視野画像が隣り合った状態で、直視視野画像に側視視野画像が囲い込むように並べた画像を生成する。
 尚、直視視野画像と側視視野画像の境界領域は重複していても重複していなくてもよく、上記境界領域が重複している状態の場合、直視観察窓12と側視観察窓13とで一部が重複した被検体像を取得し、画像処理部32aで重複する領域を一部除去する処理を行ってもよい。
 前記挿入部の使用状態を検出し、前記検出結果に基づく使用状態検出結果信号を出力する挿入部使用状態検出部の一例として、加速度センサと、加速度センサが検出した信号に基づき加速度の値を検出する加速度検出器と、加速度の値に基づき挿入部4の使用状態を使用状態検出部で検出する方法がある。
 加速度センサ41aは、挿入部4の先端部6に設けられており、挿入部4の進退方向の加速度を検出し、検出結果を加速度検出器42aに出力する。また、加速度センサ41bは、挿入部4の先端部6に設けられており、挿入部4の回転方向の加速度を検出し、検出結果を加速度検出器42bに出力する。
 加速度検出器42aは、進退方向の加速度センサ41aの値を検出し、使用状態検出部32bに出力する。また、加速度検出器42bは、回転方向の加速度センサ41bの値を検出し、使用状態検出部32bに出力する。なお、加速度検出器42a及び42bは、ビデオプロセッサ32に設けられていてもよい。
 挿入部使用状態検出部としての使用状態検出部32bは、加速度検出器42aからの進退方向の加速度センサ41aの値と、加速度検出器42bからの回転方向の加速度センサ41bの値とに基づき、内視鏡2の使用状態を検出し、検出結果(使用状態検出結果信号)を画像処理部32aに出力する。
 具体的には、使用状態検出部32bは、進退方向の加速度センサ41aの値または回転方向の加速度センサ41bの値が予め設定された値以上の場合、内視鏡2の使用状態を「挿入中」と検出し、進退方向の加速度センサ41aの値及び回転方向の加速度センサ41bの値が予め設定された値未満の場合、内視鏡2の使用状態を「観察中」と検出する。
 なお、使用状態検出部32bによって、内視鏡2の使用状況(使用状態)が「挿入中」か「観察中」かを検出する場合、各加速度検出器27a及び27bが検出した加速度の値だけでなく、加速度の向きの正負(+と-)、つまり挿入部4の加速度が挿入方向に対して正方向に掛かっているか負方向に掛かっているか、あるいは所定の回転方向に対して正方向に掛かっているか負方向に掛かっているかが、予め定めた一定時間の間で変化する頻度についても、使用状態検出結果信号に加えてもよい。
 画像処理部32aは、図5Aに示すように、直視観察窓12で取得された円形形状をなす直視視野画像50aと、側視観察窓13で取得された直視視野画像50aの外周において円環形状をなす側視視野画像50bとを取得する。なお、側視視野画像50bは、支持部18の遮蔽部18aにより光学的に遮蔽される遮蔽領域50cを含む。
 画像処理部32aは、使用状態検出部32bにより検出された内視鏡2の使用状態に応じて、取得した直視視野画像50a、側視視野画像50bの所定の領域を切り出した画像信号を生成する。ここでは、画像処理部32aは、使用状態検出部32bからの検出結果(使用状態検出結果信号)に基づいて、側視視野画像50bの表示領域が異なる複数のモードを切り替えて画像信号を生成する。
 画像出力部32cは、画像処理部32aにより生成された画像信号からモニタ35に表示するための信号を生成し、モニタ35に出力する。
 具体的には、画像処理部32aは、内視鏡の使用状態が「挿入中」の場合、直視視野画像50aに内接する範囲で切り出した観察画像51aを、図5Bに示すように、モニタ35に表示させる。
 一方、画像処理部32aは、内視鏡の使用状態が「観察中」の場合、直視視野画像50a及び側視視野画像50bの表示領域が最大面積となる範囲で切り出した観察画像51bを、図5Cに示すように、モニタ35に表示させる。
 ここで、このように構成された内視鏡システム1の作用について、図6を用いて説明する。図6は、各加速度センサと表示する観察画像との関係を説明するための図である。
 挿入部4を管腔等に挿入中の場合、術者は管腔を探すために捩じり操作を行ったり、腸管を短縮させながら深部へ挿入するために進退操作を頻繁にかつ激しく繰り返す。すなわち、挿入部4を管腔等に挿入中には、挿入部4の回転方向または進退方向の加速度の値のいずれか片方は常に大きい状態となる。よって、使用状態検出部32bは、挿入部4の回転方向の加速度または進退方向の加速度が予め設定された値以上である場合、挿入部4の動きが激しいと判定し、内視鏡2の使用状態が「挿入中」であることを検出する。
 一方、管腔等を観察中の場合、術者は、管腔内をくまなく観察する使用状態(スクリーニング)では見落としを防ぐために、挿入部4をゆっくり引き抜いていく。すなわち、挿入部4の回転方向及び進退方向の加速度の値は常に小さい状態となる。よって、使用状態検出部32bは、挿入部4の回転方向の加速度、及び、進退方向の加速度が予め設定された値未満である場合、挿入部4があまり動いていない、または、動きが一定と判定し、内視鏡2の使用状態が「観察中」であることを検出する。
 使用状態検出部32bは、加速度検出器42a及び42bの検出結果に基づき、内視鏡2の使用状態が「挿入中」であるか、あるいは「観察中」であるかを検出し、その検出結果を画像処理部32aに出力する。画像処理部32aは、使用状態検出部32bからの検出結果が「挿入中」の場合、直視視野画像50aの所定の領域を切り出した、図5Bに示す観察画像51aをモニタ35に表示させる。
 一方、画像処理部32aは、使用状態検出部32bからの検出結果が「観察中」の場合、直視視野画像50a及び側視視野画像50bの所定の領域を切り取った、図5Cに示す観察画像51bをモニタ35に表示させる。
 つまり、画像処理部32aは、内視鏡の使用状況(挿入中または観察中)に応じて、少なくとも直視視野画像50aをモニタ35に表示させつつ側視視野画像50bの情報量を変化させる。
 以上のように、内視鏡システム1は、術者が挿入部4を管腔等に挿入している際に、直視視野画像50aの所定の領域のみを表示した観察画像51aをモニタ35に表示することで、術者は従来の内視鏡と同様の感覚で挿入部4を挿入することができる。また、内視鏡システム1は、術者が管腔等を観察している際に、直視視野画像50a及び側視視野画像50bの所定の領域を表示した観察画像51bをモニタ35に表示することで、術者は広角の内視鏡2の性能を十分に発揮させて観察することができる。
 よって、本実施形態の内視鏡システムによれば、内視鏡の使用状況(挿入中または観察中)に応じて、必要となる最適な情報量にコントロールした観察画像を表示することができる。
(変形例1)
 次に、第1の実施形態の変形例1について説明する。
 図7は、第1の実施形態の変形例1に係る内視鏡の挿入部の先端部の構成を示す斜視図であり、図8は、第1の実施形態の変形例1における要部の構成を示す図であり、図9A~図9Cは、画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。
 図7に示すように、内視鏡2の先端部6aの先端面には、直視方向(第1の方向)つまり被検体の第1の領域を観察するための直視観察窓60aが配置され、内視鏡2の先端部6aの側面には、直視方向(第1の方向)とは少なくとも一部が異なる挿入部の長手方向とは交差する方向を含む側視方向(第2の方向)つまり被検体の第2の領域を観察するための側視観察窓60b及び60cが配置されている。
 側視観察窓60b及び60cは、先端部6aの周方向に均等な間隔、例えば、180度の間隔で配置されている。
 上記の主となる被検体像とは、第1の実施形態と同様、常に表示させる主となる被検体像であり、副となる被検体像とは、必要に応じて表示の態様を変える被検体像である。
 なお、先端部6aの周方向に均等な間隔で配置される側視観察窓60b及び60cは、2つに限定されるものではなく、例えば1つの側視観察窓を配置する構成であってもよい。また、先端部6aの周方向に均等な間隔で配置される側視観察窓60b及び60cは、例えば、周方向に120度毎に側視観察窓を配置する(すなわち、3つの側視視野画像を取得する)構成であってもよいし、周方向に90度毎に側視観察窓を配置する(すなわち、4つの側視視野画像を取得する)構成であってもよい。
 内視鏡2の先端部6aの先端面には、直視観察窓60aに隣接する位置に、直視観察窓60aの直視視野の範囲に照明光を出射する直視照明窓61aが配置されている。また、内視鏡2の先端部6aの側面には、側視観察窓60bに隣接する位置に、側視観察窓60bの側視視野の範囲に照明光を出射する側視照明窓61bが配置され、側視観察窓60cに隣接する位置に、側視観察窓60cの側視視野の範囲に照明光を出射する側視照明窓61cが配置されている。
 尚、それぞれ照明光を出射する直視照明窓61a及び側視照明部61bに配置される光出射部には発光ダイオード(LED)のような発光素子を配置する方法、光源からライトガイドで照明光を導く方法等が考えられる。
 また、内視鏡2の先端部6aの先端面には、処置具チャンネルに挿通された処置具(の先端部)を突出させることが可能な先端開口部62と、直視観察窓60aを洗浄するための気体または液体を射出する直視観察窓用ノズル部63と、が設けられている。さらに、内視鏡2の先端部6aの側面には、側視観察窓60b及び60cを洗浄するための気体または液体を射出する図示しない側視観察窓用ノズル部が、側視観察窓60b及び60cのそれぞれに隣接して設けられている。
 図8に示すように、直視観察窓60a及び図示しない対物光学系の結像位置には、撮像素子64aが配置されている。また、側視観察窓60b及び図示しない対物光学系の結像位置には、撮像素子64bが配置され、側視観察窓60c及び図示しない対物光学系の結像位置には、撮像素子64cが配置されている。
 撮像素子64a~64cは、それぞれ画像信号生成部32dに電気的に接続されており、撮像素子64aで撮像された直視視野画像つまり主となる第1の被検体像と、撮像素子64b及び64cのそれぞれで撮像された側視視野画像つまり副となる第2の被検体像とを画像信号生成部32dに出力する。
 画像信号生成部32dは、撮像素子64a~64cから出力された撮像信号から画像信号を生成し、画像処理部32aに出力する。
 図9Aに示すように、画像処理部32aは、撮像素子64aで撮像された直視視野画像65aを中央に配置し、撮像素子64bで撮像された側視視野画像65b及び撮像素子64cで撮像された側視視野画像65cが、それぞれ直視視野画像65aと両隣になるように隣り合う状態で配置するように画像信号を生成する。
 さらに、画像処理部32aは、使用状態検出部32bの検出結果に応じて、直視視野画像65a、側視視野画像65b、及び、65cから所定の領域を切り出した観察画像をモニタ35に表示させる。
 具体的には、第1の実施形態と同様に、画像処理部32aは、内視鏡2の使用状態が「挿入中」の場合、図9Bに示すように、直視視野画像65aのみの所定の領域を切り出した観察画像66aをモニタ35に表示させる。
 一方、画像処理部32aは、内視鏡2の使用状態が「観察中」の場合、図9Cに示すように、表示領域が最大面積となるように、直視視野画像65a、側視視野画像65b及び65cの所定の領域を切り出した観察画像66cをモニタ35に表示させる。
 つまり、画像処理部32aは、内視鏡の使用状況(挿入中または観察中)に応じて、少なくとも直視視野画像65aをモニタ35に表示させつつ側視視野画像65bの情報量を変化させる。
 以上のように、第1の実施形態の変形例1に係る複数の撮像素子64a~64cを有する内視鏡2を備えた内視鏡システム1においても、第1の実施形態と同様に、内視鏡の使用状況(挿入中または観察中)に応じて、必要となる最適な情報量にコントロールした観察画像を表示することができる。
(変形例2)
 次に、第1の実施形態の変形例2について説明する。
 図10A~図10Cは、画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。
 画像処理部32aは、取得した直視視野画像65a、側視視野画像65b及び65cを、それぞれ複数の領域(図10Aの例では、それぞれ9個の領域)に分割し、内視鏡2の使用状態に応じて、分割した複数の領域から任意の領域を選択して(または除いて)、観察画像を生成する。
 具体的には、画像処理部32aは、内視鏡2の使用状態が「挿入中」の場合、図10Bに示すように、直視視野画像65aのみの領域E11~E19を選択した観察画像67aをモニタ35に表示させる。
 一方、画像処理部32aは、内視鏡2の使用状態が「観察中」の場合、図10Cに示すように、直視視野画像65aの領域E11~E19、側視視野画像65bの領域E21、E22、E24、E25、E27、E28、及び、側視視野画像65cの領域E2、E3、E5、E6、E8、E9を選択した観察画像67bをモニタ35に表示させる。
 つまり、画像処理部32aは、内視鏡の使用状況(挿入中または観察中)に応じて、少なくとも直視視野画像65aをモニタ35に表示させつつ側視視野画像65bや側視視野画像65cの情報量を変化させる。
 以上のように、第1の実施形態の変形例2に係る内視鏡システム1においても、第1の実施形態と同様に、内視鏡の使用状況(挿入中または観察中)に応じて、必要となる最適な情報量にコントロールした観察画像を表示することができる。
(第2の実施形態)
 次に、第2の実施形態について説明する。
 第2の実施形態では、内視鏡の使用状態として処置具の使用状態に応じて、モニタ35に表示する観察画像を切り替える内視鏡システムについて説明する。
 図11は、内視鏡の挿入部の先端部の構成を示す図であり、図12は、第2の実施形態における要部の構成を示す図であり、図13は、操作部を拡大した図であり、図14A~図14Dは、画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。
 本実施形態の内視鏡システム1の構成は、第1の実施形態の内視鏡システム1と同様であるが、図11に示すように、側視観察窓13により処置具(の先端部)を突出させる先端開口部17が撮像されるように光学設計がされているものとする。
 図12に示すように、内視鏡2は、センサ70と、速度換算部71と、加速度換算部72と、エッジ検出部73とを少なくとも有して構成されている。なお、速度換算部71、加速度換算部72、及び、エッジ検出部73は、ビデオプロセッサ32に設けられていてもよい。
 センサ70は、図13に示すように、処置具挿入口27に連通した処置具チャンネル74に隣接して設けられている。処置具チャンネル74には、処置具75が挿入され、処置具75が先端開口部17から突出される。この処置具75には、複数のマーカー76が等間隔に設けられている。センサ70は、処置具75に等間隔に設けられたマーカー76を検出し、検出結果を速度換算部71に出力する。
 速度換算部71は、センサ70により検出されたマーカー76の検出間隔(検出時間)から処置具75の速度を算出し、算出結果を加速度換算部72に出力する。
 加速度換算部72は、速度換算部71により算出された処置具75の挿入速度から挿入速度の時間変化、すなわち、加速度の絶対値を算出し、算出結果を使用状態検出部32bに出力する。
 撮像素子40は、エッジ検出部73を介して画像信号生成部32dに電気的に接続されており、直視観察窓12及び側視観察窓13で取得された被検体像をエッジ検出部73を介して画像信号生成部32dに出力する。
 画像信号生成部32dは、撮像素子40から出力された撮像信号から画像信号を生成し、画像処理部32aに出力する。
 また、エッジ検出部73には、図14Aに示すように、直視観察窓12で取得された直視視野画像50a及び側視観察窓13で取得された側視視野画像50bが入力される。エッジ検出部73は、直視視野画像50aまたは側視視野画像50bに処置具75のエッジが存在するか否かを検出し、検出結果を使用状態検出部32bに出力する。
 使用状態検出部32bは、加速度換算部72で算出された処置具75の加速度、及び、エッジ検出部73で検出された処置具75のエッジの有無に応じて、処置具75の使用状態を検出し、検出結果を画像処理部32aに出力する。
 具体的には、使用状態検出部32bは、加速度換算部72で算出された処置具75の加速度が予め設定された値以上の場合、内視鏡2の使用状態を「処置具挿入中」と検出する。また、使用状態検出部32bは、加速度換算部72で算出された処置具75の加速度が予め設定された値未満の場合、あるいは、エッジ検出部73により側視視野画像50bのみに処置具75のエッジが検出された場合、内視鏡2の使用状態を「処置具突出前後」と検出する。
 また、使用状態検出部32bは、エッジ検出部73により直視視野画像50aに処置具75のエッジが検出された場合、内視鏡2の使用状態を「処置中」と検出する。
 なお、使用状態検出部32bによって、処置具75の使用状況(使用状態)が「処置具挿入中」か否かを検出する場合、加速度換算部72が検出した加速度の値だけでなく、加速度の向きの正負(+と-)、つまり処置具75の加速度が挿入方向に対して正方向に掛かっているか負方向に掛かっているかが、予め定めた一定時間の間で変化する頻度についても、使用状態検出結果信号に加えてもよい。
 画像処理部32aは、使用状態検出部32bにより検出された内視鏡2の使用状態に応じて、直視視野画像50a及び側視視野画像50bの切り出し範囲を変更した観察画像をモニタ35に表示させる。
 具体的には、画像処理部32aは、内視鏡2の使用状態が「処置中」の場合、図14Bに示すように、直視視野画像50aに内接する範囲で切り出した観察画像51aをモニタ35に表示させる。
 また、画像処理部32aは、内視鏡2の使用状態が「処置具挿入中」の場合、図14Cに示すように、直視視野画像50a及び側視視野画像50bの表示領域が最大面積となる範囲で切り出した観察画像52bをモニタ35に表示させる。
 また、画像処理部32aは、内視鏡2の使用状態が「処置具突出前後」の場合、図14Dに示すように、直視視野画像50aの一部と、側視視野画像50bの先端開口部17とが表示させる範囲で切り出した観察画像50cをモニタ35に表示させる。
 ここで、このように構成された内視鏡システム1の作用について、図15~図17を用いて説明する。図15は、処置具の加速度と表示する観察画像との関係を説明するための図であり、図16は、処置具のエッジ検出と表示する観察画像との関係を説明するための図であり、図17は、使用状態検出部による使用状態の検出処理について説明するためのフローチャートである。
 処置具75を処置具チャンネル74に挿入している場合、術者は処置対処を直視視野画像で捉えた状態で処置具75を挿入していく。術者は、処置具75が挿入部4の先端部6付近に到達するまでは素早い処置具操作が繰り返される。すなわち、処置具75を処置具チャンネル74に挿入しているときの速度は大きく変化しており、加速度換算部72で算出される加速度の絶対値は予め設定された値以上となる。よって、使用状態検出部32bは、処置具75の加速度が予め設定された値以上である場合、処置具75の使用状態が「挿入中」であることを検出する。
 また、処置具75を先端開口部17(あるいは先端部6)から突出させようとしている場合、すなわち、術者が「処置具75が先端開口部17付近まで挿入された」と判断した場合、術者は、先端開口部17から処置具75が急激に突出することを防ぐため、処置具75を慎重に操作する。すなわち、処置具75の速度は変化が小さく、加速度換算部72で算出される加速度の絶対値は予め設定された値未満となる。よって、使用状態検出部32bは、処置具75の加速度が予め設定された値未満である場合、処置具75の使用状態が「処置具突出前後」であることを検出する。
 また、側視視野画像50bに処置具75の先端が存在する場合(側視視野画像50bでのみ処置具75のエッジが検出された場合)、術者は処置具75を突き出しすぎて粘膜等を傷つけないように、処置具75を慎重に操作する。
 すなわち、処置具75の速度は変化が小さく、加速度換算部72で算出される加速度の絶対値は予め設定された値未満となる。
 よって、使用状態検出部32bは、側視視野画像50bに処置具75の先端が存在する場合、内視鏡2の使用状態が処置具75の「処置具突出前後」であることを検出する。
 また、術者が処置具75を用いて処置をしようとしている場合、あるいは、処置をしている場合、処置具75の先端部は直視視野画像50aで捉えられる。
 すなわち、エッジ検出部73により直視視野画像50aで処置具75のエッジが検出されることになる。よって、使用状態検出部32bは、直視視野画像50aで処置具75のエッジが検出された場合、処置具75の使用状態が「処置中」であることを検出する。
 このような使用状態の検出処理を図17を用いて説明する。
 まず、処置具75のエッジが直視視野画像50a内か否かが判定される(ステップS1)。処置具75のエッジが直視視野画像50a内と判定された場合、YESとなり、処置具75の使用状態が「処置中」と検出され(ステップS2)、処理を終了する。一方、処置具75のエッジが直視視野画像50a内にないと判定された場合、NOとなり、処置具75の加速度が予め設定された値以上否かが判定される(ステップS3)。
 処置具75の加速度が予め設定された値以上と判定された場合、YESとなり、処置具75の使用状態が「処置具突出前後」と検出され(ステップS4)、処理を終了する。一方、処置具75の加速度が予め設定された値以上でない(処置具75の加速度が予め設定された値未満)と判定された場合、NOとなり、処置具75の使用状態が「処置具挿入中」と検出され(ステップS5)、処理を終了する。
 使用状態検出部32bは、このように検出され検出結果(「処置中」、「処置具突出前後」、または、「処置具挿入中」)を画像処理部32aに出力する。
 画像処理部32aは、使用状態検出部32bからの検出結果が「処置中」の場合、直視視野画像50aの所定の領域を切り出した、図14Bに示す観察画像51aをモニタ35に表示させる。
 また、画像処理部32aは、使用状態検出部32bからの検出結果が「処置具挿入中」の場合、直視視野画像50a及び側視視野画像50bの所定の領域を切り取った、図14Cに示す観察画像51bをモニタ35に表示させる。
 また、画像処理部32aは、使用状態検出部32bからの検出結果が「処置具突出前後」の場合、先端開口部17の付近を切り取った、図14Dに示す観察画像51cをモニタ35に表示させる。
 以上のように、内視鏡システム1は、術者が処置具75を処置具チャンネル74に挿入している場合、図14Cの観察画像51bをモニタ35に表示することで、処置対象を捉えた状態で処置具75を挿入することができる。また、内視鏡システム1は、術者が処置具75を先端開口部17から突出させようとしている場合、図14Dの観察画像51cをモニタ35に表示することで、処置具75の突出状態を確認しながら安全に処置具75を突出(挿入)することができる。
 つまり、画像処理部32aは、処置具75の使用状況(処置具挿入中、処置具突出前後または処置中)に応じて、少なくとも直視視野画像50aをモニタ35に表示させつつ側視視野画像50bの情報量を変化させる。
 また、内視鏡システム1は、術者が処置を行おうとしている、及び、処置を行っている場合、図14Bの観察画像51aをモニタ35に表示することで、処置に必要な領域のみに注目することができる。
 よって、本実施形態の内視鏡システムによれば、内視鏡の使用状況、ここでは、処置具の使用状況(処置具挿入中、処置具突出前後または処置中)に応じて、必要となる最適な情報量にコントロールした観察画像を表示することができる。
(変形例1)
 次に、第2の実施形態の変形例1について説明する。なお、第2の実施形態の変形例1は、上述した第2の実施形態に、複数の撮像素子64a~64cで1つの直視視野画像と複数の側視視野画像を取得する第1の実施形態の変形例1を適用したものである。
 図18は、内視鏡の挿入部の先端部の構成を示す図であり、図19A~図19Dは、画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。
 図18に示すように、本実施形態の変形例1の内視鏡システム1の先端部6bは、先端部6bの先端面の斜面に先端開口部62aが設けられており、直視観察窓60aにより処置具75(の先端部)を突出させる先端開口部62aが撮像されるように光学設計がされているものとする。
 すなわち、図19Aに示すように、直視観察窓60aにより、先端開口部62aを含む直視視野画像65aが取得され、側視観察窓60b及び60cにより側視視野画像65b及び65cが取得される。そして、第2の実施形態と同様に、処置具75の使用状態に応じて、直視視野画像65a、側視視野画像65b及び65cの所定の領域が切り出され、モニタ35に表示される。
 具体的には、処置具75の使用状態が「処置中」の場合、直視視野画像65aの領域のみが切り出された、図19Bに示す観察画像66aがモニタ35に表示される。また、処置具75の使用状態が「処置具挿入中」の場合、直視視野画像65a、側視視野画像65b及び65cの表示領域が最大面積となる範囲で切り出された、図19Cに示す観察画像66bがモニタ35に表示される。また、処置具75の使用状態が「処置具突出前後」の場合、先端開口部62aの表示領域が略中心となる領域で切り出された、図19Dに示す観察画像66cがモニタ35に表示される。
 つまり、画像処理部32aは、処置具75の使用状況(処置具挿入中、処置具突出前後または処置中)に応じて、少なくとも直視視野画像65aをモニタ35に表示させつつ側視視野画像65bや側視視野画像65cの情報量を変化させる。
 以上のように、第2の実施形態の変形例1に係る複数の撮像素子64a~64cを有する内視鏡2を備えた内視鏡システム1においても、第2の実施形態と同様に、内視鏡の使用状況、ここでは、処置具の使用状況(処置具挿入中、処置具突出前後または処置中)に応じて、必要となる最適な情報量にコントロールした観察画像を表示することができる。
(変形例2)
 次に、第2の実施形態の変形例2について説明する。なお、第2の実施形態の変形例2の構成は、第2の実施形態の変形例1と略同様であり、異なる構成のみを説明する。
 図20は、内視鏡の挿入部の先端部の構成を示す図であり、図21A~図21Dは、画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。
 図20に示すように、本実施形態の変形例2の内視鏡システム1の先端部6cは、先端部6cの側面の斜面で、かつ、側視観察窓60bの後端側に先端開口部62bが設けられており、側視観察窓60bにより処置具75(の先端部)を突出させる先端開口部62bが撮像されるように光学設計がされているものとする。
 すなわち、図21Aに示すように、側視観察窓60bにより、直視観察窓60aにより直視視野画像65aが取得され、側視観察窓65bにより先端開口部62bを含む側視視野画像65bが取得され、側視観察窓65cにより側視視野画像65cが取得される。そして、第2の実施形態と同様に、処置具75の使用状態に応じて、直視視野画像65a、側視視野画像65b及び65cの所定の領域が切り出され、モニタ35に表示される。
 具体的には、処置具75の使用状態が「処置中」の場合、直視視野画像65aの領域のみが切り出された、図21Bに示す観察画像66aがモニタ35に表示される。また、処置具75の使用状態が「処置具挿入中」の場合、直視視野画像65a、側視視野画像65b及び65cの表示領域が最大面積となる範囲で切り出された、図21Cに示す観察画像66bがモニタ35に表示される。また、処置具75の使用状態が「処置具突出前後」の場合、先端開口部62bが視認できる領域を含んで切り出された、図21Dに示す観察画像66dがモニタ35に表示される。
 つまり、画像処理部32aは、処置具75の使用状況(処置具挿入中、処置具突出前後または処置中)に応じて、少なくとも直視視野画像65aをモニタ35に表示させつつ側視視野画像65bや側視視野画像65cの情報量を変化させる。
 以上のように、第2の実施形態の変形例2に係る内視鏡システム1においても、第2の実施形態と同様に、内視鏡の使用状況、ここでは、処置具の使用状況(処置具挿入中、処置具突出前後または処置中)に応じて、必要となる最適な情報量にコントロールした観察画像を表示することができる。
(第3の実施形態)
 次に、第3の実施形態について説明する。なお、第3の実施形態の内視鏡システム1の構成は、第2の実施形態の内視鏡システム1と同様である。本実施形態では、使用する処置具の構成が第2の実施形態と異なっている。
 図22は、操作部を拡大した図である。図22に示すように、本実施形態の処置具75aは、マーカー76の間隔を変化させている。マーカー76は、処置具75aの先端側で間隔が狭く、処置具75aの基端側で間隔が広くなっている。より具体的には、マーカー76は、処置具75aが先端開口部17付近まで到達した位置に対応してマーカー76の間隔が広くなっている。
 センサ70は、処置具75aの間隔を変化させたマーカー76を検出する。加速度換算部72は、処置具75aの間隔を変化させたマーカー76の検出間隔(時間)に基づき、処置具75の加速度を疑似的に算出する。
 術者が処置具75aを処置具チャンネル74に等速で挿入している際でも、処置具75aが先端開口部17に付近に近づくと、センサ70で読み取るマーカー76の検出間隔が長くなる。そのため、加速度換算部72では、疑似的に加速度が小さくなったと判断される。
 使用状態検出部32bは、加速度換算部72により算出された疑似的な加速度に応じて、処置具75aの使用状態を検出する。そして、画像処理部32aが使用状態検出部32bにより検出された処置具75aの使用状態に基づき、モニタ35に表示する観察画像を切り替える。なお、観察画像の切り替え処理については、第2の実施形態と同様である。
 ここで、このように構成された内視鏡システム1の作用について、図23及び図24を用いて説明する。図23は、処置具の加速度と表示する観察画像との関係を説明するための図であり、図24は、使用状態検出部による使用状態の検出処理について説明するためのフローチャートである。
 処置具75aを先端開口部17から突出させようとしている場合、処置具75aの挿入に慣れていない術者(または補助者)は、処置具75aが先端開口部17付近まで挿入されたと判断することができず、挿入速度を落とさずに処置具75aを挿入することがある。このような場合、第2の実施形態の内視鏡システム1では、処置具の加速度が予め設定された値以上となり、図14Dに示す先端開口部17が映った観察画像51cに切り替わらなくなってしまう。
 これに対し、本実施形態では、処置具75aを先端開口部17から突出させようとしているときに、処置具75aの挿入に慣れていない術者(または補助者)が処置具75aを頻繁な動きをさせた場合でも、マーカー76の間隔が広いため、処置具75aの疑似速度の変化が小さくなる。このため、加速度換算部72により算出される処置具75aの疑似加速度が予め設定された値未満となるため、使用状態検出部32bは、処置具75aの挿入に慣れていない術者(または補助者)が処置具75aを先端開口部17から突出させようとしている場合でも、「処置具突出前後」と検出することができる。
 なお、処置具75aのエッジを検出することで、観察画像を切り替える処理については、第2の実施形態と同様である。
 このような使用状態の検出処理を図24を用いて説明する。なお、図23において、図17と同様の処理については、同一の符号を付して説明を省略する。
 まず、ステップS1において、処置具75aのエッジが直視視野画像50a内にないと判定された場合、処置具75aの疑似加速度が予め設定された値以上否かが判定される(ステップS11)。処置具75aの疑似加速度が予め設定された値以上と判定された場合、YESとなり、ステップS4において、処置具75の使用状態が「処置具突出前後」と検出され、処理を終了する。一方、処置具75aの疑似加速度が予め設定された値以上でない(処置具75aの疑似加速度が予め設定された値未満)と判定された場合、NOとなり、ステップS5において、処置具75の使用状態が「処置具挿入中」と検出され、処理を終了する。
 画像処理部32aは、使用状態検出部32bからの処置具75aの使用状態に応じて、「処置中」の場合、図14Bの観察画像51aをモニタ35に表示させ、「処置具挿入中」の場合、図14Cの観察画像51bをモニタ35に表示させ、「処置具突出前後」の場合、図14Dの観察画像51cをモニタ35に表示させる。
 つまり、画像処理部32aは、処置具75の使用状況(処置具挿入中、処置具突出前後または処置中)に応じて、少なくとも直視視野画像50aをモニタ35に表示させつつ側視視野画像50bの情報量を変化させる。
 以上のように、本実施形態の内視鏡システムによれば、術者が処置具を先端開口部から突出させようとしているときに、処置具の挿入速度を遅くしない場合でも、第2の実施形態と同様に、処置具の使用状況(処置具挿入中、処置具突出前後または処置中)に応じて、必要となる最適な情報量にコントロールした観察画像を表示することができる。
(第4の実施形態)
 次に、第4の実施形態について説明する。
 第4の実施形態では、内視鏡の使用状態として湾曲操作レバーの使用状態に応じて、モニタ35に表示する観察画像を切り替える内視鏡システムについて説明する。
 図25は、第4の実施形態における要部の構成を示す図であり、図26は、湾曲角度と切り出す観察画像との関係を説明するための図であり、図27A~図27Cは、画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。
 図25に示すように、内視鏡2は、センサ80と、回転角度検出部81と、回転加速度換算部82と、湾曲角度換算部83とを少なくとも有して構成されている。なお、回転角度検出部81、回転加速度換算部82、及び、湾曲角度換算部83は、ビデオプロセッサ32に設けられていてもよい。
 センサ80は、湾曲操作レバー9に隣接して設けられており、湾曲操作レバー9の操作状態を検出し、回転角度検出部81に出力する。
 回転角度検出部81は、センサ80からの湾曲操作レバー9の操作状態から湾曲操作レバー9の回転角度を検出し、回転加速度換算部82及び湾曲角度換算部83に出力する。
 回転加速度換算部82は、回転角度検出部81からの湾曲操作レバー9の回転角度の変化から、湾曲操作レバー9の加速度(回転加速度)を算出し、使用状態検出部32bに出力する。
 また、湾曲角度換算部83は、回転角度検出部81からの湾曲操作レバー9の回転角度から湾曲部7の湾曲角度を算出し、使用状態検出部32bに出力する。
 使用状態検出部32bは、湾曲操作レバー9の回転加速度が予め設定された値以上の場合、内視鏡2の使用状態が「部分観察中」と検出する。一方、使用状態検出部32bは、湾曲操作レバー9の回転加速度が予め設定された値未満の場合、湾曲部7の湾曲角度から内視鏡2の使用状態を検出する。
 使用状態検出部32bは、湾曲部7の湾曲角度(絶対値)が0度の場合、内視鏡2の使用状態が「全体観察中」と検出する。また、使用状態検出部32bは、湾曲部7の湾曲角度(絶対値)が0度より大きく、45度以下の場合、内視鏡2の使用状態が「部分観察中」と検出する。使用状態検出部32bは、湾曲部7の湾曲角度(絶対値)が45度より大きい場合、内視鏡2の使用状態が「正面視中」と検出する。使用状態検出部32bは、このように検出した内視鏡2の使用状態を画像処理部32aに出力する。
 撮像素子40は、画像信号生成部32dに電気的に接続されており、直視観察窓12及び側視観察窓13で取得された被検体像を画像信号生成部32dに出力する。画像信号生成部32dは、撮像素子40から出力された撮像信号から画像信号を生成し、画像処理部32aに出力する。
 画像処理部32aは、使用状態検出部32bにより検出された検出結果に基づき、直視視野画像50a及び側視視野画像50bの所定の領域を切り出し、切り出した観察画像をモニタ35に表示させる。
 具体的には、画像処理部32aは、「部分観察中」と検出されたときに、図26に示すように、湾曲部7の湾曲角度がL側に-45度(L側Max)の場合、直視視野画像50a及び側視視野画像50bをP1の位置で切り出した観察画像84aを、図27Aに示すようにモニタ35に表示させる。また、画像処理部32aは、図26に示すように、湾曲部7の湾曲角度が0度の場合、直視視野画像50a及び側視視野画像50bをP2の位置で切り出した観察画像84bを、図27Bに示すようにモニタ35に表示させる。
 また、画像処理部32aは、図26に示すように、湾曲部7の湾曲角度がR側に45度(R側Max)の場合、直視視野画像50a及び側視視野画像50bをP3の位置で切り出した観察画像84cを、図27Cに示すようにモニタ35に表示させる。
 すなわち、湾曲部7の湾曲角度が-45度から45度にかけて、直視視野画像50a及び側視視野画像50bの切り出し位置がP1からP3に移動する。
 また、画像処理部32aは、「全体観察中」及び「正面視中」と検出された場合、P2の位置で切り出した観察画像84bを、図27Bに示すようにモニタ35に表示させる。
 なお、本実施形態では、湾曲部7が左右方向に湾曲した場合について説明しているが、上下方向、及び、上下左右同時操作の際も同様に切り出し位置を変更することができる。
 ここで、このように構成された内視鏡システム1の作用について説明する。
 管腔全体を観察しているとき、術者は管腔全体を効率よく、かつ、くまなく観察するために、管腔の中心に先端部6が配置されるようにし、湾曲部7を湾曲させずにゆっくり抜去を行う。
 すなわち、湾曲操作レバー9の回転加速度及び湾曲角度はほぼゼロとなっている。よって、使用状態検出部32bは、湾曲操作レバー9の回転加速度が予め設定された値未満であり、湾曲操作レバー9の回転角度から算出された湾曲部7の湾曲角度が0度であることを検出することで、内視鏡の使用状態が「全体観察中」と検出する。
 また、襞裏等の観察しにくい所に注目したいとき、術者は湾曲部7を少し湾曲させて注目部位を観察しやすくする。例えば、側視観察窓13で注目部位を観察しているときは、湾曲角度はあまり大きくなく、概ね45度以下である。すなわち、湾曲操作レバー9の回転加速度が予め設定された値以上になっているか、湾曲部7の湾曲角度の絶対値が45度以下となっている。よって、使用状態検出部32bは、湾曲操作レバー9の回転加速度が予め設定された値以上、または、湾曲部7の湾曲角度の絶対値が45度以下であることを検出することで、内視鏡の使用状態が「部分観察中」と検出する。
 また、襞裏等の病変等の注目対象を正面視しているとき、術者は注目対象を直視視野の中心で捉えるため、湾曲部7を大きく湾曲させる。その場合、湾曲角度は概ね45度より大きくなる。また、注目対象に先端部6が向いているため一定の湾曲がかかった状態から湾曲操作は行われない。すなわち、湾曲部7の湾曲角度は45より大きく、湾曲操作レバー9の回転加速度はほぼゼロとなっている。
 よって、使用状態検出部32bは、湾曲操作レバー9の回転加速度が予め設定された値未満であり、湾曲部7の湾曲角度の絶対値が45度より大きいことを検出することで、内視鏡の使用状態が「正面視中」と検出する。
 ここで、このような使用状態検出部32bによる使用状態の検出処理について、図28を用いて説明する。図28は、使用状態検出部による使用状態の検出処理について説明するためのフローチャートである。
 まず、湾曲操作レバー9の加速度が予め設定された値以上か否かが判定される(ステップS21)。湾曲操作レバー9の加速度が予め設定された値以上の場合、YESとなり、内視鏡2の使用状態が「部分観察中」と検出され(ステップS22)、処理を終了する。一方、湾曲操作レバー9の加速度が予め設定された値以上でない場合、NOとなり、湾曲部7の湾曲角度(絶対値)が判定される(ステップS23)。
 湾曲部7の湾曲角度(絶対値)が0度の場合、内視鏡2の使用状態が「全体観察中」と検出され(ステップS24)、処理を終了する。一方、湾曲部7の湾曲角度(絶対値)が0度より大きく45度以下の場合、内視鏡2の使用状態が「部分観察中」と検出され(ステップS25)、処理を終了する。一方、湾曲部7の湾曲角度(絶対値)が45度より大きい場合、内視鏡2の使用状態が「正面視中」と検出され(ステップS26)、処理を終了する。
 画像処理部32aは、このように検出された内視鏡2の使用状態に応じて、図27A、図27Bまたは図27Cをモニタ35に表示させる。
 以上のように、内視鏡システム1は、術者が管腔全体を観察している場合、図27Bの観察画像84bをモニタ35に表示することで、管腔全体をくまなく観察することができる。また、内視鏡システム1は、術者が襞裏等の観察しにくい所を注目したい場合、湾曲部7の湾曲角度に応じて図27A~図27Cの観察画像84a~84cをモニタ35に表示することで、注目したい領域を強調することができる。また、内視鏡システム1は、病変等の注目対象を正面視している場合、図27Bの観察画像84bをモニタ35に表示することで、通常の所謂直視内視鏡と同様に対象部位を直視で観察することができる。
 つまり、画像処理部32aは、湾曲操作レバー9の操作による湾曲部7の湾曲角度に応じて、少なくとも直視視野画像50aをモニタ35に表示させつつ側視視野画像50bの情報量を変化させる。
 よって、本実施形態の内視鏡システムによれば、内視鏡の使用状況、ここでは、湾曲操作レバーの使用状況(全体観察中、部分観察中または正面視中)に応じて、必要となる最適な情報量にコントロールした観察画像を表示することができる。
(変形例)
 次に、第4の実施形態の変形例について説明する。なお、第4の実施形態の変形例は、上述した第4の実施形態に、複数の撮像素子64a~64cで1つの直視視野画像と複数の側視視野画像を取得する第1の実施形態の変形例1を適用したものである。
 図29A~図29Dは、画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。
 使用状態検出部32bによる使用状態の検出処理は、上述した第4の実施形態と同様である。画像処理部32aは、図29Aに示すように、直視観察窓60a、側視観察窓60b及び60cにより取得された直視視野画像65a、側視視野画像65b及び65cを、湾曲操作レバー9の使用状況に応じて切り出し位置を変更し、モニタ35に表示させる。
 具体的には、画像処理部32aは、「部分観察中」と検出されたときに、湾曲部7の湾曲角度がL側に-45度(L側Max)の場合、側視視野画像65cと直視視野画像65aの一部をP4の位置で切り出した観察画像68aを、図29Bに示すようにモニタ35に表示させる。
 また、画像処理部32aは、湾曲部7の湾曲角度が0度の場合、直視視野画像65aと側視視野画像65b及び65cの一部をP5の位置で切り出した観察画像68bを、図29Cに示すようにモニタ35に表示させる。
 また、画像処理部32aは、湾曲部7の湾曲角度がR側に45度(R側Max)の場合、側視視野画像65bと直視視野画像65aの一部をP6の位置で切り出した観察画像68cを、図29Dに示すようにモニタ35に表示させる。
 また、画像処理部32aは、「全体観察中」及び「正面視中」と検出された場合、図29Cに示す観察画像68bをモニタ35に表示させる。
 つまり、画像処理部32aは、湾曲操作レバー9の操作による湾曲部7の湾曲角度に応じて、少なくとも直視視野画像65aをモニタ35に表示させつつ側視視野画像65bや側視視野画像65cの情報量を変化させる。
 以上のように、第4の実施形態の変形例に係る複数の撮像素子64a~64cを有する内視鏡2を備えた内視鏡システム1においても、第4の実施形態と同様に、内視鏡の使用状況、ここでは、湾曲操作レバーの使用状況(全体観察中、部分観察中または正面視中)に応じて、必要となる最適な情報量にコントロールした観察画像を表示することができる。
(第5の実施形態)
 次に、第5の実施形態について説明する。
 第5の実施形態では、内視鏡の使用状態として吸引操作の使用状態に応じて、モニタ35に表示する観察画像を切り替える内視鏡システムについて説明する。
 図30は、第5の実施形態における要部の構成を示す図である。図30に示すように、内視鏡2は、センサ90と、吸引操作検出部91とを少なくとも有して構成されている。なお、吸引操作検出部91は、ビデオプロセッサ32に設けられていてもよい。
 センサ90は、吸引操作ボタン26の操作状態を検出し、検出結果を吸引操作検出部91に出力する。吸引操作検出部91は、センサ90の検出結果に基づき、吸引操作ボタン26が操作されたか否かを検出し、検出結果を使用状態検出部32bに出力する。吸引操作検出部91は、吸引操作ボタン26がOFFの場合、吸引操作ボタン26が操作されていないと検出し、吸引操作ボタン26が半押し、または、ONされた場合、吸引操作ボタン26が操作されたと検出する。
 使用状態検出部32bは、吸引操作検出部91により吸引操作ボタン26が操作されたと検出された場合、内視鏡2の使用状態を「吸引中」と検出する。一方、使用状態検出部32bは、吸引操作検出部91により吸引操作ボタン26が操作されていないと検出された場合、加速度検出器42a及び42bからの挿入部4の進退方向の加速度、及び、回転方向の加速度から内視鏡2の使用状態を検出する。
 この加速度による使用状態の検出は、第1の実施形態と同様であり、使用状態検出部32bは、挿入部4の進退方向の加速度、または、回転方向の加速度が予め設定された値以上の場合、内視鏡2の使用状態を「挿入中」と検出し、挿入部4の進退方向の加速度、及び、回転方向の加速度が予め設定された値未満の場合、内視鏡2の使用状態を「観察中」と検出する。
 なお、使用状態検出部32bによって、内視鏡2の使用状況(使用状態)が「挿入中」か「観察中」かを検出する場合、各加速度検出器27a及び27bが検出した加速度の値だけでなく、加速度の向きの正負(+と-)、つまり挿入部4の加速度が挿入方向に対して正方向に掛かっているか負方向に掛かっているか、あるいは所定の回転方向に対して正方向に掛かっているか負方向に掛かっているかが、予め定めた一定時間の間で変化する頻度についても、使用状態検出結果信号に加えてもよい。
 撮像素子40は、画像信号生成部32dに電気的に接続されており、直視観察窓12及び側視観察窓13で取得された被検体像を画像信号生成部32dに出力する。画像信号生成部32dは、撮像素子40から出力された撮像信号から画像信号を生成し、画像処理部32aに出力する。
 画像処理部32aは、使用状態検出部32bにより「吸引中」と検出された場合、図14Dに示す先端開口部17が視認できる観察画像51cをモニタ35に表示させる。一方、画像処理部32aは、使用状態検出部32bにより「観察中」と検出された場合、図14Bに示す直視視野画像50aの所定の領域のみが切り出された観察画像51aをモニタ35に表示され、使用状態検出部32bにより「挿入中」と検出された場合、図14Cに示す直視視野画像50a及び側視視野画像50bの表示面積が最大となる領域を切り出した観察画像51bをモニタ35に表示させる。
 ここで、このように構成された内視鏡システム1の作用について説明する。
 吸引操作しようとしているとき、及び、吸引操作をしているとき、術者は、吸引操作ボタン26に指をかけて操作する。その際、吸引操作ボタン26は、半押しまたはONの状態になる。すなわち、センサ90及び吸引操作検出部91により吸引操作ボタン26の位置が変化したことを検出することで、使用状態検出部32bは、内視鏡2の使用状態を「吸引中」と検出することができる。
 ここで、このような使用状態検出部32bによる使用状態の検出処理について、図31を用いて説明する。図31は、使用状態検出部による使用状態の検出処理について説明するためのフローチャートである。
 まず、吸引操作ボタンが操作された否かが判定される(ステップS31)。吸引操作ボタンが操作された場合、YESとなり、内視鏡2の使用状態が「吸引中」と検出され(ステップS32)、処理を終了する。一方、吸引操作ボタンが操作されていない場合、NOとなり、進退方向または回転方向の加速度が予め設定された値以上か否かが判定される(ステップS33)。
 進退方向または回転方向の加速度が予め設定された値以上の場合、内視鏡2の使用状態が「挿入中」と検出され(ステップS34)、処理を終了する。一方、進退方向または回転方向の加速度が予め設定された値以上でない場合、内視鏡2の使用状態が「観察中」と検出され(ステップS35)、処理を終了する。
 画像処理部32aは、このように検出された内視鏡2の使用状態に応じて、図14A、図14Bまたは図14Cをモニタ35に表示させる。
 以上のように、内視鏡システム1は、術者が吸引操作を行っていない通常時には、進退方向及び回転方向の加速度に応じて図14B、図14Cの観察画像51、51bをモニタ35に表示させることで、第1の実施形態と同様の効果を得ることができる。また、内視鏡システム1は、術者が吸引操作を行っている場合、図14Dの先端開口部17が視認できる観察画像51cをモニタ35表示させることで、吸引操作を行いやすくなる。
 つまり、画像処理部32aは、吸引操作の状況に応じて、少なくとも直視視野画像50aをモニタ35に表示させつつ側視視野画像50bの情報量を変化させる。
 よって、本実施形態の内視鏡システムによれば、内視鏡の使用状況、ここでは、通常時/吸引中のそれぞれにおいて、必要となる最適な情報量にコントロールした観察画像を表示することができる。
 なお、本実施形態では、吸引操作について説明したが、例えば、送気送水操作時にも、送気送液操作ボタン24bが押されたか否かを検出し、本実施形態と同様に、観察画面の切り替えを行うことができる。
(変形例)
 次に、第5の実施形態の変形例について説明する。なお、第5の実施形態の変形例は、上述した第5の実施形態に、複数の撮像素子64a~64cで1つの直視視野画像と複数の側視視野画像を取得する第2の実施形態の変形例1を適用したものである。すなわち、内視鏡システム1は、直視観察窓60aにより先端開口部62aが撮像されるように光学設計がされているものとする。
 使用状態検出部32bは、センサ90及び吸引操作検出部91により吸引操作ボタン26の位置が変化したことが検出されると、内視鏡2の使用状態を「吸引中」と検出する。画像処理部32aは、使用状態検出部32bにより「吸引中」と検出されると、先端開口部62aが視認できる図19Dに示す観察画像66cをモニタ35に表示させる。一方、画像処理部32aは、内視鏡2の使用状態を「吸引中」でない場合、第5の実施形態と同様に、挿入部4の進退方向の加速度及び回転方向の加速度から内視鏡2の使用状態を検出する。画像処理部32aは、内視鏡2の使用状態が「観察中」の場合、直視視野画像65aのみの領域を切り出した、図19Bに示す観察画像66aをモニタ35に表示させ、内視鏡2の使用状態が「挿入中」の場合、直視視野画像65a、側視視野画像65b及び65cの表示面積が最大になるように切り出した、図19Cに示す観察画像66bをモニタ35に表示させる。
 つまり、画像処理部32aは、吸引操作の状況に応じて、少なくとも直視視野画像65aをモニタ35に表示させつつ側視視野画像65bや側視視野画像65cの情報量を変化させる。
 以上のように、第5の実施形態の変形例に係る複数の撮像素子64a~64cを有する内視鏡2を備えた内視鏡システム1においても、第5の実施形態と同様に、内視鏡の使用状況、ここでは、通常時/吸引中のそれぞれにおいて、必要となる最適な情報量にコントロールした観察画像を表示することができる。
 なお、上述した第5の実施形態に、第2の実施形態の変形例2を適用してもよい。すなわち、側視観察窓60bにより先端開口部62bが撮像されるように光学設計がされている内視鏡システム1において、第5の実施形態の変形例と同様の観察画像の切り替えを行うことができる。
(第6の実施形態)
 次に、第6の実施形態について説明する。なお、第6の実施形態の内視鏡システム1の構成は、第2の実施形態の内視鏡システム1と同様である。
 図32は、画像処理部による画像処理により、モニタに表示される観察画像の一例を示す図である。
 図32に示すように、画像処理部32aは、直視視野画像50a及び側視視野画像50bから、予め切り出し範囲の異なる複数の観察画像92a~92fを生成する。術者は、複数の観察画像92a~92fから内視鏡2の使用状態に応じてモニタ35に表示する観察画像を任意に設定する。
 例えば、術者は、内視鏡2の使用状態が「挿入中」の場合、観察画像92fを設定し、「観察中」の場合、観察画像92dを設定し、「処置具突出前後」の場合、観察画像92dを設定し、「処置中」の場合、観察画像92aを設定する。
 これにより、画像処理部32aは、使用状態検出部32bからの内視鏡2の使用状態に基づいて、術者毎に設定されている観察画像を選択して、モニタ35に表示させる。すなわち、画像処理部32aは、使用状態検出部32bにより「処置中」と検出された場合、術者に設定されている観察画像92aをモニタ35に表示させる。
 つまり、画像処理部32aは、内視鏡の使用状況に応じて、少なくとも直視視野画像50aをモニタ35に表示させつつ側視視野画像50bの情報量を変化させる。
 以上のように、本実施形態の内視鏡システム1によれば、表示する観察画像を術者好みで設定でき、内視鏡の使用状況に応じて、術者毎に必要となる最適な情報量にコントロールした観察画像を表示することができる。
 なお、画像処理部32aは、直視視野画像50a及び側視視野画像50bを複数の領域に分割し、表示するのが不適格な領域を除いて、観察画像を生成するようにしてもよい。例えば、画像処理部32aは、直視視野画像50a及び側視視野画像50bの輝度値を検出し、白とび等が発生している領域を除いて観察画像を生成し、モニタ35に表示させるようにしてもよい。このとき、画像処理部32aは、選択された領域の画像のみで調光を行った観察画像を生成する。
 また、画像処理部32aは、使用状態検出部32bで検出された内視鏡2の使用状態に応じて、表示する観察画像を自動的に切り替えていたが、これに限定されることなく、例えば、表示する観察画像を自動的に切り替えるモードと、操作者からの操作により少なくとも一部の観察画像を手動で切り替えられるモードとを必要に応じて選択できるようにしてもよい。
 更に、第1の実施形態の変形例1のように、側視視野画像がそれぞれ直視視野画像の両隣になるように並べて配置させた観察画像をモニタ35に表示させる実施形態の場合、側方を照明及び観察する機能を実現する機構は、前方を照明及び観察する機能を実現する機構とは別体にして、挿入部4に対して着脱可能な構造にしてもよい。
 図33は、側方観察用のユニットが取り付けられた挿入部4の先端部6の斜視図である。
挿入部4の先端部6は、前方視野用ユニット100を有している。側方視野用ユニット110は、前方視野用ユニット100に対してクリップ部111により着脱自在な構成を有している。
 側方視野用ユニット110は、左右方向の画像を取得するための2つの観察窓112と、左右方向を照明するための2つの照明窓113を有している。
 このような形態の挿入部4や側方視野用ユニット500に対して加速度センサ等の使用状態検出部を設けることにより、上述の各実施形態のように内視鏡の使用状況に応じて、術者毎に必要となる最適な情報量にコントロールした観察画像を表示することができる。
 また、側視視野画像がそれぞれ直視視野画像の両隣になるように並べて配置させた観察画像をモニタ35に表示させる、(図33の実施形態に限定しない)各種の実施形態の場合、1つのモニタ35に複数の画像を表示させる形態に限らない。
 図34は、複数の視野画像を複数のモニタに分けて表示させる例を説明するための図である。図34に例示するように、前方、側方といった複数の視野画像について、例えば直視視野画像65aを表示するモニタ35a、側視視野画像65bを表示するモニタ35b、及び側視視野画像65cを表示するモニタ35cといったように、複数のモニタに分けてそれぞれ観察画像を表示させてもよい。
なお、本明細書におけるフローチャート中の各ステップは、その性質に反しない限り、実行順序を変更し、複数同時に実行し、あるいは実行毎に異なった順序で実行してもよい。
 本発明は、上述した実施形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。
 例えば、上述の各実施の形態においては、使用時の安全確認を行えるようにメインの視野が常に少しでも表示できるようなものであることが好ましい。これに基づき、以上の各実施の形態では広角視野を表示する内視鏡を例として記載したが、側視内視鏡に対して本発明の要旨を適用してもよい。
 上述の実施の形態を側視内視鏡に適用する場合、主となる被検体像は側方領域における視野の被検体像で、副となる被検体像は例えば必要な部分まで挿入する際に挿入方向を確認するための前方領域における視野の被検体像となる。
 また、画像処理部32aは、使用状態検出部32bにより検出された内視鏡2の使用状態に応じて必要となる最適な情報量にコントロールした観察画像を表示させる際、直視視野画像や側視視野画像のうち必要な所定の領域を切り出した観察画像をモニタ35に表示させる方法の他に、観察画像の一部に表示を覆うマスク処理を行ってモニタ35に表示させるようにしてもよい。
 本出願は、2014年3月27日に日本国に出願された特願2014-66590号公報を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲、図面に引用されたものとする。

Claims (15)

  1.  被検体の内部に挿入される挿入部と、
     前記挿入部に設けられ、前記被検体の第1の領域から主となる第1の被検体像を取得する第1の被検体像取得部と、
     前記挿入部に設けられ、前記第1の領域とは異なる前記被検体の第2の領域から副となる第2の被検体像を取得する第2の被検体像取得部と、
     前記挿入部の使用状態を検出し、前記検出結果に基づく使用状態検出結果信号を出力する挿入部使用状態検出部と、
     前記第1の被検体像と前記第2の被検体像のうち少なくとも前記第1の被検体像に基づく画像信号を生成する画像信号生成部と、
     前記挿入部使用状態検出部によって出力された前記使用状態検出結果信号に応じて前記第1の被検体像及び前記第2の被検体像を表示可能な表示部に表示させる、前記第2の被検体像の情報量を変化させる画像処理部と、
     を備えることを特徴とする内視鏡システム。
  2.  前記挿入部使用状態検出部は、前記挿入部に関する加速度を検出することで前記挿入部に関する前記使用状態検出結果信号を出力することを特徴とする請求項1に記載の内視鏡システム。
  3.  前記挿入部使用状態検出部は、前記挿入部が長手方向に前後移動する際の加速度、前記挿入部が長手方向に対して略垂直な方向に移動する際の加速度、及び前記挿入部が長手方向を軸にした回転方向に回転移動する際の加速度の少なくともいずれかを検出することを特徴とする請求項2に記載の内視鏡システム。
  4.  前記挿入部の先端側には、前記挿入部の基端側に設けられた操作部から該操作部内に挿通された操作ワイヤの往復運動として伝達される操作によって運動する動作部分が設けられ、
     前記挿入部使用状態検出部は、前記操作ワイヤが往復運動する際の加速度を検出することを特徴とする請求項2に記載の内視鏡システム。
  5.  前記挿入部使用状態検出部は、前記挿入部内に設けられた挿通管の内部に処置具が挿通されたとき、前記処置具が前記挿通管内で前後移動する際の加速度を検出することを特徴とする請求項2に記載の内視鏡システム。
  6.  前記挿入部使用状態検出部は、前記挿入部使用状態検出部で加速度を検出された前記処置具の像の一部分が、前記第1の被検体像または前記第2の被検体像の内、少なくともいずれかに現れたか否かを更に検出することを特徴とする請求項5に記載の内視鏡システム。
  7.  前記挿入部使用状態検出部は、前記挿入部使用状態検出部が検出する前記挿入部に関する加速度の向きを検出し、使用状態検出結果信号に反映させ、
     前記画像処理部は、前記加速度の向きを含む前記使用状態検出結果信号に基づき、前記加速度の向きに応じて前記複数のモードを切り替えて画像信号を処理することを特徴とする請求項2に記載の内視鏡システム。
  8.  前記画像処理部は、前記第1の被検体像と隣り合うように前記第2の被検体像を配置して前記表示部に表示させる第1のモードと、前記第1の被検体像のみ前記表示部に表示させる第2のモードとを切り替えることを特徴とする請求項1に記載の内視鏡システム。
  9.  前記画像処理部は、前記第1の被検体像と隣り合うように前記第2の被検体像を配置して前記表示部に表示させる第1のモードと、前記第1の被検体像を中心にして表示するとともに前記第2の被検体像の一部のみを更に前記表示部に表示させる他のモードとを切り替えることを特徴とする請求項1に記載の内視鏡システム。
  10.  前記画像処理部は、前記第1の被検体像と隣り合うように前記第2の被検体像を配置して前記表示部に表示させる第1のモードと、前記第1の被検体像と複数の前記第2の被検体像のうち指定した前記第2の被検体像のみを更に前記表示部に表示させる他のモードとを切り替えることを特徴とする請求項1に記載の内視鏡システム。
  11.  前記画像処理部は、前記第1の被検体像と隣り合うように前記第2の被検体像を配置して前記表示部に表示させる第1のモードと、前記第1の被検体像と複数の前記第2の被検体像のうち指定した前記第2の被検体像のみを拡大したものとを前記表示部に表示する他のモードとを切り替えることを特徴とする請求項1に記載の内視鏡システム。
  12.  前記画像処理部は、前記挿入部使用状態検出部が検出した加速度に対して設定された閾値に基づき、前記加速度が前記閾値未満の場合、前記表示部に記第1の被検体像と隣り合うように前記第2の被検体像を配置して表示させるモードを表示させ、前記加速度が前記閾値以上の場合、前記表示部に前記第2の被検体像の情報量を変化させて表示させる他のモードを表示させることを特徴とする請求項1に記載の内視鏡システム。
  13.  前記第1の被検体像は、前記挿入部の長手方向に略平行な挿入部前方を含む前記第1の領域の被検体像であり、
     前記第2の被検体像は、前記挿入部の長手方向と交差する方向の挿入部側方を含む前記第2の領域の被検体像であり、
     前記第1の被検体像取得部は、前記第1の領域の被検体像を取得する前方被検体像取得部であり、
     前記第2の被検体像取得部は、前記挿入部側方を含む方向の被検体像を取得する側方被検体像取得部であることを特徴とする請求項1に記載の内視鏡システム。
  14.  前記第1の被検体像取得部は、前記挿入部の長手方向先端部に、前記挿入部が挿入される方向に向けて配置され、
     前記第2の被検体像取得部は、前記挿入部の側面に、前記挿入部の周方向に向けて配置され、
     前記第1の被検体像取得部からの前記第1の被検体像を光電変換する第1の撮像部と、前記第2の被検体像取得部からの前記第2の被検体像を光電変換する第2の撮像部とが別々に設けられるとともに、前記第1の撮像部と前記第2の撮像部とが前記画像処理部に電気的に接続されていることを特徴とする請求項1に記載の内視鏡システム。
  15.  前記第1の被検体像取得部は、前記挿入部の長手方向先端部に、前記挿入部が挿入される方向に向けて配置され、
     前記第2の被検体像取得部は、前記挿入部の周方向を囲むように配置され、
     前記第1の被検体像取得部からの前記第1の被検体像と前記第2の被検体像取得部からの前記第2の被検体像とを同じ面で光電変換するように配置されるとともに、前記画像処理部に電気的に接続されている撮像部を備えることを特徴とする請求項1に記載の内視鏡システム。
PCT/JP2015/058508 2014-03-27 2015-03-20 内視鏡システム WO2015146836A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-066590 2014-03-27
JP2014066590 2014-03-27

Publications (1)

Publication Number Publication Date
WO2015146836A1 true WO2015146836A1 (ja) 2015-10-01

Family

ID=54195354

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/058508 WO2015146836A1 (ja) 2014-03-27 2015-03-20 内視鏡システム

Country Status (1)

Country Link
WO (1) WO2015146836A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017104197A1 (ja) * 2015-12-17 2017-06-22 オリンパス株式会社 画像処理装置
JP2018057605A (ja) * 2016-10-05 2018-04-12 富士フイルム株式会社 内視鏡システム及び内視鏡システムの駆動方法
WO2018105063A1 (ja) * 2016-12-07 2018-06-14 オリンパス株式会社 画像処理装置
JP2020037003A (ja) * 2016-09-29 2020-03-12 富士フイルム株式会社 内視鏡システム及び内視鏡システムの駆動方法
WO2021144838A1 (ja) * 2020-01-14 2021-07-22 オリンパス株式会社 表示制御装置、表示制御方法、表示制御プログラム及び内視鏡システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04341232A (ja) * 1991-03-11 1992-11-27 Olympus Optical Co Ltd 電子内視鏡システム
JPH10276974A (ja) * 1997-04-03 1998-10-20 Olympus Optical Co Ltd 内視鏡装置
JP2010117665A (ja) * 2008-11-14 2010-05-27 Olympus Medical Systems Corp 光学系
WO2011055614A1 (ja) * 2009-11-06 2011-05-12 オリンパスメディカルシステムズ株式会社 内視鏡システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04341232A (ja) * 1991-03-11 1992-11-27 Olympus Optical Co Ltd 電子内視鏡システム
JPH10276974A (ja) * 1997-04-03 1998-10-20 Olympus Optical Co Ltd 内視鏡装置
JP2010117665A (ja) * 2008-11-14 2010-05-27 Olympus Medical Systems Corp 光学系
WO2011055614A1 (ja) * 2009-11-06 2011-05-12 オリンパスメディカルシステムズ株式会社 内視鏡システム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017104197A1 (ja) * 2015-12-17 2017-06-22 オリンパス株式会社 画像処理装置
JPWO2017104197A1 (ja) * 2015-12-17 2017-12-14 オリンパス株式会社 ビデオプロセッサ
US10512393B2 (en) 2015-12-17 2019-12-24 Olympus Corporation Video processor
JP2020037003A (ja) * 2016-09-29 2020-03-12 富士フイルム株式会社 内視鏡システム及び内視鏡システムの駆動方法
JP2018057605A (ja) * 2016-10-05 2018-04-12 富士フイルム株式会社 内視鏡システム及び内視鏡システムの駆動方法
US10820786B2 (en) 2016-10-05 2020-11-03 Fujifilm Corporation Endoscope system and method of driving endoscope system
WO2018105063A1 (ja) * 2016-12-07 2018-06-14 オリンパス株式会社 画像処理装置
JPWO2018105063A1 (ja) * 2016-12-07 2019-07-04 オリンパス株式会社 画像処理装置
CN110049709A (zh) * 2016-12-07 2019-07-23 奥林巴斯株式会社 图像处理装置
US11145053B2 (en) 2016-12-07 2021-10-12 Olympus Corporation Image processing apparatus and computer-readable storage medium storing instructions for specifying lesion portion and performing differentiation classification in response to judging that differentiation classification operation is engaged based on signal from endoscope
CN110049709B (zh) * 2016-12-07 2022-01-11 奥林巴斯株式会社 图像处理装置
WO2021144838A1 (ja) * 2020-01-14 2021-07-22 オリンパス株式会社 表示制御装置、表示制御方法、表示制御プログラム及び内視鏡システム

Similar Documents

Publication Publication Date Title
JP4856286B2 (ja) 内視鏡システム
JP4884567B2 (ja) 内視鏡システム
JP5942044B2 (ja) 内視鏡システム
JP4500096B2 (ja) 内視鏡及び内視鏡システム
JP2018519860A (ja) 動的視野内視鏡
JP5974188B2 (ja) 内視鏡システム
WO2015146836A1 (ja) 内視鏡システム
US20160345808A1 (en) Endoscope system
WO2018069992A1 (ja) 挿入システム
JP5889495B2 (ja) 内視鏡システム
US20170105608A1 (en) Endoscope system
JP5608580B2 (ja) 内視鏡
JP6062112B2 (ja) 内視鏡システム
US20170215710A1 (en) Endoscope system
JP4789490B2 (ja) 内視鏡装置
JP6523062B2 (ja) 内視鏡装置
WO2020004259A1 (ja) 内視鏡画像表示システムおよび内視鏡画像表示装置
JP2011235114A (ja) 画像信号処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15768916

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15768916

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP