WO2015156176A1 - 内視鏡システム - Google Patents

内視鏡システム Download PDF

Info

Publication number
WO2015156176A1
WO2015156176A1 PCT/JP2015/060189 JP2015060189W WO2015156176A1 WO 2015156176 A1 WO2015156176 A1 WO 2015156176A1 JP 2015060189 W JP2015060189 W JP 2015060189W WO 2015156176 A1 WO2015156176 A1 WO 2015156176A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image processing
subject
unit
subject image
Prior art date
Application number
PCT/JP2015/060189
Other languages
English (en)
French (fr)
Inventor
本田 一樹
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to CN201580012674.6A priority Critical patent/CN106068093B/zh
Priority to EP15776543.9A priority patent/EP3103378A1/en
Priority to JP2015552937A priority patent/JP5953443B2/ja
Publication of WO2015156176A1 publication Critical patent/WO2015156176A1/ja
Priority to US15/258,153 priority patent/US20160374542A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/0002Operational features of endoscopes provided with data storages
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00096Optical elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00174Optical arrangements characterised by the viewing angles
    • A61B1/00181Optical arrangements characterised by the viewing angles for multiple fixed viewing angles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • A61B1/051Details of CCD assembly
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes

Definitions

  • the present invention relates to an endoscope system, and more particularly to an endoscope system capable of independently and simultaneously observing a front visual field and a side visual field.
  • An endoscope system that includes an endoscope that images a subject inside a lumen such as a body cavity, and an image processing device that generates an observation image of the subject captured by the endoscope. Widely used in industrial fields.
  • Japanese Patent No. 5030675 discloses an endoscope in which a front-view image and a side-view image are simultaneously formed on one image sensor to obtain a wide-angle view image.
  • Japanese Patent No. 4856286 and Japanese Patent No. 4848567 disclose a wide-angle endoscope that distinguishes a front visual field region from a side visual field region and performs image processing in each region.
  • Japanese Patent No. 4856286 discloses a technique for adjusting the gain of each visual field between a front visual field image (front visual field image) and a side visual field image (side visual field image) for the purpose of improving visibility.
  • Japanese Patent No. 4884567 discloses a technique for performing enlargement / reduction processing of each visual field for each scene for the same purpose of improving visibility.
  • Japanese Patent Application Laid-Open No. 2013-066664 discloses image processing for clarifying the boundary between the front view image and the side view image for the purpose of improving visibility.
  • an endoscope that generates a wide-angle image from a field of view in a plurality of directions has an imaging function.
  • an axis deviation occurs between the optical axis of the objective optical system and the central axis of the image sensor due to the influence of the processing accuracy of the frame of the objective optical system and the image sensor or the variation during assembly.
  • FIG. 10 is a cross-sectional view of a main part showing one configuration example of an imaging unit disposed at the distal end portion of an insertion portion in a conventional wide-angle endoscope
  • FIG. 11 is a view area in the conventional wide-angle endoscope. It is a figure explaining the shift
  • the optical axis 101A of the objective optical system 101 is affected by the influence of assembly processing accuracy or variation of the imaging unit. There is a possibility that an axial deviation may occur between the center axis 102A of the image sensor 102.
  • the boundary 102a (the front field area and the side field area) of the field area in the processor responsible for image processing. Since the image processing range 102c set in advance assuming that the boundary 101a is located is different from the boundary 101a of the actual visual field region, the image processing range is deviated and image processing can be performed with high accuracy. There was a possibility that it could not be done.
  • the objective optical system positions the center of the lens by fitting the lens in a cylindrical frame.
  • the accuracy of the frame is strict, if an error such as a variation overlaps in the deviation in processing accuracy at the time of assembly, the position at which the image is projected is shifted from the target position of the image sensor.
  • the present invention has been made in view of the above-described circumstances, and in an endoscope system capable of observing a front field of view and a side field of view independently and simultaneously, the optical axis of the objective optical system and the center of the image sensor It is an object of the present invention to provide an endoscope system that can perform image processing with high accuracy even when an axis deviation occurs between the axes.
  • An endoscope system includes an insertion unit that is inserted into a subject, an imaging unit that is provided in the insertion unit, and a first region of the subject that is provided in the insertion unit.
  • a second optical system that projects two subject images onto the imaging unit; an image generation unit that creates an image based on the first subject image and the second subject image projected onto the imaging unit;
  • a storage unit that records information for setting a position of a boundary between the first object image and the second object image in the image, and the information based on the information for setting the position of the boundary.
  • FIG. 1st Embodiment It is a figure showing composition of an endoscope system of a 1st embodiment of the present invention. It is a perspective view which shows the structure of the insertion part front-end
  • FIG. 1 is a diagram illustrating a configuration of an endoscope system according to a first embodiment of the present invention.
  • FIG. 2 is a perspective view illustrating a configuration of a distal end portion of an insertion portion in the endoscope system according to the first embodiment.
  • 3 is a cross-sectional view of the main part showing the configuration of the distal end portion of the insertion portion in the endoscope system of the first embodiment.
  • an endoscope system 1 includes an endoscope 2 that images an observation object and outputs an imaging signal, a light source device 31 that supplies illumination light for illuminating the observation object, It has a video processor 32 that generates and outputs a video signal corresponding to the imaging signal, and a monitor 35 that displays an observation image corresponding to the video signal.
  • the endoscope 2 includes an operation unit 3 that an operator holds and operates, an elongated insertion unit 4 that is formed on the distal end side of the operation unit 3 and is inserted into a body cavity and the like, and a side portion of the operation unit 3 And a universal cord 5 provided with one end so as to extend from.
  • the endoscope 2 is a wide-angle endoscope that can observe a field of view of 180 degrees or more. It is possible to prevent oversight of lesions in difficult places.
  • operations such as temporary fixing by twisting the insertion portion 4, reciprocating movement, and hooking the intestinal wall are generated as in the case of a normal large intestine endoscope. To do.
  • the insertion portion 4 includes a hard distal end portion 6 provided on the most distal end side, a bendable bending portion 7 provided on the rear end of the distal end portion 6, and a long and long side provided on the rear end of the bending portion 7. And a flexible tube portion 8 having flexibility. Further, the bending portion 7 performs a bending operation according to the operation of the bending operation lever 9 provided in the operation portion 3.
  • the distal end portion 6 of the insertion portion 4 is formed with a cylindrical portion 10 as a cylindrical member that protrudes in a cylindrical shape from a position deviated, for example, upward from the center of the distal end surface of the distal end portion 6. ing.
  • the cylindrical portion 10 is provided at the distal end of the insertion portion 4 and has a distal end surface that is smaller than the insertion portion 4 (outer diameter thereof) and faces the insertion direction, and an outer peripheral side surface that faces the circumferential direction of the insertion portion 4.
  • a front end portion provided with the following front observation window 12, side observation window 13 and the like is formed.
  • a side observation window 13 as a side observation unit (second optical system) is formed, and at least one side illumination window 14 is formed as a side illumination unit near the base end of the cylindrical part 10. Yes.
  • the front observation window 12 acquires a first subject image from a direct viewing direction (first direction) including the front substantially parallel to the longitudinal direction of the insertion portion 4, that is, a first region of the subject, and will be described later. Projecting onto the element 34 (imaging unit, see FIG. 3).
  • the side observation window 13 is formed in an annular shape so as to observe the entire circumference along the circumferential direction of the side surface (the circumferential direction of the insertion portion 4) for observing the cylindrical side surface direction. ing.
  • the side observation window 13 is at least partially different from the longitudinal direction (first region) of the insertion portion 4 and includes a side view direction (second direction) including the side direction of the insertion portion 4, that is, the covered portion.
  • a second subject image is acquired from the second region of the specimen.
  • the side observation window 13 captures light (second subject image) from the subject that is incident from an arbitrary direction facing the annular shape in a side observation field of view (also simply referred to as a field of view). And a mirror lens 15 as a reflection optical system for acquiring a lateral field image, and the acquired second subject image is passed through the mirror lens 15 to an imaging device 34 (an imaging unit, see FIG. 3) described later. Project.
  • an imaging device 34 an imaging unit, see FIG. 3
  • a front illumination window 16 that emits illumination light to the observation target side of the front visual field of the front observation window 12 adjacent to the cylindrical portion 10 and a treatment instrument inserted in the channel are provided.
  • a channel tip opening 17 serving as an opening to be projected is provided.
  • the support portion 18 is provided so as to protrude from the distal end surface of the distal end portion 6 adjacent to the lower side of the cylindrical portion 10.
  • the support portion 18 has a function of optically shielding a protruding member that is not an original observation target protruding from the front end surface so as to appear in the side field of view and not be acquired as a side field image.
  • the part 10 is supported.
  • the support portion 18 protrudes from the side surface of the support portion 18 and opens toward the side observation window 13 to support the side observation window nozzle portion 22 for cleaning the side observation window 13. At the same time, it is shielded from appearing in the side view image.
  • the operation unit 3 can selectively inject cleaning gas and liquid from the front observation window nozzle unit 19 and the side observation window nozzle unit 22, respectively.
  • Air supply / liquid supply operation buttons 24a and 24b are provided, and air supply and liquid supply can be switched by operating the air supply / liquid supply operation buttons 24a and 24b.
  • the operation unit 3 is provided with a suction operation button 26 for sucking and collecting mucus or the like in the body cavity from the channel tip opening 17.
  • the channel is formed by a tube (not shown) or the like disposed in the insertion portion 4 and communicates with a treatment instrument insertion port 27 provided near the front end of the operation portion 3.
  • the treatment instrument When the surgeon intends to perform treatment with the treatment instrument, the treatment instrument is inserted through the treatment instrument insertion port 27, and the distal end side thereof is projected from the channel distal end opening portion 17, so that the treatment with the treatment instrument is performed. Can be performed.
  • a connector 29 is provided at the end of the universal cord 5, and this connector 29 is connected to a light source device 31 of the endoscope.
  • a base (not shown) serving as a connection end of a fluid conduit projecting from the tip of the connector 29 and a light guide base (not shown) serving as an illumination light supply end are detachable from the light source device 31.
  • One end of the connection cable 33 is connected to the electrical contact portion provided on the side surface.
  • connection cable 33 is electrically connected to a video processor 32 as a signal processing device that performs signal processing on the imaging device 34 (imaging unit, see FIG. 3) mounted on the endoscope 2.
  • the connector 29 is provided with an IC chip 64 that is a storage unit that stores specific ID information unique to the endoscope 2 (details will be described later).
  • the video processor 32 supplies a drive signal for driving the image pickup device 34 (image pickup unit, see FIG. 3) mounted on the distal end portion 6 of the endoscope 2, and an image output from the image pickup device 34 by the supply of the drive signal.
  • Signal processing is performed on the signal (image signal) to generate a video signal.
  • the video signal generated by the video processor 32 is output to a monitor 35 as a display device, and an image captured by the image sensor 34 is displayed on the display surface of the monitor 35 as an endoscopic image.
  • Peripheral devices such as the light source device 31, the video processor 32, and the monitor 35 are arranged on a gantry 37 together with a keyboard 36 for inputting patient information and the like.
  • the illumination light generated by the light source device 31 is guided (transmitted) from the universal cord 5 to the distal end surface side by a light guide that passes through the operation unit 3 and the insertion unit 4.
  • the distal end surface of the light guide passing through the insertion portion 4 is disposed in the side illumination window 14 of the cylindrical portion 10 protruding from the distal end portion 6, the front illumination window 16, and the front illumination window 21 (provided on the support portion 18). Then, the guided light is emitted.
  • the front end side of the light guide is branched in the insertion portion 4, for example, one is a light guide 44 in the side illumination window 14, and the other is a light guide (not shown) in the front illumination windows 16 and 21.
  • the side direction that is the side view side and the distal end side in the insertion direction (also referred to as the longitudinal direction) of the insertion portion 6 that is the front view side.
  • Each of them expands to emit illumination light, and illuminates the observation target side in the body cavity.
  • positioned at the front illumination windows 16 and 21 and the side illumination window 14 may replace with a light guide, and may be a light emitting element like a light emitting diode (LED).
  • LED light emitting diode
  • FIG. 3 is a cross-sectional view of the main part showing the configuration of the distal end portion of the insertion portion in the endoscope system of the first embodiment, and the configuration of the periphery of the objective optical system 11 and the side illumination window 14 serving both as the front and the side. Indicates.
  • An imaging element in which a front lens 41, a mirror lens 15, and a rear lens group 43 each having a rotationally symmetrical shape are arranged on an optical axis that coincides with the imaging center O along the central axis of the cylindrical portion 10 protruding from the tip portion 6.
  • An objective optical system 11 that forms an image on 34 is formed.
  • a cover glass 34 a is provided on the front surface of the image sensor 34. The front lens 41, the mirror lens 15, and the rear lens group 43 are fixed to a lens frame in the cylindrical portion 10.
  • the front lens 41 constituting the objective optical system 11 and provided in the circular front observation window 12 forms a wide-angle front field of view with the distal end side along the insertion direction of the insertion portion 4 as an observation field.
  • the mirror lens 15 as a reflecting optical system disposed immediately after the front lens 41 reflects light incident from the side surface twice between the cemented surface and the front surface, and the rear lens group 43 It consists of two lenses that guide light to the side.
  • the lens portion of the mirror lens 15 facing the front lens 41 also serves to refract the light from the front lens 41 and guide it to the rear lens group 43 side.
  • the side observation window 13 has a predetermined viewing angle with the optical axis in the lateral direction being substantially the center with respect to the insertion portion major axis direction.
  • a substantially annular observation field that covers the entire circumference in the circumferential direction of the insertion portion is formed.
  • the light incident on the front lens 41 that forms the front observation window 12 (first optical system) from the subject side in the field of view and the mirror lens 15 that forms the side observation window 13. (Second optical system) shows a schematic path of light rays incident from the subject side in the field of view.
  • the subject-side light beam incident from the front lens 41 and the subject-side light beam incident from the mirror lens 15 are projected onto the image sensor 34.
  • the image of the subject in the front field of view provided in the center side in the insertion direction by the front lens 41 of the front observation window 12, that is, the first subject image is circular.
  • An image is formed and acquired as a front view image.
  • an image of the subject in the side field of view, that is, the second subject image is formed in an annular shape such as an annular shape by the mirror lens 15 facing the side observation window 13 on the outer peripheral side of the front field image. And is acquired as a side field image so as to be adjacent to the front field image.
  • the imaging surface of the imaging device 34 is arranged so as to photoelectrically convert the first subject image projected from the front lens 41 and the second subject image projected from the second optical system on the same plane. Is done.
  • the image sensor 34 is electrically connected to an image generation unit 60 described later that is provided in the video processor 32 and generates an endoscopic image.
  • the support portion 18 forms a shielding portion 18a that mechanically shields light from the subject side that is incident in the annular side field of view. Moreover, in this embodiment, it is set as the structure which does not radiate
  • a two-reflection optical system that reflects the return light twice by the mirror lens 15 is used.
  • the return light is reflected once by the reflection optical system and the object in the side field of view is reflected.
  • An image may be formed and processed by the video processor 32 to align the side view image and the direct view image.
  • Side illumination windows 14 are provided at a plurality of locations on the outer peripheral surface near the base end adjacent to the side observation window 13 in the cylindrical portion 10. In the present embodiment, side illumination windows 14 are provided at two locations on both the left and right sides in the circumferential direction, and side illumination light is emitted to the entire area in the circumferential direction except the lower side where the support portion 18 is provided.
  • the distal end side of the light guide 44 as a light emitting member arranged along the longitudinal direction of the distal end portion 6 is a cylindrical member 10 a constituting the cylindrical portion 10 protruding from the distal end surface of the distal end portion 6. It is extended to the vicinity of the base end.
  • the tip surface of the light guide 44 is arranged near the side surface near the base end of the cylindrical portion 10 (the outer peripheral side of the rear lens group 43).
  • the light guide 44 emits light guided by the tip surface. It becomes an end face and emits light toward the tip.
  • the emission end face is circular, but is not limited to a circle, and may be an irregular shape including an ellipse or a polygon.
  • a concave portion 45a is formed at the position where the emission end face faces to extend long in the form of a belt along the outer periphery of the cylindrical side surface of the cylindrical portion 10 and to form a light guide groove 45 as a groove portion for guiding light. It has been.
  • the reflecting portion 46a on the inner surface of the light guide groove 45 (formed by the reflecting member 46) is a substantially hemispherical concave surface in the longitudinal section shown in FIG.
  • the reflecting portion 46 a has a hemispherical concave surface that is longer than the exit end surface of the light guide 44 along the circumferential direction of the cylindrical portion 10.
  • the reflecting portion 46a reflects the light emitted from the emitting end face toward the tip end side of the tip portion 6 by the reflecting portion 46a to change the traveling direction of the light in the side surface direction, and along the circumferential direction. Then, the light is guided in a wide range of side directions and emitted from the side illumination window 14 to illuminate the observation field side (observation target side) of the side observation window 13. Accordingly, the light emitted from the light guide groove 45 in the side surface direction becomes side illumination light.
  • the reflective portion 46 a can be formed by providing a metal thin film having a high reflectance such as aluminum, chrome, nickel chrome, silver, and gold on the inner surface of the reflective member 46.
  • the reflecting member 46 is disposed in the recess 45a so that the light guide groove 45 provided with the reflecting portion 46a is formed long along the outer periphery of the side surface of the cylindrical portion 10. Moreover, it arrange
  • the light emitted from the emission end face of the light guide 44 is reflected by the reflecting portion 46a arranged so as to form a reflection surface around the emission end face, and the side illumination window 14 provided with the light guide groove 45 is provided. Illumination light is emitted from a wide range to the side.
  • FIG. 4 shows a display example when the subject image captured by the image sensor 34 is displayed on the display surface 35a of the monitor 35 using the endoscope 2 as an endoscopic image.
  • the display area 51 in FIG. 4 corresponds to the display area of the imaging surface of the image sensor 34.
  • a central circular area in the display area 51 becomes a display area 52 for a front view image by the front observation window 12, and an annular area outside the display area 52 becomes a display area 53 for a side view image by the side observation window 13. .
  • a region where a part of the lower side of the side view is shielded by the shielding portion 18a formed on the support portion 18 becomes a black region 54 in the side view image. That is, the black area 54 is a non-image area where no image is displayed.
  • FIG. 5 is a block diagram showing the main parts of the electrical configuration of the endoscope and the processor in the endoscope system of the first embodiment.
  • the connector 29 in the endoscope 2 is provided with an IC chip 64 serving as a storage unit.
  • the IC chip 64 serving as a storage unit stores specific ID information unique to the endoscope 2, for example, position information of a boundary portion in the endoscope 2 in the present embodiment.
  • the position information of the boundary portion is based on the state detected as a result of once displaying the endoscope image after the assembly of the endoscope 2 and at the time of inspection before shipment, for example. 2 is a “deviation amount ( ⁇ X, ⁇ Y) between a predetermined reference point and the center of the front visual field” set in advance for each endoscope before the second operation.
  • the video processor 32 receives an image pickup signal from the image pickup device (CCD) 34 and generates an endoscopic image, and image processing for performing predetermined image processing on the generated endoscopic image.
  • the endoscope 61 acquired from the IC chip 64 that is a storage unit in the connector 61, the memory 63 that stores the coordinates (X0, Y0) of the reference point CP of the image processing in the video processor 32, and the connector 29
  • a correction amount setting unit 62 having a function as a position detection unit that sets a predetermined correction reference point based on the position information of the boundary part and the reference point information stored in the memory 63.
  • FIG. 6 is a diagram illustrating an example of an observation image displayed on the monitor screen in the endoscope system 1 according to the first embodiment.
  • the black area 54 (see FIG. 4) is a non-image area in which no image is displayed as described above. However, the black area 54 will be described below with reference to FIG. .
  • an endoscope image based on an imaging signal from the imaging device 34 is generated using a video processor 32 connected to the endoscope 2 at the time of inspection before shipment,
  • the endoscope system 1 is made to output an endoscopic image once to display a front view image and a side view image.
  • the correction amount setting unit 62 sets “the first position that is set in the imaging region of the imaging device 34 of the endoscope 2” to be set in the video processor 32 stored in the memory 63. "Coordinates (X0, Y0) of reference point CP for image processing" are read.
  • the video processor 32 for example, in the memory 63, as an image processing area for performing image processing to be described later, for example, a ring-shaped designated range centered on the coordinates (X0, Y0) of the reference point CP for image processing is used. Information indicating that image processing is performed is stored in region C.
  • the annular region C has a width that is appropriate for image processing of a boundary portion between a front visual field region and a side visual field region, which will be described later.
  • the post-correction amount setting unit 62 serves as a position detection unit, which is a position where the first subject image is formed in the imaging region of the imaging unit as a second position from the endoscopic image. 2 detects the “relative shift amount ( ⁇ X, ⁇ Y) between the predetermined reference point and the center of the front visual field”.
  • the correction amount setting unit 62 having a function as a position detection unit is a predetermined position for setting the position of the boundary portion between the front visual field region and the side visual field region, which is information on the relative positional relationship.
  • Information on the relative shift amount ( ⁇ X, ⁇ Y) between the reference point and the front visual field center, or information on the position of the boundary portion between the front visual field area and the lateral visual field area obtained based on this ( ⁇ X, ⁇ Y) Then, a positional relationship detection signal relating to the detected result is generated, and transmitted and stored in the IC chip 64 serving as a storage unit.
  • the correction amount setting unit 62 first determines the relative deviation amount ( ⁇ X, ⁇ Y) between the predetermined reference point stored in the IC chip 64 serving as the storage unit and the center of the front visual field. Or information on the position of the boundary between the front view area and the side view area based on ( ⁇ X, ⁇ Y).
  • the correction amount setting unit 62 performs correction based on the coordinates (X0, Y0) of the reference point CP and the read “relative shift amount ( ⁇ X, ⁇ Y) between the predetermined reference point and the front visual field center”.
  • a reference point CP ′ (X0 + ⁇ X, Y0 + ⁇ Y) is set.
  • the image processing unit 61 Based on the correction reference point CP ′ (X0 + ⁇ X, Y0 + ⁇ Y) set by the correction amount setting unit 62, the image processing unit 61 is centered on, for example, the coordinates (X0, Y0) of the reference point CP of the image processing described above.
  • the predetermined annular area where the image processing is performed is moved so as to be an annular area centered on the coordinates of CP ′ (X0 + ⁇ X, Y0 + ⁇ Y).
  • the boundary portion between the front visual field region and the lateral visual field region is subjected to clarified image processing using a known method disclosed in Japanese Patent Laid-Open No. 2013-066664 published by the present applicant, and the correction reference point CP 'Based on (X0 + ⁇ X, Y0 + ⁇ Y), the first object image and the second object image are obtained in the respective regions (front visual field region and side visual field region) by using the method in Japanese Patent Laid-Open No. 2013-066664.
  • Predetermined image processing such as processing for extending and reducing a part of the specimen image to fill and reduce a frame-like edge generated at the boundary between the first specimen image and the second specimen image is performed.
  • the endoscope system of the first embodiment when assembling an imaging unit in an endoscope system capable of observing the front field of view and the side field of view independently and simultaneously. Even if the optical axis of the objective optical system and the center axis of the image sensor are misaligned due to the processing accuracy of the frame of the objective optical system and the image sensor, or variations during assembly, image processing can be performed with high accuracy.
  • An endoscope system can be provided.
  • the endoscope image is output once, and the correction amount setting unit 62 reads (X0, Y0) stored in the memory 63 and detects ( ⁇ X, ⁇ Y) from the endoscopic image, which is a storage unit.
  • a series of operations for storing ( ⁇ X, ⁇ Y) in the IC chip 64 is not necessarily limited to an example performed only at the time of inspection of the endoscope 2 before shipment.
  • the correction amount setting unit 62 sets ( ⁇ X, ⁇ Y) from the endoscopic image that is output first.
  • ( ⁇ X, ⁇ Y) may be stored in the IC chip 64.
  • the basic configuration of the endoscope system according to the second embodiment of the present invention is the same as that of the first embodiment, but correction processing in the video processor 32 is performed as compared with the first embodiment.
  • the image processing is different.
  • FIG. 7 is a block diagram illustrating a main part of an electrical configuration of the endoscope and the processor in the endoscope system according to the second embodiment.
  • the video processor 32 in the second embodiment inputs an image pickup signal from the image pickup device (CCD) 34, inputs an image pickup signal from the image pickup device (CCD) 34, and generates an endoscopic image.
  • 60 an image processing unit 61 that performs predetermined image processing on the generated endoscopic image, a memory 63 that stores the coordinates (X0, Y0) of the reference point CP for image processing in the video processor 32, and an endoscope
  • An arithmetic unit that detects a so-called blackened pixel on a mirror image and calculates a “deviation amount ( ⁇ X, ⁇ Y) between a predetermined reference point and the center of the front visual field” based on position information of the blackened pixel
  • a function as a position detection unit that sets a predetermined correction reference point based on 62a, the amount of deviation ( ⁇ X, ⁇ Y) and the coordinates (X0, Y0) of the reference point CP stored in the memory 63 Includes a correction amount setting unit 62 having
  • FIG. 8 is a diagram illustrating an example of an observation image displayed on a monitor screen in the endoscope system according to the second embodiment.
  • the boundary of the visual field region (reference numeral 101a shown in FIG. 11) is blacked out optically or electrically.
  • an endoscope image is temporarily output to the endoscope system 1 using the video processor 32 connected to the endoscope 2 to display a front view and a side view.
  • the correction amount setting unit 62 sets “the first position that is set in the imaging region of the imaging device 34 of the endoscope 2” to be set in the video processor 32 stored in the memory 63. "Coordinates (X0, Y0) of reference point CP for image processing" are read.
  • the video processor 32 for example, in the memory 63, as an image processing area for performing image processing to be described later, for example, a ring-shaped designated range centered on the coordinates (X0, Y0) of the reference point CP for image processing is used. Information indicating that image processing is performed is stored in the area.
  • the annular area has a width that is appropriate for image processing of a boundary portion between a front vision area and a side vision area, which will be described later.
  • the correction amount setting unit 62 turns on the endoscope system 1 to output an endoscopic image, and from the endoscopic image that is output first, the arithmetic unit 62a in the correction amount setting unit 62 includes: The “deviation amount ( ⁇ X, ⁇ Y) between the predetermined reference point and the center of the front visual field” is calculated.
  • the arithmetic unit 62a calculates the number of pixels Ru, Rd, Rr, Rl (see FIG. 8) from the reference point CP to the pixels that are blacked out on the X and Y axes, and the values thereof.
  • the deviation amount ( ⁇ X, ⁇ Y) between the reference point and the center of the visual field is calculated by the following calculation formula, for example.
  • the correction amount setting unit 62 and the coordinates (X0, Y0) of the reference point CP and the “deviation amount ( ⁇ X, ⁇ Y) between the predetermined reference point and the center of the front visual field” Based on the above, the correction reference point CP ′ (X0 + ⁇ X, Y0 + ⁇ Y) is set.
  • the correction amount setting unit 62 having a function as a position detection unit sets the boundary position between the front visual field region and the side visual field region, which is information on the relative positional relationship.
  • Information on the point CP ′ (X0 + ⁇ X, Y0 + ⁇ Y) or information on the position of the boundary between the front visual field region and the side visual field region based on the correction reference point CP ′ is detected, and a positional relationship detection signal regarding the detected result is generated.
  • the data is stored in the memory 63 which is a storage unit.
  • the correction amount setting unit 62 first sets the correction reference for setting the position of the boundary between the front visual field region and the side visual field region stored in the memory 63 that is a storage unit.
  • Information on the point CP ′ (X0 + ⁇ X, Y0 + ⁇ Y) or information on the position of the boundary between the front visual field region and the side visual field region based on the correction reference point CP ′ is read.
  • the image processing unit 61 Based on the correction reference point CP ′ (X0 + ⁇ X, Y0 + ⁇ Y) set by the correction amount setting unit 62, the image processing unit 61, for example, as shown in FIG. 9, coordinates (X0) of the reference point CP of the image processing described above. , Y0) as a center, a predetermined annular area where image processing is performed is moved so as to be an annular area centered on the coordinates (X0 + ⁇ X, Y0 + ⁇ Y) of CP ′.
  • the image processing unit 61 is set in the correction amount setting unit 62 and stored in the memory 63 as a storage unit, as in the first embodiment.
  • Japanese Patent Laid-Open No. 2013-066664 published by the present applicant defines a boundary portion (a boundary portion between the front visual field region and the side visual field region) based on the information regarding the corrected reference point CP ′ (X0 + ⁇ X, Y0 + ⁇ Y).
  • the clarified image processing is performed using a known method in (1).
  • the image processing unit 61 uses the method described in Japanese Patent Laid-Open No. 2013-066664 in each region (front visual field region and side visual field region) based on the correction reference point CP ′ (X0 + ⁇ X, Y0 + ⁇ Y). , A process of stretching a part of each of the first subject image and the second subject image to fill and reduce a frame-like edge generated at the boundary between the first subject image and the second subject image Predetermined image processing is performed.
  • an endoscope capable of independently and simultaneously observing the front field of view and the side field of view as in the first embodiment.
  • the optical axis of the objective optical system and the center axis of the imaging device are misaligned due to the processing accuracy of the objective optical system and the frame of the imaging device, or variations during assembly.
  • an endoscope system that can perform image processing with high accuracy can be provided.
  • the correction reference point CP ′ can be obtained without setting boundary position information in advance at the time of assembly, so that the endoscope can be compared with the first embodiment. Setting of the position information at the time of assembling the imaging unit becomes unnecessary, and the number of assembling steps can be reduced.
  • the correction amount setting unit 62 when the endoscope 2 is connected to the video processor 32 to display an endoscopic image, the correction amount setting unit 62 once receives predetermined information (“predetermined reference” from the IC chip 64.
  • predetermined information “predetermined reference” from the IC chip 64.
  • the information is stored in, for example, the memory 63 and the like, and is stored in the IC chip 64 of each endoscope 2. If it is determined that the same endoscope 2 is connected to the video processor 32 when the endoscope system 1 is separately used with reference to the unique information of the endoscope, the deviation amounts ( ⁇ X, ⁇ Y) are again calculated.
  • the correction reference point CP ′ (X0 + ⁇ X, Y0 + ⁇ Y) set before may be set without reading.
  • the amount of deviation ( ⁇ X, ⁇ Y) is once calculated in the computing device 62a, the amount of deviation ( ⁇ X, ⁇ Y) is stored in the memory 63 or the like as described above.
  • the correction reference point CP ′ set before without reading the shift amount ( ⁇ X, ⁇ Y) again. (X0 + ⁇ X, Y0 + ⁇ Y) may be set.
  • the memory 63 information indicating that image processing is performed in a predetermined annular area centered on the coordinates (X0, Y0) of the reference point CP for image processing is not stored in advance.
  • the position of the boundary between the front visual field region and the side visual field region is detected, and a region having a predetermined width is designated as an image processing region as it is from the boundary between the front visual field region and the side visual field region. May be performed.
  • a memory is obtained by a method such as converting information on the position of the designated image processing area calculated from the boundary between the front visual field area and the lateral visual field area designated by the above method into coordinates. You may make it memorize
  • the internal information is separately referred to by referring to the inherent information of the endoscope generally stored in the IC chip 64 of each endoscope 2.
  • information regarding the position of the previously set image processing area may be set again.
  • the center of the front visual field image is close to the coordinates (X0, Y0) of the CP that was the reference point of the image processing.
  • the position of the entire endoscopic image including the front visual field image and the side visual field image subjected to the predetermined image processing may be further moved.
  • an endoscope system of the present invention in an endoscope system capable of observing the front field and the side field independently and simultaneously, between the optical axis of the objective optical system and the central axis of the image sensor.
  • An endoscope system that can perform image processing with high accuracy even when an axis misalignment occurs can be provided.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

 挿入部4と、挿入部4に設けられた撮像部34と、第1の被検体像を撮像部34に投影する第1の光学系12と、第2の被検体像を前記撮像部に投影する第2の光学系13と、第1の被検体像及び第2の被検体像に基づく画像を生成する画像生成部60と、第1の被検体像と第2の被検体像との境界の位置を設定する情報を記録する記憶部64と、境界の位置を設定する情報に基づいて、第1の被検体像と第2の被検体像との境界に対して所定の画像処理を行う画像処理部61と、を備えた。

Description

内視鏡システム
 本発明は、内視鏡システムに関し、特に、前方視野及び側方視野を独立してかつ同時に観察することが可能な内視鏡システムに関するものである。
 体腔等、管腔の内部の被検体を撮像する内視鏡、及び、内視鏡により撮像された被検体の観察画像を生成する画像処理装置等を具備する内視鏡システムが、医療分野及び工業分野等において広く用いられている。
 例えば、特許第5030675号公報には、前方視野画像と側方視野画像とを1つの撮像素子に同時に結像し、広角視野画像を得る内視鏡が開示されている。
 また、特許第4856286号公報および特許第4884567号公報には、前方視野領域と側方視野領域を区別して各々の領域において画像処理を行う広角内視鏡について開示されている。
 ここで特許第4856286号公報においては、視認性向上を目的として前方視野画像(前方視野画像)と側方視野画像(側方視野画像)との各視野のゲイン調整を行う技術について示されている。また、特許第4884567号公報においては、同じく視認性向上を目的としてシーン毎に各視野の拡大・縮小処理を行う技術について示されている。
 一方、特開2013-066646号公報には、視認性向上を目的として、前方視野画像と側方視野画像との境界部を明確にする画像処理について開示されている。
 上述した特許第5030675号公報、特許第4856286号公報、特許第4884567号公報及び特開2013-066646号公報に示されるように、複数方向の視野から広角画像を生成する内視鏡においては、撮像ユニットを組み立てる際に、対物光学系および撮像素子の枠の加工精度または組み立て時のばらつき等の影響により、対物光学系の光軸と撮像素子の中心軸とに軸ずれが生じる虞がある。
 図10は、従来の広角内視鏡における挿入部先端部に配設された撮像ユニットの一構成例を示した要部断面図であり、図11は、当該従来の広角内視鏡における視野領域のずれを説明する図である。
 具体的に、複数方向の視野から広角画像を生成する内視鏡においては、たとえば図10に示すように、撮像ユニットの組み立て加工精度またはばらつき等の影響により、対物光学系101の光軸101Aと撮像素子102の中心軸102Aとの間に軸ずれが生じる虞がある。
 そして図11に示すように、対物光学系の光軸101Aと撮像素子の中心軸102Aとに軸ずれが生じると、画像処理を担うプロセッサにおいて視野領域の境界102a(前方視野領域と側方視野領域101bとの境界)が位置すると想定して予め設定された画像処理範囲102cと実際の視野領域の境界101aとが異なることから、画像処理を行う範囲がずれてしまい精度よく画像処理を行うことができなくなる虞があった。
 すなわち、図10に示すごとき撮像ユニットにおいては、対物光学系は円筒枠の中にレンズを嵌合してレンズ中心の位置決めを行っている。ここで枠の精度を厳しくしても組立時の加工精度のずれにばらつき等の誤差が重なると、撮像素子の狙った位置に対して像が投影される位置がずれてしまう。
 これにより、例えば前方視野領域と側方視野領域の境界を目立たなくする画像処理等が正確な範囲で行えなくなるという不具合が生じる。
 この不具合は、前方視野領域と側方視野領域とを同時に表示させる内視鏡においては顕著であり、加工精度を細かくして精密な組立を行ったとしても(組立精度が数μmのレベルであったとしても)、モニタ画面に表示するとずれが非常に目立ってしまう場合があった。
 本発明は上述した事情に鑑みてなされたものであり、前方視野及び側方視野を独立してかつ同時に観察することが可能な内視鏡システムにおいて、対物光学系の光軸と撮像素子の中心軸との間に軸ずれが生じた場合でも、精度よく画像処理を行い得る内視鏡システムを提供することを目的とする。
 本発明の一態様の内視鏡システムは、被検体の内部に挿入される挿入部と、前記挿入部に設けられた撮像部と、前記挿入部に設けられ、前記被検体の第1の領域に関する第1の被検体像を前記撮像部に投影する第1の光学系と、前記挿入部に設けられ、前記第1の領域とは少なくとも一部が異なる前記被検体の第2の領域に関する第2の被検体像を前記撮像部に投影する第2の光学系と、前記撮像部に投影した前記第1の被検体像及び前記第2の被検体像に基づく画像を生成する画像生成部と、前記画像中の前記第1の被検体像と前記第2の被検体像との境界の位置を設定する情報を記録する記憶部と、前記境界の位置を設定する情報に基づいて、前記第1の被検体像と前記第2の被検体像との境界に対して所定の画像処理を行う画像処理部と、を備える。
本発明の第1の実施形態の内視鏡システムの構成を示す図である。 第1の実施形態の内視鏡システムにおける挿入部先端部の構成を示す斜視図である。 第1の実施形態の内視鏡システムにおける挿入部先端部の構成を示す要部断面図である。 第1の実施形態の内視鏡システムにおけるモニタ画面に表示される観察画像の概略を示す図である。 第1の実施形態の内視鏡システムにおける内視鏡およびプロセッサの電気的な構成の要部を示したブロック図である。 第1の実施形態の内視鏡システムにおけるモニタ画面に表示される観察画像の一例を示す図である。 本発明の第2の実施形態の内視鏡システムにおける内視鏡およびプロセッサの電気的な要部構成を示したブロック図である。 第2の実施形態の内視鏡システムにおけるモニタ画面に表示される観察画像の概略を示す図である。 第2の実施形態の内視鏡システムにおけるモニタ画面に表示される観察画像の一例を示す図である。 従来の広角内視鏡における挿入部先端部に配設された撮像ユニットの一構成例を示した要部断面図である。 当該従来の広角内視鏡における視野領域のずれを説明する図である。
 以下、図面を参照して本発明の実施形態を説明する。
(第1の実施形態)
 図1から図3を用いて第1の実施形態の内視鏡システムの構成について説明する。図1は、本発明の第1の実施形態の内視鏡システムの構成を示す図、図2は、第1の実施形態の内視鏡システムにおける挿入部先端部の構成を示す斜視図、図3は、第1の実施形態の内視鏡システムにおける挿入部先端部の構成を示す要部断面図である。
 図1に示すように、内視鏡システム1は、観察対象物を撮像して撮像信号を出力する内視鏡2と、観察対象物を照明するための照明光を供給する光源装置31と、撮像信号に応じた映像信号を生成及び出力するビデオプロセッサ32と、映像信号に応じた観察画像を表示するモニタ35と、を有している。
 内視鏡2は、術者が把持して操作を行う操作部3と、操作部3の先端側に形成され、体腔内等に挿入される細長の挿入部4と、操作部3の側部から延出するように一方の端部が設けられたユニバーサルコード5と、を有して構成されている。
 本実施形態の内視鏡2は、180度以上の視野を観察可能な広角内視鏡であり、体腔内、特に大腸内において、襞の裏や臓器の境界等、前方方向の観察だけでは見難い場所の病変を見落とすことを防ぐことを実現する。大腸内に内視鏡2の挿入部4を挿入するにあたっては、通常の大腸内視鏡と同様、挿入部4に捻り、往復運動、腸壁のフックを行うことによる仮固定等の動作が発生する。
 挿入部4は、最も先端側に設けられた硬質の先端部6と、先端部6の後端に設けられた湾曲自在の湾曲部7と、湾曲部7の後端に設けられた長尺かつ可撓性を有する可撓管部8と、を有して構成されている。また、湾曲部7は、操作部3に設けられた湾曲操作レバー9の操作に応じた湾曲動作を行う。
 図2に示すように挿入部4の先端部6には、該先端部6の先端面の中央から例えば上方寄りに偏心した位置から円筒形状に突出する円筒状部材としての円筒部10が形成されている。この円筒部10は、挿入部4の先端に設けられ、該挿入部4(の外径)よりも細径で挿入方向を臨む先端面及び該挿入部4の周方向を臨む外周側面を有し、以下の前方観察窓12、側方観察窓13等が設けられた先端部を形成する。
 この円筒部10の先端側に光学的観察を行うための前方及び側方を兼ねる対物光学系11(図3参照)を用いて前方観察部(第1の光学系)としての前方観察窓12と、側方観察部(第2の光学系)としての側方観察窓13とが形成され、円筒部10の基端付近には側方照明部として少なくとも一つの側方照明窓14が形成されている。
 前方観察窓12は、挿入部4の長手方向に略平行な前記前方を含む直視方向(第1の方向)つまり被検体の第1の領域から第1の被検体像を取得し、後述の撮像素子34(撮像部、図3参照)に投影する。
 側方観察窓13は、円筒形状の側面方向を観察するための、該側面の周方向(挿入部4の周方向)に沿ってその全周を観察視野とするように円環形状に形成されている。
 つまり側方観察窓13は、挿入部4の長手方向(第1の領域)とは少なくとも一部が異なる方向であって挿入部4の側方向を含む側視方向(第2の方向)つまり被検体の第2の領域から第2の被検体像を取得する。
 そして、側方観察窓13は、円環形状に対向する任意の方向から入射される被検体からの光(第2の被検体像)を側方の観察視野(単に視野とも言う)内に捉えて側方視野画像として取得するための反射光学系としてのミラーレンズ15を備え、取得した第2の被検体像をミラーレンズ15を介して後述の撮像素子34(撮像部、図3参照)に投影する。
 また、先端部6の先端面には、円筒部10に隣接して前方観察窓12の前方視野の観察対象側に照明光を出射する前方照明窓16と、チャンネル内に挿通された処置具を突出させる開口となるチャンネル先端開口部17とが設けられている。また、本実施形態においては、円筒部10の下部側に隣接して支持部18を先端部6の先端面から突出するように設けている。
 この支持部18は、先端面から突出される本来の観察対象ではない突出部材が、側方視野内に現れて、側方視野画像として取得されないように光学的に遮蔽する機能を持つと共に、円筒部10を支持する。
 また、この支持部18は、該支持部18の側面にその先端が突出し、側方観察窓13に向かって開口して、側方観察窓13を洗浄する側方観察窓用ノズル部22を支持すると共に、側方視野画像に現れないように遮蔽する。
 図1に戻って、操作部3には、前方観察窓用ノズル部19と側方観察窓用ノズル部22とからそれぞれ洗浄用の気体と液体とを選択的に射出させることができるように、送気送液操作ボタン24a、24bが設けてあり、この送気送液操作ボタン24a、24bの操作により送気と送液とを切り替えることができる。
 また、操作部3には、チャンネル先端開口部17より体腔内の粘液等を、吸引して回収するための吸引操作ボタン26が配設されている。なお、チャンネルは、挿入部4内に配設された図示しないチューブ等によって形成され、操作部3の前端付近に設けた処置具挿入口27と連通している。
 術者は、処置具による処置を行おうとする場合には、この処置具挿入口27から処置具を挿入し、その先端側をチャンネル先端開口部17から突出させることにより、処置具による治療のための処置を行うことができる。
 又、ユニバーサルコード5の末端にはコネクタ29が設けられ、このコネクタ29は内視鏡の光源装置31に接続される。コネクタ29の先端から突出する流体管路の接続端部となる口金(図示せず)と、照明光の供給端部となる、ライトガイド口金(図示せず)とは光源装置31に着脱自在で接続され、又、側面に設けた電気接点部には接続ケーブル33の一端が接続される。
 また、接続ケーブル33の他端のコネクタは、内視鏡2に搭載された撮像素子34(撮像部、図3参照)に対する信号処理を行う信号処理装置としてのビデオプロセッサ32に電気的に接続される。
 なお、前記コネクタ29には、当該内視鏡2における固有の所定ID情報を記憶した記憶部であるICチップ64が配設されている(詳しくは後述する)。
 ビデオプロセッサ32は、内視鏡2の先端部6に搭載した撮像素子34(撮像部、図3参照)を駆動する駆動信号を供給し、この駆動信号の供給により撮像素子34から出力される撮像信号(画像信号)に対して信号処理を行い、映像信号を生成する。
 このビデオプロセッサ32により生成された映像信号は、表示装置としてのモニタ35に出力され、モニタ35の表示面には撮像素子34で撮像した画像が内視鏡画像として表示される。光源装置31、ビデオプロセッサ32、モニタ35等の周辺装置は、患者情報の入力等を行うキーボード36と共に、架台37に配置されている。
 光源装置31で発生した照明光は、ユニバーサルコード5から操作部3及び挿入部4内を通したライトガイドによりその先端面側に導光(伝送)される。挿入部4内を通したライトガイドの先端面は、先端部6から突出する円筒部10の側方照明窓14と、前方照明窓16及び(支持部18に設けた)前方照明窓21に配置され、導光した光を出射する。
 なお、上記ライトガイドの先端側は、例えば挿入部4内で分岐し、一方は側方照明窓14内のライトガイド44となり、他方は前方照明窓16、21内の図示しないライトガイドとなる。
 そして、側方照明窓14と、前方照明窓16,21とから、側方視野側となる側面方向と、前方視野側となる挿入部6の挿入方向(長手方向とも言う)の先端側とにそれぞれ拡開して照明光を出射し、体腔内における観察対象側を照明する。
 尚、前方照明窓16,21、側方照明窓14に配置される照明光出射部分はライトガイドに代えて発光ダイオード(LED)のような発光素子であってもよい。
 図3は、第1の実施形態の内視鏡システムにおける挿入部先端部の構成を示す要部断面図であり、前方及び側方を兼ねる対物光学系11及び側方照明窓14周辺部の構成を示す。
 先端部6から突出する円筒部10の中心軸に沿った撮像中心Oと一致する光軸上に、それぞれ回転対称形状をした前レンズ41、ミラーレンズ15及び後レンズ群43を配置して撮像素子34に結像する対物光学系11が形成されている。なお、撮像素子34の前面にはカバーガラス34aが設けられている。前レンズ41、ミラーレンズ15、および後レンズ群43は円筒部10内のレンズ枠に固定されている。
 対物光学系11を構成し、円形の前方観察窓12に設けられた前レンズ41は、挿入部4の挿入方向に沿ったその先端側を観察視野とする広角の前方視野を形成する。
 この前レンズ41の直後に配置された反射光学系としてのミラーレンズ15は、図3に示すように側面方向から入射される光を接合面と前面とで2回反射して、後レンズ群43側に導光する2つのレンズを接合したもので構成されている。
 なお、このミラーレンズ15における前レンズ41に対向するレンズ部分は、前レンズ41からの光を屈折して、後レンズ群43側に導光する機能も兼ねる。
 そして、側方観察窓13に設けられたミラーレンズ15により、この側方観察窓13は、挿入部長軸方向に対して側方方向の光軸を略中心とした所定の視野角度を有しつつ、挿入部周方向における全周をカバーする略円環状の観察視野を形成する。
 なお、図3では、前方観察窓12(第1の光学系)を形成する前レンズ41に、その視野内の被検体側から入射される光線と、側方観察窓13を形成するミラーレンズ15(第2の光学系)に、その視野内の被検体側から入射される光線の概略の経路を示している。
前レンズ41から入射される被検体側の光線と、ミラーレンズ15から入射される被検体側からの光線とは、撮像素子34に投影される。
 そして、撮像素子34の撮像面には、その中央側に前方観察窓12の前レンズ41による挿入方向に向いて設けられた前方視野内の被検体の像つまり第1の被検体像が円形に結像され、前方視野画像として取得される。また、この撮像面には、前方視野画像の外周側に側方観察窓13に臨むミラーレンズ15により側方視野内の被検体の像つまり第2の被検体像が例えば円環等の環形状に結像され、前方視野画像に隣接するように側方視野画像として取得されることになる。
 つまり、撮像素子34の撮像面は、前レンズ41から投影される第1の被検体像と第2の光学系から投影される第2の被検体像とを同じ面で光電変換するように配置される。撮像素子34はビデオプロセッサ32中に設けられた、内視鏡画像を生成する後述の画像生成部60に対して電気的に接続されている。
 但し、本実施形態においては、円環形状の側方視野内に入射される被検体側からの光をメカニカルに遮蔽する遮蔽部18aが支持部18により形成される。また、本実施形態においては、側方照明窓14側から側面方向に出射される側方照明光を、支持部18側に出射しない構成にしている。
尚、本実施形態ではミラーレンズ15で戻り光を2回反射させる2回反射光学系を用いているが、戻り光を1回反射光学系により1回反射させて側方視野内の被検体の像を形成し、これをビデオプロセッサ32で画像処理し、側視視野画像と直視視野画像との向きを合わせてもよい。
 円筒部10における側方観察窓13に隣接する基端付近の外周面における複数箇所に側方照明窓14が設けられている。本実施形態においては、周方向における左右両側の2箇所に側方照明窓14が設けられており、支持部18が設けられた下部側を除く周方向の全域に側方照明光を出射する。
 図3に示すように先端部6の長手方向に沿って配置された光出射部材としてのライトガイド44の先端側は、先端部6の先端面から突出している円筒部10を構成する円筒部材10aの基端付近まで延出される。
 そして、円筒部10の基端付近(後レンズ群43の外周側)で、その側面近くにライトガイド44の先端面が配置され、このライトガイド44の先端面が導光した光を出射する出射端面となり、先端方向に光を出射する。本実施例においてはこの出射端面は円形であるが、円形に限らず、楕円形や多角形を含む異形形状であってもよい。
 この出射端面が臨む位置には、その位置を中心として円筒部10の円筒形状の側面外周に沿って帯状に長く延び、光を導光する溝部としての導光溝45を形成する凹部45aが設けられている。凹部45a内に、出射端面に対面するように形成される照明反射部としての反射部材46を配置して、この反射部材46の内面に、光を反射する反射部46aを設けた導光溝45が形成される。
 (反射部材46により形成される)導光溝45の内面の反射部46aは、図3に示す縦断面においては略半球形状の凹面となっている。また、この反射部46aは、その半球形状の凹面が円筒部10の円周方向に沿って、ライトガイド44の出射端面よりも長く形成されている。
 そして、この反射部46aは、出射端面から先端部6の先端側に向けて出射される光を、この反射部46aにより反射して側面方向に光の進行方向を変えると共に、円周方向に沿った広範囲の側面方向に導光して側方照明窓14から出射し、側方観察窓13の観察視野側(観察対象側)を照明する。従って、この導光溝45から側面方向に出射される光が側方照明光となる。
 なお、反射部46aは、アルミニウム、クロム、ニッケルクロム、銀、金などの高い反射率を有する金属薄膜を反射部材46の内面に設けて形成することができる。
 このように本実施形態においては、円筒部10の側面外周に沿って反射部46aが設けられた導光溝45が長く形成されるように、凹部45a内に反射部材46を配置している。また、反射部材46(又は導光溝45)における周方向の中央位置付近に光出射部材としてのライトガイド44の出射端面が位置するように配置している。
 ライトガイド44の出射端面から出射された光を、該出射端面の周囲に反射面を形成するように配置された反射部46aで反射して、導光溝45が設けられた側方照明窓14から側方に照明光を広範囲に出射する。
 この内視鏡2を用いて、撮像素子34により撮像した被検体画像を、内視鏡画像としてモニタ35の表示面35aに表示した場合の表示例を図4に示す。
 ここで、図4における表示領域51は、撮像素子34の撮像面の表示領域に対応する。この表示領域51における中央の円形領域が前方観察窓12による前方視野画像の表示領域52となり、この表示領域52の外側の環状領域が側方観察窓13による側方視野画像の表示領域53となる。
 また、支持部18に形成された遮蔽部18aにより側方視野の下部側の一部を遮蔽した領域が側方視野画像における黒領域54となる。すなわち、この黒領域54は、画像が表示されない非出画領域となる。
 次に、本第1の実施形態の内視鏡システムにおける電気的な構成についてその要部を説明する。
 図5は、第1の実施形態の内視鏡システムにおける内視鏡およびプロセッサの電気的な構成の要部を示したブロック図である。
 本第1の実施形態の内視鏡システム1においては、内視鏡2における例えば前記コネクタ29に記憶部であるICチップ64が配設されている。この記憶部であるICチップ64は当該内視鏡2における固有の所定ID情報、たとえば本実施形態においては当該内視鏡2における境界部の位置情報を記憶するようになっている。
 具体的に前記境界部の位置情報とは、内視鏡2の組み立てを行った後、例えば出荷前の検査時において一旦内視鏡画像を表示させた結果検出された状態に基づき、内視鏡2の動作前に予め内視鏡ごとに設定された「所定の基準点と前方視野中心とのずれ量(ΔX,ΔY)」である。
 一方、ビデオプロセッサ32は、撮像素子(CCD)34からの撮像信号を入力し、内視鏡画像を生成する画像生成部60と、生成された内視鏡画像に所定の画像処理を施す画像処理部61と、当該ビデオプロセッサ32における画像処理の基準点CPの座標(X0,Y0)を記憶するメモリ63と、前記コネクタ29における記憶部である前記ICチップ64から取得した当該内視鏡2における境界部の位置情報と前記メモリ63に記憶された前記基準点情報とに基づいて所定の補正基準点を設定する、位置検出部としての機能を有する補正量設定部62と、を備える。
 なお、図5中、各ブロックを結ぶ実線の矢印は画像信号の流れを示し、破線の矢印は所定のパラメータの流れを示す。
 次に、本第1の実施形態における画像処理部61および補正量設定部62による処理について図5および図6を用いて説明する。
 図6は、第1の実施形態の内視鏡システム1におけるモニタ画面に表示される観察画像の一例を示す図である。
 なお、前記黒領域54(図4参照)は上述したように画像が表示されない非出画領域であるが、図6を始め、以下当該黒領域54は図面上では省略して説明するものとする。
 まず、内視鏡2の組み立てを行った後、出荷前の検査時において内視鏡2に接続したビデオプロセッサ32を用いて撮像素子34からの撮像信号に基づく内視鏡画像を生成し、内視鏡システム1に一旦内視鏡画像を出力させて前方視野画像と側方視野画像とを表示させる。
 続いて、前記補正量設定部62は、前記メモリ63に格納された当該ビデオプロセッサ32において設定する、内視鏡2の撮像素子34の撮像領域内に設定する部分である第1の位置として「画像処理の基準点CPの座標(X0,Y0)」を読み込む。
 ビデオプロセッサ32内、例えばメモリ63には、予め、後述の画像処理を行う画像処理領域として、例えば画像処理の基準点CPの座標(X0,Y0)を中心とした枠状の指定範囲である環状領域Cに画像処理を行う旨の情報が格納されている。この環状領域Cは、後述の前方視野領域と側方視野領域との境界部を画像処理するために適切とされる幅を有する。
 この後補正量設定部62は、位置検出部として、内視鏡画像から第2の位置として前記撮像部の撮像領域内に前記第1の被検体像が結像する位置である当該内視鏡2における「所定の基準点と前方視野中心との相対的なずれ量(ΔX,ΔY)」を検出する。
 この結果に基づき、位置検出部としての機能を有する補正量設定部62は、相対位置関係の情報である、前方視野領域と側方視野領域との境界部の位置を設定するための、所定の基準点と前方視野中心との相対的なずれ量(ΔX,ΔY)に関する情報、またはこの(ΔX,ΔY)に基づいて求めた前方視野領域と側方視野領域との境界部の位置に関する情報を検出し、検出した結果に関する位置関係検出信号を生成し、記憶部である前記ICチップ64に、送信して記憶させる。
 以降、別途当該内視鏡2の使用時には、まず補正量設定部62は記憶部であるICチップ64に記憶させた所定の基準点と前方視野中心との相対的なずれ量(ΔX,ΔY)に関する情報、または(ΔX,ΔY)に基づく前方視野領域と側方視野領域との境界部の位置に関する情報を読み込む。
 その後補正量設定部62は、これら基準点CPの座標(X0,Y0)と、読み込んだ「所定の基準点と前方視野中心との相対的なずれ量(ΔX,ΔY)」とに基づいて補正基準点CP’(X0+ΔX,Y0+ΔY)を設定する。
 そして画像処理部61は、前記補正量設定部62において設定された前記補正基準点CP’(X0+ΔX,Y0+ΔY)に基づいて、例えば前述の画像処理の基準点CPの座標(X0,Y0)を中心とした画像処理を行う所定の環状領域を、CP’の座標(X0+ΔX,Y0+ΔY)を中心とした環状領域とするように移動させる等の処理を行う。
 その後、前方視野領域と側方視野領域との境界部)を、本出願人によって公開された特開2013-066646号公報における公知の手法を用いて明瞭化画像処理を施し、前記補正基準点CP’(X0+ΔX,Y0+ΔY)に基づいてそれぞれの領域(前方視野領域および側方視野領域)において、特開2013-066646号公報における方法等を用いて、第1の被写体被検体像および第2の被検体像の各一部を引き伸ばして第1の被検体像と第2の被検体像との境界に生じる枠状のエッジを埋めて低減する処理等の所定の画像処理を行う。
 以上説明したように、本第1の実施形態の内視鏡システムによると、前方視野及び側方視野を独立してかつ同時に観察することが可能な内視鏡システムにおいて、撮像ユニットを組み立てる際に対物光学系および撮像素子の枠の加工精度または組み立て時のばらつき等の影響により、対物光学系の光軸と撮像素子の中心軸とに軸ずれが生じた場合でも、精度よく画像処理を行い得る内視鏡システムを提供することができる。
 尚、一旦内視鏡画像を出力させ、前記補正量設定部62がメモリ63に格納された(X0,Y0)を読み込むとともに内視鏡画像から(ΔX,ΔY)を検出し、記憶部であるICチップ64に(ΔX,ΔY)を記憶させる一連の動作は、内視鏡2の出荷前の検査時のみに行う例に限定されるとは限らない。
 他の方法として、内視鏡システム1に電源を投入して内視鏡画像を出力させるたびに、初めに出力される内視鏡画像から補正量設定部62が(ΔX,ΔY)を設定してICチップ64に対して(ΔX,ΔY)を記憶させる構成であってもよい。
(第2の実施形態)
 次に、本発明の第2の実施形態について説明する。
 本発明の本第2の実施形態の内視鏡システムは、その基本的な構成は第1の実施形態と同様であるが、第1の実施形態に比してビデオプロセッサ32内での補正処理および画像処理を異にするものである。
 したがって、ここでは、第1の実施形態と異なる部分の説明にとどめ、第1の実施形態と同様の部分についての説明は省略する。
 図7は、第2の実施形態の内視鏡システムにおける内視鏡およびプロセッサの電気的な構成の要部を示したブロック図である。
 本第2の実施形態におけるビデオプロセッサ32は、撮像素子(CCD)34からの撮像信号を入力し、撮像素子(CCD)34からの撮像信号を入力し、内視鏡画像を生成する画像生成部60と、生成された内視鏡画像に所定の画像処理を施す画像処理部61と、当該ビデオプロセッサ32における画像処理の基準点CPの座標(X0,Y0)を記憶するメモリ63と、内視鏡画像上における、いわゆる黒つぶれしている画素を検出するとともに当該黒つぶれ画素の位置情報に基づいて「所定の基準点と前方視野中心とのずれ量(ΔX,ΔY)」を算出する演算装置62aと、当該ずれ量(ΔX,ΔY)と前記メモリ63に記憶された前記基準点CPの座標(X0,Y0)とに基づいて所定の補正基準点を設定する、位置検出部としての機能を有する補正量設定部62と、を備える。
 次に、本第2の実施形態における画像処理部61および補正量設定部62(演算装置62a含む)による処理について図7および図8を用いて説明する。
 図8は、第2の実施形態の内視鏡システムにおけるモニタ画面に表示される観察画像の一例を示す図である。
 なお、ここで視野領域の境界(図11に示す符号101a)は、光学的または電気的に黒つぶれしている。
 まず、内視鏡システム1の使用にあたり、内視鏡2に接続したビデオプロセッサ32を用いて内視鏡システム1に一旦内視鏡画像を出力させ、前方視野と側方視野とを表示させる。
 続いて、前記補正量設定部62は、前記メモリ63に格納された当該ビデオプロセッサ32において設定する、内視鏡2の撮像素子34の撮像領域内に設定する部分である第1の位置として「画像処理の基準点CPの座標(X0,Y0)」を読み込む。
 ビデオプロセッサ32内、例えばメモリ63には、予め、後述の画像処理を行う画像処理領域として、例えば画像処理の基準点CPの座標(X0,Y0)を中心とした枠状の指定範囲である環状領域に画像処理を行う旨の情報が格納されている。この環状領域は、後述の前方視野領域と側方視野領域との境界部を画像処理するために適切とされる幅を有する。
 この後補正量設定部62は、内視鏡システム1に電源を投入し内視鏡画像を出力させて初めに出力される内視鏡画像から補正量設定部62内の前記演算装置62aにおいて、「所定の基準点と前方視野中心とのずれ量(ΔX,ΔY)」を算出する。
 すなわち、具体的に演算装置62aは、前記基準点CPからX軸、Y軸上に黒つぶれしている画素までの画素数Ru,Rd,Rr,Rl(図8参照)を算出し、その値から前記基準点と前記視野中心とのずれ量(ΔX,ΔY)を例えば、以下の計算式により算出する。
 ΔX=|(Rr-Rl)/2|
 ΔY=|(Ru-Rd)/2|
 その後補正量設定部62は、第1の実施形態と同様に、前記基準点CPの座標(X0,Y0)と、前記「所定の基準点と前方視野中心とのずれ量(ΔX,ΔY)」とに基づいて補正基準点CP’(X0+ΔX,Y0+ΔY)を設定する。
 この結果に基づき、位置検出部としての機能を有する補正量設定部62は、相対位置関係の情報である、前方視野領域と側方視野領域との境界部の位置を設定するための上記補正基準点CP’(X0+ΔX,Y0+ΔY)の情報、または補正基準点CP’に基づく前方視野領域と側方視野領域との境界部の位置に関する情報を検出し、検出した結果に関する位置関係検出信号を生成し、記憶部である前記メモリ63に、記憶させる。
 以降、当該内視鏡2の使用時には、まず補正量設定部62は記憶部であるメモリ63に記憶させた前方視野領域と側方視野領域との境界部の位置を設定するための上記補正基準点CP’(X0+ΔX,Y0+ΔY)の情報、または補正基準点CP’に基づく前方視野領域と側方視野領域との境界部の位置に関する情報を読み込む。
 そして画像処理部61は、前記補正量設定部62において設定された前記補正基準点CP’(X0+ΔX,Y0+ΔY)に基づいて、例えば図9のように前述の画像処理の基準点CPの座標(X0,Y0)を中心とした画像処理を行う所定の環状領域を、CP’ の座標(X0+ΔX,Y0+ΔY)を中心とした環状領域とするように移動させる等の処理を行う。
 そして画像処理部61は、以降当該内視鏡2を使用している間においては、第1の実施形態と同様に、前記補正量設定部62において設定されて記憶部である前記メモリ63に記憶させた前記補正基準点CP’(X0+ΔX,Y0+ΔY)に関する情報に基づいて境界部(前方視野領域と側方視野領域との境界部)を、本出願人によって公開された特開2013-066646号公報における公知の手法を用いて明瞭化画像処理を施す。
 さらに前記画像処理部61は、前記補正基準点CP’(X0+ΔX,Y0+ΔY)に基づいてそれぞれの領域(前方視野領域および側方視野領域)において、特開2013-066646号公報における方法等を用いて、第1の被写体被検体像および第2の被検体像の各一部を引き伸ばして第1の被検体像と第2の被検体像との境界に生じる枠状のエッジを埋めて低減する処理等の所定の画像処理を行う。
 以上説明したように、本第2の実施形態の内視鏡システムによると、第1の実施形態と同様に、前方視野及び側方視野を独立してかつ同時に観察することが可能な内視鏡システムにおいて、撮像ユニットを組み立てる際に対物光学系および撮像素子の枠の加工精度または組み立て時のばらつき等の影響により、対物光学系の光軸と撮像素子の中心軸とに軸ずれが生じた場合でも、精度よく画像処理を行い得る内視鏡システムを提供することができる。
 さらに本第2の実施形態においては、組み立て時に予め境界部の位置情報を設定しておくことなく補正基準点CP’を求めることができるので、第1の実施形態に比して内視鏡の撮像ユニットの組み立て時における前記位置情報の設定が不要となり、組み立て工数を削減することができる。
 なお、第1の実施形態においては、内視鏡2がビデオプロセッサ32に接続されて内視鏡画像を表示させたとき補正量設定部62が一旦ICチップ64から所定の情報(「所定の基準点と前方視野中心とのずれ量(ΔX,ΔY)」の情報)を取得した際、当該情報をたとえばメモリ63等に記憶しておくことで、各内視鏡2のICチップ64に記憶された内視鏡の固有情報を参照して別途内視鏡システム1の使用時に同じ内視鏡2がビデオプロセッサ32に接続されたと判断された場合には、再度当該ずれ量(ΔX,ΔY)を読み込むことなく以前に設定した補正基準点CP’(X0+ΔX,Y0+ΔY)を設定するようにしても良い。
 さらに、第2の実施形態においても、演算装置62aにおいて一旦ずれ量(ΔX,ΔY)を演算した場合も、上記同様に、当該ずれ量(ΔX,ΔY)をメモリ63等に記憶することで、別途内視鏡システム1の使用時に同じ内視鏡2がビデオプロセッサ32に接続されたと判断された際は、再度当該ずれ量(ΔX,ΔY)を読み込むことなく以前に設定した補正基準点CP’(X0+ΔX,Y0+ΔY)を設定するようにしても良い。
 本発明は、上述した実施形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。
 例えば、ビデオプロセッサ32内、例えばメモリ63に、予め、例えば画像処理の基準点CPの座標(X0,Y0)を中心とした所定の環状領域に画像処理を行う旨の情報を格納しておかなくとも、前方視野領域と側方視野領域との境界部の位置を検出し、前方視野領域と側方視野領域との境界からそのまま所定の幅の領域を画像処理領域と指定し、所定の画像処理を行うようにしてもよい。
 更に、そのような実施形態では、上記の方法で指定した前方視野領域と側方視野領域との境界から算出して指定した画像処理領域の位置に関する情報を座標に変換する等の方法で例えばメモリ63に記憶するようにしてもよい。
 当該画像処理領域の位置に関する情報をたとえばメモリ63等に記憶しておくことで、各内視鏡2のICチップ64に一般的に記憶されている内視鏡の固有情報を参照して別途内視鏡システム1の使用時に同じ内視鏡2がビデオプロセッサ32に接続されたと判断された場合には、再度以前に設定した画像処理領域の位置に関する情報を再び設定するようにしてもよい。
 また、更に他の実施形態として、第1の実施形態及び第2の実施形態において、前方視野画像の中心が画像処理の基準点であったCPの座標(X0,Y0)に近づくように、上述した所定の画像処理を行った前方視野画像と側方視野画像とを含む内視鏡画像全体の位置をさらに移動させてもよい。
 本発明の内視鏡システムによれば、前方視野及び側方視野を独立してかつ同時に観察することが可能な内視鏡システムにおいて、対物光学系の光軸と撮像素子の中心軸との間に軸ずれが生じた場合でも、精度よく画像処理を行い得る内視鏡システムを提供することができる。
 本出願は、2014年4月8日に日本国に出願された特願2014-079766号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲に引用されるものとする。

Claims (12)

  1.  被検体の内部に挿入される挿入部と、
     前記挿入部に設けられた撮像部と、
     前記挿入部に設けられ、前記被検体の第1の領域に関する第1の被検体像を前記撮像部に投影する第1の光学系と、
     前記挿入部に設けられ、前記第1の領域とは少なくとも一部が異なる前記被検体の第2の領域に関する第2の被検体像を前記撮像部に投影する第2の光学系と、
     前記撮像部に投影した前記第1の被検体像及び前記第2の被検体像に基づく画像を生成する画像生成部と、
     前記画像中の前記第1の被検体像と前記第2の被検体像との境界の位置を設定する情報を記録する記憶部と、
     前記境界の位置を設定する情報に基づいて、前記第1の被検体像と前記第2の被検体像との境界に対して所定の画像処理を行う画像処理部と、
    を備えたことを特徴とする内視鏡システム。
  2.  前記撮像部の撮像領域内に設定した部分である第1の位置に対する前記第1の被検体像が結像する位置である第2の位置の相対位置関係を検出し、検出した結果に関する位置関係検出信号を生成して前記記憶部に送る位置検出部を有し、
     前記画像処理部は、前記位置関係検出信号に基づき、前記第1の被検体像と前記第2の被検体像との境界部分を含む領域に対して前記画像処理を行う範囲を決定し、前記画像処理を行うことを特徴とする請求項1に記載の内視鏡システム。
  3.  前記画像処理部において画像処理される画像処理領域は撮像領域内に定められており、前記画像処理部は、前記記憶部に記録された前記画像中の前記第1の被検体像と前記第2の被検体像との境界の位置に関する情報に基づき前記画像処理領域を移動させることを特徴とする請求項1に記載の内視鏡システム。
  4.  前記画像処理領域として枠状の指定範囲を定めることを特徴とする請求項3に記載の内視鏡システム。
  5.  前記画像処理部は、前記画像処理領域を移動させて画像処理を行った内視鏡画像全体の位置をさらに移動することを特徴とする請求項3に記載の内視鏡システム。
  6.  前記画像処理部は、前記第1の被検体像と前記第2の被検体像との境界に生じる枠状のエッジを低減する画像処理を施すことを特徴とする請求項1に記載の内視鏡システム。
  7.  前記画像処理部による前記エッジを低減する前記画像処理は、前記第1の被検体像および前記第2の被検体像の各一部を引き伸ばして前記エッジを埋める処理であることを特徴とする請求項6に記載の内視鏡システム。
  8.  前記位置検出部は、前記第1の位置の座標から、垂直及び水平方向に前記第1の被検体像と前記第2の被検体像との境界までの画素数を読み取り、前記第2の位置を検出することを特徴とする請求項2に記載の内視鏡システム。
  9.  前記第1の位置の座標から水平方向に、前記第1の被検体像と前記第2の被検体像との境界までの画素数をRrおよびRlとし、前記第1の位置の座標から垂直方向に、前記第1の被検体像と前記第2の被検体像との境界までの画素数をRuおよびRdとしたとき、
     前記位置検出部は、前記第1の位置の座標と前記第2の位置の水平方向のずれ量をΔX、前記第1の位置の座標と前記第2の位置の垂直方向のずれ量をΔYとすると、
     ΔX=|(Rr-Rl)/2|
     ΔY=|(Ru-Rd)/2|として算出することを特徴とする請求項8に記載の内視鏡システム。
  10.  前記第1の被検体像は、前記挿入部の長手方向に略平行な前記挿入部の前方を含む前記第1の領域の被検体像であり、
     前記第2の被検体像は、前記挿入部の長手方向と交差する方向の前記挿入部の側方を含む前記第2の領域の被検体像であり、
     前記第1の光学系は、前記第1の領域の被検体像を取得する前方観察窓を含み、
     前記第2の光学系は、前記第2の領域の被検体像を取得する側方観察窓を含む
     ことを特徴とする請求項1に記載の内視鏡システム。
  11.  前記第1の光学系は、前記挿入部の長手方向の先端部に、前記挿入部が挿入される方向に向けて配置され、
     前記第2の光学系は、前記第1の光学系の周方向を囲むように配置され、
     前記撮像部は、前記第1の光学系から投影される前記第1の被検体像と前記第2の光学系から投影される前記第2の被検体像とを同じ面で光電変換するように配置されるとともに、前記画像生成部に電気的に接続されていることを特徴とする請求項1に記載の内視鏡システム。
  12.  前記画像生成部は、前記第1の被検体像が略円形状になっており、前記第2の被検体像が前記第1の被検体像の周囲を囲む環状の形状となっている画像を生成することを特徴とする請求項1に記載の内視鏡システム。
PCT/JP2015/060189 2014-04-08 2015-03-31 内視鏡システム WO2015156176A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201580012674.6A CN106068093B (zh) 2014-04-08 2015-03-31 内窥镜系统
EP15776543.9A EP3103378A1 (en) 2014-04-08 2015-03-31 Endoscope system
JP2015552937A JP5953443B2 (ja) 2014-04-08 2015-03-31 内視鏡システム
US15/258,153 US20160374542A1 (en) 2014-04-08 2016-09-07 Endoscope system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014079766 2014-04-08
JP2014-079766 2014-04-08

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/258,153 Continuation US20160374542A1 (en) 2014-04-08 2016-09-07 Endoscope system

Publications (1)

Publication Number Publication Date
WO2015156176A1 true WO2015156176A1 (ja) 2015-10-15

Family

ID=54287753

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/060189 WO2015156176A1 (ja) 2014-04-08 2015-03-31 内視鏡システム

Country Status (5)

Country Link
US (1) US20160374542A1 (ja)
EP (1) EP3103378A1 (ja)
JP (1) JP5953443B2 (ja)
CN (1) CN106068093B (ja)
WO (1) WO2015156176A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107529946A (zh) * 2016-01-18 2018-01-02 奥林巴斯株式会社 内窥镜
JP2018114133A (ja) * 2017-01-19 2018-07-26 株式会社アールエフ 撮像装置、撮像装置のアタッチメントおよび画像処理方法
CN111936030A (zh) * 2018-06-22 2020-11-13 奥林巴斯株式会社 界标估计方法及内窥镜装置
CN112334056B (zh) * 2018-06-27 2024-05-14 奥林巴斯株式会社 图像显示装置和图像显示方法
CN110619318B (zh) * 2019-09-27 2021-03-02 腾讯科技(深圳)有限公司 基于人工智能的图像处理方法、显微镜、系统和介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011055641A1 (ja) * 2009-11-06 2011-05-12 オリンパスメディカルシステムズ株式会社 内視鏡装置及び内視鏡
JP2013066646A (ja) * 2011-09-26 2013-04-18 Olympus Medical Systems Corp 内視鏡用画像処理装置、内視鏡装置及び画像処理方法
JP2013066648A (ja) * 2011-09-26 2013-04-18 Olympus Corp 内視鏡用画像処理装置及び内視鏡装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4309605B2 (ja) * 2001-05-25 2009-08-05 株式会社東芝 オートセンタリング機能を有する撮像装置
JP2003265411A (ja) * 2002-03-20 2003-09-24 Pentax Corp 電子内視鏡装置および電子内視鏡および映像信号処理装置
JP5162374B2 (ja) * 2008-08-21 2013-03-13 富士フイルム株式会社 内視鏡画像のズレ量測定装置及び方法、並びに電子内視鏡及び内視鏡用画像処理装置
CN102665529B (zh) * 2010-07-08 2015-04-15 奥林巴斯医疗株式会社 内窥镜
EP2668891B1 (en) * 2011-10-27 2019-02-06 Olympus Corporation Endoscope system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011055641A1 (ja) * 2009-11-06 2011-05-12 オリンパスメディカルシステムズ株式会社 内視鏡装置及び内視鏡
JP2013066646A (ja) * 2011-09-26 2013-04-18 Olympus Medical Systems Corp 内視鏡用画像処理装置、内視鏡装置及び画像処理方法
JP2013066648A (ja) * 2011-09-26 2013-04-18 Olympus Corp 内視鏡用画像処理装置及び内視鏡装置

Also Published As

Publication number Publication date
CN106068093B (zh) 2018-09-25
JPWO2015156176A1 (ja) 2017-04-13
US20160374542A1 (en) 2016-12-29
JP5953443B2 (ja) 2016-07-20
CN106068093A (zh) 2016-11-02
EP3103378A1 (en) 2016-12-14

Similar Documents

Publication Publication Date Title
JP6964592B2 (ja) 計測支援装置、内視鏡システム、内視鏡システムのプロセッサ、及び計測支援方法
JP5953443B2 (ja) 内視鏡システム
JP4668831B2 (ja) 内視鏡
EP2929830B1 (en) Endoscope apparatus
JP5977912B1 (ja) 内視鏡システム及び内視鏡ビデオプロセッサ
JP5974188B2 (ja) 内視鏡システム
JPWO2018051680A1 (ja) 内視鏡システム
US10708553B2 (en) Measurement support device, endoscope system, processor for endoscope system
WO2015122355A1 (ja) 内視鏡システム
US8531513B2 (en) Assembly method for endoscope image pickup unit and endoscope
JP5889495B2 (ja) 内視鏡システム
JP5608580B2 (ja) 内視鏡
JPWO2018055933A1 (ja) 計測支援装置、内視鏡システム、内視鏡システムのプロセッサ、及び計測支援方法
JP6352673B2 (ja) 内視鏡装置及び内視鏡装置の操作方法
JP6064092B2 (ja) 内視鏡システム
WO2018139025A1 (ja) 観察装置
JP2021171475A (ja) 内視鏡及び内視鏡システム
WO2017064746A1 (ja) 撮像装置、内視鏡装置及び撮像方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2015552937

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15776543

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2015776543

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015776543

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE