WO2016047191A1 - 内視鏡システム - Google Patents

内視鏡システム Download PDF

Info

Publication number
WO2016047191A1
WO2016047191A1 PCT/JP2015/063305 JP2015063305W WO2016047191A1 WO 2016047191 A1 WO2016047191 A1 WO 2016047191A1 JP 2015063305 W JP2015063305 W JP 2015063305W WO 2016047191 A1 WO2016047191 A1 WO 2016047191A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
illumination
convex
size
imaging
Prior art date
Application number
PCT/JP2015/063305
Other languages
English (en)
French (fr)
Inventor
美沙 鶴田
竹腰 聡
佑一 竹内
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to CN201580035266.2A priority Critical patent/CN106535734B/zh
Priority to EP15843203.9A priority patent/EP3150103A4/en
Priority to JP2016501262A priority patent/JP6022106B2/ja
Publication of WO2016047191A1 publication Critical patent/WO2016047191A1/ja
Priority to US15/392,312 priority patent/US10264956B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0615Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for radial illumination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00089Hoods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00096Optical elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/012Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor
    • A61B1/0125Endoscope within endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0605Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for spatially modulated illumination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0623Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for off-axis illumination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0625Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for multiple fixed illumination angles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0627Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for variable illumination angles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0676Endoscope light sources at distal tip of an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0084Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1076Measuring physical dimensions, e.g. size of the entire body or parts thereof for measuring dimensions inside body cavities, e.g. using catheters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2461Illumination
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00131Accessories for endoscopes
    • A61B1/00133Drive units for endoscopic tools inserted through or with the endoscope

Definitions

  • the present invention relates to an endoscope system capable of detecting a convex portion in a body cavity.
  • Laparoscopic examination that enables a therapeutic treatment while using a laparoscope as an endoscope and observing a treatment tool and a treatment site without performing laparotomy is also performed.
  • Laparoscopy has the advantage that invasion to the patient is reduced. However, it is difficult to confirm minute convex lesions in the body cavity by laparoscopic examination.
  • peritoneal lesions of endometriosis have a minute and transparent blister-like convex shape, and the site of occurrence spreads extensively to the abdominal wall, organs in the abdominal cavity, the surface layer of the human body, etc. It is easy to overlook in a mirror examination.
  • Document 1 Japanese Patent Application Laid-Open No. 2010-82271 proposes an apparatus for detecting minute irregularities in a body cavity.
  • Document 2 Japanese Unexamined Patent Application Publication No. 2009-273655 proposes an image processing system for specifying the shape of an object surface.
  • the size of the convex portion of the lesioned portion to be detected is often limited to a predetermined size range. For example, it is not necessary to detect a convex portion having a size that is too small as a lesioned portion, and it is not necessary to detect a convex portion having a size that can be reliably confirmed by laparoscopic examination or the like. For example, it may not be necessary to detect a convex portion having a size larger than a predetermined maximum size (for example, 5 mm) or a convex portion having a size smaller than a predetermined minimum size (for example, 1 mm).
  • a predetermined maximum size for example, 5 mm
  • a convex portion having a size smaller than a predetermined minimum size for example, 1 mm
  • the apparatus of Document 1 can detect unevenness based on luminance information, but cannot detect the size of the unevenness.
  • the shape is detected using luminance information, but the size cannot be detected accurately.
  • An endoscope system includes an illumination unit that irradiates illumination light to illuminate a predetermined illumination range, an imaging unit that captures a predetermined imaging range of a subject illuminated by the illumination unit, and the imaging
  • a low-brightness part detection unit that detects a low-brightness part in a captured image of the subject imaged by the part, and a convexity of a predetermined size range based on information on the low-brightness part detected by the low-brightness part detection unit
  • a convex part size calculating unit for detecting the part.
  • FIG. 1 is a block diagram showing an endoscope system according to a first embodiment of the present invention.
  • Explanatory drawing which shows a mode that the insertion part of an endoscope is inserted in the body cavity.
  • FIG. 1 The perspective view which shows the front-end
  • Sectional drawing which shows the structure of the front-end
  • FIG. The flowchart for demonstrating operation
  • Explanatory drawing for demonstrating the detection method of the convex lesion part by the illumination in the cap.
  • Sectional drawing which shows the modification of an insertion part and a cap which can be employ
  • part was projected.
  • Explanatory drawing which shows a modification Explanatory drawing which shows a modification.
  • the block diagram which shows the 3rd Embodiment of this invention.
  • FIG. 1 is a block diagram showing an endoscope system according to a first embodiment of the present invention.
  • FIG. 2 is an explanatory view showing a state in which the insertion portion of the endoscope is inserted into the body cavity.
  • the endoscope system 1 includes an endoscope 10, a probe 20, and a processor device 40.
  • the endoscope 10 has an elongated and flexible insertion portion 10a that is inserted into a body cavity.
  • FIG. 2 shows a state in which the insertion portion 10a is inserted into the body cavity through the abdominal wall 61 of the patient as the subject.
  • FIG. 2 shows an example having a configuration different from that of FIG. 1, as will be described later, and the following description relates to FIG. 1 unless otherwise specified.
  • an operation unit 17 provided with various operation devices is provided on the proximal end side of the insertion unit 10a.
  • a cable is extended from the operation unit 17, and the endoscope 10 is connected to the operation unit 17 via the cable.
  • the processor device 40 is detachably connected. Although not shown in FIG. 1 for simplification of the drawing, the electrical connection between each unit in the insertion unit 10 a and the processor device 40 is performed via the operation unit 17.
  • the endoscope 10 is provided with a forceps port 16, and a channel (not shown) penetrating from the forceps port 16 to the distal end opening 10 c (see FIG. 2) of the insertion portion 10 a is provided in the insertion portion 10 a.
  • the probe 20 is arranged in the channel so as to be able to advance and retract.
  • the operation unit 17 can receive the operation of the user 36 with respect to various operation devices and can control the drive of each unit.
  • the insertion portion 10a is provided with a bending portion 10b (see FIG. 2).
  • the bending portion 10b is activated in the vertical and horizontal directions by an operation by a user 36 on a bending operation knob (not shown) provided in the operation portion 17. Is configured to be curved.
  • a probe driving unit 12 is provided in the insertion unit 10a.
  • the probe driving unit 12 is configured by a motor or the like (not shown), and can advance and retract the probe 20 in the channel to change the amount of protrusion of the probe 20 from the tip opening 10c.
  • the endoscope system 1 has a light source 32.
  • the light source 32 generates illumination light and supplies the illumination light to the first illumination unit 15 disposed in the insertion unit 10 a via the light guide 31.
  • the first illumination unit 15 is configured by, for example, a lens or the like (not shown) disposed at the distal end of the insertion unit 10a, and can illuminate the subject 35 with illumination light.
  • the light source 32 also supplies the generated illumination light to the second illumination unit 21 arranged on, for example, the side surface of the probe 20.
  • the second illumination unit 21 has an optical axis in a direction substantially perpendicular to the advancing / retreating direction of the probe 20, for example, and can irradiate the subject 35 with illumination light.
  • First 1 and 2nd illumination parts 15 and 21 may be provided with a light source, and illumination may be supplied to the 2nd illumination part 21 via a light guide.
  • the first illumination unit 15 and the second illumination unit 21 may be configured by an LED or the like.
  • the light source 32 supplies power to the first illuminating unit 15 and the second illuminating unit 21 configured by LEDs to control lighting.
  • an imaging unit 13 is provided in the insertion unit 10a of the endoscope 10.
  • the imaging unit 13 is disposed, for example, on the side surface of the insertion unit 10 a so that the visual field range overlaps the illumination range of the first and second illumination units 15 and 21.
  • the object reflected light (return light) of the illumination light from the first and second illumination units 15 and 21 irradiated on the subject 35 is incident on the image pickup surface of the image pickup unit 13.
  • the imaging unit 13 converts a subject optical image incident on the imaging surface into an electrical signal and outputs a captured image.
  • the probe 20 is driven by the probe driving unit 12 to advance and retreat, and the amount of protrusion from the tip opening 10c changes. That is, the relative positions of the imaging unit 13 and the second illumination unit 21 are changed according to the forward / backward movement of the probe 20.
  • imaging is performed while relatively changing the illumination direction of the illumination light with respect to the subject 35 and the viewing direction in imaging. Accordingly, as shown in FIG. 1, when the imaging unit 13 is provided in the insertion unit 10 a, illumination is performed by the second illumination unit 21 provided in the probe 20, and the imaging unit 13 is moved forward and backward. Perform imaging with. Thereby, the position of the 2nd illumination part 21 and the position of the imaging part 13 can be changed relatively, and it can image, changing the illumination direction and the visual field direction relatively.
  • FIG. 2 shows an example of this case, in which the probe 20 is provided with an imaging unit 13a, and the insertion unit 10a is provided with a second illumination unit 21a.
  • the endoscope 10 is provided with an index light irradiation unit 14.
  • the index light irradiating unit 14 can irradiate parallel light whose light beam size is a specified value. Note that the index light irradiation unit 14 only needs to be provided at a position where the subject 35 can be irradiated.
  • FIG. 1 shows an example in which the index light irradiation unit 14 is provided in the insertion unit 10a. The example which provided the irradiation part 14 in the probe 20 is shown.
  • the processor device 40 includes a processor such as a CPU (not shown), and each unit in the processor device 40 can be controlled by the processor.
  • the processor device 40 is provided with a light source control unit 50.
  • the light source control unit 50 controls the light source 32 to irradiate the subject 35 with illumination light from the first or second illumination unit 15, 21.
  • the processor device 40 includes a drive circuit (not shown) that drives the imaging unit 13 of the endoscope 10 and an image processing unit 42 to which a captured image from the imaging unit 13 is input.
  • the image processing unit 42 performs predetermined image signal processing on the input captured image and outputs the processed image signal to the display unit 51.
  • the display unit 51 displays the captured image given from the image processing unit 42.
  • the processor device 40 is provided with a probe control unit 41.
  • the probe control unit 41 can control the driving of the probe driving unit 12 provided in the endoscope 10 to move the probe 20 forward and backward by a set distance.
  • a convex part having a predetermined size is determined as a convex lesion part.
  • the surgeon inserts the insertion portion 10a into the body cavity via the abdominal wall 61 and arranges it in the vicinity of the site to be observed.
  • the example of FIG. 2 shows an example in which the convex portion 62a is detected among the plurality of convex portions 62a to 62c existing in the body cavity.
  • the distal end side of the insertion portion 10a and the axial direction of the probe 20 are arranged substantially parallel to the observation site 65, and the convex portion 62a in the observation site 65 is the second illumination unit 21a (second illumination in FIG. 1).
  • the illumination range of the imaging unit 13a (in FIG. 1, the imaging unit 13).
  • the presence of the convex portion 62a in the observation region 65 is detected, the size of the detected convex portion 62a is obtained, and the convex lesion is found when the convex portion 62a is within a predetermined size range. It is determined that it is a part.
  • the processor device 40 is provided with a convex part specifying part 43.
  • the convex part specifying unit 43 includes a low luminance part detecting unit 44, an image recording unit 45, and a shadow area specifying unit 46.
  • the low-luminance portion detection unit 44 is provided with captured images according to the illumination of the illumination unit 21 before and after the change of the relative position between the imaging unit 13 and the illumination unit 21 from the imaging unit 13.
  • the low luminance part detection unit 44 detects a low luminance part in each captured image.
  • the low luminance part detection unit 44 may obtain a pixel having a luminance lower than a predetermined threshold in the captured image as the low luminance part.
  • the low luminance part detection unit 44 gives the image recording unit 45 the detection result of the position, shape, and size of the low luminance part detected for each captured image.
  • the image recording unit 45 records the detection result of the low luminance part detection unit 44.
  • the low luminance part detection unit 44 may obtain the size of the low luminance part based on the detected number of pixels of the low luminance part.
  • the probe control unit 41 moves the probe 20 forward and backward before and after detection by the low-luminance portion detection unit 44.
  • the low-luminance portion detection unit 44 detects the low-luminance portion before and after the probe 20 moves back and forth, that is, before and after the relative position between the imaging unit 13 and the illumination unit 21 changes, and the image recording unit 45.
  • the low-brightness detection results before and after the probe 20 moves back and forth are recorded.
  • the shadow area specifying unit 46 reads the detection result of the low luminance part detecting unit 44 from the image recording unit 45. If the detection result of the low luminance part indicates that the shape of the low luminance part is changed before and after the change of the relative position between the imaging unit 13 and the illumination unit 21, the shadow region specifying unit 46 The low luminance part is determined as a convex part, and the determination result of the size of the low luminance part is output to the size comparison unit 49 of the convex lesion size calculation unit 47.
  • the convex lesion size calculation unit 47 includes an index light irradiation control unit 48 and a size comparison unit 49.
  • the index light irradiation control unit 48 controls the light source 32 to irradiate the subject 35 with illumination light from the index light irradiation unit 14.
  • the size comparison unit 49 is provided with a captured image based on the illumination of the index light irradiation unit 14 from the imaging unit 13.
  • the size comparison unit 49 calculates the size of the convex portion by obtaining the size of the index light in the input captured image and comparing it with the size of the low luminance portion given from the image recording unit 45. When the calculated size of the convex portion is within a specified range, the size comparison unit 49 determines that the convex portion is a lesioned portion, and outputs information regarding the convex portion (not shown). ).
  • FIG. 5 is an explanatory diagram for explaining the operation of the first embodiment, in which the arrangement of the insertion portion 10a on the observation site 65 is shown on the upper side, and the position of the probe 20 is P1, P2, P3 on the lower side. The captured image is shown.
  • the insertion portion 10a is placed on the observation site. That is, the operator inserts the insertion portion 10a into the body cavity and places it near the observation site 65 as shown in FIG.
  • the imaging unit 13 and the second illumination unit 21 are arranged on the side surface of the insertion unit 10 a or the probe 20, and each optical axis is provided in a direction substantially perpendicular to the advancing / retreating direction of the probe 20.
  • the insertion portion 10 a is arranged so that the advancing / retreating direction of the probe 20 is substantially parallel to the surface of the observation site 65.
  • step S1 the processor device 40 sets a measurement count n (n is 2 or more) for detecting a convex lesion.
  • FIG. 5 shows an example where n is 3, and steps S2-2 to S2-6 in FIG. 3 are repeated three times.
  • step S2-1 the light source control unit 50 controls the light source 32 to turn on the second illumination unit 21.
  • the probe control unit 41 controls the probe driving unit 12 to move the probe 20 forward and backward in step S2-2, thereby moving the position of the second illumination unit 21 to the specified position. For example, the probe control unit 41 moves the probe 20 so that the position of the second illumination unit 21 becomes the initial position P1.
  • the imaging unit 13 performs imaging under the control of the processor device 40.
  • the imaging unit 13 acquires a surface image of the observation region 65 in the visual field range indicated by the broken line in the upper part of FIG.
  • the convex part 62a in the observation region 65 is located within the illumination range A1 of the second illumination part 21, and the captured image from the imaging part 13 includes the image portion of the convex part 62a.
  • the captured image of the imaging unit 13 is supplied to the image processing unit 42 and the low luminance unit detection unit 44 of the processor device 40 (step S2-3).
  • the image processing unit 42 performs appropriate image signal processing on the captured image and then provides the image to the display unit 51. Thereby, the surface image of the observation region 65 can be displayed on the screen of the display unit 51.
  • the low luminance part detection unit 44 takes the captured image from the imaging unit 13 as the first image information, and detects the position, shape, and size of the low luminance part in the first image information (step S2-4).
  • a captured image 70 by illumination in the illumination range A1 when the second illumination unit 21 is located at the specified position P1 is illustrated.
  • the captured image 70 includes an image 71 by the convex portion 62a.
  • a shadow of the convex part 62 a is generated, and this shadow image 72 a is also included in the captured image 70.
  • the image portion of the shadow image 72 a is detected as a low luminance portion by the low luminance portion detection unit 44.
  • the low luminance part detection unit 44 gives the detection result to the image recording unit 45 as first image luminance information for recording (step S2-5).
  • the processor device 40 determines whether or not the number of times of measurement n has been reached in step S6. If not, the processor device 40 returns the process to step S2-2 and repeats the processes of steps S2-2 to S2-6.
  • n is 3, and the probe control unit 41 controls the probe drive unit 12 to move the probe 20 forward and backward, thereby moving the position of the second illumination unit 21 to the specified position P2.
  • FIG. The imaging unit 13 captures an image
  • the low luminance part detection unit 44 captures the captured image as second image information to detect the low luminance part, and records the detection result in the image recording unit 45 as second image luminance information.
  • the probe control unit 41 moves the position of the second illumination unit 21 to the specified position P3 and performs imaging.
  • the low luminance part detection unit 44 captures the captured image as the third image information, detects the low luminance part, and records the detection result in the image recording unit 45 as the third image luminance information.
  • the shadow area specifying unit 46 specifies a shadow area in step S3 of FIG. That is, the shadow area specifying unit 46 reads out all image luminance information from the image recording unit 45 and compares them with each other to detect a low luminance area having a shape change.
  • the illumination range of the second illumination unit 21 changes to A1 to A3.
  • the projections 62a are included in the illumination ranges A1 to A3, and the captured image from the imaging unit 13 includes the image portion of the projections 62a.
  • 5 shows a captured image 70 by illumination in the illumination range A2 when the second illumination unit 21 is at the specified position P2. Even when the second illumination unit 21 moves from the specified position P1 to the specified position P2, the positional relationship between the imaging unit 13 and the convex part 62a does not change, so the image 71 of the convex part 62a is in the captured image 70. Images are taken at the same position with the same shape and size. On the other hand, the shape and size of the shadow of the convex portion 62 a generated by the illumination of the second illumination unit 21 change as the second illumination unit 21 moves. 5 indicates that the shadow image 72a of the convex portion 62a is captured on the right side of the paper surface of the convex portion 62a, and at P2 in FIG. 5, the shadow image 72b of the convex portion 62a is the convex portion 62a. It is shown that the image is taken on the left side of the paper.
  • a captured image 70 is shown when the second illumination unit 21 has moved to the specified position P3.
  • the convex part 62a and the shadow images 71 and 72c by the illumination of the illumination range A3 of the second illumination part 21 are included.
  • the size and shape of the shadow images 72b and 72c change with the change from the illumination range A2 to the illumination range A3.
  • the shadow area specifying unit 46 determines that the low luminance part having such a shape change is a shadow part due to the convex part, and detects this part as a low luminance area (step S3-1).
  • the shadow of the convex portion 62a changes in length along the advance and retreat direction of the probe 20, and the advance and retreat direction of the probe 20 It is considered that the length does not change in the direction perpendicular to. That is, it can be considered that the portion where the length of the end portion of the low luminance region does not change corresponds to the image portion of the convex portion 62a adjacent to the low luminance region. Further, assuming that the planar shape of the convex portion 62a is substantially circular, the length of the portion where the length of the end portion of the low luminance region does not change may be considered as the size (diameter) of the convex portion 62a.
  • step S3-2 the shadow area specifying unit 46 detects a part of the low luminance area where the size does not change, and assumes the length (see FIG. 5) of this part as the diameter d of the convex part 62a.
  • the diameter d is determined by the number of pixels of the image, for example.
  • the shadow region specifying unit 46 outputs information regarding the number of pixels corresponding to the low luminance region and the diameter d to the size comparing unit 49.
  • step S4 the processor device 40 determines whether or not the size of the convex portion 62a is a size within a specified range based on the diameter d.
  • the index light irradiation control unit 48 of the convex lesion size calculation unit 47 controls the light source 32 to irradiate the surface of the observation region 65 with the index light from the index light irradiation unit 14 (step S4-1). ).
  • the index light is irradiated on the surface of the observation region 65 with a specified size.
  • the index light irradiation unit 14 may limit the band of the index light to a predetermined band so that the index light can be reliably observed on the surface of the observation site 65.
  • the band of the index light is different from the band of the illumination light from the second illumination unit 21. Moreover, when using the illumination light (white light) of the same band as the illumination light of the 2nd illumination part 21 as an indicator light, after making the 2nd illumination part 21 light-extinguish, an indicator light is irradiated.
  • the imaging device 13 performs imaging under the control of the processor device 40 (step S4-2).
  • 5 indicates that an image 73 of the index light region (index light irradiation region) irradiated on the surface of the observation region 65 is captured.
  • the image 70 when the 2nd illumination part 21 is located in the regulation position P1 is shown, However, You may perform irradiation of index light at any timing. That is, the processing of steps S4-1 to S4-4 in FIG. 4 may be performed at other timings.
  • the captured image from the imaging unit 13 is supplied to the size comparison unit 49.
  • the captured image from the imaging unit 13 includes an image portion illuminated by the index light, and the size comparison unit 49 obtains the number of pixels of the image portion (step S4-3).
  • the size comparison unit 49 may extract information on the wavelength band of the index light to obtain an image portion of the index light irradiation area.
  • the index light is parallel light, and the size of the index light irradiation area irradiated on the surface of the observation site 65 is known.
  • the size comparing unit 49 determines whether or not the size d of the convex lesion is a convex lesion to be detected, depending on whether or not the size d is within a specified range.
  • the size comparison unit 49 outputs a determination result as to whether or not it is a convex lesion. For example, this determination result is supplied to the display unit 51, and a display indicating whether or not the convex part 62a is a convex lesion part to be detected, a display indicating that the convex part 62a is a convex lesion part, and the like are performed. Is called.
  • the size comparison unit 49 may provide the display unit 51 with information on the size d of the convex lesion part as it is, and display a display indicating the size of the convex lesion part on the screen of the display unit 51.
  • an image 74 corresponding to the minute convex portion 64 is also captured.
  • the size of the convex portion 64 is smaller than the specified range, it is determined that the convex portion 64 does not need to be detected. Further, there may be no detectable low-luminance portion on the minute convex portion 64. Alternatively, it is conceivable that the change in the low luminance portion of the minute convex portion 64 is sufficiently small. In these cases, the convex portion 64 is not determined to be a low luminance region.
  • the convex portion can be reliably detected by performing imaging while controlling the relative positional relationship between the imaging unit and the illumination unit.
  • whether or not the size of the detected convex part is a convex part within a predetermined size range is determined by indicator light irradiation, and only the convex part to be identified as a lesion part is detected and notified to the operator. can do.
  • FIG. 6 is a block diagram showing a second embodiment of the present invention.
  • the same components as those in FIG. In the first embodiment an example is described in which imaging is performed while relatively moving the imaging unit and the illumination unit, and the size of the convex part is obtained by detecting the convex part by the shadow of the convex part in the captured image. did.
  • the shadow due to the convex portion does not occur. Therefore, in the present embodiment, by using a cap-shaped lighting fixture, a shadow due to the convex portion is generated, and the convex portion and the convex portion are reliably detected.
  • FIG. 7 and FIG. 8 are explanatory diagrams for explaining a usage pattern of the endoscope system in the present embodiment.
  • FIG. 7 shows a state where the observation site 151 is observed by the insertion portion 110a of the endoscope 110 to which the cap 130 that is a lighting device is attached.
  • the surface of the observation part 151 is inclined with respect to the direction of the distal end of the insertion part 110a, and even if the observation part 151 is irradiated with illumination light and a shadow that is a low-luminance part is observed, That size cannot always be detected reliably.
  • the orientation of the insertion portion 110a is set to a predetermined angle, for example, parallel (or perpendicular) to the surface of the observation site 151, so that the projection is reliably shaded by the illumination light. It is like that.
  • the cap 130 is configured, for example, in a cylindrical shape with an opening on the distal end side, and the distal end of the insertion portion 110a is fitted on the proximal end side. As shown in FIG. 8, the tip of the cap 130 is brought into contact with the surface of the observation site 151 so that the convex portion 152 is positioned in the opening of the tip of the cap 130, and is pushed in the direction indicated by the dashed arrow. As a result, the surface of the observation region 151 is deformed, and the orientation of the surface of the observation region 151 is substantially perpendicular to the axial direction of the insertion portion 110a.
  • An illumination part 131 (first to third illumination parts 131a to 131c to be described later) made of, for example, LEDs is provided on the inner peripheral surface on the tip side of the cap 130.
  • the illumination part 131 is shown in FIG. As indicated by the solid line arrow, the illumination light is irradiated toward the center side of the cap 130.
  • the observation site 151 is imaged by the endoscope 110, and the convex portion 152 and the size thereof are detected according to the state of the shadow in the captured image. Illumination light is irradiated from the side surface side of the convex portion 152, so that a shadow by the convex portion 152 can be reliably generated, and the convex portion 152 can be detected.
  • the endoscope 110 is provided with an imaging unit 113 and a fourth illumination unit 114 in the insertion unit 110a.
  • the distal end of the insertion portion 110 a of the endoscope 110 is fitted into the proximal end side opening of the cap 130.
  • the cap 130 is provided with three first to third illumination units 131a to 131c (hereinafter referred to as the illumination unit 131 as described above when it is not necessary to distinguish each of them).
  • the illumination unit 131 an example in which the three illumination units of the first to third illumination units 131a to 131c are provided as the illumination unit 131 is shown, but two or more illumination units may be arranged.
  • the cap 130 is configured, for example, in a cylindrical shape, and any of the illumination units 131 can irradiate illumination light toward the center of the cap 130.
  • the illumination units 131a to 131c irradiate illumination lights having different wavelength bands, for example, R (red) light, G (green) light, and B (blue) light, respectively. Irradiate.
  • FIG. 9 is a perspective view showing the distal end of the insertion portion 110a to which the cap 130 is attached
  • FIG. 10 is a cross-sectional view showing the configuration of the distal end of the insertion portion 110a and the cap 130.
  • the distal end of the insertion portion 110a is fitted into the proximal end side opening of the cylindrical cap 130 having both ends opened.
  • a positioning convex portion 134 is provided on the inner peripheral surface of the cap 130, and the insertion position of the insertion portion 110 a into the cap 130 is determined by the convex portion 134.
  • An imaging element 113b such as a CCD that constitutes the imaging unit 113 is disposed at the distal end of the insertion unit 110a.
  • a lens group 113c composed of a plurality of lenses is provided between the image sensor 113b and the distal end surface of the insertion portion 110a. Return light from the subject is coupled to the image sensor surface of the image sensor 113b via the lens group 113c. It has come to be imaged.
  • a cable 113a inserted through the insertion unit 11a from the processor device 140 is connected to the image sensor 113b, and various signals for driving the image sensor 113b and a captured image obtained by the image sensor 11b are transmitted by the cable 113a. It is like that.
  • the 4th illumination part 114 comprised by the illumination lens is arrange
  • the light from the light source 32 guided by the fiber cable 114a inserted through the insertion section 110a is irradiated to the subject through the fourth illumination section 114 facing the emission end face of the fiber cable 114a.
  • the fourth illumination unit 114 is used for observing the subject 35.
  • an electrical contact 115b is provided on the tip side surface.
  • the electrical contact 115b is connected to the signal line 115a inserted into the insertion portion 110a and exposed to the outer peripheral surface of the insertion portion 110a.
  • an electrical contact 132 a is provided on the inner peripheral surface of the cap 130, and the electrical contacts 115 b and 132 a come into contact with each other by inserting the insertion portion 110 a into the cap 130.
  • the electrical contact 132a is connected to the illumination unit 131 through a signal line 132b such as a conductive wire or a flexible substrate.
  • the signal line 115 a is connected to the light source 32.
  • the light source 32 can control the lighting of the illumination unit 131 by supplying power to the illumination unit 131 via the signal line 115a, the electrical contacts 115b and 132a, and the signal line 132b.
  • the illumination unit 131 can irradiate the illumination light 133 toward the center of the cap 130.
  • FIG. 10 shows an example in which only one illumination unit 131 is provided for simplification of the drawing, but actually two or more illumination units 131 and the illumination unit 131 are driven. A power supply path is configured to do this.
  • the processor device 140 includes a processor such as a CPU (not shown), and each processor in the processor device 140 can be controlled by this processor.
  • the light source control unit 50 provided in the processor device 140 can control lighting of the first to third illumination units 131a to 131c provided in the cap 130 by controlling the light source 32. .
  • the processor device 140 has an image processing unit 141.
  • the image processing unit 141 has the same configuration as the image processing unit 42 in FIG. 1, performs predetermined image signal processing on the captured image from the imaging unit 113, and then gives the image to the display unit 51 for display.
  • the processor device 140 is provided with a low-luminance portion detection unit 142, a convex lesion region specifying unit 143, and a convex lesion size calculation unit 144.
  • the low luminance part detection unit 142 is provided with a captured image from the imaging unit 113 and detects a low luminance part in the captured image for each band of each illumination unit 131.
  • the convex lesion area specifying unit 143 specifies the convex lesion area based on the detection result of the low luminance part detecting unit 142.
  • the convex lesion size calculator 144 calculates the actual size of the convex lesion based on the identified convex lesion region.
  • the convex lesion size calculation unit 144 outputs the calculation result to the image processing unit 141. Based on the calculation result of the convex lesion size calculation unit 144, the image processing unit 141 can display information about the convex lesion existing in the observation site on the display unit 51.
  • FIG. 11 is a flowchart for explaining the operation of the second embodiment.
  • FIGS. 12 to 14 are explanatory views for explaining a method of detecting a convex lesion by illumination in the cap 130, and shows a state of illumination at the tip of the cap 130 as viewed from the axial direction of the insertion portion 110a. Yes.
  • the insertion part 110a is arranged at a site to be observed. That is, the surgeon inserts the insertion portion 110a with the cap 130 attached to the distal end into the body cavity and pushes the observation site 151 on the distal end surface of the cap 130 as shown in FIG. Thereby, the front end surface of the cap 130 and the surface of the observation site 151 are substantially parallel, and when there is a convex portion in the observation site 151, the illumination unit 131 disposed on the inner peripheral surface near the front end of the cap 130 The convex portion is illuminated from a direction perpendicular to the protruding direction of the convex portion.
  • the processor device 140 detects a low luminance part in the observation region 151 in step S11.
  • the light source control unit 50 of the processor device 140 controls the light source 32 in step S11-1 to irradiate illumination light from the first to third illumination units 131a to 131c in the cap 130.
  • the first to third illumination units 131a to 131c emit R, G, and B light, respectively.
  • FIG. 12 shows a state of this illumination. From the three illumination units 131a to 131c arranged on the inner peripheral surface of the cap 130 at a predetermined angular interval (for example, the same angular interval of 120 degrees), R light, It shows that G light or B light is emitted with the direction of the arrow as the optical axis.
  • a predetermined angular interval for example, the same angular interval of 120 degrees
  • the imaging unit 113 performs imaging under the control of the processor device 140.
  • the imaging unit 113 acquires an image of the surface of the observation site 151 surrounded by the cap 130 (step S11-2).
  • the captured image from the imaging unit 113 is supplied to the image processing unit 141 and the low luminance unit detection unit 142 of the processor device 140.
  • the image processing unit 141 performs appropriate image signal processing on the captured image and then provides the image to the display unit 51. Thereby, the surface image of the observation site 151 can be displayed on the screen of the display unit 51.
  • the low luminance part detection unit 142 detects the R component from the captured image from the imaging unit 113, and extracts the low luminance region by binarizing using a predetermined threshold (step S11-3-1). Similarly, in steps S11-3-2 and S11-3-3, the low luminance part detection unit 142 detects the G component and the B component from the captured image from the imaging unit 113, and uses a predetermined threshold value. Then, each low luminance region is extracted by binarizing. The extraction result of the low luminance region of the R, G, and B components by the low luminance portion detection unit 142 is supplied to the convex lesion region specifying unit 143. In step S12, the convex lesion region specifying unit 143 specifies the convex lesion region based on the output of the low luminance portion detecting unit 142.
  • the illumination unit 131 irradiates light in a direction substantially parallel to the surface of the observation site 151 from a position near the tip of the cap 130 in a space 135 surrounded by the inner peripheral surface of the cap 130. Therefore, when there is a convex portion protruding from the surface of the observation site 151 due to the illumination of the illuminating unit 131, it is considered that a shadow caused by the convex portion is surely generated. In other words, it can be determined that the low luminance region in the surface image is due to the shadow of the convex portion.
  • FIG. 13 shows a low luminance region by hatching when a convex portion exists at the center of the cap 130.
  • the low luminance region 161a is due to the shadow of the convex portion due to the illumination of the first illumination unit 131a.
  • the low luminance region 161b is due to the shadow of the convex portion due to the illumination of the first illumination unit 131b
  • the low luminance region 161c is due to the shadow of the convex portion due to the illumination of the first illumination unit 131c. Since the illumination lights of the first illumination units 131a to 131c are R, G, and B light, respectively, the low-luminance region 161a is a cyan shadow that excludes R light from the first illumination unit 131a out of the R, G, and B light.
  • the low luminance region 161b is considered to be based on a magenta shadow excluding the G light from the second illumination unit 131b among the R, G, and B light
  • the low luminance region 161c is the R, G, B light. Of these, it is considered to be based on yellow shades excluding B light from the third illumination unit 131c.
  • the convex lesion region specifying unit 143 Based on the extraction result of the low-luminance portion detection unit 142, the convex lesion region specifying unit 143 has an intersection 162 between the low-luminance regions 161a to 161c, that is, the low-luminance regions where the R, G, and B components are reduced. Is extracted (step S12-1).
  • the convex lesion region specifying unit 143 assumes that a circle 163 passing through the intersection 162 of the low luminance regions of the R, G, and B components is the outer shape of the convex lesion region, as shown in FIG. To do.
  • the convex lesion region specifying unit 143 outputs information on the circle 163 assumed to be the outer shape of the convex lesion region to the convex lesion size calculating unit 144.
  • the convex lesion size calculation unit 144 calculates the size of the convex lesion part in step S13. That is, the convex lesion size calculation unit 144 calculates the number of pixels of the diameter d of the circle 163 assumed to be a convex lesion part in step S13-1.
  • the convex lesion size calculation unit 144 calculates the actual length of one pixel of the captured image in step S13-2. Since the cap 130 is attached to the distal end of the insertion unit 110a to perform imaging, the distance from the imaging unit 113 to the subject is known. In addition, since the viewing angle of the imaging unit 113 is known and the characteristics of the lens group 113c are also known, the convex lesion size calculation unit 144 can calculate the actual length of one pixel of the captured image. Note that since the inner diameter of the cap 130 is also known, the convex lesion size calculation unit 144 may calculate the actual length of one pixel from the number of pixels of the inner diameter of the cap 130. Thus, in this embodiment, the actual length of one pixel of the captured image can be obtained without irradiating the index light.
  • the convex lesion size calculation unit 144 determines whether or not the convex lesion size to be detected is based on whether or not the size d of the convex lesion portion is within a specified range.
  • the convex lesion size calculation unit 144 outputs a determination result as to whether or not it is a convex lesion part. For example, the determination result is supplied to the display unit 51 via the image processing unit 141, and a display indicating whether the convex portion observed in the cap 130 is a convex lesion portion or a convex lesion portion. A display indicating the presence is performed.
  • a cap is attached to the front-end
  • Modification 15 to 17 are cross-sectional views showing modifications of the insertion portion and the cap that can be employed in the second embodiment.
  • the imaging unit 113 and the fourth illumination unit 114 are not shown.
  • the insertion portion 170 shown in FIG. 15 has the same configuration as the insertion portion 110a of FIG. 10 except that the electrical contact 115b is omitted and the signal line 115a connected to the electrical contact 115b is not inserted.
  • the cap 175 is different from the cap 130 of FIG. 10 in the power supply path to the illumination unit 131.
  • the cap 175 is provided with an electrical contact 176 on the outer peripheral surface.
  • the electrical contact 176 and the illumination unit 131 are connected by a signal line 177.
  • a bipolar forceps 179 such as a high-frequency cautery is brought into contact with the electrical contact 176 and energized.
  • power can be supplied from the bipolar forceps 179 of the high-frequency cautery to the illumination unit 131 via the electrical contact 176 and the signal line 177, and the illumination unit 131 can be turned on.
  • FIG. 16 shows an example in which the illumination unit 131 is configured by an illumination lens.
  • the insertion unit 181 in FIG. 16 includes a cable 113a, an image sensor 113b, and a lens group 113c, similarly to the insertion unit 110a.
  • the insertion portion 181 is provided with a lens 183 constituting the fourth illumination portion 114 at the distal end surface.
  • a fiber cable 182 that guides light from the light source 32 is disposed in the insertion portion 181.
  • the exit end face of the fiber cable 182 faces the lens 183, and the light guided by the fiber cable 182 is emitted from the lens 183.
  • a lens 193 having a light exit surface exposed on the inner peripheral surface is disposed on the inner peripheral surface near the tip of the cap 191.
  • the cap 191 has a thick side wall, and a light guide 194 is formed in the side wall.
  • the opening at one end of the light guide 194 faces a part of the exit surface of the lens 183, and the opening at the other end faces the lens 193.
  • a fiber cable 195 is disposed in the light guide 194, and a part of the light emitted from the lens 183 is emitted from the lens 193 via the fiber cable 195 in the light guide 194 as indicated by an arrow. Is done.
  • FIG. 17 the illustration of the imaging unit 113 is omitted.
  • the insertion portion 170 shown in FIG. 17 has the same configuration as the insertion portion 110a of FIG. 10 except that the electrical contact 115b is omitted and the signal line 115a connected to the electrical contact 115b is not inserted.
  • the cap 201 uses a phosphorescent material or a phosphor as the illumination unit 202.
  • the illumination unit 202 using the phosphorescent body accumulates light from the fourth illumination unit 114 and emits it toward the center of the cap 201 as indicated by an arrow.
  • the surface of the observation site is not always flat.
  • the illumination unit for example, the first illumination unit 15 in FIG. 1 or the fourth illumination unit 114 in FIG. 6
  • the detection accuracy of the convex portion and the size thereof are improved.
  • FIG. 18A to 18E are explanatory views for explaining the shape of the lattice projected on the observation site.
  • FIG. 18A shows an example in which the surface of the observation site is flat.
  • 18B to 18E show cases where the plane of the observation site is convex, concave, inclined, or partially convex, respectively.
  • the processor devices 40 and 140 estimate the surface shape of the observation region based on the lattice shape in the captured image, and improve the detection accuracy of the convex shape by using the correction value based on the estimation result. It is possible.
  • FIG. 19A to 19C are explanatory diagrams showing an example of the configuration in this case.
  • FIG. 19A shows an example of the insertion portion 221 provided with a pressing member at the observation site.
  • a plurality of claw members 223 that are extendable in the axial direction of the insertion portion 221 are disposed on the side surface of the insertion portion 221.
  • Each claw member 223 can be individually expanded and contracted in an expansion / contraction direction indicated by an arrow in FIG. 19A by a driving mechanism (not shown).
  • a driving mechanism not shown.
  • the observation part 225 is inclined with respect to the axial direction of the insertion part 221, and the captured image of the lattice projected from the insertion part 221 onto the surface of the observation part 225 is distorted as shown in FIG. 19B.
  • the processor device can obtain the lattice image 229 shown in FIG. 19C by extending, for example, one of the claw members 223 toward the observation site 225 based on the lattice shape of the lattice image 228. It is. Thereby, it is possible to improve the detection accuracy of a convex shape.
  • the size of each grid of the grid image 229 shown in FIG. 19C is known. Therefore, by using the lattice image 229, it is possible to calculate the actual size of the detected convex lesion.
  • the grid can be used as an index for detecting the size.
  • FIG. 20 is a block diagram showing a third embodiment of the present invention.
  • an example has been described in which the subject is illuminated from different directions at the same time or at different times, the convex portion is detected from the shadow state, and the size is obtained.
  • the size of the convex portion is obtained only by illuminating the subject from one direction.
  • this Embodiment has shown the method for calculating
  • the insertion unit 210 a of the endoscope 210 is provided with an imaging unit 213, a second illumination unit 214, and a probe raising device 215.
  • the probe raising device 215 is provided on the side surface of the insertion portion 210a, and the probe 230 may be arranged to protrude from the probe raising device 215 in a state inclined at a predetermined angle in the axial direction of the insertion portion 210a. It can be done.
  • a probe insertion port is provided in an operation unit (not shown) attached to the proximal end side of the insertion unit 210a, and the probe 230 is inserted into a channel that penetrates the insertion unit 210a from the probe insertion port to the probe lifting device 215.
  • the probe 230 is moved forward and backward from the probe insertion port side, and the probe raising device 215 is driven by operating an operation lever (not shown) provided in the operation unit, whereby the protrusion amount and the inclination angle of the probe 230 from the insertion unit 210a are driven. Can be freely controlled.
  • FIG. 21 is an explanatory diagram for explaining a measurement method by the endoscope system in the present embodiment.
  • the imaging unit 213 and the second illumination unit 214 are provided at the distal end of the insertion unit 210a, and the endoscope 210 can illuminate and image the axial direction of the insertion unit 210a. It is like that.
  • the probe 230 protrudes from a probe raising device 215 (not shown in FIG. 21) provided on the side surface of the insertion portion 210a at an angle with respect to the axial direction of the insertion portion 210a.
  • the protrusion amount and inclination angle of the probe 230 are known.
  • a first illumination unit 231 is disposed on the side surface on the distal end side of the probe 230.
  • the first illumination unit 231 can emit light from the light source 32.
  • the 1st illumination part 231 can also be comprised by LED, and in this case, the 1st illumination part 231 is supplied with electric power from the light source 32, for example, and light emission is controlled.
  • the first illumination unit 231 can emit parallel light. Furthermore, the 1st illumination part 231 may be able to adjust the size of the light beam.
  • the first illuminating unit 231 may be capable of emitting two types of light beams, a beam-like light with a sufficiently narrow light beam and a light beam with a predetermined width.
  • FIG. 21 shows an example in which the size of the convex portion 252 formed on the surface of the observation site 251 is shown.
  • the first illumination unit 231 is configured so that the protrusion amount and the inclination angle of the probe 230 are appropriately set.
  • the convex part 252 can be illuminated obliquely with respect to the protruding direction of the convex part 252.
  • the processor device 240 includes a processor such as a CPU (not shown), and each unit in the processor device 240 can be controlled by this processor.
  • the light source control unit 50 provided in the processor device 240 controls the light source 32 to control the lighting of the first illumination unit 231 and the second illumination unit 214.
  • the processor device 240 has an image processing unit 241.
  • the image processing unit 241 has the same configuration as that of the image processing unit 42 in FIG. 1, performs predetermined image signal processing on the captured image from the imaging unit 213, and then provides the display unit 51 for display.
  • the processor device 240 is provided with a probe drive control unit 242, a convex lesion region specifying unit 243, and a convex lesion size calculating unit 244.
  • the probe drive control unit 242 can change the tilt angle of the probe 230 by driving the probe raising device 215 based on the operation of the operator. Note that the protruding amount of the probe 230 can be changed by the operation of the operator.
  • the convex lesion area specifying unit 243 specifies a convex lesion area.
  • the convex lesion size calculator 244 calculates the actual size of the convex lesion based on the identified convex lesion region.
  • the convex lesion size calculation unit 244 outputs the calculation result to the image processing unit 241. Based on the calculation result of the convex lesion size calculation unit 244, the image processing unit 241 can display information about the convex lesion existing in the observation site on the display unit 51.
  • FIG. 22 is a flowchart for explaining the operation of the third embodiment.
  • FIG. 23 is explanatory drawing which shows the state of the shadow of a convex part in 3rd Embodiment.
  • the insertion portion 210a is placed at a site to be observed.
  • illumination is performed by the second illumination unit 214 provided at the distal end of the insertion unit 210a
  • imaging is performed by the imaging unit 213
  • the captured image is displayed on the display unit 51
  • the operator observes the display on the display unit 51.
  • An observation site may be specified.
  • you may detect a convex part with the method similar to said each embodiment. In this case, since the convex lesion part can be specified, a display indicating the outer shape of the convex lesion part may be displayed in the captured image displayed on the display unit 51.
  • step S21 of FIG. 22 shows an example in which the convex lesion part is specified from the low luminance region by the same method as in the second embodiment (step S12).
  • the process of step S21 can be executed by using the same three probes and the first illumination unit as the probe 230 and the first illumination unit 231.
  • FIG. 21 shows a state in which the insertion portion 210a is fixedly arranged in a state where the axial direction of the insertion portion 210a faces the convex portion 252 on the surface of the observation site 251.
  • the probe drive control unit 242 changes the protruding amount and the protruding angle of the probe 230 based on the operator's operation, and enables the first illumination unit 231 to illuminate the convex portion 252.
  • the first illumination unit 231 is turned on by the light source control unit 50.
  • FIG. 23 shows the convex portion 252 and the shadow 261 generated on the convex portion 252 in this case.
  • the convex portion 252 and the shadow 261 are captured by the imaging unit 213, and the captured image is given to the convex lesion region specifying unit 143.
  • the convex lesion region specifying unit 143 obtains the arc of the outline of the shadow 261 (thick line in FIG. 23) based on the captured image, and estimates the circle passing through the arc as the outer shape 252a of the convex lesion part (broken line in FIG. 23). To do.
  • the convex lesion region specifying unit 143 calculates the center point O of the estimated outer shape 252a.
  • the convex lesion region specifying unit 143 gives the information of the obtained center point O to the image processing unit 141 to display a display indicating the position in the captured image.
  • step S22 the convex lesion size calculator 144 obtains the size of the convex lesion. That is, the convex lesion size calculation unit 144 displays a display indicating the position of the center point Q of the visual field range of the imaging unit 113 on the captured image displayed on the display unit 51 in step S22-1.
  • the operator performs fine adjustment of the position and orientation of the insertion portion 210a, the protruding amount of the probe 230, and the inclination angle in order to calculate the size of the convex lesion.
  • the positional relationship between the imaging unit 213 and the convex portion 252, the visual field direction and range of the imaging unit 213, and the illumination direction of the first illumination unit 231 are defined.
  • the convex lesion size calculation unit 144 controls the light source control unit 50 to make the luminous flux of the illumination light of the first illumination unit 231 into a sufficiently thin beam. Alternatively (step S22-2).
  • step S23-3 the surgeon looks at the endoscopic image displayed on the display unit 51 while matching the display of the convex lesion center point O with the display of the imaging unit center point Q. Fine-tune the position of. Next, the surgeon finely adjusts the protrusion amount and the inclination angle of the probe 230 so that the center of the illumination light corresponding to the center point P of the first illumination unit is the convex portion 252 corresponding to the convex lesion center point O. Match the points on the surface.
  • a light beam 260a in FIG. 21 indicates a beam-shaped light beam used for this adjustment.
  • the convex lesion size calculation unit 144 widens the irradiation range of the light from the first illumination unit 231 in order to generate the shadow 261 of FIG. 23 (step S23-4). Thereby, the 1st illumination part 231 illuminates the convex part 252 with the light beam 260 shown by the hatching of FIG. In step S23-5, the convex lesion size calculation unit 144 obtains the length l of the shadow 261 based on the number of pixels in the low luminance area in the captured image corresponding to the shadow 261. Further, the convex lesion size calculation unit 144 calculates the visual field range W by the number of pixels.
  • the convex lesion size calculation unit 144 calculates the height h of the convex lesion part as follows using a known value assuming that the shape of the convex lesion part is a hemisphere (step S23-6). ). As shown in FIG. 21, the surface of the observation region 251 is flat, and the direction perpendicular to the surface coincides with the axial direction of the insertion portion 210a. A direction parallel to the surface of the part 251 will be described as a horizontal direction. In FIG. 21, the meanings of the symbols are as follows.
  • h height of the convex lesion
  • H height from the observation site 251 plane to the imaging unit 213
  • h ′ height of the imaging unit 213 Difference from the height of the center point P of the first illumination unit 231 d: of the convex 252
  • Diameter l Length of shadow 261 of convex portion 252
  • W Field of view range (diagonal) by imaging unit 213 y: Horizontal distance ⁇ 1: center point P of first illumination unit 231 and center Q of imaging unit 213 Tilt angle of the probe 230 (angle formed by the central axis of the insertion portion 210a and the central axis of the probe 230)
  • ⁇ 2 viewing angle ⁇ of the imaging unit 213: the optical axis of the imaging unit 213 and the illumination direction of the first illumination unit 231 Angle formed If the distance from the center of the convex part 252 (the central point O of the convex lesion part) to the tip of the shadow 261 is x, the illumination light from the first illumination
  • the convex lesion size calculation unit 244 determines whether or not the convex lesion portion to be detected is based on whether or not the size h of the convex lesion portion is within a specified range.
  • the convex lesion size calculation unit 244 outputs a determination result as to whether or not it is a convex lesion part. For example, the determination result is supplied to the display unit 51 via the image processing unit 241, and a display indicating whether or not the convex portion being observed is a convex lesion portion, a display indicating that the convex lesion portion is a convex lesion portion, or the like Is done.
  • each part in the processor devices 40, 140, and 240 in each of the above embodiments may be configured by at least one processor and realize each function according to a program, and each part may be realized by hardware. It may be configured to realize each function.
  • the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying constituent elements without departing from the scope of the invention in the implementation stage.
  • various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, you may delete some components of all the components shown by embodiment.
  • constituent elements over different embodiments may be appropriately combined.
  • the size of the convex portion can be detected from the captured image with high accuracy and the lesioned portion can be specified.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

 内視鏡システムは、照明光を照射し、所定の照明範囲を照明する照明部と、前記照明部によって照明された被検体の所定の撮像範囲を撮像する撮像部と、前記撮像部により撮像された前記被検体の撮像画像中の低輝度部を検出する低輝度部検出部と、前記低輝度部検出部が検出した前記低輝度部の情報に基づいて所定のサイズ範囲の凸部を検出する凸部サイズ算出部とを具備する。

Description

内視鏡システム
 本発明は、体腔内の凸部を検出可能な内視鏡システムに関する。
 従来より、細長の挿入部を屈曲した体腔内に挿入することにより、体表面を切開することなく体腔内深部の臓器などを観察したり、必要に応じて内視鏡挿入部の処置具チャンネル内に挿通した処置具を用いて各種の治療や処置などを実現した医療用の内視鏡が広く利用されている。
 また、内視鏡として腹腔鏡を用い、開腹することなく処置具と処置部位とを観察しながら治療処置を可能にする腹腔鏡検査も行われている。腹腔鏡検査は、患者への侵襲が低減されるという利点がある。しかし、腹腔鏡検査では体腔内の微小な凸状病変部は確認しにくい。
 例えば、子宮内膜症の腹膜病変は、微小で且つ透明水疱状の凸形状を有しており、発生部位が腹壁や腹腔内の臓器や人体の表層等に広範囲に広がっていることから、腹腔鏡検査では見落としやすい。
 このような病変部を検出する装置として、日本国特開2010-82271号公報(以下、文献1という)においては、体腔内の微小な凹凸を検出する装置が提案されており、また、日本国特開2009-273655号公報(以下、文献2という)においては、物体表面の形状を特定する画像処理システムが提案されている。
 ところで、このような病変部である凸部を検出する装置においては、検出したい病変部の凸部のサイズは、所定のサイズ範囲に限られることが多い。例えば、病変部としては小さすぎるサイズの凸部は検出する必要がなく、また、腹腔鏡検査等で確実に確認することができるサイズの凸部についても、特に検出する必要はない。例えば、所定の最大サイズ(例えば5mm)よりも大きいサイズの凸部や所定の最小サイズ(例えば、1mm)よりも小さいサイズの凸部については、検出する必要がない場合がある。
 しかしながら、文献1の装置においては、輝度情報に基づいて凹凸を検出することはできるが凹凸のサイズを検出することができない。また、文献2の提案においても輝度情報を利用して形状を検出しているが、そのサイズを正確に検出することはできない。
 このため、文献1及び文献2の装置において病変部を検出しようとすると、サイズを正確に検出することができないことから、指定したサイズ範囲の凸病変部のみを検出することができず、必ずしも有効な検査を行うことができるとは限らないという問題があった。
 本発明は、撮像画像から凸部のサイズを高精度に検出して病変部を特定することができる内視鏡システムを提供することを目的とする。
 本発明に係る内視鏡システムは、照明光を照射し、所定の照明範囲を照明する照明部と、前記照明部によって照明された被検体の所定の撮像範囲を撮像する撮像部と、前記撮像部により撮像された前記被検体の撮像画像中の低輝度部を検出する低輝度部検出部と、前記低輝度部検出部が検出した前記低輝度部の情報に基づいて所定のサイズ範囲の凸部を検出する凸部サイズ算出部とを具備する。
本発明の第1の実施の形態に係る内視鏡システムを示すブロック図。 内視鏡の挿入部が体腔内に挿入されている様子を示す説明図。 第1の実施の形態の動作を説明するためのフローチャート。 第1の実施の形態の動作を説明するためのフローチャート。 第1の実施の形態の動作を説明するための説明図。 本発明の第2の実施の形態を示すブロック図。 第2の実施の形態における内視鏡システムの利用形態を説明するための説明図。 第2の実施の形態における内視鏡システムの利用形態を説明するための説明図。 キャップ130が取り付けられた挿入部110aの先端を示す斜視図。 挿入部110aの先端及びキャップ130の構成を示す断面図。 第2の実施の形態の動作を説明するためのフローチャート。 キャップ130内の照明による凸病変部の検出方法を説明するための説明図。 キャップ130内の照明による凸病変部の検出方法を説明するための説明図。 キャップ130内の照明による凸病変部の検出方法を説明するための説明図。 第2の実施形態に採用可能な挿入部及びキャップの変形例を示す断面図。 第2の実施の形態に採用可能な挿入部及びキャップの変形例を示す断面図。 第2の実施の形態に採用可能な挿入部及びキャップの変形例を示す断面図。 観察部位の投影された格子の形状を説明するための説明図。 観察部位の投影された格子の形状を説明するための説明図。 観察部位の投影された格子の形状を説明するための説明図。 観察部位の投影された格子の形状を説明するための説明図。 観察部位の投影された格子の形状を説明するための説明図。 変形例を示す説明図。 変形例を示す説明図。 変形例を示す説明図。 本発明の第3の実施の形態を示すブロック図。 第3の実施の形態における内視鏡システムによる計測方法を説明するための説明図。 第3の実施の形態の動作を説明するためのフローチャート。 第3の実施の形態において凸部の影の状態を示す説明図。
 以下、図面を参照して本発明の実施の形態について詳細に説明する。
(第1の実施の形態)
 図1は本発明の第1の実施の形態に係る内視鏡システムを示すブロック図である。また、図2は内視鏡の挿入部が体腔内に挿入されている様子を示す説明図である。
 内視鏡システム1は、内視鏡10と、プローブ20とプロセッサ装置40とを含んで構成されている。内視鏡10は、体腔内に挿入される細長で可撓性を有する挿入部10aを有する。図2は挿入部10aが被検体である患者の腹壁61を介して体腔内に挿入されている様子を示している。
 なお、図2の挿入部10aは、後述するように、図1と異なる構成を有する例を示しており、以下の説明は、特に断らない限り図1に関するものである。
 図1において、挿入部10aの基端側には、各種操作器が設けられた操作部17が設けられ、この操作部17からはケーブルが延出され、このケーブルを介して内視鏡10とプロセッサ装置40とが着脱自在に接続されるようになっている。なお、図1では図面の簡略化のために図示しないが、挿入部10a内の各部とプロセッサ装置40との間の電気的な接続は、操作部17を介して行われる。
 内視鏡10には鉗子口16が設けられており、挿入部10a内には、鉗子口16から挿入部10aの先端開口10c(図2参照)まで貫通する図示しないチャンネルが設けられている。このチャンネル内にプローブ20が進退自在に配置されるようになっている。
 操作部17は、各種操作器に対するユーザ36の操作を受け付けて、各部の駆動を操作制御することができるようになっている。例えば、挿入部10aには湾曲部10b(図2参照)が設けられており、湾曲部10bは、操作部17に設けられた図示しない湾曲操作ノブに対するユーザ36による操作によって、上下左右方向に能動的に湾曲するよう構成されている。
 本実施の形態においては、挿入部10aにはプローブ駆動部12が設けられている。プローブ駆動部12は、図示しないモータ等によって構成されて、プローブ20をチャンネル内で進退させて、先端開口10cからのプローブ20の突出量を変化させることができるようになっている。
 内視鏡システム1は、光源32を有している。光源32は照明光を発生してライトガイド31を介して挿入部10aに配置された第1照明部15に照明光を供給する。第1照明部15は例えば挿入部10aの先端に配設されたレンズ等(図示せず)によって構成されており、照明光を被写体35に照射することができるようになっている。
 また、光源32は、発生した照明光をプローブ20の例えば側面に配置された第2照明部21にも供給する。第2照明部21は、例えばプローブ20の進退方向に対して略垂直方向に光軸を有しており、照明光を被写体35に照射することができるようになっている。
 なお、図1では、ライトガイド31を介して第1照明部15に照明光を供給する例を示したが、光源32の設置位置及び照明光の伝達経路は特に限定されるものではなく、第1,第2照明部15,21が光源を備えているものであってもよく、第2照明部21にライトガイドを介して照明を供給するものであってもよい。例えば、第1照明部15、第2照明部21の少なくとも一方をLED等によって構成してもよい。この場合には、光源32はLEDによって構成された第1照明部15、第2照明部21に電力を供給して、点灯を制御する。
 また、内視鏡10の挿入部10aには、撮像部13も設けられる。撮像部13は、その視野範囲が第1及び第2照明部15,21の照明範囲と重なるように、例えば挿入部10aの側面に配置される。撮像部13の撮像面には、被写体35に照射された第1,第2照明部15,21からの照明光の被写体反射光(戻り光)が入射するようになっている。撮像部13は撮像面に入射した被写体光学像を電気信号に変換して撮像画像を出力するようになっている。
 上述したように、プローブ20はプローブ駆動部12によって駆動されて進退し、先端開口10cからの突出量が変化する。即ち、撮像部13と第2照明部21との相対的な位置は、プローブ20の進退動に応じて変化するようになっている。
 本実施の形態においては、被写体35に対する照明光の照明方向と撮像における視野方向とを相対的に変化させながら撮像を行うようになっている。従って、図1のように、挿入部10aに撮像部13が設けられている場合には、プローブ20に設けられた第2照明部21によって照明を行い、プローブ20を進退動させながら撮像部13による撮像を行う。これにより、第2照明部21の位置と撮像部13の位置とを相対的に変化させることができ、照明方向と視野方向とを相対的に変化させながら撮像を行うことができる。
 なお、プローブ20側に撮像部を設ける構成も考えられる。この場合には、第2照明部を挿入部10a側に設けて被写体35を照明する。この場合にも、プローブ20を進退動させることで、プローブ20に設けた撮像部と、被写体35を照明する第2照明部との相対的な位置関係を変化させることができる。なお、図2はこの場合の例を示しており、プローブ20に撮像部13aを設け、挿入部10aに第2照明部21aを設けている。
 なお、本実施の形態においては、以後、挿入部10aに設けられた撮像部13と、プローブ20に設けられた第2照明部21とを用いて凸部を検出する例について説明する。挿入部10aに設けられた第2照明部21aと、プローブ20に設けられた撮像部13aとを用いた凸部の検出方法は同様に考えることができるので説明を省略する。
 本実施の形態においては、内視鏡10には、指標光照射部14が設けられている。指標光照射部14は、光束のサイズが規定値である平行光を照射することができるようになっている。なお、指標光照射部14は、被写体35を照射可能な位置に設けられていればよく、図1では指標光照射部14を挿入部10aに設けた例を示しており、図2では指標光照射部14をプローブ20に設けた例を示している。
 プロセッサ装置40は、図示しないCPU等のプロセッサを備えており、このプロセッサによってプロセッサ装置40内の各部を制御することができるようになっている。プロセッサ装置40には光源制御部50が設けられている。光源制御部50は、光源32を制御して、第1又は第2照明部15,21から照明光を被写体35に照射させるようになっている。
 また、プロセッサ装置40は、内視鏡10の撮像部13を駆動する図示しない駆動回路を備えていると共に、撮像部13からの撮像画像が入力される画像処理部42を有している。画像処理部42は、入力された撮像画像に対して所定の画像信号処理を施して表示部51に出力するようになっている。表示部51は、画像処理部42から与えられた撮像画像を表示する。
 本実施の形態においては、プロセッサ装置40には、プローブ制御部41が設けられている。プローブ制御部41は内視鏡10に設けられたプローブ駆動部12の駆動を制御して、プローブ20を設定した距離だけ進退動させることができるようになっている。
 本実施の形態においては、所定サイズの凸部を凸病変部として判定するようになっている。この判定のために、術者は、図2に示すように、挿入部10aを、腹壁61を介して体腔内に挿入して、観察したい部位近傍に配置する。図2の例では、体腔内に存在する複数の凸部62a~62cのうち、凸部62aを検出する例を示している。この場合には、挿入部10aの先端側及びプローブ20の軸方向が、観察部位65に略平行に配置され、観察部位65内の凸部62aが第2照明部21a(図1では第2照明部21)の照明範囲に入ると共に、撮像部13a(図1では撮像部13)の視野範囲に入った状態を示している。この状態で、本実施の形態においては、観察部位65中の凸部62aの存在を検出し、検出した凸部62aのサイズを求めて、凸部62aが所定のサイズ範囲である場合に凸病変部であるものと判定するようになっている。
 観察部位65中の凸部62aの存在を検出するために、プロセッサ装置40には凸部特定部43が設けられている。凸部特定部43は低輝度部検出部44、画像記録部45及び影領域特定部46によって構成される。低輝度部検出部44は、撮像部13から、撮像部13と照明部21との相対位置の変化前後における照明部21の照明に応じた撮像画像が与えられる。低輝度部検出部44は、各撮像画像中の低輝度部を検出する。
 例えば、低輝度部検出部44は、撮像画像中の所定の閾値よりも輝度が低い画素を低輝度部として求めてもよい。低輝度部検出部44は、各撮像画像について検出した低輝度部の位置及び形状、サイズについての検出結果を画像記録部45に与える。画像記録部45には低輝度部検出部44の検出結果が記録される。例えば、低輝度部検出部44は、検出した低輝度部のピクセル数によって、低輝度部のサイズを求めてもよい。
 プローブ制御部41は、低輝度部検出部44の検出前後において、プローブ20を進退動させるようになっている。これにより、低輝度部検出部44は、プローブ20の進退動の前後、即ち、撮像部13と照明部21との相対位置の変化前後において低輝度部を検出することになり、画像記録部45には、プローブ20の進退動前後における低輝度部の検出結果が記録される。
 影領域特定部46は、画像記録部45から低輝度部検出部44の検出結果を読出す。影領域特定部46は、低輝度部の検出結果によって、撮像部13と照明部21との相対位置の変化前後において、低輝度部の形状が変化していることが示された場合には、当該低輝度部を凸部と判定して、低輝度部のサイズの判定結果を凸病変サイズ算出部47のサイズ比較部49に出力する。
 凸病変サイズ算出部47は、指標光照射制御部48及びサイズ比較部49によって構成されている。指標光照射制御部48は、光源32を制御して、指標光照射部14から照明光を被写体35に照射させるようになっている。
 サイズ比較部49には、撮像部13から、指標光照射部14の照明に基づく撮像画像が与えられる。サイズ比較部49は、入力された撮像画像中の指標光のサイズを求めると共に、画像記録部45から与えられた低輝度部のサイズとの比較を行って、凸部のサイズを算出する。サイズ比較部49は、算出した凸部のサイズが規定の範囲内のサイズである場合には、当該凸部を病変部であるものと判定して、当該凸部に関する情報を出力する(図示省略)。
 次に、このように構成された実施の形態の動作について図3乃至図5を参照して説明する。図3及び図4は第1の実施の形態の動作を説明するためのフローチャートである。図5は第1の実施の形態の動作を説明するための説明図であり、上方に挿入部10aの観察部位65への配置を示し、下方にプローブ20の位置がP1,P2,P3の場合の撮像画像を示している。
 図3に示すように、先ず挿入部10aの観察部位への配置が行われる。即ち、術者は、挿入部10aを、体腔内に挿入して、図5に示すように、観察部位65近傍に配置する。図5の例では、撮像部13及び第2照明部21は、挿入部10a又はプローブ20の側面に配置されて、各光軸がプローブ20の進退方向に対して略直角な方向に設けられた例を示している。例えば、プローブ20の進退方向が観察部位65の表面に対して略平行となるように、挿入部10aを配置する。
 凸病変部の検出時には、挿入部10aの位置は観察部位65に対して固定される。この状態で、プロセッサ装置40はステップS2において観察部位65中の低輝度部を検出する。先ず、プロセッサ装置40は、ステップS1において、凸病変部の検出のための計測回数n(nは2以上)を設定する。なお、図5はnが3の例を示しており、図3のステップS2-2~S2-6が3回繰返される。光源制御部50はステップS2-1において光源32を制御して、第2照明部21を点灯させる。
 次に、プローブ制御部41はプローブ駆動部12を制御して、ステップS2-2において、プローブ20を進退動させることで、第2照明部21の位置を規定位置に移動させる。例えば、プローブ制御部41は、第2照明部21の位置が初期位置P1となるようにプローブ20を移動させる。
 次に、プロセッサ装置40の制御によって、撮像部13は撮像を行う。撮像部13は図5上方の破線にて示す視野範囲における観察部位65の表面画像を取得する。観察部位65中の凸部62aは、第2照明部21の照明範囲A1内に位置しており、撮像部13からの撮像画像には、凸部62aの画像部分も含まれる。
 撮像部13の撮像画像はプロセッサ装置40の画像処理部42及び低輝度部検出部44に供給される(ステップS2-3)。画像処理部42は撮像画像に適宜の画像信号処理を施した後表示部51に与える。これにより、表示部51の画面上において観察部位65の表面画像を表示させることができる。
 低輝度部検出部44は、撮像部13からの撮像画像を第1画像情報として取込み、第1画像情報中の低輝度部の位置、形状及びサイズを検出する(ステップS2-4)。図5のP1のときは、第2照明部21が規定位置P1に位置する場合における照明範囲A1の照明による撮像画像70を示している。撮像画像70中には、凸部62aによる画像71が含まれる。更に、凸部62aに斜めから第2照明部21の照明が照射された結果凸部62aの影が生じ、この影の画像72aも撮像画像70中に含まれる。この影の画像72aの画像部分が、低輝度部検出部44によって低輝度部として検出される。低輝度部検出部44は、検出結果を第1画像輝度情報として画像記録部45に与えて記録させる(ステップS2-5)。
 プロセッサ装置40は、ステップS6において、計測回数nに到達したか否かを判定する。到達していない場合には、プロセッサ装置40は、処理をステップS2-2に戻して、ステップS2-2~S2-6の処理を繰り返す。
 図5の例では、nは3であり、プローブ制御部41はプローブ駆動部12を制御して、プローブ20を進退動させることで、第2照明部21の位置を規定位置P2に移動させる。なお、プローブ20の移動回数及び移動量は、術者が適宜設定可能に構成してもよい。撮像部13は撮像を行い、低輝度部検出部44は撮像画像を第2画像情報として取り込んで低輝度部を検出し、検出結果を第2画像輝度情報として画像記録部45に記録する。同様にして、プローブ制御部41により、第2照明部21の位置を規定位置P3に移動させて撮像を行う。低輝度部検出部44は撮像画像を第3画像情報として取り込んで低輝度部を検出し、検出結果を第3画像輝度情報として画像記録部45に記録する。
 規定の計測回数nに到達すると、影領域特定部46は、図4のステップS3において影領域を特定する。即ち、影領域特定部46は、画像記録部45から全ての画像輝度情報を読出し、相互に比較することで、形状変化がある低輝度領域を検出する。
 第2照明部21が規定位置P1~P3に移動することによって、第2照明部21の照明範囲はA1~A3に変化する。この場合でも、照明範囲A1~A3内に凸部62aが含まれており、撮像部13からの撮像画像には、凸部62aの画像部分も含まれる。
 図5のP2のときは、第2照明部21が規定位置P2の場合における照明範囲A2の照明による撮像画像70を示している。第2照明部21が規定位置P1から規定位置P2に移動した場合でも、撮像部13と凸部62aとの位置関係は変化していないことから、凸部62aの画像71は撮像画像70中の同一位置に同一形状及びサイズで撮像されている。これに対し、第2照明部21の照明によって生じる凸部62aの影は、第2照明部21の移動に伴って、形状及びサイズが変化する。図5のP1のときは凸部62aの影の画像72aが凸部62aの紙面右側に撮像されていることを示し、図5のP2のときは凸部62aの影の画像72bが凸部62aの紙面左側に撮像されていることを示している。
 更に、図5のP3のときは、第2照明部21が規定位置P3に移動した場合における撮像画像70を示している。この撮像画像70中には、第2照明部21の照明範囲A3の照明による凸部62a及びその影の画像71,72cが含まれている。図5のP2,P3のときの比較から明らかなように、影の画像72b,72cは、照明範囲A2から照明範囲A3への変化にともって、サイズ及び形状が変化している。影領域特定部46は、このような形状変化を有する低輝度部分を、凸部による影の部分であるものと判定して、この部分を低輝度領域として検出する(ステップS3-1)。
 プローブ20が直線的に進退することから、図5のP1,P2のときに示すように、凸部62aの影は、プローブ20の進退方向に沿って長さが変化し、プローブ20の進退方向に垂直な方向には、長さが変化しないと考えられる。即ち、低輝度領域端部の長さが変化しない部分は、低輝度領域に隣接する凸部62aの画像部分に相当するものと考えることができる。また、凸部62aの平面形状が略円形であるものとすると、低輝度領域端部の長さが変化しない部分の長さが、凸部62aのサイズ(直径)と考えてもよい。
 そこで、影領域特定部46は、ステップS3-2において、低輝度領域のうちサイズの変化のない部位を検出し、この部位の長さ(図5参照)を凸部62aの直径dと仮定し、直径dを例えば画像のピクセル数によって求める。影領域特定部46は、低輝度領域及び直径dに対応するピクセル数に関する情報をサイズ比較部49に出力する。
 次に、プロセッサ装置40は、ステップS4において、凸部62aのサイズが規定の範囲内のサイズであるか否かを直径dによって判定する。この判定のために、凸病変サイズ算出部47の指標光照射制御部48は、光源32を制御して、指標光照射部14から指標光を観察部位65の表面に照射させる(ステップS4-1)。指標光は、観察部位65の表面に規定のサイズで照射される。なお、指標光照射部14は、観察部位65の表面において指標光を確実に観察することができるように、指標光の帯域を所定の帯域に制限してもよい。なお、指標光の帯域は第2照明部21からの照明光の帯域と異なるものとする。また、指標光として第2照明部21の照明光と同じ帯域の照明光(白色光)を使用する場合には、第2照明部21を消灯させた後指標光を照射させる。
 この状態で、プロセッサ装置40に制御されて、撮像部13は撮像を行う(ステップS4-2)。図5のP1のときには、観察部位65の表面に照射された指標光の領域(指標光照射領域)の画像73が撮像されていることを示している。なお、図5のP1のときは第2照明部21が規定位置P1に位置する場合の画像70を示しているが、指標光の照射はいずれのタイミングで行ってもよい。即ち、図4のステップS4-1~S4-4の処理を、他のタイミングで実施してもよい。
 撮像部13からの撮像画像はサイズ比較部49に供給される。撮像部13からの撮像画像中には、指標光によって照明された画像部分も含まれており、サイズ比較部49はこの画像部分のピクセル数を求める(ステップS4-3)。なお、この場合には、サイズ比較部49は、指標光の波長帯域の情報を抽出して、指標光照射領域の画像部分を求めるようにしてもよい。
 指標光は平行光であり、観察部位65の表面に照射された指標光照射領域のサイズは既知である。サイズ比較部49は、指標光照射領域の実際のサイズと、指標光照射領域の画像のピクセル数とに基づいて、1ピクセルの実際の長さを算出する(ステップS4-4)。例えば、サイズ比較部49は、指標光照射領域の実際のサイズをbとして、指標光照射領域のピクセル数をβとすると、1ピクセルの実際の長さyを、y=β/bによって求める。
 次に、サイズ比較部49は、ステップS3-2において求められた凸部62aの直径dに対応するピクセル数と、1ピクセルの実際のサイズyとに基づいて、凸部62aの実際のサイズを算出する。例えば、サイズ比較部49は、直径dに対応するピクセル数がαであるものとすると、d=α・yによって凸部62aの直径dを求める。
 サイズ比較部49は、次のステップS4-6において、凸病変部のサイズdが、規定の範囲内のサイズであるか否かによって、検出すべき凸病変部であるか否かを判定する。サイズ比較部49は、凸病変部であるか否かの判定結果を出力する。例えば、この判定結果は表示部51に供給されて、凸部62aが検出すべき凸病変部であるか否かを示す表示や、凸部62aが凸病変部であることを示す表示等が行われる。
 なお、サイズ比較部49は、凸病変部のサイズdの情報をそのまま表示部51に与えて、表示部51の画面上に凸病変部のサイズを示す表示を表示させるようにしてもよい。
 また、図5のP1~P3のときに示すように、撮像画像70中には、微小な凸部64に対応する画像74も撮像されている。この凸部64のサイズが規定の範囲よりも小さいサイズであった場合には、この凸部64に対しては検出する必要がない凸部と判定される。また、微小な凸部64には検出可能な低輝度部分が生じないこともある。あるいは、微小な凸部64の低輝度部分の変化は十分に小さいことが考えられる。これらの場合には、この凸部64は、低輝度領域とは判定されない。
 このように本実施の形態においては、撮像部及び照明部の相対的な位置関係を制御しながら撮像を行うことにより凸部を確実に検出することができる。また、検出した凸部のサイズが所定のサイズ範囲内の凸部であるか否かを指標光照射によって判定しており、病変部として特定すべき凸部のみを検出して、術者に告知することができる。
(第2の実施の形態)
 図6は本発明の第2の実施の形態を示すブロック図である。図6において図1と同一の構成要素には同一符号を付して説明を省略する。第1の実施の形態においては、撮像部と照明部とを相対的に移動させながら撮像を行い、撮像画像中の凸部の影によって凸部を検出して凸部のサイズを求める例について説明した。生体組織の表面の状態、照明光の照射位置等によっては、凸部による影が生じないことも考えられる。そこで、本実施の形態においては、キャップ状の照明器具を用いることで、凸部による影を生じさせて、確実に凸部の検出及び凸部のサイズの検出を行うものである。
 図7及び図8は本実施の形態における内視鏡システムの利用形態を説明するための説明図である。図7は照明器具であるキャップ130が装着された内視鏡110の挿入部110aによって観察部位151を観察する様子を示している。観察部位151は、挿入部110a先端の向きに対して表面が傾斜しており、観察部位151に照明光を照射して低輝度部である影を観察しても、影の状態から凸部及びそのサイズを確実に検出することができるとは限らない。
 そこで、本実施の形態においては、挿入部110aの向きを観察部位151の表面に対して規定の角度、例えば平行(又は垂直)にすることにより、照明光によって確実に凸部に影を生じさせるようになっている。キャップ130は、先端側が開口した例えば円筒形状に構成されて、基端側には挿入部110aの先端が嵌込まれる。図8に示すように、キャップ130の先端開口内に凸部152が位置するようにキャップ130の先端を観察部位151の表面に当接させて、破線矢印に示す方向に押し込む。これにより、観察部位151の表面が変形して、挿入部110aの軸方向に対して観察部位151の表面の向きが略垂直となる。
 キャップ130の先端側内周面には、例えばLED等によって構成された照明部131(後述する第1乃至第3の照明部131a~131c)が設けられており、照明部131は、図8の実線矢印に示すように、キャップ130の中心側に向かって照明光を照射する。この状態で、内視鏡110において観察部位151を撮像し、撮像画像中の影の状態によって凸部152の検出及びそのサイズの検出を行う。凸部152の側面側から照明光が照射されており、確実に凸部152による影を生じさせることができ、凸部152の検出が可能である。なお、照明部131としては、LEDだけでなく、蛍光体やファイバケーブルによって伝送された光源からの光を照射するレンズ等を採用してもよい。
 図6において、内視鏡110は、挿入部110aに撮像部113及び第4照明部114が設けられている。この内視鏡110の挿入部110aの先端を、キャップ130の基端側開口に嵌込む。キャップ130には3つの第1乃至第3照明部131a~131c(以下、個々を区別する必要がない場合には上述したように照明部131という)が設けられている。なお、図6では、照明部131として第1乃至第3照明部131a~131cの3つの照明部が設けられている例を示したが、2つの以上の照明部が配置されていればよい。
 キャップ130は例えば円筒形状に構成され、照明部131は、いずれも、キャップ130の中心に向かって照明光を照射することができるようになっている。本実施の形態においては、照明部131a~131cは、相互に異なる波長帯の照明光を照射するようになっており、例えばそれぞれR(赤)光、G(緑)光、B(青)光を照射する。
 図9はキャップ130が取り付けられた挿入部110aの先端を示す斜視図であり、図10は挿入部110aの先端及びキャップ130の構成を示す断面図である。図9に示すように、両端が開口した円筒形状のキャップ130の基端側開口には、挿入部110aの先端が嵌込まれている。図10に示すように、キャップ130の内周面には位置決め用の凸部134が設けられており、この凸部134に規制されて、挿入部110aのキャップ130への挿入位置が決定する。
 挿入部110aの先端には、撮像部113を構成する例えばCCD等の撮像素子113bが配設されている。撮像素子113bと挿入部110aの先端面との間には複数のレンズからなるレンズ群113cが設けられており、被写体からの戻り光はこのレンズ群113cを介して撮像素子113bの撮像面に結像されるようになっている。撮像素子113bにはプロセッサ装置140から挿入部11a内を挿通されたケーブル113aが接続されており、ケーブル113aによって撮像素子113bを駆動する各種信号及び撮像素子11bによって得られた撮像画像が伝送されるようになっている。
 また、挿入部110aの先端面には照明レンズによって構成された第4照明部114が配設されている。挿入部110a内を挿通されたファイバケーブル114aにより導光された光源32からの光は、ファイバケーブル114aの出射端面が臨む第4照明部114を介して被写体に照射されるようになっている。なお、第4照明部114は、被写体35の観察のために用いられる。
 本実施の形態における挿入部110aには、先端側側面に電気接点115bが設けられている。電気接点115bは、挿入部110a内に挿通された信号線115aに接続されると共に、挿入部110aの外周面に露呈する。一方、キャップ130の内周面には電気接点132aが設けられており、キャップ130内に挿入部110aを嵌入することで、電気接点115b,132a同士が接触するようになっている。電気接点132aは導線やフレキシブル基板等の信号線132bを介して照明部131に接続される。
 信号線115aは、光源32に接続されている。光源32は、信号線115a、電気接点115b,132a及び信号線132bを介して照明部131に電力を供給して、照明部131の点灯を制御することができるようになっている。照明部131は、キャップ130の中心に向けて照明光133を照射することができる。
 なお、図10では、図面の簡略化のために、1つの照明部131のみが配設されている例を示しているが、実際には2つ以上の照明部131及びこの照明部131を駆動するための電力供給経路が構成される。
 プロセッサ装置140は、図示しないCPU等のプロセッサを備えており、このプロセッサによってプロセッサ装置140内の各部を制御することができるようになっている。プロセッサ装置140に設けられた光源制御部50は、光源32を制御して、キャップ130に設けられた第1乃至第3照明部131a~131cを個別に点灯制御することができるようになっている。
 プロセッサ装置140は画像処理部141を有している。画像処理部141は、図1の画像処理部42と同様の構成であり、撮像部113からの撮像画像に対して所定の画像信号処理を施した後、表示部51に与えて表示させる。
 プロセッサ装置140には、低輝度部検出部142、凸病変領域特定部143及び凸病変サイズ算出部144が設けられている。低輝度部検出部142は、撮像部113からの撮像画像が与えられ、各照明部131の帯域毎に、撮像画像中の低輝度部を検出する。凸病変領域特定部143は、低輝度部検出部142の検出結果に基づいて凸病変領域を特定する。凸病変サイズ算出部144は、特定された凸病変領域に基づいて、凸病変部の実際のサイズを算出するようになっている。
 凸病変サイズ算出部144は、算出結果を画像処理部141に出力する。画像処理部141は、凸病変サイズ算出部144の算出結果に基づいて、観察部位内に存在する凸病変についての情報を表示部51に表示させることができるようになっている。
 次に、このように構成された実施の形態の動作について図11乃至図14を参照して説明する。図11は第2の実施の形態の動作を説明するためのフローチャートである。また、図12乃至図14はキャップ130内の照明による凸病変部の検出方法を説明するための説明図であり、挿入部110aの軸方向から見たキャップ130の先端における照明の様子を示している。
 先ず挿入部110aを観察したい部位に配置する。即ち、術者は、先端にキャップ130が取り付けられた挿入部110aを、体腔内に挿入して、図8に示すように、キャップ130の先端面で観察部位151を押し込む。これにより、キャップ130の先端面と観察部位151の表面とは略平行となり、観察部位151内に凸部が存在する場合には、キャップ130の先端近傍の内周面に配置した照明部131によって、凸部の突出方向に垂直な方向から凸部が照明されることになる。
 この状態で、プロセッサ装置140はステップS11において観察部位151中の低輝度部を検出する。先ず、プロセッサ装置140の光源制御部50は、ステップS11-1において光源32を制御して、キャップ130内の第1乃至第3照明部131a~131cから照明光を照射させる。例えば、第1乃至第3照明部131a~131cは、それぞれR,G,B光を照射するものとする。
 図12はこの照明の様子を示しており、キャップ130の内周面に所定の角度間隔(例えばそれぞれ120度の同じ角度間隔)で配置された3つの照明部131a~131cから、それぞれR光、G光又はB光が矢印の向きを光軸として出射されることを示している。
 次に、プロセッサ装置140の制御によって、撮像部113は撮像を行う。撮像部113はキャップ130によって囲まれた観察部位151の表面の画像を取得する(ステップS11-2)。撮像部113からの撮像画像はプロセッサ装置140の画像処理部141及び低輝度部検出部142に供給される。画像処理部141は撮像画像に適宜の画像信号処理を施した後表示部51に与える。これにより、表示部51の画面上において観察部位151の表面画像を表示させることができる。
 低輝度部検出部142は、撮像部113からの撮像画像からR成分を検出して、所定の閾値を用いて2値化することで低輝度領域を抽出する(ステップS11-3-1)。同様に、低輝度部検出部142は、ステップS11-3-2,S11-3-3において、撮像部113からの撮像画像からG成分及びB成分をそれぞれ検出して、それぞれ所定の閾値を用いて2値化することでそれぞれの低輝度領域を抽出する。低輝度部検出部142によるR,G,B成分の低輝度領域の抽出結果は凸病変領域特定部143に供給される。凸病変領域特定部143は、ステップS12において、低輝度部検出部142の出力に基づいて凸病変領域を特定する。
 照明部131は、キャップ130の内周面に囲まれた空間135内において、キャップ130の先端近傍の位置から、観察部位151の表面に略平行な方向に光を照射している。従って、照明部131の照明によって、観察部位151の表面から突出した凸部が存在する場合には、この凸部による影が確実に生じるものと考えられる。換言すると、表面画像中の低輝度領域は、凸部の影によるものと判定することができる。
 図13はキャップ130の中心に凸部が存在する場合の低輝度領域をハッチングによって示している。低輝度領域161aは、第1照明部131aの照明による凸部の影によるものである。また、低輝度領域161bは第1照明部131bの照明による凸部の影によるものであり、低輝度領域161cは第1照明部131cの照明による凸部の影によるものである。第1照明部131a~131cの照明光はそれぞれR,G,B光であるので、低輝度領域161aはR,G,B光のうち第1照明部131aからのR光を除くシアン色の影に基づくものと考えられる。同様に、低輝度領域161bはR,G,B光のうち第2照明部131bからのG光を除くマゼンタ色の影に基づくものと考えられ、低輝度領域161cはR,G,B光のうち第3照明部131cからのB光を除くイエロー色の影に基づくものと考えられる。
 凸病変領域特定部143は、低輝度部検出部142の抽出結果に基づいて、低輝度領域161a~161c、即ち、R,G,B成分がそれぞれ低下している各低輝度領域同士の交点162を抽出する(ステップS12-1)。次に、凸病変領域特定部143は、ステップS12-2において、図14に示すように、R,G,B成分の低輝度領域同士の交点162を通る円163を凸病変領域の外形と仮定する。凸病変領域特定部143は、凸病変領域の外形と仮定した円163の情報を凸病変サイズ算出部144に出力する。
 凸病変サイズ算出部144は、ステップS13において、凸病変部のサイズを算出する。即ち、凸病変サイズ算出部144は、ステップS13-1において、凸病変部と仮定した円163の直径dのピクセル数を算出する。
 次に、凸病変サイズ算出部144は、ステップS13-2において、撮像画像の1ピクセルの実際の長さを算出する。挿入部110aの先端にキャップ130を取り付けて撮像を行うので、撮像部113から被写体までの距離は既知である。また、撮像部113の視野角も既知であり、レンズ群113cの特性も既知であるので、凸病変サイズ算出部144は、撮像画像の1ピクセルの実際の長さを算出することができる。なお、キャップ130の内径も既知であるので、凸病変サイズ算出部144は、キャップ130の内径のピクセル数から、1ピクセルの実際の長さを算出してもよい。このように、本実施の形態においては、指標光を照射することなく、撮像画像の1ピクセルの実際の長さを求めることができる。
 凸病変サイズ算出部144は、ステップS13-において求めた凸病変部の直径dのピクセル数と1ピクセルの実際の長さから、凸病変部の直径dの実際の長さを算出する。例えば、凸病変部の直径dのピクセル数がαであり、1ピクセルの実際の長さxmmであるものとすると、凸病変サイズ算出部144は、凸病変部の直径dを、d=α・xmmによって求めることができる。
 凸病変サイズ算出部144は、凸病変部のサイズdが、規定の範囲内のサイズであるか否かによって、検出すべき凸病変部であるか否かを判定する。凸病変サイズ算出部144は、凸病変部であるか否かの判定結果を出力する。例えば、この判定結果は画像処理部141を介して表示部51に供給されて、キャップ130内で観察されている凸部が、凸病変部であるか否かを示す表示や、凸病変部であることを示す表示等が行われる。
 このように本実施の形態においても、第1の実施の形態と同様の効果を得ることができる。また、本実施の形態においては、挿入部の先端にキャップを取付け、キャップ内に設けた複数の照明部によってキャップ内を照明する。これにより、キャップ内に凸部が存在する場合には、この凸部による影が確実に生じることになり、この影に対応する低輝度領域を観測することで、規定サイズ範囲内の凸病変部を確実に検出することができる。
(変形例)
 図15乃至図17は第2の実施の形態に採用可能な挿入部及びキャップの変形例を示す断面図である。
 図15では撮像部113及び第4照明部114の図示を省略している。図15に示す挿入部170は、電気接点115bが省略され、この電気接点115bに接続される信号線115aが挿通されていない点を除き、図10の挿入部110aと同様の構成である。キャップ175は、照明部131までの電力供給経路が図10のキャップ130と異なる。キャップ175は、外周面に電気接点176が設けられている。電気接点176と照明部131との間は信号線177によって接続されている。
 このような構成において、高周波焼灼器等のバイポーラ鉗子179を電気接点176に接触させて通電させる。これにより、高周波焼灼器のバイポーラ鉗子179から電気接点176、信号線177を介して照明部131に給電を行い、照明部131を点灯させることができる。
 図16は照明部131を照明レンズによって構成した例を示している。図16の挿入部181は、挿入部110aと同様に、ケーブル113a、撮像素子113b及びレンズ群113cを有する。また、挿入部181は、先端面には第4照明部114を構成するレンズ183が配設されている。挿入部181内には光源32からの光を導光するファイバケーブル182が配設されている。ファイバケーブル182の出射端面はレンズ183に臨んでおり、ファイバケーブル182によって導光された光はレンズ183から出射される。
 一方、キャップ191の先端近傍の内周面には、光の出射面が内周面に露呈したレンズ193が配設されている。キャップ191は、側壁が肉厚に形成されて、側壁内に、導光路194が形成されている。導光路194の一端の開口部はレンズ183の出射面の一部に臨み、他端の開口部はレンズ193に臨む。この導光路194内にはファイバケーブル195が配設されており、レンズ183から出射された光の一部は、矢印に示すように、導光路194内のファイバケーブル195を介してレンズ193から出射される。
 図17では撮像部113の図示を省略している。図17に示す挿入部170は、電気接点115bが省略され、この電気接点115bに接続される信号線115aが挿通されていない点を除き、図10の挿入部110aと同様の構成である。キャップ201は、照明部202として蓄光体又は蛍光体を用いる。蓄光体を用いた照明部202は、矢印に示すように、第4照明部114からの光を蓄積して、キャップ201の中央に向かって放射する。
(変形例)
 ところで、観察部位の表面は、平坦であるとは限らない。観察部位の表面が平坦でない場合には、撮像画像に基づく凸部の検出及びそのサイズの算出精度が低下することが考えられる。そこで、本変形例では、観察部位の表面に照明部(例えば、図1の第1照明部15や図6の第4照明部114)によって格子を投影し、投影された格子の形状に基づいて撮像画像を補正することで、凸部の検出及びそのサイズの算出精度を向上させる。
 図18A~図18Eは観察部位に投影された格子の形状を説明するための説明図である。図18Aは観察部位の表面が平坦な例である。図18B~図18Eはそれぞれ観察部位の平面が、凸状である場合、凹状である場合、傾斜している場合又は部分的に凸状である場合を示している。
 上記各実施の形態のプロセッサ装置40,140は、撮像画像中の格子形状に基づいて観察部位の表面形状を推定し、推定結果に基づく補正値を用いることで、凸形状の検出精度を向上させることが可能である。
 また、画像処理によって表面形状の推定結果に基づく補正を行うだけでなく、観察部位を押圧することによって、表面形状を平坦にする方法を採用することもできる。
 図19A~図19Cはこの場合の構成の一例を示す説明図である。図19Aは観察部位の押圧部材を備えた挿入部221の例を示している。挿入部221の側面には、挿入部221の軸方向に伸縮自在な複数の爪部材223が配設されている。各爪部材223は、図示しない駆動機構によって、図19Aの矢印に示す伸縮方向に個別に伸縮可能である。各爪部材223の伸縮方向及び伸縮量を個別に制御することで、観察部位225の表面形状を変化させることができる。
 例えば、挿入部221の軸方向に対して、観察部位225が傾斜しており、挿入部221から観察部位225の表面に投影した格子の撮像画像が、図19Bに示すように歪んだ格子画像228であるものとする。この場合には、プロセッサ装置は、格子画像228の格子形状に基づいて爪部材223の例えば一方を観察部位225側に伸ばすことによって、図19Cに示す格子画像229が得られるようにすることが可能である。これにより、凸形状の検出精度を向上させることが可能である。
 また、爪部材223の長さが既知であり、挿入部221に設けた撮像部の視野角も既知であるので、図19Cに示す格子画像229の各格子のサイズは既知である。従って、格子画像229を利用することで、検出した凸病変部の実際のサイズを算出することが可能である。このように図19A~図19Cの変形例では、格子をサイズの検出のための指標に用いることができる。
(第3の実施の形態)
 図20は本発明の第3の実施の形態を示すブロック図である。図20において図1と同一の構成要素には同一符号を付して説明を省略する。上記各実施の形態においては、同一時間に、又は異なる時間において、被写体を相互に異なる方向から照明し、影の状態から凸部を検出すると共にそのサイズを求める例を説明した。本実施の形態は、被写体に対する1方向からの照明のみによって、凸部のサイズを求めるものである。なお、本実施の形態は、位置が既知の凸部について、その正確なサイズを求めるための手法を示しているが、上記各実施の形態と同様の手法を採用することにより、凸部の位置を検出することも可能である。
 図20に示すように、内視鏡210の挿入部210aには、撮像部213、第2照明部214及びプローブ起上装置215が設けられている。このプローブ起上装置215は挿入部210aの側面に設けられており、プローブ230を、このプローブ起上装置215から挿入部210aの軸方向に所定の角度傾斜した状態で突出させて配置することができるようになっている。挿入部210aの基端側に取り付けられた図示しない操作部にはプローブ挿入口が設けられており、プローブ挿入口からプローブ起上装置215まで挿入部210a内を貫通するチャンネル内にプローブ230を挿通させる。プローブ挿入口側からプローブ230を進退動させると共に、プローブ起上装置215を操作部に設けた図示しない操作レバーを操作して駆動することにより、プローブ230の挿入部210aからの突出量及び傾斜角度を自在に制御することができるようになっている。
 図21は本実施の形態における内視鏡システムによる計測方法を説明するための説明図である。図21に示すように、撮像部213及び第2照明部214は挿入部210aの先端部に設けられており、内視鏡210は、挿入部210aの軸方向を照明すると共に撮像することができるようになっている。
 プローブ230は、挿入部210aの側面に設けたプローブ起上装置215(図21では図示省略)から、挿入部210aの軸方向に対して所定の角度傾斜して突出している。プローブ230の突出量及び傾斜角度は、既知である。プローブ230の先端側側面には、第1照明部231が配設されている。第1照明部231は光源32からの光を照射することができるようになっている。なお、第1照明部231をLEDによって構成することもでき、この場合には、第1照明部231は例えば光源32から電力が供給されて発光が制御される。
 本実施の形態においては、第1照明部231は、平行光を出射することができる。更に、第1照明部231は、光束のサイズを調整することができるようになっていてもよい。例えば、第1照明部231は、十分に光束を狭くしたビーム状の光と所定幅の光束の2種類の光束を出射することができるようになっていてもよい。
 図21では観察部位251の表面に形成された凸部252のサイズを計測する例を示しているが、第1照明部231は、プローブ230の突出量及び傾斜角度が適宜設定されることにより、凸部252を凸部252の突出方向に対して斜めから照明することができるようになっている。
 なお、挿入部210aの側面にプローブ230及び第1照明部231と同様の構成の複数のプローブ及び第1照明部を設け、凸部252を複数の方向から異なる帯域の光で照明することで、第2の実施の形態と同様の手法により、凸部252の位置を検出するようにしてもよい。
 プロセッサ装置240は、図示しないCPU等のプロセッサを備えており、このプロセッサによってプロセッサ装置240内の各部を制御することができるようになっている。プロセッサ装置240に設けられた光源制御部50は、光源32を制御して、第1照明部231及び第2照明部214の点灯を制御する。
 プロセッサ装置240は画像処理部241を有している。画像処理部241は、図1の画像処理部42と同様の構成であり、撮像部213からの撮像画像に対して所定の画像信号処理を施した後、表示部51に与えて表示させる。
 プロセッサ装置240には、プローブ駆動制御部242、凸病変領域特定部243及び凸病変サイズ算出部244が設けられている。プローブ駆動制御部242は、術者の操作に基づいて、プローブ起上装置215を駆動してプローブ230の傾斜角を変化させることができるようになっている。なお、術者の操作によって、プローブ230の突出量も変化させることができるようになっている。
 凸病変領域特定部243は、凸病変領域を特定する。凸病変サイズ算出部244は、特定された凸病変領域に基づいて、凸病変部の実際のサイズを算出するようになっている。
 凸病変サイズ算出部244は、算出結果を画像処理部241に出力する。画像処理部241は、凸病変サイズ算出部244の算出結果に基づいて、観察部位内に存在する凸病変についての情報を表示部51に表示させることができるようになっている。
 次に、このように構成された実施の形態の動作について図21乃至図23を参照して説明する。図22は第3の実施の形態の動作を説明するためのフローチャートである。また、図23は第3の実施の形態において凸部の影の状態を示す説明図である。
 先ず挿入部210aを観察したい部位に配置する。例えば、挿入部210aの先端に設けた第2照明部214によって照明し、撮像部213によって撮像を行い、撮像画像を表示部51に表示させ、術者が表示部51の表示を観察することで観察部位を特定してもよい。また、上記各実施の形態と同様の手法により、凸部を検出してもよい。この場合には、凸病変部を特定することができるので、表示部51に表示される撮像画像中に凸病変部の外形形状を示す表示を表示させてもよい。
 図22のステップS21における凸病変特定処理は、第2の実施の形態と同様の手法により、低輝度領域から凸病変部を特定した例を示している(ステップS12)。なお、上述したように、プローブ230及び第1照明部231と同様の3つのプローブ及び第1照明部を用いることで、ステップS21の処理を実行することができる。
 図21は挿入部210aの軸方向を観察部位251の表面の凸部252に向けた状態で、挿入部210aを固定配置している状態を示している。この状態で、術者の操作に基づいて、プローブ駆動制御部242は、プローブ230の突出量及び突出角度を変化させ、第1照明部231による凸部252への照明を可能にする。次いで、光源制御部50によって、第1照明部231を点灯させる。
 図23はこの場合に凸部252及び凸部252に生じた影261を示している。凸部252及び影261は、撮像部213によって撮像され、撮像画像は凸病変領域特定部143に与えられる。凸病変領域特定部143は、撮像画像に基づいて、影261の輪郭の円弧(図23の太線)を求め、この円弧を通過する円を凸病変部の外形252a(図23の破線)と推定する。凸病変領域特定部143は、推定した外形252aの中心点Oを算出する。凸病変領域特定部143は、求めた中心点Oの情報を画像処理部141に与えて、撮像画像中にその位置を示す表示を表示させる。
 凸病変サイズ算出部144は、ステップS22において、凸病変部のサイズを求める。即ち、凸病変サイズ算出部144は、ステップS22-1において、表示部51に表示されている撮像画像上に撮像部113の視野範囲の中心点Qの位置を示す表示を表示させる。
 次に、術者は、凸病変のサイズを算出するために、挿入部210aの位置及び向き並びにプローブ230の突出量及び傾斜角度の微調整を行う。これにより、撮像部213と凸部252との位置関係、撮像部213の視野方向及び範囲、第1照明部231の照明方向を規定するのである。第1照明部231の照明方向の設定を容易にするために、凸病変サイズ算出部144は光源制御部50を制御して、第1照明部231の照明光の光束を十分細いビーム状にしてもよい(ステップS22-2)。
 術者は、ステップS23-3において、表示部51に表示された内視鏡画像を見ながら、凸病変部中心点Oの表示と撮像部中心点Qの表示とを一致させるように挿入部210aの位置を微調整する。次に、術者は、プローブ230の突出量及び傾斜角度を微調整して、第1照明部の中心点Pに対応する照明光の中心を、凸病変部中心点Oに対応する凸部252表面の点に一致させる。図21の光束260aはこの調整時に用いるビーム状の光束を示している。
 次に、凸病変サイズ算出部144は、図23の影261を生じさせるために、第1照明部231からの光の照射範囲を広げる(ステップS23-4)。これにより、第1照明部231は、図21のハッチングに示す光束260で凸部252を照明する。凸病変サイズ算出部144は、ステップS23-5において、影261の長さlを、影261に対応する撮像画像中の低輝度領域のピクセル数によって求める。また、凸病変サイズ算出部144は、視野範囲Wをピクセル数によって求める。
 次に、凸病変サイズ算出部144は、凸病変部の形状が半球状であるものとして、既知の値を用いて、以下のように凸病変部の高さhを算出する(ステップS23-6)。なお、図21に示すように、観察部位251の表面は平坦であって、この表面に垂直な方向と挿入部210aの軸方向とは一致しており、この軸方向を高さ方向とし、観察部位251の表面に平行な方向を水平方向として説明する。図21において、符号の意味は以下の通りである。h:凸病変部高さH:観察部位251平面から撮像部213までの高さh':撮像部213の高さ第1照明部231の中心点Pの高さとの差d:凸部252の直径l:凸部252の影261の長さW:撮像部213による視野範囲(対角)y:第1照明部231の中心点Pと撮像部213の中心Qとの水平方向の距離θ1:プローブ230の傾斜角(挿入部210aの中心軸とプローブ230の中心軸とのなす角)θ2:撮像部213の視野角φ:撮像部213の光軸と第1照明部231の照明方向とのなす角
 凸部252の中心(凸病変部の中心点O)から影261の先端までの距離をxとすると、図21に示すように、第1照明部231からの照明光が水平方向となす角はθ1であるので、x=h/tanθ1が成り立つ。従って、l=x-(d/2)=(h/tanθ1)-(d/2)である。凸部252は例えば2mm以下程度の十分に小さい大きさを想定しており、d=0と近似して、下記(1)式を得る。h=l・tanθ1  …(1)
 また、角度φは、φ=(π/2)-θ1であり、既知の値である。この角度φと未知の値h,h'を用いて高さHは下記(2)式で示される。H=h+y/tanφ+h'   …(2)
 (2)式を(1)式に代入すると、下記(3)式が得られる。H=l・tanθ1+(y/tanφ)+h'  …(3)
 撮像部213の視野角θ2は既知の値であるので、視野範囲Wと高さHとの関係も既知である。そこで、視野範囲Wを下記(4)に示す高さHの関数で表す。W=f(H)  …(4)
 撮像部213の視野角がθ2であるので、H・tan(θ2/2)=W/2であり、下記(5)式が得られる。W=2H・tan(θ2/2)  …(5)
 ここで、l/W=Kとする。l,Wのピクセル数は求められているので、Kは既知の値である。W=l/Kと変形し、上記(3)式及び(4)式を用いて下記(6)式を得る。W=l/K=f(l・tanθ1+(y/tanφ)+h')   …(6)
 上記(6)式のうち、K,θ1,y,φ,h'は既知の値であり、上記(6)式からlを算出することができる。算出したlを上記(1)式に代入することで、凸部252の高さhを求めることができる。
 凸病変サイズ算出部244は、凸病変部のサイズhが、規定の範囲内のサイズであるか否かによって、検出すべき凸病変部であるか否かを判定する。凸病変サイズ算出部244は、凸病変部であるか否かの判定結果を出力する。例えば、この判定結果は画像処理部241を介して表示部51に供給されて、観察中の凸部が凸病変部であるか否かを示す表示や、凸病変部であることを示す表示等が行われる。
 このように本実施の形態においては、1方向から照明光を凸部に照射することで、凸部のサイズを正確に求めることが可能であり、検出すべき凸病変部を確実に件止血することができる。
 なお、上記各実施の形態におけるプロセッサ装置40、140、240内の各部は、少なくとも1つのプロセッサによって構成してプログラムに応じて各機能を実現するものであってもよく、各部がそれぞれハードウェアによって構成されて各機能を実現するものであってもよい。
 本発明は、上記各実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
 本発明によれば、撮像画像から凸部のサイズを高精度に検出して病変部を特定することができるという効果を有する。
 本出願は、2014年9月25日に日本国に出願された特願2014-195589号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲に引用されるものとする。

Claims (13)

  1.  照明光を照射し、所定の照明範囲を照明する照明部と、
     前記照明部によって照明された被検体の所定の撮像範囲を撮像する撮像部と、
     前記撮像部により撮像された前記被検体の撮像画像中の低輝度部を検出する低輝度部検出部と、
     前記低輝度部検出部が検出した前記低輝度部の情報に基づいて所定のサイズ範囲の凸部を検出する凸部サイズ算出部とを具備したことを特徴とする内視鏡システム。
  2.  前記凸部サイズ算出部は、前記撮像画像中の既知のサイズの画像部分との比較に基づいて前記凸部のサイズを算出することを特徴とする請求項1に記載の内視鏡システム。
  3.  前記撮像画像中に前記既知のサイズの画像部分が含まれるように、前記撮像範囲中に既知のサイズの照明光を照射する指標光照射部を具備したことを特徴とする請求項2に記載の内視鏡システム。
  4.  前記撮像部と前記照明部とは、相対的に移動しながら前記被検体を前記撮像部によって撮像可能であることを特徴とする請求項1乃至3のいずれか1つに記載の内視鏡システム。
  5.  前記凸部サイズ算出部は、前記移動に伴って前記低輝度部の形状が変化することによって前記被検体の表面の前記凸部を検出することを特徴とする請求項1乃至4のいずれか1つに記載の内視鏡システム。
  6.  前記照明部及び撮像部は、一方が内視鏡の挿入部に設けられ、他方が前記挿入部から進退自在に延出されたプローブに設けられることを特徴とする請求項1乃至5のいずれか1つに記載の内視鏡システム。
  7.  前記照明部は、前記被検体を相互に異なる方向から相互に異なる帯域の光で照明する複数の照明光出射部を具備したことを特徴とする請求項1乃至3のいずれか1つに記載の内視鏡システム。
  8.  前記複数の照明光出射部は、前記撮像部の光軸に対して略直交する方向から前記被検体を照明することを特徴とする請求項7に記載の内視鏡システム。
  9.  前記撮像部は、内視鏡の挿入部の先端に取り付けられて前記挿入部の軸方向に光軸を有し、
     前記複数の照明光出射部は、前記挿入部の先端に取り付けられて前記撮像部の撮像範囲を規定する筒状のキャップの先端側内周面に設けられることを特徴とする請求項7又は8に記載の内視鏡システム。
  10.  前記凸部サイズ算出部は、前記撮像範囲のサイズに基づいて前記凸部のサイズを算出することを特徴とする請求項9に記載の内視鏡システム。
  11.  前記凸部サイズ算出部は、前記低輝度部検出部が前記複数の照明光出射部からの照明光によって生じた前記低輝度部の情報に基づいて所定のサイズ範囲の凸部を検出することを特徴とする請求項7に記載の内視鏡システム。
  12.  前記照明部は、前記撮像画像中に前記既知のサイズの画像部分が含まれるように、前記撮像範囲中に既知のサイズの格子を投影することを特徴とする請求項2に記載の内視鏡システム。
  13.  前記凸部サイズ算出部は、前記撮像範囲中に投影された前記格子の画像に基づいて、前記凸部のサイズの算出結果を補正することを特徴とする請求項12に記載の内視鏡システム。
PCT/JP2015/063305 2014-09-25 2015-05-08 内視鏡システム WO2016047191A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201580035266.2A CN106535734B (zh) 2014-09-25 2015-05-08 内窥镜系统
EP15843203.9A EP3150103A4 (en) 2014-09-25 2015-05-08 Endoscope system
JP2016501262A JP6022106B2 (ja) 2014-09-25 2015-05-08 内視鏡システム
US15/392,312 US10264956B2 (en) 2014-09-25 2016-12-28 Endoscope system having processor for calculating a size of a convex portion

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-195589 2014-09-25
JP2014195589 2014-09-25

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/392,312 Continuation US10264956B2 (en) 2014-09-25 2016-12-28 Endoscope system having processor for calculating a size of a convex portion

Publications (1)

Publication Number Publication Date
WO2016047191A1 true WO2016047191A1 (ja) 2016-03-31

Family

ID=55580732

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/063305 WO2016047191A1 (ja) 2014-09-25 2015-05-08 内視鏡システム

Country Status (5)

Country Link
US (1) US10264956B2 (ja)
EP (1) EP3150103A4 (ja)
JP (1) JP6022106B2 (ja)
CN (1) CN106535734B (ja)
WO (1) WO2016047191A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018091645A1 (de) * 2016-11-17 2018-05-24 Westfälische Wilhelms-Universität Münster Schutzkappe für eine bildgebende vorrichtung
WO2018159292A1 (ja) * 2017-03-03 2018-09-07 富士フイルム株式会社 計測支援装置、内視鏡システム、及び内視鏡システムのプロセッサ
JP2020025882A (ja) * 2018-08-17 2020-02-20 アクラレント インコーポレイテッドAcclarent, Inc. 解剖学的上昇アセンブリを備えた内視鏡
WO2021132153A1 (ja) * 2019-12-26 2021-07-01 富士フイルム株式会社 内視鏡及び内視鏡システム
US11419694B2 (en) 2017-03-28 2022-08-23 Fujifilm Corporation Endoscope system measuring size of subject using measurement auxiliary light
WO2022225218A1 (ko) * 2021-04-22 2022-10-27 재단법인 아산사회복지재단 Led 내시경 캡을 이용한 저준위 레이저 치료기
US11490785B2 (en) 2017-03-28 2022-11-08 Fujifilm Corporation Measurement support device, endoscope system, and processor measuring size of subject using measurement auxiliary light
WO2024185468A1 (ja) * 2023-03-08 2024-09-12 富士フイルム株式会社 医療支援装置、内視鏡システム、医療支援方法、及びプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10117563B2 (en) * 2014-01-09 2018-11-06 Gyrus Acmi, Inc. Polyp detection from an image
CN109961448A (zh) * 2019-04-10 2019-07-02 杭州智团信息技术有限公司 组织病变区域勾勒方法及系统
WO2021079402A1 (ja) * 2019-10-21 2021-04-29 日本電信電話株式会社 映像処理装置、表示システム、映像処理方法、およびプログラム
EP4301203A1 (en) * 2021-03-03 2024-01-10 Boston Scientific Scimed, Inc. Scope modifications to enhance scene depth inference

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5844030A (ja) * 1981-09-10 1983-03-14 オリンパス光学工業株式会社 内視鏡斜照明用シ−ス
JP2003164419A (ja) * 2001-12-04 2003-06-10 Pentax Corp 内視鏡スコープ
JP2009273655A (ja) * 2008-05-14 2009-11-26 Fujifilm Corp 画像処理システム
JP2010082271A (ja) * 2008-09-30 2010-04-15 Fujifilm Corp 凹凸検出装置、プログラム、及び方法
JP2011183000A (ja) * 2010-03-09 2011-09-22 Olympus Medical Systems Corp 内視鏡装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6563105B2 (en) * 1999-06-08 2003-05-13 University Of Washington Image acquisition with depth enhancement
JP5185505B2 (ja) * 2006-03-07 2013-04-17 オリンパスメディカルシステムズ株式会社 内視鏡システム及びこの内視鏡システムに適用されるアダプタ
JP4585048B2 (ja) * 2009-01-15 2010-11-24 オリンパスメディカルシステムズ株式会社 内視鏡システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5844030A (ja) * 1981-09-10 1983-03-14 オリンパス光学工業株式会社 内視鏡斜照明用シ−ス
JP2003164419A (ja) * 2001-12-04 2003-06-10 Pentax Corp 内視鏡スコープ
JP2009273655A (ja) * 2008-05-14 2009-11-26 Fujifilm Corp 画像処理システム
JP2010082271A (ja) * 2008-09-30 2010-04-15 Fujifilm Corp 凹凸検出装置、プログラム、及び方法
JP2011183000A (ja) * 2010-03-09 2011-09-22 Olympus Medical Systems Corp 内視鏡装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3150103A4 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018091645A1 (de) * 2016-11-17 2018-05-24 Westfälische Wilhelms-Universität Münster Schutzkappe für eine bildgebende vorrichtung
US10708553B2 (en) 2017-03-03 2020-07-07 Fujifilm Corporation Measurement support device, endoscope system, processor for endoscope system
WO2018159292A1 (ja) * 2017-03-03 2018-09-07 富士フイルム株式会社 計測支援装置、内視鏡システム、及び内視鏡システムのプロセッサ
US11419694B2 (en) 2017-03-28 2022-08-23 Fujifilm Corporation Endoscope system measuring size of subject using measurement auxiliary light
US11490785B2 (en) 2017-03-28 2022-11-08 Fujifilm Corporation Measurement support device, endoscope system, and processor measuring size of subject using measurement auxiliary light
JP2020025882A (ja) * 2018-08-17 2020-02-20 アクラレント インコーポレイテッドAcclarent, Inc. 解剖学的上昇アセンブリを備えた内視鏡
WO2021132153A1 (ja) * 2019-12-26 2021-07-01 富士フイルム株式会社 内視鏡及び内視鏡システム
JPWO2021132153A1 (ja) * 2019-12-26 2021-07-01
JP7320620B2 (ja) 2019-12-26 2023-08-03 富士フイルム株式会社 内視鏡及び内視鏡システム
WO2022225218A1 (ko) * 2021-04-22 2022-10-27 재단법인 아산사회복지재단 Led 내시경 캡을 이용한 저준위 레이저 치료기
KR20220145685A (ko) * 2021-04-22 2022-10-31 재단법인 아산사회복지재단 Led 내시경 캡을 이용한 저준위 레이저 치료기
KR102567070B1 (ko) 2021-04-22 2023-08-16 재단법인 아산사회복지재단 Led 내시경 캡을 이용한 저준위 레이저 치료기
KR20230136085A (ko) * 2021-04-22 2023-09-26 재단법인 아산사회복지재단 Led 내시경 캡을 이용한 저준위 레이저 치료기
KR102644509B1 (ko) 2021-04-22 2024-03-08 재단법인 아산사회복지재단 Led 내시경 캡을 이용한 저준위 레이저 치료기
WO2024185468A1 (ja) * 2023-03-08 2024-09-12 富士フイルム株式会社 医療支援装置、内視鏡システム、医療支援方法、及びプログラム

Also Published As

Publication number Publication date
JP6022106B2 (ja) 2016-11-09
EP3150103A4 (en) 2018-02-21
CN106535734B (zh) 2018-02-13
US20170105613A1 (en) 2017-04-20
CN106535734A (zh) 2017-03-22
US10264956B2 (en) 2019-04-23
EP3150103A1 (en) 2017-04-05
JPWO2016047191A1 (ja) 2017-04-27

Similar Documents

Publication Publication Date Title
JP6022106B2 (ja) 内視鏡システム
JP5450527B2 (ja) 内視鏡装置
US20170112356A1 (en) Image processing apparatus, image processing method, computer-readable recording medium, and endoscope system
WO2011055613A1 (ja) 内視鏡システム
JP6442344B2 (ja) 内視鏡診断装置、プログラムおよび記録媒体
WO2017159335A1 (ja) 医療用画像処理装置、医療用画像処理方法、プログラム
US20160077008A1 (en) Cancer diagnostic device, diagnostic system, and diagnostic device
US20230000330A1 (en) Medical observation system, medical imaging device and imaging method
WO2017115442A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
EP3108798A1 (en) Endoscopic system
US20230248209A1 (en) Assistant device, endoscopic system, assistant method, and computer-readable recording medium
WO2017126531A1 (ja) 内視鏡用プロセッサ
JP5927077B2 (ja) 内視鏡システム
US12121219B2 (en) Medical image processing device, medical imaging device, medical observation system, image processing method, and computer-readable recording medium
WO2019176253A1 (ja) 医療用観察システム
JP6266559B2 (ja) 内視鏡診断装置、画像処理方法、プログラムおよび記録媒体
JP7505120B2 (ja) 光治療装置、光治療装置の作動方法および光治療プログラム
US20230371817A1 (en) Endoscope system
US20230347169A1 (en) Phototherapy device, phototherapy method, and computer-readable recording medium
US20170215710A1 (en) Endoscope system
US12133027B2 (en) Medical control device and medical observation controlling projected illumination
WO2024166307A1 (ja) 医療用装置、医療システム、医療用装置の作動方法、および、医療用装置の作動プログラム
WO2024166304A1 (ja) 画像処理装置、医療システム、画像処理装置の作動方法、及び学習装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2016501262

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15843203

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2015843203

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015843203

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE