WO2018159292A1 - 計測支援装置、内視鏡システム、及び内視鏡システムのプロセッサ - Google Patents

計測支援装置、内視鏡システム、及び内視鏡システムのプロセッサ Download PDF

Info

Publication number
WO2018159292A1
WO2018159292A1 PCT/JP2018/005058 JP2018005058W WO2018159292A1 WO 2018159292 A1 WO2018159292 A1 WO 2018159292A1 JP 2018005058 W JP2018005058 W JP 2018005058W WO 2018159292 A1 WO2018159292 A1 WO 2018159292A1
Authority
WO
WIPO (PCT)
Prior art keywords
coordinates
spot
measurement
points
circular marker
Prior art date
Application number
PCT/JP2018/005058
Other languages
English (en)
French (fr)
Inventor
慎一郎 園田
岳一 龍田
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to EP18761984.6A priority Critical patent/EP3590407B1/en
Priority to JP2019502861A priority patent/JP6898425B2/ja
Publication of WO2018159292A1 publication Critical patent/WO2018159292A1/ja
Priority to US16/445,216 priority patent/US10708553B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/046Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for infrared imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/0002Operational features of endoscopes provided with data storages
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/00078Insertion part of the endoscope body with stiffening means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00096Optical elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/005Flexible endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0623Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for off-axis illumination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/063Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for monochromatic or narrow-band illumination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0669Endoscope light sources at proximal end of an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/07Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1076Measuring physical dimensions, e.g. size of the entire body or parts thereof for measuring dimensions inside body cavities, e.g. using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/02
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Definitions

  • the present invention relates to a measurement support apparatus, an endoscope system, and a processor of the endoscope system, and more particularly to a measurement support apparatus, an endoscope system, and an endoscope that measure the size of a subject using measurement auxiliary light. Relates to the processor of the system.
  • the distance to the subject is measured, and the length and size of the subject are calculated.
  • a subject distance is measured with a stereo camera, and the size of a mark serving as a measure of the size of the subject is calculated based on the subject distance and the viewing angle of the endoscope. Display is described, and the size of the subject can be known from this mark.
  • Patent Document 2 describes a technique for obtaining the distance to the observation unit (observation target) and the size of the observation unit using measurement light.
  • the measurement light is obliquely irradiated with respect to the illumination light irradiation direction, thereby improving the distance from the distal end of the endoscope insertion portion to the observation portion and the resolution of the position of the observation portion.
  • Patent Document 2 describes that an image of a ruler (scale image) is superimposed on an acquired image and used for measurement.
  • Patent Document 3 describes that a scale equivalent to a distortion aberration of an optical system is applied to a scale serving as a measurement index, and the distorted scale is synthesized and displayed in real time. It is described that the distortion of the scale can be calculated by obtaining a parameter and matrix for correcting distortion aberration by Zhang's method and the like, and obtaining a parameter and matrix for performing inverse transformation on the parameter and matrix.
  • the measurement index is the most accurate as a size index at the position where the spot of the measurement light hits, and the measurement index becomes inaccurate as the distance from the spot position increases. Moving and rotating to an arbitrary position and angle tends to be inaccurate as an index.
  • the amount of laser light received is measured by a distance sensor, the distance is calculated at the imaging frame rate, and the scale width at that distance is calculated, which complicates the system configuration and processing.
  • the distance is calculated at the imaging frame rate, and the scale width at that distance is calculated, which complicates the system configuration and processing.
  • the scale width is calculated, which complicates the system configuration and processing.
  • it is necessary to correct distortion over a wide area, which increases the amount of conversion parameters and matrix calculations and increases the load. Since it is expressed by (six) parameters, the correction accuracy is low.
  • the peripheral portion of the scale is far from the spot in the same manner as described above with respect to Patent Document 2, and thus tends to be inaccurate as an index.
  • the present invention has been made in view of such circumstances, and an object thereof is to provide a measurement support apparatus, an endoscope system, and a processor of an endoscope system that can display an accurate index with a simple configuration.
  • a measurement support apparatus includes a head that emits measurement auxiliary light, and an imaging optical system and an imaging element that capture an image of a subject in which spots are formed by the measurement auxiliary light.
  • An imaging unit that captures an image via the image, a measurement unit that measures the coordinates of a spot in the image, a coordinate of the spot, and a circular marker that is distorted according to the distortion aberration of the imaging optical system, showing the actual size of the measurement target in the subject
  • a storage unit that stores the coordinates of the points in association with each other, and stores the coordinates of points indicating a circular marker with respect to a plurality of points in a locus where the spot moves the image when the imaging distance of the image is changed.
  • a storage unit a coordinate acquisition unit that refers to the storage unit based on the measured coordinates of the spot, acquires the coordinates of a point indicating a circular marker corresponding to the coordinates of the spot, and the acquired coordinates
  • a display control unit that displays a circular marker in the vicinity of the spot in the image, and the head projects light of the imaging optical system when the optical axis of the measurement auxiliary light is projected onto a plane including the optical axis of the imaging optical system.
  • Measurement auxiliary light having an inclination angle other than 0 degrees with respect to the axis and crossing the angle of view of the imaging optical system is emitted.
  • the coordinates of the point indicating the circular marker are acquired with reference to the storage unit based on the coordinates of the spot, and the circular marker is displayed based on the acquired coordinates.
  • the configuration is simple, and the processing load is low.
  • the index is accurate, and the index is not displayed in a wide range, so the processing load Less is.
  • the trajectory of the spot moving through the image is uniquely determined according to the relationship between the optical axis of the imaging optical system and the optical axis of the measurement auxiliary light. What is necessary is just to obtain the coordinates of the marker for the point. Since the spot position in the locus corresponds to the imaging distance, the marker display size in the image is different even if the actual size is the same when the spot position is different.
  • “store the coordinates of points indicating a circular marker for a plurality of points in the trajectory” stores data for many points (for example, all pixels) on the trajectory. Alternatively, data may be stored only for some points (pixels) on the trajectory. “Acquiring the coordinates of a point indicating a circular marker” includes a mode in which the stored coordinates are used as they are and a mode in which the coordinates used for display are calculated based on the stored coordinates.
  • the optical axis of the measurement auxiliary light has an inclination angle other than 0 degrees with respect to the optical axis of the imaging optical system when projected onto a plane including the optical axis of the imaging optical system, and the imaging optical Since the angle of view of the system is crossed, the measurement auxiliary light can be placed in the field of view of the imaging optical system even when the observation distance is short by appropriately setting the tilt angle. Furthermore, since the optical axis of the measurement auxiliary light has a tilt angle other than 0 degrees with respect to the optical axis of the imaging optical system when projected onto a plane including the optical axis of the imaging optical system, the position change of the spot with respect to the change of the observation distance High sensitivity and high measurement accuracy.
  • the marker may be displayed in real time (for each frame from which a spot image is acquired or once for a plurality of frames) or may be performed offline (a spot is formed). If the image is acquired, the marker can be displayed afterwards).
  • the coordinate acquisition unit acquires the coordinates of a point indicating a circular marker corresponding to a point whose distance from the spot is equal to or less than a threshold among a plurality of points. . If the coordinates of a point indicating a circular marker are obtained for points distant from the spot, an inaccurate marker (a marker having a different shape and size from the marker to be originally displayed) is obtained. An accurate marker can be displayed by acquiring the coordinates of a point indicating a circular marker corresponding to a point whose distance from the spot is equal to or less than a threshold value. The threshold value is determined so that an accurate marker can be displayed. In the second aspect, if the coordinates of the point indicating the marker with respect to the spot position are stored, the “distance” described above is zero.
  • the coordinate acquisition unit interpolates coordinates corresponding to two or more points sandwiching the spot among a plurality of points, and obtains the coordinates of the point indicating the circular marker. get.
  • the third aspect is one aspect of coordinate acquisition, and such processing can be performed when the coordinates of points indicating markers are not stored for all points (pixels) in the trajectory.
  • the measurement support device is the coordinate of the point indicating the circular marker by extrapolating the coordinates corresponding to two or more points that do not sandwich the spot among the plurality of points in the first aspect. To get.
  • the fourth mode is another mode of coordinate acquisition, and such processing can be performed when the coordinates of points indicating markers are not stored for all points (pixels) in the trajectory.
  • the measurement support device includes a circular marker corresponding to a range where the size measurement of the measurement target by the circular marker is effective in the image.
  • the coordinates of the indicated point are stored. Since the distortion aberration of the imaging optical system generally increases at the periphery of the angle of view, the distortion of the subject increases at the periphery of the image and the measurement accuracy by the marker often deteriorates. In some cases, a complete marker cannot be displayed at the periphery of the image (for example, a part of the marker protrudes from the screen).
  • the coordinates of the point indicating the circular marker are stored corresponding to the range in which the measurement of the size of the measurement target by the circular marker is effective.
  • the “range in which size measurement is effective” can be determined in consideration of measurement accuracy.
  • the measurement support device is characterized in that the storage unit includes coordinates of a plurality of first points actually measured corresponding to a circle centered on the spot,
  • the coordinates of the plurality of second points generated by interpolating the plurality of first points are stored as the coordinates of the points indicating the circular marker, and the coordinate acquisition unit stores the coordinates of the plurality of first points and the plurality of first points.
  • the coordinates of the two points are acquired as the coordinates of the point indicating the circular marker.
  • the sixth aspect is one aspect of coordinate acquisition, in which measured coordinates (first point coordinates) and coordinates obtained by interpolation (second point coordinates) are stored as the coordinates of a point indicating a marker. That is, it is not necessary to actually measure the coordinates for all the points used for marker display.
  • the measurement support apparatus is the coordinate of the plurality of second points obtained by linearly interpolating the plurality of first points in the angular direction and the radial direction of the circle.
  • the seventh aspect is a specific aspect of “interpolation” in the sixth aspect.
  • the measurement support apparatus is configured to projectively convert a distorted lattice area including a circular marker centered on a spot into a square lattice area in the image.
  • the transformation matrix is stored, and the coordinate acquisition unit obtains the coordinates of the point indicating the circular marker in the square lattice area transformed by the transformation matrix, and inversely transforms the obtained coordinate by the inverse matrix of the transformation matrix in the distortion lattice area. Acquires the coordinates of a point indicating a circular marker.
  • the eighth aspect is another aspect of the coordinate acquisition, and since the coordinates of the point indicating the circular marker can be acquired accurately and easily in the square lattice area, the coordinate acquired in the square lattice area is inversely transformed to thereby obtain a distorted lattice.
  • the coordinates in the area can be calculated accurately and easily.
  • a projective transformation matrix can be used as the transformation matrix. Note that the inverse matrix of the transformation matrix may be stored, or may be obtained from the transformation matrix.
  • the storage unit includes a plurality of pieces obtained by dividing the distorted lattice region and the square lattice region into 2 ⁇ m ⁇ n when m and n are positive integers.
  • a transformation matrix is stored for each of the small regions, and the coordinate acquisition unit is configured to store the same transformation matrix and a plurality of inverse matrices of the plurality of transformation matrices for pixels belonging to the same small region of the image pixels. Apply the same inverse matrix.
  • the storage amount can be reduced by applying the same transformation matrix and inverse matrix for each small region as in the ninth aspect.
  • the measurement support device is the ninth aspect, in which the storage unit is configured such that the distortion when the imaging distance is the farthest end of the measurement distance range and the distortion when the imaging distance is the closest end of the measurement distance range.
  • a plurality of regions obtained by dividing a part of an image in the image including the lattice region, the regions divided smaller than the lattice size of the distorted lattice region at the farthest end are defined as a plurality of small regions.
  • the coordinate acquisition unit stores the coordinates of the point indicating the circular marker using the transformation matrix stored for the plurality of small regions.
  • the transformation matrix is stored by dividing the region for a part of the captured image, it is not necessary to store the transformation matrix for the entire image, and the processing load is low.
  • a plurality of areas divided into smaller than the size of the grid at the farthest end of the distance range (measurement distance range) in which the measurement by the circular marker is effective (the grid size is the smallest because it is the farthest end)
  • the grid size is the smallest because it is the farthest end
  • the transformation matrix is an affine transformation matrix.
  • the eleventh aspect shows one aspect of the transformation matrix, and three points of the distorted image can be transformed into a square lattice image with one affine transformation matrix.
  • an endoscope system includes a measurement support apparatus according to any one of the first to eleventh aspects. Since the endoscope system according to the twelfth aspect includes the measurement support device according to any one of the first to eleventh aspects, an accurate index can be displayed with a simple configuration.
  • An endoscope system is an insertion part to be inserted into a subject, a distal end hard part, a bending part connected to the proximal end side of the distal end hard part, An endoscope having an insertion part having a soft part connected to the base end side of the part and an operation part connected to the base end side of the insertion part, and having an imaging device that captures an optical image of the head and the spot And an imaging lens that forms an image on the distal end hard portion.
  • the thirteenth aspect prescribes one aspect of the configuration of the distal end hard portion of the endoscope.
  • the processor of the endoscope system according to the fourteenth aspect of the present invention is a processor of the endoscope system according to the twelfth or thirteenth aspect, and includes a measurement unit and a storage unit And a coordinate acquisition unit and a display control unit. According to the fourteenth aspect, an accurate index can be displayed with a simple configuration as in the first aspect.
  • an accurate index can be displayed with a simple configuration.
  • FIG. 1 is a diagram showing an overall configuration of an endoscope system according to the first embodiment of the present invention.
  • FIG. 2 is a block diagram showing a configuration of the endoscope system according to the first embodiment of the present invention.
  • FIG. 3 is a diagram showing the configuration of the end surface on the front end side of the hard end portion.
  • FIG. 4 is a diagram showing the configuration of the laser module.
  • FIG. 5 is a cross-sectional view showing the configuration of the laser light source module.
  • FIG. 6 is a diagram illustrating the relationship between the optical axis of the imaging optical system and the optical axis of the measurement auxiliary light.
  • FIG. 7 is a diagram illustrating a state where the insertion portion of the endoscope is inserted into the subject.
  • FIG. 1 is a diagram showing an overall configuration of an endoscope system according to the first embodiment of the present invention.
  • FIG. 2 is a block diagram showing a configuration of the endoscope system according to the first embodiment of the present invention.
  • FIG. 8 is a flowchart showing processing of the measurement support method.
  • FIG. 9 is a diagram illustrating a state in which the optical axis of the measurement auxiliary light crosses the imaging field angle of the imaging optical system.
  • FIG. 10 is a diagram illustrating how the spot position changes depending on the shooting distance.
  • FIG. 11 is a diagram illustrating the relationship between the wavelength and the sensitivity of the color filter.
  • FIG. 12 is a diagram illustrating a state in which the coordinates of a point indicating a circular marker are stored with respect to a plurality of points in a spot movement locus.
  • FIG. 13 is a diagram illustrating the relationship between the spot position and the coordinates of a point indicating a distorted circular marker.
  • FIG. 9 is a diagram illustrating a state in which the optical axis of the measurement auxiliary light crosses the imaging field angle of the imaging optical system.
  • FIG. 10 is a diagram illustrating how the spot position changes depending on the shooting distance.
  • FIG. 11 is a diagram
  • FIG. 14 is a diagram illustrating a state in which the spot position and the coordinates of the point indicating the distorted circular marker are stored in association with each other.
  • FIG. 15 is a diagram for acquiring marker coordinates stored for a point whose distance from the spot is equal to or less than a threshold value.
  • FIG. 16 is a diagram illustrating a state in which marker coordinates are acquired by interpolating the coordinates of two points sandwiching the spot position.
  • FIG. 17 is a diagram illustrating a state in which marker coordinates are acquired by extrapolating coordinates of two points that do not sandwich the spot position.
  • FIG. 18 is a flowchart illustrating the processing of the first embodiment of coordinate generation and storage.
  • FIG. 19 is a diagram illustrating a state in which the position of the first point is actually measured.
  • FIG. 20 is a diagram illustrating a state in which the second point is generated by interpolating the first point.
  • FIG. 21 is a flowchart illustrating the processing of the first embodiment for generating and storing coordinates.
  • FIG. 22 is a diagram showing a distorted grating region centered on the spot position.
  • FIG. 23 is a diagram illustrating a state in which a distorted lattice area is converted into a square lattice area.
  • FIG. 24 is a diagram illustrating an area for storing a transformation matrix and an inverse matrix.
  • FIG. 25 is a diagram illustrating division into small regions.
  • FIG. 26 is a diagram illustrating the relationship between the size of the small area and the size of the lattice.
  • FIG. 21 is a diagram illustrating a state in which the second point is generated by interpolating the first point.
  • FIG. 21 is a flowchart illustrating the processing of the first embodiment for generating and storing coordinates.
  • FIG. 22 is a
  • FIG. 27 is a diagram illustrating a state in which the coordinates of a point indicating a circular marker in a square lattice area are calculated.
  • FIG. 28 is a diagram illustrating a state in which the coordinates of a point indicating a circular marker are transformed into a distorted lattice area.
  • FIG. 29 is a diagram illustrating a state in which a distorted circular marker is superimposed and displayed on a captured image.
  • FIG. 1 is an external view showing an endoscope system 10 (measurement support apparatus, endoscope system, endoscope system processor) according to the first embodiment, and FIG. It is a block diagram which shows a part structure.
  • an endoscope system 10 includes an endoscope main body 100 (endoscope), a processor 200 (processor of the endoscope system), a light source device 300, and a monitor 400 (display device). Is provided.
  • the endoscope main body 100 includes a hand operation unit 102 (operation unit) and an insertion unit 104 (insertion unit) connected to the hand operation unit 102.
  • the operator grasps the hand operation unit 102 and operates the endoscope main body 100, and inserts the insertion unit 104 into the body of the subject for observation.
  • the insertion unit 104 includes a soft part 112 (soft part), a bending part 114 (curving part), and a hard tip part 116 (hard tip part) in this order from the hand operation part 102 side.
  • the bending portion 114 can be bent and the direction of the distal end hard portion 116 can be changed vertically and horizontally.
  • the distal end hard part 116 is provided with an imaging optical system 130 (imaging part), an illumination part 123, a forceps port 126, a laser module 500, and the like (see FIGS. 1 to 3).
  • either or both visible light and infrared light can be emitted from the illumination lenses 123A and 123B of the illumination unit 123 by operating the operation unit 208 (see FIG. 2).
  • cleaning water is discharged from a water supply nozzle (not shown), and the imaging lens 132 (imaging lens) of the imaging optical system 130 and the illumination lenses 123A and 123B can be cleaned.
  • An unillustrated conduit is connected to the forceps port 126 opened at the distal end hard portion 116, and a treatment tool (not shown) for tumor removal or the like is inserted into the conduit, and is appropriately advanced and retracted to the subject. Necessary measures can be taken.
  • an imaging lens 132 is disposed on the distal end surface 116 A of the distal rigid portion 116, and a CMOS (Complementary Metal-Oxide Semiconductor) type imaging device is disposed behind the imaging lens 132.
  • 134 image sensor, color image sensor
  • drive circuit 136 and AFE 138 (AFE: Analog : Front End) are arranged to output an image signal.
  • the image sensor 134 is a color image sensor, and is composed of a plurality of light receiving elements arranged in a matrix (two-dimensional array) in a specific pattern array (Bayer array, X-Trans (registered trademark) array, honeycomb array, etc.).
  • Each pixel includes a micro lens, a red (R), green (G), or blue (B) color filter and a photoelectric conversion unit (a photodiode or the like).
  • the imaging optical system 130 can generate a color image from pixel signals of three colors of red, green, and blue, and can generate an image from pixel signals of any one or two colors of red, green, and blue. You can also.
  • the image sensor 134 is a CMOS image sensor.
  • the image sensor 134 may be a CCD (Charge Coupled Device) type.
  • An image of the subject (tumor part, lesion part) and an optical image of a spot (described later) are formed on the light receiving surface (imaging surface) of the imaging element 134 by the imaging lens 132 and converted into an electrical signal, and a signal (not shown) It is output to the processor 200 via a cable and converted into a video signal. Thereby, an observation image, a distorted circular marker, etc. are displayed on the monitor 400 connected to the processor 200.
  • illumination lenses 123A (for visible light) and 123B (for infrared light) of the illumination unit 123 are provided adjacent to the imaging lens 132.
  • the light guide 170 is inserted into the insertion unit 104, the hand operation unit 102, and the universal cable 106.
  • the incident end is disposed in the light guide connector 108.
  • the front end surface 116A is further provided with a laser head 506 (head) of the laser module 500, and is irradiated with spot light (measurement auxiliary light) via a prism 512 (see FIG. 4).
  • a laser head 506 (head) of the laser module 500, and is irradiated with spot light (measurement auxiliary light) via a prism 512 (see FIG. 4).
  • spot light measurement auxiliary light
  • prism 512 see FIG. 4
  • the configuration of the laser module 500 will be described later.
  • the laser head 506 is provided separately from the forceps port 126 as shown in FIG. 3, but a pipe line (not shown) communicating with the forceps port 126 opened at the distal end hard portion 116 is provided. You may insert the laser head 506 so that insertion or extraction is possible. Further, a laser head 506 may be provided between the imaging lens 132 and the forceps port 126.
  • the laser module 500 includes a laser light source module 502, an optical fiber 504, and a laser head 506 (head).
  • the base end side (laser light source module 502 side) of the optical fiber 504 is covered with a fiber sheath 501, and the tip end side (side emitting laser light) is inserted into a ferrule 508 (ferrule) and adhered with an adhesive. Is polished.
  • a GRIN lens 510 (GRIN: Graded Index) is attached to the distal end side of the ferrule 508, and a prism 512 is attached to the distal end side of the GRIN lens 510 to form a joined body.
  • the ferrule 508 is a member for holding and connecting the optical fiber 504, and a hole for inserting the optical fiber 504 is opened in the axial direction (left-right direction in FIG. 4) at the center.
  • a reinforcing material 507 is provided outside the ferrule 508 and the fiber sheath 501 to protect the optical fiber 504 and the like.
  • the ferrule 508, the GRIN lens 510, and the prism 512 are housed in a housing 509, and constitute a laser head 506 together with the reinforcing member 507 and the fiber outer shell 501.
  • a ferrule 508 having a diameter of 0.8 mm to 1.25 mm can be used.
  • a small diameter is preferable for downsizing.
  • the overall diameter of the laser head 506 can be 1.0 mm to 1.5 mm.
  • the laser module 500 configured as described above is attached to the insertion portion 104.
  • the laser light source module 502 is provided in the hand operation unit 102
  • the laser head 506 is provided in the distal end hard portion 116
  • the optical fiber 504 transmits laser light from the laser light source module 502 to the laser head.
  • the light is guided to 506.
  • the laser light source module 502 may be provided in the light source device 300 and the laser light may be guided to the distal end hard portion 116 by the optical fiber 504.
  • the laser light source module 502 is emitted from a VLD (Visible Laser Diode) that is supplied with power from a power source (not shown) and emits laser light (measurement auxiliary light) in the visible wavelength range, and the VLD. It is a pigtail type module (TOSA; Transmitter Optical Sub Assembly) including a condensing lens 503 that condenses laser light.
  • the laser beam can be emitted as needed under the control of the processor 200 (CPU 210), and is used in the same way as a normal endoscope when not emitting by emitting the laser beam only when performing measurement (measurement mode). Can (normal mode).
  • the laser beam emitted from the VLD can be a red laser beam having a wavelength of 650 nm by a semiconductor laser.
  • the wavelength of the laser beam in the present invention is not limited to this mode.
  • the laser beam condensed by the condenser lens 503 is guided to the GRIN lens 510 by the optical fiber 504.
  • the optical fiber 504 is an optical fiber for propagating laser light in a single transverse mode, and can form a clear spot with a small diameter, so that the size of the subject (measurement target) can be accurately measured.
  • a relay connector may be provided in the middle of the optical fiber 504.
  • an optical fiber that propagates laser light in multiple modes may be used as the optical fiber 504.
  • an LED Light-Emitting Diode
  • the semiconductor laser may be used in an LED emission state that is equal to or lower than the oscillation threshold.
  • the GRIN lens 510 is a cylindrical graded index lens (radial type) whose refractive index is the highest on the optical axis and decreases toward the outer side in the radial direction, and the incident laser light guided by the optical fiber 504 is made parallel. It functions as a collimator that emits a light beam.
  • the spread of the light beam emitted from the GRIN lens 510 can be adjusted by adjusting the length of the GRIN lens 510, and ( ⁇ / 4) pitch ( ⁇ is the wavelength of the laser light) to emit laser light of a parallel light beam. It should be about.
  • a prism 512 is mounted on the front end side of the GRIN lens 510.
  • This prism 512 is an optical member for changing the emission direction of the measurement auxiliary light, and by changing the emission direction, when the optical axis of the measurement auxiliary light is projected onto a plane including the optical axis of the imaging optical system,
  • the optical axis of the measurement auxiliary light has a tilt angle that is not 0 degree with respect to the optical axis of the imaging optical system, and the measurement auxiliary light crosses the angle of view of the imaging optical system.
  • the prism 512 is formed in a size close to the lens diameter of the GRIN lens 510, and the tip surface is cut obliquely to have the apex angle AL1 corresponding to the inclination angle described above.
  • the value of the apex angle AL1 can be set according to the laser beam emission direction and other conditions.
  • FIG. 6 is a diagram illustrating a state in which the distal end hard portion 116 according to the first embodiment is viewed from the front (subject side), and corresponds to the configuration of FIG. 3.
  • the optical axis L1 of the measurement auxiliary light and the optical axis L2 of the imaging optical system exist on the same plane and intersect on the same plane. Therefore, when the hard tip portion 116 is viewed from the front (subject side), the optical axis L1 appears to pass on the optical axis L2 as shown in FIG.
  • optical axis L1 of the measurement auxiliary light and the optical axis L2 of the imaging optical system in the present invention is as described above.
  • the optical axis of the measurement auxiliary light and the optical axis of the imaging optical system exist on the same plane. It is not limited to the mode of “intersecting on the same plane”, and the optical axis of the measurement auxiliary light may not be on the same plane as the optical axis of the imaging optical system. However, even in such a case, when the optical axis of the measurement auxiliary light is projected onto a plane including the optical axis of the imaging optical system, the optical axis of the measurement auxiliary light is not inclined at 0 degrees with respect to the optical axis of the imaging optical system. And crosses the angle of view of the imaging optical system.
  • the optical axis of the measurement auxiliary light When performing measurement using measurement auxiliary light, if the optical axis of the measurement auxiliary light is parallel to the optical axis of the imaging optical system (the tilt angle is 0 degree), the optical axis of the measurement auxiliary light depends on the distance between the optical axes. However, the distance to the point that crosses the angle of view of the imaging optical system increases, and as a result, a spot cannot be photographed at a close distance, making measurement difficult. Further, if the optical axis of the measurement auxiliary light is parallel to the optical axis of the imaging optical system, the sensitivity of the spot position change with respect to the change in observation distance is low, and sufficient measurement accuracy may not be obtained.
  • the optical axis of the measurement auxiliary light is projected onto a plane including the optical axis of the imaging optical system, the optical axis of the measurement auxiliary light is 0 with respect to the optical axis of the imaging optical system.
  • the light source device 300 includes a light source 310 for illumination, a diaphragm 330, a condenser lens 340, a light source control unit 350, and the like, and emits illumination light (visible light or infrared light).
  • the light is incident on the guide 170.
  • the light source 310 includes a visible light source 310A and an infrared light source 310B, and can emit one or both of visible light and infrared light.
  • the illuminance of the illumination light from the visible light source 310A and the infrared light source 310B is controlled by the light source control unit 350, and when the spot is imaged and measured (in the measurement mode), the illuminance of the illumination light is lowered or illuminated as necessary. Can be stopped.
  • illumination light emitted from the light source device 300 is transmitted to the illumination lenses 123A and 123B via the light guide 170, and the illumination lenses 123A, The observation range is irradiated from 123B.
  • the processor 200 inputs an image signal output from the endoscope main body 100 via the image input controller 202, and performs necessary image processing in the image processing unit 204 (measurement unit, coordinate acquisition unit, display control unit).
  • the video is output via the video output unit 206. Thereby, an observation image is displayed on the monitor 400 (display device).
  • a CPU 210 CPU: Central Processing Unit
  • the CPU 210 has functions as a measurement unit, a coordinate acquisition unit, and a display control unit.
  • the image processing unit 204 in addition to image processing such as white balance adjustment, switching of an image to be displayed on the monitor 400, superimposed display, electronic zoom processing, display of an image according to an operation mode, a specific component (for example, luminance) from the image signal Signal).
  • the image processing unit 204 measures the spot position on the imaging plane of the image sensor 134, calculates the marker size (number of pixels) based on the measured position, and the like (described later).
  • a processor electric circuit
  • CPU central processing unit
  • FPGA field programmable gate array
  • ASIC application specific integrated circuit
  • the image processing unit 204 may be configured by a single processor or may be configured by combining a plurality of processors.
  • the memory 212 (storage unit) includes a storage element for temporary storage and a non-volatile storage element (non-temporary recording medium) during various processes, and the coordinates of the spot are controlled by the CPU 210 and / or the image processing unit 204. And the coordinates of the point indicating the actual size of the measurement target in the subject and indicating the circular marker distorted according to the distortion aberration of the imaging optical system 130 are stored in association with each other (described later).
  • the memory 212 also stores computer-readable codes for programs that cause the CPU 210 and / or the image processing unit 204 to execute a measurement support method described later.
  • the processor 200 includes an operation unit 208.
  • the operation unit 208 includes an operation mode setting switch (not shown), a water supply instruction button, and the like, and can operate irradiation with visible light and / or infrared light.
  • the operation unit 208 includes devices such as a keyboard and a mouse (not shown), and the user can input various processing conditions, display conditions, and the like via these devices.
  • FIG. 7 is a diagram illustrating a state where the insertion unit 104 of the endoscope main body 100 is inserted into the subject, and illustrates a state in which an observation image is acquired for the imaging range IA via the imaging optical system 130.
  • FIG. 7 shows a state in which the spot SP0 is formed in the vicinity of the tumor tm (a portion protruding in black).
  • FIG. 8 is a flowchart showing processing of the measurement support method.
  • the insertion unit 104 of the endoscope main body 100 is inserted into the subject, and the endoscope system 10 is set to the normal observation mode (step S10).
  • the normal observation mode is a mode in which the subject is irradiated with illumination light emitted from the light source device 300 to acquire an image, and the subject is observed.
  • the setting to the normal observation mode may be automatically performed by the processor 200 when the endoscope system 10 is activated, or may be performed according to the operation of the operation unit 208 by the user.
  • the illumination light is irradiated and the subject is imaged and displayed on the monitor 400 (step S12).
  • a subject image a still image or a moving image may be captured.
  • the type of illumination light visible light or infrared light
  • the user moves the insertion portion 104 forward and backward and / or bends while viewing the image displayed on the monitor 400 to point the hard tip portion 116 toward the observation target, and images the subject to be measured.
  • step S14 it is determined whether or not to shift from the normal observation mode to the measurement mode. This determination may be made based on the presence / absence of a user operation via the operation unit 208 or based on the presence / absence of a switching command from the processor 200. Further, the processor 200 may alternately set the normal observation mode and the measurement mode at a fixed frame interval (every frame, every two frames, etc.). If the determination in step S14 is negative, the process returns to step S12 to continue imaging in the normal observation mode, and if the determination is affirmative, the process proceeds to step S16 to switch to the measurement mode.
  • a laser beam (measurement auxiliary light) is irradiated from the laser head 506 to form a spot on the subject, and the size (length) of the subject is measured based on the image of the subject on which the spot is formed.
  • a marker is generated and displayed.
  • red laser light is used as measurement auxiliary light.
  • the illumination light is turned off during spot image acquisition and position measurement, or the illuminance is lowered to such an extent that spot recognition is not affected (step S18), and measurement auxiliary light is emitted from the laser head 506. (Step S20).
  • Such control can be performed by the processor 200 and the light source control unit 350.
  • step S22 an image of the subject on which the spot is formed is taken by the measurement auxiliary light.
  • a spot is formed within the shooting field angle of the imaging optical system 130.
  • the position of the spot (on the image sensor) in the image varies depending on the observation distance, and the size (number of pixels) of the marker to be displayed varies depending on the position of the spot.
  • the optical axis L1 of the measurement auxiliary light when the optical axis L1 of the measurement auxiliary light is projected onto a plane including the optical axis L2 of the imaging optical system, the optical axis L1 has an inclination angle that is not 0 degree with respect to the optical axis L2, and imaging is performed. Crosses the angle of view of the optical system 130. Therefore, the position of the spot in the image (imaging device) varies depending on the distance to the subject. For example, as shown in FIG. 9 (a diagram illustrating a state in which the distal end hard portion 116 is viewed from the side surface direction in a plane including the optical axis L1 and the optical axis L2), it is possible to observe in the observation distance range R1.
  • the spot positions (each arrow and the optical axis L1 are in the imaging range (shown by arrows Q1, Q2, Q3) at each point). It can be seen that the points of intersection) are different.
  • the inside of the solid line is the imaging field angle of the imaging optical system 130
  • the inside of the alternate long and short dash line is the measurement field angle. Measurement is performed at a central portion with a small aberration in the imaging field angle of the imaging optical system 130.
  • the range R1 and the measurement angle of view in FIG. 9 correspond to “a range in which the size measurement of the measurement target by the circular marker is effective in the captured image”.
  • FIG. 10 is a diagram illustrating a state in which the distal end hard portion 116 is viewed from the front as in FIG. 6.
  • the optical axis L2 of the imaging optical system 130, the optical axis L1 of measurement auxiliary light, and the imaging range R2 of the imaging element 134 are illustrated. It is the figure which showed the relationship virtually.
  • FIG. 10 shows a case where the optical axes L1 and L2 exist on the same plane and intersect on the plane.
  • spot positions P4, P5, and P6 corresponding to the observation distance are shown.
  • the spot position P4 when the observation distance is near the closest end and the spot position P6 when the observation distance is near the farthest end are located on the opposite side to the optical axis L2 of the imaging optical system 130. I understand. Therefore, in the first embodiment, the sensitivity of the movement of the spot position with respect to the change in the observation distance is high, and the size of the subject can be measured with high accuracy.
  • the spot position in the captured image differs depending on the relationship between the optical axis L2 of the imaging optical system 130 and the optical axis L1 of the measurement auxiliary light and the observation distance, but the observation distance is close.
  • the position (coordinates) of the spot is associated with the coordinates of a point indicating the actual size of the measurement target in the subject and indicating the circular marker distorted according to the distortion aberration of the imaging optical system 130.
  • the coordinates of the point indicating the circular marker can be acquired by referring to the information stored in accordance with the measured spot position (coordinates). Since it is not necessary to measure the observation distance itself when acquiring the coordinates of the point indicating the circular marker, the configuration is simple and the processing load is low.
  • step S24 the measurement of the position of the spot on the imaging surface of the imaging device 134 (step S24) will be described.
  • the spot position measurement in step S24 is performed using an image generated from the pixel signal of the pixel in which the red (R) filter color filter is provided.
  • the relationship between the wavelength and the sensitivity in each color (red, green, blue) color filter arranged in each pixel of the image sensor 134 is as shown in FIG. 11, and the laser head 506 is as described above.
  • the laser beam emitted from the laser beam is a red laser beam having a wavelength of 650 nm.
  • the measurement of the spot position is an image generated from an image signal of a pixel (R pixel) in which a red color filter having the highest sensitivity to the wavelength of the laser light among the (red, green, blue) color filters is arranged.
  • the threshold value is set to the signal intensity of the R pixel of the pixel signal bitmap data or RAW (Raw image format) data and binarized to calculate the center of gravity of the white portion (pixel whose signal intensity is higher than the threshold value). By doing so, the position of the spot can be recognized at high speed.
  • a threshold value is added to the pixel signal of a pixel (G pixel, B pixel) provided with green and blue color filters. It is preferable to extract only pixels whose pixel signal values of the G pixel and B pixel having bitmap data are not more than a threshold value.
  • the illumination light is turned off during the spot image acquisition (step S22) and the position measurement (step S24), or the illuminance is lowered to such an extent that the spot recognition is not affected (step S18).
  • Measurement auxiliary light is emitted from the laser head 506 (step S20).
  • step S ⁇ b> 26 the processor 200 (the CPU 210, the image processing unit 204) indicates the coordinates of a point indicating a circular marker (distorted circular marker) that is distorted according to the distortion aberration of the imaging optical system 130 and indicates the actual size of the measurement target in the subject. get.
  • the processor 200 the CPU 210, the image processing unit 204 indicates the coordinates of a point indicating a circular marker (distorted circular marker) that is distorted according to the distortion aberration of the imaging optical system 130 and indicates the actual size of the measurement target in the subject.
  • the coordinates of the point indicating the circular marker that is sized and is distorted according to the distortion aberration of the imaging optical system 130 are stored in the memory 212 in association with each other, and the processor 200 stores the memory 212 in accordance with the spot position measured in step S24.
  • the coordinates of the point indicating the distorted circular marker are acquired. The procedure for obtaining the relationship between the spot position and the coordinates of the point indicating the distorted circular marker will be described later in detail.
  • step S28 the observation image and the distorted circular marker are displayed on the monitor 400 (for example, see the example in FIG. 29).
  • the distorted circular marker is displayed at a position away from the spot, it becomes inaccurate as an index. Therefore, the distorted circular marker is displayed in the vicinity of the spot in the observation image (for example, around the spot). It is not necessary to correct the distortion of the image when displaying the observation image and the distorted circular marker. For this reason, the appearance of the image is not changed by the correction, and the observer can observe the image without feeling uncomfortable.
  • Distorted circular markers with different actual sizes may be displayed concentrically, or other markers (for example, cross-shaped markers) may be displayed in addition to the distorted circular marker.
  • Display conditions (such as the type, number, actual size, and color of markers) can be set by a user operation via the operation unit 208.
  • step S30 it is determined whether or not to end the measurement mode. This determination may be made based on a user operation via the operation unit 208 or based on the presence / absence of a switching command from the processor 200. Similarly to the transition to the measurement mode, the measurement mode may be automatically terminated and the normal observation mode may be restored after a certain number of frames have elapsed. If the determination in step S30 is negative, the process returns to step S20, and the processing from step S20 to step S28 is repeated. If the determination in step S30 is affirmative, the process proceeds to step S32, the measurement auxiliary light is turned off, and then the illuminance of the illumination light is returned to the normal illuminance in step S34 to return to the normal observation mode (return to step S10). It should be noted that the measurement auxiliary light need not be turned off if there is no problem in observation in the normal observation mode.
  • the endoscope system 10 can display an accurate index (a distorted circular marker) with a simple configuration, thereby enabling accurate and easy measurement of the size of a subject. it can.
  • the spot position on the imaging surface of the imaging element 134 and the coordinates of the point indicating the distorted circular marker are associated and stored in the memory 212 (storage unit), and the memory is stored according to the measured spot position.
  • the coordinates are obtained with reference to 212.
  • the storage of coordinates will be described.
  • the coordinates of a point indicating a distorted circular marker are stored for a plurality of points on a trajectory where a spot moves a captured image when the observation distance (imaging distance) is changed.
  • the movement locus of the spot in the captured image when the imaging distance is changed is determined by the relationship between the optical axis L1 of the measurement auxiliary light and the optical axis L2 of the imaging optical system 130. In the case of the relationship shown in FIG. If the imaging optical system 130 has distortion, the imaging optical system 130 is distorted according to the distortion.
  • FIG. 12 is a diagram showing how coordinates are stored, and shows how coordinates of points indicating a distorted circular marker are stored for K points (points P1 to PK; K is an integer equal to or greater than 2) in a spot trajectory T1.
  • Points P1 to PK are ranges in which size measurement by the distorted circular marker is effective (solid line portion of locus T1; corresponding to the inside of the one-dot chain line in FIG. 9), and point P1 is the closest end of the measurement effective range
  • the spot position when the point PK is the farthest end is shown. Note that the locus T1 in FIG. 12 is virtually shown.
  • the distortion becomes large, and when the spot exists on the near end side (dotted line T1N portion) of the trajectory T1, one of the distorted circular markers. If the part is outside the image or is present on the farthest end side (dotted line T1F portion), there is a problem that the marker becomes small and none of them is suitable for measurement. Therefore, in the first embodiment, the coordinates are stored in correspondence with the range of spot positions where the measurement of the size of the measurement target by the distorted circular marker is effective.
  • FIG. 13 is a diagram showing the relationship between the spot position and the coordinates of the point indicating the distorted circular marker, and L points (points Pi1, Pi2,..., Pij,..., Centered on the point Pi (spot position).
  • PiL; L is an integer), indicating a distorted circular marker.
  • the value of L can be determined based on the requirement of the shape accuracy of the marker. The larger the number, the more accurate the marker can be displayed. A line or a curve may be connected between the L points.
  • FIG. 14 shows a state where the spot position and the coordinates of the point indicating the distorted circular marker are stored in association with each other. The generation of the coordinates of the point indicating the distorted circular marker (for example, the coordinates of the points Pi1 to PiL with respect to the point Pi) will be described later.
  • the processor 200 When displaying the distorted circular marker, the processor 200 (CPU 210, image processing unit 204) acquires the coordinates of the point indicating the distorted circular marker by referring to the memory 212 (storage unit) based on the measured coordinates of the spot. .
  • acquisition includes using stored coordinates and using coordinates generated based on the stored coordinates.
  • a specific mode of coordinate acquisition will be described.
  • FIG. 15 shows the threshold of the measured spot among a plurality of points (K in the examples of FIGS. 12 to 14) in which the coordinates of the points indicating the distorted circular marker are stored in the locus T1 where the spot moves. It is a figure which shows a mode that the coordinate of the point which shows a distortion circular marker corresponding to the point below a value is acquired.
  • the distance between the point P2 and the point Pi where the spot exists is D1
  • the distance between the point P3 and the point Pi is D2 (the point indicating a distorted circular marker with respect to the points P2 and P3). Coordinates are stored).
  • the threshold value for the distance from the spot is TH
  • TH ⁇ D1, TH> D2.
  • the coordinates (L in the example of FIGS. 12 to 14) stored for the point P2 whose distance from the spot is equal to or less than the threshold value are acquired as coordinates indicating the distorted circular marker at the point Pi.
  • the calculation of the distance to the spot and the comparison with the threshold value can be performed by the processor 200 (CPU 210, image processing unit 204).
  • the threshold value can be determined according to the accuracy of the distorted circular marker, the measurement accuracy, and the like.
  • the coordinates of the point indicating the distorted circular marker are acquired by interpolating coordinates corresponding to two or more points sandwiching the measured spot among a plurality of points in the trajectory where the spot moves.
  • the coordinates (L; see FIGS. 13 and 14) for the point P2 and the coordinates corresponding to the coordinates (L; see FIGS. 13 and 14) for the point P3 (for example, the points shown in FIG. 14).
  • P21 and point P31) are interpolated to obtain the coordinates of the L points with respect to the point Pi.
  • the calculation of interpolation can be performed by the processor 200 (CPU 210, image processing unit 204).
  • ⁇ Coordinate acquisition mode 3> coordinates corresponding to two or more points that do not sandwich the spot among a plurality of points in the trajectory are extrapolated to obtain the coordinates of the point indicating the distorted circular marker.
  • the coordinates (L; see FIGS. 13 and 14) for the point P1 and the coordinates corresponding to the coordinates (L; see FIGS. 13 and 14) for the point P2 for example, the points shown in FIG. 14.
  • the extrapolation calculation can be performed by the processor 200 (CPU 210, image processing unit 204).
  • the coordinates of the points indicating the distorted circular marker may be stored for some points on the trajectory.
  • the coordinates may be stored for all points (pixels) on the trajectory, and the stored coordinates may be acquired as they are. In the case of such an aspect, calculation of the distance between points, interpolation calculation, etc. can be omitted.
  • FIG. 18 is a flowchart illustrating coordinate generation and storage processing in the first embodiment.
  • the measured point (first point) and the point (second point) generated by interpolating the measured point are stored as the coordinates of the point indicating the distorted circular marker.
  • Coordinate measurement, conversion, and the like can be performed by the processor 200 (the CPU 210 and the image processing unit 204), and the generated coordinates are stored in the memory 212 (storage unit).
  • a distance range in which measurement with a distorted circular marker is effective (see range R1 in FIG. 9) for an actual size to be processed (hereinafter, described as a diameter of 5 mm, but may be different values depending on the measurement purpose).
  • the measurement auxiliary light is irradiated at the imaging distance set in step 1, and a square lattice chart such as graph paper is imaged (step S100).
  • a square lattice chart such as graph paper is imaged (step S100).
  • the interval of the lattice is equal to or smaller than the actual size and the interval is as fine as possible.
  • the lattice spacing is a (1 / integer) spacing of the desired actual size (when the actual size of the distorted circular marker is 5 mm in diameter, the spacing of the lattice is 0.5 mm, 1 mm, 1.25 mm, 2.5 mm. Etc.). Further, it is preferable to easily identify the first point described below by operating the hand operation unit 102 and changing the direction of the distal end hard portion 116 and taking an image in a state where the spot is located at the intersection of the lattice.
  • FIG. 19 is a diagram showing an example in which a square lattice chart with an interval of 0.5 mm is taken, and a point SP1 shows a spot formed by laser light (measurement auxiliary light).
  • the square lattice chart is distorted by the distortion aberration of the imaging optical system 130.
  • the spot position (point SP1 position) is measured (step S102), and then the first point position is measured (actual measurement) (step S104).
  • FIG. 19 is a diagram showing an example in which a square lattice chart with an interval of 0.5 mm is taken, and a point SP1 shows a spot formed by laser light (measurement auxiliary light).
  • the square lattice chart is distorted by the distortion aberration of the imaging optical system 130.
  • the spot position (point SP1 position) is measured (step S102), and then the first point position is measured (actual measurement) (step S104).
  • actual measurement step S104
  • the first point is four points (points SPa, SPb, SPc, SPd) on the circle centered on the point SP1, and exists 4 above, below, left, and right of the point SP1 when viewed in a square lattice. Is a point.
  • the above-described four points are points separated from the point SP1 in the vertical and horizontal directions, and the user can easily capture these in the captured image.
  • Four points can be specified (for example, these four points are clicked with the mouse of the operation unit 208). Based on this identification result, the position of the first point can be measured.
  • FIG. 20 is a diagram for explaining how the coordinates of the second point are generated, and the first point (points SPa, SPb, SPc, SPd) is displayed relatively around the point SP1.
  • the coordinates of the second point can be generated, for example, by linearly interpolating the first point in the angular direction and the radial direction of the circle (interpolating ⁇ and r ( ⁇ ) at equal intervals).
  • the coordinates of the second point can be generated by interpolation between the points SPb and SPc, between the points SPc and SPd, and between the points SPd and SPa.
  • the coordinates of the second point are generated, the coordinates of the point indicating the distorted circular marker are the coordinates of the first point and the second point as the spot position (actual position of the point SP1 in the example of FIG. 20).
  • the association is stored in the memory 212 (step S108).
  • the state of storage is as shown in FIG. 14, for example. In this case, the total number of the first point and the second point is L.
  • Example 2> ⁇ Coordinate generation and storage by projective transformation>
  • the coordinates of the circular marker are calculated in the region converted into the square lattice by the projective transformation, and the coordinates of the distorted circular marker in the distorted lattice region are acquired by inversely converting the calculated coordinates.
  • Processing such as coordinate generation and conversion can be performed by the processor 200 (CPU 210, image processing unit 204), and the generated coordinates are stored in the memory 212 (storage unit).
  • FIG. 21 is a flowchart showing the coordinate generation and storage processing in the second embodiment.
  • the measurement auxiliary light is irradiated to image a square lattice chart (step S200).
  • the relationship between the chart to be imaged and the actual size is preferably the same as that described above for the first embodiment.
  • the position of the spot is measured (step S202).
  • FIG. 22 shows a circle centered on the spot (point SP2) when the imaging distance is the close end (corresponding to the close end E1 in FIG. 9) of the measurement distance range (the range of the image pickup distance where the measurement can be effectively performed).
  • a distorted lattice region QN surrounding the marker is shown.
  • the spot trajectory T2 is a virtual display.
  • the distorted lattice region QN can be specified based on the spot position and the actual size of the marker as in the first embodiment. Note that the distorted lattice region QN is originally a square lattice (square), but the captured image is distorted by the distortion aberration of the imaging optical system 130.
  • step S204 the distorted lattice region (distorted lattice region QN in the example of FIG. 22) surrounding the marker is converted into a square lattice region SQ as shown in FIG. 23 by affine transformation (an aspect of projective transformation).
  • the transformation matrix and the inverse matrix are obtained by inspection after manufacturing the endoscope system 10. For example, the coordinates of lattice points of an image obtained by photographing a lattice chart are measured, and an affine transformation matrix for converting these coordinates into square lattice points is obtained.
  • the areas for obtaining the affine transformation matrix are the distorted lattice area QN (spot position is point SP2) when the imaging distance is the closest end of the measurement distance range, and the lattice area QF (spot position is point SP3) when the imaging distance is the farthest end.
  • a lattice region QD (see FIG. 24) set in a part of the captured image, and it is not necessary to store a transformation matrix for the entire image.
  • FIG. 24 shows an example in which a square lattice area is distorted into a barrel shape due to distortion aberration of the imaging optical system 130.
  • such a lattice region QD is divided into 2 ⁇ m ⁇ n (m, n: integer) triangular small regions (see FIG. 25), and an affine transformation matrix for each of the divided small regions. And its inverse matrix.
  • the same transformation matrix and its inverse matrix are applied to the pixels belonging to the same small area.
  • the size G1 of the small region divided into 2 ⁇ m ⁇ n is “when the imaging distance is the farthest end”
  • the grid area QF is divided so as to be smaller than the grid size G2 ”.
  • the transformation may be performed using the homography matrix.
  • the small area is triangular (consisting of 3 points), whereas in the homography matrix, it can be rectangular (consisting of 4 points). Can be reduced.
  • FIG. 29 is a display example, and shows a state where a distorted circular marker M1A centered on a spot (point SP2) formed on the tumor tm is displayed.
  • the coordinates of the distorted circular marker M1A are generated, the coordinates are stored in the memory 212 in association with the spot position (point SP2 in the example of FIG. 22) (step S210).
  • the state of storage is as shown in FIG. 14, for example. In this case, the number of points indicating the marker is L.
  • the process returns to step S200, and the process is repeated for different imaging distances in the distance range (range R1 in FIG. 9). Further, the above processing may be repeated while changing the actual size, and coordinates may be stored for a plurality of actual sizes (3 mm, 5 mm, 10 mm, etc.). In this case, distorted circular markers having different actual sizes (for example, 3 mm, 5 mm, etc.) may be displayed concentrically.
  • the measurement support device, the endoscope system, and the processor of the endoscope system according to the present invention can be applied to the case of measuring a non-living subject such as a pipe in addition to measuring the living subject.
  • the measurement support apparatus of the present invention is not limited to an endoscope, and can also be applied to measuring dimensions and shapes of industrial parts and the like.
  • Endoscope system 100 Endoscope main body 102 Hand operation part 104 Insertion part 106 Universal cable 108 Light guide connector 112 Soft part 114 Bending part 116 Hard end part 116A Front end surface 123 Illumination part 123A Illumination lens 123B Illumination lens 126 Forceps port 130 Imaging optical system 132 Imaging lens 134 Imaging element 136 Drive circuit 138 AFE 170 Light Guide 200 Processor 202 Image Input Controller 204 Image Processing Unit 206 Video Output Unit 208 Operation Unit 210 CPU 212 Memory 300 Light source device 310 Light source 310A Visible light source 310B Infrared light source 330 Aperture 340 Condensing lens 350 Light source control unit 400 Monitor 500 Laser module 501 Fiber envelope 502 Laser light source module 503 Condensing lens 504 Optical fiber 506 Laser head 507 Reinforcement material 508 Ferrule 509 Housing 510 GRIN lens 512 Prism AL1 Apex angle E1 Near end E2 Distance E3 Far end

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Astronomy & Astrophysics (AREA)
  • Geometry (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)

Abstract

本発明は、簡易な構成で正確な指標を表示できる計測支援装置、内視鏡システム、及び内視鏡システムのプロセッサを提供することを目的とする。本発明の一の態様に係る計測支援装置では、スポットの座標と、被写体における計測対象の実寸サイズを示し撮像光学系の歪曲収差に応じて歪曲した円形マーカを示す点の座標と、を関連づけて記憶部に記憶しておき、計測したスポットの座標に基づいて記憶部を参照して円形マーカを示す点の座標を取得し、取得した座標に基づいて円形マーカを表示するので、距離計測が不要であり、構成が簡易で処理負荷が低い。また、スポットの近傍に円形マーカを表示する(例えば、スポット位置を中心とする)ので、スポット位置とマーカ位置とのずれが少ないため指標として正確であり、また指標を広範囲に表示しないので処理負荷が少ない。

Description

計測支援装置、内視鏡システム、及び内視鏡システムのプロセッサ
 本発明は計測支援装置、内視鏡システム、及び内視鏡システムのプロセッサに係り、特に計測補助光を用いて被検体の大きさを計測する計測支援装置、内視鏡システム、及び内視鏡システムのプロセッサに関する。
 内視鏡等の計測装置の分野では、被検体までの距離を計測したり、被検体の長さ、大きさを算出したりすることが行われている。例えば特許文献1では、ステレオカメラで被写体距離を計測し、被写体距離と内視鏡の視野角とに基づいて被写体の大きさの目安となる目印の大きさを計算し、被写体の画像とともに目印を表示することが記載されており、この目印により被写体の大きさを知ることができる。
 また、特許文献2には測定光を用いて観察部(観察対象)までの距離及び観察部の大きさを求める技術が記載されている。特許文献2では、照明光の照射方向に対して測定光を斜めに照射することで、内視鏡挿入部の先端から観察部までの距離及び観察部の位置の分解能の向上を計っている。また特許文献2では、取得した画像に物差しの画像(スケール画像)を重畳表示して計測に用いることが記載されている。
 また、特許文献3には計測指標となる目盛に光学系の歪曲収差と同等の歪みを与え、歪曲させた目盛をリアルタイムで撮影画像と合成表示することが記載されている。Zhangの手法等により歪曲収差補正用のパラメータ、マトリクスを求め、これに対する逆変換を行うパラメータ、マトリクスを求めることで、目盛の歪曲を計算できる旨が記載されている。
特開2008-122759号公報 特開平7-136101号公報 特開2011-69965号公報
 上述の特許文献1ではステレオカメラにより距離を計測するため2台のカメラが必要であり、内視鏡先端部が大きくなるため被検体への負担が高くなる。さらに、距離計測を行いその結果に基づいて目印の大きさを算出するため、システム構成及び処理が複雑になる。
 内視鏡による観察の場合は被写体に凹凸があることが多く、この場合撮像光学系が被写体に正対しない。このため、計測用の指標は計測光のスポットが当たっている位置において大きさの指標として最も確からしく、スポットの位置から離れるほど指標として不正確になるため、特許文献2のように物差し画像を任意の位置及び角度に移動、回転させると指標として不正確になり易い。
 また、特許文献3では距離センサでレーザ受光量を計測して撮像フレームレートで距離を計算し、その距離における目盛幅を算出するので、システム構成及び処理が複雑になる。また、画面の広い範囲に目盛を表示する場合、広い範囲で歪みを補正する必要があるため変換パラメータ、マトリクスの計算量が多くなり負荷が高くなる上に、Zhangの手法は画面全体を一組(6個)のパラメータで表現するため補正の精度が低い。さらに、画面の広い範囲に目盛を表示する場合、特許文献2について上述したのと同様に目盛の周辺部はスポットから遠くなるため指標として不正確になり易い。
 このように、従来の技術では指標の生成による負荷が高く、また正確な指標を表示することが困難であった。
 本発明はこのような事情に鑑みてなされたもので、簡易な構成で正確な指標を表示できる計測支援装置、内視鏡システム、及び内視鏡システムのプロセッサを提供することを目的とする。
 上述した目的を達成するため、本発明の第1の態様に係る計測支援装置は、計測補助光を出射するヘッドと、計測補助光によりスポットが形成された被写体の画像を撮像光学系及び撮像素子を介して撮像する撮像部と、画像におけるスポットの座標を計測する計測部と、スポットの座標と、被写体における計測対象の実寸サイズを示し撮像光学系の歪曲収差に応じて歪曲した円形マーカを示す点の座標と、を関連づけて記憶する記憶部であって、画像の撮像距離を変化させた場合にスポットが画像を移動する軌跡における複数の点に対して円形マーカを示す点の座標を記憶する記憶部と、計測したスポットの座標に基づいて記憶部を参照して、スポットの座標に対応する円形マーカを示す点の座標を取得する座標取得部と、取得した座標に基づいて画像におけるスポットの近傍に円形マーカを表示させる表示制御部と、を備え、ヘッドは、計測補助光の光軸を撮像光学系の光軸を含む平面に射影した場合に撮像光学系の光軸に対し0度でない傾き角を有し撮像光学系の画角を横切る計測補助光を出射する。
 第1の態様によれば、スポットの座標に基づいて記憶部を参照して円形マーカ(歪曲円形マーカ)を示す点の座標を取得し、取得した座標に基づいて円形マーカを表示するので、距離計測が不要であり、構成が簡易で処理負荷が低い。また、スポットの近傍に円形マーカを表示する(例えば、スポット位置を中心とする)ので、スポット位置とマーカ位置とのずれが少ないため指標として正確であり、また指標を広範囲に表示しないので処理負荷が少ない。
 第1の態様において、撮像距離を変化させた場合にスポットが画像を移動する軌跡は撮像光学系の光軸と計測補助光の光軸との関係に応じて一意に決まるので、この軌跡上の点に対してマーカの座標を求めれば良い。なお、軌跡におけるスポットの位置は撮像距離に対応しているので、スポット位置が異なる場合は実寸サイズが同一でも画像におけるマーカの表示サイズが異なる。
 また、第1の態様において「軌跡における複数の点に対して円形マーカを示す点の座標を記憶する」については、軌跡上の多くの点(例えば、全ての画素)に対してデータを記憶してもよいし、軌跡上の一部の点(画素)に対してのみデータを記憶してもよい。「円形マーカを示す点の座標を取得する」には、記憶されている座標をそのまま用いる態様と、記憶されている座標に基づいて表示に用いる座標を算出する態様とが含まれる。
 また、第1の態様によれば、計測補助光の光軸は撮像光学系の光軸を含む平面に射影した場合に撮像光学系の光軸に対し0度でない傾き角を有し、撮像光学系の画角を横切るので、傾き角を適切に設定することにより観察距離が短い場合でも計測補助光を撮像光学系の視野に入れることができる。さらに、計測補助光の光軸は撮像光学系の光軸を含む平面に射影した場合に撮像光学系の光軸に対し0度でない傾き角を有するので、観察距離の変化に対するスポットの位置変化の感度が高く、計測精度が高い。
 このように、第1の態様に係る計測支援装置によれば、簡易な構成で正確な指標を表示することができる。なお第1の態様において、マーカの表示はリアルタイム(スポット画像を取得するフレームごとに、あるいは複数フレームに対して1回)で行ってもよいし、オフラインで行ってもよい(スポットが形成された画像を取得しておけば、事後的なマーカ表示が可能である)。
 第2の態様に係る計測支援装置は第1の態様において、座標取得部は、複数の点のうちスポットとの距離がしきい値以下の点に対応した円形マーカを示す点の座標を取得する。スポットと離れた点について円形マーカを示す点の座標を取得すると不正確なマーカ(本来表示すべきマーカと形状、大きさが異なるマーカ)になるので、第2の態様のように軌跡における複数の点のうちスポットとの距離がしきい値以下の点に対応した円形マーカを示す点の座標を取得することで、正確なマーカを表示することができる。しきい値は、正確なマーカを表示できるように決める。なお第2の態様において、スポットの位置に対してマーカを示す点の座標が記憶されていれば、上述した「距離」はゼロである。
 第3の態様に係る計測支援装置は第1の態様において、座標取得部は、複数の点のうちスポットを挟む2つ以上の点に対応した座標を内挿して円形マーカを示す点の座標を取得する。第3の態様は座標取得の1つの態様であり、軌跡における全ての点(画素)についてマーカを示す点の座標が記憶されていない場合にこのような処理を行うことができる。
 第4の態様に係る計測支援装置は第1の態様において、座標取得部は、複数の点のうちスポットを挟まない2つ以上の点に対応した座標を外挿して円形マーカを示す点の座標を取得する。第4の態様は、座標取得の他の態様であり、軌跡における全ての点(画素)についてマーカを示す点の座標が記憶されていない場合にこのような処理を行うことができる。
 第5の態様に係る計測支援装置は第1から第4の態様のいずれか1つにおいて、記憶部は、画像において円形マーカによる計測対象の大きさ計測が有効な範囲に対応して円形マーカを示す点の座標を記憶する。撮像光学系の歪曲収差は一般に画角の周辺部で大きくなるので、画像の周辺部では被写体の歪曲が大きくなりマーカによる計測精度が悪化することが多い。また、画像の周辺部では完全なマーカを表示できない(例えば、マーカの一部が画面からはみ出す)場合もある。そこで第5の態様では、このような問題が生じず円形マーカによる計測対象の大きさ計測が有効な範囲に対応して円形マーカを示す点の座標を記憶することとしている。なお「大きさ計測が有効な範囲」は計測精度を考慮して決めることができる。
 第6の態様に係る計測支援装置は第1から第5の態様のいずれか1つにおいて、記憶部は、スポットを中心とした円に対応して実測した複数の第1の点の座標と、複数の第1の点を補間して生成した複数の第2の点の座標と、を円形マーカを示す点の座標として記憶し、座標取得部は複数の第1の点の座標と複数の第2の点の座標とを円形マーカを示す点の座標として取得する。第6の態様は座標取得の1つの態様であり、実測した座標(第1の点の座標)及び補間により求めた座標(第2の点の座標)をマーカを示す点の座標として記憶する。すなわち、マーカ表示に用いる点の全てについて座標を実測しなくてもよい。
 第7の態様に係る計測支援装置は第6の態様において、記憶部は、複数の第1の点を円の角度方向及び径方向に線形補間した点の座標を複数の第2の点の座標として記憶する。第7の態様は、第6の態様における「補間」の具体的な一態様である。
 第8の態様に係る計測支援装置は第1から第5の態様のいずれか1つにおいて、記憶部は、画像においてスポットを中心とした円形マーカを含む歪曲格子領域を正方格子領域に射影変換する変換行列を記憶し、座標取得部は、変換行列により変換された正方格子領域における円形マーカを示す点の座標を取得し、取得した座標を変換行列の逆行列により逆変換して歪曲格子領域における円形マーカを示す点の座標を取得する。第8の態様は座標取得の他の態様であり、正方格子領域では円形マーカを示す点の座標が正確かつ容易に取得できるので、正方格子領域で取得した座標を逆変換することにより、歪曲格子領域における座標を正確かつ容易に算出することができる。変換行列としては射影変換行列を用いることができる。なお、変換行列の逆行列についても記憶しておいてよいし、変換行列から求めてもよい。
 第9の態様に係る計測支援装置は第8の態様において、記憶部は、m及びnを正の整数とした場合に歪曲格子領域及び正方格子領域を2×m×n個に分割した複数の小領域のそれぞれについて変換行列を記憶し、座標取得部は、画像の画素のうち同一の小領域に属する画素に対しては、複数の変換行列のうちの同一の変換行列及び複数の逆行列のうちの同一の逆行列を適用する。第9の態様のように小領域ごとに同一の変換行列、逆行列を適用することで記憶量を削減することができる。
 第10の態様に係る計測支援装置は第9の態様において、記憶部は、撮像距離が計測距離範囲の最遠端である場合の歪曲格子領域及び計測距離範囲の至近端である場合の歪曲格子領域を含む、画像における一部の領域を分割した複数の領域であって、最遠端における歪曲格子領域の格子の大きさよりも小さく分割された複数の領域を複数の小領域として変換行列を記憶し、座標取得部は、複数の小領域に対して記憶された変換行列を用いて円形マーカを示す点の座標を取得する。第10の態様では、撮像画像の一部の領域について領域を分割して変換行列を記憶するので、画像全体に対して変換行列を記憶する必要がなく、処理負荷が低い。また、円形マーカによる計測が有効な距離範囲(計測距離範囲)の最遠端での格子の大きさ(最遠端なので、格子の大きさは最も小さくなる)よりも小さく分割した複数の領域に対して変換行列を記憶することで、正確なマーカを表示することができる。
 第11の態様に係る計測支援装置は第8から第10の態様のいずれか1つにおいて、変換行列はアフィン変換行列である。第11の態様は変換行列の1つの態様を示すものであり、歪曲画像の3点を1つのアフィン変換行列で正方格子の画像に変換することができる。
 上述した目的を達成するため、本発明の第12の態様に係る内視鏡システムは、第1から第11の態様のいずれか1つに係る計測支援装置を備える。第12の態様に係る内視鏡システムでは、第1から第11の態様のいずれか1つに係る計測支援装置を備えるので、簡易な構成で正確な指標を表示することができる。
 第13の態様に係る内視鏡システムは第12の態様において、被検体に挿入される挿入部であって、先端硬質部と、先端硬質部の基端側に接続された湾曲部と、湾曲部の基端側に接続された軟性部とを有する挿入部と、挿入部の基端側に接続された操作部と、を有する内視鏡を備え、ヘッドと、スポットの光学像を撮像素子に結像させる撮像レンズと、が先端硬質部に設けられる。第13の態様は、内視鏡の先端硬質部の構成の一態様を規定するものである。
 上述した目的を達成するため、本発明の第14の態様に係る内視鏡システムのプロセッサは、第12または第13の態様に係る内視鏡システムのプロセッサであって、計測部と、記憶部と、座標取得部と、表示制御部と、を備える。第14の態様によれば、第1の態様と同様に簡易な構成で正確な指標を表示することができる。
 以上説明したように、本発明の計測支援装置、内視鏡システム、及び内視鏡システムのプロセッサによれば、簡易な構成で正確な指標を表示することができる。
図1は、本発明の第1の実施形態に係る内視鏡システムの全体構成を示す図である。 図2は、本発明の第1の実施形態に係る内視鏡システムの構成を示すブロック図である。 図3は、先端硬質部の先端側端面の構成を示す図である。 図4は、レーザモジュールの構成を示す図である。 図5は、レーザ光源モジュールの構成を示す断面図である。 図6は、撮像光学系の光軸と計測補助光の光軸との関係を示す図である。 図7は、内視鏡の挿入部を被検体内に挿入した様子を示す図である。 図8は、計測支援方法の処理を示すフローチャートである。 図9は、計測補助光の光軸が撮像光学系の撮像画角を横切る様子を示す図である。 図10は、撮影距離によりスポット位置が変化する様子を示す図である。 図11は、波長とカラーフィルタの感度との関係を示す図である。 図12は、スポットの移動軌跡における複数の点に対して円形マーカを示す点の座標を記憶する様子を示す図である。 図13は、スポット位置と歪曲円形マーカを示す点の座標との関係を示す図である。 図14は、スポット位置と歪曲円形マーカを示す点の座標とを関連づけて記憶する様子を示す図である。 図15は、スポットとの距離がしきい値以下の点について記憶されたマーカの座標を取得する図である。 図16は、スポット位置を挟む2点の座標を内挿してマーカ座標を取得する様子を示す図である。 図17は、スポット位置を挟まない2点の座標を外挿してマーカ座標を取得する様子を示す図である。 図18は、座標生成及び記憶の実施例1の処理を示すフローチャートである。 図19は、第1の点の位置を実測する様子を示す図である。 図20は、第1の点を補間して第2の点を生成する様子を示す図である。 図21は、座標生成及び記憶の実施例1の処理を示すフローチャートである。 図22は、スポット位置を中心とした歪曲格子領域を示す図である。 図23は、歪曲格子領域を正方格子領域に変換する様子を示す図である。 図24は、変換行列及び逆行列を記憶する領域を示す図である。 図25は、小領域への分割を示す図である。 図26は、小領域の大きさと格子の大きさとの関係を示す図である。 図27は、正方格子領域で円形マーカを示す点の座標を算出する様子を示す図である。 図28は、円形マーカを示す点の座標を歪曲格子領域に座標変換する様子を示す図である。 図29は、歪曲円形マーカを撮像画像に重畳表示する様子を示す図である。
 以下、添付図面を参照しつつ、本発明に係る計測支援装置、内視鏡システム、及び内視鏡システムのプロセッサの実施形態について、詳細に説明する。
 <第1の実施形態>
 図1は、第1の実施形態に係る内視鏡システム10(計測支援装置、内視鏡システム、内視鏡システムのプロセッサ)を示す外観図であり、図2は内視鏡システム10の要部構成を示すブロック図である。図1及び図2に示すように、内視鏡システム10は、内視鏡本体100(内視鏡)、プロセッサ200(内視鏡システムのプロセッサ)、光源装置300、及びモニタ400(表示装置)を備える。
 <内視鏡本体の構成>
 内視鏡本体100は、手元操作部102(操作部)と、この手元操作部102に連設される挿入部104(挿入部)とを備える。術者は手元操作部102を把持して内視鏡本体100を操作し、挿入部104を被検体の体内に挿入して観察する。挿入部104は、手元操作部102側から順に、軟性部112(軟性部)、湾曲部114(湾曲部)、先端硬質部116(先端硬質部)で構成されている。手元操作部102を操作することにより、湾曲部114を湾曲させて先端硬質部116の向きを上下左右に変えることができる。先端硬質部116には、撮像光学系130(撮像部)、照明部123、鉗子口126、レーザモジュール500等が設けられる(図1~3参照)。
 観察、処置の際には、操作部208(図2参照)の操作により、照明部123の照明用レンズ123A,123Bから可視光と赤外光のいずれか、または両方を照射することができる。また、操作部208の操作により図示せぬ送水ノズルから洗浄水が放出されて、撮像光学系130の撮像レンズ132(撮像レンズ)、及び照明用レンズ123A,123Bを洗浄することができる。先端硬質部116で開口する鉗子口126には不図示の管路が連通しており、この管路に腫瘍摘出等のための図示せぬ処置具が挿通されて、適宜進退して被検体に必要な処置を施せるようになっている。
 図1~図3に示すように、先端硬質部116の先端側端面116Aには撮像レンズ132が配設されており、この撮像レンズ132の奥にCMOS(Complementary Metal-Oxide Semiconductor)型の撮像素子134(撮像素子、カラー撮像素子)、駆動回路136、AFE138(AFE:Analog Front End)が配設されて画像信号を出力する。撮像素子134はカラー撮像素子であり、特定のパターン配列(ベイヤー配列、X-Trans(登録商標)配列、ハニカム配列等)でマトリクス状に配置(2次元配列)された複数の受光素子により構成される複数の画素を備え、各画素はマイクロレンズ、赤(R)、緑(G)、または青(B)のカラーフィルタ及び光電変換部(フォトダイオード等)を含んでいる。撮像光学系130は、赤,緑,青の3色の画素信号からカラー画像を生成することもできるし、赤,緑,青のうち任意の1色または2色の画素信号から画像を生成することもできる。
 なお第1の実施形態では撮像素子134がCMOS型の撮像素子である場合について説明するが、撮像素子134はCCD(Charge Coupled Device)型でもよい。
 被検体(腫瘍部、病変部)の画像、スポット(後述)の光学像は撮像レンズ132により撮像素子134の受光面(結像面)に結像されて電気信号に変換され、不図示の信号ケーブルを介してプロセッサ200に出力されて映像信号に変換される。これにより、プロセッサ200に接続されたモニタ400に観察画像、歪曲円形マーカ等が表示される。
 また、先端硬質部116の先端側端面116Aには、撮像レンズ132に隣接して照明部123の照明用レンズ123A(可視光用)、123B(赤外光用)が設けられている。照明用レンズ123A,123Bの奥には、後述するライトガイド170の射出端が配設され、このライトガイド170が挿入部104、手元操作部102、及びユニバーサルケーブル106に挿通され、ライトガイド170の入射端がライトガイドコネクタ108内に配置される。
 先端側端面116Aには、さらにレーザモジュール500のレーザヘッド506(ヘッド)が設けられて、プリズム512(図4参照)を介してスポット光(計測補助光)が照射される。レーザモジュール500の構成は後述する。なお、第1の実施形態では図3に示すようにレーザヘッド506が鉗子口126とは別に設けられているが、先端硬質部116で開口する鉗子口126に連通する管路(不図示)にレーザヘッド506を挿抜可能に挿通してもよい。また、撮像レンズ132と鉗子口126との間にレーザヘッド506を設けてもよい。
 <レーザモジュールの構成>
 図2及び図4に示すように、レーザモジュール500はレーザ光源モジュール502と、光ファイバー504と、レーザヘッド506(ヘッド)とを備える。光ファイバー504の基端側(レーザ光源モジュール502側)はファイバー外皮501で被覆され、先端側(レーザ光を出射する側)はフェルール508(フェルール:ferrule)に挿入されて接着剤で接着され、端面が研磨される。フェルール508の先端側にGRINレンズ510(GRIN:Graded Index)が装着され、GRINレンズ510の先端側にプリズム512が装着されて接合体を形成する。フェルール508は光ファイバー504を保持、接続するための部材であり、中心部には光ファイバー504を挿通するための穴が軸方向(図4の左右方向)に空けられている。フェルール508及びファイバー外皮501の外側に補強材507が設けられて光ファイバー504等を保護する。フェルール508,GRINレンズ510,及びプリズム512はハウジング509に収納され、補強材507及びファイバー外皮501と一体になってレーザヘッド506を構成する。
 レーザヘッド506において、フェルール508は例えば直径が0.8mm~1.25mmのものを用いることができる。小型化のためには細径のものの方が好ましい。上述の構成により、レーザヘッド506全体としての直径を1.0mm~1.5mmにすることができる。
 このように構成されたレーザモジュール500は挿入部104に装着される。具体的には、図2に示すようにレーザ光源モジュール502が手元操作部102に設けられ、レーザヘッド506が先端硬質部116に設けられて、光ファイバー504がレーザ光をレーザ光源モジュール502からレーザヘッド506まで導光する。なお、レーザ光源モジュール502を光源装置300内に設け、レーザ光を光ファイバー504により先端硬質部116まで導光してもよい。
 図5に示すように、レーザ光源モジュール502は、図示せぬ電源から電力が供給されて可視波長域のレーザ光(計測補助光)を出射するVLD(Visible Laser Diode)と、VLDから出射されたレーザ光を集光する集光レンズ503とを備えるピグテール型モジュール(TOSA;Transmitter Optical Sub Assembly)である。レーザ光はプロセッサ200(CPU210)の制御により必要に応じて出射することができ、計測を行う場合(計測モード)のみレーザ光を出射させることで、非出射時には通常の内視鏡と同様に使用することができる(通常モード)。
 第1の実施形態において、VLDが出射するレーザ光は半導体レーザによる波長650nmの赤色レーザ光とすることができる。ただし本発明におけるレーザ光の波長はこの態様に限定されるものではない。集光レンズ503で集光されたレーザ光は、光ファイバー504によりGRINレンズ510まで導光される。光ファイバー504はレーザ光をシングル横モードで伝搬させる光ファイバーであり、径が小さく鮮明なスポットを形成することができるので、被写体(計測対象)の大きさを正確に計測することができる。光ファイバー504の途中に中継コネクタを設けてもよい。なお、被写体の種類、大きさ等の観察条件によってスポット径の大きさ、鮮明さが計測上問題とならない場合は、光ファイバー504として、レーザ光をマルチモードで伝搬させる光ファイバーを用いてもよい。また、光源としては半導体レーザの代わりにLED(Light-Emitting Diode)を用いてもよく、半導体レーザを発振しきい値以下のLED発光状態で使用してもよい。
 GRINレンズ510は、屈折率が光軸で最も高く半径方向外側に向かうにつれて減少する円筒型のグレーデッドインデックス型レンズ(ラジアル型)であり、光ファイバー504により導光されて入射したレーザ光を平行な光束にして出射するコリメータとして機能する。GRINレンズ510から出射される光束の広がりはGRINレンズ510の長さを調節することで調節でき、平行な光束のレーザ光を出射させるには(λ/4)ピッチ(λはレーザ光の波長)程度にすればよい。
 GRINレンズ510の先端側にはプリズム512が装着されている。このプリズム512は計測補助光の出射方向を変更するための光学部材であり、出射方向を変更することにより、計測補助光の光軸を撮像光学系の光軸を含む平面に射影した場合に、計測補助光の光軸が撮像光学系の光軸に対し0度でない傾き角を有し、計測補助光が撮像光学系の画角を横切る。プリズム512はGRINレンズ510のレンズ径に近い大きさに形成されており、先端面が斜めにカットされて上述した傾き角に応じた頂角AL1を有する。頂角AL1の値はレーザ光の出射方向その他の条件に応じて設定することができる。
 <撮像光学系の光軸と計測補助光の光軸の関係>
 図6は第1の実施形態に係る先端硬質部116を前方(被写体側)から見た状態を示す図であり、図3の構成に対応する図である。第1の実施形態では、計測補助光の光軸L1と撮像光学系の光軸L2とは同一平面上に存在し、その同一平面上で交差する。したがって、先端硬質部116を前方(被写体側)から見ると、図6のように光軸L1が光軸L2上を通るように見える。
 なお、本発明における計測補助光の光軸L1と撮像光学系の光軸L2との関係は、上述した「計測補助光の光軸と撮像光学系の光軸とが同一平面上に存在し、その同一平面上で交差する」態様に限定されるものではなく、計測補助光の光軸が撮像光学系の光軸と同一平面上に存在しなくてもよい。しかしながらこのような場合においても、計測補助光の光軸を撮像光学系の光軸を含む平面に射影した場合に、計測補助光の光軸は撮像光学系の光軸に対し0度でない傾き角を有し撮像光学系の画角を横切るものとする。
 計測補助光を用いた計測を行う場合、計測補助光の光軸が撮像光学系の光軸と平行(傾き角が0度)であると、光軸同士の間隔によっては計測補助光の光軸が撮像光学系の画角を横切る点までの距離が遠くなり、その結果至近距離ではスポットが撮影できず計測が困難になる。また、計測補助光の光軸が撮像光学系の光軸と平行であると、観察距離の変化に対するスポット位置変化の感度が低く、十分な計測精度が得られない場合がある。これに対し第1の実施形態のように「計測補助光の光軸を撮像光学系の光軸を含む平面に射影した場合に、計測補助光の光軸は撮像光学系の光軸に対し0度でない傾き角を有し撮像光学系の画角を横切る」という構成によれば、至近距離から遠距離まで広範囲の観察距離で計測でき、また距離変化に対するスポット位置変化の感度が高いため高精度に計測することができる。
 <光源装置の構成>
 図2に示すように、光源装置300は、照明用の光源310、絞り330、集光レンズ340、及び光源制御部350等から構成されており、照明光(可視光または赤外光)をライトガイド170に入射させる。光源310は、可視光源310A及び赤外光源310Bを備えており、可視光及び赤外光の一方または両方を照射可能である。可視光源310A及び赤外光源310Bによる照明光の照度は、光源制御部350により制御され、スポットを撮像して計測する際(計測モード時)に必要に応じて照明光の照度を下げたり、照明を停止したりすることができる。
 ライトガイドコネクタ108(図1参照)を光源装置300に連結することで、光源装置300から照射された照明光がライトガイド170を介して照明用レンズ123A、123Bに伝送され、照明用レンズ123A、123Bから観察範囲に照射される。
 <プロセッサの構成>
 次に、図2に基づきプロセッサ200(計測部、記憶部、座標取得部、表示制御部)の構成を説明する。プロセッサ200は、内視鏡本体100から出力される画像信号を画像入力コントローラ202を介して入力し、画像処理部204(計測部、座標取得部、表示制御部)で必要な画像処理を行ってビデオ出力部206を介して出力する。これによりモニタ400(表示装置)に観察画像が表示される。これらの処理はCPU210(CPU:Central Processing Unit;中央処理装置)の制御下で行われる。すなわち、CPU210は計測部、座標取得部、及び表示制御部としての機能を有する。画像処理部204では、ホワイトバランス調整等の画像処理の他、モニタ400に表示する画像の切替、重畳表示、電子ズーム処理、操作モードに応じた画像の表示、画像信号からの特定成分(例えば輝度信号)の抽出等を行う。また画像処理部204では、撮像素子134の結像面におけるスポット位置の測定、測定した位置に基づくマーカの大きさ(ピクセル数)の算出等が行われる(後述)。画像処理部204における各種の処理を実行するためのハードウェア的な構造としては、CPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)等のプロセッサ(電気回路)を挙げることができる。画像処理部204は1つのプロセッサで構成されていてもよいし、複数のプロセッサを組み合わせて構成されていてもよい。メモリ212(記憶部)は各種処理の際の一時記憶用の記憶素子と不揮発性の記憶素子(非一時的記録媒体)とを含み、CPU210及び/または画像処理部204の制御により、スポットの座標と、被写体における計測対象の実寸サイズを示し撮像光学系130の歪曲収差に応じて歪曲した円形マーカを示す点の座標と、が関連づけて記憶される(後述)。また、メモリ212には後述する計測支援方法をCPU210及び/または画像処理部204に実行させるプログラムのコンピュータ読み取り可能なコードが記憶されている。
 また、プロセッサ200は操作部208を備えている。操作部208は図示せぬ操作モード設定スイッチ、送水指示ボタン等を備えており、また可視光及び/または赤外光の照射を操作することができる。また、操作部208は図示せぬキーボード、マウス等のデバイスを含み、ユーザはこれらデバイスを介して各種処理条件、表示条件の等を入力することができる。
 <内視鏡による観察>
 図7は内視鏡本体100の挿入部104を被検体内に挿入した状態を示す図であり、撮像光学系130を介して撮像範囲IAについて観察画像を取得する様子を示している。図7では、スポットSP0が腫瘍tm(黒色で隆起している部分)の付近に形成されている様子を示す。
 <計測処理の流れ>
 次に、内視鏡システム10を用いた被検体の計測支援方法について説明する。図8は計測支援方法の処理を示すフローチャートである。
 まず、内視鏡本体100の挿入部104を被検体に挿入し、内視鏡システム10を通常観察モードに設定する(ステップS10)。通常観察モードは、光源装置300から照射される照明光を被写体に照射して画像を取得し、被写体を観察するモードである。通常観察モードへの設定は内視鏡システム10の起動時にプロセッサ200が自動的に行ってもよいし、ユーザによる操作部208の操作に応じて行ってもよい。
 内視鏡システム10が通常観察モードに設定されたら、照明光を照射して被写体を撮像し、モニタ400に表示する(ステップS12)。被写体の画像としては静止画を撮像してもよいし、動画を撮像してもよい。撮像の際は、被写体の種類、観察の目的等に応じて照明光の種類(可視光または赤外光)を切り換えることが好ましい。ユーザはモニタ400に表示される画像を見ながら挿入部104を進退及び/または屈曲操作して先端硬質部116を観察対象に向け、計測したい被写体を撮像する。
 次に、通常観察モードから計測モードに移行するか否かを判断する(ステップS14)。この判断は操作部208を介したユーザ操作の有無に基づいて行ってもよいし、プロセッサ200からの切替指令の有無に基づいて行ってもよい。また、プロセッサ200が一定のフレーム間隔(1フレームごと、2フレームごと等)で通常観察モードと計測モードとを交互に設定してもよい。ステップS14の判断が否定されるとステップS12へ戻って通常観察モードでの撮像を継続し、判断が肯定されるとステップS16へ進んで計測モードに切り替える。
 計測モードは、レーザヘッド506からレーザ光(計測補助光)を照射して被写体にスポットを形成し、スポットが形成された被写体の画像に基づいて被写体の大きさ(長さ)を計測するためのマーカを生成及び表示するモードである。第1の実施形態では計測補助光として赤色レーザ光を用いるが、内視鏡画像では消化管に赤みがかったものが多いので、計測条件によってはスポットを認識しにくくなる場合がある。そこで計測モードでは、スポットの画像取得及び位置計測の際に照明光を消灯するか、スポットの認識に影響が出ない程度に照度を下げ(ステップS18)、レーザヘッド506から計測補助光を照射する(ステップS20)。このような制御は、プロセッサ200及び光源制御部350により行うことができる。
 ステップS22では、計測補助光によりスポットが形成された被写体の画像を撮像する。観察距離が計測範囲内である場合、撮像光学系130の撮影画角内にスポットが形成される。以下に詳細を説明するように、観察距離に応じて画像内の(撮像素子上の)スポットの位置が異なり、表示すべきマーカの大きさ(ピクセル数)がスポットの位置に応じて異なる。
 <観察距離に応じたスポット位置の変化>
 第1の実施形態では、計測補助光の光軸L1を撮像光学系の光軸L2を含む平面に射影した場合に、光軸L1が光軸L2に対し0度でない傾き角を有し、撮像光学系130の画角を横切る。したがって、画像(撮像素子)におけるスポットの位置は被写体までの距離によって異なる。例えば、図9(光軸L1及び光軸L2を含む平面内において、先端硬質部116を側面方向から見た状態を示す図)に示すように、観察距離の範囲R1において観察可能であるとすると、範囲R1の至近端E1、中央付近の距離E2、及び最遠端E3では、各点での撮像範囲(矢印Q1,Q2,Q3で示す)におけるスポットの位置(各矢印と光軸L1が交わる点)が異なることが分かる。なお、図9において実線の内側が撮像光学系130の撮像画角であり、一点鎖線の内側が計測画角である。撮像光学系130の撮像画角のうち収差の少ない中央部分で計測を行っている。図9における範囲R1及び計測画角が「撮像画像において、円形マーカによる計測対象の大きさ計測が有効な範囲」に対応する。
 図10は図6と同様に先端硬質部116を正面から見た状態を示す図であり、撮像光学系130の光軸L2、計測補助光の光軸L1、及び撮像素子134の撮像範囲R2の関係を仮想的に示した図である。図10は光軸L1,L2が同一平面上に存在し、その平面上で交差する場合を示している。図10の例では、観察距離に応じたスポット位置P4,P5,P6(観察距離がそれぞれ至近端付近、中央付近、最遠端付近の場合に対応)を示している。
 図10に示すように、観察距離が至近端付近の場合のスポット位置P4と最遠端付近の場合のスポット位置P6とは、撮像光学系130の光軸L2に対し反対側に位置することが分かる。したがって第1の実施形態では観察距離の変化に対するスポット位置の移動の感度が高く、被写体の大きさを高精度に計測することができる。
 このように、撮像画像内(撮像素子134上)のスポット位置は撮像光学系130の光軸L2と計測補助光の光軸L1との関係、及び観察距離に応じて異なるが、観察距離が近ければ同一の実寸サイズ(例えば直径5mm)を示すピクセル数が多くなり、観察距離が遠ければピクセル数が少なくなる。したがって、詳細を後述するように、スポットの位置(座標)と、被写体における計測対象の実寸サイズを示し撮像光学系130の歪曲収差に応じて歪曲した円形マーカを示す点の座標と、を関連づけて記憶しておき、計測したスポット位置(座標)に応じて記憶された情報を参照することで、円形マーカを示す点の座標を取得することができる。円形マーカを示す点の座標を取得する際に観察距離そのものを測定する必要がないので、構成が簡易で処理負荷が低い。
 図8のフローチャートに戻り、撮像素子134の撮像面におけるスポットの位置計測(ステップS24)について説明する。ステップS24におけるスポットの位置計測は、赤(R)色のフィルタ色のカラーフィルタが配設された画素の画素信号により生成される画像により行う。ここで、撮像素子134の各画素に配設されている各色(赤,緑,青)のカラーフィルタにおける波長と感度との関係は図11の通りであり、また上述のように、レーザヘッド506から出射されるレーザ光は波長650nmの赤色レーザ光である。即ち、スポット位置の測定は(赤,緑,青)のカラーフィルタのうちレーザ光の波長に対する感度が最も高い赤色のカラーフィルタが配設された画素(R画素)の画像信号により生成される画像に基づいて行われる。この際、画素信号のビットマップデータまたはRAW(Raw image format)データのR画素の信号強度にしきい値を設けて二値化し、白部分(信号強度がしきい値より高い画素)の重心を算出することで、スポットの位置を高速に認識することができる。なお、実画像(全ての色の画素信号により生成される画像)によりスポットを認識する場合は、緑色及び青色のカラーフィルタが配設された画素(G画素、B画素)の画素信号にしきい値を設け、ビットマップデータがあるG画素及びB画素の画素信号の値がしきい値以下の画素のみを抽出することが好ましい。
 なお、計測モードでは上述のようにスポットの画像取得(ステップS22)及び位置計測(ステップS24)に際して照明光を消灯するかスポットの認識に影響が出ない程度に照度を下げて(ステップS18)、レーザヘッド506から計測補助光を照射する(ステップS20)。これによりスポットが鮮明な画像を取得することができ、スポットの位置を正確に計測して適切な大きさのマーカを生成及び表示することができる。
 ステップS26では、プロセッサ200(CPU210,画像処理部204)は、被写体における計測対象の実寸サイズを示し撮像光学系130の歪曲収差に応じて歪曲した円形マーカ(歪曲円形マーカ)を示す点の座標を取得する。上述のように、モニタ400上でのマーカの大きさは画像内の(即ち、撮像素子134の撮像面上の)スポットの位置に応じて異なるので、スポットの座標と、被写体における計測対象の実寸サイズを示し撮像光学系130の歪曲収差に応じて歪曲した円形マーカを示す点の座標と、を関連づけてメモリ212に記憶しておき、ステップS24で計測したスポット位置に応じてプロセッサ200がメモリ212を参照し、歪曲円形マーカを示す点の座標を取得する。スポット位置と歪曲円形マーカを示す点の座標との関係を求める手順については、詳細を後述する。
 ステップS28では、観察画像及び歪曲円形マーカをモニタ400に表示する(例えば、図29の例を参照)。この際、歪曲円形マーカがスポットから離れた位置に表示されると指標として不正確になるので、観察画像におけるスポットの近傍に(例えば、スポットを中心として)歪曲円形マーカを表示する。なお、観察画像及び歪曲円形マーカを表示する際に画像の歪曲収差を補正する必要はない。このため補正により画像の見た目が変わることがなく、観察者が違和感を覚えずに画像を観察することができる。実寸サイズの異なる歪曲円形マーカ(例えば、3mm,5mm等)を同心円状に表示してもよいし、歪曲円形マーカに加え他のマーカ(例えば、十字型マーカ)を表示してもよい。また、表示条件(マーカの種類、数、実寸サイズ、色等)は、操作部208を介したユーザの操作により設定することができる。
 ステップS30では計測モードを終了するか否かを判断する。この判断は操作部208を介したユーザ操作に基づいて行ってもよいし、プロセッサ200からの切替指令の有無に基づいて行ってもよい。また、計測モードへの移行の際と同様に、一定フレーム数が経過したら自動的に計測モードを終了して通常観察モードに復帰してもよい。ステップS30の判断が否定されるとステップS20へ戻り、ステップS20からステップS28の処理を繰り返す。ステップS30の判断が肯定されるとステップS32に進んで計測補助光を消灯し、続いてステップS34で照明光の照度を通常照度に戻して通常観察モードに復帰する(ステップS10へ戻る)。なお、通常観察モードでの観察に支障がなければ、計測補助光を消灯しなくてもよい。
 以上説明したように、第1の実施形態に係る内視鏡システム10では簡易な構成で正確な指標(歪曲円形マーカ)を表示でき、これにより被写体の大きさを正確かつ容易に計測することができる。
 <歪曲円形マーカを示す点の座標>
 第1の実施形態では、撮像素子134の撮像面におけるスポットの位置と歪曲円形マーカを示す点の座標とを関連づけてメモリ212(記憶部)に記憶しておき、計測したスポット位置に応じてメモリ212を参照して座標を取得する。以下、座標の記憶について説明する。
 <マーカ座標の記憶>
 第1の実施形態では、観察距離(撮像距離)を変化させた場合にスポットが撮像画像を移動する軌跡における複数の点に対して、歪曲円形マーカを示す点の座標を記憶する。撮像距離を変化させた場合の撮像画像におけるスポットの移動軌跡は計測補助光の光軸L1と撮像光学系130の光軸L2との関係により定まり、図10に示す関係の場合は直線となるが、撮像光学系130に歪曲収差がある場合はその歪曲収差に応じて歪曲する。
 図12は座標記憶の様子を示す図であり、スポットの軌跡T1におけるK個の点(点P1~PK;Kは2以上の整数)について歪曲円形マーカを示す点の座標を記憶する様子を示す。点P1~点PKは歪曲円形マーカによる大きさ計測が有効な範囲(軌跡T1の実線部分;図9における一点鎖線の内側に対応)であり、点P1が計測有効範囲の至近端である場合のスポット位置を示し、点PKが最遠端である場合のスポット位置を示す。なお、図12における軌跡T1は仮想的に示したものである。
 スポットが軌跡T1の点線部分(撮像画像の周辺部分)に存在する場合は歪曲収差が大きくなり、またスポットが軌跡T1の至近端側(点線T1N部分)に存在する場合は歪曲円形マーカの一部が画像外となる、あるいは最遠端側(点線T1F部分)に存在する場合はマーカが小さくなる等の問題があり、いずれも計測に適さない。そこで第1の実施形態では、歪曲円形マーカによる計測対象の大きさ計測が有効なスポット位置の範囲に対応して座標を記憶する。
 図13はスポット位置と歪曲円形マーカを示す点の座標との関係を示す図であり、点Pi(スポットの位置)を中心としたL個の点(点Pi1,Pi2,…,Pij,…,PiL;Lは整数)により歪曲円形マーカを示している。Lの値はマーカの形状精度の要求に基づいて決めることができ、数が多いほど正確なマーカを表示することができる。L個の点の間を直線または曲線でつないでもよい。また、図14はスポット位置と歪曲円形マーカを示す点の座標とを関連づけて記憶する様子を示す。歪曲円形マーカを示す点の座標(例えば、点Piに対し点Pi1~PiLの座標)の生成については後述する。
 <座標の取得>
 歪曲円形マーカを表示する場合は、プロセッサ200(CPU210,画像処理部204)が、計測したスポットの座標に基づいてメモリ212(記憶部)を参照して歪曲円形マーカを示す点の座標を取得する。ここでいう「取得」は、記憶された座標を用いること、及び記憶された座標に基づいて生成した座標を用いることを含む。以下、座標取得の具体的態様を説明する。
 <座標取得の態様1>
 図15は、スポットが移動する軌跡T1において歪曲円形マーカを示す点の座標が記憶された複数の点(図12~14の例ではK個)のうち、計測されたスポットとの距離がしきい値以下の点に対応して歪曲円形マーカを示す点の座標を取得する様子を示す図である。図15の例では、点P2とスポットが存在する点Piとの距離がD1であり、点P3と点Piとの距離がD2である(点P2,P3に対し、歪曲円形マーカを示す点の座標が記憶されている)。また、スポットとの距離に対するしきい値をTHとすると、TH<D1、TH>D2であるものとする。この場合、態様1ではスポットとの距離がしきい値以下である点P2に対し記憶されている座標(図12~14の例ではL個)を、点Piにおける歪曲円形マーカを示す座標として取得する。スポットとの距離がしきい値以下の点が複数ある場合は、スポットとの距離が最も近い点に対応する座標を取得してマーカの精度を向上させることが好ましい。なお、スポットとの距離の算出、及びしきい値との比較はプロセッサ200(CPU210,画像処理部204)により行うことができる。また、しきい値は歪曲円形マーカの精度、計測精度等に応じて決めることができる。
 <座標取得の態様2>
 態様2では、スポットが移動する軌跡における複数の点のうち、計測されたスポットを挟む2つ以上の点に対応した座標を内挿して歪曲円形マーカを示す点の座標を取得する。図16の例では、点P2に対する座標(L個;図13,14参照)と、点P3に対する座標(L個;図13,14参照)とを対応する点同士(例えば、図14に示す点P21と点P31)で内挿して、点Piに対するL個の点の座標を取得する。内挿の計算はプロセッサ200(CPU210,画像処理部204)により行うことができる。
 <座標取得の態様3>
 態様3では、軌跡における複数の点のうちスポットを挟まない2つ以上の点に対応した座標を外挿して歪曲円形マーカを示す点の座標を取得する。図17の例では、点P1に対する座標(L個;図13,14参照)と、点P2に対する座標(L個;図13,14参照)とを対応する点同士(例えば、図14に示す点P11と点P21)で外挿して点Piに対するL個の点の座標を取得する。外挿の計算はプロセッサ200(CPU210,画像処理部204)により行うことができる。
 <その他の態様>
 上述した態様1~3では、歪曲円形マーカを示す点の座標は軌跡上の一部の点について記憶しておけばよい。これに対し、軌跡上の全ての点(画素)に対して座標を記憶しておき、記憶された座標をそのまま取得してもよい。このような態様の場合、点同士の距離の計算、補間計算等を省略することができる。
 <歪曲円形マーカを示す点の座標生成及び記憶>
 次に、歪曲円形マーカを示す点の座標生成及び記憶の具体的態様について説明する。
 <実施例1>
 <実測点の補間による座標生成及び記憶>
 図18は、実施例1における座標生成及び記憶の処理を示すフローチャートである。実施例1では、実測した点(第1の点)及び実測した点を補間して生成した点(第2の点)を、歪曲円形マーカを示す点の座標として記憶する。座標の実測、変換等(図18のフローチャートにおける各処理)はプロセッサ200(CPU210、画像処理部204)により行うことができ、生成された座標はメモリ212(記憶部)に記憶される。
 まず、処理対象とする実寸サイズ(以下では直径5mmとして説明するが、計測目的に応じて異なる値でもよい)に対し、歪曲円形マーカによる計測が有効な距離範囲(図9の範囲R1を参照)において設定した撮像距離で、計測補助光を照射して方眼紙のような正方格子状のチャートを撮像する(ステップS100)。撮像するチャートは、格子の間隔が実寸サイズ以下であり、かつ間隔ができるだけ細かいことが好ましい。また、格子の間隔が所望の実寸サイズの(1/整数)の間隔である(歪曲円形マーカの実寸サイズが直径5mmの場合、格子の間隔が0.5mm,1mm,1.25mm,2.5mm等)ことが好ましい。また、手元操作部102を操作して先端硬質部116の向きを変えスポットが格子の交点に位置した状態で撮像することにより、以下に示す第1の点の特定を容易にすることが好ましい。
 次に、撮像画像におけるスポットの位置を計測する(ステップS102)。図19は0.5mm間隔の正方格子状のチャートを撮影した場合の例を示す図であり、点SP1がレーザ光(計測補助光)により形成されたスポットを示す。撮像画像において、正方格子状のチャートは撮像光学系130の歪曲収差により歪曲している。このような画像において、スポットの位置(点SP1の位置)を計測し(ステップS102)、続いて第1の点の位置を計測(実測)する(ステップS104)。図19の例において第1の点は点SP1を中心とした円上の4点(点SPa,SPb,SPc,SPd)であり、正方格子で見たときに点SP1の上下左右に存在する4点である。図19の例では実寸サイズが直径5mm、格子の間隔が0.5mmなので、上述した4点は点SP1から上下左右に格子5個分離れた点であり、ユーザは撮像画像で容易にこれらの4点を特定することができる(例えば、操作部208が有するマウスでこれら4点をクリックする)。この特定結果に基づいて第1の点の位置を計測することができる。
 第1の点の座標を計測したら、第1の点の座標を補間して第2の点の座標を生成する(ステップS106)。図20は第2の点の座標を生成する様子を説明するための図であり、点SP1を中心として第1の点(点SPa,SPb,SPc,SPd)を相対的に表示している。第2の点の座標は、例えば第1の点を円の角度方向及び径方向に線形補間(θ、r(θ)を等間隔に補間)して生成することができる。具体的には、点SPaと点SPbとの間ではこれら2点の座標((Xa,Ya),(Xb,Yb))を用いて以下のように第2の点(点SPi)の座標(極座標系では(θi,r(θi))、直交座標系では(Xi,Yi))を算出することができる。なお、以下の式において点SPa,SPbの間に(n-1)個(nは2以上の整数)の第2の点を生成するものとし、iは0以上n以下の整数とする。
Figure JPOXMLDOC01-appb-M000001
 同様に、点SPbと点SPcの間、点SPcと点SPdの間、及び点SPdと点SPaの間についても補間により第2の点の座標を生成することができる。第2の点の座標が生成されたら、歪曲円形マーカを示す点の座標として、第1の点及び第2の点の座標をスポットの位置(図20の例では点SP1の実際の位置)と関連づけてメモリ212に記憶する(ステップS108)。記憶の様子は例えば図14のようになり、この場合第1の点及び第2の点の合計数はL個である。設定した撮像距離について座標取得、生成、及び記憶が終了したらステップS100に戻り、距離範囲(図9の範囲R1)における異なる撮像距離について処理を繰り返す。また、実寸サイズを変えて上述の処理を繰り返し、複数の実寸サイズ(3mm,5mm,10mm等)について座標を記憶してもよい。この場合、実寸サイズの異なる歪曲円形マーカ(例えば、3mm,5mm等)を同心円状に表示してもよい。
 <実施例2>
 <射影変換による座標生成及び記憶>
 次に、歪曲円形マーカを示す点の座標生成及び記憶の実施例2について説明する。実施例2では、射影変換により正方格子に変換した領域で円形マーカの座標を算出し、算出した座標を逆変換して歪曲格子領域における歪曲円形マーカの座標を取得する。座標の生成、変換(図21のフローチャートにおける各処理)等の処理はプロセッサ200(CPU210、画像処理部204)により行うことができ、生成された座標はメモリ212(記憶部)に記憶される。
 図21は、実施例2における座標生成及び記憶の処理を示すフローチャートである。まず、実施例1のステップS100と同様に、計測補助光を照射して正方格子状のチャートを撮像する(ステップS200)。撮像するチャートと実寸サイズとの関係は実施例1について上述したものと同様とすることが好ましい。撮像したら、スポットの位置を計測する(ステップS202)。図22は、撮像距離が計測距離範囲(計測を有効に行える撮像距離の範囲)の至近端(図9の至近端E1に相当)の場合に、スポット(点SP2)を中心とする円形マーカを包接する歪曲格子領域QNを示している。スポットの軌跡T2は仮想的な表示である。正方格子状のチャートを撮像するので、実施例1と同様にスポットの位置及びマーカの実寸サイズに基づいて歪曲格子領域QNを特定することができる。なお、歪曲格子領域QNは本来正方格子(正方形)であるが、撮像画像においては撮像光学系130の歪曲収差により歪曲している。
 <変換行列による正方格子領域への変換>
 ステップS204では、マーカを包接する歪曲格子領域(図22の例では歪曲格子領域QN)をアフィン変換(射影変換の一態様)により図23に示すような正方格子領域SQに変換する。変換行列及び逆行列は、内視鏡システム10の製造後の検査により求めておく。例えば、格子状チャートを撮影した画像の格子点の座標を計測し、この座標を正方格子点に変換するアフィン変換行列を求める。アフィン変換行列を求める領域は、撮像距離が計測距離範囲の至近端の場合の歪曲格子領域QN(スポット位置は点SP2)と最遠端の場合の格子領域QF(スポット位置は点SP3)とを含む、撮像画像の一部に設定された格子領域QD(図24参照)であり、画像全体について変換行列を記憶しておく必要はない。なお、図24では正方格子状の領域が撮像光学系130の歪曲収差により樽型に歪曲した場合の例を示している。
 実施例2では、このような格子領域QDを2×m×n個(m,n:整数)の三角形状の小領域(図25参照)に分割し、分割した小領域のそれぞれについてアフィン変換行列及びその逆行列を記憶する。格子領域QDの画素のうち、同一の小領域に属する画素に対しては同一の変換行列及びその逆行列を適用する。なお、図26(格子領域QDのうち格子領域QF付近を拡大)に示すように、「2×m×n個に分割された小領域の大きさG1」が「撮像距離が最遠端の場合の格子領域QFの格子の大きさG2」よりも小さくなるように分割する。このような分割により、マーカの表示サイズが小さくなる最遠端においても正確な歪曲円形マーカを表示することができる。
 なお、実施例2ではアフィン変換行列により歪曲格子から正方格子への変換を行う場合について説明しているが、ホモグラフィ行列により変換を行ってもよい。上述のようにアフィン変換行列では小領域が三角形状(3点で構成される)であるのに対し、ホモグラフィ行列では四角形状(4点で構成される)にできるため、小領域の数を減らすことができる。
 <円形マーカの座標算出>
 ステップS204により歪曲格子領域QNが正方格子領域SQに変換されたら、図27に示すように正方格子領域SQにおいて円形マーカM1を示す点の座標を算出する(ステップS206)。正方格子領域に変換されているので、円形マーカの座標を容易に算出することができる。
 <円形マーカの座標を歪曲座標に変換>
 円形マーカの座標が得られたら、上述した変換行列の逆行列を用いて歪曲円形マーカM1Aに変換する(ステップS208;図28参照)。歪曲円形マーカM1Aは、図8のフローチャート(ステップS28)について説明したように、撮像画像に重畳して表示される。図29は表示の例であり、腫瘍tm上に形成されたスポット(点SP2)を中心とする歪曲円形マーカM1Aが表示された様子を示している。
 歪曲円形マーカM1Aの座標が生成されたら、スポットの位置(図22の例では点SP2)と関連づけてメモリ212に記憶する(ステップS210)。記憶の様子は例えば図14のようになり、この場合マーカを示す点の数はL個である。設定した撮像距離について座標取得、生成、及び記憶が終了したらステップS200に戻り、距離範囲(図9の範囲R1)における異なる撮像距離について処理を繰り返す。また、実寸サイズを変えて上述の処理を繰り返し、複数の実寸サイズ(3mm,5mm,10mm等)について座標を記憶してもよい。この場合、実寸サイズの異なる歪曲円形マーカ(例えば、3mm,5mm等)を同心円状に表示してもよい。
 <その他>
 本発明の計測支援装置、内視鏡システム、及び内視鏡システムのプロセッサは、生体である被検体を計測する以外に、配管等の生体でない被検体を計測する場合にも適用できる。また本発明の計測支援装置は、内視鏡に限らず、工業用部品等の寸法、形状を計測する場合にも適用することができる。
 以上で本発明の実施形態及び実施例に関して説明してきたが、本発明は上述した態様に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能である。
10   内視鏡システム
100  内視鏡本体
102  手元操作部
104  挿入部
106  ユニバーサルケーブル
108  ライトガイドコネクタ
112  軟性部
114  湾曲部
116  先端硬質部
116A 先端側端面
123  照明部
123A 照明用レンズ
123B 照明用レンズ
126  鉗子口
130  撮像光学系
132  撮像レンズ
134  撮像素子
136  駆動回路
138  AFE
170  ライトガイド
200  プロセッサ
202  画像入力コントローラ
204  画像処理部
206  ビデオ出力部
208  操作部
210  CPU
212  メモリ
300  光源装置
310  光源
310A 可視光源
310B 赤外光源
330  絞り
340  集光レンズ
350  光源制御部
400  モニタ
500  レーザモジュール
501  ファイバー外皮
502  レーザ光源モジュール
503  集光レンズ
504  光ファイバー
506  レーザヘッド
507  補強材
508  フェルール
509  ハウジング
510  GRINレンズ
512  プリズム
AL1  頂角
E1   至近端
E2   距離
E3   最遠端
IA   撮像範囲
L1   光軸
L2   光軸
M1   円形マーカ
M1A  歪曲円形マーカ
P1   点
P2   点
P3   点
Pi   点
Pi1  点
Pi2  点
Pij  点
PiL  点
PK   点
P4   スポット位置
P5   スポット位置
P6   スポット位置
Q1   矢印
Q2   矢印
Q3   矢印
QD   格子領域
QF   格子領域
QN   歪曲格子領域
R1   範囲
R2   撮像範囲
S10~S210 計測支援方法の各ステップ
SQ   正方格子領域
T1   軌跡
T2   軌跡
tm   腫瘍

Claims (14)

  1.  計測補助光を出射するヘッドと、
     前記計測補助光によりスポットが形成された被写体の画像を撮像光学系及び撮像素子を介して撮像する撮像部と、
     前記画像における前記スポットの座標を計測する計測部と、
     前記スポットの座標と、前記被写体における計測対象の実寸サイズを示し前記撮像光学系の歪曲収差に応じて歪曲した円形マーカを示す点の座標と、を関連づけて記憶する記憶部であって、前記画像の撮像距離を変化させた場合に前記スポットが前記画像を移動する軌跡における複数の点に対して前記円形マーカを示す点の座標を記憶する前記記憶部と、
     前記計測した前記スポットの座標に基づいて前記記憶部を参照して、前記スポットの座標に対応する前記円形マーカを示す点の座標を取得する座標取得部と、
     前記取得した座標に基づいて前記画像における前記スポットの近傍に前記円形マーカを表示させる表示制御部と、
     を備え、
     前記ヘッドは、前記計測補助光の光軸を前記撮像光学系の光軸を含む平面に射影した場合に前記撮像光学系の光軸に対し0度でない傾き角を有し前記撮像光学系の画角を横切る前記計測補助光を出射する、計測支援装置。
  2.  前記座標取得部は、前記複数の点のうち前記スポットとの距離がしきい値以下の点に対応した前記円形マーカを示す点の座標を取得する、請求項1に記載の計測支援装置。
  3.  前記座標取得部は、前記複数の点のうち前記スポットを挟む2つ以上の点に対応した座標を内挿して前記円形マーカを示す点の座標を取得する、請求項1に記載の計測支援装置。
  4.  前記座標取得部は、前記複数の点のうち前記スポットを挟まない2つ以上の点に対応した座標を外挿して前記円形マーカを示す点の座標を取得する、請求項1に記載の計測支援装置。
  5.  前記記憶部は、前記画像において前記円形マーカによる計測対象の大きさ計測が有効な範囲に対応して前記円形マーカを示す点の座標を記憶する請求項1から4のいずれか1項に記載の計測支援装置。
  6.  前記記憶部は、前記スポットを中心とした円に対応して実測した複数の第1の点の座標と、前記複数の第1の点を補間して生成した複数の第2の点の座標と、を前記円形マーカを示す点の座標として記憶し、
     前記座標取得部は前記複数の第1の点の座標と前記複数の第2の点の座標とを前記円形マーカを示す点の座標として取得する請求項1から5のいずれか1項に記載の計測支援装置。
  7.  前記記憶部は、前記複数の第1の点を前記円の角度方向及び径方向に線形補間した点の座標を前記複数の第2の点の座標として記憶する請求項6に記載の計測支援装置。
  8.  前記記憶部は、前記画像において前記スポットを中心とした前記円形マーカを含む歪曲格子領域を正方格子領域に射影変換する変換行列を記憶し、
     前記座標取得部は、前記変換行列により変換された前記正方格子領域における前記円形マーカを示す点の座標を取得し、前記取得した座標を前記変換行列の逆行列により逆変換して前記歪曲格子領域における前記円形マーカを示す点の座標を取得する、請求項1から5のいずれか1項に記載の計測支援装置。
  9.  前記記憶部は、m及びnを正の整数とした場合に前記歪曲格子領域及び前記正方格子領域を2×m×n個に分割した複数の小領域のそれぞれについて前記変換行列を記憶し、
     前記座標取得部は、前記画像の画素のうち同一の小領域に属する画素に対しては、前記複数の変換行列のうちの同一の変換行列及び前記複数の逆行列のうちの同一の逆行列を適用する請求項8に記載の計測支援装置。
  10.  前記記憶部は、前記撮像距離が計測距離範囲の最遠端である場合の前記歪曲格子領域及び前記計測距離範囲の至近端である場合の前記歪曲格子領域を含む、前記画像における一部の領域を分割した複数の領域であって、前記最遠端における前記歪曲格子領域の格子の大きさよりも小さく分割された前記複数の領域を前記複数の小領域として前記変換行列を記憶し、
     前記座標取得部は、前記複数の小領域に対して記憶された前記変換行列を用いて前記円形マーカを示す点の座標を取得する、請求項9に記載の計測支援装置。
  11.  前記変換行列はアフィン変換行列である請求項8から10のいずれか1項に記載の計測支援装置。
  12.  請求項1から11のいずれか1項に記載の計測支援装置を備える内視鏡システム。
  13.  被検体に挿入される挿入部であって、先端硬質部と、前記先端硬質部の基端側に接続された湾曲部と、前記湾曲部の基端側に接続された軟性部とを有する挿入部と、前記挿入部の基端側に接続された操作部と、を有する内視鏡を備え、
     前記ヘッドと、前記スポットの光学像を前記撮像素子に結像させる撮像レンズと、が前記先端硬質部に設けられる請求項12に記載の内視鏡システム。
  14.  請求項12または13に記載の内視鏡システムのプロセッサであって、前記計測部と、前記記憶部と、前記座標取得部と、前記表示制御部と、を備えるプロセッサ。
PCT/JP2018/005058 2017-03-03 2018-02-14 計測支援装置、内視鏡システム、及び内視鏡システムのプロセッサ WO2018159292A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP18761984.6A EP3590407B1 (en) 2017-03-03 2018-02-14 Measurement support device with an imaging unit, with a coordinate acquisition unit and with a unit for displaying a marker based on the coordinates
JP2019502861A JP6898425B2 (ja) 2017-03-03 2018-02-14 計測支援装置、内視鏡システム、及び内視鏡システムのプロセッサ
US16/445,216 US10708553B2 (en) 2017-03-03 2019-06-19 Measurement support device, endoscope system, processor for endoscope system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017040618 2017-03-03
JP2017-040618 2017-03-03

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/445,216 Continuation US10708553B2 (en) 2017-03-03 2019-06-19 Measurement support device, endoscope system, processor for endoscope system

Publications (1)

Publication Number Publication Date
WO2018159292A1 true WO2018159292A1 (ja) 2018-09-07

Family

ID=63370775

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/005058 WO2018159292A1 (ja) 2017-03-03 2018-02-14 計測支援装置、内視鏡システム、及び内視鏡システムのプロセッサ

Country Status (4)

Country Link
US (1) US10708553B2 (ja)
EP (1) EP3590407B1 (ja)
JP (1) JP6898425B2 (ja)
WO (1) WO2018159292A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3590408A1 (en) * 2018-07-04 2020-01-08 Fujifilm Corporation Endoscope apparatus
JP2020141712A (ja) * 2019-03-04 2020-09-10 富士フイルム株式会社 内視鏡装置、キャリブレーション装置、及びキャリブレーション方法
JP2020151250A (ja) * 2019-03-20 2020-09-24 富士フイルム株式会社 内視鏡装置及びその作動方法並びに内視鏡装置用プログラム
WO2021157487A1 (ja) 2020-02-06 2021-08-12 富士フイルム株式会社 医用画像処理装置、内視鏡システム、医用画像処理方法、及びプログラム
US11762156B2 (en) * 2018-04-26 2023-09-19 Olympus Corporation Optical module for endoscope, endoscope, and manufacturing method of optical module for endoscope

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11931010B2 (en) * 2017-03-24 2024-03-19 Covidien Lp Endoscopes and methods of treatment
WO2019045144A1 (ko) * 2017-08-31 2019-03-07 (주)레벨소프트 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법
CN111325802B (zh) * 2020-02-11 2023-04-25 中国空气动力研究与发展中心低速空气动力研究所 一种直升机风洞试验中圆形标记点识别匹配方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4935810A (en) * 1988-10-26 1990-06-19 Olympus Optical Co., Ltd. Three-dimensional measuring apparatus
JPH02216404A (ja) * 1989-02-17 1990-08-29 Olympus Optical Co Ltd 計測用内視鏡装置
JPH03231622A (ja) * 1990-02-06 1991-10-15 Olympus Optical Co Ltd 内視鏡装置
JPH04323505A (ja) * 1991-04-23 1992-11-12 Minolta Camera Co Ltd 測長装置を内蔵したカメラ
JPH0473763B2 (ja) * 1984-02-29 1992-11-24
JPH07136101A (ja) 1993-11-16 1995-05-30 Sony Corp 計測機能付き内視鏡
JP2008122759A (ja) 2006-11-14 2008-05-29 Olympus Corp 計測用内視鏡装置、プログラム、および記録媒体
JP2011069965A (ja) 2009-09-25 2011-04-07 Japan Atomic Energy Agency 撮像装置、画像表示方法、及び画像表示プログラムが記録された記録媒体
JP2012222658A (ja) * 2011-04-11 2012-11-12 Olympus Corp 撮像装置及び撮像方法
WO2016047191A1 (ja) * 2014-09-25 2016-03-31 オリンパス株式会社 内視鏡システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3817635A (en) * 1967-08-08 1974-06-18 Olumpus Co Ltd Device for measuring the actual dimension of an object at the forward end portion of an endoscope
US3595220A (en) * 1967-08-08 1971-07-27 Olympus Optical Co Device for measuring the distance of an object from the forward end portion of an endoscope
JPH0473763A (ja) 1990-07-16 1992-03-09 Kansai Paint Co Ltd 光硬化性電着塗料組成物
JP2002336188A (ja) * 2001-05-21 2002-11-26 Olympus Optical Co Ltd 計測用内視鏡装置
US20100272318A1 (en) * 2005-05-13 2010-10-28 G.I. View Ltd Endoscopic measurement techniques
JP5441527B2 (ja) * 2009-07-07 2014-03-12 エフ・エーシステムエンジニアリング株式会社 立体映像表示装置の立体スケール像形成装置
JP5576739B2 (ja) 2010-08-04 2014-08-20 オリンパス株式会社 画像処理装置、画像処理方法、撮像装置及びプログラム
EP3053102B1 (en) * 2013-10-02 2018-01-31 Given Imaging Ltd. System and method for size estimation of in-vivo objects
US11602265B2 (en) * 2016-03-31 2023-03-14 Sony Corporation Control device, endoscopic imaging device, control method, program, and endoscopic system

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0473763B2 (ja) * 1984-02-29 1992-11-24
US4935810A (en) * 1988-10-26 1990-06-19 Olympus Optical Co., Ltd. Three-dimensional measuring apparatus
JPH02216404A (ja) * 1989-02-17 1990-08-29 Olympus Optical Co Ltd 計測用内視鏡装置
JPH03231622A (ja) * 1990-02-06 1991-10-15 Olympus Optical Co Ltd 内視鏡装置
JPH04323505A (ja) * 1991-04-23 1992-11-12 Minolta Camera Co Ltd 測長装置を内蔵したカメラ
JPH07136101A (ja) 1993-11-16 1995-05-30 Sony Corp 計測機能付き内視鏡
JP2008122759A (ja) 2006-11-14 2008-05-29 Olympus Corp 計測用内視鏡装置、プログラム、および記録媒体
JP2011069965A (ja) 2009-09-25 2011-04-07 Japan Atomic Energy Agency 撮像装置、画像表示方法、及び画像表示プログラムが記録された記録媒体
JP2012222658A (ja) * 2011-04-11 2012-11-12 Olympus Corp 撮像装置及び撮像方法
WO2016047191A1 (ja) * 2014-09-25 2016-03-31 オリンパス株式会社 内視鏡システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3590407A4

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11762156B2 (en) * 2018-04-26 2023-09-19 Olympus Corporation Optical module for endoscope, endoscope, and manufacturing method of optical module for endoscope
EP3590408A1 (en) * 2018-07-04 2020-01-08 Fujifilm Corporation Endoscope apparatus
US11399707B2 (en) 2018-07-04 2022-08-02 Fujifilm Corporation Endoscope apparatus
JP2020141712A (ja) * 2019-03-04 2020-09-10 富士フイルム株式会社 内視鏡装置、キャリブレーション装置、及びキャリブレーション方法
JP7099971B2 (ja) 2019-03-04 2022-07-12 富士フイルム株式会社 内視鏡装置、キャリブレーション装置、及びキャリブレーション方法
JP2020151250A (ja) * 2019-03-20 2020-09-24 富士フイルム株式会社 内視鏡装置及びその作動方法並びに内視鏡装置用プログラム
WO2021157487A1 (ja) 2020-02-06 2021-08-12 富士フイルム株式会社 医用画像処理装置、内視鏡システム、医用画像処理方法、及びプログラム

Also Published As

Publication number Publication date
JPWO2018159292A1 (ja) 2019-11-07
JP6898425B2 (ja) 2021-07-07
EP3590407A4 (en) 2020-04-08
US20190306467A1 (en) 2019-10-03
EP3590407B1 (en) 2021-09-15
EP3590407A1 (en) 2020-01-08
US10708553B2 (en) 2020-07-07

Similar Documents

Publication Publication Date Title
WO2018159292A1 (ja) 計測支援装置、内視鏡システム、及び内視鏡システムのプロセッサ
WO2018051679A1 (ja) 計測支援装置、内視鏡システム、内視鏡システムのプロセッサ、及び計測支援方法
WO2018051680A1 (ja) 内視鏡システム
US11555997B2 (en) Endoscope with integrated measurement of distance to objects of interest
WO2018180249A1 (ja) 計測支援装置、内視鏡システム、及びプロセッサ
US11490785B2 (en) Measurement support device, endoscope system, and processor measuring size of subject using measurement auxiliary light
WO2018055933A1 (ja) 計測支援装置、内視鏡システム、内視鏡システムのプロセッサ、及び計測支援方法
EP2719321B1 (en) Image pickup unit for endoscope and endoscope
JP2016524958A (ja) 内視鏡小型撮像システム
JP5953443B2 (ja) 内視鏡システム
JP7179837B2 (ja) 内視鏡装置、内視鏡画像表示方法及び内視鏡装置の作動方法
US10921577B2 (en) Endoscope device
JP6352673B2 (ja) 内視鏡装置及び内視鏡装置の操作方法
JP6437878B2 (ja) 内視鏡の観察光学系ユニット及び内視鏡装置
JP6504701B2 (ja) 内視鏡
US20230255444A1 (en) Imaging system, endoscope system, and control method
JP2023553792A (ja) 撮像システム、腹腔鏡及び対象物を撮像するための方法
WO2017064746A1 (ja) 撮像装置、内視鏡装置及び撮像方法
JP2017086803A (ja) 計測装置、内視鏡システム、及び計測方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18761984

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019502861

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2018761984

Country of ref document: EP