WO2018037778A1 - 計測処理装置 - Google Patents

計測処理装置 Download PDF

Info

Publication number
WO2018037778A1
WO2018037778A1 PCT/JP2017/026133 JP2017026133W WO2018037778A1 WO 2018037778 A1 WO2018037778 A1 WO 2018037778A1 JP 2017026133 W JP2017026133 W JP 2017026133W WO 2018037778 A1 WO2018037778 A1 WO 2018037778A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
corresponding point
measurement
control unit
point
Prior art date
Application number
PCT/JP2017/026133
Other languages
English (en)
French (fr)
Inventor
陽平 坂本
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2018535527A priority Critical patent/JP6599014B2/ja
Publication of WO2018037778A1 publication Critical patent/WO2018037778A1/ja
Priority to US16/280,128 priority patent/US11120543B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • A61B1/0004Operational features of endoscopes provided with input arrangements for the user for electronic operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00057Operational features of endoscopes provided with means for testing or calibration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00194Optical arrangements adapted for three-dimensional imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/022Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by means of tv-camera scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2415Stereoscopic endoscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Definitions

  • the present invention relates to a measurement processing apparatus.
  • This application claims priority based on Japanese Patent Application No. 2016-165562 for which it applied to Japan on August 26, 2016, and uses the content here.
  • Industrial endoscope devices are used for observation and inspection of internal scratches and corrosion of boilers, turbines, engines, and pipes.
  • this endoscope apparatus a plurality of types of optical adapters for observing and inspecting various observation objects are prepared, and the distal end portion of the endoscope can be exchanged.
  • an endoscope apparatus for three-dimensional measurement that realizes three-dimensional measurement using a stereo optical system having two optical systems having different parallaxes.
  • the endoscope apparatus for three-dimensional measurement has a function of measuring the length and area with reference to a measurement point designated on a captured image.
  • the endoscope apparatus for three-dimensional measurement is required to accurately and precisely measure the length and area of a scratch (defect) on a subject.
  • a matching process is performed in which one of the left and right images searches for a point (corresponding point) corresponding to a measurement point designated by the user in the other of the left and right images.
  • the imaging conditions such as the positional relationship (object distance and angle) between the subject and the endoscope, the brightness of the illumination, the shape and properties of the subject, etc., there is a possibility that the measurement performance may deteriorate due to incorrect matching.
  • Mismatching matching is a phenomenon in which a point different from a true corresponding point is recognized as a corresponding point when matching processing is performed.
  • a phenomenon in which the illumination light of the endoscope is regularly reflected on the surface of the subject and the reflected light is reflected in the observation image, that is, halation may occur. If the measurement is performed in an area where the light reflected by the regular reflection of the illumination light is reflected, an erroneous matching is likely to occur. Measurement performance deteriorates due to incorrect matching. For this reason, the user must confirm in advance whether or not matching mismatching has occurred for the designated measurement point.
  • Patent Document 1 A technology that allows a user to more easily confirm whether or not a matching error has occurred is disclosed.
  • Patent Document 1 a part of a left image including a measurement point designated by a user and a part of a right image including a corresponding point obtained by matching processing are displayed side by side on a monitor. Is disclosed.
  • the user compares the left and right images while moving the line of sight in the horizontal direction, so that the positional relationship between the measurement point designated by the user and the corresponding point obtained by the matching process is obtained. It is determined whether there is an error (matching error). However, in the invention described in Patent Document 1, it may be difficult for the user to determine whether or not a matching error has occurred.
  • An object of the present invention is to provide a measurement processing device that allows a user to easily determine whether a matching error has occurred.
  • the measurement processing device includes an imaging unit, an image acquisition unit, a display unit, a measurement point display control unit, a corresponding point calculation unit, a corresponding point image generation unit, A point image display control unit.
  • the imaging unit images a subject and generates an imaging signal.
  • the image acquisition unit acquires a first image and a second image having a parallax in a predetermined parallax direction based on the imaging signal.
  • the display unit has a display screen on which the first image is displayed.
  • the measurement point display control unit displays a measurement point indicating a measurement position designated by the user on the first image.
  • the corresponding point calculation unit calculates a corresponding point on the second image corresponding to the measurement point on the first image.
  • the corresponding point image generation unit includes the corresponding point calculated by the corresponding point calculation unit in the second image and a region around the corresponding point, and includes a part or all of the second image.
  • the corresponding corresponding point image is generated.
  • the corresponding point image display control unit displays the corresponding point image on the display screen.
  • the corresponding point image display control unit displays the corresponding point image on the display screen so that a straight line passing through the measurement point and the corresponding point is orthogonal to the parallax direction.
  • the corresponding point image display control unit may display the corresponding point image so that the corresponding point is separated from the measurement point. Good.
  • the corresponding point image generation unit is configured to display the corresponding point image having a length in the parallax direction that is greater than a length in a direction orthogonal to the parallax direction. It may be generated.
  • the corresponding point image generation unit is configured such that the length in the parallax direction is smaller than the length in the direction orthogonal to the parallax direction.
  • An image may be generated.
  • the corresponding point image display control unit may display the second corresponding point image on the display screen so that the first image and the second corresponding point image are arranged along the parallax direction. Good.
  • the measurement processing device displays an auxiliary line parallel to the parallax direction and passing through the measurement point on the display screen.
  • an auxiliary line display control unit for displaying on the second corresponding point image.
  • the corresponding point image display control unit sets a display area of the corresponding point image on the display screen, and the corresponding points in the display area. An image may be displayed.
  • the corresponding point image display control unit may match both end positions of the display region in the parallax direction with both end positions of the first image in the parallax direction when the corresponding point image is displayed. .
  • the measurement processing device displays, on the display screen, one or more auxiliary lines orthogonal to the parallax direction as the first image and the corresponding points. You may further have an auxiliary line display control part displayed on an image.
  • the auxiliary line display control unit may display the auxiliary line so that the auxiliary line passes through the measurement point.
  • the measurement processing device includes a feature point calculation unit that calculates a first feature point other than the measurement point in the subject of the first image. Furthermore, you may have.
  • the auxiliary line display control unit may display the auxiliary line so that the auxiliary line passes through the first feature point.
  • the measurement processing device further includes a feature point calculation unit that calculates a second feature point other than the corresponding point in the subject of the corresponding point image. You may have.
  • the auxiliary line display control unit may display the auxiliary line so that the auxiliary line passes through the second feature point.
  • the corresponding point image display control unit sets a display area of the corresponding point image on the display screen, and the corresponding points in the display area.
  • An image may be displayed.
  • the corresponding point image display control unit may match both end positions of the display region in the parallax direction with both end positions of the first image in the parallax direction when the corresponding point image is displayed.
  • the auxiliary line display control unit may display the auxiliary line so that the auxiliary line passes through at least one of both ends of the corresponding point image in the parallax direction.
  • the measurement processing apparatus may further include a feature point calculation unit, a feature corresponding point calculation unit, and an auxiliary line display control unit.
  • the feature point calculation unit may calculate a feature point other than the measurement point in the subject of the first image.
  • the feature corresponding point calculation unit may calculate a feature corresponding point on the second image corresponding to the feature point on the first image.
  • the auxiliary line display control unit may display an auxiliary line passing through the feature points and the feature corresponding points.
  • the corresponding point image display control unit may control the display position of the corresponding point image according to the position of the measurement point.
  • the corresponding point image display control unit sets a plurality of image regions arranged in a direction orthogonal to the parallax direction in the first image.
  • the plurality of image areas may include a first image area and a second image area.
  • the direction orthogonal to the parallax direction and from the first image area toward the second image area may be the first direction.
  • the direction orthogonal to the parallax direction and from the second image area toward the first image area may be a second direction.
  • the corresponding point image display control unit may display the corresponding point image at a position closer to the first direction than the measurement point.
  • the corresponding point image display control unit may display the corresponding point image at a position closer to the second direction than the measurement point.
  • the corresponding point image display control unit may display the corresponding point image on the first image.
  • the corresponding point image display control unit sets a plurality of image regions arranged in a direction orthogonal to the parallax direction in the first image. Also good.
  • the plurality of image areas may include a first image area and a second image area.
  • the corresponding point image display control unit may display the corresponding point image in the first image area.
  • the corresponding point image display control unit may display the corresponding point image in the second image area.
  • the corresponding point image display control unit divides the first image into two in the direction orthogonal to the parallax direction in the first image.
  • One image region and a second image region may be set.
  • the direction orthogonal to the parallax direction and from the first image area toward the second image area may be the first direction.
  • the direction orthogonal to the parallax direction and from the second image area toward the first image area may be a second direction.
  • the corresponding point image display control unit sets a first display area at a position closer to the second direction than the first image area on the display screen, and more than the second image area.
  • the second display area may be set at a position on the first direction side.
  • the corresponding point image display control unit may display the corresponding point image in the first display area.
  • the corresponding point image display control unit may display the corresponding point image in the second display area.
  • the corresponding point image display control unit when the moving speed of the measurement point displayed on the first image is smaller than a predetermined threshold, the corresponding point image display control unit The corresponding point image may be displayed.
  • the measurement processing device may further include a measurement point image generation unit and a measurement point image display control unit.
  • the measurement point image generation unit may generate a measurement point image that includes the measurement point and a region around the measurement point in the first image, and includes a part of the first image.
  • the measurement point image display control unit may display the measurement point image on the display screen.
  • the corresponding point image display control unit on the display screen, the corresponding point image so that a straight line passing through the measurement point in the measurement point image and the corresponding point in the corresponding point image is orthogonal to the parallax direction. May be displayed.
  • the measurement point image display control unit may display the measurement point image at a display magnification higher than a display magnification of the first image.
  • the corresponding point image display control unit may display the corresponding point image at the same display magnification as the display magnification of the measurement point image.
  • the corresponding point image display control unit overlaps the measurement point and the corresponding point image, and the first image passes through the corresponding point image.
  • the corresponding point image may be translucently processed and displayed on the first image so as to be visible.
  • the corresponding point image display control unit converts the corresponding point image into the first image such that the measurement point and the corresponding point overlap each other. It may be displayed above.
  • the measurement processing device may further include a corresponding point display control unit that displays the corresponding points on the corresponding point image.
  • the measurement point display control unit may display a first cursor indicating the measurement point on the straight line on the display screen.
  • the corresponding point display control unit may display a second cursor indicating the corresponding point on the straight line on the display screen.
  • the corresponding point image display control unit may display the corresponding point image at the same display magnification as the display magnification of the first image.
  • the measurement processing device includes an image acquisition unit, a display unit, a measurement point display control unit, a corresponding point calculation unit, a corresponding point image generation unit, and a corresponding point image display control.
  • the image acquisition unit acquires a first image and a second image having parallax in a predetermined parallax direction.
  • the display unit has a display screen on which the first image is displayed.
  • the measurement point display control unit displays a measurement point indicating a measurement position designated by the user on the first image.
  • the corresponding point calculation unit calculates a corresponding point on the second image corresponding to the measurement point on the first image.
  • the corresponding point image generation unit includes the corresponding point calculated by the corresponding point calculation unit in the second image and a region around the corresponding point, and includes a part or all of the second image.
  • the corresponding corresponding point image is generated.
  • the corresponding point image display control unit displays the corresponding point image on the display screen.
  • the corresponding point image display control unit is configured so that, on the display screen, the correspondence point is such that a straight line passing through the measurement point and the corresponding point is parallel to a vertical direction of the display screen or parallel to a horizontal direction of the display screen. Display point images.
  • the corresponding point image display control unit displays the corresponding point image on the display screen so that the measurement point and the straight line passing through the corresponding point are orthogonal to the parallax direction. As a result, the user can easily determine whether or not a matching error has occurred.
  • FIG. 1 is a perspective view showing an overall configuration of a measurement endoscope apparatus according to a first embodiment of the present invention. It is a block diagram which shows the internal structure of the measurement endoscope apparatus by the 1st Embodiment of this invention. It is a perspective view which shows the structure of the front-end
  • FIG. 1 shows an appearance of a measurement endoscope apparatus 1 (measurement processing apparatus) according to the first embodiment of the present invention.
  • the measurement endoscope apparatus 1 images a subject and measures a geometric feature of the subject from the image.
  • the inspector exchanges an optical adapter attached to the tip of the insertion unit 2, selects a built-in measurement processing program, and adds a measurement processing program. It is possible.
  • a case where stereo measurement is performed will be described as an example of measurement.
  • the measurement endoscope apparatus 1 includes an insertion unit 2, a control unit 3, an operation unit 4, and a display unit 5 (monitor).
  • the insertion unit 2 is inserted into the subject.
  • the insertion portion 2 is an elongated tubular shape that can be bent from the distal end 20 to the proximal end portion.
  • the insertion unit 2 images the measurement part and outputs an image signal to the control unit 3.
  • a stereo optical adapter 30 (FIGS. 3 and 4) is attached to the distal end 20 of the insertion portion 2.
  • the control unit 3 is a control device including a storage unit that stores the insertion unit 2.
  • the operation unit 4 receives a user operation on the measurement endoscope apparatus 1.
  • the display unit 5 has a display screen and displays an image of the subject imaged by the insertion unit 2 and an operation menu on the display screen.
  • the control unit 3 includes an endoscope unit 8, a CCU (camera control unit) 9, and a control unit 10.
  • the endoscope unit 8 includes a light source device that supplies illumination light necessary for observation, and a bending device that bends a bending portion (not shown).
  • An imaging element 28 is built in the distal end 20 of the insertion portion 2.
  • the image sensor 28 photoelectrically converts a subject image formed via the stereo optical adapter 30 and generates an image signal.
  • the CCU 9 drives the image sensor 28.
  • An imaging signal output from the imaging element 28 is input to the CCU 9.
  • the CCU 9 performs preprocessing including amplification and noise removal on the image signal acquired by the image sensor 28.
  • the CCU 9 converts the pre-processed imaging signal into a video signal such as an NTSC signal.
  • the control unit 10 includes a video signal processing circuit 12, a ROM (Read Only Memory) 13, a RAM (Random Access Memory) 14, a card interface 15, an external device interface 16, a control interface 17, and a CPU (Central Processing). Unit) 18a.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • CPU Central Processing Unit
  • the video signal processing circuit 12 performs predetermined video processing on the video signal output from the CCU 9. For example, the video signal processing circuit 12 combines the video signal output from the CCU 9 and the graphic image signal generated by the CPU 18a.
  • the graphic image signal includes an image of the operation screen, measurement information, and the like.
  • the measurement information includes a cursor image, an auxiliary line image, a measurement result, and the like.
  • the video signal processing circuit 12 outputs the synthesized video signal to the display unit 5.
  • the ROM 13 is a non-volatile recording medium on which a program for the CPU 18a to control the operation of the measurement endoscope apparatus 1 is recorded.
  • the RAM 14 is a volatile recording medium that temporarily stores information used by the CPU 18 a for controlling the measurement endoscope apparatus 1.
  • the CPU 18 a controls the operation of the measurement endoscope apparatus 1 based on a program recorded in the ROM 13.
  • a memory card 42 which is a removable recording medium is connected to the card interface 15.
  • the card interface 15 captures control processing information, image information, and the like stored in the memory card 42 into the control unit 10.
  • the card interface 15 records control processing information, image information, and the like generated by the measurement endoscope apparatus 1 in the memory card 42.
  • External devices such as USB devices are connected to the external device interface 16.
  • the personal computer 41 is connected to the external device interface 16.
  • the external device interface 16 transmits information to the personal computer 41 and receives information from the personal computer 41.
  • the monitor of the personal computer 41 can display information.
  • the user can perform operations related to the control of the measurement endoscope apparatus 1 via the personal computer 41.
  • the control interface 17 communicates with the operation unit 4, the endoscope unit 8, and the CCU 9 for operation control.
  • the control interface 17 notifies the CPU 18a of an instruction input by the user via the operation unit 4.
  • the control interface 17 outputs a control signal for controlling the light source device and the bending device to the endoscope unit 8.
  • the control interface 17 outputs a control signal for controlling the image sensor 28 to the CCU 9.
  • the program executed by the CPU 18a may be recorded on a computer-readable recording medium.
  • the program recorded on the recording medium may be read and executed by a computer other than the measurement endoscope apparatus 1.
  • the personal computer 41 may read and execute the program.
  • the personal computer 41 may control the measurement endoscope apparatus 1 by transmitting control information for controlling the measurement endoscope apparatus 1 to the measurement endoscope apparatus 1 according to a program.
  • the personal computer 41 may acquire a video signal from the measurement endoscope apparatus 1 and perform measurement using the acquired video signal.
  • the above-described program may be transmitted to the measurement endoscope apparatus 1 from a computer having a storage device or the like in which the program is stored via a transmission medium or by a transmission wave in the transmission medium.
  • a “transmission medium” for transmitting a program is a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
  • the above-described program may realize a part of the functions described above.
  • the above-described program may be a difference file (difference program) that can realize the above-described function in combination with a program already recorded in the computer.
  • FIG. 3 and 4 show the configuration of the distal end 20 of the insertion portion 2 and the stereo optical adapter 30.
  • FIG. FIG. 3 shows the appearance of the distal end 20 of the insertion portion 2 and the stereo optical adapter 30.
  • FIG. 4 shows a cross section of the distal end 20 of the insertion portion 2 and the stereo optical adapter 30. In FIG. 4, a cross section including the first optical system 31 and the second optical system 32 is shown.
  • the stereo optical adapter 30 is attached to the distal end 20 of the insertion portion 2.
  • the stereo optical adapter 30 is screwed and fixed to the male screw 23 at the distal end 20 of the insertion portion 2 by the female screw 72 of the fixing ring 71.
  • a first optical system 31, a second optical system 32, and an illumination window 33 are provided at the tip of the stereo optical adapter 30, .
  • the first optical system 31 and the second optical system 32 include an objective lens.
  • the first optical system 31 and the second optical system 32 are separated from each other in the parallax direction Dr1.
  • a first optical system 31 is disposed on the left side of the subject and a second optical system 32 is disposed on the right side.
  • the optical axis Ax1 of the first optical system 31 and the optical axis Ax2 of the second optical system 32 are arranged in a direction Dr2 that intersects the parallax direction Dr1. That is, the optical axis Ax1 of the first optical system 31 and the optical axis Ax2 of the second optical system 32 are arranged to face the direction Dr2.
  • the parallax direction Dr1 is a direction of a straight line passing through the first optical center (principal point) of the first optical system 31 and the second optical center (principal point) of the second optical system 32.
  • the direction Dr2 is orthogonal to the parallax direction Dr1.
  • the first optical system 31 and the second optical system 32 form two images of the subject on the image sensor 28 provided in the distal end 20 of the insertion portion 2.
  • the first optical system 31 forms a first optical image
  • the second optical system 32 forms a second optical image.
  • the first optical image and the second optical image have parallax.
  • a measurement point is designated in the first image corresponding to the first optical image.
  • the first optical system 31 may be disposed on the right side of the subject and the second optical system 32 may be disposed on the left side.
  • the image sensor 28 is an image sensor.
  • the image sensor 28 is disposed at the distal end 20 of the insertion portion 2.
  • the imaging element 28 has an imaging surface 24 arranged at the imaging position of the first optical system 31 and the second optical system 32.
  • the image sensor 28 includes a first optical image formed on the image pickup surface 24 via the first optical system 31 and a second optical image formed on the image pickup surface 24 via the second optical system 32.
  • An imaging signal is generated from the image. That is, the image sensor 28 applies the first image corresponding to the first optical image obtained via the first optical system 31 and the second optical image obtained via the second optical system 32.
  • a corresponding second image is generated.
  • the first image and the second image have parallax with each other.
  • an image corresponding to the left visual field is defined as the first image
  • an image corresponding to the right visual field is defined as the second image
  • An image corresponding to the right visual field may be defined as the first image
  • an image corresponding to the left visual field may be defined as the second image.
  • the image sensor 28 is connected to the signal line 80, and an image signal is output from the image sensor 28 to the signal line 80.
  • a cover glass 35 for protecting the image sensor 28 is disposed on the end face of the distal end 20 of the insertion portion 2.
  • the measurement endoscope apparatus 1 includes the imaging element 28 (imaging unit), the CCU 9 (image acquisition unit), the display unit 5, and the CPU 18a.
  • the image sensor 28 images a subject and generates an image signal.
  • the CCU 9 generates a video signal based on the imaging signal.
  • the video signal includes an image of the subject. Therefore, the CCU 9 acquires a first image and a second image having parallax in a predetermined parallax direction based on the imaging signal.
  • the display unit 5 has a display screen on which the first image is displayed.
  • FIG. 5 shows a functional configuration of the CPU 18a.
  • the control unit 180, the measurement point detection unit 181, the measurement point display control unit 182, the corresponding point calculation unit 183, the corresponding point image generation unit 184, the corresponding point image display control unit 185, the corresponding point display control unit 186, and the measurement unit 187 The functions of the CPU 18a are configured. At least one of the blocks shown in FIG. 5 may be configured by a circuit different from the CPU 18a.
  • the control unit 180 controls processing performed by each unit.
  • the measurement point detection unit 181 monitors the state of the operation unit 4 operated by the user, and detects a measurement point indicating the measurement position designated by the user in the first image.
  • the measurement point display control unit 182 displays the measurement point designated by the user on the first image. For example, the measurement point display control unit 182 displays a first cursor that is a mark indicating a measurement point at the position of the measurement point on the first image.
  • the corresponding point calculation unit 183 calculates a corresponding point on the second image corresponding to the measurement point on the first image. Generally, this process is called a matching process.
  • the corresponding point image generation unit 184 includes a corresponding point calculated by the corresponding point calculation unit 183 in the second image and an area around the corresponding point, and includes a part or all of the second image. Generate a point image.
  • the corresponding point image display control unit 185 displays the corresponding point image on the display screen. At this time, the corresponding point image display control unit 185 displays the corresponding point image on the display screen so that the measurement point and the straight line passing through the corresponding point are orthogonal to the parallax direction.
  • the corresponding point display control unit 186 displays the corresponding points on the corresponding point image.
  • the corresponding point display control unit 186 displays the second cursor, which is a mark indicating the corresponding point, at the position of the corresponding point on the corresponding point image.
  • the measurement unit 187 calculates the three-dimensional coordinates of the measurement point based on the principle of triangulation based on the two-dimensional coordinates of the measurement point and the corresponding point.
  • the measuring unit 187 measures the size of the three-dimensional shape of the subject based on the three-dimensional coordinates of the measurement point.
  • the measurement point display control unit 182 When the measurement point display control unit 182 displays the first cursor, the measurement point display control unit 182 generates a graphic image signal of the first cursor. The measurement point display control unit 182 outputs the generated graphic image signal to the video signal processing circuit 12.
  • the video signal processing circuit 12 combines the video signal output from the CCU 9 and the graphic image signal output from the CPU 18a. As a result, the first cursor is superimposed on the first image.
  • the video signal processing circuit 12 outputs the synthesized video signal to the display unit 5.
  • the display unit 5 displays a first image on which a measurement point, that is, a first cursor is superimposed.
  • the corresponding point image generated by the corresponding point image generation unit 184 is output to the video signal processing circuit 12.
  • the corresponding point image display control unit 185 controls the display position of the corresponding point image so that the position of the corresponding point image in the first image becomes a desired position.
  • the corresponding point image display control unit 185 displays the second cursor
  • the corresponding point image display control unit 185 generates a graphic image signal of the second cursor.
  • the corresponding point image display control unit 185 outputs the generated graphic image signal to the video signal processing circuit 12.
  • the video signal processing circuit 12 combines the video signal output from the CCU 9 and the graphic image signal output from the CPU 18a. As a result, the second cursor is superimposed on the corresponding point image.
  • the video signal processing circuit 12 outputs the synthesized video signal to the display unit 5.
  • the display unit 5 displays a corresponding point image on which the corresponding point, that is, the second cursor is superimposed.
  • stereo measurement the three-dimensional coordinates of a subject are calculated using the principle of triangulation based on the coordinates of two optical ranging points when the subject image is captured by two optical systems.
  • the midpoint of the line segment connecting the left optical center (first optical center 63) and the right optical center (second optical center 64) is defined as the origin O.
  • an x-axis in which the right direction is positive and a y-axis in which the downward direction is positive are defined.
  • a z-axis is defined in which the direction away from the optical system in parallel with the optical axis is positive.
  • the three-dimensional coordinates (X, Y, Z) of the measurement point 60 are expressed by the following (1) according to the principle of triangulation. Calculation is performed using equations (3) to (3).
  • the two-dimensional coordinates of the measurement point 61 on the left image plane subjected to distortion correction and the corresponding point 62 on the right image plane subjected to distortion correction are (X L , Y L ) and (X R 1 , Y R ).
  • the distance between the first optical center 63 and the second optical center 64 is D.
  • the focal length is F.
  • the parameter t is D / (X R ⁇ X L ).
  • X t ⁇ X R + D / 2 (1)
  • Y ⁇ t ⁇ Y R (2)
  • Z t ⁇ F (3)
  • the three-dimensional coordinates of the measurement point 60 can be obtained using the parameter D and the parameter F.
  • various measurement functions can be realized. For example, a distance between two points, a distance between a line connecting two points and one point, an area of a region surrounded by a line connecting a plurality of points, a depth of a reference surface, a surface shape, and the like are measured.
  • the user can select a desired measurement function from various measurement functions. It is also possible to obtain the distance (object distance) from the first optical center 63 or the second optical center 64 to the subject.
  • optical data indicating characteristics of an optical system including the distal end 20 of the insertion portion 2 and the stereo optical adapter 30 is necessary.
  • details of the matching process and optical data are described in Japanese Patent Application Laid-Open No. 2004-49638, and the description thereof is omitted.
  • FIG. 7 shows processing in the measurement mode.
  • 8A and 8B show the display screen 50 of the display unit 5.
  • the user confirms the state of the subject with a live image and inspects whether there are any defects or scratches.
  • the measurement endoscope apparatus 1 operates in the inspection mode.
  • the state of the measurement endoscope apparatus 1 shifts from the inspection mode to the measurement mode.
  • the image sensor 28 images the subject and acquires an image signal.
  • the CCU 9 acquires the first image and the second image necessary for the three-dimensional measurement as still images (step S101).
  • the first image and the second image are output to the video signal processing circuit 12.
  • the CPU 18 a acquires the first image and the second image from the video signal processing circuit 12.
  • the control unit 180 After step S101, the control unit 180 generates an image signal of the main window WL11 including the first image.
  • the control unit 180 outputs the generated image signal to the video signal processing circuit 12.
  • the video signal processing circuit 12 synthesizes the video signal output from the CCU 9 and the image signal output from the CPU 18a. As a result, the main window WL11 including the first image is displayed.
  • the video signal processing circuit 12 outputs the synthesized video signal to the display unit 5.
  • the display unit 5 displays the main window WL11 including the first image (Step S102). At this time, the second image is not displayed on the display screen 50.
  • the structure of the subject In the first image included in the main window WL11, the structure of the subject is shown.
  • the first image displayed on the main window WL11 corresponds to the left visual field, but an image corresponding to the right visual field may be displayed on the main window WL11 as the first image.
  • the operation unit 4 is an input device such as a remote controller and a touch panel.
  • the operation unit 4 uses a remote controller, the user adjusts the position of the point and area to be measured using a cross key or the like built in the remote controller.
  • the touch panel the position of the point and the area to be measured are adjusted using the cross button B1 or the like.
  • a first cursor C11 for pointing the point and area designated by the user is displayed so that the user can visually recognize the position of the point and area that the user wants to measure.
  • the measurement point display control unit 182 displays a first cursor C11 indicating the measurement point on the display screen 50.
  • the measurement point display control unit 182 displays the first cursor C11 on the first image (step S103).
  • the first cursor C11 is displayed at the center of the first image.
  • the position where the first cursor C11 is initially displayed may be a position other than the center of the first image.
  • the position of the first cursor C11 is the same as the position of the measurement point in the first image.
  • the shape and size of the first cursor C11 do not matter.
  • the measurement point detection unit 181 detects a position movement command from the operation unit 4 and detects the measurement point after the movement.
  • the measurement point display control unit 182 moves the position of the first cursor C11 based on the position movement command.
  • the measurement point detection unit 181 appropriately reads position information of the first cursor C11 existing on the display screen 50 as a measurement point position (step S104).
  • This measurement point is a provisional measurement point whose final position is not fixed.
  • temporary measurement points are treated as broad measurement points. In the following description, a measurement point whose final position is not fixed can be replaced with a temporary measurement point.
  • step S104 matching processing for searching for corresponding points in the second image is performed.
  • the corresponding point is a point most similar to the measurement point, that is, a point having a high correlation value with the measurement point.
  • Processing such as SAD (Sum of Absorbed Difference), SSD (Sum of Squared Difference), and ZNCC (Zero-means Normalized Cross-Correlation) is often used for matching processing.
  • the corresponding point calculation unit 183 calculates the corresponding point on the second image that is closest to the measurement point specified on the first image (step S105).
  • the corresponding point image generation unit 184 After step S105, the corresponding point image generation unit 184 generates a corresponding point image that includes the corresponding point and the area around the corresponding point in the second image, and includes a part of the second image. At this time, the corresponding point image generation unit 184 generates a corresponding point image whose length in the parallax direction DR1 is larger than the length in the direction DR2 orthogonal to the parallax direction DR1. That is, the corresponding point image generation unit 184 generates a corresponding point image that is elongated in the parallax direction DR1 (step S106). 8A and 8B, the parallax direction DR1 in the first image and the second image is the right direction.
  • the parallax direction DR1 may be the left direction.
  • the parallax direction DR1 is a horizontal direction (left-right direction) on the display screen 50.
  • the direction DR2 is the upward direction.
  • the direction DR2 may be a downward direction.
  • the direction DR2 is a vertical direction (up and down direction) on the display screen 50.
  • the corresponding point image may be composed of the entire second image.
  • the corresponding point image display control unit 185 After step S106, the corresponding point image display control unit 185 generates an image signal of the sub window WR11 including the corresponding point image.
  • the corresponding point image display control unit 185 outputs the generated image signal to the video signal processing circuit 12.
  • the video signal processing circuit 12 synthesizes the video signal output from the CCU 9 and the image signal output from the CPU 18a. Thereby, the sub window WR11 including the corresponding point image is displayed.
  • the video signal processing circuit 12 outputs the synthesized video signal to the display unit 5.
  • the display unit 5 displays the sub window WR11 including the corresponding point image (step S107). In the corresponding point image included in the sub window WR11, the structure of the subject is shown.
  • the corresponding point image display control unit 185 displays the corresponding point image on the first image. At this time, the corresponding point image display control unit 185 displays the corresponding point image so that part or all of the corresponding point image overlaps the first image. 8A and 8B, all of the corresponding point images in the sub window WR11 overlap with the first image in the main window WL11. In the main window WL11, the first image in a region where the main window WL11 and the sub window WR11 overlap with each other cannot be visually recognized. In step S107, the corresponding point image display control unit 185 sets the corresponding point image display area (sub-window WR11) as the first image, and displays the corresponding point image in the sub-window WR11.
  • the corresponding point image display control unit 185 sets the corresponding point image display area (sub-window WR11) as the first image, and displays the corresponding point image in the sub-window WR11.
  • step S107 the corresponding point image display control unit 185 displays the corresponding point image so that the parallax direction in the corresponding point image is the same as the parallax direction DR1 in the first image. That is, the corresponding point image display control unit 185 displays the corresponding point image so that the corresponding point image does not tilt with respect to the first image.
  • the corresponding point image display control unit 185 displays the corresponding point image so that the corresponding points are separated from the measurement points. That is, the corresponding point image display control unit 185 displays the corresponding point images so that the positions of the corresponding points and the measurement points are different. This makes it easier for the user to visually recognize the peripheral portion of the measurement point in the first image and the peripheral portion of the corresponding point in the corresponding point image. Also, the corresponding point image display control unit 185 displays the corresponding point image so that the corresponding point image is separated from the measurement point. That is, the corresponding point image display control unit 185 displays the corresponding point image so that the corresponding point image does not overlap the measurement point. As a result, similarly to the above, the user can easily visually recognize the peripheral portion of the measurement point in the first image and the peripheral portion of the corresponding point in the corresponding point image.
  • step S107 the corresponding point image display control unit 185 displays the corresponding point image at the same display magnification as the display magnification of the first image. This makes it easier for the user to compare the image around the measurement point and the image around the corresponding point.
  • the second cursor C12 is displayed so that the user can easily confirm the position of the corresponding point.
  • the corresponding point display control unit 186 displays a second cursor C12 indicating the corresponding point on the display screen 50.
  • the corresponding point display control unit 186 displays the second cursor C12 on the corresponding point image (step S108).
  • the position of the second cursor C12 is the same as the position of the corresponding point in the corresponding point image.
  • the first cursor C11 and the second cursor C12 have the same shape, and the first cursor C11 and the second cursor C12 have the same size. However, it is not limited to this.
  • the second cursor C12 is separated in the direction DR2 with respect to the first cursor C11. That is, the corresponding points are separated from the measurement points in the direction DR2. Since the corresponding point image is displayed so that the corresponding point image is separated from the measurement point, the sub-window WR11 does not overlap the first cursor C11.
  • the corresponding point image display control unit 185 adjusts the position of the corresponding point image in the sub window WR11. Specifically, the corresponding point image display control unit 185 displays the corresponding point image so that the measurement point and the corresponding point are arranged on the straight line L11.
  • the straight line L11 passes through the first cursor C11 and the second cursor C12. That is, the straight line L11 passes through the measurement point and the corresponding point.
  • the straight line L11 is orthogonal to the parallax direction DR1 in the first image and the second image.
  • the corresponding point image display control unit 185 adjusts the position of the corresponding point image so that the measurement point and the straight line L11 passing through the corresponding point are orthogonal to the parallax direction DR1 on the display screen 50 (step S109). At this time, the straight line L11 is not displayed on the display screen 50.
  • step S109 the measurement point display control unit 182 adjusts the position of the first cursor C11, and the corresponding point display control unit 186 adjusts the position of the second cursor C12. That is, the measurement point display control unit 182 displays the first cursor C11 on the straight line L11 on the display screen 50. The corresponding point display control unit 186 displays the second cursor C12 on the straight line L11 on the display screen 50.
  • the two objective optical systems (first optical system 31 and second optical system 32) included in the stereo optical system (stereo optical adapter 30) are separated from each other in the parallax direction. Corresponding points obtained by the matching process are likely to shift in the parallax direction with respect to the true corresponding points.
  • the first image and the corresponding point image are arranged so that the measurement point and the corresponding point are located on a straight line orthogonal to the parallax direction.
  • the user compares the image around the measurement point with the image around the corresponding point to check whether the image around the corresponding point is deviated from the image around the measurement point. As a result, the user can easily determine whether or not a matching error has occurred.
  • FIG. 8A shows the display screen 50 of the display unit 5 when no matching error occurs.
  • the positions indicated by the first cursor C11 and the second cursor C12 in the subject coincide. That is, the positions of the measurement points and the corresponding points on the subject are the same.
  • the position of the corresponding point image is adjusted so that the straight line L11 passing through the measurement point and the corresponding point is orthogonal to the parallax direction DR1
  • the position of the structure around the measurement point in the first image in the parallax direction DR1 and the corresponding point image The position of the structure around the corresponding point is the same. For this reason, the user can determine that no matching error has occurred.
  • FIG. 8B shows the display screen 50 of the display unit 5 in the case where a matching mismatch has occurred.
  • the positions indicated by the first cursor C11 and the second cursor C12 in the subject do not match. That is, the positions of measurement points and corresponding points on the subject do not match.
  • the corresponding point is shifted to the right side of the position of the measurement point in the subject.
  • the position of the corresponding point image is adjusted so that the straight line L11 passing through the measurement point and the corresponding point is orthogonal to the parallax direction DR1
  • the position of the structure around the corresponding point is the position of the structure around the measurement point in the first image. It is shifted to the left of the position. For this reason, the user can determine that a matching error has occurred.
  • step S109 the control unit 180 confirms the result of determination by the user (step S110).
  • the user moves the measurement point by operating the operation unit 4.
  • the process in step S104 is performed.
  • the user operates the operation unit 4 to press the determination button B2 on the display screen 50.
  • the measurement point is determined (step S111).
  • the processing from step S104 to step S109 is repeated until the determination button B2 is pressed.
  • the process illustrated in FIG. 7 ends.
  • the processing shown in FIG. 7 is performed for each measurement point. After all the measurement points are determined, the three-dimensional coordinates of the measurement points are calculated, and the size of the three-dimensional shape of the subject is measured based on the three-dimensional coordinates.
  • the second cursor C12 may not be displayed in the corresponding point image. Therefore, the CPU 18a may not have the corresponding point display control unit 186.
  • the sub window WR11 may be long in the parallax direction DR1, and the shape of the sub window WR11 is not limited. 8A and 8B show an example in which the sub window WR11 is rectangular, the sub window WR11 may be elliptical or polygonal.
  • the corresponding point image display control unit 185 displays the corresponding point image on the display screen 50 so that the straight line L11 passing through the measurement point and the corresponding point is orthogonal to the parallax direction DR1. As a result, the user can easily determine whether or not a matching error has occurred.
  • FIG. 9 shows a display screen 50 of the display unit 5 in the first modification of the first embodiment.
  • the first image is displayed in the main window WL21, and the corresponding point image is displayed in the sub window WR21.
  • the first cursor C21 indicating the measurement point and the second cursor C22 indicating the corresponding point are arranged on a straight line L21 orthogonal to the parallax direction DR1.
  • the control unit 180 sets the first display area (main window WL21) of the first image, and displays the first image in the main window WL21.
  • the corresponding point image display control unit 185 sets a second display area (subwindow WR21) of the corresponding point image and displays the corresponding point image in the subwindow WR21.
  • the position of the main window WL21 and the position of the sub window WR21 are different.
  • the main window WL21 and the sub window WR21 do not overlap each other.
  • the corresponding point image display control unit 185 sets the sub window WR21 on the display screen 50 below the main window WL21. On the display screen 50, the sub window WR21 may be set above the main window WL21.
  • FIG. 10 shows a functional configuration of the CPU 18b.
  • the configuration shown in FIG. 10 will be described while referring to differences from the configuration shown in FIG.
  • the CPU 18b has an auxiliary line display control unit 188 in addition to the configuration shown in FIG.
  • the auxiliary line display control unit 188 displays the auxiliary line on the display screen 50. Specifically, the auxiliary line display control unit 188 generates a graphic image signal of the auxiliary line.
  • the auxiliary line display control unit 188 outputs the generated graphic image signal to the video signal processing circuit 12.
  • the video signal processing circuit 12 synthesizes the video signal output from the CCU 9 and the graphic image signal output from the CPU 18b. Thereby, an auxiliary line is displayed.
  • the video signal processing circuit 12 outputs the synthesized video signal to the display unit 5.
  • the display unit 5 displays auxiliary lines.
  • FIG. 10 other than the above, the configuration shown in FIG. 10 is the same as the configuration shown in FIG.
  • FIG. 11 shows the display screen 50 of the display unit 5 in the second modification of the first embodiment.
  • the first image is displayed in the main window WL31, and the corresponding point image is displayed in the sub window WR31.
  • the first cursor C31 indicating the measurement point and the second cursor C32 indicating the corresponding point are arranged on a straight line L31 orthogonal to the parallax direction DR1.
  • the corresponding point image display control unit 185 sets a corresponding point image display area (subwindow WR31) on the display screen 50, and displays the corresponding point image in the subwindow WR31.
  • the corresponding point image display control unit 185 matches the both end positions of the sub-window WR31 in the parallax direction DR1 with the both end positions of the first image in the parallax direction DR1.
  • the auxiliary line display control unit 188 displays the auxiliary line L32 so that the auxiliary line L32 passes through at least one of both ends of the corresponding point image in the parallax direction DR1.
  • the length (width) of the sub window WR31 in the parallax direction DR1 is the same as the length (width) of the first image in the parallax direction DR1.
  • the position of the left end of the sub window WR31 is the same as the position of the left end of the first image, and the position of the right end of the sub window WR31 is the same as the position of the right end of the first image.
  • the corresponding point image display control unit 185 adjusts the position of the corresponding point image in the sub window WR11 so that the position of the measurement point and the corresponding point is on the straight line L31.
  • the auxiliary line L32 passes through the right end of the corresponding point image.
  • the auxiliary line L32 is orthogonal to the parallax direction DR1 in the first image and the second image.
  • the length of the sub window WR31 in the parallax direction DR1 is the same as the length of the first image in the parallax direction DR1, a wide area excluding an area that is not visible due to parallax in the design specifications of the stereo optical adapter 30 in the corresponding point image Can be confirmed by the user. For this reason, the user can determine whether or not a matching error has occurred by referring to not only subject information around the measurement points and corresponding points but also a wider range of subject information.
  • measurement points are set on the structure F31 in the first image displayed on the main window WL31.
  • Corresponding points are detected from the structure F32 in the corresponding point image displayed in the sub window WR31.
  • the structure F33 in the corresponding point image is shifted in the horizontal direction with respect to the structure F33 in the first image. For this reason, the user can determine that a matching error has occurred.
  • the position of the corresponding point is greatly shifted in the right direction with respect to the position of the measurement point.
  • the corresponding point image display control unit 185 adjusts the position of the corresponding point image in the sub-window WR31, so that the corresponding point image is displayed with a large shift in the left direction with respect to the first image.
  • the length (width) of the first image and the length (width) of the second image in the parallax direction DR1 are the same. Since the corresponding point image is displayed shifted to the left with respect to the first image, the right end position of the corresponding point image does not match the right end position of the first image. The right end position of the first image matches the right end position of the sub window WR31.
  • a region R31 in which no image is displayed is generated between the right end of the sub window WR31 and the right end of the corresponding point image.
  • a portion on the left side of the left end of the sub window WR31 is not displayed.
  • the user refers to the result of confirming the extent to which the region R31 is generated, so that the matching error occurs. It can be determined whether or not.
  • FIG. 12 shows a display screen 50 of the display unit 5 in the third modification of the first embodiment.
  • the first image is displayed in the main window WL41, and the corresponding point image is displayed in the sub window WR41.
  • the first cursor C41 indicating the measurement point and the second cursor C42 indicating the corresponding point are arranged on a straight line L41 orthogonal to the parallax direction DR1.
  • the corresponding point image generation unit 184 includes a corresponding point calculated by the corresponding point calculation unit 183 in the second image and a region around the corresponding point, and is configured by a part of the second image. A corresponding point image is generated. At this time, the corresponding point image generation unit 184 generates a second corresponding point image whose length in the parallax direction DR1 is smaller than the length in the direction DR2 orthogonal to the parallax direction DR1. That is, the corresponding point image generation unit 184 generates a second corresponding point image that is elongated in the direction DR2.
  • the corresponding point image display control unit 185 displays the second corresponding point image on the display screen 50 so that the first image and the second corresponding point image are aligned along the parallax direction DR1.
  • the corresponding point image display control unit 185 generates an image signal of the sub-window WR42 including the second corresponding point image.
  • the corresponding point image display control unit 185 outputs the generated image signal to the video signal processing circuit 12.
  • the video signal processing circuit 12 synthesizes the video signal output from the CCU 9 and the image signal output from the CPU 18b. Thereby, the sub-window WR42 including the second corresponding point image is displayed.
  • the video signal processing circuit 12 outputs the synthesized video signal to the display unit 5.
  • the display unit 5 displays the subwindow WR42 including the second corresponding point image. In the second corresponding point image included in the sub window WR42, the structure of the subject is shown.
  • the control unit 180 sets the first display area (main window WL41) of the first image, and displays the first image in the main window WL41.
  • the corresponding point image display control unit 185 sets a second display area (sub window WR41) of the corresponding point image and displays the corresponding point image in the sub window WR41. Further, the corresponding point image display control unit 185 sets a third display area (subwindow WR42) of the second corresponding point image, and displays the second corresponding point image in the subwindow WR42.
  • the position of the main window WL41 and the position of the sub window WR42 are different.
  • the main window WL41 and the sub window WR42 do not overlap each other.
  • the corresponding point image display control unit 185 sets a sub window WR42 on the right side of the main window WL41 on the display screen 50. On the display screen 50, a sub window WR42 may be set on the left side of the main window WL41.
  • the length (width) of the sub window WR42 in the parallax direction DR1 is smaller than the length (width) of the sub window WR42 in the direction DR2 orthogonal to the parallax direction DR1.
  • the length (width) of the sub window WR42 in the direction DR2 orthogonal to the parallax direction DR1 is the same as the length (width) of the main window WL41 in the direction DR2 orthogonal to the parallax direction DR1.
  • the corresponding point display control unit 186 displays a third cursor C43 indicating the corresponding point on the display screen 50. At this time, the corresponding point display control unit 186 displays the third cursor C43 on the second corresponding point image. The position of the third cursor C43 is the same as the position of the corresponding point in the second corresponding point image.
  • the auxiliary line display control unit 188 causes the display screen 50 to display the auxiliary line L42 that is parallel to the parallax direction DR1 and passes through the measurement points on the first image and the second corresponding point image.
  • the auxiliary line L42 passes through the first cursor C41.
  • the auxiliary line L42 may pass through the corresponding point in the second corresponding point image, or the auxiliary line L42 may not pass through the corresponding point in the second corresponding point image.
  • the user By displaying the second corresponding point image, the user generates a mismatching correspondence by referring not only to the subject information in the parallax direction DR1 but also to a wider range of subject information in the direction DR2 orthogonal to the parallax direction DR1. It can be judged whether or not.
  • Control that switches between display and non-display of the sub-window, that is, the corresponding point image may be performed by an instruction from the user or some determination process. For example, when the movement command is continued by the operation of the operation unit 4, that is, when the measurement point moves without stopping in the first image, the corresponding point image display control unit 185 displays the subwindow, that is, the corresponding point image. I won't let you. Alternatively, when the moving speed of the measurement point displayed on the first image is higher than a predetermined threshold, the corresponding point image display control unit 185 does not display the corresponding point image.
  • the corresponding point image display control unit 185 displays a subwindow, that is, a corresponding point image.
  • the corresponding point image display control unit 185 may display the sub-window, that is, the corresponding point image.
  • the control for switching between display and non-display of the sub-window, that is, the corresponding point image may be performed by determining the reliability indicating whether the measurement point is suitable for measurement. For example, the brightness of the image at the position where the measurement point is designated can be used for the determination. An index such as reliability generated in the course of the matching process may be used for the determination. For example, the sub window is displayed when the reliability is low, but the sub window may not be displayed when the reliability is high.
  • the user himself / herself may instruct to switch between displaying and hiding the sub-window, that is, the corresponding point image.
  • a button for switching between display and non-display is provided in the operation unit 4, the user inputs a display or non-display instruction by operating the button of the operation unit 4.
  • the corresponding point image display control unit 185 displays a sub-window, that is, a corresponding point image.
  • a non-display instruction is input, the corresponding point image display control unit 185 does not display the subwindow, that is, the corresponding point image.
  • the user may be able to set the sub-window transparency.
  • the user can confirm the state of the subject in the first image displayed in the main window.
  • a zoom function may be mounted on the sub-window. That is, the corresponding point image display control unit 185 may display the corresponding point image at a display magnification higher than the display magnification of the first image. Alternatively, the corresponding point image display control unit 185 may display the corresponding point image at a display magnification lower than the display magnification of the first image.
  • the zoom function the user can more accurately determine whether or not a matching error occurs in a state where the attention range is enlarged and displayed. Alternatively, the user can check the state of the entire subject in a state where the corresponding point image is reduced and displayed.
  • Zoom function may be installed in the main window. That is, the corresponding point image display control unit 185 may be able to change the display magnification of the first image. Immediately after the sub window is displayed on the display screen 50 of the display unit 5, the zoom magnification of the main window and the sub window may be the same. If the zoom magnification of each window is equal immediately after the sub-window is displayed, the user can easily confirm whether or not a matching error has occurred.
  • the control unit 180 and the corresponding point image display control unit 185 may link the zoom magnification in the main window and the zoom magnification in the sub-window according to a magnification change instruction from the user. By linking the zoom magnification of each window, it is possible to support a user's operation to check whether or not a matching error has occurred.
  • a depth image (depth map) obtained by three-dimensional measurement or a reliability map may be displayed. For example, these are superimposed on the corresponding point image.
  • a notification for alerting the user may be given.
  • the colors of the display frames of the main window and the sub window displayed on the display screen 50 of the display unit 5 may change.
  • a message may be displayed.
  • the displayed image may be processed.
  • the parallax direction is diagonal.
  • the straight line orthogonal to the parallax direction is also oblique. Similar to the first embodiment, when the position of the corresponding point image is adjusted so that the measurement point and the corresponding point are arranged on a straight line orthogonal to the parallax direction, the horizontal direction on the display screen 50 of the display unit 5 is adjusted. On the other hand, measurement points and corresponding points are arranged on an oblique straight line. In such a specification, the user cannot easily determine whether or not the matching is correctly performed in consideration of the usage status of the product.
  • the measurement point and the corresponding point are completely orthogonal to the parallax direction. It does not have to be arranged on a straight line.
  • the measurement point is on a straight line parallel to a direction (horizontal direction or vertical direction) that is one of the horizontal direction and the vertical direction on the display screen 50 of the display unit 5 and is close to the direction orthogonal to the parallax direction. And corresponding points are arranged.
  • the corresponding point image display control unit 185 causes the measurement screen and the straight line passing through the corresponding point to be parallel to the vertical direction of the display screen 50 on the display screen 50.
  • the corresponding point image may be displayed.
  • the corresponding point image display control unit 185 causes the display screen 50 so that the measurement point and the straight line passing through the corresponding point are parallel to the horizontal direction of the display screen 50.
  • the corresponding point image may be displayed.
  • FIG. 13A and 13B show the display screen 50 of the display unit 5.
  • the first image is displayed in the main window WL51, and the corresponding point image is displayed in the sub window WR51.
  • FIG. 13B the first image is displayed in the main window WL52, and the corresponding point image is displayed in the sub window WR52.
  • the parallax direction DR3 does not coincide with the horizontal direction on the display screen 50 and has an inclination with respect to the horizontal direction on the display screen 50.
  • a direction DR4 orthogonal to the parallax direction DR3 is close to the vertical direction on the display screen 50. For this reason, the corresponding point image is displayed so that the straight line L51 passing through the measurement point and the corresponding point is parallel to the vertical direction on the display screen 50.
  • the first cursor C51 indicating the measurement point and the second cursor C52 indicating the corresponding point are arranged on the straight line L51.
  • the parallax direction DR5 does not coincide with the vertical direction on the display screen 50 and has an inclination with respect to the vertical direction on the display screen 50.
  • a direction DR6 orthogonal to the parallax direction DR5 is close to the horizontal direction on the display screen 50. For this reason, the corresponding point image is displayed so that the straight line L52 passing through the measurement point and the corresponding point is parallel to the horizontal direction on the display screen 50.
  • the first cursor C53 indicating the measurement point and the second cursor C54 indicating the corresponding point are arranged on the straight line L52.
  • the direction orthogonal to the parallax direction is also tilted 45 deg with respect to the horizontal direction on the display screen 50.
  • the measurement point and the corresponding point on the display screen 50 are arranged on a straight line parallel to one of the horizontal direction and the vertical direction.
  • the parallax direction may be inclined by about several degrees with respect to the display screen 50 due to insufficient mounting of the optical adapter.
  • the measurement points and the corresponding points may be arranged on a straight line parallel to the vertical direction of the display screen 50, not a straight line that is completely orthogonal to the parallax direction. . As a result, the user can quickly determine whether or not a matching error has occurred.
  • a second embodiment of the present invention will be described using the measurement endoscope apparatus 1 shown in FIGS. 1 and 2.
  • the display position of the corresponding point image is adjusted so that the measurement point designated by the user in the first image matches the position of the corresponding point in the corresponding point image.
  • the corresponding point image is displayed in a translucent state so that the first image can be visually recognized through the corresponding point image.
  • the corresponding point image display control unit 185 translucently processes the corresponding point image so that the measurement point and the corresponding point image overlap and the first image is visible through the corresponding point image. Display on the first image.
  • the corresponding point image display control unit 185 displays the corresponding point image on the first image so that the measurement point and the corresponding point overlap each other.
  • FIG. 14 shows processing in the measurement mode.
  • FIG. 15 shows a display screen 50 of the display unit 5. As shown in FIG. 15, the first image is displayed in the main window WL61, and the corresponding point image is displayed in the sub window WR61.
  • the corresponding point image display control unit 185 processes the corresponding point image so that the corresponding point image becomes translucent. Since the corresponding point image becomes semi-transparent in a state where the corresponding point image is superimposed on the first image, in the region where the first image and the corresponding point image overlap each other, both the first image and the corresponding point image are Visible. Further, the corresponding point image display control unit 185 adjusts the position of the corresponding point image in the sub window WR61. Specifically, the corresponding point image display control unit 185 displays the corresponding point images so that the positions of the measurement points and the corresponding points match. For this reason, the first cursor C61 indicating the measurement point and the second cursor C62 indicating the corresponding point overlap each other (step S121). After step S121, the process in step S110 is performed.
  • the position of the structure around the corresponding point in the corresponding point image in the sub window WR61 is shifted to the left side from the position of the structure around the measurement point in the first image in the main window WL61. That is, a matching error has occurred. Since the corresponding point image is displayed in a semi-transparent state, the user can quickly determine whether or not a matching mismatch has occurred by checking the deviation between the first image and the corresponding point image. Can do.
  • the auxiliary line display control unit 188 causes the display screen 50 to display one or more auxiliary lines orthogonal to the parallax direction DR1 on the first image and the corresponding point image.
  • the auxiliary line display control unit 188 displays the auxiliary line so that the auxiliary line passes through the measurement point.
  • FIG. 16 shows processing in the measurement mode.
  • FIG. 17 shows the display screen 50 of the display unit 5. As shown in FIG. 17, the first image is displayed in the main window WL71, and the corresponding point image is displayed in the sub window WR71.
  • the first cursor C71 indicating the measurement point and the second cursor C72 indicating the corresponding point are arranged on a straight line orthogonal to the parallax direction DR1.
  • the auxiliary line display control unit 188 causes the display screen 50 to display the auxiliary line L71 orthogonal to the parallax direction DR1 and passing through the measurement point on the first image and the corresponding point image.
  • the corresponding point image is displayed so that the measurement point and the corresponding point are arranged on a straight line orthogonal to the parallax direction DR1.
  • the auxiliary line L71 orthogonal to the parallax direction DR1 passes through the measurement point and the corresponding point. That is, the auxiliary line L71 passes through the first cursor C71 and the second cursor C72.
  • the auxiliary line display control unit 188 displays the auxiliary line so that the auxiliary line passes through the measurement point and the corresponding point (step S131).
  • the line type, thickness, and color of the auxiliary line L71 may be arbitrarily set. After step S131, the process in step S110 is performed.
  • An auxiliary line L72 shown in FIG. 18A is a straight line passing through the first cursor C71 and the second cursor C72. That is, the auxiliary line L72 is a straight line passing through the measurement point and the corresponding point.
  • the auxiliary line L72 is the same as the auxiliary line L71.
  • An auxiliary line L73 shown in FIG. 18B is a line segment passing through the first cursor C71 and the second cursor C72. That is, the auxiliary line L73 is a line segment connecting the measurement point and the corresponding point.
  • auxiliary line L74 shown in FIG. 18C is a straight line passing through the first cursor C71.
  • An auxiliary line L75 shown in FIG. 18C is a straight line passing through the second cursor C72.
  • the auxiliary line L74 and the auxiliary line L75 do not intersect.
  • the auxiliary line L76 and the auxiliary line L77 shown in FIG. 18D do not intersect with the first cursor C71 and the second cursor C72.
  • the auxiliary line L76 and the auxiliary line L77 are part of a straight line passing through the first cursor C71 and the second cursor C72.
  • the position of the structure around the corresponding point in the corresponding point image in the sub window WR71 is shifted to the left side from the position of the structure around the measurement point in the first image in the main window WL71. That is, a matching error has occurred.
  • the user refers to the position of the auxiliary line L71 and compares the image around the measurement point with the image around the corresponding point to determine whether the image around the corresponding point is shifted from the image around the measurement point. It can be easily confirmed. For example, the user can confirm the image shift by comparing the distance from the auxiliary line L71 to the characteristic structure in the first image and the corresponding point image. For this reason, the user can easily determine whether or not a matching error has occurred.
  • FIG. 19 shows a functional configuration of the CPU 18c. The difference between the configuration shown in FIG. 19 and the configuration shown in FIG. 10 will be described.
  • the CPU 18c has a feature point calculation unit 189 in addition to the configuration shown in FIG.
  • the feature point calculation unit 189 calculates first feature points other than the measurement points in the subject of the first image.
  • the auxiliary line display control unit 188 displays the auxiliary line so that the auxiliary line passes through the first feature point.
  • the feature point calculation unit 189 calculates second feature points other than the corresponding points in the subject of the corresponding point image.
  • the auxiliary line display control unit 188 displays the auxiliary line so that the auxiliary line passes through the second feature point.
  • FIG. 20 shows the display screen 50 of the display unit 5.
  • the first image is displayed in the main window WL81
  • the corresponding point image is displayed in the sub window WR81.
  • the first cursor C81 indicating the measurement point and the second cursor C82 indicating the corresponding point are arranged on a straight line orthogonal to the parallax direction DR1.
  • the auxiliary line display control unit 188 displays an auxiliary line L81 passing through the first cursor C81 and the second cursor C82.
  • the feature point calculation unit 189 calculates the feature point P81 of the subject from the image around the measurement point in the first image. For example, as a method for calculating a feature point, a method using a Harris feature amount, a SIFT feature amount, a FAST feature amount, or the like can be given. In FIG. 20, one feature point P81 in the first image is calculated, but a plurality of feature points may be calculated.
  • the auxiliary line display control unit 188 displays an auxiliary line L82 orthogonal to the parallax direction DR1 and passing through the feature point P81.
  • the auxiliary line L82 is parallel to the auxiliary line L81.
  • the feature point calculation unit 189 calculates the feature point P82 of the subject from the image around the corresponding point in the corresponding point image. In FIG. 20, one feature point P82 in the corresponding point image is calculated, but a plurality of feature points may be calculated.
  • the auxiliary line display control unit 188 displays an auxiliary line L83 that is orthogonal to the parallax direction DR1 and passes through the feature point P82.
  • the auxiliary line L83 is parallel to the auxiliary line L81. Only one of the feature point P81 and the feature point P82 may be detected, and only one of the auxiliary line L82 and the auxiliary line L83 may be displayed.
  • the position of the structure around the corresponding point in the corresponding point image in the sub-window WR81 is shifted to the left from the position of the structure around the measurement point in the first image in the main window WL81. That is, a matching error has occurred.
  • the auxiliary line L82 and the auxiliary line L83 are displayed, the user can easily confirm the peripheral portion of the measurement point in the first image and the peripheral portion of the corresponding point in the corresponding point image. For example, the user checks the image shift by comparing the structure on the auxiliary line L82 or auxiliary line L83 in the first image with the structure on the auxiliary line L82 or auxiliary line L83 in the corresponding point image. Can do. For this reason, the user can easily determine whether or not a matching error has occurred.
  • FIG. 21 shows a functional configuration of the CPU 18d.
  • the configuration shown in FIG. 21 will be described while referring to differences from the configuration shown in FIG.
  • the CPU 18d has a feature corresponding point calculation unit 190 in addition to the configuration shown in FIG.
  • the feature point calculation unit 189 calculates feature points other than the measurement points in the subject of the first image.
  • the feature corresponding point calculation unit 190 calculates a feature corresponding point on the second image corresponding to the feature point on the first image.
  • the auxiliary line display control unit 188 displays the auxiliary line passing through the feature point and the feature corresponding point.
  • FIG. 22 shows the display screen 50 of the display unit 5.
  • the first image is displayed in the main window WL91
  • the corresponding point image is displayed in the sub window WR91.
  • the first cursor C91 indicating the measurement point and the second cursor C92 indicating the corresponding point are arranged on a straight line orthogonal to the parallax direction DR1.
  • the auxiliary line display control unit 188 displays an auxiliary line L91 passing through the first cursor C91 and the second cursor C92.
  • the feature point calculation unit 189 calculates the feature point P91 of the subject from the image around the measurement point in the first image. In FIG. 22, one feature point P91 in the first image is calculated, but a plurality of feature points may be calculated.
  • the feature corresponding point calculation unit 190 calculates the feature point P92 (feature corresponding point) of the subject from the image around the corresponding point in the corresponding point image. In FIG. 22, one feature point P92 in the corresponding point image is calculated, but a plurality of feature points may be calculated.
  • the feature corresponding point calculation unit 190 performs matching between the feature point P91 and the feature point P92, and determines whether the image features at the feature point P91 and the feature point P92 are similar. When it is determined that the features are similar, the feature corresponding point calculation unit 190 determines that the feature point P91 and the feature point P92 are the same point. That is, the feature corresponding point calculation unit 190 determines that the feature point P92 is a feature corresponding point of the feature point P91. There may be a plurality of feature corresponding points.
  • the auxiliary line display control unit 188 displays the feature point P91 determined to be the same point and the auxiliary line L92 passing through the feature point P92.
  • the measurement point indicated by the first cursor C91 is in a rectangle located on the left side of the rectangle closest to the triangle.
  • the corresponding point indicated by the second cursor C92 is in the rectangle closest to the triangle. For this reason, a measurement point and a corresponding point do not correspond. That is, a matching error has occurred.
  • the user refers to the position of the auxiliary line L92 and compares the image around the measurement point with the image around the corresponding point to determine whether the image around the corresponding point is shifted from the image around the measurement point. It can be easily confirmed. For example, when the auxiliary line L92 is diagonal rather than vertical, the user can confirm the image shift. For this reason, the user can easily determine whether or not a matching error has occurred.
  • FIGS. 1 and 2 A fourth embodiment of the present invention will be described using the measurement endoscope apparatus 1 shown in FIGS. 1 and 2.
  • the display position of the sub window is switched according to the position of the measurement point in the first image displayed on the main window.
  • the corresponding point image display control unit 185 controls the display position of the corresponding point image according to the position of the measurement point.
  • the corresponding point image display control unit 185 sets a plurality of image areas arranged in the direction DR2 orthogonal to the parallax direction DR1 in the first image.
  • the plurality of image areas include a first image area and a second image area.
  • the direction orthogonal to the parallax direction DR1 and heading from the first image area to the second image area is the first direction.
  • the direction orthogonal to the parallax direction DR1 and heading from the second image area to the first image area is the second direction.
  • the corresponding point image display control unit 185 displays the corresponding point image at a position on the first direction side of the measurement point.
  • the corresponding point image display control unit 185 displays the corresponding point image at a position on the second direction side of the measurement point.
  • the corresponding point image display control unit 185 displays the corresponding point image on the first image.
  • FIG. 23 shows processing in the measurement mode.
  • 24A and 24B show the display screen 50 of the display unit 5.
  • Corresponding point image display control unit 185 presets first image region R101 and second image region R102 in the first image displayed on main window WL101.
  • the first image region R101 and the second image region R102 are arranged in a direction DR2 orthogonal to the parallax direction DR1.
  • the first image includes only the first image region R101 and the second image region R102.
  • the areas of the first image region R101 and the second image region R102 are the same, but the areas of the first image region R101 and the second image region R102 may be different.
  • a first direction DR101 and a second direction DR102 are defined.
  • the first direction DR101 is a direction orthogonal to the parallax direction DR1 and heading from the first image region R101 to the second image region R102.
  • the second direction DR102 is a direction orthogonal to the parallax direction DR1 and from the second image region R102 toward the first image region R101.
  • the second direction DR102 is the opposite direction of the first direction DR101.
  • step S106 the corresponding point image display control unit 185 determines the position of the measurement point read in step S104 (step S141).
  • step S142 the corresponding point image display control unit 185 displays the corresponding point image at a position closer to the first direction DR101 than the measurement point (step S142).
  • step S143 the corresponding point image display control unit 185 displays the corresponding point image at a position closer to the second direction DR102 than the measurement point (step S143).
  • step S142 even if the measurement point is in the first image region R101, the corresponding point image is not necessarily displayed in the second image region R102.
  • step S143 even if the measurement point is in the second image region R102, the corresponding point image is not necessarily displayed in the first image region R101.
  • the position where the corresponding point image is displayed in step S142 and step S143 may be either the first image region R101 or the second image region R102. Further, the position where the corresponding point image is displayed in step S142 and step S143 may be a region different from the first image region R101 and the second image region R102. That is, the position where the corresponding point image is displayed in step S142 and step S143 may be an area outside the first image.
  • the corresponding point image display control unit 185 displays the corresponding point image at a position closer to the first direction DR101 than the first cursor C101.
  • a sub window WR101 including a corresponding point image is displayed at a position closer to the first direction DR101 than the first cursor C101.
  • the sub window WR101 is displayed in the second image region R102.
  • the length (width) of the sub window WR101 in the direction DR2 orthogonal to the parallax direction DR1 is smaller than the length (width) of each of the first image region R101 and the second image region R102 in the direction DR2.
  • the first cursor C101 and the second cursor C102 are arranged on a straight line L101 orthogonal to the parallax direction DR1.
  • the sub window WR101 is not necessarily displayed in the second image region R102.
  • the sub-window WR101 can be displayed in the first image region R101.
  • the first cursor C103 indicating the measurement point is in the second image region R102. Therefore, in step S143, the corresponding point image display control unit 185 displays the corresponding point image at a position closer to the second direction DR102 than the first cursor C103.
  • a sub window WR102 including a corresponding point image is displayed at a position closer to the second direction DR102 than the first cursor C103.
  • the sub window WR102 is displayed in the first image region R101.
  • the length (width) of the sub window WR102 in the direction DR2 orthogonal to the parallax direction DR1 is smaller than the length (width) of each of the first image region R101 and the second image region R102 in the direction DR2.
  • the first cursor C103 and the second cursor C104 are arranged on a straight line L102 orthogonal to the parallax direction DR1.
  • two image areas are set.
  • Three or more image areas may be set.
  • two of the three or more regions are the first image region and the second image region.
  • the plurality of image areas may be changeable as necessary.
  • the corresponding point image is displayed at a position closer to the first direction DR101 or the second direction DR102 than the measurement point according to the position of the measurement point. For this reason, the corresponding point image can be displayed at a position that is not easily limited by the size of the display screen 50 of the display unit 5. That is, the corresponding point image can be displayed at an easy-to-see position.
  • the corresponding point image display control unit 185 of the first modification example of the fourth embodiment sets a plurality of image regions arranged in the direction DR2 orthogonal to the parallax direction DR1 in the first image.
  • the plurality of image areas include a first image area and a second image area.
  • the corresponding point image display control unit 185 displays the corresponding point image in the first image area.
  • the corresponding point image display control unit 185 displays the corresponding point image in the second image area.
  • the corresponding point image display control unit 185 presets the first image region R111 and the second image region R112 in the first image displayed on the main window WL111.
  • the first image region R111 and the second image region R112 are the same as the first image region R101 and the second image region R102 in FIGS. 24A and 24B.
  • a first direction DR111 and a second direction DR112 are defined.
  • the first direction DR111 and the second direction DR112 are the same as the first direction DR101 and the second direction DR102 in FIGS. 24A and 24B.
  • the first cursor C111 indicating the measurement point is in the first image region R111.
  • the corresponding point image display control unit 185 displays the corresponding point image in the first image region R111.
  • a sub window WR111 including the corresponding point image is displayed in the first image region R111.
  • the length (width) of the sub window WR111 in the direction DR2 orthogonal to the parallax direction DR1 is smaller than the length (width) of each of the first image region R111 and the second image region R112 in the direction DR2.
  • the first cursor C111 and the second cursor C112 are arranged on a straight line L111 orthogonal to the parallax direction DR1.
  • the first cursor C113 indicating the measurement point is in the second image region R112. Therefore, the corresponding point image display control unit 185 displays the corresponding point image in the second image region R112. A sub window WR112 including the corresponding point image is displayed in the second image region R112. The length (width) of the sub window WR112 in the direction DR2 orthogonal to the parallax direction DR1 is smaller than the length (width) of each of the first image region R111 and the second image region R112 in the direction DR2.
  • the first cursor C113 and the second cursor C114 are arranged on a straight line L112 orthogonal to the parallax direction DR1.
  • the corresponding point image is displayed in the same image area as the image area where the measurement points are displayed. Since the corresponding point image is easily displayed near the measurement point, the user can easily compare the first image and the corresponding point image.
  • the corresponding point image display control unit 185 of the second modification example of the fourth embodiment includes a first image region obtained by dividing the first image in the direction DR2 orthogonal to the parallax direction DR1 in the first image, and the first image region. 2 image areas are set.
  • the direction orthogonal to the parallax direction DR1 and heading from the first image area to the second image area is the first direction.
  • the direction orthogonal to the parallax direction DR1 and heading from the second image area to the first image area is the second direction.
  • the corresponding point image display control unit 185 sets the first display area at a position on the second direction side with respect to the first image area on the display screen 50 and the first direction with respect to the second image area.
  • a second display area is set at the side position.
  • the corresponding point image display control unit 185 displays the corresponding point image in the first display area.
  • the corresponding point image display control unit 185 displays the corresponding point image in the second display area.
  • 26A and 26B show the display screen 50 of the display unit 5.
  • the corresponding point image display control unit 185 presets the first image region R121 and the second image region R122 in the first image displayed on the main window WL121.
  • the first image region R121 and the second image region R122 are the same as the first image region R101 and the second image region R102 in FIGS. 24A and 24B.
  • 26A and 26B a first direction DR121 and a second direction DR122 are defined.
  • the first direction DR121 and the second direction DR122 are the same as the first direction DR101 and the second direction DR102 in FIGS. 24A and 24B.
  • the corresponding point image display control unit 185 sets the first display region R123 at a position closer to the second direction DR122 than the first image region R121. .
  • the first display region R123 does not overlap with the first image region R121.
  • the first display region R123 is set between the first image region R121 and the peripheral portion of the display screen 50.
  • the first display region R123 may be in contact with the first image region R121.
  • the corresponding point image display control unit 185 sets the second display region R124 at a position closer to the first direction DR121 than the second image region R122.
  • the second display region R124 does not overlap with the second image region R122.
  • the second display region R124 is set between the second image region R122 and the peripheral portion of the display screen 50.
  • the second display area R124 may be in contact with the second image area R122.
  • the first cursor C121 indicating the measurement point is in the first image region R121. Therefore, the corresponding point image display control unit 185 displays the corresponding point image in the first display region R123.
  • the corresponding point image display control unit 185 causes the corresponding point image to be displayed in the first display region R123 closer to the first image region R121 out of the first display region R123 and the second display region R124.
  • a sub window WR121 including the corresponding point image is displayed in the first display region R123.
  • the length (width) of the sub window WR121 in the direction DR2 orthogonal to the parallax direction DR1 is the same as the length (width) of each of the first display region R123 and the second display region R124 in the direction DR2.
  • the first cursor C121 and the second cursor C122 are arranged on a straight line L121 orthogonal to the parallax direction DR1.
  • the first cursor C123 indicating the measurement point is in the second image region R122.
  • the corresponding point image display control unit 185 displays the corresponding point image in the second display region R124.
  • the corresponding point image display control unit 185 causes the corresponding point image to be displayed in the second display region R124 closer to the second image region R122 out of the first display region R123 and the second display region R124.
  • a sub window WR122 including the corresponding point image is displayed in the second display region R124.
  • the length (width) of the sub window WR122 in the direction DR2 orthogonal to the parallax direction DR1 is the same as the length (width) of each of the first display region R123 and the second display region R124 in the direction DR2.
  • the first cursor C123 and the second cursor C124 are arranged on a straight line L122 orthogonal to the parallax direction DR1.
  • a measurement point image around the measurement point is generated from the first image.
  • the corresponding point image is displayed so that a straight line passing through the measurement point in the measurement point image and the corresponding point in the corresponding point image is orthogonal to the parallax direction DR1.
  • FIG. 27 shows a functional configuration of the CPU 18e.
  • the configuration shown in FIG. 27 will be described while referring to differences from the configuration shown in FIG.
  • the CPU 18e includes a measurement point image generation unit 191 and a measurement point image display control unit 192 in addition to the configuration shown in FIG.
  • the measurement point image generation unit 191 generates a measurement point image that includes a measurement point and a region around the measurement point in the first image, and includes a part of the first image.
  • the measurement point image display control unit 192 displays the measurement point image on the display screen 50.
  • the corresponding point image display control unit 185 displays the corresponding point image on the display screen 50 such that a straight line passing through the measurement point in the measurement point image and the corresponding point in the corresponding point image is orthogonal to the parallax direction DR1.
  • FIG. 28 shows processing in the measurement mode.
  • 29A and 29B show the display screen 50 of the display unit 5.
  • the first image is displayed on the main window WL131, and the first cursor C131 indicating the measurement point is displayed on the main window WL131.
  • the measurement point image generation unit 191 generates a measurement point image that includes the measurement point and the area around the measurement point in the first image, and includes a part of the first image. At this time, the measurement point image generation unit 191 generates a measurement point image whose length in the parallax direction DR1 is larger than the length in the direction DR2 orthogonal to the parallax direction DR1. That is, the measurement point image generation unit 191 generates a corresponding point image that is elongated in the parallax direction DR1 (step S151).
  • the measurement point image display control unit 192 After step S151, the measurement point image display control unit 192 generates an image signal of the sub window WL132 including the measurement point image.
  • the measurement point image display control unit 192 outputs the generated image signal to the video signal processing circuit 12.
  • the video signal processing circuit 12 combines the video signal output from the CCU 9 and the image signal output from the CPU 18e. Thereby, the subwindow WL132 including the measurement point image is displayed.
  • the video signal processing circuit 12 outputs the synthesized video signal to the display unit 5.
  • the display unit 5 displays the subwindow WL132 including the measurement point image (Step S152). In the measurement point image included in the sub window WL132, the structure of the subject is shown.
  • the measurement point image display control unit 192 displays the measurement point image on the first image. At this time, the measurement point image display control unit 192 displays the measurement point image so that a part or all of the measurement point image overlaps the first image. In FIG. 29A and FIG. 29B, all of the measurement point images in the sub window WL132 overlap with the first image in the main window WL131. In the main window WL131, the first image in the region where the main window WL131 and the subwindow WL132 overlap each other cannot be visually recognized. In step S152, the measurement point image display control unit 192 sets the measurement point image display area (subwindow WL132) as the first image, and displays the measurement point image in the subwindow WL132.
  • the measurement point image display control unit 192 sets the measurement point image display area (subwindow WL132) as the first image, and displays the measurement point image in the subwindow WL132.
  • step S152 the measurement point image display control unit 192 displays the measurement point image so that the parallax direction in the measurement point image is parallel to the parallax direction DR1 in the first image. That is, the measurement point image display control unit 192 displays the measurement point image so that the measurement point image does not tilt with respect to the first image.
  • the measurement point image display control unit 192 displays the measurement point image so that the position of the measurement point on the measurement point image in the parallax direction DR1 is different from the position of the measurement point on the first image. That is, the measurement point image display control unit 192 displays the measurement point image so that the measurement point in the measurement point image is shifted in the parallax direction DR1 with respect to the measurement point in the first image.
  • the measurement point image display control unit 192 may display the measurement point image so that the position of the measurement point on the measurement point image in the parallax direction DR1 is the same as the position of the measurement point on the first image. .
  • the measurement point in the first image, the measurement point in the measurement point image, and the corresponding point in the corresponding point image are arranged on a straight line orthogonal to the parallax direction DR1.
  • the measurement point image display control unit 192 determines the measurement point so that the position of the measurement point on the measurement point image in the direction DR2 orthogonal to the parallax direction DR1 is different from the position of the measurement point on the first image. Display an image. That is, the measurement point image display control unit 192 displays the measurement point image so that the measurement point in the measurement point image is shifted in the direction DR2 with respect to the measurement point in the first image. The measurement point image display control unit 192 may display the measurement point image so that the position of the measurement point on the measurement point image in the direction DR2 is the same as the position of the measurement point on the first image. In this case, the measurement point in the first image and the measurement point in the measurement point image are arranged on a straight line parallel to the parallax direction DR1.
  • the measurement point image display control unit 192 displays the measurement point image so that the measurement points in the measurement point image are separated from the measurement points in the first image. That is, the measurement point image display control unit 192 displays the measurement point images so that the measurement points in the measurement point image are different from the positions of the measurement points in the first image.
  • the measurement point image display control unit 192 may display the measurement point image so that the measurement point in the measurement point image and the position of the measurement point in the first image coincide.
  • the measurement point image display control unit 192 displays the measurement point image so that the measurement point image is separated from the measurement point in the first image. That is, the measurement point image display control unit 192 displays the measurement point image so that the measurement point image does not overlap the measurement point in the first image. The measurement point image display control unit 192 may display the measurement point image so that the measurement point image overlaps the measurement point in the first image.
  • the measurement point image display control unit 192 displays the measurement point image at a display magnification higher than the display magnification of the first image.
  • the sub window WL132 can be used as a zoom window for displaying an enlarged image.
  • the measurement point image display control unit 192 may display the measurement point image at the same display magnification as the display magnification of the first image.
  • the sub window WL132 may be used for purposes other than the zoom window. For example, a reduced image, a depth image (depth map), or a reliability map may be displayed in the sub-window WL132.
  • the fourth cursor C133 is displayed so that the user can easily confirm the position of the measurement point in the measurement point image.
  • the measurement point display control unit 182 displays a fourth cursor C133 indicating the measurement point in the measurement point image on the display screen 50. At this time, the measurement point display control unit 182 displays the fourth cursor C133 on the measurement point image (step S153).
  • the process in step S104 is performed.
  • the position of the fourth cursor C133 is the same as the position of the measurement point in the measurement point image.
  • the fourth cursor C133 indicates the same position as the position on the subject indicated by the first cursor C131.
  • the fourth cursor C133 moves in conjunction with the movement of the first cursor C131.
  • the process related to the movement of the fourth cursor C133 is not shown in FIG.
  • the fourth cursor C133 is separated from the first cursor C131. That is, the measurement points in the measurement point image are separated from the measurement points in the first image. Since the measurement point image is displayed so that the measurement point image is separated from the measurement point in the first image, the subwindow WR132 does not overlap the first cursor C131.
  • the corresponding point image display control unit 185 adjusts the position of the corresponding point image in the sub window WR131. Specifically, the corresponding point image display control unit 185 displays the corresponding point image so that the measurement point in the measurement point image and the corresponding point in the corresponding point image are arranged on the straight line L131.
  • the straight line L131 passes through the fourth cursor C133 and the second cursor C132. That is, the straight line L131 passes through the measurement point in the measurement point image and the corresponding point in the corresponding point image.
  • the straight line L131 is orthogonal to the parallax direction DR1 in the first image and the second image.
  • the corresponding point image display control unit 185 positions the corresponding point image on the display screen 50 so that the straight line L131 passing through the measurement point in the measurement point image and the corresponding point in the corresponding point image is orthogonal to the parallax direction DR1. Is adjusted (step S154). At this time, the straight line L131 is not displayed on the display screen 50.
  • step S154 the measurement point display control unit 182 adjusts the position of the fourth cursor C133, and the corresponding point display control unit 186 adjusts the position of the second cursor C132. That is, the measurement point display control unit 182 displays the fourth cursor C133 on the straight line L131 on the display screen 50. The corresponding point display control unit 186 displays the second cursor C132 on the straight line L131 on the display screen 50.
  • step S110 the process in step S110 is performed.
  • the corresponding point image display control unit 185 may display the corresponding point image at the same display magnification as the display magnification of the measurement point image. As a result, the user can easily confirm whether or not a matching error has occurred.
  • FIG. 29A shows the display screen 50 of the display unit 5 when no matching mismatch has occurred.
  • the positions indicated by the fourth cursor C133 and the second cursor C132 in the subject coincide. That is, the positions of the measurement points and the corresponding points on the subject are the same.
  • the periphery of the measurement point in the measurement point image in the parallax direction DR1 The position of the structure and the position of the structure around the corresponding point in the corresponding point image are the same. For this reason, the user can determine that no matching error has occurred.
  • FIG. 29B shows the display screen 50 of the display unit 5 in the case where a matching mismatch has occurred.
  • the positions indicated by the fourth cursor C133 and the second cursor C132 in the subject do not match. That is, the positions of measurement points and corresponding points on the subject do not match. Specifically, the corresponding point in the corresponding point image is shifted to the right side from the position of the measurement point in the subject of the measurement point image.
  • the position of the corresponding point image is adjusted so that the straight line L131 passing through the measurement point in the measurement point image and the corresponding point in the corresponding point image is orthogonal to the parallax direction DR1, the position of the structure around the corresponding point in the corresponding point image Is shifted to the left from the position of the structure around the measurement point in the measurement point image. For this reason, the user can determine that a matching error has occurred.
  • the user can confirm the state of the entire subject through the main window WL131 for displaying the first image. At the same time, the user can confirm the fine texture (pattern), color, and edge position of the subject through the sub-window WL132 in which the measurement point image is enlarged and displayed. For this reason, the user can easily confirm whether or not a matching error has occurred.
  • the corresponding point image When the corresponding point image is displayed on the first image so that the measurement point and the corresponding point overlap each other, the corresponding point image may be displayed so as to cover the first image from above. That is, the first image in the region where the first image and the corresponding point image overlap each other may not be visible.
  • the user can easily determine whether or not a matching error has occurred.

Abstract

計測処理装置は、撮像部と、画像取得部と、表示部と、計測点表示制御部と、対応点算出部と、対応点画像生成部と、対応点画像表示制御部とを有する。前記計測点表示制御部は、ユーザーによって指定された計測位置を示す計測点を第1の画像上に表示させる。前記対応点画像生成部は、第2の画像において前記対応点算出部によって算出された対応点および当該対応点の周辺の領域を含み、かつ前記第2の画像の一部または全部で構成された対応点画像を生成する。前記対応点画像表示制御部は、表示画面において、前記計測点および前記対応点を通る直線が前記視差方向に直交するように、前記対応点画像を表示させる。

Description

計測処理装置
 本発明は、計測処理装置に関する。
 本願は、2016年8月26日に日本に出願された特願2016-165562号に基づき優先権を主張し、その内容をここに援用する。
 ボイラー、タービン、エンジン、およびパイプ等の内部の傷および腐食等の観察および検査に工業用の内視鏡装置が使用されている。この内視鏡装置では、多様な観察物を観察および検査するための複数種類の光学アダプタが用意されており、かつ内視鏡の先端部分は交換可能である。このような内視鏡装置の1つとして、視差の異なる2つの光学系を有するステレオ光学系を用いて3次元計測を実現する3次元計測用内視鏡装置が存在する。3次元計測用内視鏡装置には、撮像された画像上で指定された計測点を基準に、長さおよび面積などの計測を行う機能が備わっている。
 3次元計測用内視鏡装置には、被写体の傷(欠陥)の長さおよび面積を正確かつ精密に計測することが求められている。ステレオ光学系を使用する3次元計測では、左右の画像の一方においてユーザーによって指定された計測点に位置的に対応する点(対応点)を左右の画像の他方において探すマッチング処理が行われる。しかしながら、被写体と内視鏡との位置関係(物体距離および角度)、照明の明るさ、被写体の形状および性状、等の撮像条件によっては、マッチング誤対応により計測性能が低下する可能性がある。マッチング誤対応は、マッチング処理が行われたときに、真の対応点とは異なる点が対応点として認識される現象である。例えば、内視鏡の照明光が被写体の表面で正反射し、かつ反射光が観察画像に映るという現象すなわちハレーションが発生する場合がある。照明光の正反射による光が映った領域で計測が行われた場合、マッチング誤対応が発生しやすい。マッチング誤対応が発生することにより計測性能が低下する。このため、ユーザーは、指定された計測点に対してマッチング誤対応が発生しているか否かを事前に確認しなければならない。
 マッチング誤対応が発生しているか否かをユーザーがより容易に確認することができる技術が開示されている。例えば、特許文献1には、ユーザーが指定した計測点を含む左画像の一部と、マッチング処理により得られた対応点を含む右画像の一部とを、モニタ上に左右に並べて表示することが開示されている。
日本国特開2011-170276号公報
 特許文献1に記載された発明では、ユーザーは、水平方向に視線を移動させながら左右の画像を見比べることにより、自身が指定した計測点と、マッチング処理により得られた対応点との位置関係に誤り(マッチング誤対応)があるか否かを判断する。しかしながら、特許文献1に記載された発明では、マッチング誤対応が発生しているか否かをユーザーが判断することが難しい場合がある。
 本発明は、マッチング誤対応が発生しているか否かをユーザーが容易に判断することができる計測処理装置を提供することを目的とする。
 本発明の第1の態様によれば、計測処理装置は、撮像部と、画像取得部と、表示部と、計測点表示制御部と、対応点算出部と、対応点画像生成部と、対応点画像表示制御部とを有する。前記撮像部は、被写体を撮像し、かつ撮像信号を生成する。前記画像取得部は、前記撮像信号に基づいて、所定の視差方向に互いに視差を有する第1の画像および第2の画像を取得する。前記表示部は、前記第1の画像が表示される表示画面を有する。前記計測点表示制御部は、ユーザーによって指定された計測位置を示す計測点を前記第1の画像上に表示させる。前記対応点算出部は、前記第1の画像上の前記計測点に対応する、前記第2の画像上の対応点を算出する。前記対応点画像生成部は、前記第2の画像において前記対応点算出部によって算出された前記対応点および当該対応点の周辺の領域を含み、かつ前記第2の画像の一部または全部で構成された対応点画像を生成する。前記対応点画像表示制御部は、前記対応点画像を前記表示画面上に表示させる。前記対応点画像表示制御部は、前記表示画面において、前記計測点および前記対応点を通る直線が前記視差方向に直交するように、前記対応点画像を表示させる。
 本発明の第2の態様によれば、第1の態様において、前記対応点画像表示制御部は、前記対応点が前記計測点に対して離間するように、前記対応点画像を表示させてもよい。
 本発明の第3の態様によれば、第1の態様において、前記対応点画像生成部は、前記視差方向における長さが、前記視差方向に直交する方向における長さよりも大きい前記対応点画像を生成してもよい。
 本発明の第4の態様によれば、第3の態様において、前記対応点画像生成部は、前記視差方向における長さが、前記視差方向に直交する方向における長さよりも小さい第2の対応点画像を生成してもよい。前記対応点画像表示制御部は、前記第1の画像および前記第2の対応点画像が前記視差方向に沿って並ぶように、前記第2の対応点画像を前記表示画面上に表示させてもよい。
 本発明の第5の態様によれば、第4の態様において、前記計測処理装置は、前記表示画面において、前記視差方向に平行であり、かつ前記計測点を通る補助線を前記第1の画像および前記第2の対応点画像上に表示させる補助線表示制御部をさらに有してもよい。
 本発明の第6の態様によれば、第3の態様において、前記対応点画像表示制御部は、前記対応点画像の表示領域を前記表示画面に設定し、かつ当該表示領域内に前記対応点画像を表示させてもよい。前記対応点画像表示制御部は、前記対応点画像が表示されるとき、前記視差方向における前記表示領域の両端位置を、前記視差方向における前記第1の画像の両端位置にそれぞれ一致させてもよい。
 本発明の第7の態様によれば、第2の態様において、前記計測処理装置は、前記表示画面において、前記視差方向に直交する1本以上の補助線を前記第1の画像および前記対応点画像上に表示させる補助線表示制御部をさらに有してもよい。
 本発明の第8の態様によれば、第7の態様において、前記補助線表示制御部は、前記補助線が前記計測点を通るように前記補助線を表示させてもよい。
 本発明の第9の態様によれば、第7の態様において、前記計測処理装置は、前記第1の画像の被写体において、前記計測点以外の第1の特徴点を算出する特徴点算出部をさらに有してもよい。前記補助線表示制御部は、前記補助線が前記第1の特徴点を通るように前記補助線を表示させてもよい。
 本発明の第10の態様によれば、第7の態様において、前記計測処理装置は、前記対応点画像の被写体において、前記対応点以外の第2の特徴点を算出する特徴点算出部をさらに有してもよい。前記補助線表示制御部は、前記補助線が前記第2の特徴点を通るように前記補助線を表示させてもよい。
 本発明の第11の態様によれば、第7の態様において、前記対応点画像表示制御部は、前記対応点画像の表示領域を前記表示画面に設定し、かつ当該表示領域内に前記対応点画像を表示させてもよい。前記対応点画像表示制御部は、前記対応点画像が表示されるとき、前記視差方向における前記表示領域の両端位置を、前記視差方向における前記第1の画像の両端位置にそれぞれ一致させてもよい。前記補助線表示制御部は、前記補助線が前記視差方向における前記対応点画像の両端の少なくとも一方を通るように前記補助線を表示させてもよい。
 本発明の第12の態様によれば、第2の態様において、前記計測処理装置は、特徴点算出部と、特徴対応点算出部と、補助線表示制御部とをさらに有してもよい。前記特徴点算出部は、前記第1の画像の被写体において、前記計測点以外の特徴点を算出してもよい。前記特徴対応点算出部は、前記第1の画像上の前記特徴点に対応する前記第2の画像上の特徴対応点を算出してもよい。前記補助線表示制御部は、前記特徴点および前記特徴対応点を通る補助線を表示させてもよい。
 本発明の第13の態様によれば、第2の態様において、前記対応点画像表示制御部は、前記計測点の位置に応じて、前記対応点画像の表示位置を制御してもよい。
 本発明の第14の態様によれば、第13の態様において、前記対応点画像表示制御部は、前記第1の画像において、前記視差方向に直交する方向に並ぶ複数の画像領域を設定してもよい。前記複数の画像領域は、第1の画像領域および第2の画像領域を含んでもよい。前記視差方向に直交し、かつ前記第1の画像領域から前記第2の画像領域に向かう方向は第1の方向であってもよい。前記視差方向に直交し、かつ前記第2の画像領域から前記第1の画像領域に向かう方向は第2の方向であってもよい。前記計測点が前記第1の画像領域内にある場合、前記対応点画像表示制御部は、前記計測点よりも前記第1の方向側の位置に前記対応点画像を表示させてもよい。前記計測点が前記第2の画像領域内にある場合、前記対応点画像表示制御部は、前記計測点よりも前記第2の方向側の位置に前記対応点画像を表示させてもよい。
 本発明の第15の態様によれば、第14の態様において、前記対応点画像表示制御部は、前記対応点画像を前記第1の画像上に表示させてもよい。
 本発明の第16の態様によれば、第13の態様において、前記対応点画像表示制御部は、前記第1の画像において、前記視差方向に直交する方向に並ぶ複数の画像領域を設定してもよい。前記複数の画像領域は、第1の画像領域および第2の画像領域を含んでもよい。前記計測点が前記第1の画像領域内にある場合、前記対応点画像表示制御部は、前記第1の画像領域に前記対応点画像を表示させてもよい。前記計測点が前記第2の画像領域内にある場合、前記対応点画像表示制御部は、前記第2の画像領域に前記対応点画像を表示させてもよい。
 本発明の第17の態様によれば、第13の態様において、前記対応点画像表示制御部は、前記第1の画像において、前記視差方向に直交する方向に前記第1の画像を二分した第1の画像領域および第2の画像領域を設定してもよい。前記視差方向に直交し、かつ前記第1の画像領域から前記第2の画像領域に向かう方向は第1の方向であってもよい。前記視差方向に直交し、かつ前記第2の画像領域から前記第1の画像領域に向かう方向は第2の方向であってもよい。前記対応点画像表示制御部は、前記表示画面において、前記第1の画像領域よりも前記第2の方向側の位置に第1の表示領域を設定し、かつ前記第2の画像領域よりも前記第1の方向側の位置に第2の表示領域を設定してもよい。前記計測点が前記第1の画像領域内にある場合、前記対応点画像表示制御部は、前記第1の表示領域に前記対応点画像を表示させてもよい。前記計測点が前記第2の画像領域内にある場合、前記対応点画像表示制御部は、前記第2の表示領域に前記対応点画像を表示させてもよい。
 本発明の第18の態様によれば、第1の態様において、前記第1の画像上に表示された前記計測点の移動速度が所定の閾値よりも小さい場合、前記対応点画像表示制御部は、前記対応点画像を表示させてもよい。
 本発明の第19の態様によれば、第1の態様において、前記計測処理装置は、計測点画像生成部と、計測点画像表示制御部とをさらに有してもよい。前記計測点画像生成部は、前記第1の画像において前記計測点および当該計測点の周辺の領域を含み、かつ前記第1の画像の一部で構成された計測点画像を生成してもよい。前記計測点画像表示制御部は、前記計測点画像を前記表示画面上に表示させてもよい。前記対応点画像表示制御部は、前記表示画面において、前記計測点画像における前記計測点と、前記対応点画像における前記対応点とを通る直線が前記視差方向に直交するように、前記対応点画像を表示させてもよい。
 本発明の第20の態様によれば、第19の態様において、前記計測点画像表示制御部は、前記第1の画像の表示倍率よりも高い表示倍率で前記計測点画像を表示させてもよい。
 本発明の第21の態様によれば、第20の態様において、前記対応点画像表示制御部は、前記計測点画像の表示倍率と同じ表示倍率で前記対応点画像を表示させてもよい。
 本発明の第22の態様によれば、第1の態様において、前記対応点画像表示制御部は、前記計測点と前記対応点画像とが重なり、かつ前記第1の画像が前記対応点画像を通して視認可能となるように、前記対応点画像を半透明処理し、かつ前記対応点画像を前記第1の画像上に表示させてもよい。
 本発明の第23の態様によれば、第22の態様において、前記対応点画像表示制御部は、前記計測点と前記対応点とが互いに重なるように、前記対応点画像を前記第1の画像上に表示させてもよい。
 本発明の第24の態様によれば、第1の態様において、前記計測処理装置は、前記対応点を前記対応点画像上に表示させる対応点表示制御部をさらに有してもよい。
 本発明の第25の態様によれば、第24の態様において、前記計測点表示制御部は、前記表示画面において、前記計測点を示す第1のカーソルを前記直線上に表示させてもよい。前記対応点表示制御部は、前記表示画面において、前記対応点を示す第2のカーソルを前記直線上に表示させてもよい。
 本発明の第26の態様によれば、第1の態様において、前記対応点画像表示制御部は、前記第1の画像の表示倍率と同じ表示倍率で前記対応点画像を表示させてもよい。
 本発明の第27の態様によれば、計測処理装置は、画像取得部と、表示部と、計測点表示制御部と、対応点算出部と、対応点画像生成部と、対応点画像表示制御部とを有する。前記画像取得部は、所定の視差方向に互いに視差を有する第1の画像および第2の画像を取得する。前記表示部は、前記第1の画像が表示される表示画面を有する。前記計測点表示制御部は、ユーザーによって指定された計測位置を示す計測点を前記第1の画像上に表示させる。前記対応点算出部は、前記第1の画像上の前記計測点に対応する、前記第2の画像上の対応点を算出する。前記対応点画像生成部は、前記第2の画像において前記対応点算出部によって算出された前記対応点および当該対応点の周辺の領域を含み、かつ前記第2の画像の一部または全部で構成された対応点画像を生成する。前記対応点画像表示制御部は、前記対応点画像を前記表示画面上に表示させる。前記対応点画像表示制御部は、前記表示画面において、前記計測点および前記対応点を通る直線が前記表示画面の垂直方向と平行、または前記表示画面の水平方向と平行になるように、前記対応点画像を表示させる。
 上記の各態様によれば、対応点画像表示制御部は、表示画面において、計測点および対応点を通る直線が視差方向に直交するように、対応点画像を表示させる。これによって、マッチング誤対応が発生しているか否かをユーザーが容易に判断することができる。
本発明の第1の実施形態による計測内視鏡装置の全体構成を示す斜視図である。 本発明の第1の実施形態による計測内視鏡装置の内部構成を示すブロック図である。 本発明の第1の実施形態による計測内視鏡装置における挿入部の先端およびステレオ光学アダプタの構成を示す斜視図である。 本発明の第1の実施形態による計測内視鏡装置における挿入部の先端およびステレオ光学アダプタの構成を示す断面図である。 本発明の第1の実施形態によるCPUの機能構成を示すブロック図である。 本発明の第1の実施形態のステレオ計測による計測点の3次元座標の算出方法を説明するための参考図である。 本発明の第1の実施形態による計測内視鏡装置の動作の手順を示すフローチャートである。 本発明の第1の実施形態における表示部の表示画面を示す参考図である。 本発明の第1の実施形態における表示部の表示画面を示す参考図である。 本発明の第1の実施形態の第1の変形例における表示部の表示画面を示す参考図である。 本発明の第1の実施形態の第2の変形例によるCPUの機能構成を示すブロック図である。 本発明の第1の実施形態の第2の変形例における表示部の表示画面を示す参考図である。 本発明の第1の実施形態の第3の変形例における表示部の表示画面を示す参考図である。 本発明の第1の実施形態の第6の変形例における表示部の表示画面を示す参考図である。 本発明の第1の実施形態の第6の変形例における表示部の表示画面を示す参考図である。 本発明の第2の実施形態による計測内視鏡装置の動作の手順を示すフローチャートである。 本発明の第2の実施形態における表示部の表示画面を示す参考図である。 本発明の第3の実施形態による計測内視鏡装置の動作の手順を示すフローチャートである。 本発明の第3の実施形態における表示部の表示画面を示す参考図である。 本発明の第3の実施形態における表示部に表示される画像を示す参考図である。 本発明の第3の実施形態における表示部に表示される画像を示す参考図である。 本発明の第3の実施形態における表示部に表示される画像を示す参考図である。 本発明の第3の実施形態における表示部に表示される画像を示す参考図である。 本発明の第3の実施形態の第1の変形例によるCPUの機能構成を示すブロック図である。 本発明の第3の実施形態の第1の変形例における表示部の表示画面を示す参考図である。 本発明の第3の実施形態の第2の変形例によるCPUの機能構成を示すブロック図である。 本発明の第3の実施形態の第2の変形例における表示部の表示画面を示す参考図である。 本発明の第4の実施形態による計測内視鏡装置の動作の手順を示すフローチャートである。 本発明の第4の実施形態における表示部の表示画面を示す参考図である。 本発明の第4の実施形態における表示部の表示画面を示す参考図である。 本発明の第4の実施形態の第1の変形例における表示部の表示画面を示す参考図である。 本発明の第4の実施形態の第1の変形例における表示部の表示画面を示す参考図である。 本発明の第4の実施形態の第2の変形例における表示部の表示画面を示す参考図である。 本発明の第4の実施形態の第2の変形例における表示部の表示画面を示す参考図である。 本発明の第5の実施形態によるCPUの機能構成を示すブロック図である。 本発明の第5の実施形態による計測内視鏡装置の動作の手順を示すフローチャートである。 本発明の第5の実施形態における表示部の表示画面を示す参考図である。 本発明の第5の実施形態における表示部の表示画面を示す参考図である。
 以下、図面を参照し、本発明の実施形態を説明する。
 (第1の実施形態)
 図1は、本発明の第1の実施形態の計測内視鏡装置1(計測処理装置)の外観を示している。計測内視鏡装置1は、被写体を撮像し、画像から被写体の幾何学的特徴を計測する。検査者は、種々の被写体の観察と計測とを行うために、挿入部2の先端に装着される光学アダプタの交換と、内蔵された計測処理プログラムの選択と、計測処理プログラムの追加とを行うことが可能である。以下では、計測の一例として、ステレオ計測を行う場合について説明する。
 図1に示すように、計測内視鏡装置1は、挿入部2と、コントロールユニット3と、操作部4と、表示部5(モニタ)とを有する。
 挿入部2は、被写体の内部に挿入される。挿入部2は、先端20から基端部にわたって屈曲可能な細長い管状である。挿入部2は、計測部分を撮像し、かつ撮像信号をコントロールユニット3に出力する。挿入部2の先端20には、ステレオ光学アダプタ30(図3および図4)が装着される。コントロールユニット3は、挿入部2を収納する収納部を備えた制御装置である。操作部4は、計測内視鏡装置1に対するユーザーの操作を受ける。表示部5は、表示画面を有し、かつ挿入部2で撮像された被写体の画像および操作メニュー等を表示画面に表示する。
 図2に示すように、コントロールユニット3は、内視鏡ユニット8と、CCU(カメラコントロールユニット)9と、制御ユニット10とを有する。内視鏡ユニット8は、観察に必要な照明光を供給する光源装置と、図示していない湾曲部を湾曲させる湾曲装置とを有する。挿入部2の先端20には撮像素子28が内蔵されている。撮像素子28は、ステレオ光学アダプタ30を介して結像された被写体像を光電変換し、かつ撮像信号を生成する。CCU9は、撮像素子28を駆動する。撮像素子28から出力された撮像信号がCCU9に入力される。CCU9は、撮像素子28により取得された撮像信号に対して、増幅およびノイズ除去等を含む前処理を行う。CCU9は、前処理が行われた撮像信号をNTSC信号等の映像信号に変換する。
 制御ユニット10は、映像信号処理回路12と、ROM(Read Only Memory)13と、RAM(Random Access Memory)14と、カードインタフェース15と、外部機器インタフェース16と、制御インタフェース17と、CPU(Central Processing Unit)18aとを有する。
 映像信号処理回路12は、CCU9から出力された映像信号に対して、所定の映像処理を施す。例えば、映像信号処理回路12は、CCU9から出力された映像信号と、CPU18aによって生成されるグラフィック画像信号とを合成する。グラフィック画像信号は、操作画面の画像および計測情報等を含む。計測情報は、カーソルの画像、補助線の画像、および計測結果等を含む。映像信号処理回路12は、合成された映像信号を表示部5に出力する。
 ROM13は、CPU18aが計測内視鏡装置1の動作を制御するためのプログラムが記録された不揮発性の記録媒体である。RAM14は、CPU18aが計測内視鏡装置1の制御のために使用する情報を一時的に記憶する揮発性の記録媒体である。CPU18aは、ROM13に記録されたプログラムに基づいて計測内視鏡装置1の動作を制御する。
 着脱可能な記録媒体であるメモリカード42がカードインタフェース15に接続される。カードインタフェース15は、メモリカード42に記憶されている制御処理情報および画像情報等を制御ユニット10に取り込む。また、カードインタフェース15は、計測内視鏡装置1によって生成された制御処理情報および画像情報等をメモリカード42に記録する。
 USB機器等の外部機器が外部機器インタフェース16に接続される。例えば、パーソナルコンピュータ41が外部機器インタフェース16に接続される。外部機器インタフェース16は、パーソナルコンピュータ41への情報の送信とパーソナルコンピュータ41からの情報の受信とを行う。これによって、パーソナルコンピュータ41のモニタが情報を表示することができる。また、ユーザーがパーソナルコンピュータ41を介して、計測内視鏡装置1の制御に関する操作を行うことができる。
 制御インタフェース17は、操作部4、内視鏡ユニット8、およびCCU9と動作制御のための通信を行う。制御インタフェース17は、操作部4を介してユーザーによって入力された指示をCPU18aに通知する。制御インタフェース17は、光源装置および湾曲装置の制御のための制御信号を内視鏡ユニット8に出力する。制御インタフェース17は、撮像素子28の制御のための制御信号をCCU9に出力する。
 CPU18aが実行するプログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。この記録媒体に記録されたプログラムを計測内視鏡装置1以外のコンピュータが読み込み、かつ実行してもよい。例えば、パーソナルコンピュータ41がプログラムを読み込んで実行してもよい。パーソナルコンピュータ41は、プログラムに従って、計測内視鏡装置1を制御するための制御情報を計測内視鏡装置1に送信することにより計測内視鏡装置1を制御してもよい。あるいは、パーソナルコンピュータ41は、計測内視鏡装置1から映像信号を取得し、かつ取得された映像信号を用いて計測を行ってもよい。
 上述したプログラムは、このプログラムが保存された記憶装置等を有するコンピュータから、伝送媒体を介して、あるいは伝送媒体中の伝送波により計測内視鏡装置1に伝送されてもよい。プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように、情報を伝送する機能を有する媒体である。また、上述したプログラムは、前述した機能の一部を実現してもよい。さらに、上述したプログラムは、前述した機能をコンピュータに既に記録されているプログラムとの組合せで実現できる差分ファイル(差分プログラム)であってもよい。
 図3および図4は、挿入部2の先端20およびステレオ光学アダプタ30の構成を示している。図3は、挿入部2の先端20およびステレオ光学アダプタ30の外観を示している。図4は、挿入部2の先端20およびステレオ光学アダプタ30の断面を示している。図4では、第1の光学系31および第2の光学系32を含む断面が示されている。
 ステレオ光学アダプタ30が挿入部2の先端20に装着されている。ステレオ光学アダプタ30は、固定リング71の雌ねじ72により挿入部2の先端20の雄ねじ23と螺合されて固定される。ステレオ光学アダプタ30の先端には、第1の光学系31と、第2の光学系32と、照明窓33とが設けられている。第1の光学系31および第2の光学系32は、対物レンズを含む。第1の光学系31および第2の光学系32は、視差方向Dr1に離間している。被写体に向かって左側に第1の光学系31が配置され、かつ右側に第2の光学系32が配置されている。第1の光学系31の光軸Ax1および第2の光学系32の光軸Ax2は、視差方向Dr1に交差する方向Dr2に配置されている。つまり、第1の光学系31の光軸Ax1および第2の光学系32の光軸Ax2は、方向Dr2を向くように配置されている。視差方向Dr1は、第1の光学系31の第1の光学中心(主点)と第2の光学系32の第2の光学中心(主点)とを通る直線の方向である。方向Dr2は、視差方向Dr1に直交する。第1の光学系31および第2の光学系32は、挿入部2の先端20内に設けられた撮像素子28上に被写体の2つの像を結像する。第1の光学系31は第1の光学像を結像し、かつ第2の光学系32は第2の光学像を結像する。
 第1の光学像および第2の光学像は、互いに視差を有する。第1の光学像に対応する第1の画像において計測点が指定される。被写体に向かって右側に第1の光学系31が配置され、かつ左側に第2の光学系32が配置されてもよい。
 撮像素子28は、イメージセンサである。撮像素子28は、挿入部2の先端20に配置される。撮像素子28は、第1の光学系31および第2の光学系32の結像位置に配置された撮像面24を有する。撮像素子28は、第1の光学系31を介して撮像面24に結像された第1の光学像と、第2の光学系32を介して撮像面24に結像された第2の光学像とから撮像信号を生成する。つまり、撮像素子28は、第1の光学系31を介して得られた第1の光学像に対応する第1の画像および第2の光学系32を介して得られた第2の光学像に対応する第2の画像を生成する。第1の画像および第2の画像は、互いに視差を有する。第1の実施形態において、左側の視野に対応する画像が第1の画像と定義され、かつ右側の視野に対応する画像が第2の画像と定義される。右側の視野に対応する画像が第1の画像と定義され、かつ左側の視野に対応する画像が第2の画像と定義されてもよい。
 撮像素子28は信号線80に接続され、撮像信号が撮像素子28から信号線80に出力される。挿入部2の先端20の端面には、撮像素子28を保護するためのカバーガラス35が配置されている。
 上記のように、計測内視鏡装置1は、撮像素子28(撮像部)と、CCU9(画像取得部)と、表示部5と、CPU18aとを有する。撮像素子28は、被写体を撮像し、かつ撮像信号を生成する。CCU9は、撮像信号に基づいて映像信号を生成する。映像信号は、被写体の画像を含む。したがって、CCU9は、撮像信号に基づいて、所定の視差方向に互いに視差を有する第1の画像および第2の画像を取得する。表示部5は、第1の画像が表示される表示画面を有する。
 図5は、CPU18aの機能構成を示している。制御部180、計測点検出部181、計測点表示制御部182、対応点算出部183、対応点画像生成部184、対応点画像表示制御部185、対応点表示制御部186、および計測部187によってCPU18aの機能が構成されている。図5に示すブロックの少なくとも1つがCPU18aとは別の回路で構成されてもよい。
 制御部180は、各部が行う処理を制御する。計測点検出部181は、ユーザーによって操作される操作部4の状態を監視し、かつ第1の画像においてユーザーによって指定された計測位置を示す計測点を検出する。計測点表示制御部182は、ユーザーによって指定された計測点を第1の画像上に表示させる。例えば、計測点表示制御部182は、計測点を示すマークである第1のカーソルを第1の画像上の計測点の位置に表示させる。対応点算出部183は、第1の画像上の計測点に対応する、第2の画像上の対応点を算出する。一般的に、この処理はマッチング処理と呼ばれる。
 対応点画像生成部184は、第2の画像において対応点算出部183によって算出された対応点および当該対応点の周辺の領域を含み、かつ第2の画像の一部または全部で構成された対応点画像を生成する。対応点画像表示制御部185は、対応点画像を表示画面上に表示させる。このとき、対応点画像表示制御部185は、表示画面において、計測点および対応点を通る直線が視差方向に直交するように、対応点画像を表示させる。対応点表示制御部186は、対応点を対応点画像上に表示させる。例えば、対応点表示制御部186は、対応点を示すマークである第2のカーソルを対応点画像上の対応点の位置に表示させる。計測部187は、計測点および対応点の2次元座標に基づいて、三角測量の原理により、計測点の3次元座標を算出する。計測部187は、計測点の3次元座標に基づいて被写体の3次元形状のサイズを計測する。
 計測点表示制御部182が第1のカーソルを表示させる場合、計測点表示制御部182は、第1のカーソルのグラフィック画像信号を生成する。計測点表示制御部182は、生成されたグラフィック画像信号を映像信号処理回路12に出力する。映像信号処理回路12は、CCU9から出力された映像信号と、CPU18aから出力されたグラフィック画像信号とを合成する。これによって、第1のカーソルが第1の画像に重畳される。映像信号処理回路12は、合成された映像信号を表示部5に出力する。表示部5は、計測点すなわち第1のカーソルが重畳された第1の画像を表示する。
 対応点画像生成部184によって生成された対応点画像は、映像信号処理回路12に出力される。対応点画像表示制御部185は、第1の画像における対応点画像の位置が所望の位置となるように対応点画像の表示位置を制御する。また、対応点画像表示制御部185が第2のカーソルを表示させる場合、対応点画像表示制御部185は、第2のカーソルのグラフィック画像信号を生成する。対応点画像表示制御部185は、生成されたグラフィック画像信号を映像信号処理回路12に出力する。映像信号処理回路12は、CCU9から出力された映像信号と、CPU18aから出力されたグラフィック画像信号とを合成する。これによって、第2のカーソルが対応点画像に重畳される。映像信号処理回路12は、合成された映像信号を表示部5に出力する。表示部5は、対応点すなわち第2のカーソルが重畳された対応点画像を表示する。
 図6を参照し、ステレオ計測の原理を説明する。ステレオ計測では、被写体像を2つの光学系で捉えたときの2つの光学測距点の座標に基づいて、三角測量の原理を使用して被写体の3次元座標が算出される。左の光学中心(第1の光学中心63)と右の光学中心(第2の光学中心64)とを結ぶ線分の中点が原点Oとして定義される。また、右方向が正であるx軸と、下方向が正であるy軸とが定義される。また、光軸と平行に光学系から遠ざかる方向が正であるz軸が定義される。
 左の光学系および右の光学系を介して得られた被写体像を含む画像に対して、三角測量の原理により、計測点60の3次元座標(X,Y,Z)が以下の(1)式~(3)式で計算される。ただし、歪み補正が施された左の画像面の計測点61と、歪み補正が施された右の画像面の対応点62との2次元座標はそれぞれ、(X,Y)、(X,Y)である。これらの2次元座標の原点はそれぞれ、左の光学系および右の光学系の光軸と画像面との交点O、交点Oである。第1の光学中心63と第2の光学中心64との距離はDである。焦点距離はFである。パラメータtは、D/(X-X)である。
 X=t×X+D/2・・・(1)
 Y=-t×Y・・・(2)
 Z=t×F・・・(3)
 上記のように画像面上での計測点61と対応点62との座標が決定された場合、パラメータDとパラメータFとを用いて計測点60の3次元座標を求めることができる。いくつかの点の3次元座標を求めることによって、様々な計測機能が実現可能である。例えば、2点間の距離、2点を結ぶ線と1点の距離、複数点を結ぶ線で囲まれた領域の面積、基準面の深さ、および表面形状等が計測される。ユーザーは、様々な計測機能から所望の計測機能を選択することができる。また、第1の光学中心63または第2の光学中心64から被写体までの距離(物体距離)を求めることも可能である。上記のステレオ計測を行うためには、挿入部2の先端20とステレオ光学アダプタ30とを含む光学系の特性を示す光学データが必要である。例えば、マッチング処理および光学データの詳細は日本国特開2004-49638号公報に記載されているので、その説明を省略する。
 図7、図8A、および図8Bを参照し、ユーザーが計測を希望する1つの計測点の位置が確定するまでの一連の流れについて説明する。図7は、計測モードにおける処理を示している。図8Aおよび図8Bは、表示部5の表示画面50を示している。
 内視鏡検査では、ユーザーは、被写体の状況をライブ画像により確認し、かつ欠陥または傷が存在するか否かを検査する。このとき、計測内視鏡装置1は、検査モードで動作する。被写体に計測対象となる欠陥または傷が発見された場合には、計測内視鏡装置1の状態は、検査モードから計測モードに移行する。
 計測モードの動作が開始された後、撮像素子28は被写体を撮像し、かつ撮像信号を取得する。CCU9は、3次元計測に必要な第1の画像および第2の画像を静止画として取得する(ステップS101)。第1の画像および第2の画像は、映像信号処理回路12に出力される。CPU18aは、第1の画像および第2の画像を映像信号処理回路12から取得する。
 ステップS101の後、制御部180は、第1の画像を含むメインウィンドウWL11の画像信号を生成する。制御部180は、生成された画像信号を映像信号処理回路12に出力する。映像信号処理回路12は、CCU9から出力された映像信号と、CPU18aから出力された画像信号とを合成する。これによって、第1の画像を含むメインウィンドウWL11が表示される。映像信号処理回路12は、合成された映像信号を表示部5に出力する。表示部5は、第1の画像を含むメインウィンドウWL11を表示する(ステップS102)。このとき、第2の画像は表示画面50に表示されていない。メインウィンドウWL11に含まれる第1の画像において、被写体の構造物が映っている。メインウィンドウWL11に表示される第1の画像は左側の視野に対応するが、右側の視野に対応する画像が第1の画像としてメインウィンドウWL11に表示されてもよい。
 第1の画像を含むメインウィンドウWL11が表示された後、ユーザーは、計測したい点および領域を、操作部4の操作により決定する。例えば、操作部4は、リモートコントローラーおよびタッチパネル等の入力装置である。ユーザーがリモートコントローラーを使う場合、ユーザーは、リモートコントローラーに内蔵される十字キー等を利用して、計測したい点および領域の位置を調整する。ユーザーがタッチパネルを使う場合も同様に、十字ボタンB1等を利用して計測したい点および領域の位置を調整する。ユーザーが計測したい点および領域の位置をユーザーが視認できるように、ユーザーによって指定された点および領域をポインティングするための第1のカーソルC11が表示される。計測点表示制御部182は、表示画面50において、計測点を示す第1のカーソルC11を表示させる。このとき、計測点表示制御部182は、第1の画像上に第1のカーソルC11を表示させる(ステップS103)。例えば、第1の画像の中心に第1のカーソルC11が表示される。第1のカーソルC11が最初に表示される位置は、第1の画像の中心以外の位置であってもよい。第1のカーソルC11の位置は、第1の画像における計測点の位置と同一である。第1のカーソルC11の形状および大きさは問わない。
 ステップS103の後、計測点検出部181は、操作部4からの位置移動命令を検出し、かつ移動後の計測点を検出する。計測点表示制御部182は、位置移動命令に基づいて第1のカーソルC11の位置を移動させる。このとき、計測点検出部181は、表示画面50に存在する第1のカーソルC11の位置情報を計測点位置として適宜読み込む(ステップS104)。この計測点は、最終的な位置が確定していない仮計測点である。本発明の実施形態において、仮計測点は、広義の計測点として扱われる。以下の説明において、最終的な位置が確定していない計測点は、仮計測点に置き換えることができる。
 ステップS104の後、第2の画像において、対応点を探索するマッチング処理が行われる。対応点は、計測点と最も似ている点すなわち計測点との相関値の高い点である。SAD(Sum of Absoluted Difference)、SSD(Sum of Squared Difference)、ZNCC(Zero-means Normalized Cross-Correlation)のような処理がマッチング処理に良く使用される。これらのマッチング手法を用いることによって、対応点算出部183は、第1の画像上で指定された計測点に最も近い、第2の画像上の対応点を算出する(ステップS105)。
 ステップS105の後、対応点画像生成部184は、第2の画像において対応点および当該対応点の周辺の領域を含み、かつ第2の画像の一部で構成された対応点画像を生成する。このとき、対応点画像生成部184は、視差方向DR1における長さが、視差方向DR1に直交する方向DR2における長さよりも大きい対応点画像を生成する。つまり、対応点画像生成部184は、視差方向DR1に細長い対応点画像を生成する(ステップS106)。図8Aおよび図8Bにおいて、第1の画像および第2の画像における視差方向DR1は右方向である。視差方向DR1は左方向であってもよい。視差方向DR1は、表示画面50における水平方向(左右方向)である。図8Aおよび図8Bにおいて、方向DR2は上方向である。方向DR2は下方向であってもよい。方向DR2は、表示画面50における垂直方向(上下方向)である。対応点画像は、第2の画像の全部で構成されてもよい。
 ステップS106の後、対応点画像表示制御部185は、対応点画像を含むサブウィンドウWR11の画像信号を生成する。対応点画像表示制御部185は、生成された画像信号を映像信号処理回路12に出力する。映像信号処理回路12は、CCU9から出力された映像信号と、CPU18aから出力された画像信号とを合成する。これによって、対応点画像を含むサブウィンドウWR11が表示される。映像信号処理回路12は、合成された映像信号を表示部5に出力する。表示部5は、対応点画像を含むサブウィンドウWR11を表示する(ステップS107)。サブウィンドウWR11に含まれる対応点画像において、被写体の構造物が映っている。
 図8Aおよび図8Bに示すように、サブウィンドウWR11は、メインウィンドウWL11上に重畳される。ステップS107において、対応点画像表示制御部185は、対応点画像を第1の画像上に表示させる。このとき、対応点画像表示制御部185は、対応点画像の一部または全てが第1の画像と重なるように対応点画像を表示させる。図8Aおよび図8Bにおいて、サブウィンドウWR11における対応点画像の全てがメインウィンドウWL11内の第1の画像と重なる。メインウィンドウWL11において、メインウィンドウWL11およびサブウィンドウWR11が互いに重なる領域の第1の画像は視認できない。ステップS107において、対応点画像表示制御部185は、対応点画像の表示領域(サブウィンドウWR11)を第1の画像に設定し、かつサブウィンドウWR11内に対応点画像を表示させる。
 ステップS107において、対応点画像表示制御部185は、対応点画像における視差方向が第1の画像における視差方向DR1と同一になるように、対応点画像を表示させる。つまり、対応点画像表示制御部185は、第1の画像に対して対応点画像が傾かないように、対応点画像を表示させる。
 ステップS107において、対応点画像表示制御部185は、対応点が計測点に対して離間するように、対応点画像を表示させる。つまり、対応点画像表示制御部185は、対応点および計測点の位置が異なるように、対応点画像を表示させる。これによって、第1の画像における計測点の周辺部分と、対応点画像における対応点の周辺部分とをユーザーが視認しやすくなる。また、対応点画像表示制御部185は、対応点画像が計測点に対して離間するように、対応点画像を表示させる。つまり、対応点画像表示制御部185は、対応点画像が計測点に重ならないように、対応点画像を表示させる。これによって、上記と同様に、第1の画像における計測点の周辺部分と、対応点画像における対応点の周辺部分とをユーザーが視認しやすくなる。
 ステップS107において、対応点画像表示制御部185は、第1の画像の表示倍率と同じ表示倍率で対応点画像を表示させる。これによって、ユーザーが計測点周辺の画像および対応点周辺の画像を比較しやすくなる。
 ステップS107の後、対応点の位置をユーザーが簡単に確認できるように、第2のカーソルC12が表示される。対応点表示制御部186は、表示画面50において、対応点を示す第2のカーソルC12を表示させる。このとき、対応点表示制御部186は、対応点画像上に第2のカーソルC12を表示させる(ステップS108)。第2のカーソルC12の位置は、対応点画像における対応点の位置と同一である。第1のカーソルC11および第2のカーソルC12の形状は同一であり、かつ第1のカーソルC11および第2のカーソルC12の大きさは同一である。しかし、これに限らない。
 図8Aおよび図8Bに示すように、第2のカーソルC12は第1のカーソルC11に対して方向DR2に離間している。つまり、対応点は計測点に対して方向DR2に離間している。対応点画像が計測点に対して離間するように対応点画像が表示されるため、サブウィンドウWR11は第1のカーソルC11と重ならない。
 ステップS108の後、対応点画像表示制御部185は、サブウィンドウWR11内の対応点画像の位置を調整する。具体的には、対応点画像表示制御部185は、計測点および対応点が直線L11上に配置されるように、対応点画像を表示させる。直線L11は、第1のカーソルC11および第2のカーソルC12を通る。つまり、直線L11は、計測点および対応点を通る。直線L11は、第1の画像および第2の画像における視差方向DR1に直交する。したがって、対応点画像表示制御部185は、表示画面50において、計測点および対応点を通る直線L11が視差方向DR1に直交するように、対応点画像の位置を調整する(ステップS109)。このとき、直線L11は、表示画面50に表示されていない。
 ステップS109において、計測点表示制御部182は第1のカーソルC11の位置を調整し、かつ対応点表示制御部186は第2のカーソルC12の位置を調整する。つまり、計測点表示制御部182は、表示画面50において、第1のカーソルC11を直線L11上に表示させる。対応点表示制御部186は、表示画面50において、第2のカーソルC12を直線L11上に表示させる。
 ステレオ光学系(ステレオ光学アダプタ30)が有する2つの対物光学系(第1の光学系31および第2の光学系32)は、互いに視差方向に離間している。マッチング処理により得られる対応点は、真の対応点に対して視差方向にずれ易い。視差方向に直交する直線上に計測点および対応点が位置するように、第1の画像および対応点画像が並べられる。ユーザーは、計測点周辺の画像および対応点周辺の画像を比較することにより、対応点周辺の画像が計測点周辺の画像に対してずれているか否かを確認する。これによって、マッチング誤対応が発生しているか否かをユーザーが容易に判断することができる。
 図8Aは、マッチング誤対応が発生していない場合における表示部5の表示画面50を示している。被写体において第1のカーソルC11および第2のカーソルC12が示す位置は一致する。つまり、被写体上の計測点および対応点の位置は一致する。計測点および対応点を通る直線L11が視差方向DR1に直交するように対応点画像の位置が調整された後、視差方向DR1における第1の画像内の計測点周辺の構造の位置と対応点画像内の対応点周辺の構造の位置とは同一である。このため、ユーザーは、マッチング誤対応が発生していないと判断することができる。
 図8Bは、マッチング誤対応が発生している場合における表示部5の表示画面50を示している。被写体において第1のカーソルC11および第2のカーソルC12が示す位置は一致しない。つまり、被写体上の計測点および対応点の位置は一致しない。具体的には、対応点は、被写体において計測点の位置よりも右側にずれている。計測点および対応点を通る直線L11が視差方向DR1に直交するように対応点画像の位置が調整された後、対応点周辺の構造の位置は、第1の画像内の計測点周辺の構造の位置よりも左側にずれている。このため、ユーザーは、マッチング誤対応が発生していると判断することができる。
 ステップS109の後、制御部180は、ユーザーによる判断の結果を確認する(ステップS110)。マッチング誤対応が発生している場合、ユーザーは、操作部4を操作することにより、計測点を移動させる。この場合、ステップS104における処理が行われる。マッチング誤対応が発生していない場合、ユーザーは、操作部4を操作することにより、表示画面50における決定ボタンB2を押す。これによって、計測点が確定する(ステップS111)。決定ボタンB2が押されるまで、ステップS104からステップS109における処理が繰り返される。ステップS111における処理が行われることにより、図7に示す処理が終了する。
 ユーザーによって複数の計測点が指定される場合、各計測点に関して、図7に示す処理が行われる。全ての計測点が確定した後、計測点の3次元座標が算出され、かつその3次元座標に基づいて被写体の3次元形状のサイズが計測される。
 対応点画像において第2のカーソルC12が表示されなくてもよい。したがって、CPU18aが対応点表示制御部186を有していなくてもよい。
 サブウィンドウWR11は視差方向DR1に長ければよく、サブウィンドウWR11の形状は問わない。図8Aおよび図8Bにおいて、サブウィンドウWR11が矩形である例を示したが、サブウィンドウWR11は楕円形状または多角形であってもよい。
 第1の実施形態において、対応点画像表示制御部185は、表示画面50において、計測点および対応点を通る直線L11が視差方向DR1に直交するように、対応点画像を表示させる。これによって、マッチング誤対応が発生しているか否かをユーザーが容易に判断することができる。
 (第1の実施形態の第1の変形例)
 図9は、第1の実施形態の第1の変形例における表示部5の表示画面50を示している。メインウィンドウWL21に第1の画像が表示され、かつサブウィンドウWR21に対応点画像が表示される。計測点を示す第1のカーソルC21および対応点を示す第2のカーソルC22は、視差方向DR1に直交する直線L21上に配置される。
 制御部180は、第1の画像の第1の表示領域(メインウィンドウWL21)を設定し、かつメインウィンドウWL21内に第1の画像を表示させる。対応点画像表示制御部185は、対応点画像の第2の表示領域(サブウィンドウWR21)を設定し、かつサブウィンドウWR21内に対応点画像を表示させる。メインウィンドウWL21の位置およびサブウィンドウWR21の位置は異なる。メインウィンドウWL21およびサブウィンドウWR21は互いに重ならない。対応点画像表示制御部185は、表示画面50において、メインウィンドウWL21よりも下側にサブウィンドウWR21を設定する。表示画面50において、メインウィンドウWL21よりも上側にサブウィンドウWR21が設定されてもよい。
 メインウィンドウWL21およびサブウィンドウWR21が互いに重ならないため、第1の画像の視認性が低下しない。
 (第1の実施形態の第2の変形例)
 第1の実施形態の第2の変形例において、第1の実施形態におけるCPU18aは、図10に示すCPU18bに変更される。図10は、CPU18bの機能構成を示している。図10に示す構成について、図5に示す構成と異なる点を説明する。
 CPU18bは、図5に示す構成に加えて、補助線表示制御部188を有する。補助線表示制御部188は、表示画面50において、補助線を表示させる。具体的には、補助線表示制御部188は、補助線のグラフィック画像信号を生成する。補助線表示制御部188は、生成されたグラフィック画像信号を映像信号処理回路12に出力する。映像信号処理回路12は、CCU9から出力された映像信号と、CPU18bから出力されたグラフィック画像信号とを合成する。これによって、補助線が表示される。映像信号処理回路12は、合成された映像信号を表示部5に出力する。表示部5は、補助線を表示する。
 上記以外の点について、図10に示す構成は、図5に示す構成と同様である。
 図11は、第1の実施形態の第2の変形例における表示部5の表示画面50を示している。メインウィンドウWL31に第1の画像が表示され、かつサブウィンドウWR31に対応点画像が表示される。計測点を示す第1のカーソルC31および対応点を示す第2のカーソルC32は、視差方向DR1に直交する直線L31上に配置される。
 対応点画像表示制御部185は、対応点画像の表示領域(サブウィンドウWR31)を表示画面50に設定し、かつサブウィンドウWR31内に対応点画像を表示させる。対応点画像表示制御部185は、対応点画像が表示されるとき、視差方向DR1におけるサブウィンドウWR31の両端位置を、視差方向DR1における第1の画像の両端位置にそれぞれ一致させる。補助線表示制御部188は、補助線L32が視差方向DR1における対応点画像の両端の少なくとも一方を通るように補助線L32を表示させる。
 視差方向DR1におけるサブウィンドウWR31の長さ(幅)は、視差方向DR1における第1の画像の長さ(幅)と同一である。サブウィンドウWR31の左端の位置は第1の画像の左端の位置と同一であり、かつサブウィンドウWR31の右端の位置は第1の画像の右端の位置と同一である。対応点画像表示制御部185は、計測点および対応点の位置が直線L31上になるように、サブウィンドウWR11内の対応点画像の位置を調整する。
 図11に示すように、補助線L32は、対応点画像の右端を通る。補助線L32は、第1の画像および第2の画像における視差方向DR1に直交する。
 視差方向DR1におけるサブウィンドウWR31の長さと視差方向DR1における第1の画像の長さとが同一であるため、対応点画像において、ステレオ光学アダプタ30の設計仕様上の視差により見えない領域を除いた広い領域をユーザーが確認することができる。このため、ユーザーは、計測点および対応点の周辺の被写体情報だけでなく、より広範囲の被写体情報を参考にして、マッチング誤対応が発生しているか否かを判断することができる。
 例えば、被写体が周期構造を有する場合、計測点の位置における構造と似た他の構造から、誤った対応点が検出される可能性がある。図11において、メインウィンドウWL31に表示された第1の画像における構造物F31に計測点が設定されている。また、サブウィンドウWR31に表示された対応点画像における構造物F32から対応点が検出されている。第1の画像において、対応点画像における構造物F31の下側の位置には構造物F31に対応する構造がない。また、対応点画像における構造物F33は、第1の画像における構造物F33に対して、水平方向にずれている。このため、ユーザーは、マッチング誤対応が発生していると判断することができる。
 図11において、対応点の位置は計測点の位置に対して右方向に大きくずれている。対応点画像表示制御部185がサブウィンドウWR31内の対応点画像の位置を調整することにより、対応点画像は第1の画像に対して左方向に大きくずれて表示される。視差方向DR1における第1の画像の長さ(幅)および第2の画像の長さ(幅)は、同一である。対応点画像が第1の画像に対して左方向にずれて表示されることにより、対応点画像の右端位置および第1の画像の右端位置は一致しない。第1の画像の右端位置は、サブウィンドウWR31の右端位置と一致する。このため、サブウィンドウWR31の右端と対応点画像の右端との間に、画像が表示されない領域R31が発生する。対応点画像において、サブウィンドウWR31の左端よりも左側にある部分は表示されない。ユーザーは、計測点周辺の画像および対応点周辺の画像の比較結果に加えて、領域R31がどの程度、発生しているのかを確認した結果を参考にすることにより、マッチング誤対応が発生しているか否かを判断することができる。
 内視鏡装置で取得された画像の背景は暗い場合が多い。このため、対応点画像の背景と領域R31との境界が判別しにくい場合がある。補助線L32が表示されることにより、画像が表示されない領域R31がどの程度、発生しているのかユーザーが容易に判断することができる。マッチング誤対応が発生せず、かつ対応点画像の両端位置が第1の画像の両端位置と一致する場合、対応点画像の両端位置に2本の補助線が表示されてもよい。
 (第1の実施形態の第3の変形例)
 第1の実施形態の第3の変形例において、第1の実施形態におけるCPU18aは、図10に示すCPU18bに変更される。図10については既に説明したので、図10の説明を省略する。
 図12は、第1の実施形態の第3の変形例における表示部5の表示画面50を示している。メインウィンドウWL41に第1の画像が表示され、かつサブウィンドウWR41に対応点画像が表示される。計測点を示す第1のカーソルC41および対応点を示す第2のカーソルC42は、視差方向DR1に直交する直線L41上に配置される。
 対応点画像生成部184は、第2の画像において対応点算出部183によって算出された対応点および当該対応点の周辺の領域を含み、かつ第2の画像の一部で構成された第2の対応点画像を生成する。このとき、対応点画像生成部184は、視差方向DR1における長さが、視差方向DR1に直交する方向DR2における長さよりも小さい第2の対応点画像を生成する。つまり、対応点画像生成部184は、方向DR2に細長い第2の対応点画像を生成する。対応点画像表示制御部185は、第1の画像および第2の対応点画像が視差方向DR1に沿って並ぶように、第2の対応点画像を表示画面50上に表示させる。
 対応点画像表示制御部185は、第2の対応点画像を含むサブウィンドウWR42の画像信号を生成する。対応点画像表示制御部185は、生成された画像信号を映像信号処理回路12に出力する。映像信号処理回路12は、CCU9から出力された映像信号と、CPU18bから出力された画像信号とを合成する。これによって、第2の対応点画像を含むサブウィンドウWR42が表示される。映像信号処理回路12は、合成された映像信号を表示部5に出力する。表示部5は、第2の対応点画像を含むサブウィンドウWR42を表示する。サブウィンドウWR42に含まれる第2の対応点画像において、被写体の構造物が映っている。
 制御部180は、第1の画像の第1の表示領域(メインウィンドウWL41)を設定し、かつメインウィンドウWL41内に第1の画像を表示させる。対応点画像表示制御部185は、対応点画像の第2の表示領域(サブウィンドウWR41)を設定し、かつサブウィンドウWR41内に対応点画像を表示させる。さらに、対応点画像表示制御部185は、第2の対応点画像の第3の表示領域(サブウィンドウWR42)を設定し、かつサブウィンドウWR42内に第2の対応点画像を表示させる。メインウィンドウWL41の位置およびサブウィンドウWR42の位置は異なる。メインウィンドウWL41およびサブウィンドウWR42は互いに重ならない。対応点画像表示制御部185は、表示画面50において、メインウィンドウWL41よりも右側にサブウィンドウWR42を設定する。表示画面50において、メインウィンドウWL41よりも左側にサブウィンドウWR42が設定されてもよい。
 視差方向DR1におけるサブウィンドウWR42の長さ(幅)は、視差方向DR1に直交する方向DR2におけるサブウィンドウWR42の長さ(幅)よりも小さい。視差方向DR1に直交する方向DR2におけるサブウィンドウWR42の長さ(幅)は、視差方向DR1に直交する方向DR2におけるメインウィンドウWL41の長さ(幅)と同一である。対応点表示制御部186は、表示画面50において、対応点を示す第3のカーソルC43を表示させる。このとき、対応点表示制御部186は、第2の対応点画像上に第3のカーソルC43を表示させる。第3のカーソルC43の位置は、第2の対応点画像における対応点の位置と同一である。
 補助線表示制御部188は、表示画面50において、視差方向DR1に平行であり、かつ計測点を通る補助線L42を第1の画像および第2の対応点画像上に表示させる。補助線L42は、第1のカーソルC41を通る。補助線L42が第2の対応点画像における対応点を通ってもよいし、あるいは補助線L42が第2の対応点画像における対応点を通らなくてもよい。
 第2の対応点画像が表示されることにより、ユーザーは、視差方向DR1の被写体情報だけでなく、視差方向DR1に直交する方向DR2におけるより広範囲の被写体情報も参考にして、マッチング誤対応が発生しているか否かを判断することができる。
 (第1の実施形態の第4の変形例)
 ユーザーからの指示あるいは何らかの判定処理により、サブウィンドウすなわち対応点画像の表示と非表示とを切り替える制御が行われてもよい。例えば、操作部4の操作によって移動命令が継続されているとき、つまり第1の画像において計測点が止まらずに動いているとき、対応点画像表示制御部185は、サブウィンドウすなわち対応点画像を表示させない。あるいは、第1の画像上に表示された計測点の移動速度が所定の閾値よりも大きい場合、対応点画像表示制御部185は、対応点画像を表示させない。第1の画像上に表示された計測点の移動速度が所定の閾値よりも小さい場合、対応点画像表示制御部185は、サブウィンドウすなわち対応点画像を表示させる。計測点が所定時間、例えば1秒間停止した場合に対応点画像表示制御部185は、サブウィンドウすなわち対応点画像を表示させてもよい。
 計測点が計測に適しているか否かを示す信頼度の判定により、サブウィンドウすなわち対応点画像の表示と非表示とを切り替える制御が行われてもよい。例えば、計測点が指定された位置における画像の輝度を判定に使用することができる。マッチング処理の過程で生成された信頼度等の指標を判定に使用してもよい。例えば、信頼度が低い場合にはサブウィンドウが表示されるが、信頼度が高い場合にはサブウィンドウが表示されなくてもよい。
 サブウィンドウすなわち対応点画像の表示と非表示との切替をユーザー自身が指示してもよい。例えば、表示および非表示を切り替えるためのボタンが操作部4に設けられている場合、ユーザーは、操作部4のボタンを操作することにより、表示または非表示の指示を入力する。表示の指示が入力された場合、対応点画像表示制御部185は、サブウィンドウすなわち対応点画像を表示させる。非表示の指示が入力された場合、対応点画像表示制御部185は、サブウィンドウすなわち対応点画像を表示させない。
 ユーザーがサブウィンドウの透過率を設定できてもよい。サブウィンドウが透過状態に設定された場合、ユーザーは、メインウィンドウに表示された第1の画像における被写体の状態を確認することができる。
 (第1の実施形態の第5の変形例)
 サブウィンドウにズーム機能が搭載されてもよい。つまり、対応点画像表示制御部185は、第1の画像の表示倍率よりも高い表示倍率で対応点画像を表示させてもよい。あるいは、対応点画像表示制御部185は、第1の画像の表示倍率よりも低い表示倍率で対応点画像を表示させてもよい。ズーム機能により、ユーザーは、注目範囲が拡大表示された状態で、マッチング誤対応が発生しているか否かをより正確に判断することができる。あるいは、ユーザーは、対応点画像が縮小表示された状態で、被写体全体の様子を確認することができる。
 ズーム機能がメインウィンドウに搭載されてもよい。つまり、対応点画像表示制御部185は、第1の画像の表示倍率を変更できてもよい。サブウィンドウが表示部5の表示画面50に表示された直後にはメインウィンドウおよびサブウィンドウのズーム倍率が同一であってもよい。サブウィンドウが表示された直後に各ウィンドウのズーム倍率が等しい場合、ユーザーは、マッチング誤対応が発生しているか否かを簡単に確認することができる。
 制御部180および対応点画像表示制御部185は、ユーザーからの倍率変更指示により、メインウィンドウにおけるズーム倍率とサブウィンドウにおけるズーム倍率とを連動させてもよい。各ウィンドウのズーム倍率が連動することで、マッチング誤対応が発生しているか否かをユーザーが確認する作業をサポートすることができる。
 対応点画像に加えて、3次元計測によって得られる深さ画像(デプスマップ)または信頼度のマップが表示されてもよい。例えば、これらは対応点画像に重畳表示される。あるいは、ボタン等の操作により、対応点画像のみが表示された状態と、深さ画像または信頼度のマップのみが表示された状態とを切り替えることができてもよい。
 計測点における計測値の信頼度が低かった場合、ユーザーに注意を促すための通知が行われてもよい。例えば、表示部5の表示画面50に表示されたメインウィンドウおよびサブウィンドウの表示枠の色が変化してもよい。あるいは、メッセージが表示されてもよい。あるいは、表示された画像が加工されてもよい。
 (第1の実施形態の第6の変形例)
 第1の実施形態では、ステレオ光学アダプタ30内の2つの光学系の視差方向が、表示部5の表示画面50において水平方向(左右方向)であるケースを説明した。しかし、視差方向が、表示部5の表示画面50において垂直方向(上下方向)であるケースも存在する。この場合においても、メインウィンドウおよびサブウィンドウは、視差方向に対して直交する方向に沿って並ぶ。この点では第1の実施形態と相違がない。しかし、視差方向が、表示部5の表示画面50において垂直方向である場合、メインウィンドウおよびサブウィンドウは、水平方向に沿って並ぶ。
 視差方向が、表示部5の表示画面50において水平方向および垂直方向と異なる斜め方向になるケースも考えられる。この場合について以下に説明する。
 第1の画像および第2の画像の平行化が行われていない場合、またはあえて視差方向が斜めになるように光学系が設計されている場合、視差方向が斜めになる。視差方向が表示部5の表示画面50における水平方向に対して斜めである場合には、視差方向と直交する直線も斜めになる。第1の実施形態と同様に、視差方向に直交する直線上に計測点および対応点が配置されるように対応点画像の位置が調整された場合、表示部5の表示画面50における水平方向に対して斜めの直線上に計測点および対応点が配置される。このような仕様では、製品の使用状況を考慮すると、ユーザーはマッチングが正しく行われているか否かを簡単に判断することができない。
 そのため、視差方向に直交する直線が表示部5の表示画面50における水平方向に対して斜めである場合(視差方向も斜めである場合)、計測点および対応点は、視差方向に完全に直交する直線上に配置されなくてもよい。この場合、表示部5の表示画面50における水平方向および垂直方向のいずれか1つであって、かつ視差方向に直交する方向に近い方向(水平方向または垂直方向)に平行な直線上に計測点および対応点が配置される。
 したがって、視差方向に直交する方向が垂直方向に近い場合、対応点画像表示制御部185は、表示画面50において、計測点および対応点を通る直線が表示画面50の垂直方向と平行になるように、対応点画像を表示させてもよい。あるいは、視差方向に直交する方向が水平方向に近い場合、対応点画像表示制御部185は、表示画面50において、計測点および対応点を通る直線が表示画面50の水平方向と平行になるように、対応点画像を表示させてもよい。
 図13Aおよび図13Bは、表示部5の表示画面50を示している。図13Aに示すように、メインウィンドウWL51に第1の画像が表示され、かつサブウィンドウWR51に対応点画像が表示される。図13Bに示すように、メインウィンドウWL52に第1の画像が表示され、かつサブウィンドウWR52に対応点画像が表示される。
 図13Aにおいて、視差方向DR3は、表示画面50における水平方向と一致せず、かつ表示画面50における水平方向に対して傾きを有する。視差方向DR3に直交する方向DR4は、表示画面50における垂直方向に近い。このため、計測点および対応点を通る直線L51が表示画面50における垂直方向と平行になるように、対応点画像が表示される。計測点を示す第1のカーソルC51および対応点を示す第2のカーソルC52は、直線L51上に配置される。
 図13Bにおいて、視差方向DR5は、表示画面50における垂直方向と一致せず、かつ表示画面50における垂直方向に対して傾きを有する。視差方向DR5に直交する方向DR6は、表示画面50における水平方向に近い。このため、計測点および対応点を通る直線L52が表示画面50における水平方向と平行になるように、対応点画像が表示される。計測点を示す第1のカーソルC53および対応点を示す第2のカーソルC54は、直線L52上に配置される。
 視差方向が表示画面50における水平方向に対してちょうど45deg傾いている場合、視差方向に直交する方向も表示画面50における水平方向に対して45deg傾く。この場合、表示画面50において計測点および対応点は、水平方向および垂直方向のいずれか1つに平行な直線上に配置される。
 計測用の光学アダプタをユーザーが取り付ける際に光学アダプタの取りつけ方が不十分であることにより、視差方向が表示画面50に対して数deg程度傾く場合もありえる。この場合においても上述したように(図13Aに示すように)、視差方向と完全に直交する直線ではなく表示画面50の垂直方向に平行な直線上に計測点および対応点が配置されればよい。これによって、ユーザーは、マッチング誤対応が発生しているか否かを素早く判断することができる。
 (第2の実施形態)
 図1および図2に示す計測内視鏡装置1を使用して、本発明の第2の実施形態を説明する。第2の実施形態では、第1の画像においてユーザーにより指定された計測点と、対応点画像における対応点との位置が一致するように、対応点画像の表示位置が調整される。また、第2の実施形態では、第1の画像が対応点画像を通して視認可能となるように、対応点画像は、半透明な状態で表示される。
 対応点画像表示制御部185は、計測点と対応点画像とが重なり、かつ第1の画像が対応点画像を通して視認可能となるように、対応点画像を半透明処理し、かつ対応点画像を第1の画像上に表示させる。対応点画像表示制御部185は、計測点と対応点とが互いに重なるように、対応点画像を第1の画像上に表示させる。
 図14および図15を参照し、第2の実施形態における処理について説明する。図14は、計測モードにおける処理を示している。図15は、表示部5の表示画面50を示している。図15に示すように、メインウィンドウWL61に第1の画像が表示され、かつサブウィンドウWR61に対応点画像が表示される。
 図14に示す処理について、図7に示す処理と異なる点を説明する。ステップS108の後、対応点画像表示制御部185は、対応点画像が半透明となるように対応点画像を処理する。対応点画像が第1の画像に重畳された状態で対応点画像が半透明となることにより、第1の画像および対応点画像が互いに重なる領域では、第1の画像および対応点画像の両方が視認できる。さらに、対応点画像表示制御部185は、サブウィンドウWR61内の対応点画像の位置を調整する。具体的には、対応点画像表示制御部185は、計測点および対応点の位置が一致するように、対応点画像を表示させる。このため、計測点を示す第1のカーソルC61および対応点を示す第2のカーソルC62は互いに重なる(ステップS121)。ステップS121の後、ステップS110における処理が行われる。
 上記以外の点について、図14に示す処理は、図7に示す処理と同様である。
 図15において、サブウィンドウWR61における対応点画像内の対応点周辺の構造の位置は、メインウィンドウWL61における第1の画像内の計測点周辺の構造の位置よりも左側にずれている。つまり、マッチング誤対応が発生している。対応点画像が半透明な状態で表示されるため、ユーザーは、第1の画像および対応点画像の両方のズレを確認することにより、マッチング誤対応が発生しているか否かを素早く判断することができる。
 (第3の実施形態)
 第3の実施形態において、第1の実施形態におけるCPU18aは、図10に示すCPU18bに変更される。図10については既に説明したので、図10の説明を省略する。第3の実施形態では、視差方向DR1に直交する1本以上の補助線が表示される。
 補助線表示制御部188は、表示画面50において、視差方向DR1に直交する1本以上の補助線を第1の画像および対応点画像上に表示させる。補助線表示制御部188は、補助線が計測点を通るように補助線を表示させる。
 図16および図17を参照し、第3の実施形態における処理について説明する。図16は、計測モードにおける処理を示している。図17は、表示部5の表示画面50を示している。図17に示すように、メインウィンドウWL71に第1の画像が表示され、かつサブウィンドウWR71に対応点画像が表示される。計測点を示す第1のカーソルC71および対応点を示す第2のカーソルC72は、視差方向DR1に直交する直線上に配置される。
 図16に示す処理について、図7に示す処理と異なる点を説明する。ステップS109の後、補助線表示制御部188は、表示画面50において、視差方向DR1に直交し、かつ計測点を通る補助線L71を第1の画像および対応点画像上に表示させる。ステップS109において、計測点および対応点が視差方向DR1に直交する直線上に配置されるように、対応点画像が表示される。このため、視差方向DR1に直交する補助線L71は、計測点および対応点を通る。つまり、補助線L71は、第1のカーソルC71および第2のカーソルC72を通る。補助線表示制御部188は、補助線が計測点および対応点を通るように補助線を表示させる(ステップS131)。補助線L71の線種、太さ、および色は任意に設定されてよい。ステップS131の後、ステップS110における処理が行われる。
 上記以外の点について、図16に示す処理は、図7に示す処理と同様である。
 図18A、図18B、図18C、および図18Dは、補助線の様々な例を示している。図18Aに示す補助線L72は、第1のカーソルC71および第2のカーソルC72を通る直線である。つまり、補助線L72は、計測点および対応点を通る直線である。補助線L72は、補助線L71と同様である。図18Bに示す補助線L73は、第1のカーソルC71および第2のカーソルC72を通る線分である。つまり、補助線L73は、計測点および対応点を結ぶ線分である。
 図18Cおよび図18Dに示すように、2本以上の補助線が表示されてもよい。図18Cに示す補助線L74は、第1のカーソルC71を通る直線である。図18Cに示す補助線L75は、第2のカーソルC72を通る直線である。補助線L74および補助線L75は、交わらない。図18Dに示す補助線L76および補助線L77は、第1のカーソルC71および第2のカーソルC72と交わらない。補助線L76および補助線L77は、第1のカーソルC71および第2のカーソルC72を通る直線の一部である。
 図17において、サブウィンドウWR71における対応点画像内の対応点周辺の構造の位置は、メインウィンドウWL71における第1の画像内の計測点周辺の構造の位置よりも左側にずれている。つまり、マッチング誤対応が発生している。ユーザーは、補助線L71の位置を参考にして、計測点周辺の画像および対応点周辺の画像を比較することにより、対応点周辺の画像が計測点周辺の画像に対してずれているか否かを容易に確認することができる。例えば、ユーザーは、第1の画像および対応点画像における補助線L71から特徴的な構造までの距離を比較することにより画像のずれを確認することができる。このため、マッチング誤対応が発生しているか否かをユーザーが容易に判断することができる。
 (第3の実施形態の第1の変形例)
 第3の実施形態の第1の変形例において、CPU18bは、図19に示すCPU18cに変更される。図19は、CPU18cの機能構成を示している。図19に示す構成について、図10に示す構成と異なる点を説明する。
 CPU18cは、図10に示す構成に加えて、特徴点算出部189を有する。特徴点算出部189は、第1の画像の被写体において、計測点以外の第1の特徴点を算出する。補助線表示制御部188は、補助線が第1の特徴点を通るように補助線を表示させる。また、特徴点算出部189は、対応点画像の被写体において、対応点以外の第2の特徴点を算出する。補助線表示制御部188は、補助線が第2の特徴点を通るように補助線を表示させる。
 上記以外の点について、図19に示す構成は、図10に示す構成と同様である。
 図20は、表示部5の表示画面50を示している。図20に示すように、メインウィンドウWL81に第1の画像が表示され、かつサブウィンドウWR81に対応点画像が表示される。計測点を示す第1のカーソルC81および対応点を示す第2のカーソルC82は、視差方向DR1に直交する直線上に配置される。
 補助線表示制御部188は、第1のカーソルC81および第2のカーソルC82を通る補助線L81を表示させる。特徴点算出部189は、第1の画像における計測点周辺の画像から被写体の特徴点P81を算出する。例えば、特徴点を算出するための方法として、Harris特徴量、SIFT特徴量、およびFAST特徴量などを用いる方法が挙げられる。図20において、第1の画像における1つの特徴点P81が算出されるが、複数の特徴点が算出されてもよい。補助線表示制御部188は、視差方向DR1に直交し、かつ特徴点P81を通る補助線L82を表示させる。補助線L82は、補助線L81に平行である。
 特徴点算出部189は、対応点画像における対応点周辺の画像から被写体の特徴点P82を算出する。図20において、対応点画像における1つの特徴点P82が算出されるが、複数の特徴点が算出されてもよい。補助線表示制御部188は、視差方向DR1に直交し、かつ特徴点P82を通る補助線L83を表示させる。補助線L83は、補助線L81に平行である。特徴点P81および特徴点P82のいずれか1つのみが検出され、かつ補助線L82および補助線L83のいずれか1つのみが表示されてもよい。
 図20において、サブウィンドウWR81における対応点画像内の対応点周辺の構造の位置は、メインウィンドウWL81における第1の画像内の計測点周辺の構造の位置よりも左側にずれている。つまり、マッチング誤対応が発生している。補助線L82および補助線L83が表示されるため、第1の画像における計測点の周辺部分と、対応点画像における対応点の周辺部分とをユーザーが簡単に確認することができる。例えば、ユーザーは、第1の画像における補助線L82または補助線L83上の構造と、対応点画像における補助線L82または補助線L83上の構造とを比較することにより、画像のずれを確認することができる。このため、マッチング誤対応が発生しているか否かをユーザーが容易に判断することができる。
 (第3の実施形態の第2の変形例)
 第3の実施形態の第2の変形例において、CPU18cは、図21に示すCPU18dに変更される。図21は、CPU18dの機能構成を示している。図21に示す構成について、図19に示す構成と異なる点を説明する。
 CPU18dは、図19に示す構成に加えて、特徴対応点算出部190を有する。特徴点算出部189は、第1の画像の被写体において、計測点以外の特徴点を算出する。特徴対応点算出部190は、第1の画像上の特徴点に対応する第2の画像上の特徴対応点を算出する。補助線表示制御部188は、特徴点および特徴対応点を通る補助線を表示させる。
 上記以外の点について、図21に示す構成は、図19に示す構成と同様である。
 図22は、表示部5の表示画面50を示している。図22に示すように、メインウィンドウWL91に第1の画像が表示され、かつサブウィンドウWR91に対応点画像が表示される。計測点を示す第1のカーソルC91および対応点を示す第2のカーソルC92は、視差方向DR1に直交する直線上に配置される。
 補助線表示制御部188は、第1のカーソルC91および第2のカーソルC92を通る補助線L91を表示させる。特徴点算出部189は、第1の画像における計測点周辺の画像から被写体の特徴点P91を算出する。図22において、第1の画像における1つの特徴点P91が算出されるが、複数の特徴点が算出されてもよい。特徴対応点算出部190は、対応点画像における対応点周辺の画像から被写体の特徴点P92(特徴対応点)を算出する。図22において、対応点画像における1つの特徴点P92が算出されるが、複数の特徴点が算出されてもよい。特徴対応点算出部190は、特徴点P91と特徴点P92との間でマッチングを行い、かつ特徴点P91および特徴点P92における画像の特徴が似ているか否かを判断する。特徴が似ていると判断された場合、特徴対応点算出部190は、特徴点P91および特徴点P92が同一点であると判断する。つまり、特徴対応点算出部190は、特徴点P92が特徴点P91の特徴対応点であると判断する。特徴対応点は複数あってもよい。補助線表示制御部188は、同一点であると判断された特徴点P91および特徴点P92を通る補助線L92を表示させる。
 図22において、第1のカーソルC91が示す計測点は、三角形に最も近い長方形の左側に位置する長方形にある。第2のカーソルC92が示す対応点は、三角形に最も近い長方形にある。このため、計測点と対応点とが一致しない。つまり、マッチング誤対応が発生している。ユーザーは、補助線L92の位置を参考にして、計測点周辺の画像および対応点周辺の画像を比較することにより、対応点周辺の画像が計測点周辺の画像に対してずれているか否かを容易に確認することができる。例えば、補助線L92が垂直ではなく斜めであることにより、ユーザーは画像のずれを確認することができる。このため、マッチング誤対応が発生しているか否かをユーザーが容易に判断することができる。
 (第4の実施形態)
 図1および図2に示す計測内視鏡装置1を使用して、本発明の第4の実施形態を説明する。第4の実施形態では、メインウィンドウに表示された第1の画像における計測点の位置に応じて、サブウィンドウの表示位置が切り替わる。
 対応点画像表示制御部185は、計測点の位置に応じて、対応点画像の表示位置を制御する。対応点画像表示制御部185は、第1の画像において、視差方向DR1に直交する方向DR2に並ぶ複数の画像領域を設定する。複数の画像領域は、第1の画像領域および第2の画像領域を含む。視差方向DR1に直交し、かつ第1の画像領域から第2の画像領域に向かう方向は第1の方向である。視差方向DR1に直交し、かつ第2の画像領域から第1の画像領域に向かう方向は第2の方向である。計測点が第1の画像領域内にある場合、対応点画像表示制御部185は、計測点よりも第1の方向側の位置に対応点画像を表示させる。計測点が第2の画像領域内にある場合、対応点画像表示制御部185は、計測点よりも第2の方向側の位置に対応点画像を表示させる。対応点画像表示制御部185は、対応点画像を第1の画像上に表示させる。
 図23、図24A、および図24Bを参照し、第4の実施形態における処理について説明する。図23は、計測モードにおける処理を示している。図24Aおよび図24Bは、表示部5の表示画面50を示している。
 対応点画像表示制御部185は、メインウィンドウWL101に表示された第1の画像において、第1の画像領域R101および第2の画像領域R102を予め設定する。第1の画像領域R101および第2の画像領域R102は、視差方向DR1に直交する方向DR2に並ぶ。図24Aおよび図24Bにおいて、第1の画像は、第1の画像領域R101および第2の画像領域R102のみを含む。図24Aおよび図24Bにおいて、第1の画像領域R101および第2の画像領域R102の面積は同一であるが、第1の画像領域R101および第2の画像領域R102の面積が異なってもよい。図24Aおよび図24Bにおいて、第1の方向DR101および第2の方向DR102が定義されている。第1の方向DR101は、視差方向DR1に直交し、かつ第1の画像領域R101から第2の画像領域R102に向かう方向である。第2の方向DR102は、視差方向DR1に直交し、かつ第2の画像領域R102から第1の画像領域R101に向かう方向である。第2の方向DR102は、第1の方向DR101の反対方向である。
 図23に示す処理について、図7に示す処理と異なる点を説明する。ステップS106の後、対応点画像表示制御部185は、ステップS104において読み込まれた計測点の位置を判断する(ステップS141)。計測点が第1の画像領域R101内にある場合、対応点画像表示制御部185は、計測点よりも第1の方向DR101側の位置に対応点画像を表示させる(ステップS142)。計測点が第2の画像領域R102内にある場合、対応点画像表示制御部185は、計測点よりも第2の方向DR102側の位置に対応点画像を表示させる(ステップS143)。ステップS142またはステップS143の後、ステップS108における処理が行われる。
 ステップS142において、計測点が第1の画像領域R101にあったとしても、対応点画像が第2の画像領域R102に表示されるとは限らない。また、ステップS143において、計測点が第2の画像領域R102にあったとしても、対応点画像が第1の画像領域R101に表示されるとは限らない。ステップS142およびステップS143において対応点画像が表示される位置は、第1の画像領域R101および第2の画像領域R102のどちらであってもよい。また、ステップS142およびステップS143において対応点画像が表示される位置は、第1の画像領域R101および第2の画像領域R102と異なる領域であってもよい。つまり、ステップS142およびステップS143において対応点画像が表示される位置は、第1の画像よりも外側の領域であってもよい。
 上記以外の点について、図23に示す処理は、図7に示す処理と同様である。
 図24Aに示すように、計測点を示す第1のカーソルC101は第1の画像領域R101内にある。このため、ステップS142において、対応点画像表示制御部185は、第1のカーソルC101よりも第1の方向DR101側の位置に対応点画像を表示させる。第1のカーソルC101よりも第1の方向DR101側の位置に、対応点画像を含むサブウィンドウWR101が表示される。第4の実施形態では、サブウィンドウWR101は、第2の画像領域R102に表示される。視差方向DR1に直交する方向DR2におけるサブウィンドウWR101の長さ(幅)は、方向DR2における第1の画像領域R101および第2の画像領域R102の各々の長さ(幅)よりも小さい。第1のカーソルC101および第2のカーソルC102は、視差方向DR1に直交する直線L101上に配置される。サブウィンドウWR101は必ずしも第2の画像領域R102に表示されるわけではない。第1のカーソルC101の位置によっては、サブウィンドウWR101は第1の画像領域R101内に表示されうる。
 図24Bに示すように、計測点を示す第1のカーソルC103は第2の画像領域R102内にある。このため、ステップS143において、対応点画像表示制御部185は、第1のカーソルC103よりも第2の方向DR102側の位置に対応点画像を表示させる。第1のカーソルC103よりも第2の方向DR102側の位置に、対応点画像を含むサブウィンドウWR102が表示される。第4の実施形態では、サブウィンドウWR102は、第1の画像領域R101に表示される。視差方向DR1に直交する方向DR2におけるサブウィンドウWR102の長さ(幅)は、方向DR2における第1の画像領域R101および第2の画像領域R102の各々の長さ(幅)よりも小さい。第1のカーソルC103および第2のカーソルC104は、視差方向DR1に直交する直線L102上に配置される。
 図24Aおよび図24Bにおいて、2つの画像領域が設定される。3つ以上の画像領域が設定されてもよい。3つ以上の画像領域が設定された場合、3つ以上の領域のうち2つの領域が第1の画像領域および第2の画像領域である。また、複数の画像領域は、必要に応じて変更可能であってもよい。
 上記のように、計測点の位置に応じて、計測点よりも第1の方向DR101または第2の方向DR102側の位置に対応点画像が表示される。このため、表示部5の表示画面50の大きさによる制限を受けにくい位置に対応点画像を表示することができる。つまり、対応点画像を見やすい位置に表示することができる。
 (第4の実施形態の第1の変形例)
 第4の実施形態の第1の変形例の対応点画像表示制御部185は、第1の画像において、視差方向DR1に直交する方向DR2に並ぶ複数の画像領域を設定する。複数の画像領域は、第1の画像領域および第2の画像領域を含む。計測点が第1の画像領域内にある場合、対応点画像表示制御部185は、第1の画像領域に対応点画像を表示させる。計測点が第2の画像領域内にある場合、対応点画像表示制御部185は、第2の画像領域に対応点画像を表示させる。
 図25Aおよび図25Bは、表示部5の表示画面50を示している。対応点画像表示制御部185は、メインウィンドウWL111に表示された第1の画像において、第1の画像領域R111および第2の画像領域R112を予め設定する。第1の画像領域R111および第2の画像領域R112は、図24Aおよび図24Bにおける第1の画像領域R101および第2の画像領域R102と同様である。図25Aおよび図25Bにおいて、第1の方向DR111および第2の方向DR112が定義されている。第1の方向DR111および第2の方向DR112は、図24Aおよび図24Bにおける第1の方向DR101および第2の方向DR102と同様である。
 図25Aに示すように、計測点を示す第1のカーソルC111は第1の画像領域R111内にある。このため、対応点画像表示制御部185は、第1の画像領域R111に対応点画像を表示させる。対応点画像を含むサブウィンドウWR111が第1の画像領域R111内に表示される。視差方向DR1に直交する方向DR2におけるサブウィンドウWR111の長さ(幅)は、方向DR2における第1の画像領域R111および第2の画像領域R112の各々の長さ(幅)よりも小さい。第1のカーソルC111および第2のカーソルC112は、視差方向DR1に直交する直線L111上に配置される。
 図25Bに示すように、計測点を示す第1のカーソルC113は第2の画像領域R112内にある。このため、対応点画像表示制御部185は、第2の画像領域R112に対応点画像を表示させる。対応点画像を含むサブウィンドウWR112が第2の画像領域R112内に表示される。視差方向DR1に直交する方向DR2におけるサブウィンドウWR112の長さ(幅)は、方向DR2における第1の画像領域R111および第2の画像領域R112の各々の長さ(幅)よりも小さい。第1のカーソルC113および第2のカーソルC114は、視差方向DR1に直交する直線L112上に配置される。
 上記のように、計測点が表示される画像領域と同一の画像領域に対応点画像が表示される。計測点の近くに対応点画像が表示されやすいので、ユーザーが第1の画像と対応点画像とを比較しやすくなる。
 (第4の実施形態の第2の変形例)
 第4の実施形態の第2の変形例の対応点画像表示制御部185は、第1の画像において、視差方向DR1に直交する方向DR2に第1の画像を二分した第1の画像領域および第2の画像領域を設定する。視差方向DR1に直交し、かつ第1の画像領域から第2の画像領域に向かう方向は第1の方向である。視差方向DR1に直交し、かつ第2の画像領域から第1の画像領域に向かう方向は第2の方向である。対応点画像表示制御部185は、表示画面50において、第1の画像領域よりも第2の方向側の位置に第1の表示領域を設定し、かつ第2の画像領域よりも第1の方向側の位置に第2の表示領域を設定する。計測点が第1の画像領域内にある場合、対応点画像表示制御部185は、第1の表示領域に対応点画像を表示させる。計測点が第2の画像領域内にある場合、対応点画像表示制御部185は、第2の表示領域に対応点画像を表示させる。
 図26Aおよび図26Bは、表示部5の表示画面50を示している。対応点画像表示制御部185は、メインウィンドウWL121に表示された第1の画像において、第1の画像領域R121および第2の画像領域R122を予め設定する。第1の画像領域R121および第2の画像領域R122は、図24Aおよび図24Bにおける第1の画像領域R101および第2の画像領域R102と同様である。図26Aおよび図26Bにおいて、第1の方向DR121および第2の方向DR122が定義されている。第1の方向DR121および第2の方向DR122は、図24Aおよび図24Bにおける第1の方向DR101および第2の方向DR102と同様である。
 対応点画像表示制御部185は、第1の画像領域R121に計測点がある場合には、第1の画像領域R121よりも第2の方向DR122側の位置に第1の表示領域R123を設定する。第1の表示領域R123は、第1の画像領域R121と重ならない。第1の表示領域R123は、第1の画像領域R121と表示画面50の周縁部との間に設定される。第1の表示領域R123は、第1の画像領域R121と接してもよい。対応点画像表示制御部185は、第2の画像領域R122に計測点がある場合には、第2の画像領域R122よりも第1の方向DR121側の位置に第2の表示領域R124を設定する。第2の表示領域R124は、第2の画像領域R122と重ならない。第2の表示領域R124は、第2の画像領域R122と表示画面50の周縁部との間に設定される。第2の表示領域R124は、第2の画像領域R122と接してもよい。
 図26Aに示すように、計測点を示す第1のカーソルC121は第1の画像領域R121内にある。このため、対応点画像表示制御部185は、第1の表示領域R123に対応点画像を表示させる。対応点画像表示制御部185は、第1の表示領域R123および第2の表示領域R124のうち第1の画像領域R121により近い第1の表示領域R123に対応点画像を表示させる。対応点画像を含むサブウィンドウWR121が第1の表示領域R123内に表示される。視差方向DR1に直交する方向DR2におけるサブウィンドウWR121の長さ(幅)は、方向DR2における第1の表示領域R123および第2の表示領域R124の各々の長さ(幅)と同一である。第1のカーソルC121および第2のカーソルC122は、視差方向DR1に直交する直線L121上に配置される。
 図26Bに示すように、計測点を示す第1のカーソルC123は第2の画像領域R122内にある。このため、対応点画像表示制御部185は、第2の表示領域R124に対応点画像を表示させる。対応点画像表示制御部185は、第1の表示領域R123および第2の表示領域R124のうち第2の画像領域R122により近い第2の表示領域R124に対応点画像を表示させる。対応点画像を含むサブウィンドウWR122が第2の表示領域R124内に表示される。視差方向DR1に直交する方向DR2におけるサブウィンドウWR122の長さ(幅)は、方向DR2における第1の表示領域R123および第2の表示領域R124の各々の長さ(幅)と同一である。第1のカーソルC123および第2のカーソルC124は、視差方向DR1に直交する直線L122上に配置される。
 (第5の実施形態)
 本発明の第5の実施形態では、第1の画像から計測点周辺の計測点画像が生成される。また、第5の実施形態では、計測点画像における計測点と、対応点画像における対応点とを通る直線が視差方向DR1に直交するように、対応点画像が表示される。
 第5の実施形態において、CPU18aは、図27に示すCPU18eに変更される。図27は、CPU18eの機能構成を示している。図27に示す構成について、図5に示す構成と異なる点を説明する。
 CPU18eは、図5に示す構成に加えて、計測点画像生成部191および計測点画像表示制御部192を有する。計測点画像生成部191は、第1の画像において計測点および当該計測点の周辺の領域を含み、かつ第1の画像の一部で構成された計測点画像を生成する。計測点画像表示制御部192は、計測点画像を表示画面50上に表示させる。対応点画像表示制御部185は、表示画面50において、計測点画像における計測点と、対応点画像における対応点とを通る直線が視差方向DR1に直交するように、対応点画像を表示させる。
 上記以外の点について、図27に示す構成は、図5に示す構成と同様である。
 図28、図29A、および図29Bを参照し、第5の実施形態における処理について説明する。図28は、計測モードにおける処理を示している。図29Aおよび図29Bは、表示部5の表示画面50を示している。図29Aおよび図29Bに示すように、メインウィンドウWL131に第1の画像が表示され、かつ計測点を示す第1のカーソルC131がメインウィンドウWL131に表示される。
 図28に示す処理について、図7に示す処理と異なる点を説明する。ステップS103の後、計測点画像生成部191は、第1の画像において計測点および当該計測点の周辺の領域を含み、かつ第1の画像の一部で構成された計測点画像を生成する。このとき、計測点画像生成部191は、視差方向DR1における長さが、視差方向DR1に直交する方向DR2における長さよりも大きい計測点画像を生成する。つまり、計測点画像生成部191は、視差方向DR1に細長い対応点画像を生成する(ステップS151)。
 ステップS151の後、計測点画像表示制御部192は、計測点画像を含むサブウィンドウWL132の画像信号を生成する。計測点画像表示制御部192は、生成された画像信号を映像信号処理回路12に出力する。映像信号処理回路12は、CCU9から出力された映像信号と、CPU18eから出力された画像信号とを合成する。これによって、計測点画像を含むサブウィンドウWL132が表示される。映像信号処理回路12は、合成された映像信号を表示部5に出力する。表示部5は、計測点画像を含むサブウィンドウWL132を表示する(ステップS152)。サブウィンドウWL132に含まれる計測点画像において、被写体の構造物が映っている。
 図29Aおよび図29Bに示すように、サブウィンドウWL132は、メインウィンドウWL131上に重畳される。ステップS152において、計測点画像表示制御部192は、計測点画像を第1の画像上に表示させる。このとき、計測点画像表示制御部192は、計測点画像の一部または全てが第1の画像と重なるように計測点画像を表示させる。図29Aおよび図29Bにおいて、サブウィンドウWL132における計測点画像の全てがメインウィンドウWL131内の第1の画像と重なる。メインウィンドウWL131において、メインウィンドウWL131およびサブウィンドウWL132が互いに重なる領域の第1の画像は視認できない。ステップS152において、計測点画像表示制御部192は、計測点画像の表示領域(サブウィンドウWL132)を第1の画像に設定し、かつサブウィンドウWL132内に計測点画像を表示させる。
 ステップS152において、計測点画像表示制御部192は、計測点画像における視差方向が第1の画像における視差方向DR1と平行になるように、計測点画像を表示させる。つまり、計測点画像表示制御部192は、第1の画像に対して計測点画像が傾かないように、計測点画像を表示させる。
 ステップS152において、計測点画像表示制御部192は、視差方向DR1における計測点画像上の計測点の位置と第1の画像上の計測点の位置とが異なるように、計測点画像を表示させる。つまり、計測点画像表示制御部192は、計測点画像における計測点が第1の画像における計測点に対して視差方向DR1にずれるように、計測点画像を表示させる。計測点画像表示制御部192は、視差方向DR1における計測点画像上の計測点の位置と第1の画像上の計測点の位置とが同一になるように、計測点画像を表示させてもよい。この場合、第1の画像における計測点と、計測点画像における計測点と、対応点画像における対応点とは、視差方向DR1に直交する直線上に配置される。
 ステップS152において、計測点画像表示制御部192は、視差方向DR1に直交する方向DR2における計測点画像上の計測点の位置と第1の画像上の計測点の位置とが異なるように、計測点画像を表示させる。つまり、計測点画像表示制御部192は、計測点画像における計測点が第1の画像における計測点に対して方向DR2にずれるように、計測点画像を表示させる。計測点画像表示制御部192は、方向DR2における計測点画像上の計測点の位置と第1の画像上の計測点の位置とが同一になるように、計測点画像を表示させてもよい。この場合、第1の画像における計測点と、計測点画像における計測点とは、視差方向DR1に平行な直線上に配置される。
 ステップS152において、計測点画像表示制御部192は、計測点画像における計測点が第1の画像における計測点に対して離間するように、計測点画像を表示させる。つまり、計測点画像表示制御部192は、計測点画像における計測点および第1の画像における計測点の位置が異なるように、計測点画像を表示させる。計測点画像表示制御部192は、計測点画像における計測点および第1の画像における計測点の位置が一致するように、計測点画像を表示させてもよい。
 ステップS152において、計測点画像表示制御部192は、計測点画像が第1の画像における計測点に対して離間するように、計測点画像を表示させる。つまり、計測点画像表示制御部192は、計測点画像が第1の画像における計測点に重ならないように、計測点画像を表示させる。計測点画像表示制御部192は、計測点画像が第1の画像における計測点に重なるように、計測点画像を表示させてもよい。
 ステップS152において、計測点画像表示制御部192は、第1の画像の表示倍率よりも高い表示倍率で計測点画像を表示させる。これによって、拡大画像を表示するためのズームウィンドウとしてサブウィンドウWL132を使用することができる。計測点画像表示制御部192は、第1の画像の表示倍率と同じ表示倍率で計測点画像を表示させてもよい。サブウィンドウWL132は、ズームウィンドウ以外の目的に使用されてもよい。例えば、縮小画像、深さ画像(デプスマップ)、または信頼度のマップがサブウィンドウWL132に表示されてもよい。
 ステップS152の後、計測点画像における計測点の位置をユーザーが簡単に確認できるように、第4のカーソルC133が表示される。計測点表示制御部182は、表示画面50において、計測点画像における計測点を示す第4のカーソルC133を表示させる。このとき、計測点表示制御部182は、計測点画像上に第4のカーソルC133を表示させる(ステップS153)。ステップS153の後、ステップS104における処理が行われる。第4のカーソルC133の位置は、計測点画像における計測点の位置と同一である。第4のカーソルC133は、第1のカーソルC131が示す被写体上の位置と同一の位置を示す。第4のカーソルC133は、第1のカーソルC131の移動に連動して移動する。第4のカーソルC133の移動に関する処理は、図28に示されていない。
 図29Aおよび図29Bに示すように、第4のカーソルC133は第1のカーソルC131に対して離間している。つまり、計測点画像における計測点は第1の画像における計測点に対して離間している。計測点画像が第1の画像における計測点に対して離間するように計測点画像が表示されるため、サブウィンドウWR132は第1のカーソルC131と重ならない。
 ステップS108の後、対応点画像表示制御部185は、サブウィンドウWR131内の対応点画像の位置を調整する。具体的には、対応点画像表示制御部185は、計測点画像における計測点と、対応点画像における対応点とが直線L131上に配置されるように、対応点画像を表示させる。直線L131は、第4のカーソルC133および第2のカーソルC132を通る。つまり、直線L131は、計測点画像における計測点と、対応点画像における対応点とを通る。直線L131は、第1の画像および第2の画像における視差方向DR1に直交する。したがって、対応点画像表示制御部185は、表示画面50において、計測点画像における計測点と、対応点画像における対応点とを通る直線L131が視差方向DR1に直交するように、対応点画像の位置を調整する(ステップS154)。このとき、直線L131は、表示画面50に表示されていない。
 ステップS154において、計測点表示制御部182は第4のカーソルC133の位置を調整し、かつ対応点表示制御部186は第2のカーソルC132の位置を調整する。つまり、計測点表示制御部182は、表示画面50において、第4のカーソルC133を直線L131上に表示させる。対応点表示制御部186は、表示画面50において、第2のカーソルC132を直線L131上に表示させる。ステップS154の後、ステップS110における処理が行われる。
 ステップS107において対応点画像表示制御部185は、計測点画像の表示倍率と同じ表示倍率で対応点画像を表示させてもよい。これによって、ユーザーは、マッチング誤対応が発生しているか否かを簡単に確認することができる。
 上記以外の点について、図28に示す処理は、図7に示す処理と同様である。
 図29Aは、マッチング誤対応が発生していない場合における表示部5の表示画面50を示している。被写体において第4のカーソルC133および第2のカーソルC132が示す位置は一致する。つまり、被写体上の計測点および対応点の位置は一致する。計測点画像における計測点と対応点画像における対応点とを通る直線L131が視差方向DR1に直交するように対応点画像の位置が調整された後、視差方向DR1における計測点画像内の計測点周辺の構造の位置と対応点画像内の対応点周辺の構造の位置とは同一である。このため、ユーザーは、マッチング誤対応が発生していないと判断することができる。
 図29Bは、マッチング誤対応が発生している場合における表示部5の表示画面50を示している。被写体において第4のカーソルC133および第2のカーソルC132が示す位置は一致しない。つまり、被写体上の計測点および対応点の位置は一致しない。具体的には、対応点画像における対応点は、計測点画像の被写体において計測点の位置よりも右側にずれている。計測点画像における計測点と対応点画像における対応点とを通る直線L131が視差方向DR1に直交するように対応点画像の位置が調整された後、対応点画像内の対応点周辺の構造の位置は、計測点画像内の計測点周辺の構造の位置よりも左側にずれている。このため、ユーザーは、マッチング誤対応が発生していると判断することができる。
 ユーザーは、第1の画像を表示するためのメインウィンドウWL131によって被写体全体の様子を確認することができる。同時に、ユーザーは、計測点画像が拡大表示されたサブウィンドウWL132によって被写体の細かいテクスチャー(模様)、色味、およびエッジ位置を確認することができる。このため、ユーザーは、マッチング誤対応が発生しているか否かを簡単に確認することができる。
 (補足)
 計測点と対応点とが互いに重なるように対応点画像が第1の画像上に表示される場合、対応点画像は、第1の画像に対して上から覆うように表示されてもよい。つまり、第1の画像および対応点画像が互いに重なる領域の第1の画像が視認できなくてもよい。
 以上、本発明の好ましい実施形態を説明したが、本発明はこれら実施形態およびその変形例に限定されることはない。本発明の趣旨を逸脱しない範囲で、構成の付加、省略、置換、およびその他の変更が可能である。また、本発明は前述した説明によって限定されることはなく、添付のクレームの範囲によってのみ限定される。
 本発明の各実施形態によれば、マッチング誤対応が発生しているか否かをユーザーが容易に判断することができる。
 1 計測内視鏡装置
 2 挿入部
 3 コントロールユニット
 4 操作部
 5 表示部
 8 内視鏡ユニット
 9 CCU
 10 制御ユニット
 12 映像信号処理回路
 13 ROM
 14 RAM
 15 カードインタフェース
 16 外部機器インタフェース
 17 制御インタフェース
 18a,18b,18c,18d,18e CPU
 20 先端
 24 撮像面
 28 撮像素子
 30 ステレオ光学アダプタ
 31 第1の光学系
 32 第2の光学系
 50 表示画面
 180 制御部
 181 計測点検出部
 182 計測点表示制御部
 183 対応点算出部
 184 対応点画像生成部
 185 対応点画像表示制御部
 186 対応点表示制御部
 187 計測部
 188 補助線表示制御部
 189 特徴点算出部
 190 特徴対応点算出部
 191 計測点画像生成部
 192 計測点画像表示制御部

Claims (27)

  1.  被写体を撮像し、かつ撮像信号を生成する撮像部と、
     前記撮像信号に基づいて、所定の視差方向に互いに視差を有する第1の画像および第2の画像を取得する画像取得部と、
     前記第1の画像が表示される表示画面を有する表示部と、
     ユーザーによって指定された計測位置を示す計測点を前記第1の画像上に表示させる計測点表示制御部と、
     前記第1の画像上の前記計測点に対応する、前記第2の画像上の対応点を算出する対応点算出部と、
     前記第2の画像において前記対応点算出部によって算出された前記対応点および当該対応点の周辺の領域を含み、かつ前記第2の画像の一部または全部で構成された対応点画像を生成する対応点画像生成部と、
     前記対応点画像を前記表示画面上に表示させる対応点画像表示制御部と、
     を有し、
     前記対応点画像表示制御部は、前記表示画面において、前記計測点および前記対応点を通る直線が前記視差方向に直交するように、前記対応点画像を表示させる
     計測処理装置。
  2.  前記対応点画像表示制御部は、前記対応点が前記計測点に対して離間するように、前記対応点画像を表示させる
     請求項1に記載の計測処理装置。
  3.  前記対応点画像生成部は、前記視差方向における長さが、前記視差方向に直交する方向における長さよりも大きい前記対応点画像を生成する
     請求項1に記載の計測処理装置。
  4.  前記対応点画像生成部は、前記視差方向における長さが、前記視差方向に直交する方向における長さよりも小さい第2の対応点画像を生成し、
     前記対応点画像表示制御部は、前記第1の画像および前記第2の対応点画像が前記視差方向に沿って並ぶように、前記第2の対応点画像を前記表示画面上に表示させる
     請求項3に記載の計測処理装置。
  5.  前記表示画面において、前記視差方向に平行であり、かつ前記計測点を通る補助線を前記第1の画像および前記第2の対応点画像上に表示させる補助線表示制御部をさらに有する
     請求項4に記載の計測処理装置。
  6.  前記対応点画像表示制御部は、前記対応点画像の表示領域を前記表示画面に設定し、かつ当該表示領域内に前記対応点画像を表示させ、
     前記対応点画像表示制御部は、前記対応点画像が表示されるとき、前記視差方向における前記表示領域の両端位置を、前記視差方向における前記第1の画像の両端位置にそれぞれ一致させる
     請求項3に記載の計測処理装置。
  7.  前記表示画面において、前記視差方向に直交する1本以上の補助線を前記第1の画像および前記対応点画像上に表示させる補助線表示制御部をさらに有する
     請求項2に記載の計測処理装置。
  8.  前記補助線表示制御部は、前記補助線が前記計測点を通るように前記補助線を表示させる
     請求項7に記載の計測処理装置。
  9.  前記第1の画像の被写体において、前記計測点以外の第1の特徴点を算出する特徴点算出部をさらに有し、
     前記補助線表示制御部は、前記補助線が前記第1の特徴点を通るように前記補助線を表示させる
     請求項7に記載の計測処理装置。
  10.  前記対応点画像の被写体において、前記対応点以外の第2の特徴点を算出する特徴点算出部をさらに有し、
     前記補助線表示制御部は、前記補助線が前記第2の特徴点を通るように前記補助線を表示させる
     請求項7に記載の計測処理装置。
  11.  前記対応点画像表示制御部は、前記対応点画像の表示領域を前記表示画面に設定し、かつ当該表示領域内に前記対応点画像を表示させ、
     前記対応点画像表示制御部は、前記対応点画像が表示されるとき、前記視差方向における前記表示領域の両端位置を、前記視差方向における前記第1の画像の両端位置にそれぞれ一致させ、
     前記補助線表示制御部は、前記補助線が前記視差方向における前記対応点画像の両端の少なくとも一方を通るように前記補助線を表示させる
     請求項7に記載の計測処理装置。
  12.  前記第1の画像の被写体において、前記計測点以外の特徴点を算出する特徴点算出部と、
     前記第1の画像上の前記特徴点に対応する前記第2の画像上の特徴対応点を算出する特徴対応点算出部と、
     前記特徴点および前記特徴対応点を通る補助線を表示させる補助線表示制御部と、
     をさらに有する請求項2に記載の計測処理装置。
  13.  前記対応点画像表示制御部は、前記計測点の位置に応じて、前記対応点画像の表示位置を制御する
     請求項2に記載の計測処理装置。
  14.  前記対応点画像表示制御部は、前記第1の画像において、前記視差方向に直交する方向に並ぶ複数の画像領域を設定し、
     前記複数の画像領域は、第1の画像領域および第2の画像領域を含み、
     前記視差方向に直交し、かつ前記第1の画像領域から前記第2の画像領域に向かう方向は第1の方向であり、
     前記視差方向に直交し、かつ前記第2の画像領域から前記第1の画像領域に向かう方向は第2の方向であり、
     前記計測点が前記第1の画像領域内にある場合、前記対応点画像表示制御部は、前記計測点よりも前記第1の方向側の位置に前記対応点画像を表示させ、
     前記計測点が前記第2の画像領域内にある場合、前記対応点画像表示制御部は、前記計測点よりも前記第2の方向側の位置に前記対応点画像を表示させる
     請求項13に記載の計測処理装置。
  15.  前記対応点画像表示制御部は、前記対応点画像を前記第1の画像上に表示させる
     請求項14に記載の計測処理装置。
  16.  前記対応点画像表示制御部は、前記第1の画像において、前記視差方向に直交する方向に並ぶ複数の画像領域を設定し、
     前記複数の画像領域は、第1の画像領域および第2の画像領域を含み、
     前記計測点が前記第1の画像領域内にある場合、前記対応点画像表示制御部は、前記第1の画像領域に前記対応点画像を表示させ、
     前記計測点が前記第2の画像領域内にある場合、前記対応点画像表示制御部は、前記第2の画像領域に前記対応点画像を表示させる
     請求項13に記載の計測処理装置。
  17.  前記対応点画像表示制御部は、前記第1の画像において、前記視差方向に直交する方向に前記第1の画像を二分した第1の画像領域および第2の画像領域を設定し、
     前記視差方向に直交し、かつ前記第1の画像領域から前記第2の画像領域に向かう方向は第1の方向であり、
     前記視差方向に直交し、かつ前記第2の画像領域から前記第1の画像領域に向かう方向は第2の方向であり、
     前記対応点画像表示制御部は、前記表示画面において、前記第1の画像領域よりも前記第2の方向側の位置に第1の表示領域を設定し、かつ前記第2の画像領域よりも前記第1の方向側の位置に第2の表示領域を設定し、
     前記計測点が前記第1の画像領域内にある場合、前記対応点画像表示制御部は、前記第1の表示領域に前記対応点画像を表示させ、
     前記計測点が前記第2の画像領域内にある場合、前記対応点画像表示制御部は、前記第2の表示領域に前記対応点画像を表示させる
     請求項13に記載の計測処理装置。
  18.  前記第1の画像上に表示された前記計測点の移動速度が所定の閾値よりも小さい場合、前記対応点画像表示制御部は、前記対応点画像を表示させる
     請求項1に記載の計測処理装置。
  19.  前記第1の画像において前記計測点および当該計測点の周辺の領域を含み、かつ前記第1の画像の一部で構成された計測点画像を生成する計測点画像生成部と、
     前記計測点画像を前記表示画面上に表示させる計測点画像表示制御部と、
     をさらに有し、
     前記対応点画像表示制御部は、前記表示画面において、前記計測点画像における前記計測点と、前記対応点画像における前記対応点とを通る直線が前記視差方向に直交するように、前記対応点画像を表示させる
     請求項1に記載の計測処理装置。
  20.  前記計測点画像表示制御部は、前記第1の画像の表示倍率よりも高い表示倍率で前記計測点画像を表示させる
     請求項19に記載の計測処理装置。
  21.  前記対応点画像表示制御部は、前記計測点画像の表示倍率と同じ表示倍率で前記対応点画像を表示させる
     請求項20に記載の計測処理装置。
  22.  前記対応点画像表示制御部は、前記計測点と前記対応点画像とが重なり、かつ前記第1の画像が前記対応点画像を通して視認可能となるように、前記対応点画像を半透明処理し、かつ前記対応点画像を前記第1の画像上に表示させる
     請求項1に記載の計測処理装置。
  23.  前記対応点画像表示制御部は、前記計測点と前記対応点とが互いに重なるように、前記対応点画像を前記第1の画像上に表示させる
     請求項22に記載の計測処理装置。
  24.  前記対応点を前記対応点画像上に表示させる対応点表示制御部をさらに有する
     請求項1に記載の計測処理装置。
  25.  前記計測点表示制御部は、前記表示画面において、前記計測点を示す第1のカーソルを前記直線上に表示させ、
     前記対応点表示制御部は、前記表示画面において、前記対応点を示す第2のカーソルを前記直線上に表示させる
     請求項24に記載の計測処理装置。
  26.  前記対応点画像表示制御部は、前記第1の画像の表示倍率と同じ表示倍率で前記対応点画像を表示させる
     請求項1に記載の計測処理装置。
  27.  所定の視差方向に互いに視差を有する第1の画像および第2の画像を取得する画像取得部と、
     前記第1の画像が表示される表示画面を有する表示部と、
     ユーザーによって指定された計測位置を示す計測点を前記第1の画像上に表示させる計測点表示制御部と、
     前記第1の画像上の前記計測点に対応する、前記第2の画像上の対応点を算出する対応点算出部と、
     前記第2の画像において前記対応点算出部によって算出された前記対応点および当該対応点の周辺の領域を含み、かつ前記第2の画像の一部または全部で構成された対応点画像を生成する対応点画像生成部と、
     前記対応点画像を前記表示画面上に表示させる対応点画像表示制御部と、
     を有し、
     前記対応点画像表示制御部は、前記表示画面において、前記計測点および前記対応点を通る直線が前記表示画面の垂直方向と平行、または前記表示画面の水平方向と平行になるように、前記対応点画像を表示させる
     計測処理装置。
PCT/JP2017/026133 2016-08-26 2017-07-19 計測処理装置 WO2018037778A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018535527A JP6599014B2 (ja) 2016-08-26 2017-07-19 計測処理装置
US16/280,128 US11120543B2 (en) 2016-08-26 2019-02-20 Measurement processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-165562 2016-08-26
JP2016165562 2016-08-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/280,128 Continuation US11120543B2 (en) 2016-08-26 2019-02-20 Measurement processing device

Publications (1)

Publication Number Publication Date
WO2018037778A1 true WO2018037778A1 (ja) 2018-03-01

Family

ID=61246678

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/026133 WO2018037778A1 (ja) 2016-08-26 2017-07-19 計測処理装置

Country Status (3)

Country Link
US (1) US11120543B2 (ja)
JP (1) JP6599014B2 (ja)
WO (1) WO2018037778A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7061701B1 (ja) 2021-02-01 2022-04-28 Dmg森精機株式会社 画像処理装置および工作機械

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020024286A (ja) * 2018-08-07 2020-02-13 オリンパス株式会社 計測装置、計測装置の作動方法、およびプログラム
JP7045963B2 (ja) * 2018-08-30 2022-04-01 オリンパス株式会社 計測装置の作動方法、計測装置、およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011145527A (ja) * 2010-01-15 2011-07-28 Olympus Corp 内視鏡装置およびプログラム
JP2014026217A (ja) * 2012-07-30 2014-02-06 Olympus Corp 内視鏡装置およびプログラム
JP2016095458A (ja) * 2014-11-17 2016-05-26 オリンパス株式会社 内視鏡装置
JP2016121917A (ja) * 2014-12-24 2016-07-07 パナソニックIpマネジメント株式会社 3次元情報復元装置、3次元情報復元システム、及び3次元情報復元方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7170677B1 (en) * 2002-01-25 2007-01-30 Everest Vit Stereo-measurement borescope with 3-D viewing
US8372002B2 (en) * 2006-07-27 2013-02-12 Olympus Corporation Endoscope apparatus
JP2011170276A (ja) 2010-02-22 2011-09-01 Olympus Corp 内視鏡装置およびプログラム
JP6687039B2 (ja) * 2016-02-05 2020-04-22 株式会社リコー 物体検出装置、機器制御システム、撮像装置、物体検出方法、及びプログラム
US20190230334A1 (en) * 2016-06-15 2019-07-25 Sony Corporation Image producing apparatus and image producing method
US11087480B2 (en) * 2016-08-03 2021-08-10 Sony Corporation Image processing apparatus and image processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011145527A (ja) * 2010-01-15 2011-07-28 Olympus Corp 内視鏡装置およびプログラム
JP2014026217A (ja) * 2012-07-30 2014-02-06 Olympus Corp 内視鏡装置およびプログラム
JP2016095458A (ja) * 2014-11-17 2016-05-26 オリンパス株式会社 内視鏡装置
JP2016121917A (ja) * 2014-12-24 2016-07-07 パナソニックIpマネジメント株式会社 3次元情報復元装置、3次元情報復元システム、及び3次元情報復元方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7061701B1 (ja) 2021-02-01 2022-04-28 Dmg森精機株式会社 画像処理装置および工作機械
JP2022117545A (ja) * 2021-02-01 2022-08-12 Dmg森精機株式会社 画像処理装置および工作機械

Also Published As

Publication number Publication date
JPWO2018037778A1 (ja) 2019-04-25
JP6599014B2 (ja) 2019-10-30
US20190188842A1 (en) 2019-06-20
US11120543B2 (en) 2021-09-14

Similar Documents

Publication Publication Date Title
JP5073564B2 (ja) 計測用内視鏡装置およびプログラム
US8496575B2 (en) Measuring endoscope apparatus, program and recording medium
JP4873794B2 (ja) 画像処理計測装置及び計測内視鏡装置
JP5530225B2 (ja) 内視鏡装置およびプログラム
WO2016208664A1 (ja) 内視鏡装置
JP6599014B2 (ja) 計測処理装置
JP5437087B2 (ja) 内視鏡装置およびプログラム
US11321861B2 (en) Method of operating measurement device, measurement device, measurement system, three-dimensional shape restoration device, and recording medium
WO2017199285A1 (ja) 画像処理装置及び画像処理方法
JP5079973B2 (ja) 計測用内視鏡装置及び計測用内視鏡装置用プログラム
JP2006329684A (ja) 画像計測装置及び方法
US11385053B2 (en) Distance measuring camera
JP2009168499A (ja) 内視鏡装置およびプログラム
JP6081209B2 (ja) 内視鏡装置およびプログラム
US10432916B2 (en) Measurement apparatus and operation method of measurement apparatus
US11055865B2 (en) Image acquisition device and method of operating image acquisition device
JP2003070719A (ja) 計測内視鏡装置
JP2011170276A (ja) 内視鏡装置およびプログラム
JP4750197B2 (ja) 内視鏡装置
EP3825649A1 (en) Ranging camera
JP6400767B2 (ja) 計測内視鏡装置
JP2009086552A (ja) 計測内視鏡システム
WO2017199657A1 (ja) 内視鏡装置、計測方法、およびプログラム
JP6426215B2 (ja) 内視鏡装置およびプログラム
JP6120537B2 (ja) 計測内視鏡装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018535527

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17843265

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17843265

Country of ref document: EP

Kind code of ref document: A1