WO2017168737A1 - 欠陥画像表示制御装置及びプログラム - Google Patents

欠陥画像表示制御装置及びプログラム Download PDF

Info

Publication number
WO2017168737A1
WO2017168737A1 PCT/JP2016/060862 JP2016060862W WO2017168737A1 WO 2017168737 A1 WO2017168737 A1 WO 2017168737A1 JP 2016060862 W JP2016060862 W JP 2016060862W WO 2017168737 A1 WO2017168737 A1 WO 2017168737A1
Authority
WO
WIPO (PCT)
Prior art keywords
defect
unit
appearance image
display control
data
Prior art date
Application number
PCT/JP2016/060862
Other languages
English (en)
French (fr)
Inventor
達也 永野
満寿夫 友池
吉田 秀智
昌弘 大矢
Original Assignee
株式会社 ニコン・トリンブル
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 ニコン・トリンブル filed Critical 株式会社 ニコン・トリンブル
Priority to PCT/JP2016/060862 priority Critical patent/WO2017168737A1/ja
Priority to JP2018508325A priority patent/JP6569002B2/ja
Publication of WO2017168737A1 publication Critical patent/WO2017168737A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination

Definitions

  • the present invention relates to a defect image display control device and a program.
  • Patent Document 1 describes a device that detects fine cracks by capturing cracks appearing in the appearance of a concrete structure with a super-telephoto camera provided in the surveying instrument and analyzing the captured image. Yes.
  • Patent Document 1 requires a technique useful for confirming whether or not the detected result is correct, confirming that the detected result is not leaked, and the like.
  • a display control unit that displays on a display unit an external image that includes a defect that has appeared in the external appearance of the structure and that has been subjected to an orthocorrection process, wherein the actual image is located at the structure.
  • the display that allows an object indicating a scale of the size of an object in space to be superimposed on a part of the appearance image, and that the object can be displayed at a plurality of different positions in the appearance image displayed on the display unit
  • a defect image display control device including a control unit is provided.
  • a display control step for displaying an appearance image including a defect appearing in the appearance of a structure and subjected to an ortho correction process on the display unit, the structure being located
  • the object indicating the scale of the size of the object in real space is superimposed on a part of the appearance image, and the object can be displayed at a plurality of different positions in the appearance image displayed on the display unit
  • a program for executing the display control step is provided.
  • the figure which shows the structure of a defect detection system The front view of a surveying instrument. The rear view of a surveying instrument. The bottom view of a surveying instrument.
  • (A) is a figure which shows the relationship between a measurement surface and a measurement range
  • (b) is a figure which shows the relationship between a measurement surface, a measurement range, and an imaging range.
  • the figure explaining instrument installation The figure explaining the coordinate data of the arbitrary pixels on a digital image.
  • the figure which shows the definition method when a measurement surface is a vertical surface.
  • (A) And (b) is a figure which shows the method of designating the measurement range which is not facing the surveying instrument.
  • the flowchart which shows the procedure of detecting and measuring the defect which is an example of a defect.
  • (A) is a diagram showing an appearance image having a defect
  • (b) is a diagram showing an appearance image obtained by performing highlighting processing on the defect
  • (c) is a display in which defects are divided into segments and highlighted for each segment.
  • the figure which shows an example of the screen displayed on the display part of the defect image display control apparatus The figure which shows the display state next to the screen shown in FIG.
  • (A) is a figure which shows before ortho correction
  • (b) is a figure which shows after ortho correction processing.
  • the figure which shows the screen which displayed the external appearance image data to edit on the display part of a defect image display control apparatus The figure which shows the edit screen which performs the addition work of a defect.
  • (a) is a flowchart which shows the example which inputs defect width data, after selecting one end point and the other end point of a defect.
  • (B) is a flowchart showing an example of inputting defect width data after selecting one end point of a defect, and then selecting the other end point, and (c) showing a defect after inputting the defect width data.
  • the figure which shows the edit screen on which the menu box where the candidate value of defect width data was enumerated was displayed.
  • It is a flowchart which shows the procedure which inputs defect width data automatically when the position of a defect is selected, (a) is an example which inputs defect width data automatically when one end point of a defect is selected.
  • FIG. 5B is a flowchart illustrating an example in which defect width data is automatically input when the other end point of a defect is selected.
  • (A)-(j) is a figure which shows the modification of the graphics part which comprises a guide object.
  • the defect detection system includes a surveying instrument 1 and a defect image display control device 50.
  • the surveying instrument 1 is a device that measures a survey target, and measures an angle with the survey target and a distance from the survey target.
  • the surveying instrument 1 is a device that combines a light wave rangefinder that measures a distance and a theodolite that measures an angle.
  • the surveying instrument 1 is a device that simultaneously measures an angle with a surveying object and a distance from the surveying object.
  • the surveying instrument 1 is a total station.
  • the surveying object is a first target composed of a reflecting prism such as a prism, a mirror, or a reflex sheet when the prism method is adopted.
  • the survey target may be referred to as a measurement target or a target.
  • the surveying instrument 1 adopts a non-prism system that does not use a reflecting prism such as a prism, mirror, or reflex sheet.
  • a reflecting prism such as a prism, mirror, or reflex sheet.
  • distance measurement light such as a laser is directly applied to the survey object, and the reflected light reflected by the measurement surface is detected to measure the distance from the measurement surface of the survey object.
  • the non-prism survey target include structures such as bridges, dams, buildings, tunnels, steel frames, roads, trains, airplanes, power transmission lines, and ancient tombs. If the vertical and horizontal angles are driven by motor drive instead of the prism system, and the collimation target can be collimated by autofocus, the user can set foot on the site after installing the surveying instrument 1 on the site.
  • the surveying instrument 1 includes an imaging device such as a camera, and images a wall surface of a structure that is a survey target.
  • the image of the measurement surface is an appearance image of a structure.
  • the surveying instrument 1 outputs imaged measurement surface position data and imaged appearance image data.
  • Surveying instrument 1 is supplied with power from the power source.
  • the power source is a power source built in the surveying instrument 1, a power source configured to be detachable from the surveying instrument 1, or an external power source 49 that supplies power to the surveying instrument 1 from the outside.
  • the power source is a secondary battery such as a nickel metal hydride battery or a lithium ion battery, a commercial power source, a generator, or the like.
  • the defect image display control device 50 is a general-purpose information processing device such as a desktop or laptop computer or tablet.
  • the defect image display control device 50 is connected to the surveying instrument 1 by wire (for example, a connection cable) or wirelessly.
  • the defect image display control device 50 is installed several meters away from the surveying instrument 1.
  • Software is installed in the defect image display control device 50.
  • the software is a defect detection program that detects a defect of a structure from an image, and is a defect editing program that edits data related to the detected defect.
  • the defect image display control device 50 is a control device that controls the surveying instrument 1, and executes the defect detection program to control the surveying instrument 1 to capture appearance image data.
  • the defect image display control device 50 displays the appearance image data by executing the defect editing program, adds a new defect that could not be detected by the defect detection program, and the defect detection program The detected defect can be corrected.
  • the defect image display control device 50 detects the defect appearing in the appearance of the structure from the appearance image data when the appearance image data and the position data of the observation point included in the appearance image data are input from the surveying instrument 1.
  • the defect is a crack or a dent that appears in the appearance of the structure.
  • Such a defect is formed due to aging deterioration such as peeling or abrasion as an example.
  • the defect is formed by an external force such as an earthquake or a wave.
  • the defect is formed by structural deformation caused by bending or vibration.
  • the defect is formed by chemical deterioration caused by oxygen or carbon dioxide permeation, moisture or chloride permeation, or the like.
  • the defect is formed by corrosion of a reinforcing bar.
  • the defect image display control device 50 detects a defect of the structure from the appearance image data, and calculates defect data related to the defect with reference to the position data.
  • the defect data includes data indicating the position of the defect.
  • the position data and the defect data are preferably coordinate data according to a global coordinate system (a coordinate system that is not a local coordinate system, a world geodetic system, or a Japanese geodetic system).
  • the defect image display control device 50 is a control device of the surveying instrument 1.
  • the defect image display control device 50 outputs an instruction for imaging the appearance of the structure to the surveying instrument 1 and controls the operation of the surveying instrument 1.
  • the defect image display control device 50 rotates the surveying instrument 1 around the vertical axis and the horizontal axis to image the appearance of the structure.
  • the surveying instrument 1 includes a leveling unit 2, a main body unit 6, and an imaging unit 7.
  • the leveling unit 2 is, for example, a leveling table.
  • the leveling unit 2 includes a bottom plate 3, an upper plate 4, and a leveling screw 5.
  • the bottom plate 3 is a member fixed to a tripod.
  • the bottom plate 3 is fixed to the leg head of the tripod with screws or the like, for example.
  • the top plate 4 is configured such that the inclination with respect to the bottom plate 3 can be changed by using leveling screws 5.
  • a main body 6 is attached to the upper plate 4.
  • the inclination of the vertical axis O ⁇ b> 1 that is the first axis of the surveying instrument 1 can be changed by using the leveling screw 5.
  • Leveling is to make the vertical axis of the surveying instrument 1 vertical.
  • the leveling surveying instrument 1 is in a state where the vertical axis O1 is along the vertical direction.
  • the leveling surveying instrument 1 is in a state where the vertical axis O1 is along the vertical direction, and the horizontal axis O2, which is the second axis of the surveying instrument 1, is perpendicular to the vertical axis O1.
  • Leveling may be expressed as leveling.
  • Centripetal is to make the vertical center of the surveying instrument 1 coincide with the center of the second target (measurement). Centripetalization is to make the machine center of the surveying instrument 1 coincide with the vertical line of the surveying point such as the surveying reference position (reference point) on the ground.
  • the centripetal may be expressed as centering or centering.
  • the centering surveying instrument 1 is in a state where the vertical axis O1 passes through the center of the second target.
  • the second target is, for example, an instrument height measurement target or a survey rod.
  • the main body 6 is supported by the leveling unit 2 so as to be rotatable around the vertical axis.
  • the main body 6 is configured to be rotatable around the vertical axis with respect to the leveling unit 2.
  • the main body 6 is located above the leveling unit 2.
  • the main body 6 supports the imaging unit 7 so as to be rotatable about a horizontal axis.
  • the main body 6 is a support column.
  • the main body 6 is a rack part.
  • the main body 6 includes a first display unit 18, a second display unit 19, a horizontal angle operation unit 23, a vertical angle operation unit 24, a grip unit 25, and a third imaging unit 14 (see FIG. 4). Contains.
  • the first display unit 18 and the second display unit 19 have a display function for displaying images and objects.
  • the 1st display part 18 and the 2nd display part 19 display the information based on the image based on the image data which the imaging part 7 produced
  • the first display unit 18 and the second display unit 19 are a liquid crystal display and an organic EL display.
  • the first display unit 18 is disposed on the opposite side.
  • the first display unit 18 is used when, for example, counter-observation is performed.
  • the second display unit 19 is arranged on the positive side.
  • the second display unit 19 is used when performing positive observation.
  • the 1st display part 18 and the 2nd display part 19 have a function as an operation part which receives operation by a user.
  • the 1st display part 18 and the 2nd display part 19 are comprised by the capacitive touch panel, the pressure-sensitive touch panel, etc.
  • the first display unit 18 can rotate around a horizontal axis or a vertical axis.
  • the second display unit 19 can rotate around a horizontal axis or a vertical axis.
  • the second display unit 19 can change the inclination in the vertical direction.
  • the horizontal angle operation unit 23 is a member operated by the user in order to rotate the main body unit 6 in the horizontal direction.
  • the vertical angle operation unit 24 is a member operated by the user to rotate the imaging unit 7 in the vertical direction.
  • the horizontal angle operation unit 23 and the vertical angle operation unit 24 are, for example, knobs.
  • the grip part 25 is a member for a user to grip when carrying the surveying instrument 1, for example.
  • the grip part 25 is a carrying handle, for example.
  • the grip part 25 is fixed to the upper surface of the main body part 6, for example.
  • the third imaging unit 14 includes a third optical system including the third objective lens 10 and a third imaging element.
  • the third optical system guides light from the second target to the third image sensor.
  • the third imaging element images the second target and generates image data.
  • the third imaging unit 14 captures an image below the surveying instrument 1 and generates image data.
  • the third imaging unit 14 images the lower part including the vertical axis O1, and generates image data.
  • the third image sensor is composed of a CCD or a CMOS.
  • the image data generated by the third imaging unit 14 is output to the image processing unit 33.
  • the third imaging unit 14 displays an image below the surveying instrument 1 on the first display unit 18 and the second display unit 19 when the user leveles or centers the surveying instrument 1. Image data is generated.
  • the third imaging unit 14 is fixed to the main body unit 6.
  • the third imaging unit 14 is a centripetal camera.
  • the third imaging unit 14 is a centripetal telescope.
  • the imaging unit 7 is supported by the main body unit 6 so as to be rotatable around a horizontal axis.
  • the imaging unit 7 is configured to be rotatable around the horizontal axis O2.
  • the imaging unit 7 is configured to be rotatable around the vertical axis O ⁇ b> 1 with respect to the leveling unit 2.
  • the imaging unit 7 can rotate about the vertical axis O1 and can rotate about the horizontal axis O2.
  • the imaging unit 7 rotates in the horizontal direction according to the amount of operation of the horizontal angle operation unit 23 operated by the user.
  • the imaging unit 7 rotates in the vertical direction according to the operation amount by which the vertical angle operation unit 24 is operated by the user.
  • the imaging unit 7 includes a first imaging unit 11 and a second imaging unit 12.
  • the first imaging unit 11 and the second imaging unit 12 are configured by a CCD or a CMOS.
  • the image data generated by the first imaging unit 11 and the second imaging unit 12 is output to the image processing unit 33.
  • image data for causing the first display unit 18 and the second display unit 19 to display an image of a visual field including the first target is displayed.
  • the first imaging unit 11 and the second imaging unit 12 image a first target that is a survey target.
  • the first imaging unit 11 and the second imaging unit 12 measure a measurement surface that constitutes the appearance of the structure.
  • the visual field captured by the first imaging unit 11 and the second imaging unit 12 is different from the visual field captured by the third imaging unit 14 and does not overlap with the visual field captured by the third imaging unit 14.
  • the first imaging unit 11 includes a first optical system including the first objective lens 8 and a first imaging element.
  • the first optical system guides light within the imaging field (for example, including light from the first target) to the first imaging element.
  • the first imaging unit 11 is a telephoto camera.
  • the first imaging unit 11 is a collimating camera.
  • the first imaging unit 11 is a collimating telescope.
  • the first imaging unit 11 is a telephoto camera.
  • the first imaging unit 11 has a first angle of view.
  • the first imaging unit 11 has a first field of view.
  • the second imaging unit 12 includes a second optical system including the second objective lens 9 and a second imaging element.
  • the second optical system guides light within the imaging field (for example, including light from the first target) to the second imaging element.
  • the second objective lens 9 is provided separately from the first objective lens 8.
  • the second objective lens 9 is disposed on the same surface as the surface on which the first objective lens 8 is disposed in the imaging unit 7.
  • the second objective lens 9 is arranged side by side with the first objective lens 8 in the vertical direction.
  • the optical axis of the second objective lens 9 is parallel to the optical axis of the first objective lens 8.
  • the second imaging unit 12 has a second field angle wider than the first field angle of the first imaging unit 11.
  • the first field angle of the first imaging unit 11 is narrower than the second field angle of the second imaging unit 12.
  • the second viewing angle of the second imaging unit 12 is wider than the first viewing angle of the first imaging unit 11.
  • the first viewing angle of the first imaging unit 11 is narrower than the second viewing angle of the second imaging unit 12.
  • the second imaging unit 12 includes image data for causing the first display unit 18 and the second display unit 19 to display an image of a second field of view that includes the first target and is wider than the first field of view when collimating. Is generated.
  • the second imaging unit 12 is a wide-angle camera.
  • the second imaging unit 12 is a wide-angle telescope.
  • Sight collimation refers to making the collimation axis coincide with the center of the target with the objective lens facing the target.
  • the collimation axis is an axis that passes through the optical center point of the objective lens and perpendicularly intersects the horizontal axis.
  • the collimation axis is an axis that passes through the optical center point of the first objective lens 8 of the first imaging unit 11 and perpendicularly intersects the horizontal axis O2.
  • the collimation axis is an axis that passes through the center of the theodolite objective lens and is orthogonal to the horizontal axis.
  • the collimation axis coincides with the optical axis of the first objective lens 8.
  • the collimating surveying instrument 1 is in a state in which the collimation axis O3 that is the third axis of the surveying instrument 1 coincides with the center of the first target with the first objective lens 8 facing the first target.
  • a direction from the inside of the surveying instrument 1 toward the outside of the surveying instrument 1 on the collimation axis may be referred to as a collimation direction.
  • FIG. 5 is a block diagram showing the system configuration of the surveying instrument 1.
  • the surveying instrument 1 includes an imaging unit 7 including a first imaging unit 11 and a second imaging unit 12 and a third imaging unit 14.
  • the surveying instrument 1 includes a distance measuring unit 13, a horizontal angle driving unit 15, a light transmitting unit 16, a vertical angle driving unit 17, a first display unit 18, a second display unit 19, a communication unit 20, Horizontal angle operating unit encoder 21, vertical angle operating unit encoder 22, horizontal angle operating unit 23, vertical angle operating unit 24, horizontal angle measuring unit 31, vertical angle measuring unit 32, and image processing Unit 33, temporary storage unit 34, storage unit 35, operation unit 36, control unit 40, and inclination detection unit 37.
  • the first imaging unit 11 and the second imaging unit 12 output image data generated by imaging based on imaging conditions (gain, accumulation time (shutter speed), etc.) set by the control unit 40 to the image processing unit 33. To do. In the first imaging unit 11 and the second imaging unit 12, the appropriate exposure is automatically set by the control unit 40 so that the brightness of the image based on the image data generated by imaging is appropriate. In the first imaging unit 11 and the second imaging unit 12, the automatic exposure function is executed by the control unit 40.
  • the first optical system in the first imaging unit 11 is configured such that the focus lens driving unit can change the position of the focus lens along the optical axis direction in response to a focus adjustment instruction from the control unit 40.
  • the third imaging unit 14 outputs the third image data generated by imaging based on the imaging conditions (gain, accumulation time (shutter speed), etc.) set by the control unit 40 to the image processing unit 33.
  • the first imaging unit 11 includes an autofocus unit 11a.
  • the image processing unit 33 performs image processing on the image data output from the first imaging unit 11, the second imaging unit 12, and the third imaging unit 14.
  • the image data that has been subjected to image processing by the image processing unit 33 is stored in the temporary storage unit 34.
  • the temporary storage unit 34 For example, when the first imaging unit 11, the second imaging unit 12, and the third imaging unit 14 continuously capture images during the live view operation, sequentially output image data is sequentially stored in the temporary storage unit 34.
  • Temporary storage unit 34 temporarily stores image data.
  • the temporary storage unit 34 is a volatile memory.
  • the temporary storage unit 34 is a RAM (Random Access Memory).
  • the image processing performed by the image processing unit 33 includes processing for generating display image data, processing for generating compressed image data, processing for generating recording image data, and extracting a part from an image based on the image data. For example, a process of electronically enlarging an image (digital zoom) can be used.
  • the display image data generated by the image processing unit 33 is displayed on the first display unit 18 and the second display unit 19 under the control of the control unit 40.
  • the surveying instrument 1 may or may not include a collimation eyepiece optical system and a centripetal eyepiece optical system.
  • the image data for recording generated by the image processing unit 33 is recorded in the external memory via the communication unit 20.
  • the external memory is a non-volatile memory.
  • the external memory is a flash memory, a hard disk, or an optical disk.
  • the ranging unit 13 is a surveying unit, and as an example, is configured as a light wave distance meter including a light emitting element, a dichroic mirror, and a light receiving element.
  • the light emitting element is a laser diode such as a pulse laser diode (PLD), or a light emitting diode such as an infrared light emitting diode.
  • the distance measuring unit 13 converts the distance measuring light emitted from the light emitting element into a light beam coaxial with the first objective lens 8 by a dichroic mirror, so that the first target (for example, a reflection prism or a structure) Light is transmitted toward the measuring surface to be configured.
  • the light reflected by the surveying object returns to the first objective lens 8 again, is separated from the distance measuring light by the dichroic prism, and enters the light receiving element.
  • the distance to the surveying object is calculated from the time difference between the reference light incident on the light receiving element inside the distance measuring unit 13 from the light emitting element and the distance measuring light from the surveying object.
  • the distance measurement unit 13 may be a phase difference distance measurement method that calculates the distance to the survey object based on the phase difference.
  • the light transmitter 16 transmits light to the first target and irradiates the first target.
  • the light transmitting unit 16 is a light emitting diode of the distance measuring unit 13.
  • the light transmitter 16 and the distance measuring unit 13 also serve as the same light emitting diode.
  • the light transmitter 16 transmits a light beam coaxial with the first objective lens 8 toward the first target.
  • the light transmitting unit 16 is a light emitting diode provided separately from the distance measuring unit 13.
  • the horizontal angle measuring unit 31 detects the horizontal rotation angle (angle around the vertical axis O1) of the collimation axis O3.
  • the horizontal angle measuring unit 31 outputs a signal corresponding to the detected rotation angle to the control unit 40.
  • the horizontal angle measuring unit 31 is configured by an encoder.
  • the horizontal angle measuring unit 31 includes an optical absolute rotary encoder.
  • the horizontal angle measurement unit 31 is an angle detection unit that detects a horizontal angle.
  • the vertical angle measuring unit 32 detects the rotation angle (angle around the horizontal axis O2) of the collimation axis O3 in the vertical (high / low) direction.
  • the vertical angle measuring unit 32 outputs a detection signal corresponding to the detected angle to the control unit 40.
  • the vertical angle measuring unit 32 is configured by an encoder.
  • the vertical angle measuring unit 32 includes an optical absolute rotary encoder.
  • the vertical angle measurement unit 32 is an angle detection unit that detects a vertical angle.
  • the horizontal angle operation unit encoder 21 detects the rotation angle of the horizontal angle operation unit 23.
  • the horizontal angle operation unit encoder 21 outputs a signal corresponding to the detected rotation angle to the control unit 40.
  • the horizontal angle driving unit 15 drives the main body unit 6 to rotate about the vertical axis O ⁇ b> 1 with respect to the leveling unit 2.
  • the horizontal angle drive unit 15 rotates the main body 6 around the vertical axis O ⁇ b> 1 with respect to the leveling unit 2, so that the imaging unit 7 rotates about the vertical axis O ⁇ b> 1 with respect to the leveling unit 2.
  • the horizontal angle drive part 15 is comprised with the motor.
  • the horizontal angle driving unit 15 is provided to the leveling unit 2 according to the driving amount calculated by the control unit 40 based on the position where the touch panel of the first display unit 18 or the second display unit 19 is touched by the user.
  • the main body 6 is rotated around the vertical axis O1.
  • the horizontal angle drive unit 15 when the horizontal angle drive unit 15 receives a rotation drive instruction from an external device such as the defect image display control device 50 or a remote operation device, the drive calculated by the control unit 40 based on the rotation drive instruction received from the external device. Depending on the amount, the main body 6 is rotated around the vertical axis O1 with respect to the leveling unit 2. As an example, when the horizontal angle operation unit 23 is operated, the horizontal angle driving unit 15 rotationally drives the main body unit 6 around the vertical axis O ⁇ b> 1 of the surveying instrument 1 with respect to the leveling unit 2.
  • the vertical angle operation unit encoder 22 detects the rotation angle of the vertical angle operation unit 24.
  • the vertical angle operation unit encoder 22 outputs a signal corresponding to the detected rotation angle to the control unit 40.
  • the vertical angle driving unit 17 drives the imaging unit 7 to rotate about the horizontal axis O ⁇ b> 2 with respect to the main body unit 6.
  • the vertical angle driving unit 17 is configured by a motor, for example.
  • the vertical angle driving unit 17 is configured with respect to the main body unit 6 according to the driving amount calculated by the control unit 40 based on the position where the touch panel of the first display unit 18 or the second display unit 19 is touched by the user.
  • the imaging unit 7 is rotationally driven around the horizontal axis O2.
  • the vertical angle drive unit 17 captures an image of the main body unit 6 according to the drive amount calculated by the control unit 40 based on the rotation drive instruction received from the external device.
  • the part 7 is driven to rotate around the horizontal axis O2.
  • the vertical angle driving unit 17 rotationally drives the imaging unit 7 around the horizontal axis O ⁇ b> 2 with respect to the main body unit 6.
  • the communication unit 20 communicates with the defect image display control device 50 that is an external device.
  • the communication unit 20 is an interface that performs data input / output with an external device.
  • the communication unit 20 transmits the image data and position data captured by the surveying instrument 1 to the defect image display control device 50, and the instruction signal for controlling the surveying instrument 1 transmitted from the defect image display control device 50. Receive.
  • the storage unit 35 stores programs and parameters necessary for the operation of the surveying instrument 1, design data that is the basis of construction, and the like.
  • the storage unit 35 stores programs, parameters, and design data so that they are not lost even when the surveying instrument 1 is not operating.
  • the storage unit 35 is a non-volatile memory or a hard disk.
  • the storage unit 35 is a ROM (Read Only Memory).
  • the storage unit 35 stores image data of the measurement surface captured by the surveying instrument 1.
  • the storage unit 35 stores map data created in the global coordinate system.
  • the storage unit 35 stores a defect detection program and a defect editing program. The defect detection program and the defect editing program can be executed by the surveying instrument 1.
  • the storage unit 35 stores the inclination state (inclination data) of the vertical axis of the surveying instrument 1 detected by the inclination detection unit 37.
  • the inclination data stored in the storage unit 35 is transmitted to, for example, the defect image display control device 50, and the defect image display control device 50 performs an ortho correction process on the image data generated by imaging with the surveying instrument 1. Used when.
  • the defect image display control device 50 performs an ortho correction process on the image data generated by imaging with the surveying instrument 1 based on the tilt state of the vertical axis of the surveying instrument 1.
  • the operation unit 36 is, for example, a mechanical operation member such as a push button, a volume switch, or a slide switch arranged in the housing.
  • the operation unit 36 is a touch panel disposed on the display surface of the display unit of the first display unit 18 or the second display unit 19.
  • the mechanical operation member When the mechanical operation member is operated by the user, the mechanical operation member outputs an instruction signal for executing a function associated with each operation member to the control unit 40. Further, when the displayed object is touched, the touch panel outputs an instruction signal for executing a function defined in the object to the control unit 40.
  • the control unit 40 controls the overall operation of the surveying instrument 1.
  • the control unit 40 rotationally drives the main body unit 6 around the vertical axis O1 with respect to the leveling unit 2 in accordance with an instruction signal from the operation unit 36 or an external device.
  • the control unit 40 rotationally drives the main body unit 6 around the vertical axis O1 with respect to the leveling unit 2 in response to the operation of the horizontal angle operation unit 23 by the user.
  • the control unit 40 rotationally drives the imaging unit 7 around the horizontal axis O2 with respect to the main body unit 6 in accordance with an instruction from the operation unit 36 or an external device.
  • the control unit 40 drives the imaging unit 7 to rotate about the horizontal axis O2 with respect to the main body unit 6 in response to the operation of the vertical angle operation unit 24 by the user.
  • the control unit 40 operates the first imaging unit 11 and the second imaging unit 12, and based on the set imaging conditions, the measurement surface that configures the appearance of the reflecting prism or the structure that is the first target
  • the image data generated by imaging is output to the image processing unit 33.
  • the control unit 40 when a drive instruction signal is input from the defect image display control device 50, the control unit 40, according to the instruction signal, the first imaging unit 11 (including the autofocus unit 11a), the second imaging unit 12, and the third imaging unit.
  • the imaging unit 14, the imaging unit 7, the horizontal angle driving unit 15, the vertical angle driving unit 17, and the like are driven.
  • the control unit 40 outputs the image data and observation data generated by the imaging unit 7 to the defect image display control device 50 from the communication unit 20.
  • FIG. 6 is a block diagram showing a system configuration of the defect image display control device 50.
  • the defect image display control device 50 includes a control unit 51, a display unit 52, an operation unit 53, a storage unit 54, and a communication unit 55.
  • the control unit 51 has a configuration similar to that of a computer, and a CPU 51a, a ROM 51b, and a RAM 51c are connected to each other via a bus.
  • the control unit 51 executes a defect detection program 54 a installed on a hard disk or the like constituting the storage unit 54.
  • the control unit 51 functions as a display control unit that displays an image or the like on the display unit 52.
  • the control unit 51 causes the display unit 52 to display an image based on the image data generated by the imaging unit 7 and information based on the observation data.
  • the control unit 51 causes the display unit 52 to display an image of the measurement surface that forms the appearance of the structure.
  • the control unit 51 functions as a defect detection unit that detects a defect of a structure included in the appearance image data.
  • the control unit 51 functions as a calculation unit that calculates defect data related to the defect detected by the defect detection unit, using the coordinate data associated with the appearance image data.
  • appearance image data is displayed, defect data newly visually recognized is added to the defect data detected by the defect detection program 54a, and the detected defect data To correct.
  • control unit 51 includes, for the surveying instrument 1, the first imaging unit 11, the second imaging unit 12, the third imaging unit 14, the imaging unit 7, the horizontal angle driving unit 15, the vertical angle driving unit 17, and the like.
  • An instruction signal to be driven is output via the communication unit 55.
  • the display unit 52 has a display function for displaying images and objects.
  • the display unit 52 is a liquid crystal display, an organic EL display, or a CRT.
  • the display unit 52 displays information based on images and observation data based on image data generated by the first imaging unit 11 and the second imaging unit 12 on the display surface of the display unit.
  • the operation unit 53 is, for example, a keyboard, a mouse, and a touch panel arranged on the display surface of the display unit 52.
  • the operation unit 53 selects an object displayed on the display unit 52 to output an instruction to execute a function defined for the object to the control unit 51.
  • the mouse includes a right click button, a left click button, and a wheel.
  • the left click button can select (or confirm) the position of the mouse cursor by clicking, and the right click button pops up a menu box at the position of the mouse cursor by clicking.
  • Can do As an example, the displayed image can be enlarged and reduced by rotating the wheel.
  • the position of the cursor can be moved by tracing the display surface with a finger or a stylus pen, and the cursor position can be selected (or confirmed) by touching the display surface. )can do.
  • the control unit 51 determines the position as the position of the defect. .
  • the control unit 51 pops up a menu box, and selects one candidate value selected from the plurality of selection candidate values displayed in the menu box.
  • the defect width data of the defect is used.
  • the control unit 51 enlarges or reduces the appearance image displayed on the display unit 52 at an enlargement rate or reduction rate according to the rotation direction and the rotation amount.
  • the storage unit 54 stores programs and parameters so that they are not lost even when the surveying instrument 1 is not operating.
  • the storage unit 54 is a nonvolatile memory or a hard disk.
  • the storage unit 54 stores a defect detection program 54a, design data that is the basis of construction, and the like.
  • the storage unit 54 stores image data of a measurement surface that constitutes the appearance of the structure.
  • the storage unit 54 stores map data created in the global coordinate system.
  • a recording folder is created in the storage unit 54 in accordance with the defect detection program 54a. In the recording folder, a plurality of appearance image data of the measurement range captured by the surveying instrument 1 in accordance with the defect detection program 54a is stored.
  • the communication unit 55 communicates with the communication unit 20 of the surveying instrument 1.
  • the communication unit 55 receives image data and position data captured by the surveying instrument 1 and outputs an instruction signal for controlling the surveying instrument 1.
  • the communication unit 55 communicates with an external device via a network such as a wide area network or a local area network.
  • the communication unit 55 communicates with an external server device.
  • the communication unit 55 receives design data from a management server device that stores design data that is the basis of construction.
  • the communication part 55 transmits the image data of the measurement surface which comprises the external appearance of a structure with respect to a management server apparatus.
  • FIG. 7A shows the relationship between the measurement surface and the measurement range.
  • observation data obtained by observing (collimating, ranging, and measuring angle) at least two arbitrary points
  • distance measurement data obtained by distance measurement by the unit 13
  • horizontal angle data obtained by angle measurement by the horizontal angle angle measurement unit 31, and vertical angle data obtained by angle measurement by the vertical angle angle measurement unit 32
  • the measurement surface 61 is defined as follows.
  • the measurement surface 61 is defined from observation data obtained by observing at least three arbitrary points.
  • an image based on the image data generated by imaging with the second imaging unit 12 is displayed on the first display unit 18 and the second display unit 19 or transmitted from the light transmission unit 16. By doing this, the user can grasp where the surveying instrument 1 is observing the structure.
  • the measurement range 62 is set by measuring an angle (measuring a horizontal angle and a vertical angle) at least at two arbitrary points in the structure.
  • the measurement range 62 is set to define the measurement surface 61. Therefore, the measurement range 61 is measured without measuring at least two arbitrary points of the structure. It can be done just by cornering.
  • the measurement range 62 is set after the measurement surface 61 is defined, the measurement range 62 is set by measuring distance data obtained by measuring the distance by the distance measuring unit 13 for at least two arbitrary points of the structure.
  • the distance measurement unit 13 obtains the distance. Without using the distance measurement data, it is possible only by using the horizontal angle data obtained by the angle measurement by the horizontal angle angle measurement unit 31 and the vertical angle data obtained by the angle measurement by the vertical angle angle measurement unit 32. Become. At least one of the two points observed when defining the measurement surface 61 and the two points measured when setting the measurement range 62 may be different observation points, or the same observation point.
  • FIG. 7B is a diagram illustrating the relationship among the measurement surface, the measurement range, and the imaging range.
  • the surveying instrument 1 sequentially performs imaging by the first imaging unit 11 to sequentially obtain appearance image data of the imaging range 63 of the first angle of view in order to obtain appearance image data of all the set measurement ranges 62. Since the measurement surface 61 is already defined, the position of an arbitrary pixel of the appearance image based on the appearance image data that is a digital image is specified by the coordinate data by converting the angle from the observation point collimated at the time of imaging. can do. A defect is detected for each appearance image data. The position of the detected defect is specified by coordinate data that is defect data.
  • the defect data indicating the position data of the appearance image data, the position of the defect, and the like are global coordinate data.
  • Each appearance image data in the imaged measurement range 62 is subjected to ortho correction processing, then subjected to stitching processing, and stored in the storage unit 54 or the like.
  • Each appearance image data subjected to the ortho correction process is stored in the storage unit 54 or the like.
  • FIG. 8 is a flowchart showing a procedure for detecting a defect in a structure.
  • the control unit 51 of the defect image display control device 50 starts remote control of the surveying instrument 1, and the surveying instrument 1 collimates the measurement surface 61 of the structure.
  • the control unit 51 switches the angle of view of the first imaging unit 11 and the second imaging unit 12 via the control unit 40 of the surveying instrument 1, imaging, ranging, autofocus, manual exposure, white It becomes possible to perform balancing, on / off switching of the light transmitting unit 16, and the like.
  • the control unit 51 causes the display unit 52 to display an angle measurement value and a leveling state.
  • the control unit 51 creates a recording folder for storing appearance image data in the storage unit 54.
  • step S3 the surveying instrument 1 performs a trial measure according to the control of the control unit 51.
  • the first imaging unit 11 or the second imaging unit 12 of the surveying instrument 1 captures an image so as to include a defect that appears in the appearance of a structure that the user wants to detect a defect from now on.
  • the defect is detected by performing image analysis on the appearance image data generated by imaging with the first imaging unit 11 or the second imaging unit 12 with the defect image display control device 50.
  • the control unit 51 causes the display unit 52 to display an appearance image based on appearance image data generated by imaging with the first imaging unit 11 or the second imaging unit 12.
  • the user looks at the appearance image displayed on the display unit 52 and operates the operation unit 53, and the control unit 51 adjusts the sensitivity, exposure, and the like of the first imaging unit 11 via the control unit 40.
  • the setting of one imaging unit 11 is set so that a defect can be detected from the appearance image.
  • the trial major is performed at a plurality of locations.
  • the surveying instrument 1 is installed in a place with a good measurement environment that has been discovered as a result of a trial measure.
  • step S4 the instrument of the surveying instrument 1 is installed.
  • FIG. 9 is a diagram for explaining instrument installation.
  • the third imaging unit 14 images the second target to level and center the surveying instrument 1.
  • the surveying instrument 1 measures and measures the two known points A1 (X1, Y1, Z1) and A2 (X2, Y2, Z2) according to the control of the control unit 51.
  • the trial major is performed before instrument installation.
  • a trial major is performed after instrument installation.
  • the order of trial measure and instrument installation is set by the user using the defect image display control device 50.
  • an object for selecting the trial measure and device installation is displayed on the display unit 52 and is selected by the operation unit 53. Since instrument installation is a laborious operation, it is preferably performed after a trial major.
  • the surveying instrument 1 defines the measurement surface 61 based on the control of the control unit 51.
  • the surveying instrument 1 performs angle measurement and distance measurement on at least two arbitrary points on the appearance (for example, a wall surface) of the structure, and defines a surface including the two arbitrary points as the measurement surface 61.
  • the surveying instrument 1 identifies the position of the surveying instrument 1 at the global coordinate 64 by installing the instrument and defines the measurement plane 61, so that any observation point on the measurement plane 61 can be identified by the global coordinates.
  • FIG. 10 is a diagram for explaining position data of an arbitrary pixel on a digital image that can be specified by the definition of the measurement surface 61.
  • an arbitrary pixel (P) in the imaging range 63 imaged by the surveying instrument 1 is an observation point indicated by the center of the reticle having a cross shape by the surveying instrument 1.
  • the angle (HA, VA) of O can be calculated, and the angle of the pixel (P) from the observation point O can be converted into global coordinate data.
  • the position of each pixel in the appearance image data can be specified by the global coordinate data that is the position data, as in the case where the angle observation is performed on each pixel.
  • the position of the digital image can be specified with accuracy according to the number of pixels of the first imaging device. Details of the method of defining the measurement surface 61 will be described later.
  • step S ⁇ b> 6 the surveying instrument 1 designates a measurement range 62 for detecting a defect in the structure within the defined measurement surface 61 based on the control of the control unit 51. Details of the definition of the measurement range 62 will be described later.
  • step S ⁇ b> 7 the surveying instrument 1 drives the horizontal angle driving unit 15 to rotate the imaging unit 7 around the vertical axis O ⁇ b> 1 and drives the vertical angle driving unit 17 to drive the imaging unit 7 under the control of the control unit 51. Is rotated around the horizontal axis O2.
  • the surveying instrument 1 automatically measures the measurement range 62 under the control of the control unit 51.
  • the surveying instrument 1 sequentially images the measurement range 62 with the first imaging unit 11 while changing the collimation direction for each imaging.
  • the defect image display control device 50 receives appearance image data sequentially taken together with position data.
  • the control unit 51 detects defects in the appearance image data input from the surveying instrument 1. Details of the automatic measurement of the first imaging unit 11 will be described later.
  • step S8 the defect image display control device 50 can display the appearance image data imaged in step S7 again and edit the defect.
  • the user can visually check whether the defect is accurately detected by displaying the appearance image on the display unit 52.
  • a process of adding a defect is performed.
  • a modification process for correcting and matching the defect is performed.
  • step S5 The method of defining the measurement surface will be described by taking as an example a case where the appearance of the structure to be measured is a vertical surface composed of a plane.
  • the method of defining the vertical measurement surface 61 is that while the second imaging unit 12 images any two observation points P ⁇ b> 1 and P ⁇ b> 2 in the measurement surface 61 on the vertical measurement surface 61.
  • the surveying instrument 1 defines a vertical plane including arbitrary observation points P ⁇ b> 1 and P ⁇ b> 2 that have been collimated and measured as a measurement plane 61 under the control of the control unit 51.
  • Step S6 As shown in FIG. 12A, when the measurement surface 61 including the measurement range 62 is a vertical surface, the surveying instrument 1 performs imaging with the second imaging unit 12 according to the control of the control unit 51, and the light transmission unit 16.
  • the surveying instrument 1 performs imaging with the second imaging unit 12 according to the control of the control unit 51, and the light transmission unit 16.
  • angle measurement is performed for each of the observation points P3 and P4.
  • This angle measurement position is calculated as global coordinate data by defining the measurement surface 61 (P3 (X3, Y3, Z3), P4 (X4, Y4, Z4)).
  • the measurement range 62 is not a range designated by the designated observation points P3 and P4, but a range projected on the defined measurement plane 61.
  • the measurement range 62 faces the surveying instrument 1, the measurement range 62 is a rectangle with the observation points P3 and P4 as diagonals.
  • the measurement range 62 does not face the surveying instrument 1
  • An unnecessary area 66 b that is not included in the measurement range 62 is also generated in the rectangle 65.
  • the surveying instrument 1 calculates and sets the measurement range 62a projected on the defined measurement surface 61 according to the control of the control unit 51.
  • the measurement range 62 a is a quadrangle whose side far from the surveying instrument 1 is short with respect to the side closer to the surveying instrument 1.
  • arbitrary observation points P1 and P2 designated when defining the measurement surface 61 can be used as observation points P3 and P4 for designating the measurement range as they are.
  • Measurement range 62 is not limited to a single rectangular shape. There may be a plurality of measurement ranges 62, and two or more measurement ranges can be added, or a part of the specified measurement range can be excluded.
  • step S7 Depending on the size of the measurement range 62 that has been set, it may not be possible to cover the entire measurement range 62 that has been set by one imaging with the first imaging unit 11.
  • the surveying instrument 1 drives the horizontal angle driving unit 15 and the vertical angle driving unit 17 according to the control of the control unit 51 so that the imaging ranges overlap and the overlapping region does not become unnecessarily large. Control.
  • the surveying instrument 1 images the entire measurement range 62 under the control of the control unit 51.
  • FIG. 13 is a diagram for explaining the range of rotation driving around the horizontal axis of the surveying instrument 1.
  • the rotational driving around the horizontal axis O2 by the vertical angle driving unit 17 of the surveying instrument 1 is controlled as follows.
  • the imaging unit 7 is rotationally driven around the horizontal axis O2 in a range where the vertical angle is 45 ° or more and 135 ° or less.
  • the imaging unit 7 is rotationally driven around the horizontal axis O2 in a range where the vertical angle is approximately 225 ° or more and 315 ° or less.
  • the vertical angle is a rotation angle of the imaging unit 7 around the horizontal axis O2, and is an angle indicating that the collimating direction of the surveying instrument 1 is 0 ° when it is facing the zenith and 90 ° when it is facing the horizontal. .
  • FIG. 14 is a flowchart for explaining the detailed procedure of the automatic measurement shown in step S7.
  • the surveying instrument 1 controls the horizontal angle driving unit 15 and the vertical angle driving unit 17 to rotate the imaging unit 7 so that the imaging region in the measurement range 62 can be sequentially imaged under the control of the control unit 51. To do. Then, the surveying instrument 1 captures the current imaging area within the measurement range 62 according to the control of the control unit 51, and then sequentially moves to the adjacent imaging areas. Automatically measure the area. Details of the automatic measurement of the surveying instrument 1 will be described later.
  • step S ⁇ b> 12 the surveying instrument 1 calculates the distance to each imaging region according to the control of the control unit 51.
  • step S ⁇ b> 13 the surveying instrument 1 performs autofocus control of the first imaging unit 11 according to the control of the control unit 51.
  • the focus lens constituting the first optical system in the first imaging unit 11 is displaced along the optical axis direction according to the focus adjustment instruction from the control unit 40, and the light is focused on the first imaging element. To burn.
  • the autofocus control calculates the distance between the observation point and the surveying instrument 1 from the global coordinate data of the measurement point and the global coordinate data indicating the position of the surveying instrument 1, and the focus lens is moved to the optical axis based on the calculated distance. Displaces along the direction.
  • the distance measuring unit 13 measures the distance between the surveying instrument 1 and the observation point, and the focus lens is displaced along the optical axis direction based on the distance measured.
  • the autofocus control is performed by a contrast method in which the focus lens is displaced to a position where the contrast is maximized.
  • Measured surface 61 is often a concrete wall surface, and contrast is difficult to detect.
  • the autofocus control is preferably performed based on the distance measured in step S12.
  • step S14 the surveying instrument 1 images each imaging range 63 of the first angle of view in the measurement range 62 according to the control of the control unit 51.
  • the surveying instrument 1 calculates the angle (HA, VA) of the observation point O indicated by the center of the reticle in each imaging range 63 under the control of the control unit 51.
  • the surveying instrument 1 calculates the global coordinate data of each pixel of the captured appearance image data by converting the angle from the observation point O at the observation center according to the control of the control unit 51. Thereby, all the pixels of the imaging range 63 are converted into global coordinate data.
  • the surveying instrument 1 calculates the defect start point and end point pixels by converting the angle from the observation point O of the observation center as position data. .
  • the surveying instrument 1 transmits appearance image data in which the pixel position is specified by the global coordinate data to the defect image display control device 50.
  • the control unit 51 causes the display unit 52 to sequentially display appearance images based on the appearance image data.
  • the surveying instrument 1 calculates global coordinate data of all pixels as position data of each captured appearance image data, and outputs the global coordinate data to the defect image display control device 50.
  • step S15 the surveying instrument 1 calculates coordinate data of the four corners of the captured appearance image in order to perform an ortho correction process according to the control of the control unit 51.
  • the four corner coordinate data is the coordinate data of the four corner pixels in each appearance image data.
  • step S16 the control unit 51 detects a defect for each of the captured appearance image data, and measures the position, length, and width of the defect. Details of defect detection will be described later.
  • step S ⁇ b> 17 the control unit 51 performs an ortho correction process on each appearance image data.
  • the control unit 51 functions as an ortho correction processing unit that performs ortho correction processing on the appearance image data.
  • step S ⁇ b> 18 the control unit 51 performs a stitching process for joining the appearance image data.
  • the control unit 51 functions as a stitching processing unit that performs a stitching process that joins the first appearance image data subjected to the ortho correction process and the second appearance image data subjected to the ortho correction process. Details of the ortho process and the stitching process will be described later.
  • the imaging unit 7 When the wall surface that is the measurement surface 61 is a vertical surface, the imaging unit 7 is rotationally driven around the horizontal axis O2 in a range where the vertical angle is not less than 45 ° and not more than 135 °. When the wall surface that is the measurement surface 61 is a vertical surface, the imaging unit 7 is rotationally driven around the horizontal axis O2 in a range where the vertical angle is approximately 225 ° or more and 315 ° or less.
  • FIG. 15 is a diagram for explaining a state in which the vertical measurement range 62 is automatically measured in a tile shape.
  • the measurement range 62 is a rectangle.
  • the surveying instrument 1 captures an image of the entire rectangular imaging range 71 wider than the measuring range 62 using the first imaging unit 11 under the control of the control unit 51.
  • the first imaging unit 11 having the first angle of view is used.
  • the first imaging unit 11 captures images in the entire imaging range 71 so that most of the imaging region 72 having the first angle of view does not overlap.
  • each imaging region 72 has an overlapping region 70 in which an outer edge region including an outer edge overlaps with an adjacent imaging region 72.
  • Each imaging area 72 is a rectangle of the same size as an example.
  • each imaging region 72 may be a square having the same size.
  • the surveying instrument 1 images the entire imaging range 71 so that the imaging areas 72 are arranged in a tile shape.
  • the surveying instrument 1 captures the entire imaging range 71 by moving the first imaging unit 11 in an S shape within the entire imaging range 71.
  • the imaging start may be at any end of the S-shaped route.
  • the surveying instrument 1 sequentially captures the entire imaging range 71 using a route that allows continuous imaging.
  • the surveying instrument 1 sequentially captures the entire imaging range 71 by a route that minimizes the amount of movement of the imaging unit 7 by the horizontal angle driving unit 15 and the vertical angle driving unit 17.
  • the surveying instrument 1 sets an imaging area 72 to be imaged next to the current imaging area 72 as an imaging area 72 adjacent to the current imaging area 72.
  • FIG. 16 is a flowchart showing a procedure for detecting and measuring defects.
  • the surveying instrument 1 images each imaging region 72 in the measurement range 62 under the control of the control unit 51.
  • the surveying instrument 1 calculates the angle (HA, VA) of the observation point indicated by the center of the reticle having the cross shape when the surveying instrument 1 captures each imaging region 72 according to the control of the control unit 51.
  • the global coordinate data of each pixel is calculated by converting the angle (HA, VA) from the central observation point.
  • the surveying instrument 1 transmits the captured appearance image data and the global coordinate data associated with the pixels to the defect image display control device 50 as position data.
  • Appearance image data and global coordinate data (position data) transmitted from the surveying instrument 1 are stored by the control unit 51 in the storage unit 54 (for example, the recording folder created in step S2).
  • step S22 the control unit 51 of the defect image display control device 50 causes the display unit 52 to sequentially display appearance images based on the appearance image data.
  • FIG. 17A shows an example of an appearance image having a defect 81.
  • the control unit 51 functions as a defect detection unit.
  • step S23 the control unit 51 detects a defect for each appearance image data.
  • the control unit 51 detects a defect by performing image processing (image analysis) on each appearance image data.
  • the defect is detected by detecting the contrast of the appearance image.
  • the controller 51 measures defect position data indicating the position of the defect.
  • the defect position data is coordinate data specified by a global coordinate system.
  • the defect position data is coordinate data that specifies the position of the defect by converting the angle from the observation point O indicated by the reticle as the position data.
  • the control unit 51 specifies global coordinate data corresponding to the pixel at the start point of the defect 81.
  • control unit 51 specifies global coordinate data corresponding to the pixel at the end point of the defect 81.
  • the control unit 51 measures the distance between the defect start point and the defect end point as defect length data.
  • the control unit 51 displays information based on the defect position data and information based on the defect length data on the display unit 52 together with the appearance image based on the appearance image data.
  • the width of the defect to be detected is not particularly limited, but as an example is 0.2 mm or more and 0.1 mm or more.
  • the surveying instrument 1 may detect the defect 81.
  • step S24 the control unit 51 performs defect identification display processing so that the user can identify the defect 81 detected in the appearance image.
  • the control unit 51 performs highlighting processing on the defect 81 detected in the appearance image.
  • the control unit 51 superimposes and displays the defect object 81a on the defect 81 detected in the appearance image.
  • the shape of the defect object 81a is configured according to the detected defect.
  • the shape of the defect object 81a is configured according to the detected shape of the crack or dent.
  • the defect object 81a has a linear shape.
  • the highlighting process can be performed with different line thicknesses and line types (solid line, dotted line, chain line, wavy line, etc.).
  • the defect object 81a has a rectangular shape.
  • the defect object 81a has a circular shape.
  • the defect object 81a is displayed in a color different from the color around the defect to be superimposed.
  • the defect object 81 a changes the highlighting process according to the width of the defect 81.
  • the control unit 51 performs different highlighting processing for the defect width data whose numerical range is the first range and the defect width data whose numerical range is the second range.
  • the control unit 51 performs the first highlighting process for a defect having a width of 0.1 mm or more and less than 0.2 mm, and performs the first highlight process for a defect having a width of 0.2 mm or more and less than 0.3 mm.
  • a second highlighting process different from the highlighting process is performed, and a third highlighting process different from the first highlighting process and the second highlighting process is performed on a defect having a width of 0.3 mm or more and less than 0.4 mm.
  • the numerical range defining each highlighting process is not limited to the above example. Further, the number of highlighting processes is not limited to three, and may be two or four or more.
  • the line shape (line type) and shape are made different according to the defect width of the defect 81. Further, the color is made different according to the defect width of the defect 81.
  • step S24 may be omitted.
  • step S25 the control unit 51 measures defect width data regarding the detected defect.
  • step S24 and subsequent processes may be omitted.
  • step S26 the control unit 51 detects, as the changing point 82, a portion where the defect (crack) is bent or a portion where the width is changed. Further, the end of the defect (crack) is detected as the end point 84.
  • the control unit 51 treats the segment 83 between adjacent change points 82 as a unit.
  • the control unit 51 specifies global coordinate data corresponding to the start point and end point pixels of each segment 83 as defect position data.
  • the control unit 51 calculates the distance between the start point and end point of each segment 83 as defect length data of the segment 83. Further, the control unit 51 calculates defect width data for each segment 83. As shown in FIG. 17C, as an example, the control unit 51 performs defect width identification display processing corresponding to the defect width of the segment 83 for each segment 83. As an example, the control unit 51 performs highlighting processing corresponding to the defect width of the segment 83.
  • the control unit 51 performs the highlighting process by superimposing the defect object 83a on the segment 83 detected in the appearance image.
  • the shape of the defect object 83a is configured according to the detected defect.
  • the shape of the defect object 83a is configured according to the shape of the detected crack or depression.
  • the defect object 83a has a linear shape.
  • the highlighting process can be performed by changing the line thickness, line type (solid line, dotted line, chain line, wavy line, etc.) and the like.
  • the defect object 83a has a rectangular shape.
  • the defect object 83a has a circular shape.
  • the defect object 83a is displayed in a color different from the color around the defect to be superimposed.
  • the defect object 83a changes the highlighting process according to the width of the defect.
  • the control unit 51 performs different highlighting processing for the defect width data in the first range and the defect width data in the second range. More specifically, the control unit 51 performs the first highlighting process for a width of 0.1 mm or more and less than 0.2 mm, and performs the first highlighting process for a width of 0.2 mm or more and less than 0.3 mm. Performs a different second highlighting process, and performs a third highlighting process different from the first highlighting process and the second highlighting process for a width of 0.3 mm or more and less than 0.4 mm.
  • the numerical range defining each highlighting process is not limited to the above example.
  • the number of highlighting processes is not limited to three, and may be two or four or more.
  • the line shape (line type) and shape are varied according to the defect width of the segment 83. Further, the color is changed according to the defect width of the segment 83.
  • the identification display process (highlighting display process) of the defect object 83a of the segment 83 is not only for the defect object 83a between the adjacent change points 82, but between the end point 84 and the change point 82 adjacent to the end point 84. This is also performed on the defective object 83a.
  • step S27 the control unit 51 creates a data file storing defect data related to appearance image data, and stores the defect data data file in the recording folder of the storage unit 54 in association with the data file of appearance image data.
  • the defect data includes defect position data, defect length data, and defect width data.
  • the defect data including the defect position data, the defect length data, and the defect width data may be the defect data as in step S24 and step S25 described above, or the defect data for each segment as in step S26 described above. Good.
  • FIG. 18 and 19 show an example of a screen displayed on the display unit 52 of the defect image display control device 50.
  • the screen displayed on the display unit 52 includes a scroll bar 85, an appearance image display area 86, a stitch image display area 87, and a list display area 88.
  • the appearance image display area 86 is an area in which an appearance image based on appearance image data captured by the surveying instrument 1 is displayed.
  • the surveying instrument 1 performs the automatic measurement shown in step S ⁇ b> 7 in FIG. 8, and appearance image data captured by the surveying instrument 1 is sequentially transmitted to the defect image display control device 50.
  • the control unit 51 displays an appearance image based on the latest appearance image data transmitted from the surveying instrument 1 in the appearance image display area 86.
  • the control unit 51 updates and displays the appearance image displayed in the appearance image display area 86 with the appearance image based on the latest appearance image data received from the surveying instrument 1.
  • the appearance images based on the appearance image data are switched and displayed in the order in which they were captured by the surveying instrument 1.
  • the stitch image display area 87 is an area in which a stitched appearance image based on stitched appearance image data in which a plurality of appearance image data are connected is displayed.
  • the surveying instrument 1 performs the automatic measurement shown in step S ⁇ b> 7 in FIG. 8, and appearance image data captured by the surveying instrument 1 is sequentially transmitted to the defect image display control device 50.
  • the control unit 51 performs stitching-processed appearance image data obtained by performing a stitching process on the plurality of appearance image data transmitted from the surveying instrument 1.
  • the stitched appearance appearance image based on the image is displayed in the stitch image display area 87.
  • the appearance image data transmitted from the surveying instrument 1 is one, the appearance image data transmitted from the surveying instrument 1 is not subjected to the stitching process on the appearance image data transmitted from the surveying instrument 1.
  • a base appearance image is displayed in the stitch image display area 87.
  • the scroll bar 85 is displayed around the stitch image display area 87.
  • the scroll bar 85 includes a scroll bar along the vertical direction of the stitched appearance image displayed in the stitch image display area 87 and a side of the stitched appearance image displayed in the stitch image display area 87. It has two scroll bars along the direction.
  • the control unit 51 scrolls the stitching-processed appearance image displayed in the stitch image display area 87 according to the operation content on the scroll bar 85.
  • the stitched processed appearance image is larger than the stitched image display area 87, the user can view a desired area of the stitched processed appearance image by operating the scroll bar 85.
  • the control unit 51 includes the latest appearance image data transmitted from the surveying instrument 1 (the latest appearance image data captured by the surveying instrument 1) among the plurality of appearance images constituting the stitched appearance appearance image.
  • the stitched appearance appearance image is displayed so that the appearance image based on the image is displayed in the stitch image display area 87.
  • the user can sequentially confirm appearance images based on the latest appearance image data (the latest appearance image data captured by the surveying instrument 1) transmitted from the surveying instrument 1 without operating the scroll bar 85, for example. .
  • the surveying instrument 1 performs the automatic measurement shown in step S7 of FIG. 8, and appearance image data captured by the surveying instrument 1 is sequentially transmitted to the defect image display control device 50.
  • the control unit 51 has received the total number information of the appearance image data captured by the surveying instrument 1 by the automatic measurement from the surveying instrument 1, and has already subjected the stitching process to the progress of the automatic measurement by the surveying instrument 1. It is displayed in the stitch image display area 87 together with the appearance image.
  • the progress status of the automatic measurement by the surveying instrument 1 indicates information indicating how many appearance images are displayed in the stitch image display area 87 out of the total number of captured images, and the remaining number of images until the total number of captured images. Information.
  • the stitching process is performed on the first appearance image data and the second appearance image data that are generated by sequentially capturing images with the surveying instrument 1 and subjected to the ortho correction process with the surveying instrument 1 or the defect image display control device 50. It may not be given.
  • the stitching processing is completed for the first appearance image data and the second appearance image data that are generated by sequentially capturing images with the surveying instrument 1 and subjected to the ortho correction processing by the surveying instrument 1 or the defect image display control device 50. May not have.
  • the control unit 51 displays the first appearance image based on the first appearance image data subjected to the ortho correction process in the appearance image display area 86.
  • control unit 51 displays first defect information based on the first defect data related to the first appearance image data in the list display area 88. At this time, the control unit 51 may display the first appearance image based on the first appearance image data subjected to the ortho correction processing in the stitch image display area 87.
  • a stitching process is performed on the first appearance image data and the second appearance image data that are generated by sequentially capturing images with the surveying instrument 1 and subjected to the orthocorrection process by the surveying instrument 1 or the defect image display control device 50.
  • the control unit 51 displays the stitched appearance image based on the stitched appearance image data obtained by stitching the first appearance image data and the second appearance image data in the stitch image display area 87.
  • the control unit 51 displays the first defect information based on the first defect data related to the first appearance image data and the second defect information based on the second defect data related to the second appearance image data in the list display area 88. indicate.
  • control unit 51 replaces the first appearance image based on the first appearance image data subjected to the ortho correction process, and the second appearance image based on the second appearance image data subjected to the ortho correction process. Is displayed in the appearance image display area 86.
  • the defect detection process has already been completed and the ortho correction process has been completed.
  • the highlighting process for the defect 81 or the segment 83 may be performed when the defect 81 or the segment 83 is displayed in the appearance image display area 86 or may be performed after being displayed in the stitch image display area 87.
  • the list display area 88 includes an identification number assigned as identification data for each segment 83 of the defect 81 detected from the appearance image data by the control unit 51, X-coordinate data of the starting point coordinate data that becomes the defect data, and a starting point coordinate.
  • Y coordinate data of data, Z coordinate data of start point coordinate data, X coordinate data of end point coordinate data, Y coordinate data of end point coordinate data, Z coordinate data of end point coordinate data, defect width data, and defect length This is an area for displaying data.
  • the control unit 51 selects the selected segment 83 as a rectangle or the like as a highlighting process. Surrounded by a frame 89.
  • the control unit 51 performs identification display such as shading display on the data of the selected segment 83 in the list display area 88.
  • the control unit 51 surrounds the selected segment 83 with a rectangular selection frame 89.
  • the selection frame 89 is a circle, a triangle, or the like.
  • the shape of the selection frame 89 is appropriately changed according to the length and shape of the segment 83.
  • the control unit 51 surrounds a continuous segment 83 having the same width with a selection frame 89.
  • FIG. 20 is a diagram showing a screen in a state where a plurality of continuous segments 83 are selected.
  • the control unit 51 surrounds each selected segment 83 with a selection frame 89, and in the list display area 88, the data of the selected segment 83 is displayed.
  • Identification display such as shading display.
  • the control unit 51 automatically detects the continuity of the defect 81 as defect data based on the start point coordinate data and end point coordinate data of each segment 83.
  • a segment 83 including a start point and a segment 83 including an end point are selected, a continuous segment 83 between the start point of the first segment 83 and the end point segment of the last segment 83 is detected and selected.
  • control unit 51 further includes the maximum value, the minimum value, the average value, and the like of the start point coordinate data, end point coordinate data, defect length data, and defect width data of the defect 81 including the plurality of selected segments 83. Is calculated and displayed. As an example, the control unit 51 displays the ratio of the selected segment 83. For example, the control unit 51 displays X% when the defect width data is 0.1 mm or more and less than 0.2 mm, and Y% when the defect width data is 0.2 mm or more and less than 0.3 mm. As an example, a new segment 83 can be selected even after a plurality of segments 83 are selected.
  • FIG. 21 is a diagram showing a screen in a state in which a discontinuous segment 83 is selected.
  • the control unit 51 determines the number of selected segments 83, the total length of the selected segments 83, the average value of the defect width data of the selected segment 83, and the width data of the selected segment 83 as the defect data.
  • the maximum value, the minimum value of the defect width data of the selected segment 83, and the like are displayed.
  • the control unit 51 displays the ratio of the defect width data of the selected segment 83. For example, the control unit 51 displays X% when the defect width data is 0.1 mm or more and less than 0.2 mm, and Y% when the defect width data is 0.2 mm or more and less than 0.3 mm.
  • FIG. 22 is a diagram illustrating the ortho correction process, where (a) shows before ortho correction, and (b) shows after ortho correction process (orthogonal projection correction process).
  • FIG. 22A when the measurement surface 61 and the surveying instrument 1 are not facing each other, distortion occurs in the appearance image 91a based on each appearance image data.
  • Each captured appearance image data can specify each pixel by global coordinates.
  • the control unit 51 performs an ortho correction process for projecting appearance image data onto the measurement surface 61 using global coordinate data for each pixel. As an example, the control unit 51 calculates global coordinate data of the four corners of each appearance image data.
  • the control unit 51 performs the ortho correction projected on the measurement surface 61 based on the global coordinate data of the four corner pixels.
  • inclination data relating to the inclination of the first imaging element of the first imaging unit 11 and the first optical system stored in the storage unit 54 is also taken into consideration.
  • the appearance image 91b that has been subjected to the ortho correction process is the same as the image that is captured in a state of facing the surveying instrument 1 as a whole.
  • the control unit 51 also performs an ortho correction process on the detected defect 81.
  • the ortho correction process is performed after the defect detection / measurement.
  • the control unit 51 detects a defect from the appearance image data that has not been subjected to the ortho correction process.
  • ortho correction processing may be performed before width detection / measurement.
  • the control unit 51 when connecting appearance image data adjacent to each other, connects the pixels having the same coordinate values in the appearance image data adjacent to each other so as to overlap each other.
  • the control unit 51 applies the appearance image data on the coordinates based on the global coordinate data of each appearance image data without connecting the appearance image data adjacent to each other.
  • the control unit 51 applies the appearance image data on the coordinates using the global coordinate data of a plurality of pixels such as the global coordinate data of an arbitrary pixel as the global coordinate data of the center of each appearance image data.
  • adjacent appearance image data has an overlapping region. The overlapping area is given the same global coordinate data.
  • the control unit 51 deletes the overlapping area of any one of the appearance image data specified by the global coordinate data.
  • FIG. 23 is a diagram showing an overall appearance image 92 obtained by applying a stitching processing unit for appearance images 92a to 92d based on four pieces of appearance image data.
  • the control unit 51 joins the individual appearance image data obtained by imaging the measurement range 62, and configures the entire appearance image 92 based on the entire appearance image data of the measurement range 62.
  • control unit 51 uses the first coordinate data associated with the first appearance image data and the second coordinate data associated with the second appearance image data to perform the ortho correction processing.
  • Stitching processing is performed to join the 1 appearance image data and the 2nd appearance image data subjected to the ortho correction processing.
  • a plurality of captured appearance image data are stored as image files of a predetermined file format.
  • global coordinate data of pixels constituting each appearance image data as position data is also stored in association with each appearance image data.
  • the image file of the appearance image data is saved in, for example, a JPEG format or a bitmap format, and the coordinate data is saved as a text file.
  • the appearance image data and the coordinate data are stored in EXIF format.
  • the storage format of the appearance image data may be data other than the JPEG format.
  • the control unit 51 stores the individual appearance image data and the like in the measurement range 62 actually captured as image data files in the recording folder of the storage unit 54.
  • individual appearance image data subjected to the ortho correction processing in the measurement range 62 is stored as an image data file in a recording folder of the storage unit 54.
  • the entire appearance image data obtained by stitching the appearance image data subjected to the ortho correction processing is stored in the recording folder of the storage unit 54 as one image data file.
  • an image data file of individual appearance image data in which highlighting processing is performed on a defect, one image data file of overall appearance image data, and the like are stored in a recording folder of the storage unit 54.
  • the defect image display control device 50 allows the user to visually recognize the defect in the appearance image but the appearance image data based on the user instruction for a portion that the defect image display control device 50 (the control unit 51) does not detect as a defect. Defect data on can be added.
  • the defect image display control device 50 uses the appearance image data based on the user instruction for a portion that is detected as a defect by the defect image display control device 50 (control unit 51) but the user cannot visually recognize the defect in the appearance image. It is possible to correct defect data related to deletion, cutout, change, and the like.
  • the control unit 51 functions as a defect editing unit.
  • FIG. 24 shows an example of the display unit 52 on which an editing screen in the edit mode for editing the defect of the appearance image based on the appearance image data is displayed.
  • the editing screen shown in FIG. 24 includes an appearance image display area 103, an editing mode selection object 117, and an input object 106.
  • the appearance image display area 103 is an area in which the appearance image 100 based on the appearance image data stored in the storage unit 54 is displayed.
  • the appearance image data stored in the storage unit 54 is appearance image data that is generated by being imaged by the surveying instrument 1 and then transmitted from the surveying instrument 1 to the defect image display control device 50.
  • control unit 51 causes the display unit 52 to display the appearance image 100 based on the appearance image data stored in the storage unit 54 in accordance with the defect editing program 54b.
  • control unit 51 selects one or a plurality of ortho-corrected appearance image data data files stored in the recording folder of the storage unit 54 and stores them in the selected appearance image data data file.
  • the external appearance image data is read out and displayed on the display unit 52.
  • the data file of appearance image data selected by the control unit 51 is a data file selected by a user operation.
  • the data file of appearance image data selected by the control unit 51 is a data file of all appearance image data obtained by imaging the measurement range 62.
  • the control unit 51 when the selected appearance image data is included in a plurality of appearance image data generated by imaging by the surveying instrument 1 to cover the entire measurement range 62, the control unit 51 images the measurement range 62. Select all the individual appearance image data. The controller 51 performs stitching processing on all selected appearance image data to generate stitched appearance image data. As an example, the stitching process of the appearance image data is performed so that pixels having the same coordinate value (for example, global coordinate value) of the appearance image data adjacent to each other overlap each other. As an example, the control unit 51 displays a stitched processed appearance image based on the stitched processed appearance image data in the appearance image display area 103.
  • the control unit 51 superimposes and displays the object 101 indicating the imaging range 63 of each appearance image constituting the stitching-processed appearance image on the stitching-processed appearance image.
  • stitched appearance images based on stitched appearance image data generated by performing stitching processing on nine appearance image data are displayed in the appearance image display area 103.
  • nine objects 101 corresponding to each of the nine appearance image data are displayed so as to be superimposed on the stitched appearance appearance image.
  • the object 101 is displayed as shown in FIG. 24 because each appearance image data has an overlapping area 70 that overlaps with the adjacent appearance image data, as in FIG. 15 described above. is there.
  • the control unit 51 displays an image based on the appearance image data corresponding to the changed position (region). Or, new stitching based on the new stitched appearance image data obtained by stitching the stitched appearance image data displayed before the change and the appearance image data corresponding to the position (region) after the change. A processed appearance image is generated and displayed so as to correspond to the changed position (area). If there is no appearance image data corresponding to the changed position (area), the appearance image displayed in the appearance image display area 103 or the position (area) of the stitched appearance appearance image is changed and displayed.
  • the control unit 51 displays the object 102 indicating the measurement range 62 as the appearance image. And superimposed on the stitched appearance image.
  • the defect detection program 54a and the defect editing program 54b may be a single program composed of one piece of software.
  • the defect detection program 54a and the defect editing program 54b or a single program may be installed in the same device. With this configuration, the user can efficiently edit the defect on the appearance image after detecting the defect. Further, the defect detection program 54a and the defect editing program 54b or the single program may be installed in different apparatuses so that the appearance image can be captured and edited at another place.
  • the edit mode selection object 117 includes an add object 117a, a cut object 117b, a delete object 117c, a combined object 117d, and a change object 117e.
  • the additional object 117 a has a change point or a change point in the appearance image 100 displayed in the appearance image display area 103 with respect to defect data associated with the appearance image data corresponding to the appearance image 100 displayed in the appearance image display area 103. It is an object that indicates to the user a position for receiving a user operation for executing a function for adding an end point.
  • the cut object 117b is the 2 specified in the appearance image 100 displayed in the appearance image display area 103 for the defect data associated with the appearance image data corresponding to the appearance image 100 displayed in the appearance image display area 103. It is an object indicating to the user a position for receiving a user operation for executing a function of cutting out defect data between two change points or end points.
  • the deleted object 117c is a range specified in the appearance image 100 displayed in the appearance image display area 103 for defect data associated with the appearance image data corresponding to the appearance image 100 displayed in the appearance image display area 103. This is an object indicating to the user a position for receiving a user operation for executing a function of deleting a change point or an end point in the inside, and adding two end points as new defect data when two end points are generated by the deletion.
  • the combined object 117d is 2 specified in the appearance image 100 displayed in the appearance image display area 103 for the defect data associated with the appearance image data corresponding to the appearance image 100 displayed in the appearance image display area 103. This is an object that indicates to the user a position for accepting a user operation for executing a function of combining two defect objects 83a into one defect object 83a.
  • the change object 117e is a change point or a change point in the appearance image 100 displayed in the appearance image display area 103 with respect to defect data associated with the appearance image data corresponding to the appearance image 100 displayed in the appearance image display area 103. It is an object indicating to the user a position for receiving a user operation for executing a function of changing the position of the end point.
  • the add object 117a, the cut object 117b, the delete object 117c, the combined object 117d, and the change object 117e are configured by radio buttons.
  • the input object 106 includes a layer input unit 106a, a coordinate input unit 106b, an altitude input unit 106c, a defect width input unit 106d, and a color legend display unit 106e.
  • the layer input unit 106a is an object in which a layer to which defect data associated with appearance image data corresponding to the appearance image displayed in the appearance image display area 103 belongs is displayed.
  • the layer input unit 106a is an object that specifies a layer of defect data that has been added or edited when the defect data is added or edited.
  • a layer is defined corresponding to the defect width of the defect data to be edited or added.
  • a layer corresponding to the defect width input to the defect width input unit 106d is input.
  • the defect objects 81a and 83a of the defect 81 detected by the defect detection program 54a are specified as one layer.
  • the layer of the defect object 81a is specified according to the width of the defect.
  • a layer corresponding to the defect width input to the defect width input unit 106d is input to the defect object 111a of the defect 111 that has been additionally changed by the defect editing program 54b.
  • the layer of the defect object 83a of the segment 83 detected by the defect detection program 54a is specified according to the width of the defect.
  • the coordinate input unit 106b and the altitude input unit 106c are objects to which coordinate data at a position indicated by the guide object 110 is input.
  • the coordinate input unit 106b and the altitude input unit 106c are objects to which coordinate data at a position indicated by the guide object 110 displayed at the position of the mouse cursor is input.
  • the displayed appearance image data can measure the coordinate data of the global coordinate system of each pixel. Therefore, the control unit 51 calculates coordinate data in the global coordinate system at the position indicated by the mouse cursor, and inputs values according to the calculated coordinate data to the coordinate input unit 106b and the altitude input unit 106c.
  • the defect width input unit 106d is a defect width data input unit for defects, and is an object to which defect width data for defects to be added is input.
  • the color legend display unit 106e when different identification display processing is performed according to the width of the defect, and when highlighting processing by color is performed, the color legend display unit 106e is an object that displays a color definition for each width. As an example, different highlighting processing is performed for the defect width data in the first range and the defect width data in the second range. As an example, the color legend display unit 106e has a blue layer numerical range of 0.0 mm to less than 0.1 mm, a green layer numerical range of 0.1 mm to less than 0.2 mm, and a yellow layer numerical range of 0. Display a color legend such as 2 mm or more and less than 0.3 mm. Note that the layers may be distinguished not only by color but also by line type or the like. The numerical range defining each layer is not limited to the above example. Also, the number of layers is not particularly limited.
  • FIG. 25 is a diagram showing an editing screen for performing defect addition work.
  • FIG. 26 is a diagram showing an editing screen for performing defect addition work, and shows a screen in which the appearance image of FIG. 25 is enlarged.
  • the input object 106 is displayed on the right side of the screen.
  • a defect object 81a indicating a defect 81 that has already been detected is displayed.
  • the defect object 81a displays the change point 82, and the defect object 83a of the segment 83 between the change points 82 is highlighted with a color or line type different from the surrounding color. May be.
  • the control unit 51 displays the guide object 110 at the position of the mouse cursor.
  • the guide object 110 is a guide for measuring the width of the defect 111 appearing in the appearance image 100, and indicates a measure of the size of the object in the real space where the structure is located.
  • the guide object 110 includes a graphic part 110a in which a plurality of circular shapes are superimposed on a cross shape, and a numerical value part 110d configured with dimension values corresponding to the size of the graphic part 110a.
  • the plurality of circular shapes in the graphic unit 110a are concentric circles.
  • the graphic unit 110a has two circular shapes.
  • the intersection of the cross shape coincides with the centers of a plurality of circular shapes.
  • the size of the graphic unit 110a on the screen serves as an index for measuring the size of the defect 111 appearing in the appearance image 100 in the real space.
  • the graphic part 110a has an isotropic shape from the center. Thereby, the user can easily grasp the width of the defect 111.
  • the numerical value part 110d is a numerical value (actual dimension) indicating a scale of the size of the object in the real space where the structure is located.
  • the color of the guide object 110 may be the same color as the layer color or may be different.
  • the guide object 110 is displayed in a color different from the color of the displayed layer in order to facilitate distinction from the displayed layer.
  • the guide object 110 is selected and displayed from the colors of a plurality of layers less than the threshold value. So that it can be easily distinguished from the layer color. Further, the color of the smallest layer is selected so that it can be easily distinguished from the color of the displayed layer.
  • the control unit 51 does not change the size of the guide object 110.
  • the diameter of the outer circumference circle 110b and the diameter of the inner circumference circle 110c of the graphic portion 110a are a measure of the size of the structure in the real space displayed by the appearance image.
  • a numerical part 110d composed of dimension values in the real space is displayed near the outer circle 110b, and a numerical part 110d composed of dimension values in the real space is also displayed near the inner peripheral circle 110c.
  • the numerical value part 110d is configured with dimensional values in the real space corresponding to the diameters of the outer circumference circle 110b and the inner circumference circle 110c.
  • the control unit 51 when the mouse wheel is rotated, the control unit 51 enlarges or reduces the appearance image 100 displayed on the display unit 52 according to the rotation direction and the rotation amount. Even when the appearance image 100 is enlarged or reduced, as an example, the control unit 51 does not change the size of the graphic unit 110a. In this case, the control unit 51 changes the numerical value of the numerical part 110d of the outer circumference circle 110b and the numerical value of the numerical value part 110d of the inner circumference circle 110c according to the enlargement ratio or reduction ratio of the appearance image 100.
  • FIG. 26 is an enlarged view of the appearance image of FIG. 25, and “ ⁇ 6.4 mm” is changed and displayed as “ ⁇ 3.2 mm” as the numerical value portion 110d near the outer circumference circle 110b. In the vicinity of the circle 110c, “ ⁇ 3.2 mm” is changed and displayed as “ ⁇ 1.6 mm” as the numerical value portion 110d.
  • the user moves the figure part 110a on the appearance image 100 using the mouse constituting the operation part 53, for example, changes the figure part 110a to the appearance.
  • the defect 111 is a defect that has not been detected by the defect detection program 54a.
  • the control unit 51 is a selection unit that selects a position. When the position of the graphic unit 110a is aligned with the end point located at one end of the defect 111 and left-clicked, the control unit 51 selects the position of the aligned end point 108 in step S31.
  • the width of the defect 111 is adjusted to the outer circumference circle 110b.
  • the user can grasp
  • the user matches the width of the defect 111 with the inner circumferential circle 110c.
  • the user can grasp the width of the defect 111 by the numerical value portion 110d displayed near the inner circumference circle 110c.
  • the position of the edge of the defect 111 is designated, and then the defect 111 is traced along the defect 111 to a position where the defect 111 is bent or a width is changed using the graphic part 110a.
  • the guide object 110 continues to be displayed.
  • a trajectory object indicating the movement trajectory of the guide object 110 may be displayed as an example between the one end portion and the center point of the graphic portion 110a.
  • the control unit 51 selects the location where the left click is performed in step S32. And end point 109.
  • the defect data addition operation is finalized, defect data connecting the two locations is generated, and a defect object 111 a displayed according to the defect data is added between the end point 108 and the end point 109.
  • the two specified locations become end points and change points in the generated defect data.
  • the first designated location is the end point 108
  • the next designated location is the midpoint of the defect 111, so that it becomes the end point 109 that is the change point.
  • the lengths of the end points 108 and 109 become defect length data.
  • the graphic part 110a is moved to the input object 106 and the defect width input part 106d is selected in step S33, and the defect width input part 106d directly inputs the defect width data using a keyboard or the like.
  • the control unit 51 sets the input value as defect width data.
  • the defect width data is input with reference to the numerical value of the numerical value portion 110d of the outer circumference circle 110b or the inner circumference circle 110c.
  • the defect object 111a of the added defect data is colored according to the definition of the color legend display unit 106e. Then, the layer is set according to the width.
  • the control unit 51 is aligned in step S41.
  • the position of the end point 108 is selected.
  • the appearance image 100 is enlarged or reduced so that the size of the graphic portion 110 a matches the width of the defect 111.
  • the defect width input unit 106d can directly input the defect width data using a keyboard or the like.
  • the control unit 51 uses the input value as defect width data.
  • the defect 111 is traced along the defect 111 to a portion where the defect 111 is bent or a width is changed while using the graphic portion 110a. Then, when the user left-clicks again here, the control unit 51 selects the portion left-clicked in step S43 and sets it as the end point 109.
  • the position of the graphic part 110a is adjusted to the end point located at one end of the defect 111 appearing in the appearance image 100, and the size is adjusted.
  • the defect width input unit 106d can directly input defect width data using a keyboard or the like.
  • the control unit 51 The input value is used as defect width data. Thereafter, when the graphic unit 110a is returned to the end point located at one end of the defect 111 and left-clicked, the control unit 51 selects the position of the aligned end point 108 in step S52.
  • the defect 111 is traced along the defect 111 to a portion where the defect 111 is bent or a width is changed while using the graphic portion 110a. Then, when the user left-clicks again here, the control unit 51 selects the portion left-clicked in step S ⁇ b> 53 and sets it as the end point 109.
  • the guide object 110 may be erased from the appearance image 100 after the end point 108 is selected until the end point 109 is selected.
  • FIG. 28 is a diagram showing an editing screen on which a menu box 107 in which candidate values for defect width data are listed is displayed.
  • the control unit 51 displays the menu box 107.
  • the menu box 107 includes an upper display unit 107a and a lower display unit 107b as two display units. On the upper display portion 107a, the previously input defect width data is displayed as a candidate value.
  • the control unit 51 inputs the selected candidate value to the defect width input unit 106d. According to such a method, the trouble of inputting with a keyboard or the like can be saved.
  • the number of display units is not limited to two, and may be three or more.
  • FIG. 29 is a diagram showing an editing screen for measuring the width by designating two points in the width direction of the defect width.
  • the control unit 51 performs the position selection process. To do.
  • the control unit 51 selects the position.
  • two points are selected so as to intersect with a direction in which the defect 111 appearing in the appearance image 100 extends.
  • two points are selected so as to be orthogonal to the direction in which the groove of the defect 111 extends.
  • the control unit 51 displays the distance between the two points measured from the two global coordinates as defect width data at the position, and inputs the defect width data to the defect width input unit 106d. . Also, as an example, during the period from the selection of the end point 121 on one side edge to the selection of the end point 122 on the other side edge, a numerical value indicating the moving distance from the end point 121 on the one side edge is displayed near the position of the mouse cursor. Is preferably displayed. Also by such a method, the trouble of inputting with a keyboard or the like can be saved.
  • the defect object 111a including a plurality of end points and change points drawn so as to overlap the defect 111 has the position of the last end point 109 as the end point when the mode for adding the defect 111 is ended.
  • FIG. 30 is a diagram illustrating an editing screen on which an editing history of defects is displayed. On this screen, in the list display area 88, in addition to the defect data, the change date data and the changer are displayed. This makes it possible to know when and who edited the defect. Thereby, it is possible to visually recognize whether the defect is an automatically detected defect or an edited defect at a glance.
  • the defect data may be saved in a DXF or DWG format file to improve compatibility with CAD or the like.
  • the defect image display control device 50 As described above, the following effects can be obtained. (1) By using the guide object 110 indicating the scale of the size of the object in real space as an index, the width of the defect 111 appearing in the appearance image 100 can be easily grasped. (2) The appearance image displayed on the display unit 52 of the defect image display control device 50 is the same as the image captured in a state of facing the surveying instrument 1 because the orthorectification process is performed. And the width of the defect can be easily grasped.
  • the defect 111 appearing in the appearance image 100 can be easily traced. Then, while tracing the defect 111, the width of the defect 111 can be grasped by the guide object 110. For example, it is possible to easily grasp the change in the situation such as whether the defect continues with the same width, the width has changed, or the defect has been bent.
  • the dimension value of the numerical value part 110d is changed without changing the display size of the guide object 110 according to the enlargement or reduction magnification of the appearance image 100. Thereby, the width of the defect 111 can be easily grasped regardless of the scale of the appearance image 100.
  • the displayed starting point (end point) is enlarged by enlarging the appearance image.
  • the position of the end point (end point) can be accurately grasped and selected.
  • the guide object 110 includes the graphic part 110a
  • the width of the defect 111 can be easily grasped with reference to the size of the graphic part 110a. When equipped, the width of the defect 111 can be easily grasped by looking at the numerical value of the numerical value part 110d when the graphic part 110a is aligned with the defect 111.
  • the graphic part 110a has an isotropic shape from the center. Thereby, the user can easily grasp the width of the defect 111. (7) By selecting the position of the guide object 110, the end point 108 and end point 109 of the defect 111 appearing in the appearance image 100 can be selected, and the position and length of the defect object 111a superimposed on the added defect 111 are displayed. Can be easily specified on the coordinates. (8) The detected defect data can be corrected (deleted, combined, changed) with respect to the appearance image, or defect data of the defect 111 that can be visually recognized from the appearance image 100 can be easily added. (9) A defect object 111a as defect data can be added to a portion where defects can be visually recognized in the appearance image but are not detected as defects.
  • the defect data is deleted or cut off, or the position of the change point or end point is changed. And can be easily corrected.
  • the defect width data grasped by using the guide object 110 as a guide can be easily input to the defect width input unit 106d.
  • the defect width data can be easily input to the defect width input unit 106d by an input device such as a keyboard constituting the operation unit 53 of the defect image display control device 50.
  • the defect width data of the defect 111 appearing in the appearance image 100 can be easily input to the defect width input unit 106d. can do.
  • the width of the defect is easily and accurately measured by selecting one point on one side edge along the extending direction of the defect 111 appearing in the appearance image 100 and selecting one point on the other side edge. can do.
  • the defect object 111a of the appearance image data is accurate position data because the global coordinate data is associated with each pixel of the appearance image data. (16) Since only the appearance image data to be displayed is displayed on the display unit 52 after being stitched, the amount of data processing during the defect editing process can be reduced.
  • the defect image display control device 50 may be modified as follows. [Guide Object Modifications]
  • the guide object 110 does not change the size of the graphic part 110a even when the appearance image 100 is enlarged or reduced, and the numerical value part 110d corresponds to the enlargement ratio or reduction ratio of the appearance image 100.
  • the numerical value is changed (Embodiment 1).
  • the size of the graphic part 110a is changed according to the enlargement ratio or reduction ratio of the appearance image 100, and numerical values are obtained. You may make it not change the numerical value of the part 110d (embodiment 2).
  • the graphic part 110a of the guide object 110 may be enlarged or reduced (embodiment 3).
  • the size of the graphic portion 110a can be adjusted in accordance with the width of the defect 111 of the currently displayed appearance image 100.
  • the numerical value unit 110d changes the numerical value according to the enlargement ratio or the reduction ratio of the graphic part 110a.
  • the control unit 51 may switch in accordance with a user operation.
  • the position of the guide object 110 may be fixed in the appearance image display area 103, and the appearance image 100 may be scrolled with respect to the fixed guide object 110 to align the position with the defect 111.
  • the guide object 110 is fixed and displayed at the upper left of the appearance image display area 103, and the guide object 110 is fixed at the center of the appearance image display area 103 as shown in FIG. indicate.
  • the defect 111 of the appearance image 100 may be aligned with the position of the guide object 110 by moving (scrolling) the position of the appearance image 100 in the appearance image display area 103 in the vertical and horizontal directions. A similar effect can be obtained by such a configuration.
  • the fixed position of the guide object 110 is not particularly limited as long as it is in the appearance image display area 103.
  • the guide object 110 is moved from the upper left of the basic position of the appearance image display area 103 to the center of the appearance image display area 103.
  • the control unit 51 switches from a state in which the guide object 110 moves in the appearance image display area 103 to a mode in which the position of the appearance image 100 is moved (scrolled) in the vertical and horizontal directions in the appearance image display area 103.
  • the defect 111 of the appearance image 100 is moved (scrolled) in the appearance image display area 103 in the vertical and horizontal directions.
  • the position of the appearance image 100 in the appearance image display area 103 may be moved (scrolled) in the up / down / left / right directions and then switched to a state in which the guide object 110 moves in the appearance image display area 103.
  • an operation for editing a defect using the mouse constituting the operation unit 53 described above can be performed by tracing or touching the display surface with a finger or a stylus pen.
  • the user can touch and move the guide object 110, and can move (scroll) the position of the appearance image 100 in the appearance image display area 103 in the vertical and horizontal directions.
  • Such a function is particularly effective when the defect image display control device 50 is configured by a tablet with a touch panel function.
  • the guide object 110 may be displayed on the appearance image 100 when a predetermined enlargement ratio is reached.
  • the defect width data is input by inputting a numerical value in the real space associated with the size of the graphic part 110a at the time of selection when the guide object 110 selects the start point, end point, or change point of the defect 111. You may make it input into the input part 106d automatically. Also by such a method, the trouble of inputting defect width data can be saved. In such a case, it is preferable that the number of the circles of the graphic portion 110a is one in order to clarify the reference when adjusting the width of the defect.
  • the position of the graphic part 110a is aligned with the end point positioned at one end of the defect 111, and the size is adjusted. Then, when left-clicked, the control unit 51 selects the position of the end point 108 in step S61 and sets the dimension value of the numerical unit 110d associated with the graphic unit 110a at the time of selection as defect width data. After that, the defect 111 is traced along the defect 111 to a portion where the defect 111 is bent or a width is changed while using the graphic portion 110a. When the graphic unit 110a reaches the other end and left-clicks again here, the control unit 51 selects the portion left-clicked in step S62 and sets it as the end point 109.
  • the position of the guide object 110 is aligned with one end of the defect 111.
  • the control unit 51 selects the position of the end point 108 in step S71. After that, the defect 111 is traced along the defect 111 to a portion where the defect 111 is bent or a width is changed while using the graphic portion 110a. When the graphic part 110a reaches the other end, the position of the guide object 110 is adjusted and the size is adjusted.
  • the control unit 51 selects the portion left-clicked in step S72, sets the end point 109, and sets the value of the numerical unit 110d associated with the graphic unit 110a at the time of selection as the defect width data. To do.
  • the size of the graphic portion 110a is not changed, and the numerical value portion 110d is changed according to the enlargement ratio or reduction ratio of the appearance image 100.
  • the dimension value may be changed.
  • the size of the graphic part 110a may be changed according to the enlargement ratio or reduction ratio of the appearance image 100, and the dimension value of the numerical value part 110d may not be changed.
  • the graphic part 110a of the guide object 110 may be enlarged or reduced. In any case, when a specific first position (one end) or second position (one end) for tracing the defect 111 is selected, the real space associated with the graphic unit 110a at that time is selected.
  • the dimension value at is input to the defect width input unit 106d as defect width data.
  • the graphic portion 110a of the guide object 110 described above has a shape in which a plurality of circular shapes are overlapped on a cross shape, but may further have a configuration shown in FIGS. 34 (a) to (j). .
  • the graphic unit 110a may be configured as one circle.
  • the defect width data is automatically input, if there are a plurality of circles as indices, the user is confused as to which of the circles the defect width can be measured. Is automatically entered, it is preferably one circle.
  • the number of circles may be changed according to the enlargement ratio. As an example, the number of circles may be reduced as the appearance image 100 is enlarged. As an example, the number of circles may be increased as the appearance image 100 is enlarged.
  • the graphic unit 110a may be a quadrangle as an example.
  • the graphic part 110a may be a triangle or a regular polygon such as a regular pentagon or a regular hexagon. That is, it is preferable that the shape is isotropic from the center.
  • a value twice the distance from the center of the regular polygon to each vertex is displayed as the dimension value of the numerical value portion 110d.
  • the graphic unit 110a may be formed of a single circle formed of a dotted line or the like.
  • the graphic unit 110a may be configured with an X-shaped scale as an example. Furthermore, the x-shaped scale may be superimposed on a circle that serves as an index, for example.
  • the graphic unit 110a may be configured with a + -shaped scale instead of the X-shaped scale. As an example, an X-shaped scale and a + -shaped scale may be overlapped.
  • the graphic unit 110a may have a square lattice shape as an example. Furthermore, as shown in FIG. 34 (g), the graphic part 110a may have a triangular lattice shape as an example. As shown in FIG. 34 (h), as an example, the graphic unit 110a may be configured by concentrically concentrating circles having different diameters. The number of concentrically overlapping circles may be three, or may be four or more.
  • the graphic unit 110a may be configured by superimposing concentric circles having different diameters. In this case, it is preferable to change the line color (line type) of each circle. Further, the line color (line type) at this time is a line color (line type) having a width defined in the color legend display unit 106e. More preferably, it is related to
  • the graphic part 110a may be configured by concentrically concentrating circles having different diameters to change the transmittance between adjacent circles.
  • the transmittance is gradually increased from the center toward the outer periphery.
  • the transmittance at the center is the lowest, and the appearance image 100 located in the lower layer is the least visible.
  • the outermost region has the highest transmittance, and the appearance image 100 located in the lower layer is most easily seen.
  • the transmittance is gradually decreased from the center toward the outer periphery. In this case, the transmittance at the center is the highest, and the appearance image 100 located in the lower layer is most easily seen. Further, the transmittance of the outermost region is the lowest, and the appearance image 100 located in the lower layer is the least visible.
  • the color of the graphic unit 110a that is a target when changing the transmittance is not particularly limited.
  • 110d may be omitted and only the graphic unit 110a may be provided.
  • the defect objects 81a, 83a, and 111a indicated by the defects 81 and 111 are changed by the defect editing program 54b
  • the defect objects 81a and 83a detected by the defect detection program 54a and the defect object 111a edited by the defect editing program 54b are There may be contradictions.
  • the defect objects 81a, 83a, and 111a in a specific layer are displayed, the defect objects 81a, 83a, and 111a in other layers that are not displayed may be mistaken as undetected defects. .
  • the defect width data input in the editing operation may be inconsistent with the defect width data of the defect objects 81a, 83a, and 111a detected as other layers.
  • the control unit 51 gives priority to defect data of the defect object 111a edited by the defect editing program 54b over defect data of the defect objects 81a and 83a detected by the defect detection program 54a.
  • the control unit 51 gives priority to the defect data of the defect objects 81a and 83a detected by the defect detection program 54a over the defect data of the defect object 111a edited by the defect editing program 54b.
  • the defect image display control device 50 may be configured by an information processing device to which the display unit 52 and the operation unit 53 are connected. In this case, the display unit 52 and the operation unit 53 are connected to the defect image display control device through an interface for performing data input / output with an external device.
  • the defect image display control device 50 can be configured by a desktop or laptop computer device.
  • the defect image display control device 50 includes a computer body including a control unit 51, a storage unit 54, and the like, a display unit 52 connected to the computer body, and an operation unit 53 connected to the computer body. Consists of.
  • the defect image display control device 50 may include the surveying instrument 1 as an example.
  • control unit 40 of the surveying instrument 1 may realize the same function as the control unit 51. Moreover, you may make it perform the parallel process which allocates the process of the defect detection program 54a or the defect edit program 54b to the control part 40 and the control part 51.
  • the display unit that displays the appearance image can be configured by one or more display units selected from the first display unit 18, the second display unit 19, and the display unit 52.
  • the appearance image may be associated with coordinate data according to the local coordinate system instead of the global coordinate system.
  • the defect data may be data calculated by the GNSS of the surveying instrument 1.
  • the method of stitching processing is not particularly limited.
  • the ortho correction process may be performed before, but not after, the defect 81 detection process.
  • the ortho correction process may be performed so as to connect common portions of adjacent images.
  • SYMBOLS 1 ... Surveying instrument, 2 ... Leveling part, 3 ... Bottom plate, 4 ... Top plate, 5 ... Leveling screw, 6 ... Main-body part, 7 ... Imaging part, 8 ... 1st objective lens, 9 ... 2nd objective lens, DESCRIPTION OF SYMBOLS 10 ... 3rd objective lens, 11 ... 1st imaging part, 11a ... Autofocus part, 12 ... 2nd imaging part, 13 ... Distance measuring part, 14 ... 3rd imaging part, 15 ... Horizontal angle drive part, 16 ... Sending Optical part, 17 ... vertical angle drive part, 18 ... first display part, 19 ... second display part, 20 ... communication part, 21 ...
  • measurement surface 62 ... Measurement range, 62a ... Measurement range, 63 ... Imaging range, 64 ... Global coordinates, 65 ... Rectangle, 66a ... Partly unobservable area, 66b ... Unnecessary area, 70 ... Overlapping area, 71 ... All imaging range, 72: Imaging region, 81: Defect, 81a: Defect object, 82: Change point, 83 ... Segment, 83a ... Defect object, 84 ... End point, 85 ... Scroll bar, 86 ... Appearance image display region, 87 ... Stitch image display region 88 ... List display area 89 ... Selection frame 91a ... Appearance image 91b ... Appearance image 92 ...

Abstract

検出された結果が正しいか否かの確認や、検出された結果に漏れがないことの確認等が望まれる。欠陥画像表示制御装置は、構造物の外観に現れた欠陥を含み、かつ、オルソ補正処理された外観画像を、表示部に表示させる表示制御部であって、前記構造物が位置する実空間における物体の大きさの尺度を示すオブジェクトを前記外観画像の一部に重ね、かつ、前記表示部に表示されている前記外観画像の中で異なる複数の位置にオブジェクトを表示可能である前記表示制御部を備える。

Description

欠陥画像表示制御装置及びプログラム
 本発明は、欠陥画像表示制御装置及びプログラムに関する。
 特許文献1には、コンクリート構造物の外観に現れたひびを、測量機が備えた超望遠のカメラで撮像し、撮像画像を画像解析することにより、微細なひびを検出する装置が記載されている。
特開2009-53126号公報
 特許文献1のような技術には、検出された結果が正しいか否かの確認や、検出された結果に漏れがないことの確認等に有用な技術が求められている。
 本発明の一態様によれば、構造物の外観に現れた欠陥を含み、かつ、オルソ補正処理された外観画像を、表示部に表示させる表示制御部であって、前記構造物が位置する実空間における物体の大きさの尺度を示すオブジェクトを前記外観画像の一部に重ね、かつ、前記表示部に表示されている前記外観画像の中で異なる複数の位置にオブジェクトを表示可能とする前記表示制御部を備える欠陥画像表示制御装置が提供される。
 本発明の他の態様によれば、構造物の外観に現れた欠陥を含み、かつ、オルソ補正処理された外観画像を、表示部に表示させる表示制御ステップであって、前記構造物が位置する実空間における物体の大きさの尺度を示すオブジェクトを前記外観画像の一部に重ね、かつ、前記表示部に表示されている前記外観画像の中で異なる複数の位置にオブジェクトを表示可能とする前記表示制御ステップを実行するプログラムが提供される。
欠陥検出システムの構成を示す図。 測量機の正面図。 測量機の背面図。 測量機の底面図。 測量機のシステム構成を示すブロック図。 欠陥画像表示制御装置のブロック図。 (a)は、測定面と測定範囲の関係を示す図、(b)は、測定面と測定範囲と撮像範囲の関係を示す図。 構造物の欠陥検出の手順を示すフローチャート。 器械設置を説明する図。 デジタル画像上の任意の画素の座標データを説明する図。 測定面が鉛直面であるときの定義方法を示す図。 (a)及び(b)は、測量機と正対していない測定範囲を指定する方法を示す図。 測量機の水平軸周りの回転駆動の範囲を説明する図。 第1撮像部による自動測定の手順を説明するフローチャート。 鉛直面の測定範囲をタイル状に自動測定する状態を説明する図。 欠陥の一例である欠陥の検出及び測定をする手順を示すフローチャート。 (a)は、欠陥を有する外観画像を示す図、(b)は、欠陥に対して強調表示処理を施した外観画像を示す図、(c)は、欠陥をセグメントに分けセグメント毎に強調表示処理を施した外観画像を示す図。 欠陥画像表示制御装置の表示部に表示された画面の一例を示す図。 図18に示した画面に次ぐ表示状態を示す図。 連続する複数のセグメントを選択した状態の画面を示す図。 非連続な複数のセグメントを選択した状態の画面を示す図。 (a)は、オルソ補正前を示し図、(b)は、オルソ補正処理後を示す図。 スティッチング処理された全体外観画像を示す図。 編集する外観画像データを欠陥画像表示制御装置の表示部に表示した画面を示す図。 欠陥の追加作業を行う編集画面を示す図。 図25の外観画像を拡大し欠陥の追加作業を行うときの編集画面を示す図。 欠陥の位置を選択し欠陥幅データを入力するまでの手順を示すフローチャートであり、(a)は、欠陥の一方の端点と他方の端点を選択した後、欠陥幅データを入力する例を示すフローチャート、(b)は、欠陥の一方の端点を選択した後、欠陥幅データを入力し、その後、他方の端点を選択する例を示すフローチャート、(c)は、欠陥幅データを入力してから欠陥の一方の端点と他方の端点を選択する例を示すフローチャート。 欠陥幅データの候補値が列挙されたメニューボックスが表示された編集画面を示す図。 欠陥の幅の幅方向における二点を指定して幅を計測する編集画面を示す図。 欠陥の編集履歴が表示された編集画面を示す図。 外観画像の拡大に合わせてガイドオブジェクトの図形部も拡大された状態を示す図。 外観画像が拡大又は縮小しない場合に、ガイドオブジェクトの図形部を拡大又は縮小する画面を示す図。 欠陥の位置を選択したときに自動的に欠陥幅データを入力する手順を示すフローチャートであり、(a)は、欠陥の一方の端点を選択したときに欠陥幅データを自動的に入力する例を示すフローチャート、(b)は、欠陥の他方の端点を選択したときに欠陥幅データを自動的に入力する例を示すフローチャート。 (a)~(j)は、ガイドオブジェクトを構成する図形部の変形例を示す図。
 以下、構造物の外観に現れた欠陥を検出する欠陥検出システムを説明する。
 図1に示すように、欠陥検出システムは、測量機1と、欠陥画像表示制御装置50とを備えている。一例として、測量機1は、測量対象物を測量する機器であり、測量対象物との角度と、測量対象物との距離とを計測する。一例として、測量機1は、距離を測る光波測距儀と、角度を測るセオドライトとを組み合わせた機器である。一例として、測量機1は、測量対象物との角度と、測量対象物との距離とを同時に計測する機器である。一例として、測量機1は、トータルステーションである。一例として、測量対象物は、プリズム方式を採用している場合、プリズム、ミラー、レフシート等の反射プリズムで構成された第1ターゲットである。なお、測量対象物は、測標、目標物と呼ぶ場合がある。
 一例として、測量機1は、プリズム、ミラー、レフシート等の反射プリズムを使用しないノンプリズム方式を採用している。ノンプリズム方式では、測量対象物に直接レーザー等の測距光を照射し、測定面で反射した戻りの反射光を検出して測量対象物の測定面との距離を計測する。ノンプリズム方式の測量対象物として、例えば橋梁、ダム、ビル、トンネル、鉄骨、道路、電車、飛行機、送電線及び古墳等の構造物が挙げられる。プリズム方式ではなく、モータ駆動により鉛直角及び水平角の駆動が行われ、視準先をオートフォーカスにて視準可能とすれば、測量機1を現場に設置した後はユーザが現場に足を踏み入れることなく離れた場所から測量することが可能となる。一例として、測量機1は、カメラ等の撮像装置を有し、測量対象物である構造物の壁面を撮像する。一例として、測定面の画像は、構造物の外観画像である。測量機1は、撮像した測定面の位置データと、撮像した外観画像データとを出力する。
 測量機1は、電源から電力が供給される。一例として、電源は、測量機1に内蔵された電源、測量機1に着脱可能に構成された電源、測量機1に対して外部から電力を供給する外部電源49である。一例として、電源は、ニッケル水素電池やリチウムイオン電池等の二次電池、商用電源、発電機等である。
 一例として、欠陥画像表示制御装置50は、デスクトップ型又はラップトップ型のコンピュータ、タブレット等の汎用の情報処理装置である。一例として、欠陥画像表示制御装置50は、有線(例えば接続ケーブル)又は無線で測量機1と接続される。一例として、欠陥画像表示制御装置50は、測量機1と数メートル離して設置される。欠陥画像表示制御装置50は、ソフトウェアがインストールされる。一例として、ソフトウェアは、画像から構造物の欠陥を検出する欠陥検出プログラムであり、検出した欠陥に関するデータを編集する欠陥編集プログラムである。欠陥画像表示制御装置50は、測量機1を制御する制御装置であり、欠陥検出プログラムを実行して、外観画像データを撮像するため測量機1を制御する。また、欠陥画像表示制御装置50は、欠陥編集プログラムを実行することにより、外観画像データを表示し、欠陥検出プログラムで検出することができなかった新たな欠陥を追加し、また、欠陥検出プログラムが検出した欠陥を修正することができる。
 欠陥画像表示制御装置50は、外観画像データと外観画像データに含まれる観測点の位置データが測量機1から入力されると、外観画像データから構造物の外観に現れた欠陥を検出する。一例として、欠陥は、構造物の外観に現れたひびや窪みである。このような欠陥は、一例として、剥落、すり減り等の経年劣化を原因に形成される。欠陥は、一例として、地震や波浪等の外力によって形成される。欠陥は、一例として、撓みや振動等を原因とする構造的変状によって形成される。欠陥は、一例として、酸素や二酸化炭素の浸透、水分や塩化物の浸透等を原因とする化学的劣化により形成される。欠陥は、一例として、鉄筋の腐食等によって形成される。欠陥画像表示制御装置50は、外観画像データから構造物の欠陥を検出し、位置データを参照して欠陥に関連する欠陥データを算出する。欠陥データは、欠陥の位置を示すデータを含む。一例として、位置データ及び欠陥データは、好ましくは、グローバル座標系(ローカル座標系ではない座標系、世界測地系、日本測地系)に従った座標データである。
 一例として、欠陥画像表示制御装置50は、測量機1の制御装置である。欠陥画像表示制御装置50は、測量機1に対して、構造物の外観を撮像するための指示を出力し、測量機1の動作を制御する。一例として、欠陥画像表示制御装置50は、測量機1を鉛直軸及び水平軸回りに回転させ、構造物の外観を撮像させる。
 〔測量機の構成〕
 図2に示すように、測量機1は、整準部2と、本体部6と、撮像部7とを備えている。整準部2は、例えば整準台である。整準部2は、底板3と、上板4と、整準ねじ5とを含んでいる。底板3は、三脚に固定される部材である。底板3は、例えば、ねじ等で三脚の脚頭に固定される。上板4は、整準ねじ5を用いることで、底板3に対する傾きが変更可能に構成されている。上板4には、本体部6が取り付けられている。測量機1の第1軸である鉛直軸O1の傾きは、整準ねじ5を用いることで変更可能である。
 整準とは、測量機1の鉛直軸を鉛直にすることである。整準した測量機1は、鉛直軸O1が鉛直方向に沿った状態である。整準した測量機1は、鉛直軸O1が鉛直方向に沿った状態であり、且つ、測量機1の第2軸である水平軸O2が鉛直軸O1に対して直角の状態である。整準は、レベリング(leveling)と表現することがある。
 求心とは、測量機1の鉛直中心を第2ターゲット(測標)の中心に一致させることである。求心とは、地上の測量基準位置(基準点)等の測点の鉛直線上に測量機1の機械中心を一致させることである。求心は、致心やセンタリング(centering)と表現することがある。求心した測量機1は、鉛直軸O1が第2ターゲットの中心を通過する状態である。第2ターゲットは、例えば器械高計測用ターゲットや測量鋲である。
 図2及び図3に示すように、本体部6は、整準部2により鉛直軸周りに回転可能に支持されている。本体部6は、整準部2に対して鉛直軸周りに回転可能に構成されている。本体部6は、整準部2の上方に位置している。本体部6は、撮像部7を水平軸周りに回転可能に支持している。本体部6は、支柱部である。本体部6は、托架部である。本体部6は、第1表示部18と、第2表示部19と、水平角操作部23と、鉛直角操作部24と、把持部25と、第3撮像部14(図4参照)とを含んでいる。
 第1表示部18及び第2表示部19は、画像やオブジェクトを表示する表示機能を有している。一例として、第1表示部18及び第2表示部19は、各表示部の表示面に、撮像部7が生成した画像データに基づく画像や観測データに基づく情報を表示する。一例として、第1表示部18及び第2表示部19は、液晶ディスプレイ、有機ELディスプレイである。一例として、第1表示部18は、反側に配置されている。一例として、第1表示部18は、例えば反観測を行う場合に利用される。第2表示部19は、正側に配置されている。一例として、第2表示部19は、正観測を行う場合に利用される。一例として、第1表示部18及び第2表示部19は、ユーザによる操作を受け付ける操作部としての機能を有している。この場合、第1表示部18及び第2表示部19は、静電容量式のタッチパネルや感圧式のタッチパネル等により構成されている。一例として、第1表示部18は、水平軸周り又は鉛直軸周りに回転可能である。一例として、第2表示部19は、水平軸周り又は鉛直軸周りに回転可能である。一例として、第2表示部19は、鉛直方向の傾斜変更が可能である。
 水平角操作部23は、本体部6を水平方向に回転するためにユーザにより操作される部材である。ユーザにより水平角操作部23が操作されると、本体部6及び撮像部7はともに水平方向に回転する。鉛直角操作部24は、撮像部7を鉛直方向に回転するためにユーザにより操作される部材である。水平角操作部23及び鉛直角操作部24は、例えばノブである。把持部25は、例えば測量機1を持ち運ぶ際にユーザが把持するための部材である。把持部25は、例えばキャリングハンドルである。把持部25は、例えば本体部6の上面に固定されている。
 図4に示すように、第3撮像部14は、第3対物レンズ10を含む第3光学系と、第3撮像素子とを含んでいる。第3光学系は、第2ターゲットからの光を第3撮像素子に導く。第3撮像素子は、第2ターゲットを撮像して、画像データを生成する。第3撮像部14は、測量機1の下方を撮像して、画像データを生成する。第3撮像部14は、鉛直軸O1を含む下方を撮像して、画像データを生成する。一例として、第3撮像素子は、CCDやCMOSで構成されている。第3撮像部14で生成された画像データは、画像処理部33に出力される。一例として、第3撮像部14は、ユーザが測量機1を整準したり求心したりする場合に、測量機1の下方の画像を第1表示部18や第2表示部19に表示させるための画像データを生成する。第3撮像部14は、本体部6に固定されている。一例として、第3撮像部14は、求心カメラである。一例として、第3撮像部14は、求心望遠鏡である。
 撮像部7は、本体部6によって水平軸周りに回転可能に支持されている。撮像部7は、水平軸O2周りに回転可能に構成されている。撮像部7は、整準部2に対して鉛直軸O1周りに回転可能に構成されている。撮像部7は、鉛直軸O1周りに回転可能であり、且つ、水平軸O2周りに回転可能である。撮像部7は、ユーザにより水平角操作部23が操作された操作量に応じて、水平方向に回転する。撮像部7は、ユーザにより鉛直角操作部24が操作された操作量に応じて、鉛直方向に回転する。
 撮像部7は、第1撮像部11と、第2撮像部12とを備えている。一例として、第1撮像部11及び第2撮像部12は、CCDやCMOSで構成されている。第1撮像部11及び第2撮像部12で生成された画像データは、画像処理部33に出力される。一例として、第1撮像部11及び第2撮像部12は、視準する場合に、第1ターゲットを含む視野の画像を第1表示部18や第2表示部19に表示させるための画像データを生成する。一例として、プリズム方式の場合、第1撮像部11及び第2撮像部12は、測量対象物である第1ターゲットを撮像する。一例として、ノンプリズム方式の場合、第1撮像部11及び第2撮像部12は、構造物の外観を構成する測定面を測定する。第1撮像部11及び第2撮像部12が撮像する視野は、第3撮像部14が撮像する視野とは異なり、第3撮像部14が撮像する視野とは重複しない。
 第1撮像部11は、第1対物レンズ8を含む第1光学系と、第1撮像素子とを含んでいる。第1光学系は、撮像視野内の光(例えば第1ターゲットからの光を含む)を第1撮像素子に導く。一例として、第1撮像部11は、望遠カメラである。一例として、第1撮像部11は、視準カメラである。一例として、第1撮像部11は、視準望遠鏡である。一例として、第1撮像部11は、望遠カメラである。一例として、第1撮像部11は、第1画角を有する。一例として、第1撮像部11は、第1視野を有する。
 第2撮像部12は、第2対物レンズ9を含む第2光学系と、第2撮像素子とを含んでいる。第2光学系は、撮像視野内の光(例えば第1ターゲットからの光を含む)を第2撮像素子に導く。第2対物レンズ9は、第1対物レンズ8とは別個に備えている。一例として、第2対物レンズ9は、撮像部7において第1対物レンズ8が配置されている面と同じ面に配置されている。一例として、第2対物レンズ9は、第1対物レンズ8と鉛直方向に並んで配置されている。一例として、第2対物レンズ9の光軸は、第1対物レンズ8の光軸と平行である。第2撮像部12は、第1撮像部11の第1画角より広い第2画角を有する。第1撮像部11の第1画角は、第2撮像部12の第2画角より狭い。第2撮像部12の第2視野角は、第1撮像部11の第1視野角より広い。第1撮像部11の第1視野角は、第2撮像部12の第2視野角より狭い。一例として、第2撮像部12は、視準する場合に第1ターゲットを含み第1視野よりも広い第2視野の画像を第1表示部18や第2表示部19に表示させるための画像データを生成する。一例として、第2撮像部12は、広角カメラである。一例として、第2撮像部12は、広角望遠鏡である。
 視準とは、対物レンズをターゲットに向けて、視準軸をターゲットの中心に一致させることである。視準軸は、対物レンズの光学的な中心点を通り、水平軸に垂直に交差する軸である。視準軸は、第1撮像部11の第1対物レンズ8の光学的な中心点を通り、水平軸O2に垂直に交差する軸である。視準軸は、セオドライトの対物レンズの中心を通り水平軸と直交する軸である。視準軸は、第1対物レンズ8の光軸と一致している。視準した測量機1は、第1対物レンズ8を第1ターゲットに向けて、測量機1の第3軸である視準軸O3が第1ターゲットの中心に一致した状態である。視準軸において測量機1内部から測量機1外部に向かう方向を視準方向と呼ぶ場合がある。
 〔測量機のシステム構成〕
 図5は、測量機1のシステム構成を示すブロック図である。
 測量機1は、第1撮像部11及び第2撮像部12を含む撮像部7と第3撮像部14とを備えている。測量機1は、測距部13と、水平角駆動部15と、送光部16と、鉛直角駆動部17と、第1表示部18と、第2表示部19と、通信部20と、水平角操作部用エンコーダ21と、鉛直角操作部用エンコーダ22と、水平角操作部23と、鉛直角操作部24と、水平角測角部31と、鉛直角測角部32と、画像処理部33と、一時記憶部34と、記憶部35と、操作部36と、制御部40と、傾き検出部37とを備えている。
 第1撮像部11及び第2撮像部12は、制御部40により設定された撮像条件(ゲイン、蓄積時間(シャッタ速度)等)に基づいて撮像して生成した画像データを画像処理部33に出力する。第1撮像部11及び第2撮像部12は、撮像して生成した画像データに基づく画像の明るさが適正となるよう制御部40により適正露出が自動的に設定される。第1撮像部11及び第2撮像部12は、制御部40により自動露出機能が実行される。第1撮像部11における第1光学系は、制御部40によるフォーカス調節指示に応じてフォーカスレンズ駆動部がフォーカスレンズの位置を光軸方向に沿って変更可能に構成されている。第3撮像部14は、制御部40により設定された撮像条件(ゲイン、蓄積時間(シャッタ速度)等)に基づいて撮像して生成した第3画像データを画像処理部33に出力する。第1撮像部11は、オートフォーカス部11aを備えている。
 画像処理部33は、第1撮像部11、第2撮像部12及び第3撮像部14から出力された画像データに対して画像処理を施す。画像処理部33で画像処理が施された画像データは、一時記憶部34に記憶される。例えばライブビュー動作時において、第1撮像部11や第2撮像部12、第3撮像部14が連続して撮像した場合、順次出力される画像データは、一時記憶部34に順次記憶される。
 一時記憶部34は、画像データを一時的に記憶する。一例として、一時記憶部34は、揮発性メモリである。一例として、一時記憶部34は、RAM(Random Access Memory)である。
 画像処理部33で施される画像処理は、表示用画像データを生成する処理、圧縮した画像データを生成する処理、記録用画像データを生成する処理、画像データに基づく画像から一部切り出すことで電子的に画像を拡大する(デジタルズーム)処理等が挙げられる。画像処理部33により生成された表示用画像データは、制御部40の制御により第1表示部18や第2表示部19に表示される。
 なお、測量機1は、視準用接眼光学系や求心用接眼光学系を備えていてもよいし、備えていなくてもよい。
 画像処理部33により生成された記録用画像データは、通信部20を介して外部メモリに記録される。一例として、外部メモリは、不揮発性メモリである。一例として、外部メモリは、フラッシュメモリやハードディスクや光ディスクである。
 測距部13は、測量部であり、一例として、発光素子とダイクロイックミラーと受光素子とを備える光波距離計として構成されている。一例として、発光素子は、パルスレーザダイオード(PLD)等のレーザダイオード、赤外発光ダイオード等の発光ダイオードである。一例として、測距部13は、発光素子が出射する測距光を、ダイクロイックミラーによって第1対物レンズ8と同軸の光線として測量対象物である第1ターゲット(例えば反射プリズムや構造物の外観を構成する測定面)に向けて送光する。測量対象物で反射された光は、再び第1対物レンズ8に戻り、ダイクロイックプリズムで測距光と分離され、受光素子へ入射する。測量対象物までの距離は、発光素子から測距部13内部で受光素子に入射する参照光と、測量対象物からの測距光との時間差から算出される。なお、測距部13は、位相差に基づいて測量対象物までの距離を算出する位相差測距方式であってもよい。
 送光部16は、第1ターゲットに対して送光し第1ターゲットを照射する。一例として、送光部16は、測距部13の発光ダイオードである。一例として、送光部16と測距部13は、同一の発光ダイオードを兼用する。送光部16は、第1対物レンズ8と同軸の光線を第1ターゲットに向けて送光する。一例として、送光部16は、測距部13とは別に設けられた発光ダイオードである。
 水平角測角部31は、視準軸O3の水平方向の回転角度(鉛直軸O1周りの角度)を検出する。水平角測角部31は、検出した回転角度に対応する信号を制御部40に出力する。水平角測角部31は、一例として、エンコーダにより構成されている。水平角測角部31は、一例として、光学式アブソリュート形ロータリエンコーダにより構成されている。水平角測角部31は、水平角を検出する角度検出部である。
 鉛直角測角部32は、視準軸O3の鉛直(高低)方向の回転角度(水平軸O2周りの角度)を検出する。鉛直角測角部32は、検出した角度に対応する検出信号を制御部40に出力する。鉛直角測角部32は、一例として、エンコーダにより構成されている。鉛直角測角部32は、一例として、光学式アブソリュート形ロータリエンコーダにより構成されている。鉛直角測角部32は、鉛直角を検出する角度検出部である。
 水平角操作部用エンコーダ21は、水平角操作部23の回転角度を検出する。水平角操作部用エンコーダ21は、検出した回転角度に対応する信号を制御部40に出力する。
 水平角駆動部15は、整準部2に対して本体部6を鉛直軸O1周りに回転駆動する。水平角駆動部15が整準部2に対して本体部6を鉛直軸O1周りに回転駆動することで、撮像部7は、整準部2に対して鉛直軸O1周りに回転する。一例として、水平角駆動部15は、モータで構成されている。
 一例として、水平角駆動部15は、ユーザにより第1表示部18や第2表示部19のタッチパネルがタッチされた位置に基づき制御部40が算出した駆動量に応じて、整準部2に対して本体部6を鉛直軸O1周りに回転駆動する。
 一例として、水平角駆動部15は、欠陥画像表示制御装置50や遠隔操作装置等の外部機器から回転駆動指示を受け付けた場合、外部機器から受け付けた回転駆動指示に基づき制御部40が算出した駆動量に応じて、整準部2に対して本体部6を鉛直軸O1周りに回転駆動する。
 一例として、水平角駆動部15は、水平角操作部23が操作された場合、整準部2に対して本体部6を測量機1の鉛直軸O1周りに回転駆動する。
 鉛直角操作部用エンコーダ22は、鉛直角操作部24の回転角度を検出する。鉛直角操作部用エンコーダ22は、検出した回転角度に対応する信号を制御部40に出力する。
 鉛直角駆動部17は、本体部6に対して撮像部7を水平軸O2周りに回転駆動する。鉛直角駆動部17は、例えばモータで構成されている。
 一例として、鉛直角駆動部17は、ユーザにより第1表示部18や第2表示部19のタッチパネルがタッチされた位置に基づき制御部40が算出した駆動量に応じて、本体部6に対して撮像部7を水平軸O2周りに回転駆動する。
 一例として、鉛直角駆動部17は、外部機器から回転駆動指示を受け付けた場合、外部機器から受け付けた回転駆動指示に基づき制御部40が算出した駆動量に応じて、本体部6に対して撮像部7を水平軸O2周りに回転駆動する。
 一例として、鉛直角駆動部17は、鉛直角操作部24が操作された場合、本体部6に対して撮像部7を水平軸O2周りに回転駆動する。
 通信部20は、外部機器である欠陥画像表示制御装置50との通信を行う。通信部20は、外部機器とのデータ入出力を行うインタフェースである。通信部20として、例えば、ActiveSync規格の通信用インタフェースや、USB(Universal Serial Bus)規格の通信用インタフェースや、Bluetooth(登録商標)規格の無線通信用インタフェースや、RS-232Cシリアル通信規格の通信用インタフェースが挙げられる。通信部20は、測量機1で撮像された画像データや位置データを欠陥画像表示制御装置50に対して送信し、また、欠陥画像表示制御装置50から送信された測量機1を制御する指示信号を受信する。
 記憶部35は、測量機1の動作に必要なプログラムやパラメータ、工事の基礎となる設計データ等を記憶する。記憶部35は、プログラム、パラメータ及び設計データを測量機1の非動作時にも失われないように格納する。記憶部35は、一例として、不揮発性メモリやハードディスクである。一例として、記憶部35は、ROM (Read Only Memory)である。一例として、記憶部35は、測量機1が撮像した測定面の画像データを保存する。一例として、記憶部35は、グローバル座標系で作成された地図データを記憶する。一例として、記憶部35は、欠陥検出プログラムや欠陥編集プログラムを保存する。欠陥検出プログラムや欠陥編集プログラムは、測量機1で実行することもできる。記憶部35は、傾き検出部37により検出された測量機1の鉛直軸の傾き状態(傾斜データ)を記憶する。記憶部35に記憶されている傾斜データは、例えば欠陥画像表示制御装置50に送信され、測量機1で撮像して生成された画像データに対して欠陥画像表示制御装置50がオルソ補正処理を施す際に使用される。欠陥画像表示制御装置50は、測量機1で撮像して生成された画像データに対して、測量機1の鉛直軸の傾き状態に基づいてオルソ補正処理を施す。
 操作部36は、一例として、筐体に配置された押ボタン、ボリュームスイッチ、スライドスイッチ等の機械的な操作部材である。操作部36は、一例として、第1表示部18や第2表示部19の表示部の表示面に配置されたタッチパネルである。機械的な操作部材は、ユーザにより操作されると、各操作部材に関連付けられた機能を実行する指示信号を制御部40に出力する。また、タッチパネルは、表示されたオブジェクトがタッチされたとき、オブジェクトに定義づけられた機能を実行する指示信号を制御部40に出力する。
 制御部40は、測量機1の全体の動作を制御する。
 一例として、制御部40は、操作部36や外部機器からの指示信号に従って、整準部2に対して本体部6を鉛直軸O1周りに回転駆動する。一例として、制御部40は、ユーザにより水平角操作部23が操作されたことに応じて、整準部2に対して本体部6を鉛直軸O1周りに回転駆動する。一例として、制御部40は、操作部36や外部機器からの指示に従って、本体部6に対して撮像部7を水平軸O2周りに回転駆動する。一例として、制御部40は、ユーザにより鉛直角操作部24が操作されたことに応じて、本体部6に対して撮像部7を水平軸O2周りに回転駆動する。
 一例として、制御部40は、第1撮像部11及び第2撮像部12を動作して、設定された撮像条件に基づいて、第1ターゲットである反射プリズムや構造物の外観を構成する測定面を撮像し、撮像して生成した画像データを画像処理部33に出力する。
 一例として、制御部40は、欠陥画像表示制御装置50から駆動指示信号が入力されると、指示信号に従って、第1撮像部11(オートフォーカス部11aを含む)、第2撮像部12、第3撮像部14、撮像部7、水平角駆動部15、鉛直角駆動部17等を駆動する。
 一例として、制御部40は、欠陥画像表示制御装置50に対して撮像部7が生成した画像データや観測データを通信部20から出力する。
 〔欠陥画像表示制御装置のシステム構成〕
 図6は、欠陥画像表示制御装置50のシステム構成を示すブロック図である。
 欠陥画像表示制御装置50は、制御部51と、表示部52と、操作部53と、記憶部54と、通信部55とを備えている。
 制御部51は、コンピュータと同様な構成を有しており、CPU51a、ROM51b及びRAM51cがバスを介して相互に接続されている。一例として、制御部51は、記憶部54を構成するハードディスク等にインストールされた欠陥検出プログラム54aを実行する。また、一例として、制御部51は、表示部52に画像等を表示させる表示制御部として機能する。制御部51は、撮像部7が生成した画像データに基づく画像や観測データに基づく情報を表示部52に表示させる。一例として、制御部51は、構造物の外観を構成する測定面の画像を表示部52に表示させる。一例として、制御部51は、外観画像データに含まれる構造物の欠陥を検出する欠陥検出部として機能する。制御部51は、外観画像データに対応づけられた座標データを用いて、欠陥検出部により検出された欠陥に関する欠陥データを算出する算出部として機能する。また、欠陥編集プログラム54bを実行することにより、外観画像データを表示し、欠陥検出プログラム54aで検出された欠陥データに対して、新たに視認した欠陥データを追加し、また、検出された欠陥データを修正する。一例として、制御部51は、測量機1に対して、第1撮像部11、第2撮像部12、第3撮像部14、撮像部7、水平角駆動部15、鉛直角駆動部17等を駆動する指示信号を通信部55を介して出力する。
 表示部52は、画像やオブジェクトを表示する表示機能を有している。一例として、表示部52は、液晶ディスプレイ、有機ELディスプレイ、CRTである。一例として、表示部52は、表示部の表示面に、第1撮像部11や第2撮像部12が生成した画像データに基づく画像や観測データに基づく情報を表示する。
 操作部53は、一例として、キーボードであり、マウスであり、表示部52の表示面に配置されたタッチパネルである。操作部53は、表示部52に表示されたオブジェクトを選択することによって、オブジェクトに定義づけられた機能を実行する指示を制御部51に出力する。一例として、マウスは、右クリックボタンと、左クリックボタンと、ホイールとを備えている。一例として、左クリックボタンは、クリックすることで、マウスカーソルの位置を選択(又は確定)することができ、右クリックボタンは、クリックすることで、メニューボックスをマウスカーソルの位置にポップアップ表示することができる。一例として、ホイールは、回転させることによって、表示された画像を拡大し、縮小することができる。また、タッチパネルの場合、指やスタイラスペン等によって表示面をなぞることで、カーソルの位置を移動させたりすることができ、また、表示面に対してタッチすることで、カーソル位置を選択(又は確定)することができる。
 一例として、欠陥編集プログラム54bを実行している場合において、表示された外観画像に含まれる欠陥の位置で左クリックボタンがクリックされると、制御部51は、当該位置を欠陥の位置として確定する。また、欠陥の位置で右クリックボタンがクリックされると、制御部51は、メニューボックスをポップアップ表示し、メニューボックス内に表示された複数の選択候補値の中から選択された1つの候補値を欠陥の欠陥幅データとする。さらに、ホイールが回転されたとき、制御部51は、回転方向と回転量に応じた拡大率又は縮小率で表示部52に表示されている外観画像を拡大又は縮小する。
 記憶部54は、プログラムやパラメータ等を測量機1の非動作時にも失われないように格納する。一例として、記憶部54は、不揮発性メモリやハードディスクである。一例として、記憶部54は、欠陥検出プログラム54a、工事の基礎となる設計データ等を記憶する。一例として、記憶部54は、構造物の外観を構成する測定面の画像データを記憶する。一例として、記憶部54は、グローバル座標系で作成された地図データを記憶する。一例として、記憶部54には、欠陥検出プログラム54aに従って、記録フォルダが作成される。記録フォルダには、欠陥検出プログラム54aに従って測量機1で撮像された測定範囲の複数の外観画像データ等が保存される。
 通信部55は、測量機1の通信部20と通信をする。一例として、通信部55は、測量機1で撮像され画像データや位置データを受信し、また、測量機1を制御する指示信号を出力する。一例として、通信部55は、ワイドエリアネットワークやローカルエリアネットワーク等のネットワークを介して外部機器と通信する。一例として、通信部55は、外部のサーバ装置と通信する。一例として、通信部55は、工事の基礎となる設計データを格納した管理サーバ装置から設計データを受信する。一例として、通信部55は、管理サーバ装置に対して、構造物の外観を構成する測定面の画像データを送信する。
 〔構造物の欠陥検出の概要〕
 図7(a)は、測定面と測定範囲の関係を示す図である。
 欠陥検出では、測定対象となる構造物の外観が平面で構成された鉛直面の場合は少なくとも任意の2点を観測(視準、測距及び測角)して得られた観測データ(測距部13で測距して得られた測距データ、水平角測角部31で測角して得られた水平角データ及び鉛直角測角部32で測角して得られた鉛直角データ)から測定面61を定義する。測定対象となる構造物の外観が平面で構成された斜面の場合は少なくとも任意の3点を観測して得られた観測データから測定面61を定義する。測定面61を定義するとき、第2撮像部12で撮像して生成された画像データに基づく画像を第1表示部18及び第2表示部19に表示したり、送光部16から送光したりすることで、ユーザは測量機1が構造物のどこを観測しようとしているのかを把握することが可能となる。
 測定範囲62は、構造物における少なくとも任意の2点について測角(水平角及び鉛直角を測定)することで設定される。測定面61の定義を行った後に測定範囲62の設定を行う場合、測定範囲62の設定は、測定面61を定義しているため、構造物の少なくとも任意の2点を測距することなく測角するだけでも可能となる。測定面61の定義を行った後に測定範囲62の設定を行う場合、測定範囲62の設定は、構造物の少なくとも任意の2点について、測距部13で測距して得られた測距データ、水平角測角部31で測角して得られた水平角データ及び鉛直角測角部32で測角して得られた鉛直角データのうち、測距部13で測距して得られた測距データを用いることなく、水平角測角部31で測角して得られた水平角データ及び鉛直角測角部32で測角して得られた鉛直角データを用いるだけで可能となる。
 測定面61を定義するときに観測する2点と、測定範囲62を設定するときに測角する2点は、少なくとも一方が異なる観測点でもよいし、同じ観測点でもよい。
 図7(b)は、測定面と測定範囲と撮像範囲の関係を示す図である。測量機1は、設定した測定範囲62すべての外観画像データを得るために、第1撮像部11による撮像を順次行い、第1画角の撮像範囲63の外観画像データを順次生成する。測定面61が既に定義されていることで、デジタル画像である外観画像データに基づく外観画像の任意の画素の位置は、撮像時に視準した観測点からの角度を変換することによって座標データで特定することができる。各外観画像データに対しては、欠陥の検出が行われる。検出された欠陥の位置は、欠陥データである座標データで特定される。一例として、外観画像データの位置データや欠陥の位置等を示す欠陥データは、グローバル座標データである。撮像された測定範囲62における各外観画像データは、オルソ補正処理が行われ、次いで、スティッチング処理が行われ、記憶部54等に保存される。また、オルソ補正処理が行われた各外観画像データが記憶部54等に保存される。
 図8は、構造物の欠陥検出の手順を示すフローチャートである。
 ステップS1において、欠陥画像表示制御装置50の制御部51は、測量機1のリモート制御を開始し、測量機1は、構造物の測定面61等を視準する。一例として、制御部51は、測量機1の制御部40を介して、第1撮像部11、及び、第2撮像部12の画角の切り替え、撮像、測距、オートフォーカス、マニュアル露出、ホワイトバランス、送光部16のオンオフ切り替え等を行うことができるようになる。一例として、制御部51は、測角値や整準状態を表示部52に表示させる。
 ステップS2において、制御部51は、記憶部54に外観画像データを保存する記録フォルダを作成する。
 ステップS3において、測量機1は、制御部51の制御に従って、トライアルメジャーを行う。一例として、トライアルメジャーでは、ユーザがこれから欠陥検出したいと考える構造物の外観に現れた欠陥を含むように測量機1の第1撮像部11又は第2撮像部12で撮像する。一例として、欠陥は、第1撮像部11又は第2撮像部12で撮像して生成された外観画像データを欠陥画像表示制御装置50で画像解析することによって検出される。制御部51は、第1撮像部11又は第2撮像部12で撮像して生成された外観画像データに基づく外観画像を表示部52に表示させる。ユーザは、表示部52に表示された外観画像を見て、操作部53を操作し、制御部51は、制御部40を介して、第1撮像部11の感度、露出等を調整し、第1撮像部11の設定を、外観画像の中から欠陥を検出できる設定とする。一例として、トライアルメジャーは、複数の場所で行う。一例として、測量機1は、トライアルメジャーの結果、発見された測定環境の良い場所で器械設置される。
 ステップS4において、測量機1の器械設置が行われる。図9は、器械設置を説明する図である。一例として、器械設置では、第3撮像部14で第2ターゲットを撮像して測量機1の整準及び求心をする。一例として、測量機1は、制御部51の制御に従って、既知点2点A1(X1,Y1,Z1),A2(X2,Y2,Z2)それぞれを測角及び測距する。図9に示すように、器械設置により、測量機1は、グローバル座標64上の測量機1の位置を示す座標値((X,Y,Z)=(Xi,Yi,Zi))と、図示されない水平角の基準方向を決定する方向角とを算出することで、グローバル座標64上に設置される。
 一例として、トライアルメジャーは、器械設置の前に行われる。一例として、トライアルメジャーは、器械設置の後に行われる。一例として、トライアルメジャーと器械設置の順番は、欠陥画像表示制御装置50を用いてユーザが設定する。ユーザがトライアルメジャーと器械設置の順番を設定する場合は、一例として、表示部52にトライアルメジャーと機器設置を選択するためのオブジェクトを表示させ、操作部53で選択させる。器械設置は、手間のかかる作業であるので、トライアルメジャーの後に行うことが好ましい。
 ステップS5において、測量機1は、制御部51の制御に基づいて、測定面61を定義する。一例として、測量機1は、構造物の外観(例えば壁面)の少なくとも任意の2点について測角及び測距を行い、任意の2点を含む面を測定面61として定義する。測量機1は、器械設置によりグローバル座標64における測量機1の位置を特定し、測定面61を定義することで、測定面61のいずれの観測点もグローバル座標で特定することができる。
 図10は、測定面61の定義により特定可能なデジタル画像上の任意の画素の位置データを説明する図である。
 上述したように、測定面61の定義がされることで、測量機1が撮像した撮像範囲63における任意の画素(P)は、測量機1が十字形状を有したレチクルの中心が示す観測点Oの角度(HA,VA)を算出し、画素(P)の観測点Oからの角度をグローバル座標データに変換することができる。これにより、外観画像データにおける各画素の位置は、各画素に対して角度観測を行った場合と同じように、位置データであるグローバル座標データで特定することができる。一例として、第1撮像部11の第1撮像素子が1920画素×1080画素を有する場合、デジタル画像は、第1撮像素子が有する画素数に応じた精度で位置を特定することができる。
 なお、測定面61の定義方法についての詳細は後述する。
 ステップS6において、測量機1は、制御部51の制御に基づいて、定義された測定面61内において、構造物の欠陥検出を行う測定範囲62を指定する。
 なお、測定範囲62の定義についての詳細は後述する。
 ステップS7において、測量機1は、制御部51の制御に従って、水平角駆動部15を駆動して撮像部7を鉛直軸O1周りに回転駆動し、鉛直角駆動部17を駆動して撮像部7を水平軸O2周りに回転駆動する。測量機1は、制御部51の制御に従って、測定範囲62の自動測定を行う。測量機1は、撮像毎に視準方向を変えながら、測定範囲62を第1撮像部11で順次撮像する。欠陥画像表示制御装置50には、順次撮像された外観画像データが位置データと共に入力される。制御部51は、測量機1から入力された外観画像データについて、欠陥を検出する。
 なお、第1撮像部11の自動測定についての詳細は後述する。
 ステップS8において、欠陥画像表示制御装置50では、ステップS7で撮像された外観画像データを再度表示し、欠陥の編集を行うことができる。ユーザは、外観画像が表示部52に表示されることで、欠陥が正確に検出されているかを目視確認することができる。そして、欠陥が検出されていない箇所があるときは、欠陥を追加する処理を行い、検出した欠陥が画像中の欠陥とずれているときは、当該欠陥を修正し、一致させる変更処理を行う。
 〔測定面の定義(ステップS5)〕
 測定面の定義方法を、測定対象となる構造物の外観が平面で構成された鉛直面である場合を例に説明する。図11に示すように、鉛直面の測定面61の定義方法は、鉛直の測定面61上の測定面61内の任意の2つの観測点P1,P2を、第2撮像部12で撮像しながら、例えば送光部16を用いて指定し、観測点P1,P2の測角及び測距による観測を行う。測量機1は、制御部51の制御に従って、視準、測距を行った任意の観測点P1,P2を含む鉛直面を測定面61として定義する。
 〔測定範囲の定義(ステップS6)〕
 図12(a)に示すように、測定範囲62を含む測定面61が鉛直面の場合、測量機1は、制御部51の制御に従って、第2撮像部12で撮像しながら、送光部16を用いて、測定面61内の任意の2つの観測点P3,P4を指定し、各観測点P3,P4について、測角を行う。この測角位置は、測定面61が定義されていることで、グローバル座標データとして算出される(P3(X3,Y3,Z3)、P4(X4,Y4,Z4))。測定範囲62は、単に指定された観測点P3,P4によって指定された範囲ではなく、定義された測定面61に投影された範囲となる。測定範囲62が測量機1と正対している場合、測定範囲62は、観測点P3、P4を対角とした長方形となる。
 図12(b)に示すように、測定範囲62が測量機1と正対していない場合には、測定した角度のみから単純にP3、P4の範囲の長方形65とすると、一部観測できない領域66aが発生する。長方形65には、測定範囲62に含まれない不要な領域66bも発生する。測量機1は、制御部51の制御に従って、定義した測定面61に投影した測定範囲62aを計算により求め設定する。この測定範囲62aは、測量機1に対して遠い側の辺が測量機1に対して近い側の辺に対して短い四角形となる。
 一例では、測定面61を定義する際に指定した任意の観測点P1,P2をそのまま測定範囲を指定するための観測点P3,P4として用いることもできる。
 測定範囲62は、長方形形状が1つだけの場合に限定されない。測定範囲62は、複数であってもよく、2つ以上に追加することも可能であり、また、指定した測定範囲の一部の範囲を除外することも可能である。
 〔自動測定(ステップS7)〕
 設定した測定範囲62の大きさによっては、第1撮像部11による1回の撮像では設定した測定範囲62をすべてカバーすることができないことがある。一例として、測量機1は、制御部51の制御に従って、撮像範囲が重複するように、且つ、重複する領域が不必要に大きくならないように、水平角駆動部15及び鉛直角駆動部17を駆動制御する。測量機1は、制御部51の制御に従って、測定範囲62の全体を撮像する。
 図13は、測量機1の水平軸周りの回転駆動の範囲を説明する図である。測量機1の鉛直角駆動部17による水平軸O2周りの回転駆動は、次のように制御される。
 一例として、測定面61が例えば鉛直面である場合は、概ね、鉛直角が45°以上、135°以下の範囲で撮像部7が水平軸O2周りに回転駆動される。また、測定面61が例えば鉛直面である場合は、概ね、鉛直角が225°以上、315°以下の範囲で撮像部7が水平軸O2周りに回転駆動される。
 鉛直角とは、水平軸O2周りにおける撮像部7の回転角で、測量機1の視準方向が天頂を向いているときを0°、水平を向いているときを90°として示す角度である。
 図14は、ステップS7で示した自動測定の詳細な手順を説明するフローチャートである。
 ステップS11において、測量機1は、制御部51の制御に従って、測定範囲62内の撮像領域を順次撮像できるように、水平角駆動部15及び鉛直角駆動部17を制御し、撮像部7を回転する。そして、測量機1は、制御部51の制御に従って、測定範囲62内において、現在の撮像領域を撮像した後、隣接する撮像領域に順次移動し、第1撮像部11で測定範囲62の全ての領域を自動測定する。
 なお、測量機1の自動測定についての詳細は後述する。
 ステップS12において、測量機1は、制御部51の制御に従って、各撮像領域との距離を計算する。ステップS13において、測量機1は、制御部51の制御に従って、第1撮像部11のオートフォーカス制御を行う。オートフォーカス制御では、第1撮像部11における第1光学系を構成するフォーカスレンズを、制御部40によるフォーカス調節指示に応じて光軸方向に沿って変位し、光を第1撮像素子上に合焦させる。
 一例として、オートフォーカス制御は、測定点のグローバル座標データと測量機1の位置を示すグローバル座標データから観測点と測量機1との距離を計算し、計算した距離に基づいてフォーカスレンズを光軸方向に沿って変位する。
 一例として、オートフォーカス制御は、測距部13で、測量機1と観測点との距離を測距して、測距した距離に基づいてフォーカスレンズを光軸方向に沿って変位する。
 一例として、オートフォーカス制御は、フォーカスレンズをコントラストが最大となる位置に変位させるコントラスト方式で行う。
 測定面61は、コンクリート壁面であることが多く、コントラストを検出しにくい。オートフォーカス制御は、ステップS12で測距した距離に基づいて行う方式が好ましい。
 ステップS14において、測量機1は、制御部51の制御に従って、測定範囲62における第1画角の各撮像範囲63を撮像する。測量機1は、制御部51の制御に従って、各撮像範囲63のレチクルの中心が示す観測点Oの角度(HA,VA)を算出する。測量機1は、制御部51の制御に従って、撮像した外観画像データの各画素のグローバル座標データを、観測中心の観測点Oからの角度を変換することによって算出する。これにより、撮像範囲63の全ての画素がグローバル座標データに変換される。
 一例として、測量機1は、外観画像データの中に欠陥が検出されると、欠陥の始点と終点の画素を、位置データとしての観測中心の観測点Oからの角度を変換することによって算出する。
 測量機1は、グローバル座標データにより画素の位置が特定された外観画像データを、欠陥画像表示制御装置50に送信する。制御部51は、表示部52に、順次、外観画像データに基づく外観画像を表示させる。
 一例として、測量機1は、撮像した各外観画像データの位置データとして、全ての画素のグローバル座標データを算出し、欠陥画像表示制御装置50に出力する。
 ステップS15において、測量機1は、制御部51の制御に従って、オルソ補正処理を行うため、撮像した外観画像の4隅の座標データを算出する。4隅の座標データは、各外観画像データにおける4隅の画素の座標データである。
 ステップS16において、制御部51は、撮像した外観画像データのそれぞれについて、欠陥の検出を行い、欠陥の位置、長さ及び幅を測定する。
 なお、欠陥の検出についての詳細は後述する。
 ステップS17において、制御部51は、各外観画像データのオルソ補正処理を行う。一例として、制御部51は、外観画像データにオルソ補正処理を施すオルソ補正処理部として機能する。
 ステップS18において、制御部51は、各外観画像データを繋ぎ合わせるスティッチング処理を行う。一例として、制御部51は、オルソ補正処理が施された第1外観画像データとオルソ補正処理が施された第2外観画像データとを繋ぎ合わせるスティッチング処理を施すスティッチング処理部として機能する。
 なお、オルソ処理とスティッチング処理についての詳細は後述する。
 測定面61である壁面が鉛直面である場合は、概ね、鉛直角が45°以上、135°以下の範囲で撮像部7が水平軸O2周りに回転駆動される。また、測定面61である壁面が鉛直面である場合は、概ね、鉛直角が225°以上、315°以下の範囲で撮像部7が水平軸O2周りに回転駆動される。
 図15は、鉛直面の測定範囲62をタイル状に自動測定する状態を説明する図である。
 一例として、測定範囲62は、長方形である。一例として、測定範囲62の内側には、測定の除外領域を有していない。測量機1は、制御部51の制御に従って、測定範囲62より広い長方形の全撮像範囲71を、第1撮像部11を用いて撮像する。自動測定では、第1画角の第1撮像部11を用いる。第1撮像部11は、全撮像範囲71内を、第1画角の撮像領域72の大部分が重ならないように撮像する。一例として、各撮像領域72は、外縁を含む外縁領域が隣接する撮像領域72と重複する重複領域70を有する。各撮像領域72は、一例として、同じ大きさの長方形である。各撮像領域72は、一例として、同じ大きさの正方形でもよい。測量機1は、撮像領域72がタイル状に並ぶように、全撮像範囲71を撮像する。一例として、測量機1は、全撮像範囲71内において、第1撮像部11をS字状に移動させて、全撮像範囲71を撮像する。撮像開始は、S字形状のルートの何れの端部であってもよい。一例として、測量機1は、全撮像範囲71を、連続して撮像できるルートで順次撮像する。一例として、測量機1は、全撮像範囲71を、水平角駆動部15及び鉛直角駆動部17による撮像部7の移動量が最少となるルートで順次撮像する。一例として、測量機1は、現在の撮像領域72に対して次に撮像する撮像領域72を、現在の撮像領域72に対して隣接する撮像領域72とする。
 図16は、欠陥の検出及び測定をする手順を示すフローチャートである。
 ステップS21において、測量機1は、制御部51の制御に従って、測定範囲62における各撮像領域72を撮像する。一例として、測量機1は、制御部51の制御に従って、各撮像領域72を撮像する際、測量機1が十字形状を有したレチクルの中心が示す観測点の角度(HA,VA)を算出し、中心の観測点からの角度(HA,VA)を変換することによって、各画素のグローバル座標データを算出する。測量機1は、位置データとして、撮像した外観画像データ、及び、画素に対応づけられたグローバル座標データを欠陥画像表示制御装置50に送信する。測量機1から送信された外観画像データやグローバル座標データ(位置データ)は、制御部51により記憶部54(例えばステップS2で作成された記録フォルダ)に保存される。
 ステップS22において、欠陥画像表示制御装置50の制御部51は、表示部52に、外観画像データに基づく外観画像を順次表示させる。図17(a)は、欠陥81を有する外観画像の一例を示している。
 制御部51は、欠陥検出部として機能する。ステップS23において、制御部51は、各外観画像データについて、欠陥の検出を行う。一例として、制御部51は、各外観画像データに対して画像処理(画像解析)を行うことで欠陥を検出する。一例として、欠陥の検出は、外観画像のコントラストを検出して行われる。制御部51は、欠陥を検出すると、欠陥の位置を示す欠陥位置データを測定する。一例として、欠陥位置データは、グローバル座標系で特定される座標データである。欠陥位置データは、位置データとしてのレチクルの示す観測点Oからの角度を変換することによって欠陥の位置を特定する座標データである。一例として、制御部51は、欠陥81の始点の画素に対応したグローバル座標データを特定する。また、制御部51は、欠陥81の終点の画素に対応したグローバル座標データを特定する。制御部51は、欠陥の始点と終点との間の距離を、欠陥長さデータとして測定する。制御部51は、欠陥位置データに基づく情報や欠陥長さデータに基づく情報を、外観画像データに基づく外観画像とともに表示部52に表示する。
 一例として、検出する欠陥の幅は、特に限定されないが、一例として、0.2mm以上であり、また、0.1mm以上である。
 一例として、欠陥81の検出は、測量機1が行ってもよい。
 ステップS24において、制御部51は、外観画像において検出した欠陥81をユーザが識別できるように欠陥識別表示処理を行う。一例として、制御部51は、外観画像において検出した欠陥81に対して強調表示処理を行う。一例として、制御部51は、図17(b)に示すように、外観画像において検出した欠陥81に欠陥オブジェクト81aを重畳して表示する。欠陥オブジェクト81aの形状は、検出した欠陥に応じた形状で構成される。欠陥オブジェクト81aの形状は、検出したひびや窪みの形状に応じた形状で構成される。一例として、欠陥オブジェクト81aは、線形状で構成される。線形状の場合は、一例として、線の太さ、線種(実線、点線、鎖線、波線等)を異ならせて強調表示処理を行うことができる。一例として、欠陥オブジェクト81aは、矩形形状で構成される。一例として、欠陥オブジェクト81aは、円形状で構成される。一例として、欠陥オブジェクト81aは、重畳する欠陥周辺の色とは異なる色で表示される。
 一例として、欠陥オブジェクト81aは、欠陥81の幅に応じて、強調表示処理を異ならせる。例えば、制御部51は、数値範囲が第1範囲の欠陥幅データと数値範囲が第2範囲の欠陥幅データとで異なる強調表示処理を行う。一例として、制御部51は、0.1mm以上0.2mm未満の幅を有する欠陥に対して第1強調表示処理を行い、0.2mm以上0.3mm未満の幅を有する欠陥に対して第1強調表示処理とは異なる第2強調表示処理を行い、0.3mm以上0.4mm未満の幅を有する欠陥に対して第1強調表示処理や第2強調表示処理とは異なる第3強調表示処理を行う。なお、各強調表示処理を定義づける数値範囲は、以上の例に限定されるものではない。また、強調表示処理の数も、3つに限定されるものではなく、2つでもよく、また、4つ以上であってもよい。
 強調表示処理としては、一例として、欠陥81の欠陥幅に応じて、線形状(線種)や形状を異ならせる。また、欠陥81の欠陥幅に応じて、色を異ならせる。
 一例として、ステップS24は、省略してもよい。
 ステップS25において、制御部51は、検出した欠陥に関して欠陥幅データを測定する。一例として、欠陥81の検出のみを目的とする場合、ステップS24や以降の処理を省略してもよい。
 ステップS26において、制御部51は、欠陥(ひび)が折れ曲がる箇所や幅が変化する箇所を変化点82として検出する。また、欠陥(ひび)の端部を端点84として検出する。制御部51は、隣接する変化点82の間のセグメント83を一単位として取り扱う。制御部51は、欠陥位置データとしての各セグメント83の始点と終点の画素に対応したグローバル座標データを特定する。制御部51は、各セグメント83の始点と終点との間の距離を、セグメント83の欠陥長さデータとして算出する。また、制御部51は、各セグメント83の欠陥幅データを算出する。図17(c)に示すように、一例として、制御部51は、セグメント83の欠陥幅に対応する欠陥幅識別表示処理をセグメント83毎に行う。一例として、制御部51は、セグメント83の欠陥幅に対応する強調表示処理を行う。
 図17(c)に示すように、一例として、制御部51は、外観画像において検出したセグメント83に対して欠陥オブジェクト83aを重畳して強調表示処理を行う。欠陥オブジェクト83aの形状は、検出した欠陥に応じた形状で構成される。欠陥オブジェクト83aの形状は、検出したひびや窪みの形状に応じた形状で構成される。一例として、欠陥オブジェクト83aは、線形状で構成される。線形状の場合は、一例として、線の太さ、線種(実線、点線、鎖線、波線等)等を異ならせて強調表示処理を行うことができる。一例として、欠陥オブジェクト83aは、矩形形状で構成される。一例として、欠陥オブジェクト83aは、円形状で構成される。一例として、欠陥オブジェクト83aは、重畳する欠陥周辺の色とは異なる色で表示される。
 一例として、欠陥オブジェクト83aは、欠陥の幅に応じて、強調表示処理を異ならせる。例えば、制御部51は、第1範囲の欠陥幅データと第2範囲の欠陥幅データとで異なる強調表示処理を行う。さらに具体的に、制御部51は、0.1mm以上0.2mm未満の幅に対して第1強調表示処理を行い、0.2mm以上0.3mm未満の幅に対して第1強調表示処理とは異なる第2強調表示処理を行い、0.3mm以上0.4mm未満の幅に対して第1強調表示処理や第2強調表示処理とは異なる第3強調表示処理を行う。なお、各強調表示処理を定義づける数値範囲は、以上の例に限定されるものではない。また、強調表示処理の数も、3つに限定されるものではなく、2つでもよく、また、4つ以上であってもよい。
 強調表示処理としては、一例として、セグメント83の欠陥幅に応じて、線形状(線種)や形状を異ならせる。また、セグメント83の欠陥幅に応じて、色を異ならせる。
 一例として、セグメント83の欠陥オブジェクト83aの識別表示処理(強調表示処理)は、隣接する変化点82間の欠陥オブジェクト83aに対するものだけでなく、端点84と端点84に隣接する変化点82との間の欠陥オブジェクト83aに対しても行う。
 ステップS27において、制御部51は、外観画像データに関する欠陥データを格納したデータファイルを作成し、欠陥データのデータファイルを外観画像データのデータファイルと関連づけて記憶部54の記録フォルダに保存する。一例として、欠陥データは、欠陥位置データ、欠陥長さデータ及び欠陥幅データを含む。一例として、欠陥位置データ、欠陥長さデータ及び欠陥幅データを含む欠陥データは、上述したステップS24及びステップS25のような欠陥データでもよいし、上述したステップS26のようなセグメント毎の欠陥データでもよい。
 図18及び図19は、欠陥画像表示制御装置50の表示部52に表示された画面の一例を示す。図18に示すように、表示部52に表示された画面は、スクロールバー85と、外観画像表示領域86と、スティッチ画像表示領域87と、一覧表示領域88とを有する。
 外観画像表示領域86は、測量機1で撮像された外観画像データに基づく外観画像が表示される領域である。一例として、図8のステップS7で示した自動測定を測量機1が行っており、測量機1で撮像された外観画像データが欠陥画像表示制御装置50へ順次送信されている。このような場合、制御部51は、測量機1から送信された最新の外観画像データに基づく外観画像を外観画像表示領域86に表示する。制御部51は、測量機1から受信した最新の外観画像データに基づく外観画像で外観画像表示領域86に表示される外観画像を更新して表示する。外観画像表示領域86には、測量機1で撮像された順番で、外観画像データに基づく外観画像が切り替えて表示される。
 図19に示すように、スティッチ画像表示領域87は、複数の外観画像データが繋ぎ合わされたスティッチング処理済み外観画像データに基づくスティッチング処理済み外観画像が表示される領域である。一例として、図8のステップS7で示した自動測定を測量機1が行っており、測量機1で撮像された外観画像データが欠陥画像表示制御装置50へ順次送信されている。このような場合、制御部51は、測量機1から外観画像データが送信される毎に、測量機1から送信された複数の外観画像データにスティッチング処理を施したスティッチング処理済み外観画像データに基づくスティッチング処理済み外観画像をスティッチ画像表示領域87に表示する。
 なお、測量機1から送信された外観画像データが1つのときは、測量機1から送信された外観画像データに対してスティッチング処理を施すことなく、測量機1から送信された外観画像データに基づく外観画像をスティッチ画像表示領域87に表示する。
 スクロールバー85は、スティッチ画像表示領域87の周囲に表示される。一例として、スクロールバー85は、スティッチ画像表示領域87に表示されるスティッチング処理済み外観画像の縦方向に沿ったスクロールバーと、スティッチ画像表示領域87に表示されるスティッチング処理済み外観画像の横方向に沿ったスクロールバーの2つを有する。
 ユーザによりスクロールバー85が操作されると、制御部51は、スクロールバー85に対する操作内容に応じて、スティッチ画像表示領域87に表示されているスティッチング処理済み外観画像をスクロールする。スティッチング処理済み外観画像がスティッチ画像表示領域87より大きい場合、ユーザは、スクロールバー85を操作することでスティッチング処理済み外観画像の所望の領域を見ることができる。
 一例として、制御部51は、スティッチング処理済み外観画像を構成する複数の外観画像のうち、測量機1から送信された最新の外観画像データ(測量機1で撮像された最新の外観画像データ)に基づく外観画像がスティッチ画像表示領域87に表示されるようにスティッチング処理済み外観画像を表示する。ユーザは、例えばスクロールバー85を操作することなく、測量機1から送信された最新の外観画像データ(測量機1で撮像された最新の外観画像データ)に基づく外観画像を順次確認することができる。
 一例として、図8のステップS7で示した自動測定を測量機1が行っており、測量機1で撮像された外観画像データが欠陥画像表示制御装置50へ順次送信されている。このような場合、制御部51は、測量機1により自動測定で撮像される外観画像データの総数情報を測量機1から受信することで、測量機1による自動測定の進捗状況をスティッチング処理済み外観画像とともにスティッチ画像表示領域87に表示する。一例として、測量機1による自動測定の進捗状況としては、全撮像枚数中何枚目までの外観画像がスティッチ画像表示領域87に表示されたかを示す情報や、全撮像枚数までの残り枚数を示す情報が挙げられる。
 一例として、測量機1で順次撮像して生成され且つ測量機1又は欠陥画像表示制御装置50でオルソ補正処理が施された第1外観画像データ及び第2外観画像データに対してスティッチング処理を施していない場合がある。又は、測量機1で順次撮像して生成され且つ測量機1又は欠陥画像表示制御装置50でオルソ補正処理が施された第1外観画像データ及び第2外観画像データに対してスティッチング処理が完了していない場合がある。これらの場合、制御部51は、オルソ補正処理が施された第1外観画像データに基づく第1外観画像を外観画像表示領域86に表示する。このとき、制御部51は、第1外観画像データに関する第1欠陥データに基づく第1欠陥情報を一覧表示領域88に表示する。
 なお、このとき、制御部51は、オルソ補正処理が施された第1外観画像データに基づく第1外観画像をスティッチ画像表示領域87に表示してもよい。
 一例として、測量機1で順次撮像して生成され且つ測量機1又は欠陥画像表示制御装置50でオルソ補正処理が施された第1外観画像データ及び第2外観画像データに対するスティッチング処理が施された場合、制御部51は、第1外観画像データと第2外観画像データとをスティッチングしたスティッチング処理済み外観画像データに基づくスティッチング処理済み外観画像をスティッチ画像表示領域87に表示する。このとき、制御部51は、第1外観画像データに関する第1欠陥データに基づく前記第1欠陥情報と、第2外観画像データに関する第2欠陥データに基づく第2欠陥情報とを一覧表示領域88に表示する。また、このとき、制御部51は、オルソ補正処理が施された第1外観画像データに基づく第1外観画像に代えて、オルソ補正処理が施された第2外観画像データに基づく第2外観画像を外観画像表示領域86に表示する。
 一例として、スティッチ画像表示領域87に外観画像データが移動されるときには、既に、欠陥の検出処理が終了し、オルソ補正処理が完了している。欠陥81やセグメント83に対する強調表示処理は、外観画像表示領域86に表示されているときに行ってもよいし、スティッチ画像表示領域87に表示されてから行ってもよい。
 一覧表示領域88は、制御部51により外観画像データから検出された欠陥81のセグメント83毎に、識別データとして付与された識別番号と、欠陥データとなる始点座標データのX座標データと、始点座標データのY座標データと、始点座標データのZ座標データと、終点座標データのX座標データと、終点座標データのY座標データと、終点座標データのZ座標データと、欠陥幅データと、欠陥長さデータとを表示する領域である。
 外観画像表示領域86、及び、スティッチ画像表示領域87において、1つのセグメント83が操作部53によって選択されたとき、制御部51は、強調表示処理として、選択されたセグメント83を四角形状等の選択枠89で包囲する。また、制御部51は、一覧表示領域88において、選択されたセグメント83のデータに対して網掛け表示等の識別表示を行う。一覧表示領域88において、1つ又は複数のセグメント83が操作部53によって選択されたとき、制御部51は、選択されたセグメント83を四角形状の選択枠89で包囲する。一例として、選択枠89は、円形や三角形等である。一例として、選択枠89の形状は、セグメント83の長さや形状に応じて適宜変更される。一例として、制御部51は、連続する同じ幅のセグメント83を選択枠89で包囲する。
 図20は、連続する複数のセグメント83を選択した状態の画面を示す図である。一例として、制御部51は、連続する複数のセグメント83が選択されたとき、選択されたセグメント83毎に選択枠89で包囲すると共に、一覧表示領域88において、選択されたセグメント83のデータに対して網掛け表示等の識別表示を行う。一例として、制御部51は、欠陥データとして、欠陥81の連続性を各セグメント83の始点座標データと終点座標データに基づいて自動検出する。一例として、始点を含むセグメント83と終点を含むセグメント83が選択されると、最初のセグメント83の始点と最後のセグメント83の終点のセグメントの間における連続するセグメント83を検出し選択する。
 一例として、制御部51は、さらに、選択された複数のセグメント83で構成された欠陥81の始点座標データ、終点座標データ、欠陥長さデータ、欠陥幅データの最大値や最小値や平均値等を算出し表示する。一例として、制御部51は、選択したセグメント83の割合を表示する。例えば、制御部51は、欠陥幅データが0.1mm以上0.2mm未満はX%、0.2mm以上0.3mm未満はY%と表示する。一例として、複数のセグメント83が選択された後にも、新たなセグメント83を選択することができる。
 図21は、非連続なセグメント83を選択した状態の画面を示す図である。一例として、制御部51は、欠陥データとして、選択されたセグメント83の数、選択したセグメント83の長さの合計、選択したセグメント83の欠陥幅データの平均値、選択したセグメント83の幅データの最大値、選択したセグメント83の欠陥幅データの最小値等を表示する。一例として、制御部51は、選択されたセグメント83の欠陥幅データの割合を表示する。例えば、制御部51は、欠陥幅データが0.1mm以上0.2mm未満はX%、0.2mm以上0.3mm未満はY%と表示する。
 〔オルソ補正処理(ステップS17)〕
 図22はオルソ補正処理を示す図であり、(a)は、オルソ補正前を示し、(b)は、オルソ補正処理(正射投影補正処理)後を示す。
 図22(a)に示すように、測定面61と測量機1とは正対していない場合には、各外観画像データに基づく外観画像91aには歪みが発生する。撮像された各外観画像データは、各画素をグローバル座標で特定することができる。制御部51は、各画素をグローバル座標データを用いて外観画像データを測定面61に投影したオルソ補正処理を行う。一例として、制御部51は、各外観画像データの四隅のグローバル座標データを算出する。制御部51は、4隅の画素のグローバル座標データに基づいて測定面61に投影したオルソ補正を行う。オルソ補正処理の際には、記憶部54に格納されている第1撮像部11の第1撮像素子や第1光学系の傾斜に関する傾斜データも考慮に入れる。これにより、オルソ補正処理がされた外観画像91bは、全体が測量機1と正対した状態で撮像された画像と同じとなる。制御部51は、検出した欠陥81に対してもオルソ補正処理を行う。
 一例として、オルソ補正処理を行うと外観画像が若干劣化するため、オルソ補正処理は、欠陥検出・測定後に行う。制御部51は、オルソ補正処理が施されていない外観画像データから欠陥を検出する。一例として、幅検出・測定の前にオルソ補正処理を行ってもよい。
 〔スティッチング処理(ステップS18)〕
 オルソ補正処理が施された各外観画像データにあっても、各画素について、グローバル座標データを有する。
 一例として、互いに隣接する外観画像データを繋ぎ合わせる場合、制御部51は、互いに隣接する外観画像データの同じ座標値の画素が重なるように繋ぎ合わせる。
 一例として、制御部51は、互いに隣接する外観画像データを繋ぎあわせなくても、座標上に、各外観画像データのグローバル座標データに基づいて、その外観画像データを当てはめる。この場合、制御部51は、各外観画像データの中心のグローバル座標データは任意の画素のグローバル座標データ等、複数の画素のグローバル座標データを用いて、座標上に、外観画像データを当てはめる。
 一例として、隣接する外観画像データは、重複領域を有する。重複領域は、同じグローバル座標データが与えられている。スティッチング処理する際、制御部51は、グローバル座標データで特定される何れか一方の外観画像データの重複領域を削除する。
 図23は、4枚の外観画像データに基づく外観画像92a~92dのスティッチング処理部を施した全体外観画像92を示す図である。制御部51は、測定範囲62を撮像した個々の外観画像データを繋ぎ合わせ、測定範囲62の全体外観画像データに基づく全体外観画像92を構成する。
 一例として、制御部51は、第1外観画像データに対応づけられた第1座標データと第2外観画像データに対応づけられた第2座標データとを用いて、オルソ補正処理が施された第1外観画像データとオルソ補正処理が施された第2外観画像データとを繋ぎ合わせるスティッチング処理を施す。
 〔保存(ステップS27)〕
 記憶部54の記録フォルダには、撮像した複数の外観画像データが所定のファイル形式の画像ファイルとして保存される。記録フォルダには、各外観画像データを関連付けて、位置データとしての各外観画像データを構成する画素のグローバル座標データも保存される。外観画像データの画像ファイルは、例えば、JPEG形式やビットマップ形式で保存され、座標データは、テキストファイルで保存される。また、外観画像データと座標データとは、EXIF形式で保存される。外観画像データの保存形式は、JPEG形式以外のデータであってもよい。
 制御部51は、記憶部54の記録フォルダに、実際に撮像された測定範囲62における個々の外観画像データ等を画像データファイルとして保存する。一例として、記憶部54の記録フォルダに、測定範囲62におけるオルソ補正処理された個々の外観画像データを画像データファイルとして保存する。一例として、記憶部54の記録フォルダに、オルソ補正処理された外観画像データをスティッチング処理した全体外観画像データ等を1つの画像データファイルとして保存する。一例として、記憶部54の記録フォルダに、欠陥に対して強調表示処理が施された個々の外観画像データの画像データファイルや全体外観画像データの1つの画像データファイル等を保存する。
 〔欠陥の編集〕
 ところで、上述したひび等の欠陥の検出は、コントラストを測定する等、画像処理(画像解析)によって行われる。このため、外観画像データから全ての欠陥を正確に検出できないことも考えられる。例えば部分的に欠陥を検出したり、欠陥ではない箇所を欠陥として誤検出したりすることが考えられる。そこで、ユーザは、記憶部54に保存した外観画像データに基づく外観画像を目視検査し、欠陥画像表示制御装置50は、ユーザの指示に従って外観画像データに関する欠陥データを編集する構成とした。一例として、欠陥画像表示制御装置50は、ユーザは外観画像で欠陥を視認できるが欠陥画像表示制御装置50(制御部51)が欠陥として検出していない箇所について、ユーザ指示に基づいて外観画像データに関する欠陥データを追加することができる。一例として、欠陥画像表示制御装置50は、欠陥画像表示制御装置50(制御部51)により欠陥として検出されているもののユーザが外観画像で欠陥を視認できない箇所について、ユーザ指示に基づいて外観画像データに関する欠陥データを削除や切り取り、変更等、修正することができる。このように、制御部51は、欠陥編集部として機能する。
 図24は、外観画像データに基づく外観画像の欠陥を編集する編集モードにおける編集画面が表示された表示部52の一例を示す。一例として、図24に示す編集画面は、外観画像表示領域103と、編集モード選択オブジェクト117と、入力オブジェクト106とを含む。
 外観画像表示領域103は、記憶部54に保存されている外観画像データに基づく外観画像100が表示される領域である。一例として、記憶部54に保存されている外観画像データは、測量機1で撮像されて生成された後、測量機1から欠陥画像表示制御装置50へ送信された外観画像データである。
 一例として、制御部51は、欠陥編集プログラム54bに従って、記憶部54に保存されている外観画像データに基づく外観画像100を表示部52に表示させる。一例として、制御部51は、記憶部54の記録フォルダに格納されているオルソ補正処理済みの外観画像データのデータファイルを1つ又は複数選択し、選択された外観画像データのデータファイルに格納された外観画像データを読み出して表示部52に表示する。一例として、制御部51により選択された外観画像データのデータファイルは、ユーザの操作によって選択されたデータファイルである。一例として、制御部51により選択された外観画像データのデータファイルは、測定範囲62を撮像した全外観画像データのデータファイルである。
 一例として、選択した外観画像データが、測定範囲62の全域をカバーするために測量機1により撮像して生成された複数の外観画像データに含まれる場合、制御部51は、測定範囲62を撮像した個々の外観画像データをすべて選択する。制御部51は、選択したすべての外観画像データに対してスティッチング処理を施してスティッチング処理済み外観画像データを生成する。一例として、外観画像データのスティッチング処理は、互いに隣接する外観画像データの同じ座標値(例えばグローバル座標値)の画素が重なるように行う。一例として、制御部51は、スティッチング処理済み外観画像データに基づくスティッチング処理済み外観画像を外観画像表示領域103に表示する。
 一例として、制御部51は、スティッチング処理済み外観画像を構成する個々の外観画像の撮像範囲63を示すオブジェクト101をスティッチング処理済み外観画像に重畳して表示する。一例として、図24の編集画面では、9つの外観画像データに対してスティッチング処理を施して生成されたスティッチング処理済み外観画像データに基づくスティッチング処理済み外観画像が外観画像表示領域103に表示されている。そのため、図24の編集画面では、スティッチング処理済み外観画像に重畳して、9つの外観画像データそれぞれに対応するオブジェクト101が9つ表示されている。オブジェクト101が図24に示したように表示されるのは、上述した図15と同様、個々の外観画像データが隣接する外観画像データと重複する領域である重複領域70を有しているためである。
 外観画像表示領域103に表示される外観画像やスティッチング処理済み外観画像の位置(領域)が変更された場合において、変更後の位置(領域)に対応する外観画像データが存在するとき、制御部51は、変更後の位置(領域)に対応する外観画像データに基づく画像を表示する。又は、変更前に表示していたスティッチング処理済み外観画像データと変更後の位置(領域)に対応する外観画像データとをスティッチングした新たなスティッチング処理済み外観画像データに基づく新たなスティッチング処理済み外観画像を生成して変更後の位置(領域)に対応するように表示する。変更後の位置(領域)に対応する外観画像データが存在しないときは、外観画像表示領域103に表示されていた外観画像やスティッチング処理済み外観画像の位置(領域)を変更して表示する。
 なお、図25に示すように、外観画像表示領域103に表示する外観画像やスティッチング処理済み外観画像に測定範囲62が含まれる場合、制御部51は、測定範囲62を示すオブジェクト102を外観画像やスティッチング処理済み外観画像に重畳して表示する。
 なお、一例として、欠陥検出プログラム54aと欠陥編集プログラム54bとは、1つのソフトウェアで構成された単一プログラムあってもよい。また、一例として、欠陥検出プログラム54a及び欠陥編集プログラム54b、又は、単一プログラムは、同じ装置にインストールしてもよい。このような構成とすることで、ユーザは、欠陥を検出した後、その外観画像に対して欠陥の編集を効率的に行うことができる。また、欠陥検出プログラム54a及び欠陥編集プログラム54b、又は、単一プログラムは、外観画像の撮像と編集を別の場所で行うことができるように、異なる装置にインストールしてもよい。
 編集モード選択オブジェクト117は、追加オブジェクト117aと、切り取りオブジェクト117bと、削除オブジェクト117cと、結合オブジェクト117dと、変更オブジェクト117eとを有する。
 追加オブジェクト117aは、外観画像表示領域103に表示されている外観画像100に対応する外観画像データに関連づけられている欠陥データについて、外観画像表示領域103に表示されている外観画像100において変化点又は端点を追加する機能を実行するためのユーザ操作を受け付ける位置をユーザに示すオブジェクトである。
 切り取りオブジェクト117bは、外観画像表示領域103に表示されている外観画像100に対応する外観画像データに関連づけられている欠陥データについて、外観画像表示領域103に表示されている外観画像100において指定した2つの変化点又は端点の間の欠陥データを切り取る機能を実行するためのユーザ操作を受け付ける位置をユーザに示すオブジェクトである。
 削除オブジェクト117cは、外観画像表示領域103に表示されている外観画像100に対応する外観画像データに関連づけられている欠陥データについて、外観画像表示領域103に表示されている外観画像100において指定した範囲内にある変化点又は端点を削除し、削除により端点が2つ生成されたときはその間を新たな欠陥データとして追加する機能を実行するためのユーザ操作を受け付ける位置をユーザに示すオブジェクトである。
 結合オブジェクト117dは、外観画像表示領域103に表示されている外観画像100に対応する外観画像データに関連づけられている欠陥データについて、外観画像表示領域103に表示されている外観画像100において指定した2つの欠陥オブジェクト83aを結合して1つの欠陥オブジェクト83aにする機能を実行するためのユーザ操作を受け付ける位置をユーザに示すオブジェクトである。
 変更オブジェクト117eは、外観画像表示領域103に表示されている外観画像100に対応する外観画像データに関連づけられている欠陥データについて、外観画像表示領域103に表示されている外観画像100において変化点又は端点の位置を変更する機能を実行するためのユーザ操作を受け付ける位置をユーザに示すオブジェクトである。
 一例として、追加オブジェクト117a、切り取りオブジェクト117b、削除オブジェクト117c、結合オブジェクト117d及び変更オブジェクト117eは、ラジオボタンで構成される。
 入力オブジェクト106は、レイヤ入力部106aと、座標入力部106bと、高度入力部106cと、欠陥幅入力部106dと、色凡例表示部106eとを含む。
 レイヤ入力部106aは、一例として、外観画像表示領域103に表示されている外観画像に対応する外観画像データに関連づけられている欠陥データが属するレイヤが表示されるオブジェクトである。また、一例として、レイヤ入力部106aは、欠陥データが追加や編集されたとき、追加や編集された欠陥データのレイヤを指定するオブジェクトである。欠陥データは、編集や追加する欠陥データの欠陥の幅に対応してレイヤが定義されている。レイヤ入力部106aでは、欠陥幅入力部106dに入力された欠陥幅に対応するレイヤが入力される。一例として、欠陥検出プログラム54aで検出された欠陥81の欠陥オブジェクト81a,83aは、1つのレイヤとして特定されている。また、一例として、欠陥オブジェクト81aは、欠陥の幅に応じてレイヤが特定されている。また、一例として、欠陥編集プログラム54bで追加変更された欠陥111の欠陥オブジェクト111aは、欠陥幅入力部106dに入力された欠陥幅に対応するレイヤが入力される。一例として、欠陥検出プログラム54aで検出されたセグメント83の欠陥オブジェクト83aは、欠陥の幅に応じてレイヤが特定されている。
 座標入力部106b及び高度入力部106cは、ガイドオブジェクト110の示す位置の座標データが入力されるオブジェクトである。一例として、座標入力部106b及び高度入力部106cは、マウスカーソルの位置に表示されるガイドオブジェクト110の示す位置の座標データが入力されるオブジェクトである。表示されている外観画像データは、各画素のグローバル座標系の座標データを測定可能である。そこで、制御部51は、マウスカーソルの示す位置のグローバル座標系の座標データを算出し、算出した座標データに従った値を座標入力部106b及び高度入力部106cに入力する。
 欠陥幅入力部106dは、欠陥の欠陥幅データ入力部であり、追加する欠陥の欠陥幅データが入力されるオブジェクトである。
 一例として、欠陥の幅に応じて異なる識別表示処理を行う場合であって、色による強調表示処理を行うとき、色凡例表示部106eは、幅毎の色定義を表示するオブジェクトである。一例として、第1範囲の欠陥幅データと第2範囲の欠陥幅データとで異なる強調表示処理を行う。一例として、色凡例表示部106eは、青のレイヤの数値範囲は0.0mm以上0.1mm未満、緑のレイヤの数値範囲は0.1mm以上0.2mm未満、黄色のレイヤの数値範囲は0.2mm以上0.3mm未満といったように色凡例を表示する。なお、レイヤは、色の他、線種等によって区別されるようにしてもよい。なお、各レイヤを定義づける数値範囲は、以上の例に限定されるものではない。また、レイヤの数も、特に限定されるものではない。
 図25は、欠陥の追加作業を行う編集画面を示す図である。図26は、欠陥の追加作業を行う編集画面を示す図であり、図25の外観画像を拡大した画面を示している。一例として、画面の右には、入力オブジェクト106が表示される。また、既に検出されている欠陥81を示す欠陥オブジェクト81aが表示されている。図17(c)に示すように、欠陥オブジェクト81aは、変化点82を表示し、変化点82間のセグメント83の欠陥オブジェクト83aを、周辺の色とは異なる色や線種で強調表示処理してもよい。
 マウスカーソルの位置が表示している外観画像100と重なるとき、制御部51は、マウスカーソルの位置に、ガイドオブジェクト110を表示する。ガイドオブジェクト110は、外観画像100に現れた欠陥111の幅を測定するためのガイドであり、構造物が位置する実空間における物体の大きさの尺度を示す。ガイドオブジェクト110は、一例として、十字形状に複数の円形状を重ねた図形部110aと、図形部110aの大きさに対応付いた寸法値で構成される数値部110dとを備える。一例として、図形部110aにおける複数の円形状は、同心円である。一例として、図形部110aは、2つの円形状を有する。一例として、図形部110aは、十字形状の交点と複数の円形状の中心が一致している。図形部110aの画面上における大きさは、外観画像100に現れた欠陥111の実空間における大きさを測るための指標となる。一例として、図形部110aは、中心から等方的な形状を有する。これにより、ユーザは、欠陥111の幅を把握しやすくなる。数値部110dは、構造物が位置する実空間における物体の大きさの尺度を示す数値(実際の寸法)である。
 ガイドオブジェクト110の色は、レイヤの色と同じ色であってもよいし、異なっていてもよい。一例として、ガイドオブジェクト110は、表示されているレイヤとの区別を容易にするため、表示されているレイヤの色とは異なる色で表示される。
 一例として、多数のレイヤが外観画像100上に表示され、レイヤに多くの色が使用されているとき、ガイドオブジェクト110は、閾値より少ない複数のレイヤの色の中から1つ選択され、表示されているレイヤの色と容易に区別できるようにする。また、最も数の少ないレイヤの色が選択され、表示されているレイヤの色と容易に区別できるようにする。
 一例として、表示部52に表示されている外観画像100を拡大又は縮小するときであっても、制御部51は、ガイドオブジェクト110の大きさを変更しない。図形部110aの外周円110bの直径及び内周円110cの直径は、外観画像が表示している実空間における構造物の大きさの尺度となっている。外周円110bの近くには、実空間における寸法値で構成される数値部110dが表示され、内周円110cの近くにも、実空間における寸法値で構成される数値部110dが表示される。数値部110dは、外周円110b及び内周円110cの直径に対応する実空間における寸法値で構成される。図25では、一例として、外周円110bの近くには「φ6.4mm」と表示され、内周円110cの近くには「φ3.2mm」と表示されている。一例として、内周円110cは、外周円110bの1/2である。勿論、外周円110bに対する内周円110cの大きさは、1/2に限定されるものではない。
 一例として、マウスホイールが回転されると、制御部51は、回転方向と回転量に応じて、表示部52に表示されている外観画像100を拡大又は縮小する。外観画像100が拡大又は縮小されたときにおいても、一例として、制御部51は、図形部110aの大きさを変更しない。この場合、制御部51は、外周円110bの数値部110dの数値と内周円110cの数値部110dの数値を外観画像100の拡大率や縮小率に応じて変更する。一例として、図26は、図25の外観画像を拡大したものであり、外周円110bの近くには、数値部110dとして、「φ6.4mm」が「φ3.2mm」と変更表示され、内周円110cの近くには、数値部110dとして、「φ3.2mm」が「φ1.6mm」と変更表示される。
 図26及び図27(a)に示すように、ユーザは、操作部53を構成するマウスを使用して、外観画像100上において、図形部110aを移動させて、例えば、図形部110aを、外観画像100に現れた欠陥111に重ねる。一例として、欠陥111は、欠陥検出プログラム54aで検出されなかった欠陥である。一例として、制御部51は、位置を選択する選択部である。欠陥111の一端に位置する端点に図形部110aの位置を合わせ、左クリックすると、制御部51は、ステップS31において、位置合わせされた端点108の位置を選択する。この際、マウスホイールを回転させて、外観画像100を拡大又は縮小させて、例えば、欠陥111の幅を外周円110bに合わせる。これにより、ユーザは、外周円110bの近くに表示された数値部110dによって欠陥111の幅を把握することができる。また、ユーザは、欠陥111の幅を内周円110cに合わせる。これにより、ユーザは、内周円110cの近くに表示された数値部110dによって欠陥111の幅を把握することができる。
 外観画像100に現れた欠陥111に対して、例えば欠陥111の端の箇所を指定し、その後、図形部110aを用いながら欠陥111が折れ曲がる箇所や幅が変化する箇所まで欠陥111に沿ってなぞる。この間、一例として、ガイドオブジェクト110は、表示され続ける。そして、一端部から図形部110aの中心点との間には、一例として、ガイドオブジェクト110の移動軌跡を示す軌跡オブジェクトが表示されてもよい。一例として、図形部110aが欠陥(ひび)が折れ曲がる箇所や幅が変化する箇所に至り、ここで再度左クリックがされると、制御部51は、ステップS32において、左クリックされた当該箇所を選択し、端点109とする。
 一例として、欠陥111対応する欠陥オブジェクト111aを追加するにあたっては、先ず、外観画像100に現れた欠陥111の一端部と欠陥111が折れ曲がる箇所や幅が変化する箇所(他端部)を指定する。これにより、欠陥データの追加作業が確定し、2つの箇所を結ぶ欠陥データが生成され、端点108から端点109までの間には、欠陥データに従って表示される欠陥オブジェクト111aが追加される。指定した2つの箇所は、生成された欠陥データにおいては端点や変化点となる。ここの説明では、最初に指定した箇所が端点108であり、次に指定した箇所が、欠陥111の途中であるため変化点となる端点109となる。そして、端点108と端点109の長さが、欠陥長さデータとなる。
 欠陥データの追加作業が確定すると、ステップS33において、図形部110aを入力オブジェクト106まで移動し欠陥幅入力部106dを選択すると、欠陥幅入力部106dにおいて、欠陥幅データをキーボード等を使って直接入力可能となり、制御部51は、入力された値を欠陥幅データとする。この際、欠陥幅データは、外周円110b又は内周円110cの数値部110dの数値を参考に入力される。欠陥幅データが入力されると、追加された欠陥データの欠陥オブジェクト111aは、色凡例表示部106eの定義に従った色にされる。そして、幅に応じたレイヤに設定される。
 図27(b)に示すように、一例として、外観画像100に現れた欠陥111の一端に位置する端点に図形部110aを合わせ、左クリックすると、制御部51は、ステップS41において、位置合わせされた端点108の位置を選択する。次いで、外観画像100を拡大又は縮小して図形部110aの大きさを欠陥111の幅に合わせる。そして、図形部110aを入力オブジェクト106まで移動し欠陥幅入力部106dを選択すると、欠陥幅入力部106dにおいて、欠陥幅データがキーボード等を使って直接入力可能となる。ステップS42において、制御部51は、入力された値を欠陥幅データとする。次いで、図形部110aを用いながら欠陥111が折れ曲がる箇所や幅が変化する箇所まで欠陥111に沿ってなぞる。そして、ここで再度左クリックすると、制御部51は、ステップS43において、左クリックされた当該箇所を選択し、端点109とする。
 図27(c)に示すように、一例として、外観画像100に現れた欠陥111の一端に位置する端点に図形部110aの位置を合わせると共に、大きさを合わせる。そして、図形部110aを入力オブジェクト106まで移動し欠陥幅入力部106dを選択すると、欠陥幅入力部106dにおいて、欠陥幅データがキーボード等を使って直接入力可能となり、ステップS51において、制御部51は、入力された値を欠陥幅データとする。この後、図形部110aを欠陥111の一端に位置する端点に戻し、左クリックすると、制御部51は、ステップS52において、位置合わせされた端点108の位置を選択する。次いで、図形部110aを用いながら欠陥111が折れ曲がる箇所や幅が変化する箇所まで欠陥111に沿ってなぞる。そして、ここで再度左クリックすると、制御部51は、ステップS53において、左クリックされた当該箇所を選択し、端点109とする。
 なお、ガイドオブジェクト110は、一例として、端点108を選択してから端点109を選択するまでの間は外観画像100上から消されていてもよい。
 図28は、欠陥幅データの候補値が列挙されたメニューボックス107が表示された編集画面を示す図である。
 一例として、端点108又は端点109が決定された後、右クリックがされると、制御部51は、メニューボックス107を表示する。メニューボックス107は、一例として、2つの表示部として、上表示部107aと下表示部107bとを備えている。上表示部107aには、前回入力された欠陥幅データが候補値として表示される。下表示部107bには、候補値として、外周円110bの数値部110dの寸法値と、内周円110cの数値部110dの寸法値と、外周円110bの数値部110dと内周円110cの数値部110dの中間の寸法値と、内周円110cの数値部110dの半分の寸法値とが表示される。メニューボックス107内に表示された複数の候補値の中の何れかが1つが選択されると、制御部51は、選択された候補値を欠陥幅入力部106dに入力する。このような方法によれば、キーボード等で入力する手間を省くことができる。なお、表示部の数は2つに限定されるものではなく、3つ以上であってもよい。
 図29は、欠陥の幅の幅方向における二点を指定して幅を計測する編集画面を示す図である。
 一例として、端点108又は端点109が決定された後、欠陥111の幅方向の一側縁の端点121で左クリックをして位置が選択されると、制御部51は、当該位置の選択処理をする。次いで、他側縁の端点122で左クリックをして位置が選択されると、制御部51は、当該位置を選択する。好ましくは、外観画像100に現れた欠陥111が延びる方向に対して交差するように二点を選択する。一例として、欠陥111の溝が延びる方向に対して直交するように二点を選択する。制御部51は、2点が選択されると、その位置に、2点のグローバル座標より測定した2点間距離を欠陥幅データとして表示すると共に、欠陥幅データを欠陥幅入力部106dに入力する。また、一例として、一側縁の端点121を選択してから他側縁の端点122を選択するまでの間は、一側縁の端点121からの移動距離を示す数値をマウスカーソルの位置の近くに表示することが好ましい。このような方法によっても、キーボード等で入力する手間を省くことができる。
 1つ目の端点109を指定し、欠陥幅データの入力が完了し、引き続き、マウスカーソルが外観画像100上に移動されると、制御部51は、再度、ガイドオブジェクト110を表示し、次の端点(変化点又は端点)109を指定できるようにする。欠陥111に重なるように引かれた複数の端点や変化点を含む欠陥オブジェクト111aは、欠陥111を追加するモードが終了されたとき、最後の端点109の位置を終点とする。
 以上のように欠陥111を追加したり、欠陥81,111を変更したときには、その変更履歴のデータを記憶部54の記録フォルダに保存する。図30は、欠陥が編集履歴が表示された編集画面を示す図である。この画面では、一覧表示領域88において、欠陥データの他に、変更日時データと変更者を表示する。これにより、何時誰が欠陥を編集したのかを把握することができる。これにより、一目で、自動検出された欠陥なのか編集された欠陥なのかを視認することができる。
 一例として、欠陥データは、DXFやDWG形式のファイルで保存できるようにし、CAD等との互換性を高めるようにしてもよい。
 以上のような欠陥画像表示制御装置50によれば、以下に列挙する効果が得られる。
 (1)実空間における物体の大きさの尺度を示すガイドオブジェクト110を指標とすることで、外観画像100に現れた欠陥111の幅を容易に把握することができる。
 (2)欠陥画像表示制御装置50の表示部52される外観画像は、オルソ補正処理が施されていることで、全体が測量機1と正対した状態で撮像された画像と同じとすることができ、欠陥の幅等を容易に把握することができる。
 (3)欠陥111の端点108から端点109まで移動する間、ガイドオブジェクト110が表示され続けるので、外観画像100に現れた欠陥111を容易になぞることができる。そして、欠陥111をなぞる間に、欠陥111の幅をガイドオブジェクト110によって把握することができる。例えば、欠陥が同じ幅で続いているか、幅が変化したか、欠陥が曲がったか等の状況の変化を容易に把握することができる。
 (4)外観画像100の拡大又は縮小倍率に応じて、ガイドオブジェクト110の表示の大きさを変更することなく数値部110dの寸法値を変更する。これにより、外観画像100の縮尺に関係なく、欠陥111の幅を容易に把握することができる。また、編集する欠陥の始点と終点の何れか一方だけが表示部52に表示されている外観画像100に表示されている状態においては、外観画像を拡大することで、表示されている始点(端点)や終点(端点)の位置を正確に把握し選択することができる。
 (5)ガイドオブジェクト110は、図形部110aを備えているので、欠陥111の幅を図形部110aの大きさを参照して容易に把握することができる、更に、ガイドオブジェクト110が数値部110dを備えているときには、欠陥111に図形部110aを合わせた際に数値部110dの数値を見ることで、欠陥111の幅を容易に把握することができる。
 (6)図形部110aは、中心から等方的な形状を有する。これにより、ユーザは、欠陥111の幅を把握しやすくなる。
 (7)ガイドオブジェクト110の位置を選択することで、外観画像100に現れた欠陥111の端点108及び端点109を選択することができ、追加した欠陥111に重畳された欠陥オブジェクト111aの位置や長さを座標上で容易に特定することができる。
 (8)外観画像に対して、検出済みの欠陥データを修正(削除、結合、変更)したり、外観画像100から新たに視認できる欠陥111の欠陥データを容易に追加することができる。
 (9)外観画像では欠陥を視認できるが欠陥として検出されていない箇所に欠陥データとしての欠陥オブジェクト111aを追加することができる。
 (10)欠陥として検出されているものの、外観画像上の欠陥とずれている場合等は、欠陥データに対して、削除、切り取り等の処理を行ったり、変化点又は端点の位置を変更したりして容易に修正することができる。
 (11)ガイドオブジェクト110をガイドとして把握した欠陥幅データを欠陥幅入力部106dに容易に入力することができる。
 (12)欠陥幅データは、欠陥幅入力部106dに欠陥画像表示制御装置50の操作部53を構成するキーボード等の入力装置で容易に入力することができる。
 (13)メニューボックス107の複数の選択候補値の中から選択された1つの候補値を選択することで、欠陥幅入力部106dに容易に外観画像100に現れた欠陥111の欠陥幅データを入力することができる。
 (14)外観画像100に現れた欠陥111が延びる方向に沿った任意の一側縁の一点を選択すると共に他側縁の任意の一点を選択することで、欠陥の幅を容易で正確に測定することができる。
 (15)外観画像データの欠陥オブジェクト111aは、外観画像データの各画素にグローバル座標データが対応付いていることから、正確な位置データとなる。
 (16)表示部52には、表示される外観画像データのみがスティッチング処理されて表示されるので、欠陥の編集処理時におけるデータ処理量を減らすことができる。
 なお、上記欠陥画像表示制御装置50は、以下のように変更してもよい。
 〔ガイドオブジェクトの変形例〕
 ・上述の例において、ガイドオブジェクト110は、外観画像100を拡大又は縮小したときにおいても、図形部110aの大きさを変更せず、外観画像100の拡大率や縮小率に応じて数値部110dの数値を変更している(実施態様1)。図31に示すように、これに対して、外観画像100を拡大又は縮小したときにおいて、あわせて、外観画像100の拡大率や縮小率に応じて図形部110aの大きさを変更して、数値部110dの数値を変更しないようにしてもよい(実施態様2)。
 ・図32に示すように、外観画像100を拡大又は縮小しない場合であっても、ガイドオブジェクト110の図形部110aを拡大又は縮小するようにしてもよい(実施態様3)。これにより、例えば、現在表示されている外観画像100の欠陥111の幅に合わせて図形部110aの大きさを調整することができる。この場合、数値部110dは、図形部110aの拡大率や縮小率に応じて数値を変更する。追加する欠陥111の始点(端点)と終点(端点)が表示部52に表示されている外観画像100に表示されているときには、図形部110aの大きさを変えるだけで欠陥111の幅を容易に把握することができる。
 ・上述した実施態様1~実施態様3は、ユーザの操作に応じて、制御部51が切り替えるようにしてもよい。
 ・一例として、ガイドオブジェクト110は、外観画像表示領域103の中で位置が固定され、固定されたガイドオブジェクト110に対して外観画像100をスクロールさせて、欠陥111と位置を合わせるようにしてもよい。例えば、図25に示すように、ガイドオブジェクト110を外観画像表示領域103の左上に固定して表示し、また、図26に示すようにガイドオブジェクト110を外観画像表示領域103の中心に固定して表示する。そして、外観画像表示領域103の中で外観画像100の位置を上下左右方向に移動(スクロール)することで、外観画像100の欠陥111をガイドオブジェクト110の位置に合わせる構成としてもよい。このような構成によっても、同様な効果を得ることができる。この場合におけるガイドオブジェクト110の固定位置は、外観画像表示領域103の中であれば特に限定されるものではない。
 ・一例として、例えばガイドオブジェクト110を外観画像表示領域103の基本位置の左上から外観画像表示領域103の中心に移動させる。次いで、制御部51は、外観画像表示領域103の中をガイドオブジェクト110が移動する状態から外観画像表示領域103の中で外観画像100の位置を上下左右方向に移動(スクロール)させるモードに切り替える。そして、外観画像100の欠陥111を、外観画像表示領域103の中で外観画像100の位置を上下左右方向に移動(スクロール)させる。これにより、外観画像100の欠陥111をガイドオブジェクト110の位置に合わせることができる。このような構成によっても、同様な効果を得ることができる。
 なお、外観画像表示領域103の中で外観画像100の位置を上下左右方向に移動(スクロール)させてから外観画像表示領域103の中をガイドオブジェクト110が移動する状態に切り替えるようにしてもよい。
 ・一例として、操作部53がタッチパネルを備えるときには、上述した操作部53を構成するマウスを用いて欠陥を編集する操作を、表示面を指やスタイラスペンでなぞったりタッチすることによって行うことができる。例えば、ユーザは、ガイドオブジェクト110をタッチして移動させることもできるし、外観画像表示領域103の中で外観画像100の位置を上下左右方向に移動(スクロール)させることもできる。このような機能は、タッチパネル機能付きのタブレットで欠陥画像表示制御装置50を構成したときに特に有効である。
 ・測定範囲62が広範なときには、測定範囲全体を表示部52に表示しても欠陥81を目視で特定することはできない。そこで、ガイドオブジェクト110は、所定の拡大率以上になると外観画像100上に表示されるようにしてもよい。
 〔欠陥幅データ入力の変形例〕
 ・欠陥幅データの入力は、ガイドオブジェクト110で欠陥111の始点、終点、又は、変化点を選択したときに、選択時における図形部110aの大きさに対応付けられた実空間における数値を欠陥幅入力部106dに自動的に入力するようにしてもよい。このような方法によっても、欠陥幅データの入力の手間を省くことができる。このような場合、欠陥の幅を合わせる際の基準を明確にするため、図形部110aの円は1つであることが好ましい。
 図33(a)に示すように、一例として、欠陥111の一端に位置する端点に図形部110aの位置を合わせると共に、大きさを合わせる。そして、左クリックすると、制御部51は、ステップS61において、端点108の位置を選択するとともに、選択時の図形部110aに対応付けられた数値部110dの寸法値を欠陥幅データとする。この後、図形部110aを用いながら欠陥111が折れ曲がる箇所や幅が変化する箇所まで欠陥111に沿ってなぞる。そして、図形部110aが他端部に至りここで再度左クリックすると、制御部51は、ステップS62において、左クリックされた当該箇所を選択し、端点109とする。
 図33(b)に示すように、一例として、欠陥111の一端にガイドオブジェクト110の位置を合わせる。そして、左クリックすると、制御部51は、ステップS71において、端点108の位置を選択する。この後、図形部110aを用いながら欠陥111が折れ曲がる箇所や幅が変化する箇所まで欠陥111に沿ってなぞる。図形部110aが他端部に至ると、ここでガイドオブジェクト110の位置を合わせると共に、大きさを合わせる。左クリックすると、制御部51は、ステップS72において、左クリックされた当該箇所を選択し、端点109とするとともに、選択時の図形部110aに対応付けられた数値部110dの値を欠陥幅データとする。
 ・以上のような欠陥幅データの自動入力時において、外観画像100を拡大又は縮小したとき、図形部110aの大きさを変更せず、外観画像100の拡大率や縮小率に応じて数値部110dの寸法値を変更するようにしてもよい。また、外観画像100の拡大率や縮小率に応じて図形部110aの大きさを変更して、数値部110dの寸法値を変更しないようにしてもよい。さらに、外観画像100を拡大又は縮小しない場合であっても、ガイドオブジェクト110の図形部110aを拡大又は縮小するようにしてもよい。何れの場合であっても、欠陥111をなぞる際の特異的な第1位置(一端部)や第2位置(一端部)を選択したとき、その時点の図形部110aに対応付けられた実空間における寸法値が欠陥幅データとして欠陥幅入力部106dに入力される。
 〔図形部の変形例〕
 上述したガイドオブジェクト110の図形部110aは、十字形状に複数の円形状を重ねた形状を有しているが、更に、図34(a)~(j)に示す構成を有していてもよい。
 図34(a)に示すように、図形部110aは、1つの円形で構成してもよい。上述したように、欠陥幅データを自動入力するときには、指標となる円が複数であると、ユーザがどちらの円を基準に欠陥の幅を測定してよいか困惑してしまうので、欠陥幅データを自動入力する場合は、1つの円であることが好ましい。
 また、円の数は、拡大率に合わせて変更してもよい。一例として、外観画像100を拡大するほど、円の数を減らしていくようにしてもよい。また、一例として、外観画像100を拡大するほど、円の数を増やすようにしてもよい。
 図34(b)に示すように、図形部110aは、一例として、四角形であってもよい。さらに、図形部110aは、三角形であってもよいし、正五角形、正六角形等の正多角形であってもよい。すなわち、中心から等方的な形状であることが好ましい。一例として、正多角形の場合には、正多角形の中心から各頂点までの距離の2倍の値を数値部110dの寸法値として表示する。さらに、図34(c)及び(d)に示すように、図形部110aは、点線などで構成された一重の円で構成されていてもよい。
 図34(e)に示すように、図形部110aは、一例として、×字形状のスケールで構成されていてもよい。更に、×形状のスケールは、一例として、指標となる円と重畳してもよい。なお、図形部110aは、×字形状のスケールに代えて+字形状のスケールで構成されていてもよい。一例として、×字形状のスケールと+字形状のスケールとを重ねてもよい。
 図34(f)に示すように、図形部110aは、一例として、正方格子形状を有していてもよい。更に、図34(g)に示すように、図形部110aは、一例として、三角格子形状を有していてもよい。
 図34(h)に示すように、図形部110aは、一例として、同心円状に直径の異なる円を重畳して構成してもよい。同心円状に重畳する円の数は、3つであってもよいし、更に、4つ以上であってもよい。
 図34(i)に示すように、図形部110aは、一例として、同心円状に直径の異なる円を重畳して構成してもよい。この場合、各円は、線色(線種)を変えることが好ましい、さらに、この際の線色(線種)は、色凡例表示部106eで定義されている幅の線色(線種)に関連付けることがより好ましい。
 図34(j)に示すように、図形部110aは、同心円状に直径の異なる円を重畳して構成し、隣接する円の間の透過率を変えるようにしてもよい。
 一例として、中心から外周に向かうに連れて順次透過率が高くなるようにする。この場合、中心部の透過率が最も低くなり、下層に位置する外観画像100が最も見えにくくなる。また、最外の領域の透過率が最も高くなり、下層に位置する外観画像100が最も見えやすくなる。
 また、一例として、中心から外周に向かうに連れて順次透過率が低くなるようにする。この場合、中心部の透過率が最も高くなり、下層に位置する外観画像100が最も見やすくなる。また、最外の領域の透過率が最も低くなり、下層に位置する外観画像100が最も見えにくくなる。
 なお、透過率を変える際に対象となる図形部110aの色は、特に限定されるものではない。
 図34(i)や(j)に示すように、円の色や透過率を変えたときには、色や透過率によって、実際の欠陥の幅を把握することができることから、ガイドオブジェクト110から数値部110dを割愛し、図形部110aのみとしてもよい。
 〔その他の変形例〕
 ・外観画像100の背景に方形格子や三角格子を表示して、欠陥の幅や長さを把握する目安としてもよい。
 ・ガイドオブジェクト110は、欠陥111の一端部と他端部を選択するときに限って表示されるようにしてもよい。
 ・欠陥編集プログラム54bで欠陥81,111が示す欠陥オブジェクト81a,83a,111aを変更した場合において、欠陥検出プログラム54aで検出した欠陥オブジェクト81a,83aと欠陥編集プログラム54bで編集した欠陥オブジェクト111aとが矛盾することがある。一例として、特定のレイヤの欠陥オブジェクト81a,83a,111aが表示されているときに、表示されていない他のレイヤの欠陥オブジェクト81a,83a,111aを未検出の欠陥と誤認してしまうおそれがある。そして、編集作業で入力した欠陥幅データが他のレイヤとして検出されている欠陥オブジェクト81a,83a,111aの欠陥幅データと食い違うおそれがある。このような場合、一例として、制御部51は、欠陥編集プログラム54bで編集した欠陥オブジェクト111aの欠陥データを欠陥検出プログラム54aで検出した欠陥オブジェクト81a,83aの欠陥データより優先する。また、一例として、制御部51は、欠陥検出プログラム54aで検出した欠陥オブジェクト81a,83aの欠陥データを欠陥編集プログラム54bで編集した欠陥オブジェクト111aの欠陥データより優先する。
 ・一例として、欠陥画像表示制御装置50は、表示部52や操作部53が接続される情報処理装置で構成されていてもよい。この場合、表示部52や操作部53は、欠陥画像表示制御装置に対して、外部機器とのデータ入出力を行うインタフェースを通じて接続される。
 ・一例として、欠陥画像表示制御装置50は、デスクトップ型又はラップトップ型のコンピュータ装置で構成することができる。コンピュータ装置で構成する場合、欠陥画像表示制御装置50は、制御部51、記憶部54等を備えるコンピュータ本体と、コンピュータ本体に接続される表示部52と、コンピュータ本体に接続される操作部53とで構成される。
 ・欠陥画像表示制御装置50は、一例として、測量機1を備えていてもよい。この場合、測量機1の制御部40が制御部51と同様な機能を実現してもよい。また、欠陥検出プログラム54aや欠陥編集プログラム54bの処理を制御部40と制御部51とに割り当てる並列処理を行うようにしてもよい。更に、外観画像を表示する表示部は、第1表示部18、第2表示部19、表示部52の中から選ばれる1つ以上の表示部で構成することができる。
 ・一例として、外観画像は、グローバル座標系の代わりにローカル座標系に従った座標データに対応付けられていてもよい。
 ・欠陥データは、測量機1のGNSSで算出したデータであってもよい。
 ・スティッチング処理の方法は、特に限定されるものではない。
 ・オルソ補正処理は、欠陥81の検出処理の後ではなく前に行ってもよい。
 ・オルソ補正処理は、互いに隣接する画像の共通する一部分を繋ぎ合わせるようにして行ってもよい。
1…測量機、2…整準部、3…底板、4…上板、5…整準ねじ、6…本体部、7…撮像部、8…第1対物レンズ、9…第2対物レンズ、10…第3対物レンズ、11…第1撮像部、11a…オートフォーカス部、12…第2撮像部、13…測距部、14…第3撮像部、15…水平角駆動部、16…送光部、17…鉛直角駆動部、18…第1表示部、19…第2表示部、20…通信部、21…水平角操作部用エンコーダ、22…鉛直角操作部用エンコーダ、23…水平角操作部、24…鉛直角操作部、25…把持部、31…水平角測角部、32…鉛直角測角部、33…画像処理部、34…一時記憶部、35…記憶部、36…操作部、37…傾き検出部、40…制御部、49…外部電源、50…欠陥画像表示制御装置、51…制御部、51a…CPU、51b…ROM、51c…RAM、52…表示部、53…操作部、54…記憶部、54a…欠陥検出プログラム、54b…欠陥編集プログラム、55…通信部、60…壁面、61…測定面、62…測定範囲、62a…測定範囲、63…撮像範囲、64…グローバル座標、65…長方形、66a…一部観測できない領域、66b…不要な領域、70…重複領域、71…全撮像範囲、72…撮像領域、81…欠陥、81a…欠陥オブジェクト、82…変化点、83…セグメント、83a…欠陥オブジェクト、84…端点、85…スクロールバー、86…外観画像表示領域、87…スティッチ画像表示領域、88…一覧表示領域、89…選択枠、91a…外観画像、91b…外観画像、92…全体外観画像、92a…外観画像、92b…外観画像、92c…外観画像、92d…外観画像、100…外観画像、101…枠線、102…枠線、106…入力オブジェクト、106a…レイヤ入力部、106b…座標入力部、106c…高度入力部、106d…欠陥幅入力部、107…メニューボックス、107a…上表示部、107b…下表示部、108…端点、109…端点、110…ガイドオブジェクト、110a…図形部、110b…外周円、110c…内周円、110d…数値部、111…欠陥、111a…欠陥オブジェクト、117…編集モード選択オブジェクト、117a…追加ボタン、117b…切り取りボタン、117c…削除ボタン、117d…結合ボタン、117e…変更ボタン。

Claims (24)

  1.  構造物の外観に現れた欠陥を含み、かつ、オルソ補正処理された外観画像を、表示部に表示させる表示制御部であって、前記構造物が位置する実空間における物体の大きさの尺度を示すオブジェクトを前記外観画像の一部に重ね、かつ、前記表示部に表示されている前記外観画像の中で異なる複数の位置にオブジェクトを表示可能とする前記表示制御部
     を備える欠陥画像表示制御装置。
  2.  前記表示制御部は、前記外観画像の中で前記オブジェクトを移動させる
     請求項1に記載の欠陥画像表示制御装置。
  3.  前記表示制御部は、前記オブジェクトを移動させるとき、前記オブジェクトを表示しない
     請求項2に記載の欠陥画像表示制御装置。
  4.  前記表示制御部は、前記オブジェクトを移動させるとき、前記オブジェクトを表示する
     請求項2に記載の欠陥画像表示制御装置。
  5.  前記表示制御部は、前記外観画像の拡大倍率又は縮小倍率に応じて、前記オブジェクトの表示の大きさを変更することなく、前記オブジェクトに対応付けられる前記実空間における前記尺度の数値を変更する
     請求項1ないし請求項4のうち、何れか1項に記載の欠陥画像表示制御装置。
  6.  前記表示制御部は、前記オブジェクトの表示の大きさを拡大又は縮小し、前記オブジェクトの拡大倍率又は縮小倍率に応じて、前記オブジェクトに対応付けられる前記実空間における前記尺度の数値を変更する
     請求項1ないし請求項4のうち、何れか1項に記載の欠陥画像表示制御装置。
  7.  前記オブジェクトは、前記尺度を示す図形部を含む
     請求項1ないし請求項6のうち、何れか1項に記載の欠陥画像表示制御装置。
  8.  前記図形部は、中心から等方的な形状を有する
     請求項7に記載の欠陥画像表示制御装置。
  9.  前記オブジェクトが表示されている位置を前記欠陥における特異的な位置として選択する選択部を更に備える
     請求項1ないし請求項8のうち、何れか1項に記載の欠陥画像表示制御装置。
  10.  前記表示制御部は、前記外観画像に対して、既に検出している前記欠陥に対応した欠陥データを欠陥オブジェクトで表示する
     請求項9に記載の欠陥画像表示制御装置。
  11.  前記欠陥データを編集する欠陥編集部を更に備える
     請求項10に記載の欠陥画像表示制御装置。
  12.  前記欠陥編集部は、前記特異的な位置として選択された第1位置と第2位置との間を欠陥データとして追加する
     請求項11に記載の欠陥画像表示制御装置。
  13.  前記オブジェクトは、前記欠陥が変化する位置に対応した変化点を含み、
     前記欠陥編集部は、前記欠陥データの前記変化点を修正する
     請求項11に記載の欠陥画像表示制御装置。
  14.  前記欠陥編集部は、前記実空間における前記欠陥の欠陥幅データを入力する
     請求項11に記載の欠陥画像表示制御装置。
  15.  前記欠陥編集部は、前記表示部に表示された欠陥幅入力部に直接入力された数値を前記欠陥幅データとする
     請求項14に記載の欠陥画像表示制御装置。
  16.  前記欠陥編集部は、前記表示部に表示されたメニューボックスにおいて、複数の選択候補値の中から選択された1つの候補値を前記欠陥幅データとする
     請求項14に記載の欠陥画像表示制御装置。
  17.  前記欠陥編集部は、前記外観画像で選択された互いに異なる2点間の距離を前記欠陥幅データとする
     請求項14に記載の欠陥画像表示制御装置。
  18.  前記欠陥編集部は、選択された位置における前記オブジェクトの大きさに対応付けられた前記実空間における大きさのデータを前記欠陥幅データとする
     請求項14に記載の欠陥画像表示制御装置。
  19.  前記外観画像は、座標データに対応づけられている
     請求項1ないし請求項18のうち、何れか1項に記載の欠陥画像表示制御装置。
  20.  前記座標データは、前記外観画像を構成する画素に対応づけられたグローバル座標データである
     請求項19に記載の欠陥画像表示制御装置。
  21.  前記外観画像は、順次撮像された第1外観画像及び第2外観画像とを含み、
     前記表示制御部は、前記第1外観画像に対応づけられた第1座標データと前記第2外観画像に対応づけられた第2座標データとを用いて、前記オルソ補正処理が施された前記第1外観画像と前記オルソ補正処理が施された前記第2外観画像とを繋ぎ合わせるスティッチング処理を施すスティッチング処理部を更に備える
     請求項19又は請求項20に記載の欠陥画像表示制御装置。
  22.  前記欠陥画像表示制御装置は、前記外観画像が表示される表示部を更に備える
     請求項1ないし請求項21のうち、何れか1項に記載の欠陥画像表示制御装置。
  23.  前記欠陥画像表示制御装置は、
     測量機を更に備え、
     前記測量機は、
     前記構造物を測量する測量部と、
     前記構造物を撮像する撮像部と、
     前記測量部及び前記撮像部を前記測量機の鉛直軸周りに回転する水平角駆動部と、
     前記測量部及び前記撮像部を前記測量機の水平軸周りに回転する鉛直角駆動部と、
     基準方向に対する視準方向の角度を検出する角度検出部と、
     前記水平角駆動部及び前記鉛直角駆動部を制御するとともに、前記構造物を撮像するように前記撮像部を制御する制御部とを備える
     請求項1ないし請求項22のうち、何れか1項に記載の欠陥画像表示制御装置。
  24.  構造物の外観に現れた欠陥を含み、かつ、オルソ補正処理された外観画像を、表示部に表示させる表示制御ステップであって、前記構造物が位置する実空間における物体の大きさの尺度を示すオブジェクトを前記外観画像の一部に重ね、かつ、前記表示部に表示されている前記外観画像の中で異なる複数の位置にオブジェクトを表示可能とする前記表示制御ステップを実行するプログラム。
PCT/JP2016/060862 2016-03-31 2016-03-31 欠陥画像表示制御装置及びプログラム WO2017168737A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2016/060862 WO2017168737A1 (ja) 2016-03-31 2016-03-31 欠陥画像表示制御装置及びプログラム
JP2018508325A JP6569002B2 (ja) 2016-03-31 2016-03-31 欠陥画像表示制御装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/060862 WO2017168737A1 (ja) 2016-03-31 2016-03-31 欠陥画像表示制御装置及びプログラム

Publications (1)

Publication Number Publication Date
WO2017168737A1 true WO2017168737A1 (ja) 2017-10-05

Family

ID=59963859

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/060862 WO2017168737A1 (ja) 2016-03-31 2016-03-31 欠陥画像表示制御装置及びプログラム

Country Status (2)

Country Link
JP (1) JP6569002B2 (ja)
WO (1) WO2017168737A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109784194A (zh) * 2018-12-20 2019-05-21 上海图森未来人工智能科技有限公司 目标检测网络构建方法和训练方法、目标检测方法
CN110288579A (zh) * 2019-06-24 2019-09-27 珠海格力智能装备有限公司 显示设备的检测方法及装置
JP2020063969A (ja) * 2018-10-17 2020-04-23 株式会社神戸製鋼所 学習装置、推定装置、亀裂検出装置、亀裂検出システム、学習方法、推定方法、亀裂検出方法、及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023168950A (ja) 2022-05-16 2023-11-29 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005227055A (ja) * 2004-02-12 2005-08-25 Tokyo Metropolitan Sewerage Service Corp 管渠内画像中のクラック抽出方法
JP2006276022A (ja) * 2005-03-29 2006-10-12 Mitsutoyo Corp 画像測定装置
JP2009053126A (ja) * 2007-08-29 2009-03-12 Topcon Corp 画像測定装置
JP2015190978A (ja) * 2014-03-28 2015-11-02 株式会社Cubic 四角形や円錐台形状を持つ構築物の画像計測装置及びその方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014197004A (ja) * 2014-04-21 2014-10-16 株式会社キーエンス 画像計測装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005227055A (ja) * 2004-02-12 2005-08-25 Tokyo Metropolitan Sewerage Service Corp 管渠内画像中のクラック抽出方法
JP2006276022A (ja) * 2005-03-29 2006-10-12 Mitsutoyo Corp 画像測定装置
JP2009053126A (ja) * 2007-08-29 2009-03-12 Topcon Corp 画像測定装置
JP2015190978A (ja) * 2014-03-28 2015-11-02 株式会社Cubic 四角形や円錐台形状を持つ構築物の画像計測装置及びその方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020063969A (ja) * 2018-10-17 2020-04-23 株式会社神戸製鋼所 学習装置、推定装置、亀裂検出装置、亀裂検出システム、学習方法、推定方法、亀裂検出方法、及びプログラム
JP7033045B2 (ja) 2018-10-17 2022-03-09 株式会社神戸製鋼所 学習装置、推定装置、亀裂検出装置、亀裂検出システム、学習方法、推定方法、亀裂検出方法、及びプログラム
CN109784194A (zh) * 2018-12-20 2019-05-21 上海图森未来人工智能科技有限公司 目标检测网络构建方法和训练方法、目标检测方法
CN110288579A (zh) * 2019-06-24 2019-09-27 珠海格力智能装备有限公司 显示设备的检测方法及装置

Also Published As

Publication number Publication date
JP6569002B2 (ja) 2019-08-28
JPWO2017168737A1 (ja) 2018-10-11

Similar Documents

Publication Publication Date Title
US11893721B2 (en) Defect detection apparatus and medium
JP5060358B2 (ja) 測量システム
EP3211369B1 (en) Surveying instrument and program
JP4607095B2 (ja) 測量機器において画像処理を行う方法と装置
CN101946156B (zh) 确定觇标相对于具有摄影机的勘测仪器的坐标
JP6569002B2 (ja) 欠陥画像表示制御装置及びプログラム
JP2009210388A (ja) 地理データ収集装置
JP6506531B2 (ja) 測量機及びプログラム
JP6899436B2 (ja) 算出システム、プログラム及びターゲット
US20110183684A1 (en) Mobile communication terminal and method
JP2013228267A (ja) 表示装置、表示方法、及びプログラム
US10690498B2 (en) Automatic point layout and staking system
WO2021182294A1 (ja) 測量方法、測量システム、およびプログラム
JP4359083B2 (ja) 測量システム
JP4359084B2 (ja) 測量システム
JP2011039130A (ja) 連携表示装置、連携表示方法、及びプログラム
JP6101033B2 (ja) 測設支援装置、測設支援方法、及びプログラム
JP6101032B2 (ja) 測設支援装置、測設支援方法、及びプログラム
JP4708558B2 (ja) 位置誘導装置
JP4167509B2 (ja) 測量システム
Hsieh et al. On-site Visual Construction Management System Based on the Integration of SLAM-based AR and BIM on a Handheld Device
JP2004085555A (ja) 測量システム
JP2007108040A (ja) 測量機及びこの測量機を用いた測設方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018508325

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16896954

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 16896954

Country of ref document: EP

Kind code of ref document: A1