WO2021039088A1 - 撮像パラメータ出力方法、及び、撮像パラメータ出力装置 - Google Patents

撮像パラメータ出力方法、及び、撮像パラメータ出力装置 Download PDF

Info

Publication number
WO2021039088A1
WO2021039088A1 PCT/JP2020/025158 JP2020025158W WO2021039088A1 WO 2021039088 A1 WO2021039088 A1 WO 2021039088A1 JP 2020025158 W JP2020025158 W JP 2020025158W WO 2021039088 A1 WO2021039088 A1 WO 2021039088A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
image
information
displacement
parameter output
Prior art date
Application number
PCT/JP2020/025158
Other languages
English (en)
French (fr)
Inventor
今川 太郎
晃浩 野田
悠樹 丸山
日下 博也
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to CN202080050456.2A priority Critical patent/CN114127507A/zh
Priority to JP2021542058A priority patent/JPWO2021039088A1/ja
Publication of WO2021039088A1 publication Critical patent/WO2021039088A1/ja
Priority to US17/568,129 priority patent/US20220128433A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M5/00Investigating the elasticity of structures, e.g. deflection of bridges or air-craft wings
    • G01M5/0008Investigating the elasticity of structures, e.g. deflection of bridges or air-craft wings of bridges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/16Measuring arrangements characterised by the use of optical techniques for measuring the deformation in a solid, e.g. optical strain gauge
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • G01B21/047Accessories, e.g. for positioning, for tool-setting, for measuring probes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M5/00Investigating the elasticity of structures, e.g. deflection of bridges or air-craft wings
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M5/00Investigating the elasticity of structures, e.g. deflection of bridges or air-craft wings
    • G01M5/0091Investigating the elasticity of structures, e.g. deflection of bridges or air-craft wings by using electromagnetic excitation or detection
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/006Apparatus mounted on flying objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/182Network patterns, e.g. roads or rivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation

Definitions

  • the present disclosure relates to an imaging parameter output method for outputting an imaging parameter relating to an imaging device that captures an image for measuring a displacement indicating the movement of an object, and an imaging parameter output device.
  • the worker decides the combination of the imaging position and the focal length of the lens while checking at the imaging site, and it takes time to work at the imaging site.
  • the combination of the imaging position and the focal length of the lens affects the measurement accuracy of displacement. Therefore, when the worker confirms the combination of the imaging position and the focal length of the lens that satisfy the desired measurement accuracy, the work at the imaging site requires more time.
  • an object of the present disclosure is to provide an imaging parameter output method and an imaging parameter output device capable of measuring a desired measurement accuracy while shortening the time required for measurement work at an imaging site. ..
  • the imaging parameter output method is an imaging parameter output method for outputting imaging parameters relating to an imaging device that captures an image for measuring a displacement indicating the movement of the object, and specifies the object.
  • the imaging is performed based on the first acquisition step of acquiring the object information for imaging and the geometric imaging conditions for imaging the object, and the object information and the geometric imaging conditions. It includes a calculation step of calculating the image pickup parameter including the measurement accuracy of the image pickup candidate region in which the device is installed and the displacement in the image pickup candidate region, and an output step of outputting the image pickup parameter.
  • the image pickup parameter output method is an image pickup parameter output method for outputting an image pickup parameter relating to an image pickup device for taking an image for measuring a displacement indicating the movement of an object, and specifies the object.
  • the imaging parameter output method is an imaging parameter output method for outputting imaging parameters relating to an imaging device that images an image for measuring a physical quantity of an object, and is used for specifying the object.
  • the imaging device is installed based on the first acquisition step of acquiring the object information and the geometric imaging conditions when imaging the object, and the object information and the geometric imaging conditions.
  • the imaging candidate region to be imaged and the calculation step of calculating the imaging parameter including the measurement accuracy of the physical quantity of the object in the imaging candidate region, and the output step of outputting the imaging parameter are included.
  • the imaging parameter output device is an imaging parameter output device that outputs imaging parameters related to an imaging device that captures an image for measuring a displacement indicating the movement of the object, and specifies the object. Based on the object information for acquiring the object information and the acquisition unit for acquiring the geometric imaging conditions when imaging the object, and the object information and the geometric imaging conditions, the imaging device is used. It includes a calculation unit for calculating the image pickup parameter including the image pickup candidate area to be installed and the measurement accuracy of the displacement in the image pickup candidate area, and an output unit for outputting the image pickup parameter.
  • the imaging parameter output device is an imaging parameter output device that outputs imaging parameters related to an imaging device that captures an image for measuring a displacement indicating the movement of the object, and specifies the object.
  • the image pickup candidate area and the image pickup candidate area in which the image pickup apparatus is installed based on the object information and the acquisition unit which acquires the geographic information including the object, and the object information and the geographic information. It includes a calculation unit that calculates the imaging parameter including the measurement accuracy of the displacement, and an output unit that outputs the imaging parameter.
  • the imaging parameter output method or the like it is possible to measure the desired measurement accuracy while shortening the measurement work time at the imaging site.
  • FIG. 1 is a block diagram showing a functional configuration of an imaging parameter output system according to the first embodiment.
  • FIG. 2 is a diagram showing an example of object information according to the first embodiment.
  • FIG. 3 is a flowchart showing the operation of the calculation device according to the first embodiment.
  • FIG. 4 is a diagram showing a calculation example of imaging parameters according to the first embodiment.
  • FIG. 5 is a diagram showing an example of imaging parameters according to the first embodiment.
  • FIG. 6 is a flowchart showing the operation of the calculation device according to the first modification of the first embodiment.
  • FIG. 7 is a diagram showing an example of imaging parameters according to the first modification of the first embodiment.
  • FIG. 8 is a flowchart showing the operation of the calculation device according to the second modification of the first embodiment.
  • FIG. 1 is a block diagram showing a functional configuration of an imaging parameter output system according to the first embodiment.
  • FIG. 2 is a diagram showing an example of object information according to the first embodiment.
  • FIG. 3 is a flowchart
  • FIG. 9 is a diagram showing an example of imaging parameters according to the second modification of the first embodiment.
  • FIG. 10 is a flowchart showing the operation of the calculation device according to the second embodiment.
  • FIG. 11 is a diagram showing an example of a non-imaging region according to the second embodiment.
  • FIG. 12 is a diagram showing an example of imaging parameters according to the second embodiment.
  • FIG. 13 is a block diagram showing a functional configuration of the imaging parameter output system according to the third embodiment.
  • FIG. 14 is a flowchart showing the operation of the calculation device according to the third embodiment.
  • FIG. 15 is a diagram showing an example of imaging parameters according to the third embodiment.
  • FIG. 16 is a diagram showing an example of an imaging parameter in which the confirmation image according to the third embodiment has been updated.
  • FIG. 17 is a flowchart showing the operation of the calculation device according to the modified example of the third embodiment.
  • FIG. 18 is a schematic view for explaining displacement measurement using an imaging device.
  • FIG. 18 is a schematic view for explaining displacement measurement using an imaging device. Note that FIG. 18 shows a state in which the structure O is imaged using two image pickup devices, the first image pickup device 30 and the second image pickup device 40, but the number of image pickup devices is two. The number is not limited, and the number may be one or three or more. Further, the displacement of the structure O is an example of the physical quantity of the structure O.
  • the structure O is imaged from the periphery of the structure O by the imaging device, and the structure O is based on the image obtained by the imaging.
  • the displacement is measured.
  • the first imaging device 30 and the second imaging device 40 capture an image for measuring the displacement of the structure O.
  • the first imaging device 30 and the second imaging device 40 image the structure O from different viewpoints.
  • the displacement of the structure O is measured based on the two images captured in synchronization by each of the first imaging device 30 and the second imaging device 40.
  • the structure O is an example of an object for measuring displacement, and is, for example, an infrastructure structure such as a bridge.
  • the structure O is, for example, a bridge on which a vehicle such as an automobile or a railroad travels, but is not limited thereto.
  • the structure O may be, for example, a steel tower, a building, a factory plant, mechanical equipment, or the like.
  • the first imaging device 30 and the second imaging device 40 may be, for example, a monochrome camera but a color camera.
  • the first imaging device 30 and the second imaging device 40 are, for example, a digital video camera or a digital still camera including an image sensor.
  • the worker searches for an imaging position where the structure O can be imaged at the imaging site around the structure O, and finds a lens having a focal length corresponding to the imaging position.
  • the combination of the imaging position and the focal length of the lens affects the measurement accuracy of the displacement of the structure O. Therefore, the worker needs more time to find a combination of the imaging position and the focal length of the lens that can obtain the desired measurement accuracy.
  • the combination of the image pickup position and the focal length of the lens becomes complicated, and the worker takes more time for the work.
  • the imaging parameter output method is an imaging parameter output method for outputting imaging parameters relating to an imaging device that captures an image for measuring a displacement indicating the movement of the object, and specifies the object.
  • the imaging is performed based on the first acquisition step of acquiring the object information for imaging and the geometric imaging conditions for imaging the object, and the object information and the geometric imaging conditions. It includes a calculation step of calculating the image pickup parameter including the measurement accuracy of the image pickup candidate region in which the device is installed and the displacement in the image pickup candidate region, and an output step of outputting the image pickup parameter.
  • the worker can know the imaging parameters including the imaging candidate region and the displacement measurement accuracy in advance, so that the time required for the combination of the imaging position and the focal length of the lens at the imaging site can be shortened. it can.
  • the worker can measure the displacement satisfying the desired measurement accuracy by performing the imaging from the imaging candidate region having the measurement accuracy corresponding to the object. Therefore, according to the imaging parameter output method according to one aspect of the present disclosure, it is possible to measure the desired measurement accuracy while shortening the time required for the measurement work at the imaging site.
  • the second acquisition step of acquiring the geographic information including the object is included, and in the calculation step, the imaging parameter is further calculated based on the geographic information.
  • the worker can determine the imaging candidate position for measuring the displacement of the object in consideration of the geographical information.
  • the worker can determine the imaging candidate position in consideration of, for example, the topography around the object.
  • the image pickup device obtained based on the geographic information is imaged from the target area in which the image pickup device is installed, which is calculated based on the object information and the geometric image pickup condition.
  • the imaging parameter including the imaging candidate region, which is a region excluding the impossible imaging region, is calculated.
  • the imaging candidate region includes an imaging candidate position
  • the imaging parameter further includes a first confirmation image for confirming the scenery when the object is viewed from the imaging candidate position.
  • the worker can determine a more appropriate imaging candidate position by setting a position in the imaging candidate area where there is no obstruction as an imaging candidate position.
  • a reception step for accepting an operation of changing the imaging candidate position and a first confirmation image included in the imaging parameter when the object is viewed from the changed imaging candidate position. 2 includes an update step to update the confirmation image.
  • the worker can easily confirm the presence or absence of a shield between the object and the changed imaging candidate position.
  • the imaging candidate region includes a third acquisition step for acquiring the desired measurement accuracy
  • the imaging candidate region is a region that satisfies the desired measurement accuracy
  • the worker can easily know the area that satisfies the desired measurement accuracy.
  • the imaging parameter further includes a fourth acquisition step of acquiring environmental information when imaging the object, and the imaging parameter includes information regarding a candidate schedule for imaging the object based on the environmental information. ..
  • Candidate dates are useful in determining the date and time of imaging.
  • the geometric imaging condition includes at least one of an imaging range of the object, lens information regarding a lens that can be used in the imaging apparatus, and information regarding a sensor of the imaging apparatus.
  • the measurement accuracy of the imaging candidate region and the displacement can be calculated using at least one of the imaging range of the object, the lens information regarding the lens that can be used in the imaging device, and the information regarding the sensor of the imaging device.
  • the measurement accuracy can be calculated more accurately than when the imaging range of the object, the lens information about the lens that can be used in the imaging apparatus, and the information about the sensor of the imaging apparatus are not used.
  • the imaging device includes a first imaging device and a second imaging device that image the object from different viewpoints, and the geometric imaging conditions further include the first imaging device and the said. It includes at least one of the baseline length of the second imaging device and the convergence angle formed by the first imaging device and the second imaging device.
  • the operator can acquire the imaging parameters even when the work at the imaging site is more complicated, so that the time required for combining the imaging position and the focal length of the lens at the imaging site can be further shortened. can do.
  • the imaging parameter output method is an imaging parameter output method for outputting imaging parameters relating to an imaging device that captures an image for measuring a displacement indicating the movement of the object, and is the object.
  • the worker can know the imaging candidate area in advance even when it is difficult to find the imaging position at the imaging site due to the special terrain around the object. Therefore, according to the imaging parameter output method according to one aspect of the present disclosure, even when it is difficult to find the imaging position at the imaging site, it is necessary to combine the imaging position and the focal length of the lens at the imaging site. You can save time. In addition, the worker can measure the displacement satisfying the desired measurement accuracy by performing the imaging from the imaging candidate region having the measurement accuracy corresponding to the object.
  • the imaging parameter output method is an imaging parameter output method for outputting imaging parameters relating to an imaging device that images an image for measuring a physical quantity of an object, and specifies the object.
  • the imaging device is based on the first acquisition step of acquiring the object information for the purpose and the geometric imaging conditions when imaging the object, and the object information and the geometric imaging conditions. Includes an imaging candidate region in which the image is installed, a calculation step of calculating the imaging parameter including the measurement accuracy of the physical quantity of the object in the imaging candidate region, and an output step of outputting the imaging parameter.
  • the worker can take the imaging candidate area before capturing the image for measuring the physical quantity.
  • the imaging parameter output method it is necessary to combine the imaging position and the focal length of the lens at the imaging site. You can save time. Further, the worker can measure the physical quantity satisfying the desired measurement accuracy by taking an image from the imaging candidate region having the measurement accuracy corresponding to the object.
  • the imaging parameter output device is an imaging parameter output device that outputs imaging parameters related to an imaging device that captures an image for measuring a displacement indicating the movement of the object, and is the object. Based on the object information for specifying the object and the acquisition unit that acquires the geometric imaging conditions when imaging the object, and the object information and the geometric imaging conditions, the imaging is performed. It includes an imaging candidate region in which the device is installed, a calculation unit that calculates the imaging parameter including the measurement accuracy of the displacement in the imaging candidate region, and an output unit that outputs the imaging parameter.
  • the imaging parameter device for example, it is possible to measure the desired measurement accuracy while shortening the time required for the measurement work at the imaging site.
  • the imaging parameter output device is an imaging parameter output device that outputs imaging parameters related to an imaging device that captures an image for measuring a displacement indicating the movement of the object, and is the object.
  • the imaging parameter device for example, even when it is difficult to find the imaging position at the imaging site, the time required for the combination of the imaging position and the focal length of the lens at the imaging site and the like. It is possible to measure the displacement that satisfies the desired measurement accuracy while shortening the above.
  • each figure is a schematic diagram and is not necessarily exactly illustrated. Further, in each figure, substantially the same configuration may be designated by the same reference numerals, and duplicate description may be omitted or simplified.
  • the image is a still image but may be a moving image.
  • FIG. 1 is a block diagram showing a functional configuration of the imaging parameter output system 1 according to the present embodiment.
  • the image pickup parameter output system 1 outputs the image pickup parameters for each of the two image pickup devices when the displacement of the structure O is measured by the two image pickup devices.
  • the displacement in the present specification includes not only the amount of change in the position of the structure O but also the deformation and vibration of the structure O.
  • the imaging parameter output system 1 is an information processing system that outputs imaging parameters based on object information for specifying an object for which displacement is to be measured and geometric imaging conditions. ..
  • the imaging parameter output system 1 outputs, for example, imaging parameters before imaging the structure O.
  • the image pickup parameter output system 1 includes, for example, a calculation device 10 and a display device 20.
  • the calculation device 10 obtains an image pickup candidate region for measuring the displacement of the structure O and an image pickup parameter including the measurement accuracy of the displacement in the image pickup candidate area based on the object information and the geometric image pickup condition. It is an information processing device that calculates.
  • the calculation device 10 includes an acquisition unit 11, a calculation unit 12, and an output unit 13.
  • the calculation device 10 is an example of an image pickup parameter output device.
  • the acquisition unit 11 acquires object information and geometric imaging conditions.
  • the acquisition unit 11 may be a communication interface (communication circuit) that is communicably connected to an external device via wireless communication or wired communication.
  • the calculation device 10 acquires the object information and the geometric imaging conditions input to the external device by the worker or the like by communication.
  • the acquisition unit 11 may be a user interface such as a hardware key (hardware button), a slide switch, or a touch panel.
  • the calculation device 10 acquires the object information and the geometric imaging conditions by direct input from the worker.
  • the worker is an example of a user.
  • FIG. 2 is a diagram showing an example of object information according to the present embodiment.
  • the object information may be information indicating the imaging range in the structure O. That is, the object information may be information indicating the position of the structure ⁇ or the measurement range for measuring the displacement in the structure O.
  • the object information may be, for example, a rectangular frame F indicating an imaging range on a map. Thereby, the size (for example, the size of the structure O) and the position of the measurement range can be acquired.
  • the object information may be information other than the above as long as it is information that can identify the structure O.
  • the object information may be, for example, the latitude, longitude, height (for example, above sea level) of the structure O. Further, when the entire structure O is within the displacement measurement range, the object information may be the name of the structure O or the like.
  • the geometric imaging condition is that the image of the structure O formed on the image pickup element of the image pickup apparatus (for example, the first imaging apparatus 30 and the second imaging apparatus 40) when the structure O is imaged. It is a condition for determining the aspect. It can be said that the geometric imaging condition is a condition for determining what kind of image of the structure O is formed on the imaging element.
  • the geometric imaging condition is, for example, a condition for determining the size of the image of the structure O formed in the imaging apparatus, the degree of blurring, and the like.
  • the geometric imaging condition is at least one of the size of the measurement range (for example, the angle of view), the focal length of the optical system, the aperture (for example, the F value), the sensor specifications, the desired convergence angle, and the maximum baseline length. Including.
  • the geometric imaging conditions may include conditions relating to so-called camera parameters.
  • the size of the measurement range may be determined based on the rectangular frame F, including, for example, the width of the measurement range.
  • the angle of view is an angle that can be photographed by each camera (for example, ⁇ 21 and ⁇ 22 in FIG. 4).
  • the focal length of the optical system is, for example, the focal length of a lens that can be attached to an imaging device.
  • the aperture is, for example, an F value and is set so as to obtain a desired depth of field.
  • the sensor specifications include at least two of resolution (number of pixels), pixel size and sensor size.
  • the convergence angle is an angle formed by the two imaging devices, and is, for example, the convergence angles ⁇ 11 to ⁇ 13 shown in FIG. 4 described later.
  • the desirable convergence angle is a condition that can increase the measurement accuracy, and may be a predetermined angle (for example, 90 °) or an angle range (for example, 80 ° to 90 °). Further, the desirable convergence angle may be an angle at a predetermined position of the structure O (for example, the center of the structure O).
  • the baseline length is the length of a straight line (baseline) connecting the two imaging devices, and is, for example, the baseline length L shown in FIG. 4 described later.
  • the maximum baseline length may be, for example, the length of the cable connecting the two imaging devices. That is, the baseline length is the maximum separation distance between the two imaging devices, and may be, for example, 100 m or less.
  • the cable may be a cable for transmitting a signal for synchronizing the imaging timings of the two imaging devices.
  • the desirable convergence angle and maximum baseline length do not have to be included in the geometric imaging conditions.
  • the maximum baseline length may not be included in the geometric imaging conditions.
  • the calculation unit 12 calculates the imaging parameters of the imaging device for measuring the displacement of the structure O based on the object information and the geometric imaging conditions.
  • the imaging parameters include the imaging candidate region of the imaging apparatus and the measurement accuracy of the displacement in the imaging candidate region.
  • the imaging candidate region is a region that is a candidate for installing an imaging device when imaging the structure O, may be a range in which the imaging device is installed, or may be a pinpoint position (an imaging candidate position described later). There may be.
  • the imaging parameters may include the installation orientation of the imaging device, the focal length of the lens (lens type), the aperture, the camera type (for example, sensor specifications such as the number of pixels, sensor size, and pixel size). ..
  • the imaging parameter may include an imaging candidate region of the imaging apparatus and an image indicating the measurement accuracy of the displacement in the imaging candidate region. That is, the calculation unit 12 may generate an image showing the image pickup candidate region of the image pickup apparatus and the measurement accuracy of the displacement in the image pickup candidate region.
  • the displacement measurement accuracy in the imaging candidate region indicates the measurement accuracy when the displacement is measured based on the image obtained by imaging the structure O from the imaging candidate region.
  • the output unit 13 outputs the imaging parameters calculated by the calculation unit 12 to the display device 20.
  • the imaging parameter output method by the output unit 13 is not particularly limited.
  • the output unit 13 may output the imaging parameters to the display device 20 by wireless communication or wired communication, or may output the imaging parameters to the display device 20 via a detachable memory (for example, a USB memory).
  • the output unit 13 is a communication interface that is communicably connected to the display device 20 via, for example, wireless communication or wired communication.
  • the display device 20 is a device that acquires imaging parameters from the calculation device 10 and outputs the acquired imaging parameters as an image.
  • the image includes a photograph, an illustration, characters, and the like.
  • the display device 20 is a liquid crystal display or the like.
  • the image output by the display device 20 is visually recognized by the worker, and is used for examining the imaging candidate position, which is a position where the worker is a candidate for imaging the structure O.
  • the display device 20 may be a stationary device or a device possessed by a mobile terminal possessed by a worker.
  • the mobile terminal is not particularly limited as long as it has a display device 20 and can communicate with the calculation device 10, and may be, for example, a smartphone or a tablet.
  • the worker can confirm the imaging parameters by checking the display device 20 of the mobile terminal around the structure O. Further, when the imaging parameter is updated while in the vicinity of the structure O, the worker can confirm the updated imaging parameter on the mobile terminal.
  • the display device 20 is an example of a presentation device.
  • the image pickup parameter output system 1 may include a device that outputs sound together with the display device 20 or in place of the display device 20 as a presentation device. Further, the imaging parameter output system 1 may include a device for displaying presentation information on an object (for example, a screen) such as a projector as a presentation device. Further, when the calculation device 10 is located at a remote location, the calculation device 10 and the display device 20 may be connected via a network.
  • FIG. 3 is a flowchart showing the operation of the calculation device 10 according to the present embodiment.
  • the calculation device 10 may execute the operation shown in FIG. 3 before the worker heads for the imaging of the structure O, that is, in advance.
  • the acquisition unit 11 acquires the object information (S11).
  • the acquisition unit 11 acquires the rectangular frame F shown on the map as shown in FIG. 2 as the object information corresponding to the structure O.
  • the acquisition unit 11 acquires geometric imaging conditions (S12).
  • the acquisition unit 11 may acquire geometric imaging conditions from an external device by communication, or may acquire a plurality of geometrical imaging conditions stored in a storage unit (not shown) of the calculation device 10. You may accept the selection of the geometric imaging condition used for imaging the structure O from the imaging condition.
  • steps S11 and S12 are examples of the first acquisition step.
  • the timing of acquiring the object information and the geometric imaging conditions is not particularly limited, and they may be acquired at the same time or at different timings from each other.
  • the acquisition unit 11 outputs the acquired object information and geometric imaging conditions to the calculation unit 12.
  • the calculation unit 12 calculates the imaging parameters at the time of imaging the structure O based on the object information acquired from the acquisition unit 11 and the geometric imaging conditions (S13). That is, the calculation unit 12 determines the imaging parameters related to the first imaging device 30 and the second imaging device 40 when imaging the structure O based on the object information acquired from the acquisition unit 11 and the geometric imaging conditions. calculate.
  • the imaging parameters include information indicating the imaging candidate region in which the first imaging device 30 and the second imaging device 40 are installed and the measurement accuracy of the displacement in the imaging candidate region.
  • Step S13 is an example of a calculation step.
  • FIG. 4 is a diagram showing a calculation example of imaging parameters according to the present embodiment.
  • FIG. 4 shows a state when the structure O is viewed from above.
  • the width of the structure O is 100 m
  • the maximum baseline length is 100 m
  • the desired convergence angle ⁇ 11 is 90 °
  • the focal length of the optical system of the image pickup apparatus is 14 mm.
  • geometrical imaging conditions including 24 mm and 50 mm, a resolution of 4K, and a pixel size of 5.5 ⁇ m have been acquired.
  • the convergence angle ⁇ 11 is, for example, an angle at the center position of the structure O.
  • the focal length of the optical system is 14 mm, and the angle of view at this time is 78 °.
  • the configurations of the first imaging device 30 and the second imaging device 40 are the same, but the configuration is not limited to this. Further, it is assumed that the first imaging device 30 and the second imaging device 40 have, for example, a detection accuracy of 1/50 pixel. The detection accuracy is predetermined for each of the first imaging device 30 and the second imaging device 40.
  • the calculation unit 12 sets the installation positions of the first imaging device 30 and the second imaging device 40 based on the geometric imaging conditions.
  • the convergence angle ⁇ 11 at the central position p1 of the structure O is 90 °
  • the angle of view ⁇ 21 of the first imaging device 30 and the angle of view ⁇ 22 of the second imaging device 40 are 78 °, respectively.
  • the installation positions of the first imaging device 30 and the second imaging device 40 are set so that the imaging range of the structure O can be imaged when the baseline length L is 100 m or less.
  • the baseline length L is 82 m.
  • the calculation unit 12 calculates the measurement accuracy of the displacement when the displacement is measured based on the image captured at the installation position set above.
  • the calculation unit 12 calculates, for example, the measurement accuracy of the displacement in the composite image obtained by synthesizing the images captured by the first imaging device 30 and the second imaging device 40, respectively.
  • the calculation unit 12 calculates, for example, the measurement error of the displacement in the composite image from the detection accuracy and the distance to the structure O.
  • the error ellipse is shown by p1a to p3a.
  • the value of the error ellipse is a value obtained by converting 1/50 pixels into actual sizes on the measurement target.
  • the error here is an actual size value, and the measurement error of the displacement at the central position p1 of the structure O is, for example, 0.45 mm in both the vertical direction and the horizontal direction on the paper surface of FIG. 4 from the error ellipse p1a. is there.
  • the convergence angle ⁇ 11 is 90 °, the error in the depth direction and the left-right direction is well-balanced.
  • the imaging parameters (combination of imaging position, orientation, and focal length (lens type)) are temporarily set for the above object information and geometric imaging conditions, the convergence angle, baseline length, and baseline length at position p1 and The measurement accuracy can be calculated geometrically. Further, if the above provisional setting is made, it is possible to determine whether or not the object is included in the shooting range. Based on the obtained calculation results (for example, convergence angle, baseline length, shooting range, measurement accuracy, etc.), the appropriateness of the temporarily set imaging parameters can be evaluated. The output of the system is an imaging parameter such that such an evaluation value becomes an optimum or semi-optimal value. Optimal or suboptimal parameters can be determined using a full parameter search, a nonlinear optimization method, or the like.
  • the vertical direction on the paper surface of FIG. 4 indicates the depth direction of the structure O when viewed from the image pickup device side.
  • the left-right direction on the paper surface of FIG. 4 is a direction parallel to the direction in which the structure O extends (for example, the horizontal direction).
  • the calculation unit 12 calculates the displacement measurement error at each of the position p2 at one end of the structure O and the position p3 at the other end.
  • the measurement error of the displacement at the positions p2 and p3 of the end of the structure O is, for example, 1.0 mm in the depth direction and 0.3 mm in the left-right direction from the error ellipses p2a and p3a.
  • the distances from the first imaging device 30 and the second imaging device 40 are different, so that the measurement error is an error ellipse as shown in FIG.
  • each of the convergence angle ⁇ 12 at the position p2 and the convergence angle ⁇ 13 at the position p3 is 53 °, for example.
  • the calculation unit 12 changes the positions of the first imaging device 30 and the second imaging device 40 based on the geometric imaging conditions, and calculates the displacement measurement error for each position.
  • the calculation unit 12 may calculate the displacement measurement error for each focal length of the optical system.
  • the calculation unit 12 calculates, for example, a displacement measurement error for each lens.
  • the aperture in the first imaging device 30 is the first distance, for example, assuming that the distance from the first imaging device 30 to the position p2 is the first distance and the distance from the first imaging device 30 to the position p3 is the second distance. It is preferable that the captured image is set to be in focus in the range from to the second distance. Further, the aperture in the second imaging device 40 is a third distance, for example, assuming that the distance from the second imaging device 40 to the position p2 is the third distance and the distance from the second imaging device 40 to the position p3 is the fourth distance. It is preferable that the captured image is set to be in focus in the range from to the fourth distance.
  • the output unit 13 outputs the imaging parameter calculated in step S13 (S14).
  • the output unit 13 outputs the imaging parameters to the external display device 20. Then, the display device 20 displays the imaging parameters acquired from the output unit 13.
  • Step S14 is an example of an output step.
  • FIG. 5 is a diagram showing an example of the imaging parameter 50 according to the present embodiment. Specifically, it is a figure which shows the image pickup parameter 50 displayed by the display device 20.
  • the imaging parameter 50 is, for example, a “camera condition” indicating the geometrical conditions of the first imaging device 30 and the second imaging device 40, and an image indicating the measurement accuracy of the imaging candidate region and the displacement.
  • the camera conditions indicate the geometric imaging conditions used to calculate the measurement accuracy of the imaging candidate region and displacement.
  • the camera conditions include, for example, at least a part of the geometric imaging conditions acquired in step S12.
  • the camera condition may include information for identifying the camera to be used (for example, the model number of the camera).
  • the image P1 is, for example, an image in which the measurement accuracy of the displacement in each of the imaging candidate regions a1 to a3 and the imaging candidate regions a1 to a3 is superimposed on the map including the structure O.
  • the region hatched in FIG. 5 indicates any of the imaging candidate region a1, the imaging candidate region a2, or the imaging candidate region a3.
  • the image pickup candidate areas a1 to a3 located on the lower side of the paper surface are, for example, areas in which one of the first image pickup device 30 and the second image pickup device 40 is installed, and the image pickup candidate areas a1 to a3 located on the upper side of the paper surface.
  • a3 is, for example, an area where the other of the first imaging device 30 and the second imaging device 40 is installed.
  • the imaging candidate regions a1 to a3 are, for example, regions in which the displacement measurement accuracy differs from each other.
  • the imaging candidate region a1 is a region in which the displacement measurement error is 1.0 mm or less. That is, the error when the displacement of the structure O is measured based on the image obtained by imaging the structure O in the imaging candidate region a1 is 1.0 mm or less.
  • the imaging candidate region a2 is a region in which the displacement measurement error is larger than 1.0 mm and 2.0 mm or less. That is, the error when measuring the displacement of the structure O based on the image obtained by imaging the structure O in the imaging candidate region a2 is larger than 1.0 mm and 2.0 mm or less. is there.
  • the imaging candidate region a3 is, for example, a region in which the displacement measurement error is larger than 2.0 mm and 3.0 mm or less. That is, the error when the displacement of the structure O is measured based on the image obtained by imaging the structure O in the imaging candidate region a3 is larger than 2.0 mm and 3.0 mm or less. ..
  • the measurement accuracy of the displacements of the imaging candidate regions a1 to a3 may be at least partially overlapped.
  • the image P1 shows the distribution of measurement errors.
  • the error here is, for example, a value (representative error) calculated based on two or more errors calculated by the calculation unit 12.
  • the representative error is calculated based on the six errors which are the errors at the positions p1 to p3.
  • the calculation method of the representative error is not particularly limited, but the representative error may be the maximum value, the minimum value, the average value, the median value, the mode value, etc. of two or more errors, or a predetermined value such as a weighted average. It may be a value that has been calculated.
  • the imaging candidate regions a1 to a3 of the image P1 may be regions having the same displacement measurement error (for example, 1.0 mm or less) and may be imaging capable regions for each optical system (for example, lens).
  • the imaging candidate region a1 is an imageable region when the focal length of the optical system is 14 mm
  • the imaging candidate region a2 is an imaging possible region when the focal length of the optical system is 24 mm
  • the worker can know the range in which an image in which the displacement can be obtained with a desired measurement accuracy can be captured.
  • the worker can know the range and the like that satisfy the measurement error allowed in the structure O.
  • the imaging parameter 50 is not limited to indicating the range as shown in the image P1.
  • the imaging candidate region included in the image P1 may be a pinpoint position.
  • the position where the displacement measurement error is minimized and the information indicating the measurement error at the position may be shown in the image P1 as an imaging candidate region.
  • the imaging parameter 50 includes information that visualizes the measurement accuracy of displacement, for example, information that facilitates the operator to select an imaging candidate position.
  • the image pickup parameter 50 includes, for example, the image P1.
  • the worker can easily visually recognize the calculation result of the calculation device 10.
  • the worker can easily determine the image pickup candidate position of the image pickup apparatus for imaging the structure O.
  • FIG. 6 is a flowchart showing the operation of the calculation device 10 according to this modification. Note that steps S11, S12, and S14 are the same as the steps shown in FIG. 3 of the first embodiment, and the description thereof will be omitted.
  • the acquisition unit 11 of the calculation device 10 acquires the desired measurement accuracy of the operator in addition to the first embodiment (S21).
  • the acquisition unit 11 may acquire the measurement accuracy from an external device, or when the storage unit (not shown) of the calculation device 10 stores the measurement accuracy corresponding to the structure O, in step S11.
  • the measurement accuracy may be acquired by reading the measurement accuracy of the structure O specified by the acquired object information from the storage unit.
  • the desired measurement error is 1.0 mm or less as the measurement accuracy.
  • the acquisition unit 11 outputs the acquired measurement accuracy to the calculation unit 12.
  • Step S21 is an example of the third acquisition step.
  • the calculation unit 12 calculates an imaging parameter including information indicating a region that satisfies the desired measurement accuracy among the regions based on the object information and the geometric imaging conditions (S22).
  • the calculation unit 12 calculates a region for each measurement error, for example, as shown in the image P1 shown in FIG.
  • the calculation unit 12 calculates, for example, a region having a measurement error of 1.0 mm or less, a region having a measurement error greater than 1.0 mm and 2.0 mm or less, and an region having a measurement error greater than 2.0 mm and 3.0 mm or less.
  • the calculation unit 12 determines a range satisfying the desired measurement accuracy acquired in step S21 as an imaging candidate region from the calculated two or more regions. For example, the calculation unit 12 determines only a region having a measurement error of 1.0 mm or less as an imaging candidate region among the above three regions.
  • FIG. 7 is a diagram showing an example of the imaging parameter 51 according to this modified example. Specifically, it is a figure which shows the image pickup parameter 51 displayed by the display device 20.
  • the imaging parameter 51 includes, for example, "camera conditions” indicating geometric conditions of the first imaging device 30 and the second imaging device 40, "measurement accuracy", and an imaging candidate region a4. Includes the image P2 shown.
  • the measurement accuracy is the measurement accuracy acquired in step S21.
  • Image P2 shows an imaging candidate region a4 that satisfies the desired measurement accuracy (for example, 1.0 mm or less) acquired in step S21.
  • the desired measurement accuracy for example, 1.0 mm or less
  • the calculation unit 12 measures a region in which the measurement error is greater than 1.0 mm and 2.0 mm or less. It is not necessary to calculate the region where the error is larger than 2.0 m and 3.0 mm or less.
  • the calculation unit 12 calculates a region where the measurement error is 1.0 mm or less, a region where the measurement error is larger than 1.0 mm and 2.0 mm or less, and a region where the measurement error is larger than 2.0 mm and 3.0 mm or less. However, if none of the three regions satisfies the desired measurement accuracy acquired in step S21, even if the region having the smallest measurement error and the value of the measurement error in the region are output. Alternatively, information indicating that there is no region that satisfies the measurement accuracy may be output.
  • FIG. 8 is a flowchart showing the operation of the calculation device 10 according to this modification. Note that steps S11 to S13 are the same as the steps shown in FIG. 3 of the first embodiment, and the description thereof will be omitted.
  • the acquisition unit 11 of the calculation device 10 acquires environmental information in addition to the first embodiment (S31).
  • the environmental information is information indicating the surrounding environment when the image pickup device is installed to image the structure O, and includes, for example, the weather, sunlight, and the direction of the sun. It is assumed that the acquisition unit 11 has acquired "sunny" as information indicating the weather, for example.
  • the acquisition unit 11 outputs the acquired environmental information to the calculation unit 12.
  • Step S31 is an example of the fourth acquisition step.
  • the calculation unit 12 calculates the candidate schedule based on the acquired environmental information (S32).
  • the calculation unit 12 identifies the position of the object based on the object information acquired in step S11. Then, the calculation unit 12 acquires the weather information of the area including the specified position. When the period for imaging the structure O is August 2019, the calculation unit 12 acquires the weather information in the area in August 2019.
  • the calculation unit 12 determines a date on which the probability of precipitation is predicted to be equal to or less than a predetermined value from the weather information as a candidate date.
  • the predetermined value may be, for example, 50% or 20%.
  • the calculation unit 12 calculates from the imaging candidate region, the structure O, the position of the sun, and the like, a time zone in which the image is backlit and a time zone in which the light is forward when the image is taken in the imaging candidate area. You may. Candidate dates are included in the imaging parameters.
  • the output unit 13 outputs an imaging parameter (S33). Specifically, the output unit 13 outputs an imaging parameter including a candidate schedule.
  • FIG. 9 is a diagram showing an example of the imaging parameter 52 according to this modified example. Specifically, it is a figure which shows the image pickup parameter 52 displayed by the display device 20.
  • the imaging parameter 52 includes a "candidate schedule" in addition to the imaging parameter 50 of the first embodiment.
  • Candidate dates include, for example, dates in August 2019 where the probability of precipitation is predicted to be 50% or less, and time zones of backlight and forward light.
  • the worker can easily determine the schedule for imaging according to the imaging parameter 52.
  • the imaging parameters are calculated in consideration of the geographical information around the structure O.
  • a method of outputting imaging parameters and the like according to the present embodiment will be described with reference to FIGS. 10 to 12.
  • the differences from the first embodiment will be mainly described, and the same components as those in the first embodiment will be designated by the same reference numerals, and the description may be omitted or simplified.
  • the configuration of the imaging parameter output system according to the present embodiment is the same as that of the imaging parameter output system 1 according to the first embodiment, and the description thereof will be omitted.
  • FIG. 10 is a flowchart showing the operation of the calculation device 10 according to the present embodiment. Note that steps S11, S12, and S14 are the same as the steps shown in FIG. 3 of the first embodiment, and the description thereof will be omitted.
  • the calculation unit 12 calculates a target region that can be an imaging candidate region based on the object information and the geometric imaging conditions (S41).
  • the process in step S41 is the same as step S13 shown in FIG. 3 of the first embodiment. That is, in step S41, for example, a region corresponding to the imaging candidate regions a1 to a3 of the image P1 shown in FIG. 5 is calculated.
  • the acquisition unit 11 acquires geographic information in addition to the first embodiment (S42).
  • the acquisition unit 11 may acquire the geographic information including the structure O specified from the object information acquired in step S11 by communication from an external device, or the storage unit (not shown) of the calculation device 10. If the geographic information is stored, the geographic information may be read out from the storage unit.
  • the acquisition unit 11 may acquire geographic information from, for example, a geographic information system (GIS: Geographic Information System).
  • GIS Geographic Information System
  • the acquisition unit 11 may acquire at least the geographic information in the imaging candidate regions a1 to a3 of the image P1.
  • the acquisition unit 11 outputs the geographic information to the calculation unit 12.
  • Step S42 is an example of the second acquisition step.
  • the calculation unit 12 calculates the non-imaging area based on the geographical information (S43).
  • the non-imaging region is a region that cannot be realistically captured by the imaging device or is difficult to capture, and includes, for example, at least one region based on the terrain and a region in which the installation of the imaging device is restricted. Areas based on terrain include areas where it is difficult to install imaging devices, such as rivers, forests, and steep slopes. Areas where installation is restricted include private land, areas that are off limits, and so on.
  • FIG. 11 is a diagram showing an example of non-imaging regions x1 and x2 according to the present embodiment.
  • the non-imaging region x1 is an region indicating a river.
  • the non-imaging region x2 is an region indicating a forest. In this way, the calculation unit 12 identifies the non-imaging regions x1 and x2 based on the geographical information.
  • the calculation unit 12 calculates an imaging parameter including an imaging candidate region based on the target region and the non-imaging region (S44). Specifically, the calculation unit 12 sets an imaging candidate region as an imaging candidate region excluding the non-imaging region from the target region, and calculates imaging parameters including the imaging candidate region.
  • the imaging candidate region calculated in step S44 indicates a region that can be realistically imaged.
  • FIG. 12 is a diagram showing an example of the imaging parameter 53 according to the present embodiment. Specifically, it is a figure which shows the image pickup parameter 53 displayed by the display device 20.
  • the imaging parameter 53 includes, for example, a “camera condition” indicating the geometrical conditions of the first imaging device 30 and the second imaging device 40, and an imaging candidate which is a target region excluding the non-imaging region. Includes image P3 showing the region.
  • the imaging candidate region b11 is an region of the target region b1 (for example, a region corresponding to the imaging candidate region a1 shown in FIG. 3) excluding the non-imaging region b12. Further, the imaging candidate region b11 is, for example, a region in which the displacement measurement error is 1.0 mm or less. As described above, the imaging candidate region b11 is a region in which the displacement measurement error is 1.0 mm or less, and indicates a region in which imaging is realistically possible.
  • the non-imaging region b12 is a region of the non-imaging regions x1 and x2 that overlaps with the target region b1.
  • the imaging candidate region b21 is an region of the target region b2 (for example, the region corresponding to the imaging candidate region a2 shown in FIG. 3) excluding the non-imaging region b22. Further, the imaging candidate region b21 is, for example, a region in which the displacement measurement error is larger than 1.0 mm and 2.0 mm or less. As described above, the imaging candidate region b21 is a region in which the displacement measurement error is larger than 1.0 mm and 2.0 mm or less, and indicates a region in which imaging is realistically possible.
  • the non-imaging region b22 is a region of the non-imaging regions x1 and x2 that overlaps with the target region b2.
  • the imaging candidate region b31 is an region of the target region b3 (for example, the region corresponding to the imaging candidate region a3 shown in FIG. 3) excluding the non-imaging region b32. Further, the imaging candidate region b31 is, for example, a region in which the displacement measurement error is larger than 2.0 mm and 3.0 mm or less. As described above, the imaging candidate region b31 is a region in which the displacement measurement error is larger than 2.0 mm and 3.0 mm or less, and indicates a region that can be realistically imaged.
  • the non-imaging region b32 is a region of the non-imaging regions x1 and x2 that overlaps with the target region b3.
  • the calculation device 10 can visualize the area excluding the non-capable area x1 and x2, that is, the area that can be realistically imaged. Therefore, the worker can more appropriately determine the imaging candidate position of the imaging device for imaging the structure O.
  • the calculation unit 12 has described an example of calculating the imaging parameters based on the geometric imaging conditions and the geographical information, but the present invention is not limited to this.
  • the calculation unit 12 may calculate the imaging parameter using only the geographic information among the geometric imaging conditions and the geographic information, for example.
  • the acquisition unit 11 need only acquire the geographic information out of the geometric imaging conditions and the geographic information. That is, in the flowchart shown in FIG. 10, the processes of steps S12 and S41 may not be performed.
  • the calculation unit 12 can calculate the imaging parameters including the imaging candidate region based on the geographic information when the terrain around the structure O is special and there are many non-imaging regions.
  • step S42 is an example of the first acquisition step.
  • the geographic information may include, for example, information indicating the measurement accuracy when measured in the past in the imaging candidate area.
  • the measurement accuracy in the imaging candidate region can be acquired, so that the calculation unit 12 can calculate the imaging parameters including the measurement accuracy of the imaging candidate region and the displacement in the imaging candidate region.
  • the imaging parameter is calculated in consideration of the scenery when the structure O is viewed from the imaging candidate position of the imaging device.
  • a method of outputting imaging parameters and the like according to the present embodiment will be described with reference to FIGS. 13 to 16.
  • the differences from the first embodiment will be mainly described, and the same components as those in the first embodiment will be designated by the same reference numerals, and the description may be omitted or simplified.
  • FIG. 13 is a block diagram showing a functional configuration of the imaging parameter output system 1a according to the third embodiment.
  • the image pickup parameter output system 1a includes a calculation device 10a instead of the calculation device 10 of the image pickup parameter output system 1 of the first embodiment.
  • the calculation device 10a has a reception unit 14 in addition to the calculation device 10 of the first embodiment.
  • the acquisition unit 11 acquires three-dimensional map information in addition to the object information and the geometric imaging conditions.
  • the three-dimensional map information is map information including the structure O and the surroundings of the structure O.
  • the three-dimensional map information may be included in the geographic information acquired by the acquisition unit 11.
  • the reception unit 14 is a user interface that receives operations related to the imaging candidate area from the worker.
  • the reception unit 14 receives, for example, an operation of selecting an imaging candidate position for imaging from an imaging candidate region and an operation of changing the imaging candidate position from a worker.
  • the reception unit 14 is realized by a hardware key (hardware button), a slide switch, a touch panel, or the like.
  • FIG. 14 is a flowchart showing the operation of the calculation device 10a according to the present embodiment.
  • the operation shown in FIG. 14 is an operation executed after the display device 20 displays the imaging parameter 50 shown in FIG. 5 in the operations of steps S11 to S14 shown in FIG.
  • the calculation unit 12 determines whether or not the imaging candidate position has been received from the worker via the reception unit 14 (S51).
  • the image pickup candidate position is, for example, a position set as a position for the worker to image the structure O from the image pickup candidate areas a1 to a3 shown in FIG.
  • the calculation unit 12 When the calculation unit 12 receives the imaging candidate position from the worker (Yes in S51), the calculation unit 12 acquires the three-dimensional map information via the acquisition unit 11 (S52).
  • the three-dimensional map information acquired by the acquisition unit 11 is, for example, map information including the structure O and the imaging candidate regions a1 to a3.
  • the acquisition unit 11 outputs the acquired three-dimensional map information to the calculation unit 12.
  • the calculation unit 12 acquires the first confirmation image when the structure O is viewed from the imaging candidate position based on the three-dimensional map information (S53). Then, the calculation unit 12 calculates the imaging parameter including the first confirmation image.
  • the output unit 13 outputs an imaging parameter including the first confirmation image to the display device 20 (S54). Then, the display device 20 displays the imaging parameters including the first confirmation image acquired from the output unit 13.
  • FIG. 15 is a diagram showing an example of the imaging parameter 54 according to the present embodiment. Specifically, it is a figure which shows the image pickup parameter 54 displayed by the display device 20.
  • the imaging parameter 54 sets, for example, the “imaging position” of the first imaging device 30 and the second imaging device 40 and the geometric conditions of the first imaging device 30 and the second imaging device 40.
  • the "camera condition” shown and the image P4 including the first confirmation images P41 and P42 are included.
  • the imaging position is information indicating the imaging candidate position received in step S51.
  • the imaging position may include, for example, information indicating latitude and longitude. Further, the imaging position may further include information indicating the height.
  • the first confirmation image P41 is an image when the structure O is viewed from the imaging candidate position of the first imaging device 30, and is, for example, an image based on three-dimensional map information.
  • the tree T is shown in the first confirmation image P41. That is, there is a shield between the first imaging device 30 and the structure O. In this case, it is necessary to change the imaging candidate position of the first imaging device 30, but by displaying the first confirmation image P41, the calculation device 10 needs to change the imaging candidate position of the first imaging device 30. Can be informed to the workers.
  • the calculation device 10 displays the first confirmation image that the calculation device 10 can take an image on a two-dimensional map (for example, on a map seen from above), but cannot actually take an image due to an obstacle or the like. By doing so, the worker can be notified.
  • the first confirmation image P42 is an image when the structure O is viewed from the imaging candidate position of the second imaging device 40, and is, for example, an image based on three-dimensional map information.
  • the structure O is shown in the first confirmation image P42. That is, there is no shield between the second imaging device 40 and the structure O. In this case, it is not necessary to change the imaging candidate position, but by displaying the first confirmation image P42, the calculation device 10 does not need to change the imaging candidate position of the second imaging device 40. Can be informed.
  • first confirmation images P41 and P42 are examples of information indicating the scenery when the structure O is viewed from the imaging candidate position. Further, the first confirmation image P41 is, for example, an image in a range corresponding to the angle of view and the installation orientation of the first imaging device 30, and the first confirmation image P42 is, for example, the angle of view and installation of the second imaging device 40. It is an image of the range corresponding to the orientation.
  • the calculation unit 12 determines whether or not the operation of changing the imaging candidate position has been accepted via the reception unit 14 (S55).
  • the change of the imaging candidate position may be performed by, for example, touching the first confirmation image P41, or by accepting the change of the imaging candidate position with a button or the like.
  • Step S55 is an example of a reception step.
  • the structure O shields the imaging candidate position based on the three-dimensional map information in the vicinity of the imaging candidate position received in step S51. Change to a position not shielded by (S56). Then, the second confirmation image when the structure O is viewed from the changed imaging candidate position is acquired (S57). Then, the calculation unit 12 calculates the imaging parameter including the second confirmation image.
  • the output unit 13 outputs an imaging parameter including the second confirmation image to the display device 20 (S58). Then, the display device 20 displays the imaging parameters including the second confirmation image acquired from the output unit 13.
  • Step S57 is an example of an update step.
  • FIG. 16 is a diagram showing an example of an imaging parameter 55 in which the confirmation image according to the present embodiment has been updated.
  • the imaging parameter 55 sets, for example, the “imaging position” of the first imaging device 30 and the second imaging device 40 and the geometric conditions of the first imaging device 30 and the second imaging device 40.
  • the "camera condition” shown and the image P5 including the second confirmation images P51 and P52 are included.
  • the imaging position is information indicating the imaging candidate position changed in step S57.
  • FIG. 16 shows an example in which only the imaging candidate position of the first imaging device 30 is changed among the first imaging device 30 and the second imaging device 40.
  • the second confirmation image P51 is an image when the structure O is viewed from the image pickup candidate position after the change of the first image pickup apparatus 30, and is, for example, an image based on three-dimensional map information.
  • the structure O is shown in the second confirmation image P51. That is, there is no shield between the first imaging device 30 and the structure O.
  • the calculation device 10a displays the confirmation image in the first image pickup device 30 according to the change in the image pickup candidate position, that is, by updating the first confirmation image P41 to the second confirmation image P51, from the changed image pickup candidate position. It is possible to inform the worker that the structure O can be imaged.
  • the second confirmation image P52 is the same image as the first confirmation image P42.
  • the calculation unit 12 may change the imaging candidate position of the second imaging device 40 according to the change of the imaging candidate position of the first imaging device 30. For example, at the image pickup candidate position of the first image pickup apparatus 30 after the change, the calculation unit 12 acquired at least one of the convergence angle ⁇ 11 and the baseline length L between the first imaging apparatus 30 and the second imaging apparatus 40 in step S12. When the geometrical imaging condition is no longer satisfied, the imaging candidate position of the second imaging apparatus 40 may be changed so as to satisfy the geometrical imaging condition. Then, the calculation unit 12 may calculate the imaging parameter using the image when the structure O is viewed from the changed imaging candidate position of the second imaging device 40 as the second confirmation image P52.
  • the calculation unit 12 may execute a process for displaying the first confirmation image, for example, when the image pickup candidate position is received and then a predetermined operation of the worker is received.
  • the predetermined operation may be, for example, clicking the first imaging device 30 shown on the image P4.
  • the first confirmation image P41 corresponding only to the first imaging device 30 may be displayed.
  • the process for displaying the confirmation image may be automatically executed.
  • the imaging candidate region indicates a pinpoint position (for example, an imaging candidate position)
  • the image when the structure O is viewed from the pinpoint position may be displayed as a confirmation image.
  • "Automatic" means that no operator operation is required to start the process of displaying the confirmation image.
  • the calculation unit 12 may further calculate the imaging parameter by using the region where the measurement accuracy is equal to or less than the predetermined value and there is no obstruction by the image analysis of the confirmed image as the imaging candidate region.
  • the calculation unit 12 may acquire the three-dimensional map information before step S13 shown in FIG. 3, and calculate the imaging parameter using the region in step S13 where no obstacle exists as the imaging candidate region.
  • the area where there is no obstruction may be a range or a pinpoint position.
  • the calculation unit 12 changes the imaging candidate position based on the three-dimensional map information in the vicinity of the imaging candidate position received in step S51. It may be possible to return to step S51, determine whether or not the calculation unit 12 has received a new imaging candidate position from the worker via the reception unit 14, and repeat steps S51 to S55.
  • FIG. 17 is a flowchart showing the operation of the calculation device 10a according to this modification. Note that steps S51 to S53 are the same as the steps shown in FIG. 14 of the third embodiment, and the description thereof will be omitted.
  • the calculation unit 12 acquires the first confirmation image (for example, the first confirmation image P41 in the third embodiment) when the structure O is viewed from the imaging candidate position (S53). It is determined whether or not there is a shield in the acquired first confirmation image (S61).
  • the calculation unit 12 may make the above determination depending on whether or not a predetermined object exists in the first confirmation image, for example.
  • a predetermined object is an object for which it is difficult to determine whether or not a shield exists on a two-dimensional map, and includes, for example, a static object such as a forest, a building, or a structure installed along a road. .. Structures installed along the road include utility poles, street lights, curved mirrors, signs, signs, etc.
  • the detection method in which the calculation unit 12 detects whether or not a predetermined object exists in the first confirmation image is not particularly limited, and for example, a pattern matching technique can be used.
  • the calculation unit 12 determines that a shield exists in the first confirmation image (Yes in S61)
  • the calculation unit 12 changes the imaging candidate position to a position where the shield does not exist (S62).
  • the calculation unit 12 changes the imaging candidate position while satisfying the geometrical imaging condition, acquires the second confirmation image at the changed imaging candidate position, and the acquired second confirmation image does not have a shield.
  • the changed imaging candidate position is set to a position where no obstruction exists.
  • the calculation unit 12 generates an imaging parameter including the second confirmation image.
  • the output unit 13 outputs the imaging parameters including the second confirmation image when the structure O is viewed from the changed imaging candidate position to the display device 20 (S63).
  • the calculation unit 12 may change the installation orientation of the imaging device to an installation orientation in which no obstruction exists without changing the imaging candidate position. Changing the installation orientation of the image pickup device is included in changing to a position where there is no obstruction. Further, the image when the structure O is viewed from the changed installation orientation is an example of the second confirmation image.
  • the calculation unit 12 determines that the shield does not exist in the first confirmation image (No in S61)
  • the calculation unit 12 ends the process.
  • the calculation unit 12 has described an example of proceeding to step S62 when a shield is present in the first confirmation image (Yes in S61), but the present invention is not limited to this, and the first confirmation image is not limited to the shield.
  • Information indicating the existence of the above may be output to the display device 20 via the output unit 13. In this case, the imaging candidate position may be manually changed by the operation of the reception unit 14 by the worker.
  • the calculation device has described an example of outputting an imaging parameter relating to an imaging device that captures an image for measuring a displacement indicating the movement of a structure, but simply captures an image of an object.
  • the imaging parameters related to the imaging device may be output. That is, the image is not limited to the image for measuring the displacement.
  • the image may be, for example, a landscape image. In this case, the displacement measurement accuracy and the like are not included in the imaging parameters.
  • the imaging parameter output method in this case is an imaging parameter output method for outputting imaging parameters related to an imaging device that images an image of an object, and images the object information for identifying the object and the object.
  • a first acquisition step for acquiring the geometric imaging conditions at the time, a calculation step for calculating imaging parameters including an imaging candidate region in which an imaging device is installed, based on object information and geometric imaging conditions, and a calculation step. Includes an output step that outputs the calculated imaging parameters. As a result, the time required for imaging work at the imaging site can be shortened.
  • the calculation device has described an example of outputting an imaging parameter relating to an imaging device for capturing an image for measuring a displacement indicating the movement of a structure, but the image to be captured is a displacement. It is not limited to the image for measuring.
  • the calculation device may output an imaging parameter related to an imaging device that captures an image for measuring a physical quantity of an object.
  • the physical quantity may be the length, angle, or the like of the entire object or a specific part of the object.
  • the physical quantity may be obtained from one image.
  • the physical quantity may be the velocity, acceleration, or the like of the object when the entire object is moving.
  • the above displacement is included in the physical quantity.
  • the imaging parameter output method in this case is an imaging parameter output method for outputting imaging parameters related to an imaging device that images an image for measuring a physical quantity of an object, and is an imaging parameter output method for identifying an object and object information. Based on the first acquisition step of acquiring the geometric imaging conditions when imaging the object, the object information, and the geometric imaging conditions, the imaging candidate area in which the imaging device is installed and the imaging candidate region. It includes a calculation step of calculating an imaging parameter including the measurement accuracy of the physical quantity of the object in the above, and an output step of outputting the calculated imaging parameter.
  • the calculation device may acquire, for example, a non-imaging region from a worker.
  • the geographic information in the above embodiment may include dynamic information such as event information such as festivals and construction information such as roads.
  • the acquisition unit and the reception unit in the above-described embodiment or the like may acquire information based on the voice of the worker.
  • the calculation device may have, for example, a microphone that acquires voice, or has a communication circuit that is communicably connected to a server (for example, a cloud server) that performs voice recognition processing for voice. You may.
  • the image pickup device may be, for example, an image pickup device provided on a flying object such as a drone. That is, the imaging parameter may be a parameter when imaging a structure using a flying object such as a drone.
  • the acquisition unit may be, for example, a connection unit to which a recording medium is connected.
  • the connection unit may be, for example, a USB terminal to which a UBS (Universal Serial Bus) is connected, an SD card slot into which an SD card is inserted, an optical drive into which an optical disk is inserted, or the like.
  • UBS Universal Serial Bus
  • each step in the flowchart is executed is for exemplifying in order to specifically explain the present disclosure, and may be an order other than the above. Further, a part of the above steps may be executed at the same time (parallel) as other steps.
  • the division of the functional block in the block diagram is an example, and a plurality of functional blocks can be realized as one functional block, one functional block can be divided into a plurality of functional blocks, and some functions can be transferred to other functional blocks. You may. Further, the functions of a plurality of functional blocks having similar functions may be processed by a single hardware or software in parallel or in a time division manner.
  • the calculation device does not have a display device, that is, an example in which the calculation device and the display device are separate bodies has been described, but even if the calculation device has a display device. Good.
  • the display device functions as a display unit that is a part of the calculation device.
  • the imaging parameter output system may be configured by one device.
  • the present invention is not limited to this, and the first imaging device and the second imaging device are one imaging device. It may be composed of.
  • the first imaging device and the second imaging device may be so-called stereo cameras.
  • the baseline length included in the geometric imaging condition may be the distance between the two lenses. The distance between the two lenses is a fixed value.
  • the present invention is not limited to this.
  • the configurations of the first imaging device and the second imaging device may be different.
  • the first imaging device and the second imaging device may be imaging devices having different sensor specifications.
  • the sensor specifications may be acquired for each imaging device.
  • the acquisition unit may acquire geometrical imaging conditions including different sensor specifications between the first imaging device and the second imaging device.
  • the communication method between the devices provided in the imaging parameter output system according to the above embodiment is not particularly limited. Wireless communication may be performed or wired communication may be performed between the devices. Further, wireless communication and wired communication may be combined between the devices.
  • a part or all of the components included in the calculation device in the above embodiment or the like may be composed of one system LSI (Large Scale Integration: large-scale integrated circuit).
  • a system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of processing units on a single chip. Specifically, a microprocessor, a ROM (Read Only Memory), a RAM (Random Access Memory), etc. It is a computer system configured to include. A computer program is stored in the ROM. The system LSI achieves its function by operating the microprocessor according to the computer program.
  • system LSI Although it is referred to as a system LSI here, it may be referred to as an IC, an LSI, a super LSI, or an ultra LSI due to the difference in the degree of integration. Further, the method of making an integrated circuit is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. An FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure the connection and settings of the circuit cells inside the LSI may be used.
  • FPGA Field Programmable Gate Array
  • all or part of the above-mentioned various processes may be realized by hardware such as an electronic circuit or may be realized by software.
  • the processing by the software is realized by the processor included in the calculation device executing the program stored in the memory.
  • one aspect of the present disclosure may be a computer program that causes a computer to execute each characteristic step included in the imaging parameter output method.
  • one aspect of the present disclosure may be a computer-readable, non-temporary recording medium on which such a program is recorded.
  • such a program may be recorded on a recording medium and distributed or distributed. For example, by installing the distributed program on a device having another processor and causing the processor to execute the program, it is possible to cause the device to perform each of the above processes.
  • the present disclosure can be widely used as a device for determining imaging parameters in a measurement system for measuring displacement of a structure.

Abstract

撮像パラメータ出力方法は、対象物の動きを示す変位を計測するための画像を撮像する撮像装置に関する撮像パラメータを出力する撮像パラメータ出力方法であって、対象物を特定するための対象物情報、及び、対象物を撮像するときの幾何学的な撮像条件を取得する第1取得ステップ(S11、S12)と、対象物情報及び幾何学的な撮像条件に基づいて、撮像装置を設置する撮像候補領域及び当該撮像候補領域における変位の計測精度を含む撮像パラメータを算出する算出ステップ(S13)と、撮像パラメータを出力する出力ステップ(S14)とを含む。

Description

撮像パラメータ出力方法、及び、撮像パラメータ出力装置
 本開示は、対象物の動きを示す変位を計測するための画像を撮像する撮像装置に関する撮像パラメータを出力する撮像パラメータ出力方法、及び、撮像パラメータ出力装置に関する。
 従来、橋梁等のインフラ構造物の点検は、作業員が定期的に橋梁等を目視検査又は打音検査することで行われている。しかし、点検箇所は膨大であり、また構造物の設置場所によっては確認作業が困難となり、作業員の負担となっている。そこで、カメラを用いて構造物の検査を行うことが検討されている(特許文献1参照)。
国際公開第2017/221965号
 ところで、カメラを用いた変位計測において、作業員は、撮像位置とレンズの焦点距離との組み合わせ等を、撮像現場で確認しながら決定しており、撮像現場での作業に時間を要する。また、撮像位置とレンズの焦点距離との組み合わせは、変位の計測精度に影響を与える。そのため、作業員は、所望の計測精度を満たす撮像位置とレンズの焦点距離との組み合わせ等を確認する場合、撮像現場での作業に、さらに時間を要する。
 そこで、本開示は、撮像現場における計測作業の時間を短縮しつつ、かつ、所望の計測精度の計測を行うことができる撮像パラメータ出力方法、及び、撮像パラメータ出力装置を提供することを目的とする。
 本開示の一態様に係る撮像パラメータ出力方法は、対象物の動きを示す変位を計測するための画像を撮像する撮像装置に関する撮像パラメータを出力する撮像パラメータ出力方法であって、前記対象物を特定するための対象物情報、及び、前記対象物を撮像するときの幾何学的な撮像条件を取得する第1取得ステップと、前記対象物情報及び前記幾何学的な撮像条件に基づいて、前記撮像装置を設置する撮像候補領域及び当該撮像候補領域における前記変位の計測精度を含む前記撮像パラメータを算出する算出ステップと、前記撮像パラメータを出力する出力ステップとを含む。
 本開示の一態様に係る撮像パラメータ出力方法は、対象物の動きを示す変位を計測するための画像を撮像する撮像装置に関する撮像パラメータを出力する撮像パラメータ出力方法であって、前記対象物を特定するための対象物情報、及び、前記対象物を含む地理情報を取得する取得ステップと、前記対象物情報及び前記地理情報に基づいて、前記撮像装置を設置する撮像候補領域及び当該撮像候補領域における前記変位の計測精度を含む前記撮像パラメータを算出する算出ステップと、前記撮像パラメータを出力する出力ステップとを含む。
 本開示の一態様に係る撮像パラメータ出力方法は、対象物の物理量を計測するための画像を撮像する撮像装置に関する撮像パラメータを出力する撮像パラメータ出力方法であって、前記対象物を特定するための対象物情報、及び、前記対象物を撮像するときの幾何学的な撮像条件を取得する第1取得ステップと、前記対象物情報及び前記幾何学的な撮像条件に基づいて、前記撮像装置を設置する撮像候補領域及び当該撮像候補領域における前記対象物の前記物理量の計測精度を含む前記撮像パラメータを算出する算出ステップと、前記撮像パラメータを出力する出力ステップとを含む。
 本開示の一態様に係る撮像パラメータ出力装置は、対象物の動きを示す変位を計測するための画像を撮像する撮像装置に関する撮像パラメータを出力する撮像パラメータ出力装置であって、前記対象物を特定するための対象物情報、及び、前記対象物を撮像するときの幾何学的な撮像条件を取得する取得部と、前記対象物情報及び前記幾何学的な撮像条件に基づいて、前記撮像装置を設置する撮像候補領域及び当該撮像候補領域における前記変位の計測精度を含む前記撮像パラメータを算出する算出部と、前記撮像パラメータを出力する出力部とを備える。
 本開示の一態様に係る撮像パラメータ出力装置は、対象物の動きを示す変位を計測するための画像を撮像する撮像装置に関する撮像パラメータを出力する撮像パラメータ出力装置であって、前記対象物を特定するための対象物情報、及び、前記対象物を含む地理情報を取得する取得部と、前記対象物情報及び前記地理情報に基づいて、前記撮像装置を設置する撮像候補領域及び当該撮像候補領域における前記変位の計測精度を含む前記撮像パラメータを算出する算出部と、前記撮像パラメータを出力する出力部とを備える。
 本開示の一態様に係る撮像パラメータ出力方法等によれば、撮像現場における計測作業の時間を短縮しつつ、かつ、所望の計測精度の計測を行うことができる。
図1は、実施の形態1に係る撮像パラメータ出力システムの機能構成を示すブロック図である。 図2は、実施の形態1に係る対象物情報の一例を示す図である。 図3は、実施の形態1に係る算出装置の動作を示すフローチャートである。 図4は、実施の形態1に係る撮像パラメータの算出例を示す図である。 図5は、実施の形態1に係る撮像パラメータの一例を示す図である。 図6は、実施の形態1の変形例1に係る算出装置の動作を示すフローチャートである。 図7は、実施の形態1の変形例1に係る撮像パラメータの一例を示す図である。 図8は、実施の形態1の変形例2に係る算出装置の動作を示すフローチャートである。 図9は、実施の形態1の変形例2に係る撮像パラメータの一例を示す図である。 図10は、実施の形態2に係る算出装置の動作を示すフローチャートである。 図11は、実施の形態2に係る撮像不能領域の一例を示す図である。 図12は、実施の形態2に係る撮像パラメータの一例を示す図である。 図13は、実施の形態3に係る撮像パラメータ出力システムの機能構成を示すブロック図である。 図14は、実施の形態3に係る算出装置の動作を示すフローチャートである。 図15は、実施の形態3に係る撮像パラメータの一例を示す図である。 図16は、実施の形態3に係る確認画像が更新された撮像パラメータの一例を示す図である。 図17は、実施の形態3の変形例に係る算出装置の動作を示すフローチャートである。 図18は、撮像装置を用いた変位計測を説明するための概略図である。
 (本開示の概要)
 撮像装置(例えば、カメラ)を用いた構造物Oの変位の計測について、図18を参照しながら説明する。図18は、撮像装置を用いた変位計測を説明するための概略図である。なお、図18では、第1撮像装置30及び第2撮像装置40の2台の撮像装置を用いて構造物Oを撮像している様子を図示しているが、撮像装置の台数は2台に限定されず、1台であってもよく、3台以上であってもよい。また、構造物Oの変位は、構造物Oの物理量の一例である。
 図18に示すように、撮像装置を用いた構造物Oの変位の計測においては、構造物Oの周辺から撮像装置で構造物Oを撮像し、撮像により得られる画像に基づいて構造物Oの変位が計測される。
 第1撮像装置30及び第2撮像装置40は、構造物Oの変位を計測するための画像を撮像する。第1撮像装置30及び第2撮像装置40は、互いに異なる視点から構造物Oを撮像する。そして、第1撮像装置30及び第2撮像装置40のそれぞれが同期して撮像した2枚の画像に基づいて、構造物Oの変位が計測される。なお、構造物Oは、変位を計測する対象物の一例であり、例えば、橋梁などのインフラ構造物である。構造物Oは、例えば、自動車又は鉄道などの車両が走行する橋梁であるが、これに限定されない。構造物Oは、例えば、鉄塔やビル、工場プラント、機械設備などでもよい。
 なお、第1撮像装置30及び第2撮像装置40は、例えば、モノクロカメラであるがカラーカメラであってもよい。第1撮像装置30及び第2撮像装置40は、例えば、イメージセンサを備えるデジタルビデオカメラ又はデジタルスチルカメラである。
 このように撮像装置で構造物Oを撮像する場合、作業員は、構造物Oを撮像可能な撮像位置を構造物Oの周囲の撮像現場で探し、当該撮像位置に応じた焦点距離のレンズを選択する作業を行っている。そのため、作業員は、撮像現場での撮像位置とレンズの焦点距離との組み合わせ等の作業に時間を要していた。また、撮像位置とレンズの焦点距離との組み合わせは、構造物Oの変位の計測精度に影響する。そのため、作業員は、所望の計測精度を得ることができる撮像位置とレンズの焦点距離との組み合わせ等を見つけるために、さらに時間を要していた。また、撮像装置の台数が増えるにつれ、撮像位置とレンズの焦点距離との組み合わせは複雑になり、作業員は、その作業にさらに時間を要していた。
 そこで、発明者らは、撮影現場における計測作業の時間を短縮しつつ、かつ、所望の計測精度の計測を行うことができる撮像パラメータ出力方法等について鋭意検討を行い、以下に説明する撮像パラメータ出力方法等を創案した。
 本開示の一態様に係る撮像パラメータ出力方法は、対象物の動きを示す変位を計測するための画像を撮像する撮像装置に関する撮像パラメータを出力する撮像パラメータ出力方法であって、前記対象物を特定するための対象物情報、及び、前記対象物を撮像するときの幾何学的な撮像条件を取得する第1取得ステップと、前記対象物情報及び前記幾何学的な撮像条件に基づいて、前記撮像装置を設置する撮像候補領域及び当該撮像候補領域における前記変位の計測精度を含む前記撮像パラメータを算出する算出ステップと、前記撮像パラメータを出力する出力ステップとを含む。
 これにより、作業員は、撮像候補領域及び変位の計測精度を含む撮像パラメータを事前に知ることができるので、撮像現場における撮像位置とレンズの焦点距離との組み合わせ等に要する時間を短縮することができる。また、作業員は、対象物に対応した計測精度を有する撮像候補領域から撮像を行うことで、所望の計測精度を満たす変位の計測を行うことができる。よって、本開示の一態様に係る撮像パラメータ出力方法によれば、撮像現場における計測作業の時間を短縮しつつ、かつ、所望の計測精度の計測を行うことができる。
 また、例えば、さらに、前記対象物を含む地理情報を取得する第2取得ステップを含み、前記算出ステップでは、さらに、前記地理情報に基づいて、前記撮像パラメータを算出する。
 これにより、作業員は、地理情報も考慮して対象物の変位を計測するための撮像候補位置を決定することができる。作業員は、例えば、対象物の周辺の地形などを考慮して撮像候補位置を決定することができる。
 また、例えば、前記算出ステップでは、前記対象物情報及び前記幾何学的な撮像条件に基づいて算出される前記撮像装置を設置する対象領域から、前記地理情報に基づいて得られる前記撮像装置が撮像できない撮像不能領域を除いた領域である前記撮像候補領域を含む前記撮像パラメータを算出する。
 これにより、作業員は、現実的に撮像を行うことができる領域を容易に知ることができる。
 また、例えば、前記撮像候補領域は、撮像候補位置を含み、前記撮像パラメータは、前記撮像候補位置から前記対象物を見たときの景色を確認するための第1確認画像をさらに含む。
 これにより、作業員は、撮像現場に行く前に、対象物と撮像候補位置との間の遮蔽物の有無を確認することができる。作業員は、撮像候補領域の中から遮蔽物がない位置を撮像候補位置とすることで、より適切な撮像候補位置を決定することができる。
 また、例えば、さらに、前記撮像候補位置を変更する操作を受け付ける受付ステップと、前記撮像パラメータに含まれる前記第1確認画像を、変更された前記撮像候補位置から前記対象物を見たときの第2確認画像に更新する更新ステップとを含む。
 これにより、作業員は、対象物と変更後の撮像候補位置との間の遮蔽物の有無を容易に確認することができる。
 また、例えば、さらに、所望の計測精度を取得する第3取得ステップを含み、前記撮像候補領域は、前記所望の計測精度を満たす領域である。
 これにより、作業員は、所望の計測精度を満たす領域を容易に知ることができる。
 また、例えば、さらに、前記対象物を撮像するときの環境情報を取得する第4取得ステップを含み、前記撮像パラメータは、前記環境情報に基づく、前記対象物の撮像を行う候補日程に関する情報を含む。
 これにより、作業員は、撮像を行う候補日程を知ることができる。候補日程は、撮像を行う日時の決定に有益である。
 また、例えば、前記幾何学的な撮像条件は、前記対象物の撮像範囲、前記撮像装置において使用可能なレンズに関するレンズ情報、前記撮像装置のセンサに関する情報の少なくとも1つを含む。
 これにより、対象物の撮像範囲、撮像装置において使用可能なレンズに関するレンズ情報、撮像装置のセンサに関する情報の少なくとも1つを用いて、撮像候補領域及び変位の計測精度を算出することができる。例えば、対象物の撮像範囲、撮像装置において使用可能なレンズに関するレンズ情報、及び、撮像装置のセンサに関する情報を用いない場合に比べて、計測精度をより正確に算出することができる。
 また、例えば、前記撮像装置は、互いに異なる視点から前記対象物を撮像する第1撮像装置及び第2撮像装置を有し、前記幾何学的な撮像条件は、さらに、前記第1撮像装置及び前記第2撮像装置の基線長及び前記第1撮像装置及び前記第2撮像装置により形成される輻輳角の少なくとも一方を含む。
 これにより、作業者は、撮像現場における作業がより複雑な場合であっても撮像パラメータを取得することができるので、撮像現場における撮像位置とレンズの焦点距離との組み合わせ等に要する時間をさらに短縮することができる。
 また、本開示の一態様に係る撮像パラメータ出力方法は、対象物の動きを示す変位を計測するための画像を撮像する撮像装置に関する撮像パラメータを出力する撮像パラメータ出力方法であって、前記対象物を特定するための対象物情報、及び、前記対象物を含む地理情報を取得する取得ステップと、前記対象物情報及び前記地理情報に基づいて、前記撮像装置を設置する撮像候補領域及び当該撮像候補領域における前記変位の計測精度を含む前記撮像パラメータを算出する算出ステップと、前記撮像パラメータを出力する出力ステップとを含む。
 これにより、作業員は、対象物の周囲が特殊な地形などであり撮像現場において撮像位置を見つけることが困難な場合であっても、事前に撮像候補領域を知ることができる。よって、本開示の一態様に係る撮像パラメータ出力方法によれば、撮像現場において撮像位置を見つけることが困難な場合であっても、撮像現場における撮像位置とレンズの焦点距離との組み合わせ等に要する時間を短縮することができる。また、作業員は、対象物に対応した計測精度を有する撮像候補領域から撮像を行うことで、所望の計測精度を満たす変位の計測を行うことができる。
 また、本開示の一態様に係る撮像パラメータ出力方法は、対象物の物理量を計測するための画像を撮像する撮像装置に関する撮像パラメータを出力する撮像パラメータ出力方法であって、前記対象物を特定するための対象物情報、及び、前記対象物を撮像するときの幾何学的な撮像条件を取得する第1取得ステップと、前記対象物情報及び前記幾何学的な撮像条件に基づいて、前記撮像装置を設置する撮像候補領域及び当該撮像候補領域における前記対象物の前記物理量の計測精度を含む前記撮像パラメータを算出する算出ステップと、前記撮像パラメータを出力する出力ステップとを含む。
 これにより、作業員は、対象物の周囲が特殊な地形などであり撮像現場において撮像位置を見つけることが困難な場合であっても、物理量を計測するための画像を撮像する前に撮像候補領域を知ることができる。よって、本開示の一態様に係る撮像パラメータ出力方法によれば、撮像現場において撮像位置を見つけることが困難な場合であっても、撮像現場における撮像位置とレンズの焦点距離との組み合わせ等に要する時間を短縮することができる。また、作業員は、対象物に対応した計測精度を有する撮像候補領域から撮像を行うことで、所望の計測精度を満たす物理量の計測を行うことができる。
 また、本開示の一態様に係る撮像パラメータ出力装置は、対象物の動きを示す変位を計測するための画像を撮像する撮像装置に関する撮像パラメータを出力する撮像パラメータ出力装置であって、前記対象物を特定するための対象物情報、及び、前記対象物を撮像するときの幾何学的な撮像条件を取得する取得部と、前記対象物情報及び前記幾何学的な撮像条件に基づいて、前記撮像装置を設置する撮像候補領域及び当該撮像候補領域における前記変位の計測精度を含む前記撮像パラメータを算出する算出部と、前記撮像パラメータを出力する出力部とを備える。
 これにより、上記の撮像パラメータ出力方法と同様の効果を奏する。本開示の一態様に係る撮像パラメータ装置によれば、例えば、撮像現場における計測作業の時間を短縮しつつ、かつ、所望の計測精度の計測を行うことができる。
 また、本開示の一態様に係る撮像パラメータ出力装置は、対象物の動きを示す変位を計測するための画像を撮像する撮像装置に関する撮像パラメータを出力する撮像パラメータ出力装置であって、前記対象物を特定するための対象物情報、及び、前記対象物を含む地理情報を取得する取得部と、前記対象物情報及び前記地理情報に基づいて、前記撮像装置を設置する撮像候補領域及び当該撮像候補領域における前記変位の計測精度を含む前記撮像パラメータを算出する算出部と、前記撮像パラメータを出力する出力部とを備える。
 これにより、上記の撮像パラメータ出力方法と同様の効果を奏する。本開示の一態様に係る撮像パラメータ装置によれば、例えば、撮像現場において撮像位置を見つけることが困難な場合であっても、撮像現場における撮像位置とレンズの焦点距離との組み合わせ等に要する時間を短縮しつつ、かつ、所望の計測精度を満たす変位の計測を行うことができる。
 なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータで読み取り可能なCD-ROM等の非一時的記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。プログラムは、記録媒体に予め記憶されていてもよいし、インターネット等を含む広域通信網を介して記録媒体に供給されてもよい。
 以下、実施の形態について、図面を参照しながら具体的に説明する。
 なお、以下で説明する実施の形態及び変形例は、いずれも包括的又は具体的な例を示すものである。以下の実施の形態及び変形例で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 なお、各図は模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同一の構成に対しては同一の符号を付し、重複する説明は省略または簡略化される場合がある。
 また、本明細書において、同一などの要素間の関係性を示す用語、および、数値は、厳格な意味のみを表す表現ではなく、実質的に同等な範囲、例えば数%程度の差異をも含むことを意味する表現である。
 また、以下の明細書において、画像は、静止画像であるが動画像であってもよい。
 (実施の形態1)
 以下、本実施の形態に係る撮像パラメータの出力方法等について、図1~図5を参照しながら説明する。
 [1-1.撮像パラメータ出力システムの構成]
 まずは、本実施の形態に係る撮像パラメータ出力方法を実行する撮像パラメータ出力装置を備える撮像パラメータ出力システム1について、図1を参照しながら説明する。図1は、本実施の形態に係る撮像パラメータ出力システム1の機能構成を示すブロック図である。なお、以下では、撮像パラメータ出力システム1は、2台の撮像装置で構造物Oの変位を計測する場合における、当該2台の撮像装置のそれぞれに関する撮像パラメータを出力する例について説明する。なお、本明細書における変位には、構造物Oの位置の変化量はもとより、構造物Oの変形及び振動も含まれる。
 図1に示すように、撮像パラメータ出力システム1は、変位を計測する対象を特定するための対象物情報と、幾何学的な撮像条件とに基づいて、撮像パラメータを出力する情報処理システムである。撮像パラメータ出力システム1は、例えば、構造物Oを撮像する前に撮像パラメータを出力する。撮像パラメータ出力システム1は、例えば、算出装置10と表示装置20とを備える。
 算出装置10は、対象物情報及び幾何学的な撮像条件に基づいて、構造物Oの変位を計測するための撮像装置の撮像候補領域及び当該撮像候補領域における変位の計測精度を含む撮像パラメータを算出する情報処理装置である。算出装置10は、取得部11と、算出部12と、出力部13とを有する。算出装置10は、撮像パラメータ出力装置の一例である。
 取得部11は、対象物情報及び幾何学的な撮像条件を取得する。取得部11は、無線通信又は有線通信を介して外部の装置と通信可能に接続される通信インターフェース(通信回路)であってもよい。この場合、算出装置10は、作業員等が外部の装置に入力した対象物情報及び幾何学的な撮像条件を通信により取得する。また、取得部11は、ハードウェアキー(ハードウェアボタン)、スライドスイッチ、タッチパネルなどのユーザインタフェースであってもよい。この場合、算出装置10は、対象物情報及び幾何学的な撮像条件を作業員からの直接の入力により取得する。なお、作業員は、ユーザの一例である。
 ここで、取得部11が取得する対象物情報について、図2を参照しながら説明する。図2は、本実施の形態に係る対象物情報の一例を示す図である。
 図2に示すように、対象物情報は、構造物Oにおける撮像範囲を示す情報であってもよい。つまり、対象物情報は、構造物Оの位置又は構造物Oにおいて変位を計測する計測範囲を示す情報であってもよい。対象物情報は、例えば、地図上において撮像範囲を示す矩形枠Fであってもよい。これにより、計測範囲の大きさ(例えば、構造物Oの大きさ)及び位置を取得することができる。
 なお、対象物情報は、構造物Oを特定することができる情報であれば、上記以外の情報であってもよい。対象物情報は、例えば、構造物Oの緯度、経度、高さ(例えば、海抜)などであってもよい。また、構造物Oの全体が変位の計測範囲である場合、対象物情報は、構造物Oの名称などであってもよい。
 また、幾何学的な撮像条件は、構造物Oを撮像したときに撮像装置(例えば、第1撮像装置30及び第2撮像装置40)の撮像素子上に形成される当該構造物Oの像の態様を決定するための条件である。幾何学的な撮像条件は、撮像素子上に構造物Oのどのような像が形成されるかを決定するための条件であるとも言える。幾何学的な撮像条件は、例えば、撮像装置に形成される構造物Oの像の大きさ、ボケ具合などを決定するための条件である。幾何学的な撮像条件は、計測範囲の大きさ(例えば、画角)、光学系の焦点距離、絞り(例えば、F値)、センサスペック、望ましい輻輳角、最大基線長などの少なくとも1つを含む。このように、幾何学的な撮像条件は、いわゆるカメラパラメータに関する条件を含んでいてもよい。
 計測範囲の大きさは、例えば計測範囲の幅などを含み、矩形枠Fに基づいて決定されてもよい。画角は、各カメラが撮影可能な角度(例えば、図4のθ21、θ22)である。光学系の焦点距離は、例えば、撮像装置に取り付け可能なレンズの焦点距離である。絞りは、例えば、F値であり、所望の被写界深度が得られるように設定される。センサスペックは、解像度(画素数)、画素サイズ及びセンササイズの少なくとも2つを含む。輻輳角は、2つの撮像装置により形成される角度であり、例えば、後述する図4に示す輻輳角θ11~θ13である。望ましい輻輳角は、計測精度を高くできる条件であり、所定の角度(例えば、90°)であってもよいし、角度範囲(例えば、80°~90°)であってもよい。また、望ましい輻輳角は、構造物Oの所定位置(例えば、構造物Oの中央)における角度であってもよい。基線長は、2つの撮像装置を結ぶ直線(基線)の長さであり、例えば、後述する図4に示す基線長Lである。最大基線長は、例えば、2つの撮像装置を接続するケーブルの長さであってもよい。つまり、基線長は、2つの撮像装置間の最大離間距離であり、例えば、100m以下などであってもよい。また、当該ケーブルは、2つの撮像装置の撮像タイミングを同期させるための信号を伝送するためのケーブルであってもよい。なお、変位の計測に用いられる撮像装置が1台である場合、望ましい輻輳角及び最大基線長は、幾何学的な撮像条件に含まれていなくてもよい。また、2つの撮像装置における撮像タイミングの同期が上記ケーブルを用いずに行われる場合、最大基線長は、幾何学的な撮像条件に含まれていなくてもよい。
 図1を再び参照して、算出部12は、対象物情報及び幾何学的な撮像条件に基づいて、構造物Oの変位を計測するための撮像装置の撮像パラメータを算出する。撮像パラメータは、撮像装置の撮像候補領域及び当該撮像候補領域における変位の計測精度を含む。撮像候補領域は、構造物Oを撮像するときに撮像装置を設置する候補となる領域であり、撮像装置を設置する範囲であってもよいし、ピンポイントの位置(後述する撮像候補位置)であってもよい。また、撮像パラメータは、撮像装置の設置向き、レンズの焦点距離(レンズの種類)、絞り、カメラの種類(例えば、画素数、センササイズ、画素サイズなどのセンサスペック)などを含んでいてもよい。また、撮像パラメータは、撮像装置の撮像候補領域及び当該撮像候補領域における変位の計測精度を示す画像を含んでいてもよい。つまり、算出部12は、撮像装置の撮像候補領域及び当該撮像候補領域における変位の計測精度を示す画像を生成してもよい。なお、撮像候補領域における変位の計測精度とは、撮像候補領域から構造物Oを撮像した画像に基づいて変位を計測した場合の計測精度を示す。
 出力部13は、算出部12が算出した撮像パラメータを表示装置20に出力する。出力部13による撮像パラメータ出力方法は、特に限定されない。出力部13は、表示装置20に無線通信又は有線通信によって撮像パラメータを出力してもよいし、着脱可能なメモリ(例えばUSBメモリ)を介して表示装置20に撮像パラメータを出力してもよい。出力部13は、例えば、無線通信又は有線通信を介して表示装置20と通信可能に接続される通信インターフェースである。
 表示装置20は、算出装置10から撮像パラメータを取得し、取得した撮像パラメータを画像として出力する装置である。画像は、写真、イラスト又は文字等を含む。表示装置20は、液晶ディスプレイ等である。表示装置20が出力した画像は作業員によって視認され、作業員が構造物Oを撮像する候補となる位置である撮像候補位置の検討に用いられる。
 表示装置20は、据え置き型の装置であってもよいし、作業員が所持する携帯端末が有する装置であってもよい。携帯端末は、表示装置20を有し、かつ、算出装置10と通信可能であれば特に限定されず、例えば、スマートフォン、タブレットなどであってもよい。携帯端末が表示装置20を有する場合、作業員は、構造物Oの周辺において、携帯端末の表示装置20を確認することで、撮像パラメータを確認することができる。また、作業員は、構造物Oの周辺にいる状態で撮像パラメータが更新された場合、更新された撮像パラメータを携帯端末で確認することができる。
 なお、表示装置20は、提示装置の一例である。撮像パラメータ出力システム1は、表示装置20とともに、又は、表示装置20に替えて、音を出力する装置を提示装置として備えていてもよい。また、撮像パラメータ出力システム1は、プロジェクタなどの対象物(例えば、スクリーン)に提示情報を表示する装置を提示装置として備えていてもよい。また、算出装置10が遠隔地に配置されている場合、算出装置10と表示装置20とは、ネットワークを介して接続されていてもよい。
 [1-2.撮像パラメータ出力システムの動作]
 次に、撮像パラメータ出力システム1の動作について、図3~図5を参照しながら説明する。具体的には、算出装置10における動作について説明する。図3は、本実施の形態に係る算出装置10の動作を示すフローチャートである。算出装置10は、例えば、作業員が構造物Oの撮像に向かう前に、つまり事前に図3に示す動作を実行してもよい。
 図3に示すように、取得部11は、対象物情報を取得する(S11)。取得部11は、例えば、図2に示すような地図上に示された矩形枠Fを構造物Oに対応する対象物情報として取得する。
 また、取得部11は、幾何学的な撮像条件を取得する(S12)。取得部11は、ステップS12において、外部の装置から幾何学的な撮像条件を通信により取得してもよいし、算出装置10の記憶部(図示しない)に記憶されている複数の幾何学的な撮像条件から構造物Oの撮像に用いる幾何学的な撮像条件の選択を受け付けてもよい。
 なお、ステップS11及びS12は、第1取得ステップの一例である。
 なお、対象物情報及び幾何学的な撮像条件を取得するタイミングは特に限定されず、同時に取得されてもよいし、互いに異なるタイミングで取得されてもよい。
 取得部11は、取得した対象物情報及び幾何学的な撮像条件を算出部12に出力する。
 算出部12は、取得部11から取得した対象物情報及び幾何学的な撮像条件に基づいて、構造物Oの撮像時の撮像パラメータを算出する(S13)。すなわち、算出部12は、取得部11から取得した対象物情報及び幾何学的な撮像条件に基づいて、構造物Oを撮像するときの第1撮像装置30及び第2撮像装置40に関する撮像パラメータを算出する。撮像パラメータは、第1撮像装置30及び第2撮像装置40を設置する撮像候補領域及び当該撮像候補領域における変位の計測精度を示す情報を含む。ステップS13は、算出ステップの一例である。
 ここで、算出部12による撮像パラメータの算出について、図4を参照しながら説明する。図4は、本実施の形態に係る撮像パラメータの算出例を示す図である。なお、図4は、構造物Oを上方から見たときの様子を示す。図4に示すように、ステップS12において、構造物Oの幅が100mであり、最大基線長が100mであり、望ましい輻輳角θ11が90°であり、撮像装置の光学系の焦点距離が14mm、24mm、50mmであり、解像度が4Kであり、画素サイズが5.5μmであることを含む幾何学的な撮像条件を取得したとする。また、輻輳角θ11は、例えば、構造物Oの中央の位置における角度であるとする。
 また、図4の例では、光学系の焦点距離が14mmであり、このときの画角は78°となる。また、第1撮像装置30及び第2撮像装置40の構成は、同一であるとするが、これに限定されない。また、第1撮像装置30及び第2撮像装置40は、例えば、1/50画素の検出精度を有するとする。検出精度は、第1撮像装置30及び第2撮像装置40のそれぞれで、予め決まっている。
 図4に示すように、算出部12は、幾何学的な撮像条件に基づいて、第1撮像装置30及び第2撮像装置40の設置位置を設定する。算出部12は、例えば、構造物Oの中央の位置p1における輻輳角θ11が90°であり、第1撮像装置30の画角θ21及び第2撮像装置40の画角θ22のそれぞれが78°であり、基線長Lが100m以下のときに、構造物Oの撮像範囲を撮像できるように、第1撮像装置30及び第2撮像装置40の設置位置を設定する。なお、図4の例では、基線長Lは、82mである。
 そして、算出部12は、上記で設定された設置位置において撮像された画像に基づいて、変位を計測した場合の当該変位の計測精度を算出する。算出部12は、例えば、第1撮像装置30及び第2撮像装置40のそれぞれで撮像された画像を合成した合成画像における変位の計測精度を算出する。算出部12は、例えば、検出精度及び構造物Oまでの距離から合成画像における変位の計測誤差を算出する。図4では、誤差楕円をp1a~p3aで示す。誤差楕円の値は、1/50画素を計測対象上で実寸に換算した値である。ここでの誤差は、実寸値であり、構造物Oの中央の位置p1での変位の計測誤差は、例えば、誤差楕円p1aから、図4の紙面上の上下方向及び左右方向ともに0.45mmである。このように、輻輳角θ11が90°である位置では、奥行き方向と左右方向との誤差のバランスがよい。
 上記の対象物情報及び幾何学的な撮影条件に対して、撮像パラメータ(撮影位置・向き・焦点距離(レンズの種類)の組み合わせ)を仮設定すると、位置p1における輻輳角、基線長、及び、計測精度は、幾何学的に計算することができる。また、上記の仮設定をすると、撮影範囲に対象物が含まれるか否かを判断することができる。得られた計算結果(例えば、輻輳角、基線長、撮影範囲、計測精度など)に基づいて、仮設定した撮像パラメータの適正を評価できる。このような評価値が、最適または準最適な値になるような撮像パラメータをシステムの出力とする。最適または準最適なパラメータは、パラメータ全探索、非線形最適化手法などを用いて決定することができる。
 なお、図4の紙面上における上下方向は、撮像装置側から見たときの構造物Oの奥行き方向を示す。また、図4の紙面上における左右方向は、構造物Oが延在する方向と平行な方向(例えば、水平方向)である。
 また、算出部12は、構造物Oの一方側の端の位置p2及び他方側の端の位置p3のそれぞれにおける、変位の計測誤差を算出する。構造物Oの端の位置p2及びp3での変位の計測誤差は、例えば、誤差楕円p2a及びp3aから、奥行き方向が1.0mmであり、左右方向が0.3mmである。位置p2及びp3においては、第1撮像装置30及び第2撮像装置40からの距離が異なるため、計測誤差は図4に示すような誤差楕円となる。なお、図4の例では、位置p2における輻輳角θ12及び位置p3における輻輳角θ13のそれぞれは、例えば、53°となる。
 算出部12は、幾何学的な撮像条件に基づいて第1撮像装置30及び第2撮像装置40の位置を変更していき、位置ごとに変位の計測誤差を算出する。本実施の形態では、光学系の焦点距離が14mm、24mm、50mmであるので、算出部12は、光学系の焦点距離ごとに変位の計測誤差を算出してもよい。算出部12は、例えば、レンズごとに変位の計測誤差を算出する。
 これにより、第1撮像装置30及び第2撮像装置40の設置位置ごとの計測誤差を取得することができる。
 なお、第1撮像装置30における絞りは、例えば、第1撮像装置30から位置p2までの距離を第1距離、第1撮像装置30から位置p3までの距離を第2距離とすると、第1距離から第2距離までの範囲において、撮像画像のピントが合うように設定されるとよい。また、第2撮像装置40における絞りは、例えば、第2撮像装置40から位置p2までの距離を第3距離、第2撮像装置40から位置p3までの距離を第4距離とすると、第3距離から第4距離までの範囲において、撮像画像のピントが合うように設定されるとよい。
 図3を再び参照して、出力部13は、ステップS13で算出された撮像パラメータを出力する(S14)。本実施の形態では、出力部13は、外部の表示装置20に撮像パラメータを出力する。そして、表示装置20は、出力部13から取得した撮像パラメータを表示する。ステップS14は、出力ステップの一例である。
 ここで、表示装置20により表示される撮像パラメータ50について、図5を参照しながら説明する。つまり、算出装置10から出力される撮像パラメータ50について、図5を参照しながら説明する。図5は、本実施の形態に係る撮像パラメータ50の一例を示す図である。具体的には、表示装置20が表示する撮像パラメータ50を示す図である。
 図5に示すように、撮像パラメータ50は、例えば、第1撮像装置30及び第2撮像装置40の幾何学的な条件を示す「カメラ条件」と、撮像候補領域及び変位の計測精度を示す画像P1とを含む。カメラ条件は、撮像候補領域及び変位の計測精度を算出するために用いられた幾何学的な撮像条件を示す。カメラ条件には、例えば、ステップS12で取得された幾何学的な撮像条件の少なくとも一部が含まれる。カメラ条件には、使用するカメラを特定するための情報(例えば、カメラの型番など)が含まれていてもよい。
 画像P1は、例えば、構造物Oを含む地図上に撮像候補領域a1~a3及び当該撮像候補領域a1~a3のそれぞれにおける変位の計測精度を重畳した画像である。図5でハッチングされている領域は、撮像候補領域a1、撮像候補領域a2、又は、撮像候補領域a3のいずれかを示す。紙面において下側に位置する撮像候補領域a1~a3は、例えば、第1撮像装置30及び第2撮像装置40の一方を設置する領域であり、かつ、紙面において上側に位置する撮像候補領域a1~a3は、例えば、第1撮像装置30及び第2撮像装置40の他方を設置する領域である。
 撮像候補領域a1~a3は、例えば、変位の計測精度が互いに異なる領域である。撮像候補領域a1は、変位の計測誤差が1.0mm以下の領域である。つまり、撮像候補領域a1内で構造物Oを撮像することで得られる画像に基づいて当該構造物Oの変位を計測したときの誤差は、1.0mm以下である。
 また、撮像候補領域a2は、変位の計測誤差が1.0mmより大きく2.0mm以下の領域である。つまり、撮像候補領域a2内で構造物Oを撮像することで得られる画像に基づいて、当該構造物Oの変位を計測したときの誤差は、1.0mmより大きく、かつ、2.0mm以下である。また、撮像候補領域a3は、例えば、変位の計測誤差が2.0mmより大きく3.0mm以下の領域である。つまり、撮像候補領域a3内で構造物Oを撮像することで得られる画像に基づいて当該構造物Oの変位を計測したときの誤差は、2.0mmより大きく、かつ、3.0mm以下である。なお、撮像候補領域a1~a3の変位の計測精度は、少なくとも一部が重複していてもよい。
 このように、画像P1は、計測誤差の分布を示すとも言える。
 ここでの誤差は、例えば、算出部12で算出された2個以上の誤差に基づいて算出される値(代表誤差)である。図4の例であれば、代表誤差は、位置p1~p3における誤差である6個の誤差に基づいて算出される。代表誤差は、代表誤差の算出方法は特に限定されないが、2個以上の誤差の最大値、最小値、平均値、中央値、最頻値等であってもよいし、重み付け平均などの所定の演算が行われた値であってもよい。
 なお、画像P1の撮像候補領域a1~a3は、同じ変位の計測誤差(例えば1.0mm以下)の領域で、光学系(例えば、レンズ)ごとの撮像可能領域であってもよい。例えば、撮像候補領域a1は、光学系の焦点距離が14mmのときの撮像可能領域であり、撮像候補領域a2は、光学系の焦点距離が24mmのときの撮像可能領域であり、撮像候補領域a3は、光学系の焦点距離が50mmのときの撮像可能であってもよい。撮像可能とは、例えば、変位の計測誤差が所定値以下(例えば、3.0mm以下)となる領域である。
 作業員は、表示装置20に表示された撮像パラメータ50を確認することで、所望の計測精度で変位を得ることができる画像を撮像できる範囲等を知ることができる。作業員は、構造物Oにおいて許容される計測誤差を満たす範囲等を知ることができる。
 なお、撮像パラメータ50は、画像P1に示すように、範囲を示すことに限定されない。画像P1に含まれる撮像候補領域は、ピンポイントの位置であってもよい。例えば、変位の計測誤差が最小となる位置と当該位置における計測誤差を示す情報(例えば、計測誤差の値)とが、撮像候補領域として画像P1に示されてもよい。
 このように、撮像パラメータ50には、変位の計測精度を可視化した情報、例えば、作業員が撮像候補位置を選ぶことを容易にするための情報が含まれる。撮像パラメータ50には、例えば、画像P1が含まれる。これにより、作業員は、算出装置10の算出結果を容易に視認することができる。作業員は、例えば、構造物Oを撮像するための撮像装置の撮像候補位置の決定を容易に行うことができる。
 (実施の形態1の変形例1)
 以下、本変形例に係る撮像パラメータ出力方法等について、図6及び図7を参照しながら説明する。なお、以下の説明では、実施の形態1との相違点を中心に説明し、実施の形態1と同様の構成については同一の符号を付し、説明を省略又は簡略化する場合がある。本変形例に係る撮像パラメータ出力システムの構成は、実施の形態1に係る撮像パラメータ出力システム1と同様であり、説明を省略する。
 図6は、本変形例に係る算出装置10の動作を示すフローチャートである。なお、ステップS11、S12及びS14は、実施の形態1の図3に示すステップと同様であり、説明を省略する。
 図6に示すように、本変形例に係る算出装置10の取得部11は、実施の形態1に加えて作業者の所望の計測精度を取得する(S21)。取得部11は、例えば、外部の装置から計測精度を取得してもよいし、算出装置10の記憶部(図示しない)が構造物Oに対応する計測精度を記憶している場合、ステップS11で取得した対象物情報で特定される構造物Oの計測精度を記憶部から読み出すことで、当該計測精度を取得してもよい。本変形例では、計測精度として、所望の計測誤差が1.0mm以下であることを取得したとする。取得部11は、取得した計測精度を算出部12に出力する。ステップS21は、第3取得ステップの一例である。
 次に、算出部12は、対象物情報と幾何学的な撮像条件とに基づく領域のうち、所望の計測精度を満たす領域を示す情報を含む撮像パラメータを算出する(S22)。算出部12は、例えば、図5に示す画像P1に示すように、計測誤差ごとの領域を算出する。算出部12は、例えば、計測誤差が1.0mm以下の領域、計測誤差が1.0mmより大きく2.0mm以下の領域、及び、計測誤差が2.0mmより大きく3.0mm以下の領域を算出したとする。そして、算出部12は、算出した2個以上の領域から、ステップS21で取得した所望の計測精度を満たす範囲を撮像候補領域として決定する。算出部12は、例えば、上記3つの領域のうち、計測誤差が1.0mm以下の領域のみを撮像候補領域として決定する。
 ここで、表示装置20により表示される撮像パラメータ51について、図7を参照しながら説明する。つまり、算出装置10から出力される撮像パラメータ51について、図7を参照しながら説明する。図7は、本変形例に係る撮像パラメータ51の一例を示す図である。具体的には、表示装置20が表示する撮像パラメータ51を示す図である。
 図7に示すように、撮像パラメータ51は、例えば、第1撮像装置30及び第2撮像装置40の幾何学的な条件を示す「カメラ条件」と、「計測精度」と、撮像候補領域a4を示す画像P2とを含む。計測精度は、ステップS21で取得された計測精度である。
 画像P2は、ステップS21で取得された所望の計測精度(例えば、1.0mm以下)を満たす撮像候補領域a4を示す。
 このように、画像P2が表示されることで、所望の計測精度を満たす範囲を可視化することができるので、作業員は算出装置10の算出結果を容易に視認することができる。例えば、作業員は、構造物Oを撮像するための撮像装置の撮像候補位置の決定をさらに容易に行うことができる。
 なお、算出部12は、ステップS21で取得された所望の計測精度に計測誤差が1.0mm以下であることを含む場合、計測誤差が1.0mmより大きく2.0mm以下の領域、及び、計測誤差が2.0mより大きく3.0mm以下の領域などを算出しなくてもよい。
 なお、算出部12は、計測誤差が1.0mm以下の領域、計測誤差が1.0mmより大きく2.0mm以下の領域、及び、計測誤差が2.0mmより大きく3.0mm以下の領域を算出し、かつ、3つの領域のいずれもがステップS21で取得された所望の計測精度を満たさない場合、算出した中で最も計測誤差が小さい領域と当該領域における計測誤差の値とを出力してもよいし、計測精度を満たす領域がないことを示す情報を出力してもよい。
 (実施の形態1の変形例2)
 以下、本変形例に係る撮像パラメータ出力方法等について、図8及び図9を参照しながら説明する。なお、以下の説明では、実施の形態1との相違点を中心に説明し、実施の形態1と同様の構成については同一の符号を付し、説明を省略又は簡略化する場合がある。本変形例に係る撮像パラメータ出力システムの構成は、実施の形態1に係る撮像パラメータ出力システム1と同様であり、説明を省略する。
 図8は、本変形例に係る算出装置10の動作を示すフローチャートである。なお、ステップS11~S13は、実施の形態1の図3に示すステップと同様であり、説明を省略する。
 図8に示すように、本変形例に係る算出装置10の取得部11は、実施の形態1に加えて環境情報を取得する(S31)。環境情報は、撮像装置を設置して構造物Oを撮像するときの周囲の環境を示す情報であり、例えば、天候、日当たり、太陽の向きなどを含む。取得部11は、例えば、天候を示す情報として、「晴れ」を取得したとする。取得部11は、取得した環境情報を算出部12に出力する。ステップS31は、第4取得ステップの一例である。
 次に、算出部12は、取得した環境情報に基づいて、候補日程を算出する(S32)。算出部12は、ステップS11で取得された対象物情報に基づいて、当該対象物の位置を特定する。そして、算出部12は、特定された位置を含む地域の天候情報を取得する。算出部12は、構造物Oを撮像するための期間が2019年8月である場合、2019年8月の当該地域における天候情報を取得する。算出部12は、天候情報から降水確率が所定値以下であると予測される日付を候補日として決定する。ステップS31で「晴れ」を示す環境情報を取得している場合、所定値は、例えば、50%であってもよいし、20%であってもよい。また、算出部12は、撮像候補領域、構造物O、及び、太陽の位置などから、撮像候補領域内で撮像したときに、逆光となる時間帯、及び、順光となる時間帯を算出してもよい。候補日程は、撮像パラメータに含まれる。
 次に、出力部13は、撮像パラメータを出力する(S33)。具体的には、出力部13は、候補日程を含む撮像パラメータを出力する。
 ここで、表示装置20により表示される撮像パラメータ52について、図9を参照しながら説明する。つまり、算出装置10から出力される撮像パラメータ52について、図9を参照しながら説明する。図9は、本変形例に係る撮像パラメータ52の一例を示す図である。具体的には、表示装置20が表示する撮像パラメータ52を示す図である。
 図9に示すように、撮像パラメータ52は、実施の形態1の撮像パラメータ50に加えて「候補日程」を含む。候補日程は、例えば、2019年8月において、降水確率が50%以下と予測される日付と、逆光及び順光の時間帯とを含む。
 これにより、作業員は、撮像パラメータ52により撮像を行う日程を容易に決定することができる。
 (実施の形態2)
 本実施の形態に係る撮像パラメータ出力方法等は、構造物Oの周囲の地理情報も考慮して、撮像パラメータを算出する。以下、本実施の形態に係る撮像パラメータの出力方法等について、図10~図12を参照しながら説明する。
 なお、以下の説明では、実施の形態1との相違点を中心に説明し、実施の形態1と同様の構成については同一の符号を付し、説明を省略又は簡略化する場合がある。本実施の形態に係る撮像パラメータ出力システムの構成は、実施の形態1に係る撮像パラメータ出力システム1と同様であり、説明を省略する。
 [2-1.撮像パラメータ出力システムの動作]
 図10は、本実施の形態に係る算出装置10の動作を示すフローチャートである。なお、ステップS11、S12及びS14は、実施の形態1の図3に示すステップと同様であり、説明を省略する。
 図10に示すように、算出部12は、対象物情報と幾何学的な撮像条件とに基づいて、撮像候補領域となり得る対象領域を算出する(S41)。ステップS41における処理は、実施の形態1の図3に示すステップS13と同様である。つまり、ステップS41において、例えば、図5に示す画像P1の撮像候補領域a1~a3に対応する領域が算出される。
 次に、取得部11は、実施の形態1に加えて地理情報を取得する(S42)。取得部11は、例えば、ステップS11で取得した対象物情報から特定される構造物Oを含む地理情報を外部の装置から通信により取得してもよいし、算出装置10の記憶部(図示しない)が地理情報を記憶している場合には、当該記憶部から地理情報を読み出してもよい。取得部11は、例えば、地理情報システム(GIS:Geographic Information System)から地理情報を取得してもよい。なお、取得部11は、少なくとも画像P1の撮像候補領域a1~a3における地理情報を取得すればよい。取得部11は、地理情報を算出部12に出力する。ステップS42は、第2取得ステップの一例である。
 算出部12は、地理情報に基づいて、撮像不能領域を算出する(S43)。撮像不能領域は、現実的に撮像装置が撮像できない又は撮像することが困難な領域であり、例えば、地形に基づく領域、及び、撮像装置の設置が制限される領域の少なくとも1つを含む。地形に基づく領域は、例えば、川、山林、急斜面などの撮像装置の設置が困難な領域を含む。設置が制限される領域は、私有地、立ち入りが禁止されている領域などを含む。図11は、本実施の形態に係る撮像不能領域x1、x2の一例を示す図である。
 図11に示すように、構造物Oの周囲には、撮像不能領域x1及びx2が存在する。撮像不能領域x1は、川を示す領域である。撮像不能領域x2は、山林を示す領域である。このように、算出部12は、地理情報に基づいて、撮像不能領域x1及びx2を特定する。
 図10を再び参照して、次に、算出部12は、対象領域と撮像不能領域とに基づく撮像候補領域を含む撮像パラメータを算出する(S44)。具体的には、算出部12は、対象領域から撮像不能領域を除いた領域を撮像候補領域とし、当該撮像候補領域を含む撮像パラメータを算出する。ステップS44で算出される撮像候補領域は、現実的に撮像可能な領域を示す。
 ここで、算出装置10から出力され、表示装置20により表示される撮像パラメータ53について、図12を参照しながら説明する。図12は、本実施の形態に係る撮像パラメータ53の一例を示す図である。具体的には、表示装置20が表示する撮像パラメータ53を示す図である。
 図12に示すように、撮像パラメータ53は、例えば、第1撮像装置30及び第2撮像装置40の幾何学的な条件を示す「カメラ条件」と、撮像不能領域を除く対象領域である撮像候補領域を示す画像P3とを含む。撮像候補領域b11は、対象領域b1(例えば、図3に示す撮像候補領域a1に対応する領域)のうち、撮像不能領域b12を除く領域である。また、撮像候補領域b11は、例えば、変位の計測誤差が1.0mm以下の領域である。このように、撮像候補領域b11は、変位の計測誤差が1.0mm以下となる領域であり、かつ、現実的に撮像可能な領域を示す。なお、撮像不能領域b12は、撮像不能領域x1、x2のうち、対象領域b1と重なる領域である。
 また、撮像候補領域b21は、対象領域b2(例えば、図3に示す撮像候補領域a2に対応する領域)のうち、撮像不能領域b22を除く領域である。また、撮像候補領域b21は、例えば、変位の計測誤差が1.0mmより大きく2.0mm以下の領域である。このように、撮像候補領域b21は、変位の計測誤差が1.0mmより大きく2.0mm以下となる領域であり、かつ、現実的に撮像可能な領域を示す。なお、撮像不能領域b22は、撮像不能領域x1、x2のうち、対象領域b2と重なる領域である。
 また、撮像候補領域b31は、対象領域b3(例えば、図3に示す撮像候補領域a3に対応する領域)のうち、撮像不能領域b32を除く領域である。また、撮像候補領域b31は、例えば、変位の計測誤差が2.0mmより大きく3.0mm以下の領域である。このように、撮像候補領域b31は、変位の計測誤差が2.0mmより大きく3.0mm以下となる領域であり、かつ、現実的に撮像可能な領域を示す。なお、撮像不能領域b32は、撮像不能領域x1、x2のうち、対象領域b3と重なる領域である。
 このように、算出装置10は、画像P3が表示されることで、撮像不能領域x1、x2を除いた領域、つまり現実的に撮像可能な領域を可視化することができる。よって、作業員は、構造物Oを撮像するための撮像装置の撮像候補位置の決定をさらに適切に行うことができる。
 なお、上記では、算出部12は、幾何学的な撮像条件と地理情報とに基づいて、撮像パラメータを算出する例について説明したが、これに限定されない。算出部12は、例えば、幾何学的な撮像条件及び地理情報のうち、地理情報のみを用いて撮像パラメータを算出してもよい。この場合、取得部11は、幾何学的な撮像条件及び地理情報のうち、地理情報のみを取得すればよい。つまり、図10に示すフローチャートにおいて、ステップS12及びS41の処理は、行われなくてもよい。これにより、算出部12は、構造物Oの周囲の地形などが特殊であり、撮像不能領域が多く存在する場合に、地理情報に基づいて撮像候補領域を含む撮像パラメータを算出することができる。なお、図10に示すフローチャートにおいて、ステップS12及びS41の処理が行われない場合、ステップS42は第1取得ステップの一例である。
 地理情報には、例えば、撮像候補領域における過去に計測したときの計測精度を示す情報が含まれていてもよい。これにより、撮像候補領域における計測精度を取得することができるので、算出部12は、撮像候補領域及び当該撮像候補領域における変位の計測精度を含む撮像パラメータを算出することができる。
 (実施の形態3)
 本実施の形態に係る撮像パラメータの算出方法等は、撮像装置の撮像候補位置から構造物Oを見たときの景色も考慮して、撮像パラメータを算出する。以下、本実施の形態に係る撮像パラメータの出力方法等について、図13~図16を参照しながら説明する。なお、以下の説明では、実施の形態1との相違点を中心に説明し、実施の形態1と同様の構成については同一の符号を付し、説明を省略又は簡略化する場合がある。
 [3-1.撮像パラメータ出力システムの構成]
 図13は、実施の形態3に係る撮像パラメータ出力システム1aの機能構成を示すブロック図である。
 図13に示すように、本実施の形態に係る撮像パラメータ出力システム1aは、実施の形態1の撮像パラメータ出力システム1の算出装置10に替えて算出装置10aを備える。算出装置10aは、実施の形態1の算出装置10に加えて受付部14を有する。
 取得部11は、対象物情報、及び、幾何学的な撮像条件に加えて、3次元地図情報を取得する。3次元地図情報は、構造物O及び当該構造物Oの周囲を含む地図情報である。なお、3次元地図情報は、取得部11が取得する地理情報に含まれていてもよい。
 受付部14は、作業員から撮像候補領域に関する操作を受け付けるユーザインタフェースである。受付部14は、例えば、撮像候補領域から撮像を行う撮像候補位置を選ぶ操作、及び、当該撮像候補位置を変更する操作を作業員から受け付ける。受付部14は、ハードウェアキー(ハードウェアボタン)、スライドスイッチ、タッチパネルなどにより実現される。
 [3-2.撮像パラメータ出力システムの動作]
 次に、撮像パラメータ出力システム1aの動作について、図14~図16を参照しながら説明する。具体的には、算出装置10aにおける動作について説明する。図14は、本実施の形態に係る算出装置10aの動作を示すフローチャートである。なお、図14に示す動作は、図3に示すステップS11~S14の動作で表示装置20が図5に示す撮像パラメータ50を表示した後に実行される動作である。
 図14に示すように、算出部12は、受付部14を介して作業員から撮像候補位置を受け付けたか否かを判定する(S51)。撮像候補位置は、例えば、図5に示される撮像候補領域a1~a3の中から、作業員が構造物Oを撮像する位置として設定した位置である。
 算出部12は、作業員から撮像候補位置を受け付けると(S51でYes)、取得部11を介して3次元地図情報を取得する(S52)。取得部11が取得する3次元地図情報は、例えば、構造物O及び撮像候補領域a1~a3を含む地図情報である。取得部11は、取得した3次元地図情報を算出部12に出力する。
 算出部12は、3次元地図情報に基づいて、撮像候補位置から構造物Oを見たときの第1確認画像を取得する(S53)。そして、算出部12は、第1確認画像を含む撮像パラメータを算出する。出力部13は、第1確認画像を含む撮像パラメータを表示装置20に出力する(S54)。そして、表示装置20は、出力部13から取得した第1確認画像を含む撮像パラメータを表示する。
 ここで、表示装置20により表示される撮像パラメータ54について、図15を参照しながら説明する。つまり、算出装置10aから出力される撮像パラメータ54について、図15を参照しながら説明する。図15は、本実施の形態に係る撮像パラメータ54の一例を示す図である。具体的には、表示装置20が表示する撮像パラメータ54を示す図である。
 図15に示すように、撮像パラメータ54は、例えば、第1撮像装置30及び第2撮像装置40の「撮像位置」と、第1撮像装置30及び第2撮像装置40の幾何学的な条件を示す「カメラ条件」と、第1確認画像P41及びP42を含む画像P4とを含む。
 撮像位置は、ステップS51で受け付けた撮像候補位置を示す情報である。撮像位置は、例えば、緯度及び経度を示す情報を含んでいてもよい。また、撮像位置は、さらに高さを示す情報を含んでいてもよい。
 第1確認画像P41は、第1撮像装置30の撮像候補位置から構造物Oを見たときの画像であり、例えば、3次元地図情報に基づく画像である。図15の例では、第1確認画像P41には、木Tが写っている。つまり、第1撮像装置30と構造物Oとの間に遮蔽物が存在する。この場合、第1撮像装置30の撮像候補位置を変更する必要があるが、第1確認画像P41を表示することで、算出装置10は、第1撮像装置30の撮像候補位置の変更の必要性を作業員に知らせることができる。このように、算出装置10は、2次元地図上(例えば、上方から見た地図上)であれば撮像可能であるが、現実には遮蔽物などにより撮像できないことを、第1確認画像を表示することで、作業員に知らせることができる。
 第1確認画像P42は、第2撮像装置40の撮像候補位置から構造物Oを見たときの画像であり、例えば、3次元地図情報に基づく画像である。図15の例では、第1確認画像P42には、構造物Oが写っている。つまり、第2撮像装置40と構造物Oとの間に遮蔽物が存在しない。この場合、撮像候補位置を変更する必要はないが、第1確認画像P42を表示することで、算出装置10は、第2撮像装置40の撮像候補位置の変更の必要性がないことを作業員に知らせることができる。
 なお、第1確認画像P41及びP42は、撮像候補位置から構造物Oを見たときの景色を示す情報の一例である。また、第1確認画像P41は、例えば、第1撮像装置30の画角及び設置向きに対応した範囲の画像であり、第1確認画像P42は、例えば、第2撮像装置40の画角及び設置向きに対応した範囲の画像である。
 図14を再び参照して、次に、算出部12は、受付部14を介して撮像候補位置を変更する操作を受け付けたか否かを判定する(S55)。撮像候補位置の変更は、例えば、第1確認画像P41をタッチすることで行われてもよいし、撮像候補位置の変更ボタンなどで受け付けることで行われてもよい。ステップS55は、受付ステップの一例である。
 算出部12は、撮像候補位置を変更する操作を受け付けると(S55でYes)、ステップS51で受け付けた撮像候補位置の付近の3次元地図情報に基づいて、撮像候補位置を構造物Oが遮蔽物で遮蔽されていない位置に変更する(S56)。そして、変更された撮像候補位置から構造物Oを見たときの第2確認画像を取得する(S57)。そして、算出部12は、第2確認画像を含む撮像パラメータを算出する。出力部13は、第2確認画像を含む撮像パラメータを表示装置20に出力する(S58)。そして、表示装置20は、出力部13から取得した第2確認画像を含む撮像パラメータを表示する。ステップS57は、更新ステップの一例である。
 ここで、表示装置20により表示される、更新された撮像パラメータ55について、図16を参照しながら説明する。つまり、算出装置10aから出力される、更新された撮像パラメータ55について、図16を参照しながら説明する。図16は、本実施の形態に係る確認画像が更新された撮像パラメータ55の一例を示す図である。
 図16に示すように、撮像パラメータ55は、例えば、第1撮像装置30及び第2撮像装置40の「撮像位置」と、第1撮像装置30及び第2撮像装置40の幾何学的な条件を示す「カメラ条件」と、第2確認画像P51及びP52を含む画像P5とを含む。
 撮像位置は、ステップS57で変更された撮像候補位置を示す情報である。図16では、第1撮像装置30及び第2撮像装置40のうち、第1撮像装置30の撮像候補位置のみが変更された例を示している。
 第2確認画像P51は、第1撮像装置30の変更後の撮像候補位置から構造物Oを見たときの画像であり、例えば、3次元地図情報に基づく画像である。図16の例では、第2確認画像P51には、構造物Oが写っている。つまり、第1撮像装置30と構造物Oとの間に遮蔽物が存在しない。算出装置10aは、撮像候補位置の変更に応じた第1撮像装置30における確認画像を表示する、つまり第1確認画像P41を第2確認画像P51に更新することで、変更後の撮像候補位置から構造物Oが撮像できることを作業員に知らせることができる。
 第2確認画像P52は、第1確認画像P42と同じ画像である。なお、算出部12は、第1撮像装置30の撮像候補位置の変更に応じて、第2撮像装置40の撮像候補位置を変更してもよい。算出部12は、例えば、変更後の第1撮像装置30の撮像候補位置において、第1撮像装置30と第2撮像装置40との輻輳角θ11及び基線長Lの少なくとも一方がステップS12で取得した幾何学的な撮像条件を満たさなくなった場合、当該幾何学的な撮像条件を満たすように第2撮像装置40の撮像候補位置を変更してもよい。そして、算出部12は、第2撮像装置40の変更後の撮像候補位置から構造物Oを見たときの画像を第2確認画像P52として撮像パラメータを算出してもよい。
 図14を再び参照して、算出装置10aは、受付部14が撮像候補位置を受け付けていない場合(S51でNo)、及び、受付部14が撮像候補位置を変更する操作を受け付けていない場合(S55でNo)、処理を終了する。
 なお、上記では、ステップS51において撮像候補位置の入力を受け付けると、第1確認画像を表示するための処理が実行される例について説明したが、これに限定されない。算出部12は、例えば、撮像候補位置を受け付けてから、さらに作業員の所定の操作を受け付けると、第1確認画像を表示するための処理を実行してもよい。所定の操作は、例えば、画像P4上に示される第1撮像装置30をクリックすることであってもよい。この場合、第1撮像装置30及び第2撮像装置40のうち、第1撮像装置30のみに対応した第1確認画像P41が表示されてもよい。
 なお、上記では、ステップS51においてユーザの操作をトリガとして確認画像を表示するための処理が実行される例について説明したが、これに限定されない。確認画像を表示するための処理は、自動的に実行されてもよい。例えば、撮像候補領域がピンポイントの位置(例えば、撮像候補位置)を示す場合、当該ピンポイントの位置から構造物Oを見たときの画像を確認画像として表示してもよい。自動的とは、確認画像を表示する処理を開始するための作業員の操作を要しないことを意味する。
 また、算出部12は、さらに、計測精度が所定値以下であり、かつ、確認画像の画像解析により遮蔽物が存在しない領域を撮像候補領域として撮像パラメータを算出してもよい。算出部12は、例えば、図3に示すステップS13より前に3次元地図情報を取得し、ステップS13において遮蔽物が存在しない領域を、撮像候補領域として撮像パラメータを算出してもよい。遮蔽物が存在しない領域は、範囲であってもよいし、ピンポイントの位置であってもよい。
 なお、上記では、ステップS55において撮像候補位置を変更する操作を受け付けたとき、算出部12がステップS51で受け付けた撮像候補位置の付近の3次元地図情報に基づいて撮像候補位置を変更するとしたが、ステップS51に戻って、算出部12が受付部14を介して作業員から新たな撮像候補位置を受け付けたか否かを判定して、ステップS51~S55を繰り返すとしてもよい。
 (実施の形態3の変形例)
 以下、本変形例に係る撮像パラメータ出力方法等について、図17を参照しながら説明する。なお、以下の説明では、実施の形態3との相違点を中心に説明し、実施の形態3と同様の構成については同一の符号を付し、説明を省略又は簡略化する場合がある。本変形例に係る撮像パラメータ出力システムの構成は、実施の形態3に係る撮像パラメータ出力システム1aと同様であり、説明を省略する。
 図17は、本変形例に係る算出装置10aの動作を示すフローチャートである。なお、ステップS51~S53は、実施の形態3の図14に示すステップと同様であり、説明を省略する。
 図17に示すように、算出部12は、撮像候補位置から構造物Oを見たときの第1確認画像(例えば、実施の形態3における第1確認画像P41)を取得する(S53)と、取得した第1確認画像に遮蔽物が存在しているか否かを判定する(S61)。算出部12は、例えば、第1確認画像に所定の物体が存在しているか否かにより上記の判定を行ってもよい。所定の物体は、2次元地図上では遮蔽物が存在するか否かの判定が困難である物体であり、例えば、山林、建物、道路沿いに設置される構造物などの静的な物体を含む。道路沿いに設置される構造物は、電柱、街灯、カーブミラー、標識、看板などを含む。
 なお、算出部12が第1確認画像に所定の物体が存在しているか否かを検出する検出方法は、特に限定されず、例えば、パターンマッチング技術を使用することができる。
 算出部12は、第1確認画像に遮蔽物が存在していると判定すると(S61でYes)、撮像候補位置を遮蔽物が存在しない位置に変更する(S62)。算出部12は、幾何学的な撮像条件を満たす中で撮像候補位置を変更し、変更した撮像候補位置における第2確認画像を取得し、取得した第2確認画像に遮蔽物が存在していない場合に、当該変更した撮像候補位置を遮蔽物が存在しない位置とする。そして、算出部12は、当該第2確認画像を含む撮像パラメータを生成する。
 次に、出力部13は、変更された撮像候補位置から構造物Oを見たときの第2確認画像を含む撮像パラメータを表示装置20に出力する(S63)。
 なお、ステップS62では、算出部12は、撮像候補位置を変更せずに、撮像装置の設置向きを遮蔽物が存在しない設置向きに変更してもよい。撮像装置の設置向きを変更することは、遮蔽物が存在しない位置に変更することに含まれる。また、変更された設置向きから構造物Oを見たときの画像は、第2確認画像の一例である。
 また、算出部12は、第1確認画像に遮蔽物が存在していないと判定すると(S61でNo)、処理を終了する。
 なお、上記では、算出部12は、第1確認画像に遮蔽物が存在する場合(S61でYes)、ステップS62に進む例について説明したが、これに限定されず、第1確認画像に遮蔽物が存在することを示す情報を、出力部13を介して表示装置20に出力してもよい。この場合、作業員による受付部14への操作により、手動で撮像候補位置が変更されてもよい。
 (他の実施の形態)
 以上、本開示の1つまたは複数の態様に係る撮像パラメータ出力方法等について、各実施の形態、及び、変形例(以降において、実施の形態等とも記載する)に基づいて説明したが、本開示は、この実施の形態等に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を実施の形態等に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示の1つまたは複数の態様の範囲内に含まれてもよい。
 例えば、上記実施の形態等では、算出装置は、構造物の動きを示す変位を計測するための画像を撮像する撮像装置に関する撮像パラメータを出力する例について説明したが、単に対象物の画像を撮像する撮像装置に関する撮像パラメータを出力してもよい。つまり、画像は、変位を計測するための画像に限定されない。画像は、例えば、風景画像などであってもよい。この場合、変位の計測精度などは、撮像パラメータに含まれない。
 この場合の撮像パラメータ出力方法は、対象物の画像を撮像する撮像装置に関する撮像パラメータを出力する撮像パラメータ出力方法であって、対象物を特定するための対象物情報、及び、対象物を撮像するときの幾何学的な撮像条件を取得する第1取得ステップと、対象物情報及び幾何学的な撮像条件に基づいて、撮像装置を設置する撮像候補領域を含む撮像パラメータを算出する算出ステップと、算出された撮像パラメータを出力する出力ステップとを含む。これにより、撮像現場における撮像作業の時間を短縮することができる。
 また、上記実施の形態等では、算出装置は、構造物の動きを示す変位を計測するための画像を撮像する撮像装置に関する撮像パラメータを出力する例について説明したが、撮像される画像は、変位を計測するための画像に限定されない。算出装置は、対象物の物理量を計測するための画像を撮像する撮像装置に関する撮像パラメータを出力してもよい。ここで、物理量は、対象物全体又は対象物の特定部分の長さ、角度などであってもよい。このように物理量は、1枚の画像から取得できるものであってもよい。また、物理量は、対象物全体が移動している場合、当該対象物の速度、加速度などであってもよい。なお、上記の変位は、物理量に含まれる。
 この場合の撮像パラメータ出力方法は、対象物の物理量を計測するための画像を撮像する撮像装置に関する撮像パラメータを出力する撮像パラメータ出力方法であって、対象物を特定するための対象物情報、及び、対象物を撮像するときの幾何学的な撮像条件を取得する第1取得ステップと、対象物情報及び幾何学的な撮像条件に基づいて、撮像装置を設置する撮像候補領域及び当該撮像候補領域における対象物の物理量の計測精度を含む撮像パラメータを算出する算出ステップと、算出された撮像パラメータを出力する出力ステップとを含む。
 また、上記実施の形態等では、地理情報から撮像不能領域を取得する例について説明したが、これに限定されない。算出装置は、例えば、作業員から撮像不能領域を取得してもよい。
 また、上記実施の形態における地理情報は、例えば、祭りなどのイベント情報、道路などの工事情報等の動的な情報を含んでいてもよい。
 また、上記実施の形態等における取得部及び受付部の少なくとも一方は、作業員の音声に基づく情報を取得してもよい。この場合、算出装置は、例えば、音声を取得するマイクロフォンを有していてもよいし、音声に対する音声認識処理を行うサーバ(例えば、クラウドサーバ)と通信可能に接続された通信回路を有していてもよい。
 また、上記実施の形態等では、撮像装置は、地面に固定される装置である例について説明したが、これに限定されない。撮像装置は、例えば、ドローンなどの飛行体に設けられた撮像装置であってもよい。つまり、撮像パラメータは、ドローンなどの飛行体を用いて、構造物を撮像するときのパラメータであってもよい。
 また、上記実施の形態等において、取得部は通信部である例について説明したが、これに限定されない。取得部は、例えば、記録媒体が接続される接続部であってもよい。接続部は、例えば、UBS(Universal Serial Bus)が接続されるUSB端子、SDカードが差し込まれるSDカードスロット、光ディスクが挿入される光学ドライブなどであってもよい。
 また、フローチャートにおける各ステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。
 また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。
 また、上記実施の形態等では、算出装置は、表示装置を有していない、つまり、算出装置と、表示装置とは、別体である例について説明したが、表示装置を有していてもよい。この場合には、表示装置は、算出装置の一部である表示部として機能する。このように、撮像パラメータ出力システムは、1つの装置により構成されてもよい。
 また、上記実施の形態では、第1撮像装置と第2撮像装置とは別体である例について説明したが、これに限定されず、第1撮像装置と第2撮像装置とは1つの撮像装置により構成されていてもよい。第1撮像装置と第2撮像装置とは、いわゆるステレオカメラであってもよい。この場合、幾何学的な撮像条件に含まれる基線長は、2つのレンズの距離であってもよい。2つのレンズの距離は、固定値である。
 また、上記実施の形態では、第1撮像装置及び第2撮像装置の構成が同じである例について説明したが、これに限定されない。第1撮像装置及び第2撮像装置の構成は異なっていてもよい。例えば、第1撮像装置及び第2撮像装置は、センサスペックが互いに異なる撮像装置であってもよい。この場合、ステップS12において、撮像装置ごとにセンサスペックを取得してもよい。例えば、ステップS12において、取得部は、第1撮像装置と第2撮像装置とで互いにセンサスペックが異なることを含む幾何学的な撮像条件を取得してもよい。
 また、上記実施の形態等における撮像パラメータ出力システムが備える装置間の通信方法については特に限定されるものではない。装置間では、無線通信が行われてもよいし、有線通信が行われてもよい。また、装置間では、無線通信および有線通信が組み合わされてもよい。
 また、上記実施の形態等における算出装置が備える構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。
 システムLSIは、複数の処理部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM(Read Only Memory)、RAM(Random Access Memory)などを含んで構成されるコンピュータシステムである。ROMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
 なお、ここでは、システムLSIとしたが、集積度の違いにより、IC、LSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)、あるいはLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
 さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。
 また、上記各種処理の全部又は一部は、電子回路等のハードウェアにより実現されても、ソフトウェアを用いて実現されてもよい。なお、ソフトウェアによる処理は、算出装置に含まれるプロセッサがメモリに記憶されたプログラムを実行することにより実現されるものである。
 また、本開示の一態様は、撮像パラメータ出力方法に含まれる特徴的な各ステップをコンピュータに実行させるコンピュータプログラムであってもよい。また、本開示の一態様は、そのようなプログラムが記録された、コンピュータ読み取り可能な非一時的な記録媒体であってもよい。例えば、そのようなプログラムを記録媒体に記録して頒布又は流通させてもよい。例えば、頒布されたプログラムを、他のプロセッサを有する装置にインストールして、そのプログラムをそのプロセッサに実行させることで、その装置に、上記各処理を行わせることが可能となる。
 本開示は、構造物の変位を計測するための計測システムにおける撮像パラメータを決定する装置等に広く利用可能である。
 1、1a  撮像パラメータ出力システム
 10、10a  算出装置
 11  取得部
 12  算出部
 13  出力部
 14  受付部
 20  表示装置
 30  第1撮像装置
 40  第2撮像装置
 50~55  撮像パラメータ
 a1~a4、b11、b21、b31  撮像候補領域
 b1、b2、b3  対象領域
 b12、b22、b32  撮像不能領域
 F  矩形枠
 L  基線長
 O  構造物
 p1、p2、p3  位置
 p1a、p2a、p3a  楕円誤差
 P1、P2、P3、P4、P5  画像
 P41、P42  第1確認画像
 P51、P52  第2確認画像
 T  木
 x1、x2  撮像不能領域
 θ11、θ12、θ13  輻輳角
 θ21、θ22  画角

Claims (13)

  1.  対象物の動きを示す変位を計測するための画像を撮像する撮像装置に関する撮像パラメータを出力する撮像パラメータ出力方法であって、
     前記対象物を特定するための対象物情報、及び、前記対象物を撮像するときの幾何学的な撮像条件を取得する第1取得ステップと、
     前記対象物情報及び前記幾何学的な撮像条件に基づいて、前記撮像装置を設置する撮像候補領域及び当該撮像候補領域における前記変位の計測精度を含む前記撮像パラメータを算出する算出ステップと、
     前記撮像パラメータを出力する出力ステップとを含む
     撮像パラメータ出力方法。
  2.  さらに、前記対象物を含む地理情報を取得する第2取得ステップを含み、
     前記算出ステップでは、さらに、前記地理情報に基づいて、前記撮像パラメータを算出する
     請求項1に記載の撮像パラメータ出力方法。
  3.  前記算出ステップでは、前記対象物情報及び前記幾何学的な撮像条件に基づいて算出される前記撮像装置を設置する対象領域から、前記地理情報に基づいて得られる前記撮像装置が撮像できない撮像不能領域を除いた領域である前記撮像候補領域を含む前記撮像パラメータを算出する
     請求項2に記載の撮像パラメータ出力方法。
  4.  前記撮像候補領域は、撮像候補位置を含み、
     前記撮像パラメータは、前記撮像候補位置から前記対象物を見たときの景色を確認するための第1確認画像をさらに含む
     請求項2又は3に記載の撮像パラメータ出力方法。
  5.  さらに、
     前記撮像候補位置を変更する操作を受け付ける受付ステップと、
     前記撮像パラメータに含まれる前記第1確認画像を、変更された前記撮像候補位置から前記対象物を見たときの第2確認画像に更新する更新ステップとを含む
     請求項4に記載の撮像パラメータ出力方法。
  6.  さらに、所望の計測精度を取得する第3取得ステップを含み、
     前記撮像候補領域は、前記所望の計測精度を満たす領域である
     請求項1~5のいずれか1項に記載の撮像パラメータ出力方法。
  7.  さらに、前記対象物を撮像するときの環境情報を取得する第4取得ステップを含み、
     前記撮像パラメータは、前記環境情報に基づく、前記対象物の撮像を行う候補日程に関する情報を含む
     請求項1~6のいずれか1項に記載の撮像パラメータ出力方法。
  8.  前記幾何学的な撮像条件は、前記対象物の撮像範囲、前記撮像装置において使用可能なレンズに関するレンズ情報、前記撮像装置のセンサに関する情報の少なくとも1つを含む
     請求項1~7のいずれか1項に記載の撮像パラメータ出力方法。
  9.  前記撮像装置は、互いに異なる視点から前記対象物を撮像する第1撮像装置及び第2撮像装置を有し、
     前記幾何学的な撮像条件は、さらに、前記第1撮像装置及び前記第2撮像装置の基線長及び前記第1撮像装置及び前記第2撮像装置により形成される輻輳角の少なくとも一方を含む
     請求項1~8のいずれか1項に記載の撮像パラメータ出力方法。
  10.  対象物の動きを示す変位を計測するための画像を撮像する撮像装置に関する撮像パラメータを出力する撮像パラメータ出力方法であって、
     前記対象物を特定するための対象物情報、及び、前記対象物を含む地理情報を取得する取得ステップと、
     前記対象物情報及び前記地理情報に基づいて、前記撮像装置を設置する撮像候補領域及び当該撮像候補領域における前記変位の計測精度を含む前記撮像パラメータを算出する算出ステップと、
     前記撮像パラメータを出力する出力ステップとを含む
     撮像パラメータ出力方法。
  11.  対象物の物理量を計測するための画像を撮像する撮像装置に関する撮像パラメータを出力する撮像パラメータ出力方法であって、
     前記対象物を特定するための対象物情報、及び、前記対象物を撮像するときの幾何学的な撮像条件を取得する第1取得ステップと、
     前記対象物情報及び前記幾何学的な撮像条件に基づいて、前記撮像装置を設置する撮像候補領域及び当該撮像候補領域における前記対象物の前記物理量の計測精度を含む前記撮像パラメータを算出する算出ステップと、
     前記撮像パラメータを出力する出力ステップとを含む
     撮像パラメータ出力方法。
  12.  対象物の動きを示す変位を計測するための画像を撮像する撮像装置に関する撮像パラメータを出力する撮像パラメータ出力装置であって、
     前記対象物を特定するための対象物情報、及び、前記対象物を撮像するときの幾何学的な撮像条件を取得する取得部と、
     前記対象物情報及び前記幾何学的な撮像条件に基づいて、前記撮像装置を設置する撮像候補領域及び当該撮像候補領域における前記変位の計測精度を含む前記撮像パラメータを算出する算出部と、
     前記撮像パラメータを出力する出力部とを備える
     撮像パラメータ出力装置。
  13.  対象物の動きを示す変位を計測するための画像を撮像する撮像装置に関する撮像パラメータを出力する撮像パラメータ出力装置であって、
     前記対象物を特定するための対象物情報、及び、前記対象物を含む地理情報を取得する取得部と、
     前記対象物情報及び前記地理情報に基づいて、前記撮像装置を設置する撮像候補領域及び当該撮像候補領域における前記変位の計測精度を含む前記撮像パラメータを算出する算出部と、
     前記撮像パラメータを出力する出力部とを備える
     撮像パラメータ出力装置。
PCT/JP2020/025158 2019-08-28 2020-06-26 撮像パラメータ出力方法、及び、撮像パラメータ出力装置 WO2021039088A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202080050456.2A CN114127507A (zh) 2019-08-28 2020-06-26 摄像参数输出方法及摄像参数输出装置
JP2021542058A JPWO2021039088A1 (ja) 2019-08-28 2020-06-26
US17/568,129 US20220128433A1 (en) 2019-08-28 2022-01-04 Imaging parameter output method and imaging parameter output device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019156048 2019-08-28
JP2019-156048 2019-08-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/568,129 Continuation US20220128433A1 (en) 2019-08-28 2022-01-04 Imaging parameter output method and imaging parameter output device

Publications (1)

Publication Number Publication Date
WO2021039088A1 true WO2021039088A1 (ja) 2021-03-04

Family

ID=74685846

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/025158 WO2021039088A1 (ja) 2019-08-28 2020-06-26 撮像パラメータ出力方法、及び、撮像パラメータ出力装置

Country Status (4)

Country Link
US (1) US20220128433A1 (ja)
JP (1) JPWO2021039088A1 (ja)
CN (1) CN114127507A (ja)
WO (1) WO2021039088A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10246632A (ja) * 1997-03-05 1998-09-14 Kumagai Gumi Co Ltd 写真撮影管理方法
JP2002039753A (ja) * 2000-07-21 2002-02-06 Ishikawajima Harima Heavy Ind Co Ltd 写真計測用写真撮影位置の決定方法
JP2005024442A (ja) * 2003-07-04 2005-01-27 Meidensha Corp ステレオ画像撮影装置
JP2010256276A (ja) * 2009-04-28 2010-11-11 Mitsubishi Electric Corp 三次元形状計測装置及び計測方法
JP2014010559A (ja) * 2012-06-28 2014-01-20 Toshiba Corp 計測支援装置、方法及びプログラム
JP2017203701A (ja) * 2016-05-12 2017-11-16 キヤノン株式会社 情報処理装置、計測システム、情報処理方法およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10246632A (ja) * 1997-03-05 1998-09-14 Kumagai Gumi Co Ltd 写真撮影管理方法
JP2002039753A (ja) * 2000-07-21 2002-02-06 Ishikawajima Harima Heavy Ind Co Ltd 写真計測用写真撮影位置の決定方法
JP2005024442A (ja) * 2003-07-04 2005-01-27 Meidensha Corp ステレオ画像撮影装置
JP2010256276A (ja) * 2009-04-28 2010-11-11 Mitsubishi Electric Corp 三次元形状計測装置及び計測方法
JP2014010559A (ja) * 2012-06-28 2014-01-20 Toshiba Corp 計測支援装置、方法及びプログラム
JP2017203701A (ja) * 2016-05-12 2017-11-16 キヤノン株式会社 情報処理装置、計測システム、情報処理方法およびプログラム

Also Published As

Publication number Publication date
JPWO2021039088A1 (ja) 2021-03-04
CN114127507A (zh) 2022-03-01
US20220128433A1 (en) 2022-04-28

Similar Documents

Publication Publication Date Title
JP7155321B2 (ja) ひび割れ解析データ編集装置、ひび割れ解析データ編集方法、及び、ひび割れ解析データの編集プログラム
Chen et al. Inexpensive multimodal sensor fusion system for autonomous data acquisition of road surface conditions
KR102362714B1 (ko) 경로 데이터를 생성하는 방법들 및 시스템들
US10872247B2 (en) Image feature emphasis device, road surface feature analysis device, image feature emphasis method, and road surface feature analysis method
JP4619962B2 (ja) 路面標示計測システム、白線モデル計測システムおよび白線モデル計測装置
WO2017051735A1 (ja) 撮像支援システム及び装置及び方法、並びに撮像端末
JP2019164136A (ja) 情報処理装置、撮像装置、移動体、画像処理システムおよび情報処理方法
JP2016057063A (ja) 測定対象物の非接触検知方法及びその装置
JP2006195032A (ja) 地形図作成方法および地形図作成システム
JP2023029441A (ja) 計測装置、計測システムおよび車両
JPH1019562A (ja) 測量装置および測量方法
KR20100122629A (ko) 옥외광고물 측정시스템
JP6773473B2 (ja) 測量情報管理装置および測量情報管理方法
US20220076399A1 (en) Photographing guide device
WO2021039088A1 (ja) 撮像パラメータ出力方法、及び、撮像パラメータ出力装置
KR100981588B1 (ko) 특징점 픽셀의 크기와 방향 정보를 이용하는 벡터 변환에 기초한 도시공간 지리정보 생성 시스템
RU2506536C2 (ru) Способ субпиксельного контроля и слежения за перемещением удаленного объекта
JP2021070993A (ja) インフラ検査システム、及び、インフラ検査方法
JP7048357B2 (ja) 撮影画像事前確認システム及び撮影画像事前確認方法
WO2024084873A1 (ja) 撮影方法及び情報処理方法
RU2601165C2 (ru) Способ автоматизированного создания трехмерных систем городских панорам на основе данных лазерного сканирования
KR100959246B1 (ko) 스테레오 영상 및 gps 좌표를 이용하여 도시공간의 지리정보를 생성하는 방법 및 시스템
Bassani et al. Alignment data collection of highways using mobile mapping and image analysis techniques
RU2726256C1 (ru) Способ построения трехмерной модели местности вдоль полотна железнодорожного пути
KR101016071B1 (ko) 이동측량장치의 이동경로에 따른 스테레오 영상으로부터 벡터변환을 이용하여 대응영역을 추출하는 도시공간 영상처리장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20855872

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021542058

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20855872

Country of ref document: EP

Kind code of ref document: A1