WO2019021729A1 - 損傷図作成方法、損傷図作成装置、損傷図作成システム、及び記録媒体 - Google Patents

損傷図作成方法、損傷図作成装置、損傷図作成システム、及び記録媒体 Download PDF

Info

Publication number
WO2019021729A1
WO2019021729A1 PCT/JP2018/024406 JP2018024406W WO2019021729A1 WO 2019021729 A1 WO2019021729 A1 WO 2019021729A1 JP 2018024406 W JP2018024406 W JP 2018024406W WO 2019021729 A1 WO2019021729 A1 WO 2019021729A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
images
damage
detection result
detection
Prior art date
Application number
PCT/JP2018/024406
Other languages
English (en)
French (fr)
Inventor
與那覇 誠
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to EP18838365.7A priority Critical patent/EP3660786A4/en
Priority to JP2019532456A priority patent/JP6807459B2/ja
Priority to CN201880049642.7A priority patent/CN110998655B/zh
Publication of WO2019021729A1 publication Critical patent/WO2019021729A1/ja
Priority to US16/748,921 priority patent/US11523013B2/en
Priority to US18/050,792 priority patent/US11948291B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/0044Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
    • H04N1/00442Simultaneous viewing of a plurality of images, e.g. using a mosaic display arrangement of thumbnails
    • H04N1/00453Simultaneous viewing of a plurality of images, e.g. using a mosaic display arrangement of thumbnails arranged in a two dimensional array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/0044Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
    • H04N1/00458Sequential viewing of a plurality of images, e.g. browsing or scrolling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/0044Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
    • H04N1/00461Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet marking or otherwise tagging one or more displayed image, e.g. for selective reproduction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30132Masonry; Concrete
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30136Metal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30161Wood; Lumber
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/325Modified version of the image, e.g. part of the image, image reduced in size or resolution, thumbnail or screennail

Definitions

  • the present invention relates to a damage chart creating method, a damage chart creating apparatus, a damage chart creating system, and a recording medium, and more particularly to a technique for detecting a damage based on a plurality of images acquired by dividing and photographing an object.
  • Patent Document 1 describes that a photographed image acquired while traveling on a road is converted and synthesized to generate an inspection area image, and a defective part such as a crack is detected from the inspection area image.
  • positional deviation of the image may occur in a portion where the images overlap (overlap area).
  • the damage may be blurred.
  • the damage detection accuracy may be deteriorated such that fine damage can not be detected from the composite image, and a damage map with high accuracy can not be created.
  • the related art can not accurately detect damage based on a plurality of images acquired by dividing and photographing an object.
  • the present invention has been made in view of such circumstances, and a damage map drawing method, a damage map drawing device, and a damage map capable of detecting damage with high accuracy based on a plurality of images acquired by dividing and photographing an object.
  • An object of the present invention is to provide a diagram creation system and a recording medium.
  • a damage map drawing method comprises the steps of: inputting a plurality of images acquired by dividing and photographing a subject; and combining parameters for combining a plurality of images Calculating based on corresponding points between the images, detecting damage to the subject from the images constituting the plurality of images, and combining the results of detection of the plurality of images based on the synthesis parameters And.
  • damage to the subject is detected from an image (an image in a non-combined state) that constitutes a plurality of images (a plurality of images obtained by dividing and photographing the subject).
  • the damage detection performance does not deteriorate due to the image quality deterioration in the overlapping area. Therefore, damage can be detected with high accuracy based on a plurality of images acquired by dividing and photographing the subject.
  • the detection result for each image can be synthesized by the synthesis parameter calculated based on the corresponding points of the images.
  • “detection result” may be referred to as “detection result”.
  • either of the step of detecting the composition parameter and the step of detecting the damage from the image may be performed first, or these steps may be performed in parallel. Further, if a composite detection result is obtained, a damage map can be created, so the image itself that is the target of damage detection may or may not be composited.
  • a plurality of divided images of a building (building) as a subject may be input.
  • a building (building) is a subject
  • the damage map creating method according to the present invention is effective.
  • Examples of such structures include bridges, buildings, roads, etc., but are not limited to these examples.
  • the structure may be a concrete structure.
  • the synthesis parameter Do information of a projective transformation matrix of an image other than the reference image with respect to the reference image among the plurality of images is calculated as the synthesis parameter Do.
  • information (amount, direction, etc.) of movement, rotation, deformation of an image other than the reference image can be calculated as a synthesis parameter.
  • the reference image is the position with respect to the subject (for example, an image of a corner portion), the shooting order (for example, the first captured image), the feature of the image (exposure condition, sharpness, a specific member is shown), etc. It can be set based on.
  • standard image faces the imaging
  • the damage chart creation method in the first or second aspect, when it is not possible to calculate a composition parameter for combining a plurality of images into one image in the step of calculating a composition parameter, of the plurality of images A step of calculating synthesis parameters for each image group that can be synthesized and a step of synthesizing the detection result for each image group based on the synthesis parameters calculated for each image group are performed.
  • the third aspect even when parameters for combining all images into one image (that is, parameters for combining detection results for all images into one) can not be calculated, each image group that can be combined Detection results can be synthesized.
  • combination parameter when "the synthetic
  • the damage map drawing method is the method according to the third aspect, wherein the information obtained by vectorizing the detection result is superimposed on a plurality of images and displayed for each image group, and among the displayed image groups Designating corresponding points for one image group, another image group among the image groups, and one image group and another image group into one image based on the specified corresponding points
  • the detection result for one image group and the detection result for another image group are synthesized based on the synthesis parameter for synthesizing the image group into one image. Synthesize with the detection result.
  • the fourth mode defines a process in the case where a synthesis parameter for synthesizing all of a plurality of images into one image can not be calculated.
  • the corresponding points are specified (based on the user's operation), and the specified corresponding points are specified.
  • the synthesis parameter By calculating the synthesis parameter based on the above, the detection result of one image group and the detection result of another image group are synthesized. Since it is only necessary to designate corresponding points for the image group that could not be synthesized, the synthesis parameters can be calculated quickly and easily and the detection results can be synthesized.
  • the designation of the corresponding points can be performed based on the user's operation.
  • the fourth aspect when specifying the corresponding points, in addition to displaying the image, information obtained by vectorizing the detection results is displayed, so that the user can visually identify the detection results and specify the corresponding points based thereon The operation can be easily performed.
  • information obtained by vectorizing the detection result for example, a line segment indicating the start point and the end point of the damage, or a figure (polygon or the like) configured by such a line segment can be used.
  • any one of the first to fourth aspects in the step of combining the detection result, in a region where a plurality of images overlap, among a plurality of overlapping images, Select one to combine the detection results.
  • the detection result can be synthesized with high accuracy by selecting one of a plurality of overlapping images in the overlapping region.
  • the step of inputting the plurality of images according to any one of the first to fifth aspects in the step of inputting the plurality of images according to any one of the first to fifth aspects, the plurality of images divided into groups are inputted, and the detection results are synthesized
  • the step of combining includes combining the results of detection into groups, and associating the combined results of detection with the groups and outputting the results.
  • the correspondence between the input image and the synthesized detection result is clear, and the image and the detection You can easily manage and use the results.
  • the images stored in the same folder are input as the images belonging to the same group, and the detection results are synthesized.
  • the detection result is synthesized for each image stored in the same folder, and in the step of outputting the detection result, the synthesized detection result is output to the folder in which the images belonging to the same group are stored.
  • the seventh aspect more specifically defines the sixth aspect, and management and utilization of images and detection results can be performed more easily.
  • the damage map drawing method includes, in any one of the first to seventh aspects, the step of combining a plurality of images based on combining parameters. According to the eighth aspect, in addition to the synthesized detection result, it is possible to obtain a synthesized image corresponding to such a detection result.
  • the step of outputting the detection result in the same format as the drawing data including the diagram information indicating the shape of the subject Have the same format as CAD (Computer-Aided Design) can be used as “the same format as drawing data including line drawing information indicating the shape of an object”, such a format
  • CAD Computer-Aided Design
  • the detection result output according to the ninth aspect may be synthesized (mapping) on a CAD drawing.
  • the damage map drawing method includes the steps of displaying the detection result and outputting the displayed detection result in any one of the first to ninth aspects, The step of outputting the result of is performed only when there is an instruction to output the result of the displayed detection. According to the tenth aspect, the step of outputting the detection result is performed only when the output instruction for the displayed detection result is given, whereby the user can grasp the detection result by the display and only the desired detection result. Can be output.
  • the detection result can be displayed by characters, numbers, figures, symbols, and the like. Also, the detection result may be vectorized and displayed, or may be displayed together with the image.
  • the damage map drawing method includes, in the tenth aspect, a step of providing identification information to an image corresponding to a result of the detection for which an output instruction has not been given. This makes it possible to identify an image which has not been instructed to output.
  • a damage map creating apparatus for inputting a plurality of images acquired by dividing and photographing an object, and synthesis parameters for synthesizing the plurality of images. Based on the synthesis parameters, a synthesis parameter calculation unit that calculates based on corresponding points between the images, a damage detection unit that detects damage to the subject from the images that make up the plurality of images, and detection results for the plurality of images And a detection result combining unit to be combined.
  • damage can be detected with high accuracy based on a plurality of images acquired by dividing and photographing an object.
  • the synthesis parameter calculation unit calculates information of a projective transformation matrix of an image other than the reference image with respect to the reference image among the plurality of images as the synthesis parameter.
  • information (amount, direction, etc.) of movement, rotation, deformation by an projective transformation matrix of an image other than the reference image can be calculated as a synthesis parameter.
  • the combination parameter calculation unit when the combination parameter calculation unit can not calculate a combination parameter for combining a plurality of images into one image, the combination parameter calculation unit combines the plurality of images.
  • the synthesis parameter is calculated for each image group that can be calculated, and the detection result synthesis unit synthesizes the detection result for each image group based on the synthesis parameter calculated for each image group.
  • the detection results can be synthesized for each image group that can be synthesized.
  • the damage chart creation device is the display control unit configured to display information for each image group by superimposing the information obtained by vectorizing the detection result on a plurality of images in the fourteenth aspect; A corresponding point designation unit for specifying a corresponding point for one of the image group and the other image group of the image group, and the synthesis parameter calculation unit determines one of the one based on the specified corresponding point. Based on a synthesis parameter for calculating a synthesis parameter for synthesizing an image group and another image group into one image and the detection result synthesis unit for synthesizing one image group and another image group into one image, The result of detection for one image group and the result of detection for another image group are combined. According to the fifteenth aspect, as in the fourth aspect, the synthesis parameter can be calculated quickly and easily to synthesize the detection result, and the visual recognition of the detection result and the specification of the corresponding point based on this can be facilitated. It can be carried out.
  • a damage map creating system comprising a server and a client, wherein the client inputs a plurality of images acquired by dividing and photographing an object.
  • An image acquisition unit for acquiring a plurality of images from the client, and a synthesis parameter calculation unit for calculating a synthesis parameter for synthesizing the plurality of acquired images based on corresponding points between the images
  • a damage detection unit for detecting damage to a subject from images constituting a plurality of images, a detection result combining unit for combining results of detection of the plurality of images based on synthesis parameters, and detection results as a client
  • a detection result output unit for outputting.
  • a device such as a personal computer, a tablet terminal, or a smartphone can be used as a client by inputting an image and receiving the result from the server, and a computer network-connected with the client is used as a server be able to.
  • the combining parameter calculation unit calculates information of a projective transformation matrix of an image other than the reference image with respect to the reference image among the plurality of images as the combining parameter.
  • information (amount, direction, and the like) of movement, rotation, and deformation based on a projective transformation matrix of an image other than the reference image can be calculated as a synthesis parameter.
  • the combination parameter calculation unit when the combination parameter calculation unit can not calculate a combination parameter for combining a plurality of images into one image, the combination parameter calculation unit combines the plurality of images.
  • the synthesis parameter is calculated for each image group that can be calculated, and the detection result synthesis unit synthesizes the detection result for each image group based on the synthesis parameter calculated for each image group.
  • the detection results can be synthesized for each image group that can be synthesized.
  • the damage chart drawing system is the display system according to the eighteenth aspect, wherein the server superimposes information obtained by vectorizing the detection result on a plurality of images and displays the information group by group.
  • a corresponding point designation unit for specifying a corresponding point for one image group in the image group and the other image group in the image group, and the synthesis parameter calculation unit is based on the specified corresponding point.
  • Calculation parameters for combining one image group and another image group into one image, and the detection result combining unit combines the one image group and the other image group into one image. Based on the detection result for one image group, the detection result for another image group is synthesized.
  • the synthesis parameter can be calculated quickly and easily to synthesize the detection result, and the visual recognition of the detection result and the specification of the corresponding point based on this can be facilitated. It can be carried out.
  • the superimposed display of the vectorized information and the image can be performed by, for example, a display device possessed by the client.
  • the image acquisition unit of the server acquires a plurality of images divided into groups from the client, and the detection result synthesis of the server The unit synthesizes the detection results for each group, and the detection result output unit of the server outputs the synthesized detection results to the client in association with the groups.
  • the detection result output unit of the server outputs the synthesized detection results to the client in association with the groups.
  • the image acquisition unit of the server acquires the images stored in the same folder as the images belonging to the same group, and the detection result combining unit of the server
  • the detection result output unit of the server outputs the detection result synthesized for the images stored in the same folder to the same folder of the client.
  • management and utilization of images and detection results can be easily performed. Note that storage of images in a folder can be easily realized by user operation, for example, by providing the client with a file management tool (function) similar to that of a general computer OS.
  • a recording medium according to a twenty-second aspect, the computer readable code of a program causing a computer to execute the damage chart creation method according to any one of the first to eleventh aspects.
  • Recording media As in the first aspect, damage can be detected with high accuracy based on a plurality of images acquired by dividing and photographing an object, and as in the second to eleventh aspects. In the case of having the configuration of the above, the same effects as those aspects can be obtained.
  • nontemporary recording media such as various magneto-optical recording media and semiconductor recording media can be used.
  • damage can be made with high accuracy based on a plurality of images acquired by dividing and photographing an object. It can be detected.
  • FIG. 1 is an external view of the bridge viewed from the lower surface side.
  • FIG. 2 is a block diagram showing a configuration of a damage chart creating system according to the first embodiment.
  • FIG. 3 is a diagram showing the configuration of the processing unit.
  • FIG. 4 is a diagram showing information stored in the storage unit.
  • FIG. 5 is a diagram showing the configuration of the server.
  • FIG. 6 is a view showing a flowchart of a damage map creation method according to the first embodiment.
  • FIG. 7 is another view showing a flowchart of a damage map creation method according to the first embodiment.
  • FIG. 8 is a diagram illustrating an example of a photographing procedure of a floor slab.
  • FIG. 9 is a diagram showing an example of the photographing procedure of the case.
  • FIG. 10 is a diagram showing the shooting range of each image.
  • FIG. 11 is a view showing each photographed image.
  • FIG. 12 shows a hierarchical structure of folders.
  • FIG. 13 is a diagram showing a state in which a photographed image is stored in a folder.
  • FIG. 14 is a flowchart showing the process of determining the image arrangement.
  • FIG. 15 is a diagram showing how the reference image is set.
  • FIG. 16 is a diagram showing an example of image arrangement for each image group.
  • FIG. 17 is another view showing an example of the image arrangement for each image group.
  • FIG. 18 is a view showing a state in which vectorized detection results are superimposed and displayed on an image.
  • FIG. 19 is a view showing how the relative arrangement of each image group is changed.
  • FIG. 19 is a view showing how the relative arrangement of each image group is changed.
  • FIG. 20 is a diagram showing how corresponding points are set in an image group.
  • FIG. 21 is a diagram showing a combination of detection results.
  • FIG. 22 is another diagram showing the synthesis of detection results.
  • FIG. 23 is a diagram showing composition of detection results in an area where images overlap.
  • FIG. 24 is a diagram showing a combined image.
  • FIG. 25 is another view showing the synthesized image.
  • FIG. 26 is a diagram showing a state in which detection results and the like are stored in the same folder as the image.
  • FIG. 27 is a block diagram showing a configuration of a damage chart creating device according to the second embodiment.
  • FIG. 1 is a perspective view showing a state of a bridge 1 which is one of the structures as viewed from below.
  • the bridge 1 shown in FIG. 1 has a three-dimensional structure according to the main girder 2, the transverse girder 3, the anti-tilting structure 4, the transverse structure 5 and the floor plate 6, and these members are bolts, rivets and welds And so on.
  • a floor plate 6 for driving a vehicle or the like is placed above the main girder 2 and the like.
  • the floor slab 6 is generally made of reinforced concrete.
  • the main girder 2 is a member which is passed between an abutment or a bridge to support a load of a vehicle or the like on the floor plate 6 and has a plane (vertical direction) orthogonal to the plane (horizontal plane) of the floor plate 6.
  • the lateral girder 3 is a member that connects the main girder 2 in order to support the load with the plurality of main girder 2.
  • the anti-tilt structure 4 and the siding structure 5 are members which mutually connect the main girder 2 in order to resist the wind and the lateral load of an earthquake, respectively.
  • the target building is not limited to the bridge, and may be a tunnel, a building, a road, or the like.
  • FIG. 2 is a block diagram showing a schematic configuration of the damage chart creating system 10 (damage chart creating system).
  • the damage chart creating system 10 includes a digital camera 100, a client 200, and a server 300, and is a system that creates damage charts by detecting damage, combining detection results, and the like on a plurality of images acquired by dividing an object. is there.
  • a device information terminal
  • the server 300 can be used as the client 200. It can be used as the server 300.
  • the digital camera 100 acquires an image by an imaging optical system 110 including an imaging lens and an imaging element (not shown).
  • the imaging device include a CCD (Charge Coupled Device) type imaging device and a CMOS (Complementary Metal-Oxide Semiconductor) type imaging device.
  • a color filter of red (R), green (G) or blue (B) is provided on the light receiving surface of the imaging element, and a color image of the subject can be obtained based on the signal of each color.
  • the digital camera 100 performs wireless communication with the client 200 via the wireless communication unit 130 and the antenna 132, and the captured image is input to the processing unit 210, and processing to be described later is performed.
  • the digital camera 100 may be incorporated in a separate housing from the client 200 or may be integrated.
  • the client 200 includes a processing unit 210, a storage unit 220, a display unit 230, and an operation unit 240, which are connected to each other to transmit and receive necessary information. Also, the client 200 performs wireless communication with the digital camera 100 via the antenna 212, and acquires a captured image captured by the digital camera 100. Furthermore, the client 200 is connected to the server 300 via the network NW, transmits the acquired image to the server 300, and processing results (a composite detection result, a composite image, etc.) for the transmitted image, a processing request, and the like. Send and receive responses.
  • FIG. 3 is a diagram showing the configuration of the processing unit 210.
  • the processing unit 210 includes an image input unit 210A (image input unit), a file management unit 210B, a display control unit 210C, and a communication control unit 210D, and transmits a photographed image acquired by the digital camera 100 to the server 300, and processing results. It performs reception control, display control of the processing result on the monitor 232, and the like.
  • the image input unit 210A inputs captured images of the bridge 1 (a plurality of images obtained by dividing and capturing the bridge 1) from the digital camera 100 (or a recording medium, a network or the like).
  • the file management unit 210B creates a folder in response to a user operation via the keyboard 242 and / or the mouse 244.
  • the display control unit 210C performs display control of the acquired image, the received processing result, and the like on the monitor 232.
  • the communication control unit 210D transmits and receives images and information with the digital camera 100 via the antenna 212, and transmits and receives images and information with the server 300 via the network NW.
  • ROM 210E (ROM: Read Only Memory, non-transitory recording medium) includes programs necessary for processing such as image acquisition, transmission / reception, etc. (includes a program for executing the damage chart creation method according to the present invention or a part thereof) The computer readable code of is recorded.
  • Each function of the processing unit 210 described above can be realized by referring to software recorded in a recording medium by various processors or electric circuits, as will be described in detail for the server 300 later.
  • the storage unit 220 includes non-transitory recording media such as CDs (Compact Disks), DVDs (Digital Versatile Disks), hard disks (Hard Disks), various semiconductor memories, and their control units, and the image and information shown in FIG. It is stored in association with it.
  • the photographed image 220A is a plurality of images obtained by dividing and photographing the bridge 1 (part of the floor slab 6) which is a subject with the digital camera 100 and inputting it by the image input unit 210A. Note that not the image input by the digital camera 100 and the image input unit 210A but an image acquired via a network or a recording medium may be stored.
  • the detection result 220B includes detection results of damage to individual images constituting the captured image 220A, and detection results obtained by combining the detection results of individual images.
  • the composite image 220C is an image (including a partially composited image group) obtained by combining the captured image.
  • the damage mapping image 220D is an image in which information (detection result and the like) indicating damage is mapped. These images and information can be stored in a folder (see FIGS. 10 and 11).
  • the display unit 230 includes a monitor 232 (display device), and can display an input image, an image and information stored in the storage unit 220, a result of processing by the server 300, and the like.
  • the operation unit 240 includes a keyboard 242 and a mouse 244 as an input device and / or a pointing device, and the user creates a folder, stores images in the folder, and corresponding points via the screen of the device and the monitor 232. It is possible to perform operations necessary for executing the damage chart creation method according to the present invention, such as designation of (described later).
  • FIG. 5 shows the configuration of the server 300.
  • the server 300 includes an image acquisition unit 300A (image acquisition unit), a synthesis parameter calculation unit 300B (synthesis parameter calculation unit), an image synthesis unit 300C, a damage detection unit 300D (damage detection unit), a detection result synthesis unit 300E (detection result synthesis unit And the corresponding point designation unit 300F (corresponding point designation unit).
  • the server 300 further includes a damage mapping unit 300G, a detection result output unit 300H (detection result output unit), a display control unit 300I (display control unit), a communication control unit 300J, and a ROM 300K (non-temporary recording medium).
  • the server 300 is connected to the client 200 via the network NW, acquires a photographed image (the photographed image 220A in FIG. 4) from the client 200, performs damage detection, and combines detection results.
  • the server 300 may be installed at the same place as the client 200 or at another place.
  • the server 300 may be installed in the same room, on the premises, in a site as the client 200, or may be installed at a distant place (including foreign countries). That is, if the server 300 and the client 200 can communicate via the network, the installation locations of the server 300 and the client 200 do not matter.
  • the type of the network NW is not particularly limited, and various networks such as a LAN (Local Area Network), a WAN (Wide Area Network), and the Internet can be used.
  • the image acquisition unit 300A inputs a photographed image (the photographed image 220A of FIG. 4) from the client 200.
  • the synthesis parameter calculation unit 300B calculates a synthesis parameter for synthesizing the photographed image based on the corresponding points of the images.
  • the image combining unit 300C combines the captured image based on the combining parameter.
  • the damage detection unit 300D detects (extracts and measures) damage (cracking, peeling, corrosion, and the like) of the subject (bridge 1) from the captured image.
  • the detection result combining unit 300E combines the detection result (detection result) of the damage on the captured image based on the combining parameter calculated by the combining parameter calculating unit 300B.
  • the corresponding point specification unit 300F specifies corresponding points for one image group among the displayed image groups and another image group among the image groups based on the user's instruction input.
  • the damage mapping unit 300G maps information indicating damage to the composite image.
  • the detection result output unit 300H outputs, to the client 200, a detection result of damage, a combined detection result, identification information, a composite image, a damage mapping image, and the like.
  • the display control unit 300I causes the monitor 232 (display device) to display a photographed image, a detection result, and the like.
  • the communication control unit 300J transmits and receives images and information with the client 200 via the network NW.
  • the ROM 300 K (non-transitory recording medium) records computer readable codes of various programs for operating the damage chart creating system 10 such as a damage chart creating program for executing the damage chart creating method according to the present invention. Be done.
  • the server 300 includes a recording device (for example, a magneto-optical recording medium such as a hard disk) other than the above-described units, and images and information acquired from the client 200 and processing results by the units of the server 300 (damage detection Record the result etc.) The recorded image or the like can be transmitted to the client 200 in response to a request.
  • a recording device for example, a magneto-optical recording medium such as a hard disk
  • the functions of the respective units of the server 300 described above can be realized using various processors.
  • the various processors include, for example, a central processing unit (CPU) that is a general-purpose processor that executes software (programs) to realize various functions.
  • the various processors described above also include a programmable logic device (PLD) which is a processor whose circuit configuration can be changed after manufacturing an FPGA (Field Programmable Gate Array) or the like.
  • PLD programmable logic device
  • FPGA Field Programmable Gate Array
  • dedicated electric circuits and the like which are processors having a circuit configuration specially designed to execute specific processing such as application specific integrated circuits (ASICs) are also included in the various processors described above.
  • ASICs application specific integrated circuits
  • each unit may be realized by one processor or may be realized by combining a plurality of processors.
  • multiple functions may be realized by one processor.
  • a plurality of functions are configured by one processor
  • one processor or more is configured by a combination of one or more CPUs and software, as represented by computers such as clients and servers; Is realized as a plurality of functions.
  • SoC system on chip
  • IC integrated circuit
  • various functions are configured using one or more of the various processors described above as a hardware-like structure.
  • the hardware-like structure of these various processors is, more specifically, an electrical circuit (circuitry) combining circuit elements such as semiconductor elements.
  • the processor (computer) readable code of software (including a program for executing the damage chart creation method according to the present invention) to be executed is ROM 300K ( It is stored in a non-transitory recording medium such as FIG. 5) and the processor refers to the software.
  • the code may be recorded not on the ROM 300 K but on non-temporary recording media such as various magneto-optical recording devices and semiconductor memories.
  • RAM Random Access Memory
  • EEPROM Electrically Erasable and Programmable Read Only Memory
  • Each function of the client 200 described above can be realized by various processors, electric circuits, and software as in the server 300.
  • FIGS. 6 and 7 are flowcharts showing the procedure of image processing (including each process of the damage map creation method according to the present invention).
  • steps S100 to S112 indicate processing at the client 200
  • steps S200 to S236 indicate processing at the server 300.
  • FIG. 8 is a view showing an example of the photographing procedure of the floor plate 6.
  • imaging is performed in units of area A including a space GO defined by the main girder 2 (member extending in the x direction) and the transverse girder 3 (member extending in the y direction). It shows that shooting is repeated while sequentially moving in the direction (in the direction of the arrow). If an image of the entire imaging range can be acquired, imaging may be performed in another procedure.
  • FIG. 8 is a view showing an example of the photographing procedure of the floor plate 6.
  • the extending direction of the bridge 1 (floor plate 6) is x
  • the direction orthogonal to x in the plane of the floor plate 6 is y
  • the direction (vertically downward direction) orthogonal to the floor plate 6 is z ( Coordinates of the right-handed system are constituted by x, y, z).
  • FIG. 9 is a diagram showing an example of an imaging procedure in one case GO.
  • shooting is performed while moving from the area A1 at the + x side end of the gap GO to the area Ai at the -x direction end, returning to the + x side end again, and starting from the area Aj
  • a total of n (n is an integer of 2 or more) images are taken up to the area An at the end of the -x direction.
  • Photography may be performed in a pattern different from this (for example, in the order of the areas A1 to Ai to An to Aj).
  • the shooting position may be moved every time one image is shot, and images facing constantly may be shot, or a plurality of images may be shot while changing the shooting direction at one shooting position ( In this case, an image captured from an oblique direction is included). Also, in photographing, by setting the photographing position and the photographing direction appropriately, adjacent images can cause sufficient (for example, about 30%) duplication, and detection and setting of corresponding points can be easily and accurately performed. preferable.
  • FIG. 10 shows an example of a photographed image, and shows a state in which ten images from images i1 to i10 are photographed while securing duplication.
  • FIG. 11 is a diagram showing the images i1 to i10 individually. 10 and 11, a frame F (a rectangle defined by the main girder 2 and the transverse girder 3) of the case gap GO is illustrated, and the damage caused to the other members and the floor plate is not illustrated.
  • the client 200 transmits the plurality of photographed images described above via the digital camera 100 (imaging optical system 110, wireless communication unit 130, antenna 132) and processing unit 210 (communication control unit 210D, image input unit 210A, antenna 212). It inputs (step S102).
  • FIG. 12 is a view showing an example of the folder structure.
  • a main folder MF is created for the entire bridge 1
  • subfolders SF1 and SF2 are created in the main folder for each imaging area (inspection area 1A, inspection area 1B).
  • sub-folders SS1 to SS5 are further created for each space GO defined by the main digit 2 and the transverse digit 3 and the shot images are stored.
  • FIG. 13 shows a state in which ten photographed images are stored for the space (subfolder SS1) with the space number A001.
  • the folder structure shown in FIGS. 12 and 13 can be created by the file management unit 210B in accordance with the operation of the operation unit 240 (keyboard 242, mouse 244).
  • the folder configuration may be different from that of the example shown in FIGS. 12 and 13. For example, subfolders may be created for each member number.
  • the damage chart creation system 10 synthesizes the detection result of the damage (detection result) for each folder (subfolders are included in the "folder"), and the synthesized detection result is in the same folder as the photographed image Store.
  • the operation unit 240 of the client 200 receives an instruction operation of damage detection and combination via the keyboard 242 and / or the mouse 244 (step S104), and the server 300 (image acquisition unit 300A) acquires a photographed image according to this operation. (Step S200).
  • the image acquisition unit 300A acquires images stored in the same folder of the client 200 (storage unit 220) as images belonging to the same group. For example, ten captured images stored in the sub-folder SS1 shown in FIGS. 12 and 13 are acquired as images belonging to the same group.
  • the server 300 calculates a synthesis parameter for synthesizing a plurality of images based on the corresponding points of the images (step S202). For example, a projection transformation matrix of another image with respect to the reference image in the captured image can be calculated as a synthesis parameter.
  • a synthesis parameter for synthesizing a plurality of images based on the corresponding points of the images.
  • a projection transformation matrix of another image with respect to the reference image in the captured image can be calculated as a synthesis parameter.
  • the damage detection in step S204 may be performed first, or steps S202 and S204 may be performed in parallel. Good.
  • the server 300 detects (extracts and measures) damage from the acquired captured image (step S204).
  • Classification of damage may include peeling, water leakage, cracking, rust, etc., but the type of damage to be specifically detected is set according to conditions such as the type of building (subject), characteristics, and purpose of inspection, etc. You may Also, items to be detected include position, size, direction, range, shape, etc. The detection items also correspond to the classification of damage, and also to conditions such as the type of building, characteristics and purpose of inspection, etc. May be set.
  • damage detection unit 300D vectorizes the detection result (detection result), and a line segment having a start point and an end point or a set thereof (in the case of a linear damage such as a crack, etc.) or such a line segment It is represented by a figure such as a polygon constituted by (in the case of an expansive damage such as peeling and corrosion).
  • This method is a crack detection method including the steps of creating a wavelet image and determining a crack area based on the wavelet image.
  • wavelet coefficients corresponding to two contrasts to be compared are calculated, and wavelet coefficients when the two concentrations are changed are calculated to create a wavelet coefficient table, Wavelet transform is performed on an input image obtained by photographing a concrete surface to be cracked.
  • the wavelet coefficient of the pixel of interest is compared with the threshold value using the wavelet coefficient corresponding to the average density of the neighboring pixels in the local region and the density of the pixel of interest as a threshold in the wavelet coefficient table. Determine the cracked area and the non-cracked area.
  • the processing method of the coating film inspection system of the steel bridge described in, for example, JP-A-2010-538258 can be used.
  • rust and peeling are detected using color information from an image file of a photographed steel bridge coating film, image processing, water shed, and a parzen window.
  • the damage chart creation system 10 In the damage chart creation system 10 according to the first embodiment, damage is thus detected from the captured image before combination. Therefore, the damage detection performance does not deteriorate due to the image quality deterioration in the overlapping area of the images, so that the damage can be detected with high accuracy based on a plurality of images acquired by dividing and photographing the subject. In addition, the detection result of damage is synthesize
  • the server 300 determines whether all captured images can be combined into one based on the combination parameters calculated in step S202 (step S206). Whether or not it can be synthesized is the number of corresponding points, whether or not the reliability of the corresponding points is sufficient (whether or not the corresponding points are characteristic points), whether the projection transformation matrix can be calculated by the corresponding points, etc. It can be judged based on At this time, the combination of corresponding points may be changed by a RANSAC (RANdom SAmple Consensus) algorithm or the like to repeat the calculation of the projective transformation matrix and its evaluation value.
  • RANSAC Random SAmple Consensus
  • step S206 If all the images can be combined into one image (YES in step S206), the process advances to step S222 to combine detection results (detection results). If all the images can not be combined into one image (NO in step S206), the processing in steps S208 to S220 is performed as described below, and then the process proceeds to step S222. Steps S208 to S220 are processing when it is not possible to combine (automatically combine) all the images into one image. In these steps, combining parameters are calculated for each group of images that can be combined, and damage is The detection results are synthesized for each image group.
  • the corresponding points are specified based on the user operation to calculate combining parameters, and the detection result is combined based on the calculated combining parameters.
  • detection results are respectively synthesized for the images constituting the image groups G1 and G2, and between the image groups G1 and G2, based on user operation.
  • the detection results synthesized for the image groups G1 and G2 are synthesized into one based on the synthesis parameters calculated as described above (see FIGS. 20 to 22).
  • step S206 If it is determined in step S206 that "all captured images can not be combined into one image", the combining parameter calculation unit 300B divides the captured images into image groups that can be combined (step S208), and for each image group, The image arrangement is determined (composition parameter is calculated) based on the corresponding points of each other (step S210). Once the image arrangement is determined, detection results can be synthesized based on the arrangement.
  • FIG. 14 is a flowchart showing details of the process of determining the image arrangement in step S210 of FIG.
  • the composite parameter calculation unit 300B sets a reference image as a reference for projective transformation out of the plurality of photographed images (step S210A).
  • the reference image can be set (selected) according to the characteristics of the image such as the degree of confrontation and the definition, but an image in a specific imaging order (for example, an image captured first) may be used as the reference image.
  • the image i1 can be set as the reference image for the images i1 and i2.
  • the synthesis parameter calculation unit 300B calculates a projective transformation matrix for the reference image of an image other than the reference image based on the corresponding points of the images (step S210B).
  • the image i2 image other than the reference image
  • the projective transformation matrix for the image i1 (reference image) of the image i2 is calculated
  • the projective transformation matrix for the image i2 of the image i3 is calculated using the image i2 as a reference image as shown in part (b) of FIG.
  • the projection transformation matrix is calculated for all the images of the image group (until YES in step S210C).
  • the synthesis parameter calculator 300B performs movement, rotation, enlargement or reduction, deformation, etc. on each image based on the computed projective transformation matrix, and arranges each image of the image group Are determined (step S210D).
  • the following description will be made on the assumption that the images i1 to i4 and the images i6 to i9 constitute an image group G1 which can be synthesized, and the images i5 and i10 constitute an image group G2 which can be synthesized.
  • each image is moved, rotated, or deformed by the projective transformation matrix, but the illustrated example conceptually shows the arrangement of the image, etc., and the image is moved, rotated, or deformed. It does not accurately represent etc.
  • the image arrangement determined in step S210D may be an image arrangement in which overlapping areas overlap with each other (see FIG. 16) or an image arrangement in which the images do not overlap (see FIG. 17).
  • the images are arranged separately in the x and y directions, and the orientation of the image is not changed to the orientation determined by the projective transformation matrix (the image is not rotated). It can be arranged.
  • the server 300 instructs the client 200 to display a group of images that can be combined (step S212).
  • the instruction to the client 200 includes the image to be displayed, information on the arrangement of the image, and information obtained by vectorizing the detection result of the damage in step S204.
  • the client 200 (display control unit 210C) superimposes information obtained by vectorizing the detection result of the damage on the image according to the display instruction, and displays the information on the monitor 232 for each group of images that can be synthesized (step S106).
  • the display control unit 210C causes the image groups G1 and G2 to be displayed by the image arrangement as shown in FIG. 16 or 17.
  • FIG. 18 shows how the cracks in the images i4, i5, i9 and i10 are vectorized and superimposed in the image arrangement of FIG.
  • the display control unit 300I and / or the display control unit 210C encloses each of the image groups G1 and G2 with a frame, displays in a different color for each image group, displays an image group number, etc. Processing may be performed to easily identify the image group.
  • the arrangement between the image groups may be inappropriate.
  • an image group G2 to be disposed in the lower part (-x direction) of the image group G1 may be disposed in the lateral direction of the image group G1. Therefore, the server 300 (the composition parameter calculation unit 300B) determines whether or not the arrangement of the image group is to be changed (step S214).
  • step S214 When changing it (YES in step S214), the process returns to step S212 to change the client 200
  • the image groups G1 and G2 are displayed again with the arrangement of
  • the determination in step S214 can be made based on a user's instruction input (for example, movement of the image group G2 via the keyboard 242 and / or the mouse 244, that is, a change operation of relative arrangement).
  • a user's instruction input for example, movement of the image group G2 via the keyboard 242 and / or the mouse 244, that is, a change operation of relative arrangement.
  • the synthetic parameter calculation unit 300B and the display control unit 300I move the image group G2 to the lower part of the image group G1 (move in the direction of the arrow) And can be displayed as shown in FIG.
  • damage diagram creation system 10 makes it quicker to specify corresponding points by making such a change in the arrangement. And it can be done easily.
  • the server 300 designates corresponding points for one image group and another image group among the displayed image groups (FIG. Step S216). For example, when the image groups G1 and G2 are arranged and displayed as shown in FIG. 16, as shown in FIG. 20, the point P1a is selected according to the click of the mouse 244 in the image group G1 (corresponding point designating operation in step S108). Is designated, and a point P1b which is a corresponding point of the point P1a in the image group G2 is designated.
  • corresponding points for example, feature points such as a start point, an end point, a branch point, and / or an end of a member, a side, a joint, or the like of a crack determined to be “identical” can be designated.
  • the correspondence points are identified by displaying the corresponding points P1a and P1b by connecting the corresponding points P1a and P1b with a straight line or the like (see FIG. 20). It can be easily grasped.
  • points P2a and P2b, points P3a and P3b, points P4a and P4b, points P5a and P5b, and points P6a and P6b are also designated.
  • FIG. 20 shows an example in which six corresponding points are designated for each of the image groups G1 and G2, the number of corresponding points to be designated is not particularly limited. Further, even when the image groups G1 and G2 are arranged and displayed as shown in FIG. 17, the corresponding points can be similarly designated by the images i4 and i5 and the images i9 and i10.
  • the group of images that can be combined (the group of images G1 and G2) is displayed for each group of images. It can be easily grasped whether it could or could not.
  • the image group image group G1 and image group G2 which could not be synthesized, there is no need to designate corresponding points for all the images, and designation of corresponding points and designated correspondence Calculation of synthesis parameters based on points can be performed quickly and easily.
  • the server 300 (the synthesis parameter calculation unit 300B, the corresponding point designation unit 300F, the display control unit 300I, etc.) and the client 200 (display control unit 210C etc.)
  • the warning message may be displayed on the monitor 232 by this to prompt the user to perform the corresponding point specifying operation again.
  • the server 300 calculates composition parameters for each image group that can be synthesized based on the designated corresponding points (step S218).
  • the synthesis parameter calculation unit 300B calculates a projective transformation matrix of the image group G2 based on the image group G1 (or an image group based on the image group G2) based on the points P1a to P6b which are corresponding points. Calculate the projective transformation matrix of G1.
  • the image synthesis unit 300C and the synthesis parameter calculation unit 300B move, rotate, deform, etc. the images (image i5, i10) constituting the image group G2 by the projective transformation matrix thus calculated, and determine the image arrangement. (Step S220).
  • the determination of the image arrangement in step S220 can be performed in the same procedure as step S210.
  • the server 300 (detection result combining unit 300E) combines the detection results (detection results) based on the combining parameters (projective transformation matrix) calculated in steps S202 and S220 (step S222). For example, as shown in parts (a) and (b) of FIG. 21, it is assumed that different parts (partial overlap) of damage vectors V1 and V2 are detected in images i1 and i2, and start points of damage vectors V1 and V2, It is assumed that the end points are points P7 to P12. Portions (a) and (b) of FIG. 22 are tables showing start points and end points of damage vectors V1 and V2 respectively corresponding to portions (a) and (b) of FIG.
  • the damage vector V1 has start and end points P7 and P8 respectively.
  • the damage vector V2 has start and end points P8 and P12, respectively.
  • Portion (c) of FIG. 22 corresponds to portion (c) of FIG. 21 and shows the start point and end point of the damage vectors V1 and V2 after combination.
  • the synthesis of the detection results described above is performed on the images (a plurality of images divided into groups) stored in the same folder.
  • the detection results are synthesized for the 10 images stored in the subfolder SS1 (the detection results are synthesized for each group).
  • the server 300 (image combining unit 300C) combines images based on the combining parameters (projective transformation matrix) calculated in steps S202 and S218 (step S224).
  • FIG. 24 shows the synthesized image G3.
  • FIG. 25 shows an image G3a in which one image is selected and synthesized in a region where the images overlap as in FIG.
  • combining of images may be omitted.
  • the projective transformation matrix of another image with respect to the reference image is calculated to determine the image arrangement as described above, but if the reference image does not face the imaging direction.
  • the frame F may become trapezoidal in the image after composition.
  • the server 300 (the synthesis parameter calculation unit 300B, the image synthesis unit 300C, etc.) forms a rectangle based on the user's operation via the keyboard 242 and / or the mouse 244 (for example, points at four corners of the frame F) ) And form a rectangle at these four points by projective transformation.
  • the server 300 may map the detection result of damage to the composite image.
  • the mapping can be performed, for example, by displaying characters, figures, symbols, and the like associated with the detection result on the composite image. Characters, figures, symbols, etc. to be displayed can be selected by operation through the operation unit 240 (keyboard 242 and / or mouse 244), and the server 300 (damage mapping unit 300G, display control unit 300I, etc.) according to the selection.
  • the client 200 display control unit 210C
  • the characters, figures, symbols, etc. may be simplified or emphasized actual damage, or may be displayed in different modes according to the type, size, etc. of the damage.
  • the image to which the measurement result is mapped is stored in the storage unit 220 (the damage mapping image 220D of FIG. 4) and displayed on the monitor 232 under the control of the display control unit 210C. Damage information may be input to the damage mapping image.
  • Such mapping of measurement results may be performed on drawing data (for example, CAD data, CAD: Computer-Aided Design) including diagram information indicating the shape of the bridge 1.
  • drawing data for example, CAD data, CAD: Computer-Aided Design
  • coordinate conversion movement, rotation, mirroring, etc.
  • server 300 damage mapping unit 300G
  • the server 300 instructs the client 200 to display the detection result (step S226), and the client 200 (display control unit 210C etc.) ) causess the monitor 232 to display the detection result (step S110).
  • the detection result can be displayed as characters, numbers, symbols, etc., and the detection result for each captured image may be displayed, or the combined detection result may be displayed (see FIGS. 21 and 22). Also, a photographed image, a composite image, a damage mapping image or the like may be displayed together with the detection result or in place of the detection result. Also, information obtained by vectorizing the detection result (see FIGS.
  • the display control unit 210C can select the content to be displayed on the monitor 232 and the mode thereof in accordance with the operation of the operation unit 240.
  • the display control unit 210C measures the time after displaying the result, and determines the presence or absence of the output instruction after the result is displayed. In the case where the display time is long without output instruction or transited to another screen without output instruction, etc., there is a possibility that fraud such as copying by visual observation has been performed, and the presence or absence of measurement of display time and output instruction By judging, such fraud can be detected. When the fraud is detected, it is possible to take measures, for example, to stop the display.
  • the server 300 determines whether an instruction operation (for example, an output instruction operation via the operation unit 240) to output the detection result displayed in step S110 has been made (step S228). Only when there is an output instruction operation (YES in step S228), the process proceeds to step S230 to instruct the client 200 to output the detection result (the detection result for each image and the synthesized detection result), and the client 200 (file The management unit 210B) outputs the detection result according to the output instruction (step S112).
  • the detection result for the image stored in the subfolder SS1 is stored in the same subfolder SS1 as the image is stored (the detection result is output in association with the group; see FIG. 26).
  • the detection result may be output in the same format as drawing data (for example, CAD data) including diagram information indicating the shape of the bridge 1 (subject). Alternatively, the detection result may be printed by a printer (not shown).
  • the detection result is stored in the same folder as the folder in which the image is stored, the correspondence between the input image and the detection result synthesized is clear, and the image and the detection result are It can be easily managed and used.
  • the output of the detection result is performed only when there is an output operation instruction (when YES in step S228), and when there is no output operation instruction, identification information is added to the image (step S232).
  • the assigned identification information is notified to the client 200, and is stored in the same folder (subfolder SS1 in the example of FIGS. 13 and 26) as the folder in which the image is stored.
  • the server 300 determines whether the processing for all the folders is completed (step S234). If the determination is affirmed, the server 300 notifies the client 200 of the end in step S236 (step S236), and ends the process. If the process for all folders has not been completed, the process returns to step S202, and steps S202 to S234 are repeated for other folders.
  • damage can be detected with high accuracy based on a plurality of images acquired by dividing and photographing an object.
  • FIG. 27 is a view showing the configuration of the damage chart creation device 20.
  • the damage map drawing device 20 is composed of a digital camera 100 and a device main body 500.
  • the configuration of the digital camera 100 is the same as the configuration of the digital camera 100 in the first embodiment, so the same reference numerals are assigned and detailed description will be omitted.
  • the digital camera 100 may be configured integrally with the apparatus main body 500.
  • the damage chart creation system 10 includes the server 300 and the client 200, and the server 300 performs the main part of the processing such as detection, combination, etc. of damage, but the damage chart creation apparatus 20 according to the second embodiment. Then, the processing unit 510 of the apparatus main body 500 performs processing. Specifically, the processing unit 510 has the function of the client 200 shown in FIG. 3 and the function of the server 300 shown in FIG.
  • the storage unit 520 stores information (see FIG. 4) similar to that of the storage unit 220 according to the first embodiment.
  • the configuration and functions of the operation unit 540 are the same as those of the operation unit 240 (keyboard 242, mouse 244) according to the first embodiment.
  • the configuration and function of the display unit 530 are the same as those of the display unit 230 (monitor 232) according to the first embodiment.
  • the damage chart creation device 20 can use an apparatus (information terminal) such as a personal computer, a tablet terminal, or a smart phone that inputs an image and performs processing such as damage detection and composition as the device main body 500.
  • the process (the process of the damage chart creating method according to the present invention) in the damage chart creating apparatus 20 is the same as the flowchart of FIGS.
  • a plurality of images acquired by dividing and photographing the subject are input, and composition parameters (projective transformation matrix) for combining the plurality of images are calculated based on the corresponding points of the images, and the plurality of images are constructed. Damage to the subject is detected from the image, and detection results for a plurality of images are synthesized based on the synthesis parameters.
  • Such processing is performed by the processing unit 510 of the apparatus main body 500.
  • communication between the client 200 and the server 300 is performed, but in the damage chart creating device 20, communication is performed inside the device main body 500.
  • damage is detected from the photographed image before combination as in the damage chart creation system 10 according to the first embodiment. Therefore, the damage detection performance does not deteriorate due to the image quality deterioration in the overlapping area of the images, so that the damage can be detected with high accuracy based on a plurality of images acquired by dividing and photographing the subject.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

本発明は、被写体を分割撮影して取得した複数の画像に基づいて損傷を高精度に検出することができる損傷図作成方法、損傷図作成装置、損傷図作成システム、及び記録媒体を提供することを目的とする。本発明の一の態様に係る損傷図作成方法では、複数の画像(被写体を分割撮影して取得した複数の画像)を構成する画像(合成をしていない状態の画像)から被写体の損傷を検出するので、重複領域での画質劣化に起因して損傷検出性能が劣化することがない。したがって、被写体を分割撮影して取得した複数の画像に基づいて損傷を高精度に検出することができる。各画像に対する検出結果は、画像どうしの対応点に基づいて算出した合成パラメータにより合成することができる。

Description

損傷図作成方法、損傷図作成装置、損傷図作成システム、及び記録媒体
 本発明は損傷図作成方法、損傷図作成装置、損傷図作成システム、及び記録媒体に関し、特に被写体を分割撮影して取得した複数の画像に基づいて損傷を検出する技術に関する。
 被写体の画像を撮影する場合、被写体の種類、大きさ等の条件によっては1つの画像に収まらず複数の画像に分割して撮影される場合があり、この場合、撮影された複数の画像は画像処理で一枚の画像に合成されて観賞、計測等の目的に利用される。例えば、特許文献1では道路を走行しながら取得した撮影画像を変換及び合成して検査領域画像を生成し、検査領域画像からひび割れ等の不良箇所を検出することが記載されている。
特開2016-218762号公報
 上述のような合成処理により得られた画像を用いて被写体の損傷を検出及び計測する場合、画像どうしがオーバーラップする部分(重複領域)で画像の位置ズレが生じる場合がある。また、重複領域で画像を重み付け合成すると、損傷がボケてしまう場合がある。このように重複領域で画像が劣化すると、合成画像から微細な損傷が検出できなくなる等、損傷の検出精度が劣化して精度が高い損傷図が作成できなくなる可能性がある。しかしながら、上述した特許文献1では重複領域での画質劣化に起因する損傷検出性能の劣化については考慮されていなかった。
 このように、従来の技術は、被写体を分割撮影して取得した複数の画像に基づいて損傷を高精度に検出することができるものではなかった。
 本発明はこのような事情に鑑みてなされたもので、被写体を分割撮影して取得した複数の画像に基づいて損傷を高精度に検出することができる損傷図作成方法、損傷図作成装置、損傷図作成システム、及び記録媒体を提供することを目的とする。
 上述した目的を達成するため、本発明の第1の態様に係る損傷図作成方法は、被写体を分割撮影して取得した複数の画像を入力するステップと、複数の画像を合成するための合成パラメータを画像どうしの対応点に基づいて算出するステップと、複数の画像を構成する画像から被写体の損傷の検出を行うステップと、複数の画像についての検出の結果を合成パラメータに基づいて合成するステップと、を有する。
 第1の態様に係る損傷図作成方法では、複数の画像(被写体を分割撮影して取得した複数の画像)を構成する画像(合成をしていない状態の画像)から被写体の損傷を検出するので、重複領域での画質劣化に起因して損傷検出性能が劣化することがない。したがって、被写体を分割撮影して取得した複数の画像に基づいて損傷を高精度に検出することができる。各画像に対する検出の結果は、画像どうしの対応点に基づいて算出した合成パラメータにより合成することができる。なお、第1の態様及び以下の各態様において、「検出の結果」を「検出結果」と表記することがある。
 第1の態様において、合成パラメータを検出するステップと、画像から損傷を検出するステップとは、いずれを先に実行してもよいし、これらステップを並行して実行してもよい。また、合成された検出結果が得られれば損傷図が作成できるので、損傷検出の対象となった画像自体は合成してもよいし、合成しなくてもよい。
 なお第1の態様において、被写体としての建造物(建築物)を分割撮影した複数の画像を入力してもよい。建造物(建築物)が被写体である場合、撮影範囲が広いため撮影範囲を分割撮影して複数の画像を取得することが多いので、本発明に係る損傷図作成方法が有効である。このような建造物の例としては橋梁、ビル、道路等を挙げることができるが、これらの例に限定されるものではない。また、建造物はコンクリート建造物でもよい。
 第2の態様に係る損傷図作成方法は第1の態様において、合成パラメータを算出するステップでは、複数の画像のうちの基準画像に対する基準画像以外の画像の射影変換行列の情報を合成パラメータとして算出する。第2の態様では、基準画像以外の画像の射影変換行列による移動、回転、変形の情報(量、方向等)を合成パラメータとして算出することができる。また、基準画像は被写体に対する位置(例えばコーナー部分の画像)、撮影順(例えば、一番最初に撮影した画像)、画像の特徴(露出条件、鮮明度、特定の部材が写っている)等に基づいて設定することができる。なお、基準画像の撮影面は撮影方向に正対していることが好ましいが、これに限定されるものではない。基準画像の撮影面が正対していない場合は、合成後に正対補正することができる。
 第3の態様に係る損傷図作成方法は第1または第2の態様において、合成パラメータを算出するステップにおいて複数の画像を1つの画像に合成する合成パラメータが算出できない場合、複数の画像のうちの合成が可能な画像群ごとに合成パラメータを算出するステップと、画像群ごとに算出した合成パラメータに基づいて検出の結果を画像群ごとに合成するステップと、を行う。第3の態様によれば、全ての画像を1つの画像に合成するパラメータ(すなわち、全ての画像についての検出結果を1つに合成するパラメータ)が算出できない場合でも、合成が可能な画像群ごとに検出結果を合成することができる。なお、「合成パラメータが算出できない」場合にはパラメータの算出精度が低い(信頼性がない)場合も含めてよい。
 第4の態様に係る損傷図作成方法は第3の態様において、検出の結果をベクトル化した情報を複数の画像と重畳させて画像群ごとに表示させるステップと、表示された画像群のうちの一の画像群と、画像群のうちの他の画像群と、について対応点を指定するステップと、指定された対応点に基づいて、一の画像群と他の画像群とを1つの画像に合成する合成パラメータを算出するステップと、検出の結果を合成するステップでは、画像群を1つの画像に合成する合成パラメータに基づいて、一の画像群についての検出の結果と他の画像群についての検出の結果とを合成する。第4の態様は複数の画像の全てを1つの画像に合成する合成パラメータが算出できない場合の処理を規定するもので、(ユーザの操作に基づいて)対応点を指定し、指定された対応点に基づいて合成パラメータを算出することで、一の画像群についての検出結果と他の画像群についての検出結果とを合成する。合成できなかった画像群について対応点を指定すればよいので、迅速かつ容易に合成パラメータを算出して検出結果を合成することができる。なお、対応点の指定はユーザの操作に基づいて行うことができる。
 また、第4の態様では、対応点を指定する際に画像を表示するのに加えて検出の結果をベクトル化した情報を表示するので、ユーザは検出結果の視認及びこれに基づく対応点の指定操作を容易に行うことができる。「検出の結果をベクトル化した情報」としては、例えば損傷の始点及び終点を示す線分、あるいはそのような線分により構成される図形(多角形等)を用いることができる。
 第5の態様に係る損傷図作成方法は第1から第4の態様のいずれか1つにおいて、検出の結果を合成するステップでは、複数の画像が重複する領域においては重複する複数の画像のうち1つを選択して検出の結果を合成する。複数の画像が重複する領域では、本来ならば1つに合成されるべき検出結果が画像のずれにより複数になる等、合成精度が劣化する場合があるが、第5の態様では複数の画像が重複する領域においては重複する複数の画像のうち1つを選択することにより、検出結果を高精度に合成することができる。
 第6の態様に係る損傷図作成方法は第1から第5の態様のいずれか1つにおいて、複数の画像を入力するステップではグループに分けられた複数の画像を入力し、検出の結果を合成するステップでは検出の結果をグループごとに合成し、合成された検出の結果をグループに関連づけて出力するステップを有する。第6の態様では画像の入力、検出結果の合成、及び検出結果の出力が画像のグループに基づいて行われるので、入力した画像と合成された検出結果との対応が明確であり、画像及び検出結果の管理、利用を容易に行うことができる。
 第7の態様に係る損傷図作成方法は第6の態様において、複数の画像を入力するステップでは同一のフォルダに格納された画像を同一のグループに属する画像として入力し、検出の結果を合成するステップでは、同一のフォルダに格納された画像ごとに検出の結果を合成し、検出の結果を出力するステップでは、合成された検出の結果を同一のグループに属する画像が格納されたフォルダに出力する。第7の態様は第6の態様をさらに具体的に規定したもので、画像及び検出結果の管理、利用をより容易に行うことができる。なお、同一のフォルダへの画像の格納は、例えば一般的なコンピュータのOS(Operating System)が備えるのと同様のファイル管理ツール(機能)を利用してユーザ操作により容易に実現することができ、第7の態様ではそのようなユーザ操作により同一のフォルダに格納された画像を入力する。フォルダはツリー構造のように階層的に構成されていてもよい。
 第8の態様に係る損傷図作成方法は第1から第7の態様のいずれか1つにおいて、合成パラメータに基づいて複数の画像を合成するステップを有する。第8の態様によれば、合成された検出結果に加えて、そのような検出結果に対応する合成画像を得ることができる。
 第9の態様に係る損傷図作成方法は第1から第8の態様のいずれか1つにおいて、被写体の形状を示す線図情報を含む図面データと同一のフォーマットで検出の結果を出力するステップを有する。第9の態様において、「被写体の形状を示す線図情報を含む図面データと同一のフォーマット」として例えばCAD図面(CAD:Computer-Aided Design)と同一のフォーマットを用いることができ、このようなフォーマットで検出結果を出力することにより損傷図を迅速かつ容易に作成することができる。第9の態様により出力した検出結果をCAD図面に合成(マッピング)してもよい。
 第10の態様に係る損傷図作成方法は第1から第9の態様のいずれか1つにおいて、検出の結果を表示するステップと、表示した検出の結果を出力するステップと、を有し、検出の結果を出力するステップは表示した検出の結果に対する出力の指示があった場合にのみ行う。第10の態様によれば、検出の結果を出力するステップは表示した検出の結果に対する出力の指示があった場合にのみ行うことで、ユーザは表示により検出結果を把握して所望の検出結果のみを出力することができる。なお、検出結果は文字、数字、図形、記号等により表示することができる。また、検出結果をベクトル化して表示してもよいし、画像と共に表示してもよい。
 第11の態様に係る損傷図作成方法は第10の態様において、検出の結果に対応する画像のうち出力の指示がなかった画像に識別情報を付与するステップを備える。これにより出力の指示がなかった画像を識別することができる。
 上述した目的を達成するため、第12の態様に係る損傷図作成装置は、被写体を分割撮影して取得した複数の画像を入力する画像入力部と、複数の画像を合成するための合成パラメータを画像どうしの対応点に基づいて算出する合成パラメータ算出部と、複数の画像を構成する画像から被写体の損傷の検出を行う損傷検出部と、複数の画像についての検出の結果を合成パラメータに基づいて合成する検出結果合成部と、を有する。第12の態様によれば、第1の態様と同様に被写体を分割撮影して取得した複数の画像に基づいて損傷を高精度に検出することができる。
 第13の態様に係る損傷図作成装置は第12の態様において、合成パラメータ算出部は、複数の画像のうちの基準画像に対する基準画像以外の画像の射影変換行列の情報を合成パラメータとして算出する。第13の態様では、第2の態様と同様に基準画像以外の画像の射影変換行列による移動、回転、変形の情報(量、方向等)を合成パラメータとして算出することができる。
 第14の態様に係る損傷図作成装置は第12または第13の態様において、合成パラメータ算出部は、複数の画像を1つの画像に合成する合成パラメータが算出できない場合、複数の画像のうちの合成が可能な画像群ごとに合成パラメータを算出し、検出結果合成部は、画像群ごとに算出した合成パラメータに基づいて検出の結果を画像群ごとに合成する。第14の態様によれば、第3の態様と同様に、全ての画像を1つの画像に合成するパラメータ(すなわち、全ての画像についての検出結果を1つに合成するパラメータ)が算出できない場合でも、合成が可能な画像群ごとに検出結果を合成することができる。
 第15の態様に係る損傷図作成装置は第14の態様において、検出の結果をベクトル化した情報を複数の画像と重畳させて画像群ごとに表示させる表示制御部と、表示された画像群のうちの一の画像群と、画像群のうちの他の画像群と、について対応点を指定する対応点指定部と、を備え、合成パラメータ算出部は、指定された対応点に基づいて一の画像群と他の画像群とを1つの画像に合成する合成パラメータを算出し、検出結果合成部は、一の画像群と他の画像群とを1つの画像に合成する合成パラメータに基づいて、一の画像群についての検出の結果と他の画像群についての検出の結果とを合成する。第15の態様によれば、第4の態様と同様に迅速かつ容易に合成パラメータを算出して検出結果を合成することができ、また検出結果の視認及びこれに基づく対応点の指定を容易に行うことができる。
 上述した目的を達成するため、第16の態様に係る損傷図作成システムは、サーバとクライアントとを備える損傷図作成システムであって、クライアントは、被写体を分割撮影して取得した複数の画像を入力する画像入力部を備え、サーバは、複数の画像をクライアントから取得する画像取得部と、取得した複数の画像を合成するための合成パラメータを画像どうしの対応点に基づいて算出する合成パラメータ算出部と、複数の画像を構成する画像から被写体の損傷の検出を行う損傷検出部と、複数の画像についての検出の結果を合成パラメータに基づいて合成する検出結果合成部と、検出の結果をクライアントに出力する検出結果出力部と、を備える。第16の態様によれば、第1の態様及び第12の態様と同様に被写体を分割撮影して取得した複数の画像に基づいて損傷を高精度に検出することができる。なお第16の態様において、画像を入力して結果をサーバから受け取るパーソナルコンピュータ、タブレット端末、スマートフォン等の機器(情報端末)をクライアントとして用いることができ、クライアントとネットワーク接続されたコンピュータをサーバとして用いることができる。
 第17の態様に係る損傷図作成システムは第16の態様において、合成パラメータ算出部は、複数の画像のうちの基準画像に対する基準画像以外の画像の射影変換行列の情報を合成パラメータとして算出する。第17の態様では、第2の態様と同様に基準画像以外の画像の射影変換行列による移動、回転、変形の情報(量、方向等)を合成パラメータとして算出することができる。
 第18の態様に係る損傷図作成システムは第16または第17の態様において、合成パラメータ算出部は、複数の画像を1つの画像に合成する合成パラメータが算出できない場合、複数の画像のうちの合成が可能な画像群ごとに合成パラメータを算出し、検出結果合成部は、画像群ごとに算出した合成パラメータに基づいて検出の結果を画像群ごとに合成する。第18の態様によれば、第3の態様と同様に、全ての画像を1つの画像に合成するパラメータ(すなわち、全ての画像についての検出結果を1つに合成するパラメータ)が算出できない場合でも、合成が可能な画像群ごとに検出結果を合成することができる。
 第19の態様に係る損傷図作成システムは第18の態様において、サーバは、検出の結果をベクトル化した情報を複数の画像と重畳させて画像群ごとに表示させる表示制御部と、表示された画像群のうちの一の画像群と、画像群のうちの他の画像群と、について対応点を指定する対応点指定部と、を備え、合成パラメータ算出部は、指定された対応点に基づいて一の画像群と他の画像群とを1つの画像に合成する合成パラメータを算出し、検出結果合成部は、一の画像群と他の画像群とを1つの画像に合成する合成パラメータに基づいて、一の画像群についての検出の結果と他の画像群についての検出の結果とを合成する。第19の態様によれば、第4の態様と同様に迅速かつ容易に合成パラメータを算出して検出結果を合成することができ、また検出結果の視認及びこれに基づく対応点の指定を容易に行うことができる。なお、ベクトル化した情報及び画像の重畳表示は、例えばクライアントが有する表示装置により行うことができる。
 第20の態様に係る損傷図作成システムは第16から第19の態様のいずれか1つにおいて、サーバの画像取得部はグループに分けられた複数の画像をクライアントから取得し、サーバの検出結果合成部は検出の結果をグループごとに合成し、サーバの検出結果出力部は、合成された検出の結果をグループに関連づけてクライアントに出力する。第20の態様によれば、第6の態様と同様に画像及び検出結果の管理、利用を容易に行うことができる。
 第21の態様に係る損傷図作成システムは第20の態様において、サーバの画像取得部は、同一のフォルダに格納された画像を同一のグループに属する画像として取得し、サーバの検出結果合成部は、同一のフォルダに格納された画像ごとに検出の結果を合成し、サーバの検出結果出力部は、同一のフォルダに格納された画像について合成された検出の結果をクライアントの同一のフォルダに出力する。第21の態様によれば、第7の態様と同様に画像及び検出結果の管理、利用を容易に行うことができる。なお、フォルダへの画像の格納は、例えば一般的なコンピュータのOSが有するのと同様のファイル管理ツール(機能)をクライアントに設けることにより、ユーザ操作で容易に実現することができる。
 上述した目的を達成するため、第22の態様に係る記録媒体は、第1から第11の態様のいずれか1つに係る損傷図作成方法をコンピュータに実行させるプログラムのコンピュータ読み取り可能なコードが記録された記録媒体である。第22の態様によれば、第1の態様と同様に被写体を分割撮影して取得した複数の画像に基づいて損傷を高精度に検出することができ、また第2から第11の態様と同様の構成を有する場合はそれらの態様と同様の効果を得ることができる。なお、第22の態様に係る記録媒体として各種光磁気記録媒体、半導体記録媒体等の非一時的記録媒体を用いることができる。
 以上説明したように、本発明の損傷図作成方法、損傷図作成装置、損傷図作成システム、及び記録媒体によれば、被写体を分割撮影して取得した複数の画像に基づいて損傷を高精度に検出することができる。
図1は、下面側から見た橋梁の外観図である。 図2は、第1の実施形態に係る損傷図作成システムの構成を示すブロック図である。 図3は、処理部の構成を示す図である。 図4は、記憶部に記憶される情報を示す図である。 図5は、サーバの構成を示す図である。 図6は、第1の実施形態に係る損傷図作成方法のフローチャートを示す図である。 図7は、第1の実施形態に係る損傷図作成方法のフローチャートを示す他の図である。 図8は、床版の撮影手順の例を示す図である。 図9は、格間の撮影手順の例を示す図である。 図10は、各画像の撮影範囲を示す図である。 図11は、各撮影画像を示す図である。 図12は、フォルダの階層構造を示す図である。 図13は、撮影画像をフォルダに格納した様子を示す図である。 図14は、画像配置決定の処理を示すフローチャートである。 図15は、基準画像設定の様子を示す図である。 図16は、画像群ごとの画像配置の例を示す図である。 図17は、画像群ごとの画像配置の例を示す他の図である。 図18は、ベクトル化した検出結果を画像に重畳表示した様子を示す図である。 図19は、画像群ごとの相対配置の変更の様子を示す図である。 図20は、画像群に対応点を設定する様子を示す図である。 図21は、検出結果の合成を示す図である。 図22は、検出結果の合成を示す他の図である。 図23は、画像が重複する領域での検出結果の合成を示す図である。 図24は、合成した画像を示す図である。 図25は、合成した画像を示す他の図である。 図26は、検出結果等を画像と同一のフォルダに格納した様子を示す図である。 図27は、第2の実施形態に係る損傷図作成装置の構成を示すブロック図である。
 以下、添付図面を参照しつつ、本発明に係る損傷図作成方法、損傷図作成装置、損傷図作成システム、及び記録媒体の実施形態について、詳細に説明する。
 <橋梁の構造>
 図1は、建造物の一つである橋梁1を下から見た状態を示す斜視図である。図1に示す橋梁1は、主桁2と、横桁3と、対傾構4と、横構5と、床版6と、による立体的構造を有し、これらの部材がボルト、リベット、溶接等により連結されて構成されている。主桁2等の上部には、車輌等が走行するための床版6が打設されている。床版6は、鉄筋コンクリート製のものが一般的である。主桁2は橋台または橋脚の間に渡されて床版6上の車輌等の荷重を支える部材であり、また床版6の面(水平面)と直交する面(鉛直方向の面)を有する。横桁3は、荷重を複数の主桁2で支持するため、主桁2を連結する部材である。対傾構4及び横構5は、それぞれ風及び地震の横荷重に抵抗するため、主桁2を相互に連結する部材である。なお、本実施形態では橋梁1を対象(被写体)とする場合について説明するが、対象とする建造物は橋梁に限らずトンネル、ビル等、道路等でもよい。
 <画像の取得>
 橋梁1の画像を撮影して損傷を検出する場合、検査員はデジタルカメラ100(図2参照)を用いて橋梁1を下方から撮影し、検査範囲について複数の撮影画像(橋梁1の異なる部分がそれぞれ撮影された複数の画像)を分割して取得する。撮影は、橋梁1の延伸方向及びその直交方向に適宜移動しながら行う。なお橋梁1の周辺状況により検査員の移動が困難な場合は、橋梁1に沿って移動可能な移動体にデジタルカメラ100を設けて撮影を行ってもよい。このような移動体には、デジタルカメラ100の昇降機構、回転機構(パン及び/またはチルトを行う機構)を設けてもよい。なお移動体の例としては車輌、ロボット、及び飛翔体(ドローン等)を挙げることができるが、これらに限定されるものではない。
 <損傷図作成システムの構成>
 図2は、損傷図作成システム10(損傷図作成システム)の概略構成を示すブロック図である。損傷図作成システム10はデジタルカメラ100、クライアント200、及びサーバ300を備え、被写体を分割撮影して取得した複数の画像について損傷の検出、検出結果の合成等を行い損傷図の作成をするシステムである。損傷図作成システム10では、画像を入力して結果をサーバ300から受け取るパーソナルコンピュータ、タブレット端末、スマートフォン等の機器(情報端末)をクライアント200として用いることができ、クライアント200とネットワーク接続されたコンピュータをサーバ300として用いることができる。
 <デジタルカメラの構成>
 デジタルカメラ100は、図示せぬ撮影レンズ及び撮像素子を備える撮像光学系110により画像を取得する。撮像素子の例としてはCCD(Charge Coupled Device)型の撮像素子及びCMOS(Complementary Metal-Oxide Semiconductor)型の撮像素子を挙げることができる。撮像素子の受光面上にはR(赤),G(緑),またはB(青)のカラーフィルタが設けられており、各色の信号に基づいて被写体のカラー画像を取得することができる。デジタルカメラ100は、無線通信部130及びアンテナ132を介してクライアント200との無線通信を行い、撮影された画像が処理部210に入力されて後述する処理が行われる。なお、デジタルカメラ100はクライアント200と別々の筐体に組み込んでもよいし、一体化してもよい。
 <クライアントの全体構成>
 クライアント200は処理部210、記憶部220、表示部230、及び操作部240を備え、これら各部は互いに接続されて必要な情報が送受信される。また、クライアント200はアンテナ212を介してデジタルカメラ100との間で無線通信を行い、デジタルカメラ100で撮影された撮影画像を取得する。さらに、クライアント200はネットワークNWを介してサーバ300と接続され、サーバ300との間で、取得した画像の送信、及び送信された画像に対する処理結果(合成検出結果、合成画像等)、処理要求とその応答等を送受信する。
 <処理部の構成>
 図3は処理部210の構成を示す図である。処理部210は、画像入力部210A(画像入力部)、ファイル管理部210B、表示制御部210C、通信制御部210Dを備え、デジタルカメラ100で取得した撮影画像のサーバ300への送信、処理結果の受信、及び処理結果のモニタ232への表示制御等を行う。画像入力部210Aは、デジタルカメラ100(または記録媒体、ネットワーク等)から橋梁1の撮影画像(橋梁1を分割撮影した複数の画像)を入力する。ファイル管理部210Bは、キーボード242及び/またはマウス244を介したユーザ操作に応じてフォルダを作成する。表示制御部210Cは、取得した画像、受信した処理結果等のモニタ232への表示制御を行う。通信制御部210Dは、アンテナ212を介してデジタルカメラ100との間で画像、情報を送受信し、またネットワークNWを介してサーバ300との間で画像、情報を送受信する。ROM210E(ROM:Read Only Memory、非一時的記録媒体)には、画像取得、送受信等の処理に必要なプログラム(本発明に係る損傷図作成方法を実行するためのプログラムまたはその一部を含む)のコンピュータ読み取り可能なコードが記録される。
 上述した処理部210の各機能は、サーバ300について詳細を後述するのと同様に、各種のプロセッサあるいは電気回路が記録媒体に記録されたソフトウェアを参照することで実現することができる。
 <記憶部の構成>
 記憶部220はCD(Compact Disk)、DVD(Digital Versatile Disk)、ハードディスク(Hard Disk)、各種半導体メモリ等の非一時的記録媒体及びその制御部により構成され、図4に示す画像及び情報が互いに関連づけて記憶される。撮影画像220Aは、被写体である橋梁1(床版6の部分)をデジタルカメラ100で分割撮影し画像入力部210Aで入力した複数の画像である。なお、デジタルカメラ100及び画像入力部210Aにより入力した画像でなく、ネットワーク、記録媒体経由で取得した画像を記憶してもよい。検出結果220Bは、撮影画像220Aを構成する個々の画像に対する損傷の検出結果、及び個々の画像に対する検出結果を合成した検出結果を含む。合成画像220Cは、撮影画像を合成した画像(部分的に合成した画像群を含む)である。損傷マッピング画像220Dは、損傷を示す情報(検出結果等)をマッピングした画像である。これらの画像及び情報は、フォルダに格納することができる(図10,11参照)。
 <表示部及び操作部の構成>
 表示部230はモニタ232(表示装置)を備えており、入力した画像、記憶部220に記憶された画像及び情報、サーバ300による処理の結果等を表示することができる。操作部240は入力デバイス及び/またはポインティングデバイスとしてのキーボード242及びマウス244を含んでおり、ユーザはこれらのデバイス及びモニタ232の画面を介して、フォルダの作成、画像のフォルダへの格納、対応点の指定等、本発明に係る損傷図作成方法の実行に必要な操作を行うことができる(後述)。
 <サーバの構成>
 図5はサーバ300の構成を示す図である。サーバ300は画像取得部300A(画像取得部)、合成パラメータ算出部300B(合成パラメータ算出部)、画像合成部300C、損傷検出部300D(損傷検出部)、検出結果合成部300E(検出結果合成部)、対応点指定部300F(対応点指定部)を備える。サーバ300は、さらに損傷マッピング部300G、検出結果出力部300H(検出結果出力部)、表示制御部300I(表示制御部)、通信制御部300J、及びROM300K(非一時的記録媒体)を備える。サーバ300はネットワークNWを介してクライアント200と接続され、クライアント200から撮影画像(図4の撮影画像220A)を取得して損傷の検出、検出結果の合成等を行う。
 サーバ300はクライアント200と同一の場所に設置してもよいし、別の場所に設置してもよい。例えば、サーバ300はクライアント200と同一の室内、構内、敷地内に設置してもよいし、離れた場所(外国を含む)に設置してもよい。すなわち、ネットワークを介してサーバ300とクライアント200とが通信可能であれば、サーバ300及びクライアント200の設置場所は問題とならない。また、ネットワークNWの種類は特に限定されず、LAN(Local Area Network),WAN(Wide Area Network),インターネット等種々のネットワークを利用できる。
 画像取得部300Aは、クライアント200から撮影画像(図4の撮影画像220A)を入力する。合成パラメータ算出部300Bは、撮影画像を合成するための合成パラメータを、画像どうしの対応点に基づいて算出する。画像合成部300Cは、合成パラメータに基づいて撮影画像を合成する。損傷検出部300Dは、撮影画像から被写体(橋梁1)の損傷(ひび割れ、剥離、腐食等)を検出(抽出及び計測)する。検出結果合成部300Eは、撮影画像についての損傷の検出結果(検出の結果)を、合成パラメータ算出部300Bが算出した合成パラメータに基づいて合成する。対応点指定部300Fは、ユーザの指示入力に基づいて、表示された画像群のうちの一の画像群と画像群のうちの他の画像群とについて対応点を指定する。損傷マッピング部300Gは、損傷を示す情報を合成画像にマッピングする。検出結果出力部300Hは、損傷の検出結果、合成した検出結果、識別情報、合成画像、損傷マッピング画像等をクライアント200に出力する。表示制御部300Iは、撮影画像、検出結果等をモニタ232(表示装置)に表示させる。通信制御部300Jは、ネットワークNWを介してクライアント200との間で画像、情報を送受信する。ROM300K(非一時的記録媒体)には、本発明に係る損傷図作成方法を実行するための損傷図作成プログラム等、損傷図作成システム10が動作するための各種プログラムのコンピュータ読み取り可能なコードが記録される。サーバ300は、上述の各部の他に図示せぬ記録装置(例えば、ハードディスク等の光磁気記録媒体)を備え、クライアント200から取得した画像及び情報、またサーバ300の各部による処理結果(損傷の検出結果等)を記録する。記録された画像等は、要求に応じてクライアント200に送信することができる。
 上述したサーバ300の各部の機能は、各種のプロセッサ(processor)を用いて実現できる。各種のプロセッサには、例えばソフトウェア(プログラム)を実行して各種の機能を実現する汎用的なプロセッサであるCPU(Central Processing Unit)が含まれる。また、上述した各種のプロセッサには、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)も含まれる。さらに、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路なども上述した各種のプロセッサに含まれる。
 各部の機能は1つのプロセッサにより実現されてもよいし、複数のプロセッサを組み合わせて実現されてもよい。また、複数の機能を1つのプロセッサで実現してもよい。複数の機能を1つのプロセッサで構成する例としては、第1に、クライアント、サーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の機能として実現する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、システム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の機能は、ハードウェア的な構造として、上述した各種のプロセッサを1つ以上用いて構成される。さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
 上述したプロセッサあるいは電気回路がソフトウェア(プログラム)を実行する際は、実行するソフトウェア(本発明に係る損傷図作成方法を実行するためのプログラムを含む)のプロセッサ(コンピュータ)読み取り可能なコードをROM300K(図5を参照)等の非一時的記録媒体に記憶しておき、プロセッサがそのソフトウェアを参照する。ROM300Kではなく各種光磁気記録装置、半導体メモリ等の非一時的記録媒体にコードを記録してもよい。ソフトウェアを用いた処理の際には例えばRAM(Random Access Memory)が一時的記憶領域として用いられ、また例えばEEPROM(Electronically Erasable and Programmable Read Only Memory)に記憶されたデータが参照される。なお、図5ではRAM,EEPROM等のデバイスの図示は省略する。
 なお、上述したクライアント200の各機能も、サーバ300と同様に各種プロセッサ、電気回路、及びソフトウェアにより実現することができる。
 <画像処理の手順>
 損傷図作成システム10による画像処理について説明する。図6,7は画像処理(本発明に係る損傷図作成方法の各処理を含む)の手順を示すフローチャートである。これらの図において、ステップS100~S112はクライアント200での処理を示し、ステップS200~S236はサーバ300での処理を示す。
 <撮影>
 図6,7に示す手順では、デジタルカメラ100により橋梁1(建造物)を分割撮影して複数の撮影画像を取得する(ステップS100)。
 本実施形態では、床版6を撮影する場合について説明する。図8は床版6の撮影手順の例を示す図である。図8では、主桁2(x方向に伸びる部材)及び横桁3(y方向に伸びる部材)で規定される格間GOを含む領域Aを単位として撮影を行い、撮影領域をy方向及びx方向に(矢印の方向に)順次移動させながら撮影を繰り返す様子を示している。撮影範囲全体の画像が取得できれば、撮影は他の手順で行ってもよい。なお、図8では橋梁1(床版6)の延伸方向をx、床版6の面内でxと直交する方向をy、床版6と直交する方向(垂直下方向)をzとし、(x,y,z)で右手系の座標を構成している。
 図9は1つの格間GOでの撮影手順の例を示す図である。図9の例では、格間GOの+x側端部の領域A1から開始して-x方向端部の領域Aiに至るまで移動しながら撮影し、再度+x側端部に戻って領域Ajから初めて-x方向端部の領域Anに至るまで、合計n枚(nは2以上の整数)の画像を撮影する。これと異なるパターン(例えば領域A1~Ai~An~Ajの順)で撮影してもよい。撮影の際は、1画像を撮影するごとに撮影位置を移動し常に正対した画像を撮影してもよいし、1つの撮影位置で撮影方向を変えながら複数の画像を撮影してもよい(この場合、斜め方向から撮影された画像が含まれることになる)。また撮影においては、撮影位置及び撮影方向を適切に設定することにより隣接する画像で十分な(例えば、30%程度)重複を生じさせ、対応点の検出及び設定を容易かつ高精度にすることが好ましい。
 図10は撮影画像の例であり、画像i1~i10まで10枚の画像を、重複を確保しつつ撮影した様子を示している。また、図11は画像i1~i10を個別に示す図である。なお図10,11では、格間GOの枠F(主桁2及び横桁3で規定される矩形)を図示しており、その他の部材及び床板に生じた損傷は図示を省略している。
 クライアント200は、デジタルカメラ100(撮像光学系110、無線通信部130、アンテナ132)及び処理部210(通信制御部210D、画像入力部210A、アンテナ212)を介して、上述した複数の撮影画像を入力する(ステップS102)。
 <画像及び情報の格納>
 損傷図作成システム10では、クライアント200の記憶部220にフォルダを作成して撮影画像を格納する。図12はフォルダ構造の例を示す図である。図12の例では、橋梁1の全体に対してメインフォルダMFを作成し、このメインフォルダの中に撮影領域(検査領域1A,検査領域1B)ごとにサブフォルダSF1,SF2を作成している。撮影領域ごとのサブフォルダの中には、主桁2及び横桁3で規定される格間GOごとにさらにサブフォルダSS1~SS5を作成して撮影画像を格納している。図13は格間番号がA001の格間(サブフォルダSS1)について10枚の撮影画像を格納した様子を示す。図12,13に示すフォルダ構造は、ファイル管理部210Bが操作部240(キーボード242、マウス244)の操作に応じて作成することができる。なおフォルダ構成は図12,13の例と異なる態様でもよく、例えば部材番号ごとにサブフォルダを作成してもよい。詳細を後述するように、損傷図作成システム10では損傷の検出結果(検出の結果)をフォルダ(サブフォルダも「フォルダ」に含む)ごとに合成し、合成した検出結果を撮影画像と同一のフォルダに格納する。
 <画像取得>
 クライアント200の操作部240はキーボード242及び/またはマウス244を介した損傷検出及び合成の指示操作を受け付け(ステップS104)、この操作に応じてサーバ300(画像取得部300A)が撮影画像を取得する(ステップS200)。画像取得部300Aは、クライアント200(記憶部220)の同一のフォルダに格納された画像を同一のグループに属する画像として取得する。例えば、図12,13に示すサブフォルダSS1に格納された10枚の撮像画像を同一のグループに属する画像として取得する。
 <合成パラメータの算出>
 ステップS200で撮影画像が取得されたら、サーバ300(合成パラメータ算出部300B)は、複数の画像を合成するための合成パラメータを画像どうしの対応点に基づいて算出する(ステップS202)。例えば、撮影画像のうちの基準画像に対する他の画像の射影変換行列を合成パラメータとして算出することができる。なお、図6のフローチャートではステップS202の合成パラメータ算出を先に行う例を記載しているが、ステップS204の損傷検出を先に行ってもよいし、ステップS202,S204を並行して行ってもよい。
 <損傷の検出>
 サーバ300(損傷検出部300D)は、取得した撮影画像から損傷を検出(抽出及び計測)する(ステップS204)。損傷の分類としては剥離、漏水、ひび割れ、錆などを挙げることができるが、具体的に検出する損傷の種類は建造物(被写体)の種類、特徴、検査の目的等の条件に応じて設定してよい。また、検出する項目としては位置、大きさ、方向、範囲、形状等があるが、検出項目についても損傷の分類に応じて、また建造物の種類、特徴、検査の目的等の条件に応じて設定してよい。損傷の検出においては、損傷検出部300Dが検出結果(検出の結果)をベクトル化し、始点及び終点を有する線分またはその集合(ひび割れ等、線状の損傷の場合)、またはそのような線分により構成される多角形等の図形(剥離、腐食のように広がりのある損傷の場合)で表す。
 損傷の検出は分類に応じて種々の手法により行うことができるが、ひび割れについては、例えば特許4006007号公報に記載されたひび割れ検出方法を用いることができる。この方法は、ウェーブレット画像を作成する工程と、ウェーブレット画像に基づいてひび割れ領域を判定する工程と、を有するひび割れ検出方法である。ウェーブレット画像を作成する工程では、対比される2つの濃度に対応したウェーブレット係数を算定するとともに、その2つの濃度をそれぞれ変化させた場合のそれぞれのウェーブレット係数を算定してウェーブレット係数テーブルを作成し、ひび割れ検出対象であるコンクリート表面を撮影した入力画像をウェーブレット変換する。ひび割れ領域を判定する工程では、ウェーブレット係数テーブル内において、局所領域内の近傍画素の平均濃度と注目画素の濃度に対応するウェーブレット係数を閾値として、注目画素のウェーブレット係数と閾値とを比較することによりひび割れ領域とひび割れでない領域とを判定する。
 また、錆及び剥離を検出する方法としては、例えば特表2010-538258号公報に記載された鋼橋の塗膜検査システムの処理方法を用いることができる。この処理方法では、撮影された鋼橋塗膜の画像ファイルからの色情報、映像処理、ウォーターシェッド、パルツェン窓を用いて錆と剥離を検出している。
 第1の実施形態に係る損傷図作成システム10では、このように合成前の撮影画像から損傷を検出する。したがって画像の重複領域での画質劣化に起因して損傷検出性能が劣化することがないので、被写体を分割撮影して取得した複数の画像に基づいて損傷を高精度に検出することができる。なお、損傷の検出結果は、後述するように画像どうしの合成パラメータを用いて合成する。
 <合成可否の判断>
 サーバ300(合成パラメータ算出部300B)は、ステップS202で算出した合成パラメータに基づいて全ての撮影画像を1つに合成することができるか否かを判断する(ステップS206)。合成できるか否かは、対応点の数、対応点の信頼性が十分であるか否か(対応点が特徴的な点であるか否か)、対応点により射影変換行列が算出できるか等に基づいて判断することができる。この際、RANSAC(RANdom SAmple Consensus)アルゴリズム等により対応点の組合せを変えて射影変換行列とその評価値の算出を繰り返して判断してもよい。全ての画像を1つの画像に合成できる場合(ステップS206でYES)はステップS222に進んで検出結果(検出の結果)の合成を行う。全ての画像を1つの画像に合成できない場合(ステップS206でNO)は、以下に説明するようにステップS208~S220の処理を行ってからステップS222に進む。ステップS208~S220は全ての画像を1つの画像に合成(自動合成)できない場合の処理であり、これらのステップでは、合成が可能な画像群については画像群ごとに合成パラメータを算出して損傷の検出結果を画像群ごとに合成する。一方、合成ができない画像群の間では、以下に説明するようにユーザ操作に基づき対応点を指定して合成パラメータを算出し、算出した合成パラメータに基づいて検出結果を合成する。例えば、後述する画像群G1,G2(図16~19参照)の場合、画像群G1,G2を構成する画像については検出結果をそれぞれ合成し、画像群G1,G2の間では、ユーザ操作に基づいて算出した合成パラメータに基づいて、画像群G1,G2について合成された検出結果を1つに合成する(図20~22参照)。
 <画像の分類>
 ステップS206で「全ての撮影画像を1つの画像に合成できない」と判断された場合、合成パラメータ算出部300Bは撮影画像を合成が可能な画像群に分け(ステップS208)、画像群ごとに、画像どうしの対応点に基づいて画像配置を決定(合成パラメータを算出)する(ステップS210)。画像配置が決定すれば、その配置に基づいて検出結果を合成することができる。
 <画像配置の決定>
 図14は、図6のステップS210における画像配置決定の処理の詳細を示すフローチャートである。合成パラメータ算出部300Bは、複数の撮影画像のうちから射影変換の基準となる基準画像を設定する(ステップS210A)。基準画像は正対度、鮮明度等の画像の特徴により設定(選択)できるが、特定の撮影順の画像(例えば、最初に撮影した画像)を基準画像としてもよい。図10,11の例では、図15の(a)部分に示すように、画像i1,i2に対し画像i1を基準画像として設定することができる。
 基準画像が設定されたら、合成パラメータ算出部300Bは、基準画像以外の画像の基準画像に対する射影変換行列を、画像どうしの対応点に基づいて算出する(ステップS210B)。図10,11の例では、図15の(a)部分に示すように、画像i2(基準画像以外の画像)を画像i1(基準画像)と同一平面に射影し、対応点を一致させるための射影変換行列を算出する。画像i2の画像i1(基準画像)に対する射影変換行列が算出されたら、図15の(b)部分に示すように画像i2を基準画像とし、画像i3の画像i2に対する射影変換行列を算出する。このように、基準画像を替えながら、画像群の全画像について(ステップS210CでYESになるまで)射影変換行列を算出する。
 全画像について射影変換行列を算出したら、合成パラメータ算出部300Bは、算出した射影変換行列に基づいて各画像に対し移動、回転、拡大または縮小、及び変形等を行い、画像群の各画像の配置を決定する(ステップS210D)。以下では、画像i1~i4及び画像i6~i9が合成可能な画像群G1を構成し、画像i5及び画像i10が合成可能な画像群G2を構成するものとして説明する。なお、上述した画像配置の決定においては各画像を射影変換行列により移動、回転、変形等するが、図示する例は画像の配置等を概念的に示すものであり、画像の移動、回転、変形等を正確に表すものではない。
 ステップS210Dで決定する画像配置は、画像どうしで重複する領域が重なる画像配置(図16参照)でもよいし、画像どうしが重ならない画像配置(図17参照)でもよい。画像どうしが重ならない画像配置の場合、図17に示すように画像をx方向及びy方向に離間させて配置し、画像の向きは射影変換行列により求めた向きと変えない(画像を回転させない)配置とすることができる。
 <画像表示>
 ステップS210(ステップS210A~S210D)で画像配置が決定すると、サーバ300(表示制御部300I、通信制御部300J)は合成可能な画像群を表示するようクライアント200に指示する(ステップS212)。クライアント200への指示には、表示させる画像、画像の配置の情報、及びステップS204において損傷の検出結果をベクトル化した情報を含める。クライアント200(表示制御部210C)は、表示の指示に応じて損傷の検出結果をベクトル化した情報を画像と重畳し、合成可能な画像群ごとにモニタ232に表示する(ステップS106)。上述の例では、表示制御部210Cは画像群G1,G2を図16または図17のような画像配置により表示させる。図16の画像配置において画像i4,i5,i9,i10におけるひび割れをベクトル化して重畳表示した様子を図18に示す。なお、表示の際に、表示制御部300I及び/または表示制御部210Cが画像群G1,G2に対しそれぞれ枠で囲む、画像群ごとに異なる色で表示する、画像群の番号を表示する等の処理を施して、画像群を容易に識別できるようにしてもよい。
 ステップS106での表示の際、画像群の間での配置が不適切な場合がある。例えば、図19に示すように、画像群G1の下部(-x方向)に配置されるべき画像群G2が画像群G1の横方向に配置される場合がある。そこでサーバ300(合成パラメータ算出部300B)は画像群の配置を変更するか否か判断し(ステップS214)、変更する場合(ステップS214でYES)はステップS212に戻って、クライアント200に対し変更後の配置で画像群G1,G2を再度表示させる。ステップS214の判断は、ユーザの指示入力(例えば、キーボード242及び/またはマウス244を介した画像群G2の移動、すなわち相対配置の変更操作)に基づいて行うことができる。図19の例の場合、ユーザの操作(例えば、マウス244でドラッグ)に基づいて合成パラメータ算出部300B及び表示制御部300Iが画像群G2を画像群G1の下部に移動(矢印の方向に移動)し、図16のように表示することができる。
 画像群どうしの相対配置が不適切な状態で表示すると対応点の指定に時間が掛かる場合があるが、損傷図作成システム10では、このような配置の変更を行うことで対応点の指定を迅速かつ容易に行うことができる。
 <対応点の指定>
 ステップS214までの処理により画像群の配置が決定すると、サーバ300(対応点指定部300F)は、表示された画像群のうちの一の画像群と他の画像群とについて対応点を指定する(ステップS216)。例えば画像群G1,G2が図16のように配置及び表示されている場合、図20に示すように、画像群G1におけるマウス244のクリック等(ステップS108の対応点指定操作)に応じて点P1aを指定し、画像群G2において点P1aの対応点である点P1bを指定する。対応点としては、例えば「同一」と判断されたひび割れの始点、終点、分岐点、及び/または部材の端部、辺部、接合部等の特徴点を指定することができる。この際、対応点指定部300F及び表示制御部300Iが指定された点P1a,P1bを直線でつなぐ等により対応関係を識別表示する(図20参照)ことで、指定された点が対応することを容易に把握することができる。以下、同様に点P2aと点P2b、点P3aと点P3b、点P4aと点P4b、点P5aと点P5b、点P6aと点P6bについても指定する。
 なお、図20では画像群G1,G2について対応点を6点ずつ指定する例を示しているが、指定する対応点の数は特に限定されない。また、画像群G1,G2が図17のように配置及び表示されている場合も、同様に画像i4,i5と画像i9,i10とで対応点を指定することができる。
 このように、第1の実施形態に係る損傷図作成システム10では、合成可能な画像群(画像群G1,G2)が画像群ごとに表示されるので、どの画像群について(自動的に)合成できたか、あるいはできなかったかを容易に把握することができる。また、合成できなかった画像群(画像群G1と画像群G2)について対応点を指定すれば良いので、全ての画像について対応点を指定する必要がなく、対応点の指定、及び指定された対応点に基づく合成パラメータの算出を迅速かつ容易に行うことができる。
 上述のように指定した対応点では合成パラメータを精度良く算出できない場合は、サーバ300(合成パラメータ算出部300B、対応点指定部300F、表示制御部300I等)及びクライアント200(表示制御部210C等)によりモニタ232に警告メッセージを表示させて、再度対応点指定操作を行うようユーザを促してもよい。
 <指定された対応点に基づく画像配置決定>
 ステップS216で対応点が指定されたら、サーバ300(合成パラメータ算出部300B)は、指定された対応点に基づいて合成が可能な画像群ごとに合成パラメータを算出する(ステップS218)。図20の例では、合成パラメータ算出部300Bは、対応点である点P1a~P6bに基づいて、画像群G1を基準とした画像群G2の射影変換行列(または画像群G2を基準とした画像群G1の射影変換行列)を算出する。画像合成部300C,合成パラメータ算出部300Bは、このようにして算出した射影変換行列により画像群G2を構成する画像(画像i5,i10)を移動、回転、変形等して、画像配置を決定する(ステップS220)。ステップS220での画像配置の決定は、ステップS210と同様の手順に行うことができる。
 <検出結果の合成>
 サーバ300(検出結果合成部300E)は、ステップS202、S220で算出した合成パラメータ(射影変換行列)に基づいて検出結果(検出の結果)を合成する(ステップS222)。例えば、図21の(a)部分及び(b)部分に示すように画像i1,i2において損傷ベクトルV1,V2の異なる部分(一部重複)が検出されたとし、損傷ベクトルV1,V2の始点、終点が点P7~P12であるとする。なお、図22の(a)部分及び(b)部分は、図21の(a)部分及び(b)部分にそれぞれ対応した損傷ベクトルV1,V2の始点、終点を示す表である。この場合、合成後の検出結果は、図21の(c)部分(画像i2を射影変換行列により移動、回転等して合成)に示すように損傷ベクトルV1は始点、終点がそれぞれ点P7,P8となり、損傷ベクトルV2は始点、終点がそれぞれ点P8、P12となる。図22の(c)部分は図21の(c)部分に対応しており、合成後の損傷ベクトルV1,V2の始点、終点を示す。
 <画像の重複領域における検出結果の合成>
 上述のように撮影範囲の一部が重複するように画像を取得する場合、複数の画像が重複する領域では、本来ならば1つに合成されるべき検出結果が画像のずれにより複数になる等、合成精度が劣化する場合がある。そこで、損傷図作成システム10では、複数の画像が重複する領域においては重複する複数の画像のうち1つを選択して検出結果を合成して、検出結果を高精度に合成することができる。このような合成の様子を図23に示す。図23の例では、画像i1,i2が重複している領域OLでは画像i1を選択し、画像i1についての検出結果を用いて合成している。
 上述した検出結果の合成は、同一のフォルダに格納された画像(グループに分けられた複数の画像)について行われる。図13に示す例では、サブフォルダSS1に格納された10枚の画像について検出結果が合成される(検出結果をグループごとに合成する)。
 <画像の合成>
 サーバ300(画像合成部300C)は、ステップS202、S218で算出した合成パラメータ(射影変換行列)に基づいて画像を合成する(ステップS224)。図24は、合成した画像G3を示す。図25は、図23と同様に画像が重複する領域では1つの画像を選択して合成した画像G3aを示す。なお、検出結果が合成されれば損傷図を作成できるので、画像の合成は省略してもよい。
 <合成後の正対補正>
 損傷図作成システム10では、上述のように基準画像に対する他の画像の射影変換行列を算出して画像配置を決定するが、基準画像が撮影方向に対し正対していない場合、合成後の画像において本来矩形であるべき領域が矩形にならない場合がある。例えば、合成後の画像において格間の枠Fが台形状になる場合がある。この場合、サーバ300(合成パラメータ算出部300B、画像合成部300C等)はキーボード242及び/またはマウス244を介したユーザの操作に基づいて矩形を形成する点(例えば、枠Fの4隅の点)を指定し、射影変換によりこれら4点に矩形を形成させる。これにより、画像合成後においても被写体が正対した画像(正対画像)を得ることができる。
 <計測結果のマッピング>
 サーバ300(損傷マッピング部300G)は、損傷の検出結果を合成画像にマッピングしてもよい。マッピングは、例えば検出結果と関連づけられた文字、図形、記号等を合成画像に表示することにより行うことができる。表示する文字、図形、記号等は操作部240(キーボード242及び/またはマウス244)を介した操作により選択することができ、選択に応じてサーバ300(損傷マッピング部300G、表示制御部300I等)及びクライアント200(表示制御部210C)がモニタ232にマッピングした画像を表示させる。文字、図形、記号等は実際の損傷を簡略化あるいは強調したものでもよいし、損傷の種別、大きさ等に応じて異なる態様で表示してもよい。計測結果がマッピングされた画像は記憶部220に記憶され(図4の損傷マッピング画像220D)、表示制御部210Cの制御によりモニタ232に表示される。損傷マッピング画像には損傷情報を入力してもよい。
 このような計測結果のマッピングは、橋梁1の形状を示す線図情報を含む図面データ(例えばCADデータ、CAD:Computer-Aided Design)に対して行ってもよい。この際、CADデータを規定する座標系が図24,25等に示す座標系と異なる場合は、座標系の関係に応じた座標変換(移動、回転、ミラーリング等)を行う。このような変換は、サーバ300(損傷マッピング部300G)により行うことができる。
 <結果表示>
 サーバ300(検出結果出力部300H、表示制御部300I、通信制御部300J等)はクライアント200に対し検出結果の表示を指示し(ステップS226)、この指示に応じてクライアント200(表示制御部210C等)は検出結果をモニタ232に表示させる(ステップS110)。検出結果は文字、数字、記号等により表示することができ、各撮影画像に対する検出結果を表示してもよいし、合成した検出結果を表示してもよい(図21,22を参照)。また、検出結果と合わせて、または検出結果に代えて撮影画像、合成画像、損傷マッピング画像等を表示してもよい。また、検出結果をベクトル化した情報(図21,22を参照)を画像と重畳して表示してもよい。表示制御部210Cは、モニタ232に表示する内容及びその態様を操作部240の操作に応じて選択することができる。表示制御部210Cは、結果を表示してからの時間を計測し、また結果表示後の出力指示の有無を判断する。出力指示なしで表示時間が長い、出力指示なしで他の画面に遷移したなどの場合は目視による複写のような不正が行われている可能性があり、表示時間の計測及び出力指示の有無を判断することで、そのような不正を検知しうる。不正を検知した場合、例えば表示を停止する等の対応を取りうる。
 <結果出力>
 サーバ300(検出結果出力部300H等)は、ステップS110で表示した検出結果に対する出力の指示操作(例えば、操作部240を介した出力指示操作)があったか否かを判断する(ステップS228)。出力指示操作があった場合(ステップS228でYES)のみ、ステップS230へ進んでクライアント200に対し検出結果(各画像に対する検出結果、及び合成された検出結果)の出力を指示し、クライアント200(ファイル管理部210B)は出力指示に応じて検出結果を出力する(ステップS112)。図13の例では、サブフォルダSS1に格納された画像に対する検出結果を、画像が格納されているのと同一のサブフォルダSS1に格納する(検出結果をグループに関連づけて出力する;図26参照)。検出結果は、橋梁1(被写体)の形状を示す線図情報を含む図面データ(例えばCADデータ)と同一のフォーマットで出力してもよい。また、図示せぬプリンタで検出結果を印刷してもよい。
 このように、第1の実施形態では画像が格納されたフォルダと同一のフォルダに検出結果を格納するので、入力した画像と合成された検出結果との対応が明確になり、画像及び検出結果の管理、利用を容易に行うことができる。なお、検出結果の出力は出力操作指示があった場合(ステップS228でYESとなった場合)にのみ行い、出力操作指示がなかった場合は画像に対し識別情報を付与して(ステップS232)、付与した識別情報をクライアント200に通知して画像が格納されたフォルダと同一のフォルダ(図13,26の例ではサブフォルダSS1)に格納する。
 検出結果または識別情報が出力されたら、サーバ300は全フォルダについての処理が終了したか否かを判断する(ステップS234)。判断が肯定されたら、サーバ300はステップS236でクライアント200に終了を通知して(ステップS236)、処理を終了する。全フォルダについての処理が終了していない場合は、ステップS202に戻って他のフォルダについてステップS202~S234を繰り返す。
 以上説明したように、第1の実施形態に係る損傷図作成システム10によれば、被写体を分割撮影して取得した複数の画像に基づいて損傷を高精度に検出することができる。
 <第2の実施形態>
 上述した第1の実施形態ではサーバ300及びクライアント200を備える損傷図作成システム10について説明したが、第2の実施形態では損傷図作成装置20について説明する。図27は損傷図作成装置20の構成を示す図である。損傷図作成装置20はデジタルカメラ100と装置本体500とにより構成される。デジタルカメラ100の構成は第1の実施形態におけるデジタルカメラ100の構成と同じであるので、同一の参照符号を付し詳細な説明を省略する。なお、デジタルカメラ100は装置本体500と一体に構成されていてもよい。
 <損傷図作成装置の構成>
 第1の実施形態に係る損傷図作成システム10はサーバ300及びクライアント200を備え損傷の検出、合成等、処理の主たる部分をサーバ300で行うが、第2の実施形態に係る損傷図作成装置20では、装置本体500の処理部510が処理を行う。具体的には、処理部510は図3に示すクライアント200の機能と図5に示すサーバ300の機能とを有する。記憶部520には、第1の実施形態に係る記憶部220と同様の情報(図4参照)が記憶される。操作部540(キーボード542,マウス544)の構成及び機能は第1の実施形態に係る操作部240(キーボード242,マウス244)と同様である。また、表示部530(モニタ532)の構成及び機能は第1の実施形態に係る表示部230(モニタ232)と同様である。損傷図作成装置20では、画像を入力して損傷の検出、合成等の処理を行うパーソナルコンピュータ、タブレット端末、スマートフォン等の機器(情報端末)を装置本体500として用いることができる。
 <損傷図作成方法の処理>
 損傷図作成装置20における処理(本発明に係る損傷図作成方法の処理)は図6,7,14のフローチャートと同様である。例えば、被写体を分割撮影して取得した複数の画像を入力し、複数の画像を合成するための合成パラメータ(射影変換行列)を画像どうしの対応点に基づいて算出し、複数の画像を構成する画像から被写体の損傷を検出し、複数の画像についての検出結果を合成パラメータに基づいて合成する。このような処理は装置本体500の処理部510が行う。なお、第1の実施形態ではクライアント200とサーバ300の通信が行われるが、損傷図作成装置20では装置本体500の内部での通信となる。
 第2の実施形態に係る損傷図作成装置20においても、第1の実施形態に係る損傷図作成システム10と同様に合成前の撮影画像から損傷を検出する。したがって画像の重複領域での画質劣化に起因して損傷検出性能が劣化することがないので、被写体を分割撮影して取得した複数の画像に基づいて損傷を高精度に検出することができる。
 以上で本発明の実施形態に関して説明してきたが、本発明は上述した態様に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能である。
1    橋梁
1A   検査領域
1B   検査領域
2    主桁
3    横桁
4    対傾構
5    横構
6    床版
10   損傷図作成システム
20   損傷図作成装置
100  デジタルカメラ
110  撮像光学系
130  無線通信部
132  アンテナ
200  クライアント
210  処理部
210A 画像入力部
210B ファイル管理部
210C 表示制御部
210D 通信制御部
210E ROM
212  アンテナ
220  記憶部
220A 撮影画像
220B 検出結果
220C 合成画像
220D 損傷マッピング画像
230  表示部
232  モニタ
240  操作部
242  キーボード
244  マウス
300  サーバ
300A 画像取得部
300B 合成パラメータ算出部
300C 画像合成部
300D 損傷検出部
300E 検出結果合成部
300F 対応点指定部
300G 損傷マッピング部
300H 検出結果出力部
300I 表示制御部
300J 通信制御部
300K ROM
500  装置本体
510  処理部
520  記憶部
530  表示部
532  モニタ
540  操作部
542  キーボード
544  マウス
A    領域
A1   領域
Ai   領域
Aj   領域
An   領域
F    枠
G1   画像群
G2   画像群
G3   画像
G3a  画像
GO   格間
MF   メインフォルダ
NW   ネットワーク
OL   領域
P1a  点
P1b  点
P2a  点
P2b  点
P3a  点
P3b  点
P4a  点
P4b  点
P5a  点
P5b  点
P6a  点
P6b  点
S100~S236 損傷図作成方法の各ステップ
SF1  サブフォルダ
SF2  サブフォルダ
SS1  サブフォルダ
SS2  サブフォルダ
SS3  サブフォルダ
SS4  サブフォルダ
SS5  サブフォルダ
V1   損傷ベクトル
V2   損傷ベクトル
i1   画像
i2   画像
i3   画像
i4   画像
i5   画像
i6   画像
i7   画像
i8   画像
i9   画像
i10  画像

Claims (22)

  1.  被写体を分割撮影して取得した複数の画像を入力するステップと、
     前記複数の画像を合成するための合成パラメータを画像どうしの対応点に基づいて算出するステップと、
     前記複数の画像を構成する画像から前記被写体の損傷の検出を行うステップと、
     前記複数の画像についての前記検出の結果を前記合成パラメータに基づいて合成するステップと、
     を有する損傷図作成方法。
  2.  前記合成パラメータを算出するステップでは、前記複数の画像のうちの基準画像に対する前記基準画像以外の画像の射影変換行列の情報を前記合成パラメータとして算出する請求項1に記載の損傷図作成方法。
  3.  前記合成パラメータを算出するステップにおいて前記複数の画像を1つの画像に合成する合成パラメータが算出できない場合、
     前記複数の画像のうちの合成が可能な画像群ごとに前記合成パラメータを算出するステップと、
     前記画像群ごとに算出した前記合成パラメータに基づいて前記検出の結果を前記画像群ごとに合成するステップと、
     を行う請求項1または2に記載の損傷図作成方法。
  4.  前記検出の結果をベクトル化した情報を前記複数の画像と重畳させて前記画像群ごとに表示させるステップと、
     前記表示された前記画像群のうちの一の画像群と、前記画像群のうちの他の画像群と、について対応点を指定するステップと、
     前記指定された対応点に基づいて、前記一の画像群と前記他の画像群とを1つの画像に合成する前記合成パラメータを算出するステップと、
     前記検出の結果を合成するステップでは、前記画像群を1つの画像に合成する前記合成パラメータに基づいて、前記一の画像群についての前記検出の結果と前記他の画像群についての前記検出の結果とを合成する請求項3に記載の損傷図作成方法。
  5.  前記検出の結果を合成するステップでは、複数の画像が重複する領域においては前記重複する複数の画像のうち1つを選択して前記検出の結果を合成する請求項1から4のいずれか1項に記載の損傷図作成方法。
  6.  前記複数の画像を入力するステップではグループに分けられた前記複数の画像を入力し、
     前記検出の結果を合成するステップでは前記検出の結果を前記グループごとに合成し、
     前記合成された前記検出の結果を前記グループに関連づけて出力するステップを有する請求項1から5のいずれか1項に記載の損傷図作成方法。
  7.  前記複数の画像を入力するステップでは同一のフォルダに格納された画像を同一のグループに属する画像として入力し、
     前記検出の結果を合成するステップでは、前記同一のフォルダに格納された画像ごとに前記検出の結果を合成し、
     前記検出の結果を出力するステップでは、前記合成された前記検出の結果を前記同一のグループに属する画像が格納されたフォルダに出力する請求項6に記載の損傷図作成方法。
  8.  前記合成パラメータに基づいて前記複数の画像を合成するステップを有する請求項1から7のいずれか1項に記載の損傷図作成方法。
  9.  前記被写体の形状を示す線図情報を含む図面データと同一のフォーマットで前記検出の結果を出力するステップを有する請求項1から8のいずれか1項に記載の損傷図作成方法。
  10.  前記検出の結果を表示するステップと、
     前記表示した前記検出の結果を出力するステップと、
     を有し、
     前記検出の結果を出力するステップは前記表示した前記検出の結果に対する出力の指示があった場合にのみ行う請求項1から9のいずれか1項に記載の損傷図作成方法。
  11.  前記検出の結果に対応する画像のうち前記出力の指示がなかった画像に識別情報を付与するステップを備える請求項10に記載の損傷図作成方法。
  12.  被写体を分割撮影して取得した複数の画像を入力する画像入力部と、
     前記複数の画像を合成するための合成パラメータを画像どうしの対応点に基づいて算出する合成パラメータ算出部と、
     前記複数の画像を構成する画像から前記被写体の損傷の検出を行う損傷検出部と、
     前記複数の画像についての前記検出の結果を前記合成パラメータに基づいて合成する検出結果合成部と、
     を有する損傷図作成装置。
  13.  前記合成パラメータ算出部は、前記複数の画像のうちの基準画像に対する前記基準画像以外の画像の射影変換行列の情報を前記合成パラメータとして算出する請求項12に記載の損傷図作成装置。
  14.  前記合成パラメータ算出部は、前記複数の画像を1つの画像に合成する合成パラメータが算出できない場合、前記複数の画像のうちの合成が可能な画像群ごとに前記合成パラメータを算出し、
     前記検出結果合成部は、前記画像群ごとに算出した前記合成パラメータに基づいて前記検出の結果を前記画像群ごとに合成する請求項12または13に記載の損傷図作成装置。
  15.  前記検出の結果をベクトル化した情報を前記複数の画像と重畳させて前記画像群ごとに表示させる表示制御部と、
     前記表示された前記画像群のうちの一の画像群と、前記画像群のうちの他の画像群と、について対応点を指定する対応点指定部と、
     を備え、
     前記合成パラメータ算出部は、前記指定された対応点に基づいて前記一の画像群と前記他の画像群とを1つの画像に合成する前記合成パラメータを算出し、
     前記検出結果合成部は、前記一の画像群と前記他の画像群とを1つの画像に合成する前記合成パラメータに基づいて、前記一の画像群についての前記検出の結果と前記他の画像群についての前記検出の結果とを合成する請求項14に記載の損傷図作成装置。
  16.  サーバとクライアントとを備える損傷図作成システムであって、
     前記クライアントは、
     被写体を分割撮影して取得した複数の画像を入力する画像入力部を備え、
     前記サーバは、
     前記複数の画像を前記クライアントから取得する画像取得部と、
     前記取得した複数の画像を合成するための合成パラメータを画像どうしの対応点に基づいて算出する合成パラメータ算出部と、
     前記複数の画像を構成する画像から前記被写体の損傷の検出を行う損傷検出部と、
     前記複数の画像についての前記検出の結果を前記合成パラメータに基づいて合成する検出結果合成部と、
     前記検出の結果を前記クライアントに出力する検出結果出力部と、
     を備える損傷図作成システム。
  17.  前記合成パラメータ算出部は、前記複数の画像のうちの基準画像に対する前記基準画像以外の画像の射影変換行列の情報を前記合成パラメータとして算出する請求項16に記載の損傷図作成システム。
  18.  前記合成パラメータ算出部は、前記複数の画像を1つの画像に合成する合成パラメータが算出できない場合、前記複数の画像のうちの合成が可能な画像群ごとに前記合成パラメータを算出し、
     前記検出結果合成部は、前記画像群ごとに算出した前記合成パラメータに基づいて前記検出の結果を前記画像群ごとに合成する請求項16または17に記載の損傷図作成システム。
  19.  前記サーバは、
     前記検出の結果をベクトル化した情報を前記複数の画像と重畳させて前記画像群ごとに表示させる表示制御部と、
     前記表示された前記画像群のうちの一の画像群と、前記画像群のうちの他の画像群と、について対応点を指定する対応点指定部と、
     を備え、
     前記合成パラメータ算出部は、前記指定された対応点に基づいて前記一の画像群と前記他の画像群とを1つの画像に合成する前記合成パラメータを算出し、
     前記検出結果合成部は、前記一の画像群と前記他の画像群とを1つの画像に合成する前記合成パラメータに基づいて、前記一の画像群についての前記検出の結果と前記他の画像群についての前記検出の結果とを合成する請求項18に記載の損傷図作成システム。
  20.  前記サーバの画像取得部はグループに分けられた前記複数の画像を前記クライアントから取得し、
     前記サーバの前記検出結果合成部は前記検出の結果を前記グループごとに合成し、
     前記サーバの前記検出結果出力部は、前記合成された前記検出の結果を前記グループに関連づけて前記クライアントに出力する請求項16から19のいずれか1項に記載の損傷図作成システム。
  21.  前記サーバの前記画像取得部は、同一のフォルダに格納された画像を前記同一のグループに属する画像として取得し、
     前記サーバの前記検出結果合成部は、前記同一のフォルダに格納された画像ごとに前記検出の結果を合成し、
     前記サーバの前記検出結果出力部は、前記同一のフォルダに格納された画像について前記合成された前記検出の結果を前記クライアントの前記同一のフォルダに出力する請求項20に記載の損傷図作成システム。
  22.  請求項1から11のいずれか1項に記載の損傷図作成方法をコンピュータに実行させるプログラムのコンピュータ読み取り可能なコードが記録された記録媒体。
PCT/JP2018/024406 2017-07-25 2018-06-27 損傷図作成方法、損傷図作成装置、損傷図作成システム、及び記録媒体 WO2019021729A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP18838365.7A EP3660786A4 (en) 2017-07-25 2018-06-27 METHOD FOR GENERATING A DAMAGE DIAGRAM, DEVICE FOR GENERATING A DAMAGE DIAGRAM, SYSTEM FOR GENERATING A DAMAGE DIAGRAM AND RECORDING MEDIUM
JP2019532456A JP6807459B2 (ja) 2017-07-25 2018-06-27 損傷図作成方法、損傷図作成装置、損傷図作成システム、及び記録媒体
CN201880049642.7A CN110998655B (zh) 2017-07-25 2018-06-27 损伤图创建方法、损伤图创建装置、损伤图创建系统及记录介质
US16/748,921 US11523013B2 (en) 2017-07-25 2020-01-22 Damage diagram creation method, damage diagram creation device, damage diagram creation system, and recording medium
US18/050,792 US11948291B2 (en) 2017-07-25 2022-10-28 Damage diagram creation method, damage diagram creation device, damage diagram creation system, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-143756 2017-07-25
JP2017143756 2017-07-25

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/748,921 Continuation US11523013B2 (en) 2017-07-25 2020-01-22 Damage diagram creation method, damage diagram creation device, damage diagram creation system, and recording medium

Publications (1)

Publication Number Publication Date
WO2019021729A1 true WO2019021729A1 (ja) 2019-01-31

Family

ID=65040157

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/024406 WO2019021729A1 (ja) 2017-07-25 2018-06-27 損傷図作成方法、損傷図作成装置、損傷図作成システム、及び記録媒体

Country Status (5)

Country Link
US (2) US11523013B2 (ja)
EP (1) EP3660786A4 (ja)
JP (1) JP6807459B2 (ja)
CN (1) CN110998655B (ja)
WO (1) WO2019021729A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020201713A (ja) * 2019-06-10 2020-12-17 富士通株式会社 画像選択方法、画像選択プログラム、および画像選択装置
JP7022858B1 (ja) 2021-05-17 2022-02-18 株式会社日立パワーソリューションズ 構造物表示装置、および、構造物表示方法
JP7473143B1 (ja) 2023-12-13 2024-04-23 株式会社日立パワーソリューションズ 風力発電設備の保守支援システム及び保守支援方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110998655B (zh) * 2017-07-25 2023-10-20 富士胶片株式会社 损伤图创建方法、损伤图创建装置、损伤图创建系统及记录介质
JP7048357B2 (ja) * 2018-03-06 2022-04-05 東芝インフラシステムズ株式会社 撮影画像事前確認システム及び撮影画像事前確認方法
JP7145970B2 (ja) * 2018-11-29 2022-10-03 富士フイルム株式会社 コンクリート構造物の点検支援装置、点検支援方法及び点検支援プログラム
WO2021014754A1 (ja) * 2019-07-23 2021-01-28 富士フイルム株式会社 ひび割れ評価装置、ひび割れ評価方法、及びひび割れ評価プログラム
US11544919B2 (en) 2020-12-09 2023-01-03 Precisionhawk, Inc. Drone inspection of an undifferentiated surface using a reference image

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05322778A (ja) * 1992-05-19 1993-12-07 Ohbayashi Corp 建造物のリモートセンシング方法
JPH11132961A (ja) * 1997-10-29 1999-05-21 Nikon Corp 構造物用検査装置
JP2002131033A (ja) * 2000-10-19 2002-05-09 Mitsubishi Rayon Co Ltd 検査処理装置及び方法
JP4006007B2 (ja) 2004-11-10 2007-11-14 大成建設株式会社 ひび割れ検出方法
JP2010538258A (ja) 2007-09-03 2010-12-09 コリア エクスプレスウェイ コーポレイション 映像処理方法を用いた鋼橋の塗膜検査システム及びその処理方法
JP2016218762A (ja) 2015-05-20 2016-12-22 株式会社東芝 画像処理装置、方法及びプログラム
WO2017051633A1 (ja) * 2015-09-25 2017-03-30 富士フイルム株式会社 損傷図作成装置及び損傷図作成方法

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6714249B2 (en) * 1998-12-31 2004-03-30 Eastman Kodak Company Producing panoramic digital images by digital camera systems
JP2005223518A (ja) * 2004-02-04 2005-08-18 Seiko Epson Corp 画像供給装置、画像保存装置、自動保存システムおよび画像保存方法
JP2006132973A (ja) * 2004-11-02 2006-05-25 Fujimitsu Komuten:Kk コンクリート構造物のクラック検査装置及びクラック検査方法
US7460730B2 (en) * 2005-08-04 2008-12-02 Microsoft Corporation Video registration and image sequence stitching
US20070121146A1 (en) * 2005-11-28 2007-05-31 Steve Nesbit Image processing system
JP4102842B1 (ja) * 2006-12-04 2008-06-18 東京エレクトロン株式会社 欠陥検出装置、欠陥検出方法、情報処理装置、情報処理方法及びそのプログラム
US20110169985A1 (en) * 2009-07-23 2011-07-14 Four Chambers Studio, LLC Method of Generating Seamless Mosaic Images from Multi-Axis and Multi-Focus Photographic Data
US8270701B2 (en) * 2010-01-08 2012-09-18 3M Innovative Properties Company Optical web-based defect detection using intrasensor uniformity correction
JP5740934B2 (ja) * 2010-11-25 2015-07-01 カシオ計算機株式会社 被写体検出装置、被写体検出方法及びプログラム
WO2014104151A1 (ja) * 2012-12-28 2014-07-03 富士通株式会社 画像処理装置及び特徴検出方法
US9008410B2 (en) * 2013-03-13 2015-04-14 Kla-Tencor Corporation Single die inspection on a dark field inspection tool
CN105308621B (zh) * 2013-05-29 2019-05-21 王康怀 从活体内多相机胶囊重建影像
US20140365432A1 (en) * 2013-06-10 2014-12-11 Dropbox, Inc. Dropsite for shared content
US10197502B2 (en) * 2014-04-16 2019-02-05 Nec Corporation Information processing device, information processing method and medium
JP2016024516A (ja) * 2014-07-17 2016-02-08 株式会社日立製作所 移動式マルチ画像撮影装置
WO2017014288A1 (ja) * 2015-07-21 2017-01-26 株式会社東芝 ひび割れ解析装置、ひび割れ解析方法及びひび割れ解析プログラム
EP3396358B1 (en) * 2015-12-25 2024-05-15 FUJIFILM Corporation Information processing device and information processing method
JP6573986B2 (ja) * 2015-12-25 2019-09-11 富士フイルム株式会社 損傷情報処理装置及び損傷情報処理方法
CN108463717B (zh) * 2016-01-26 2021-05-25 富士胶片株式会社 龟裂信息检测装置、龟裂信息检测方法及存储介质
US10032267B2 (en) * 2016-06-09 2018-07-24 Lockheed Martin Corporation Automating the assessment of damage to infrastructure assets
US20180232875A1 (en) * 2017-02-13 2018-08-16 Pervacio Inc Cosmetic defect evaluation
CN107392218B (zh) * 2017-04-11 2020-08-04 创新先进技术有限公司 一种基于图像的车辆定损方法、装置及电子设备
JP6899436B2 (ja) * 2017-06-14 2021-07-07 株式会社ニコン・トリンブル 算出システム、プログラム及びターゲット
EP3648050B1 (en) * 2017-06-28 2022-11-02 FUJIFILM Corporation Image compositing method, image compositing device, and recording medium
CN110998655B (zh) * 2017-07-25 2023-10-20 富士胶片株式会社 损伤图创建方法、损伤图创建装置、损伤图创建系统及记录介质
JP6939195B2 (ja) * 2017-07-27 2021-09-22 株式会社大林組 検査処理システム、検査処理方法及び検査処理プログラム
EP3668077B1 (en) * 2017-08-09 2023-08-02 FUJIFILM Corporation Image processing system, server device, image processing method, and image processing program
US10192301B1 (en) * 2017-08-16 2019-01-29 Siemens Energy, Inc. Method and system for detecting line defects on surface of object
US10970876B2 (en) * 2017-12-08 2021-04-06 Panton, Inc. Methods and apparatus for image locating relative to the global structure
CN108921811B (zh) * 2018-04-03 2020-06-30 阿里巴巴集团控股有限公司 检测物品损伤的方法和装置、物品损伤检测器
CN109410218B (zh) * 2018-10-08 2020-08-11 百度在线网络技术(北京)有限公司 用于生成车辆损伤信息的方法和装置
JP7145970B2 (ja) * 2018-11-29 2022-10-03 富士フイルム株式会社 コンクリート構造物の点検支援装置、点検支援方法及び点検支援プログラム
JP7329951B2 (ja) * 2019-04-01 2023-08-21 キヤノン株式会社 画像処理装置およびその制御方法
US10885625B2 (en) * 2019-05-10 2021-01-05 Advanced New Technologies Co., Ltd. Recognizing damage through image analysis

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05322778A (ja) * 1992-05-19 1993-12-07 Ohbayashi Corp 建造物のリモートセンシング方法
JPH11132961A (ja) * 1997-10-29 1999-05-21 Nikon Corp 構造物用検査装置
JP2002131033A (ja) * 2000-10-19 2002-05-09 Mitsubishi Rayon Co Ltd 検査処理装置及び方法
JP4006007B2 (ja) 2004-11-10 2007-11-14 大成建設株式会社 ひび割れ検出方法
JP2010538258A (ja) 2007-09-03 2010-12-09 コリア エクスプレスウェイ コーポレイション 映像処理方法を用いた鋼橋の塗膜検査システム及びその処理方法
JP2016218762A (ja) 2015-05-20 2016-12-22 株式会社東芝 画像処理装置、方法及びプログラム
WO2017051633A1 (ja) * 2015-09-25 2017-03-30 富士フイルム株式会社 損傷図作成装置及び損傷図作成方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020201713A (ja) * 2019-06-10 2020-12-17 富士通株式会社 画像選択方法、画像選択プログラム、および画像選択装置
JP7211271B2 (ja) 2019-06-10 2023-01-24 富士通株式会社 画像選択方法、画像選択プログラム、および画像選択装置
JP7022858B1 (ja) 2021-05-17 2022-02-18 株式会社日立パワーソリューションズ 構造物表示装置、および、構造物表示方法
WO2022244753A1 (ja) * 2021-05-17 2022-11-24 株式会社日立パワーソリューションズ 構造物表示装置、および、構造物表示方法
JP2022176822A (ja) * 2021-05-17 2022-11-30 株式会社日立パワーソリューションズ 構造物表示装置、および、構造物表示方法
JP7473143B1 (ja) 2023-12-13 2024-04-23 株式会社日立パワーソリューションズ 風力発電設備の保守支援システム及び保守支援方法

Also Published As

Publication number Publication date
EP3660786A4 (en) 2020-08-05
CN110998655A (zh) 2020-04-10
US20200162626A1 (en) 2020-05-21
JPWO2019021729A1 (ja) 2020-09-24
EP3660786A1 (en) 2020-06-03
US20230080316A1 (en) 2023-03-16
JP6807459B2 (ja) 2021-01-06
CN110998655B (zh) 2023-10-20
US11948291B2 (en) 2024-04-02
US11523013B2 (en) 2022-12-06

Similar Documents

Publication Publication Date Title
JP6807459B2 (ja) 損傷図作成方法、損傷図作成装置、損傷図作成システム、及び記録媒体
EP3550513B1 (en) Method of generating panorama views on a mobile mapping system
Sapirstein Accurate measurement with photogrammetry at large sites
Alsadik et al. Automated camera network design for 3D modeling of cultural heritage objects
US20080279447A1 (en) Computational Solution Of A Building Of Three Dimensional Virtual Models From Aerial Photographs
CN112686877B (zh) 基于双目相机的三维房屋损伤模型构建测量方法及系统
JP6823719B2 (ja) 画像合成方法、画像合成装置、及び記録媒体
JPWO2019150799A1 (ja) 補修長の決定方法及び補修長の決定装置
Ibrahim et al. Metrics and methods for evaluating model‐driven reality capture plans
Ahmadabadian et al. Image selection in photogrammetric multi-view stereo methods for metric and complete 3D reconstruction
Higgins et al. Imaging tools for evaluation of gusset plate connections in steel truss bridges
JP4170469B2 (ja) 検査点位置取得方法および装置
Sahin Comparison and calibration of mobile phone fisheye lens and regular fisheye lens via equidistant model
Barazzetti et al. Mosaicking thermal images of buildings
JP6509546B2 (ja) 画像検索システム及び画像検索方法
Vasilakos et al. Comparison of terrestrial photogrammetry and terrestrial laser scanning for earthquake response management
Jauregui et al. Bridge inspection using virtual reality and photogrammetry
JP2023007662A (ja) 損傷図作成方法
Gerasimova et al. On simplifications in the technical vision algorithm
RU2258204C1 (ru) Способ дистанционного обследования объектов электрических сетей с помощью тепловидеосъемочного устройства
JP7493793B2 (ja) 画像標定方法、画像標定装置、画像標定システム及び画像標定プログラム
Hovey et al. Four-Point Planar Homography Algorithm for Rectification Photogrammetry: Development and Applications
Kubota et al. Road Maintenance Management System Using 3D Data by Terrestrial Laser Scanner and UAV
Wild et al. AUTOGRAF—AUTomated Orthorectification of GRAFfiti Photos. Heritage 2022, 5, 2987–3009
Barazzetti et al. Simultaneous registration of gnomonic projections and central perspectives

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18838365

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019532456

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018838365

Country of ref document: EP

Effective date: 20200225