WO2020218066A1 - 検査システム - Google Patents

検査システム Download PDF

Info

Publication number
WO2020218066A1
WO2020218066A1 PCT/JP2020/016329 JP2020016329W WO2020218066A1 WO 2020218066 A1 WO2020218066 A1 WO 2020218066A1 JP 2020016329 W JP2020016329 W JP 2020016329W WO 2020218066 A1 WO2020218066 A1 WO 2020218066A1
Authority
WO
WIPO (PCT)
Prior art keywords
abnormality
information
image
shooting
unit
Prior art date
Application number
PCT/JP2020/016329
Other languages
English (en)
French (fr)
Inventor
高橋 和也
智史 岡村
Original Assignee
株式会社センシンロボティクス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社センシンロボティクス filed Critical 株式会社センシンロボティクス
Priority to JP2020544885A priority Critical patent/JP6802599B1/ja
Publication of WO2020218066A1 publication Critical patent/WO2020218066A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N25/00Investigating or analyzing materials by the use of thermal means
    • G01N25/72Investigating presence of flaws
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T50/00Aeronautics or air transport
    • Y02T50/50On board measures aiming to increase energy efficiency

Definitions

  • the present invention relates to an inspection system.
  • Patent Document 1 discloses a solar cell inspection system capable of automating the inspection of a solar cell module installed outdoors by using an air vehicle.
  • Patent Document 1 The technology of Patent Document 1 is to move the flying object toward the first shooting position according to a preset flight plan, and acquire and analyze thermal image data with an infrared camera.
  • Patent Document 1 cannot meet such needs.
  • the present invention has been made in view of such a background, and one object of the present invention is to provide a new technique capable of automating the inspection of an object by using an air vehicle.
  • the main invention of the present invention for solving the above problems is an inspection system for inspecting an inspection object, which is an image taken by an air vehicle equipped with a camera of the inspection object, an imaging altitude of the air vehicle, and the above.
  • a shooting information receiving unit that receives a shooting position on a map of an air vehicle
  • an abnormality detection unit that analyzes the image to detect an abnormality in the inspection object
  • a detection position on the image in which the abnormality is detected is detected.
  • An abnormal position calculation unit that calculates an abnormal position of the inspection object on the map based on the shooting altitude and the shooting position, and information on the abnormality including at least the abnormal position and information for identifying the abnormality.
  • the abnormal information storage unit includes an abnormal information storage unit that stores the abnormal information in association with each other, and the abnormal information storage unit further provides other abnormal information different from the abnormal information for each of the abnormal information stored in the abnormal information storage unit.
  • the information for identifying the same abnormality is associated with the abnormality information regarding the same abnormality and stored.
  • the inspection of an object can be automated by using an air vehicle.
  • the flying object according to the embodiment of the present invention has the following configuration.
  • An inspection system that inspects objects to be inspected An image of an object to be inspected by a flying object equipped with a camera, a photographing altitude of the flying object, and a photographing information receiving unit for receiving a photographing position on a map of the flying object.
  • An abnormality detection unit that analyzes the image and detects an abnormality in the inspection object
  • An abnormality position calculation unit that calculates an abnormality position of the inspection object on the map based on the detection position on the image in which the abnormality is detected, the shooting altitude, and the shooting position.
  • An abnormality information storage unit that stores at least information about the abnormality including the abnormality position and information for identifying the abnormality in association with each other.
  • the abnormal information storage unit further When it is determined that both abnormalities are the same abnormality with respect to a set of other abnormal information different from the abnormal information for each of the abnormal information stored in the abnormal information storage unit, Information that identifies the same abnormality is associated with and stored in the abnormality information regarding the same abnormality.
  • An inspection system characterized by that.
  • [Item 2] The inspection system according to item 1.
  • An inspection system characterized in that the abnormality information regarding the same abnormality includes information for identifying a plurality of shooting information.
  • the anomaly information about the same anomaly contains a single comment.
  • the inspection system according to item 3. It also has a report generator that outputs information showing inspection results as a report.
  • the report generator Information that identifies the abnormality is read from the abnormality information storage unit without duplication, and the single comment corresponding to the information that identifies the read abnormality is output to the report.
  • An inspection system characterized by that.
  • FIG. 1 is a diagram showing an overall configuration of an inspection system according to an embodiment of the present invention.
  • the inspection system of the present embodiment analyzes an image of an object to be inspected and detects an abnormality.
  • a solar cell module 1 solar panel
  • the object to be inspected is not limited to the solar cell module 1, but may be a concrete structure such as a slope or a dam, a steel structure such as a steel tower or an iron bridge, or a farm or a golf course. It may be a predetermined area or a disaster area at the time of a disaster.
  • the inspection system of the present embodiment includes a flight device 10 that captures the solar cell module 1 that is an inspection target, and an inspection server 30 that analyzes an image captured by the flight device 10.
  • the flight device 10 and the inspection server 30 are connected to each other so as to be able to communicate with each other via the communication network 50.
  • the communication network 50 assumes the Internet, and is constructed by, for example, a wireless communication path, a mobile phone line network, a satellite communication path, a public telephone line network, a dedicated line network, Ethernet (registered trademark), or the like.
  • the flight device 10 includes a camera 12, and while flying, photographs a part or all of the solar cell module 1 that enters the photographing area 122 according to the angle of view 121 of the camera 12.
  • the angle of view 121 of the camera 12 is assumed to be constant for the sake of simplicity, but the angle of view 121 may be changed by changing the focal length of the camera 12.
  • FIG. 2 is a diagram showing a hardware configuration example of the flight device 10.
  • the flight device 10 includes a propeller 18, a propulsion mechanism (assuming a motor 17 in this embodiment) connected to the propeller 18 via an ESC (Electronic Speed Controller) 16, and a flight controller 11 that controls them. Be prepared.
  • the flight device 10 includes a camera 12, and in the present embodiment, the camera 12 is fixed to the airframe.
  • the camera 12 is provided with a lens pointing downward in the vertical direction, and captures only an image directly below in the vertical direction.
  • the camera 12 can capture two types of images, an RGB image that captures visible light and a thermal image that captures infrared rays.
  • the flight device 10 may include two cameras 12 for capturing RGB images and a camera 12 for creating thermal images, or may include three or more cameras 12. Further, various sensors such as a motion sensor may be provided in place of the camera 12 or in addition to the camera 12.
  • the camera 12 may capture two types of images with one camera, or may be configured with a plurality of cameras.
  • the flight controller 11 can have one or more processors 101 such as a programmable processor (in this embodiment, a central processing unit (CPU) is assumed). Further, the flight controller 11 has a memory 102 and can access the memory 102. Memory 102 stores logic, code, and / or program instructions that the flight controller 11 can execute to perform one or more steps.
  • the memory 102 may include, for example, a separable medium such as an SD card or random access memory (RAM) or an external storage device.
  • the data acquired from the camera 12, the sensor, or the like may be directly transmitted and stored in the memory 102.
  • the flight controller 11 also includes various sensors 103.
  • the sensors 103 may include, for example, an inertial sensor (acceleration sensor, gyro sensor), a GPS (Global Positioning System) sensor, a proximity sensor (eg, rider), or a vision / image sensor (eg, camera). ..
  • the flight controller 11 is configured to transmit and / or receive data from one or more external devices, such as a transmitter / receiver (propo), a terminal, a display device, or other remote control. It is possible to communicate with the transmitted / received unit 14.
  • the transmission / reception unit 14 can use any suitable communication means such as wired communication or wireless communication. In the present embodiment, the transmission / reception unit 14 mainly communicates with the inspection server 30.
  • the transmission / reception unit 14 includes, for example, a local area network (LAN), a wide area network (WAN), infrared rays, wireless, WiFi, a point-to-point (P2P) network, a telecommunications network, cloud communication, and the like. One or more of them can be used.
  • the transmitter / receiver 14 may transmit and / or receive one or more of data acquired by sensors, processing results generated by a flight controller, predetermined control data, user commands from a terminal or a remote controller, and the like. it can.
  • FIG. 3 is a diagram showing a software configuration example of the flight controller 11.
  • the flight controller 11 includes an instruction receiving unit 111, a flight control unit 112, a position information acquisition unit 113, a shooting processing unit 114, a shooting information transmission unit 115, a position information storage unit 151, a shooting information storage unit 152, a GPS sensor 104, and a pressure sensor. It includes 105 and a temperature sensor 106.
  • the instruction receiving unit 111, the flight control unit 112, the position information acquisition unit 113, the photographing processing unit 114, and the photographing information transmitting unit 115 are realized by the processor 101 executing a program stored in the memory 102. Further, the position information storage unit 151 and the photographing information storage unit 152 are realized as storage areas provided by the memory 102.
  • the instruction receiving unit 111 receives various commands (hereinafter referred to as flight operation commands) instructing the operation of the flight device 10.
  • flight operation commands various commands (hereinafter referred to as flight operation commands) instructing the operation of the flight device 10.
  • the instruction receiving unit 111 receives the flight operation command from the inspection server 30, but the flight operation command may be received from a transmitter / receiver such as a radio.
  • the flight control unit 112 controls the operation of the flight device 10.
  • the flight control unit 112 adjusts, for example, the spatial arrangement, velocity, and / or acceleration of the flight device 10 having 6 degrees of freedom (translational motions x, y and z, and rotational motions ⁇ x, ⁇ y and ⁇ z). , Control the motor 17 via the ESC 16.
  • the motor 17 rotates the propeller 18 to generate lift for the flight device 10.
  • the flight control unit 112 can control one or more of the states of the mounting unit and the sensors.
  • the flight control unit 112 controls the operation of the flight device 10 in response to the flight operation command received by the instruction receiving unit 111. Further, the flight control unit 112 can perform various controls so that the flight device 10 continues the flight without depending on a command in order to enable autonomous flight.
  • the position information acquisition unit 113 acquires position information indicating the current position of the flight device 10.
  • the position information includes the position on the map of the flight device 10 (represented by latitude and longitude) and the altitude of the flight device 10.
  • the sensors 103 include a GPS sensor 104, and the position information acquisition unit 113 can calculate the position of the flight device 10 on the map from the radio waves received by the GPS sensor 104 from the GPS satellites.
  • the sensors 103 include an atmospheric pressure sensor 105 and a temperature sensor 106, and the position information acquisition unit 113 includes the atmospheric pressure measured by the atmospheric pressure sensor 105 before the flight (hereinafter referred to as the reference pressure) and the flight.
  • the flight altitude of the flight device 10 is calculated based on the difference from the atmospheric pressure measured by the pressure sensor 105 (hereinafter referred to as the current pressure) and the temperature measured by the temperature sensor 106 during flight.
  • the position information acquisition unit 113 obtains the position (latitude / longitude) on the map of the flight device 10 acquired by using the GPS sensor 104 and the flight altitude of the flight device 10 acquired by using the pressure sensor 105 and the temperature sensor 106. It is stored in the position information storage unit 151 of the memory 102.
  • FIG. 4 is a diagram showing a configuration example of the position information storage unit 151. As shown in FIG. 4, the position information storage unit 151 has the latitude and longitude indicating the current position of the flight device 10, the flight altitude calculated as described above, the reference pressure measured before the flight, and the present measured during the flight. The pressure and the temperature measured during the flight are stored.
  • the photographing processing unit 114 controls the camera 12 to photograph a part or all of the solar cell module 1 and acquires the RGB image and the thermal image photographed by the camera 12.
  • the photographing processing unit 114 shall perform photographing every predetermined time (for example, an arbitrary time such as 5 seconds or 30 seconds can be specified).
  • both the RGB image and the thermal image captured by the camera 12 are flown so that the upper part in the Y-axis direction is north and the right side in the X-axis direction is east.
  • the imaging processing unit 114 shall perform imaging.
  • the photographing processing unit 114 may perform photographing every predetermined moving distance (for example, an arbitrary distance such as 3 meters or 10 meters can be specified), or an instruction from the inspection server 30. It may be taken according to the situation.
  • the photographing processing unit 114 For each of the acquired RGB image and thermal image, the photographing processing unit 114 captures the shooting date and time, the latitude and longitude (shooting position) on the map of the flight device 10 at that time, and the flight altitude of the flight device 10 at that time (shooting position).
  • An image hereinafter, an image to which these information is attached is referred to as shooting information
  • shooting information is attached (shooting altitude) and stored in the shooting information storage unit 152.
  • FIG. 5 is a diagram showing a configuration example of the shooting information storage unit 152.
  • the shooting information storage unit 152 stores the shooting information 1521 related to the RGB image and the shooting information 1522 related to the thermal image, and both the shooting information 1521 and 1522 include the shooting date and time, the shooting position, the shooting altitude, and the image data. ..
  • the shooting information 1521 and 1522 can be stored, for example, as a file on the file system. Further, the shooting date and time, the shooting position, and the shooting altitude can be stored as, for example, Exif (Exchangeable image file format) information of a JPEG (Joint Photographic Experts Group) image file.
  • Exif Exchangeable image file format
  • the shooting information transmission unit 115 transmits the image taken by the camera 12 to the inspection server 30.
  • the shooting information transmission unit 115 shall transmit the shooting information in which the shooting date and time, the shooting position, and the shooting altitude are attached to the RGB image and the thermal image to the inspection server 30.
  • FIG. 6 is a diagram showing a hardware configuration example of the inspection server 30.
  • the inspection server 30 includes a CPU 301, a memory 302, a storage device 303, a communication device 304, an input device 305, and an output device 306.
  • the storage device 303 stores various data and programs, such as a hard disk drive, a solid state drive, and a flash memory.
  • the communication device 304 communicates with another device via the communication network 50.
  • the communication device 304 includes, for example, an adapter for connecting to Ethernet (registered trademark), a modem for connecting to a public telephone network, a wireless communication device for wireless communication, a USB connector for serial communication, an RS232C connector, and the like. Consists of including.
  • the input device 305 is, for example, a keyboard, a mouse, a touch panel, buttons, a microphone, or the like for inputting data.
  • the output device 306 is, for example, a display, a printer, a speaker, or the like that outputs data.
  • FIG. 7 is a diagram showing a software configuration example of the inspection server 30.
  • the inspection server 30 includes a flight control unit 311, a shooting information receiving unit 312, an abnormality detection unit 313, an abnormality position calculation unit 314, a duplicate deletion unit 315, a report creation unit 316, a shooting information storage unit 351 and an abnormality information storage unit 352. ..
  • the CPU 301 included in the inspection server 30 is stored in the storage device 303. It is realized by reading the program into the memory 302 and executing it, and the photographing information storage unit 351 and the abnormality information storage unit 352 are realized as a part of the storage area provided by the memory 302 and the storage device 303 included in the inspection server 30. ..
  • the flight control unit 311 controls the flight of the flight device 10.
  • the flight control unit 311 operates the flight device 10 by transmitting a flight operation command to the flight device 10.
  • the flight control unit 311 can accept the designation of the flight route on the map from the operator and transmit the flight operation command to fly on the accepted flight route.
  • the flight control unit 311 can also determine the flight path of the flight device 10 so that the entire solar cell module 1 to be inspected can be photographed by the plurality of photographing areas 122 while including duplication.
  • the shooting information receiving unit 312 receives the shooting information transmitted from the flight device 10.
  • the shooting information receiving unit 312 stores the received shooting information in the shooting information storage unit 351.
  • the configuration of the photographing information storage unit 351 is assumed to be the same as the configuration of the photographing information storage unit 152 of the flight device 10 shown in FIG.
  • the shooting information storage unit 351 included in the inspection server 30 may store the shooting information 1521 and 1522 in association with the information that identifies the flight device 10 that is the transmission source of the shooting information.
  • the abnormality detection unit 313 analyzes the image taken by the flight device 10 and detects an abnormality in the solar cell module 1 to be inspected.
  • the abnormality detection unit 313 detects an abnormality based on at least one of an RGB image and a thermal image.
  • the abnormality detection unit 313 performs learning using machine learning such as a neural network using an image of the solar cell module 1 in which an abnormality has occurred in the past as a teacher signal, and uses an RGB image or a thermal image as an input signal. Abnormality can be determined.
  • the abnormality detection unit 313 stores a normal image in the memory 302 in advance, compares the normal image with the RGB image or the thermal image, and is composed of pixels having a difference of a predetermined value or more.
  • the abnormality detection unit 313 can detect the abnormality portion from the image by using a known technique.
  • the abnormality detection unit 313 registers the detected abnormality information (hereinafter referred to as abnormality information) in the abnormality information storage unit 352.
  • FIG. 8 is a diagram showing a configuration example of abnormal information registered in the abnormal information storage unit 352.
  • the abnormality information includes information for specifying shooting information (in the example of FIG. 8, it is indicated by an “image” and can be, for example, a JPEG file name), a shooting position, and shooting.
  • the altitude, the position where the abnormality is detected on the image hereinafter referred to as the image abnormality position
  • the position of the abnormality on the map hereinafter simply referred to as the abnormality position
  • the shooting position and shooting altitude are obtained from the shooting information.
  • the image abnormality position is a position on the image specified by the abnormality detection unit 313.
  • the image abnormal position includes the coordinates of two vertices indicating a rectangle, but the image abnormal position may include, for example, only one coordinate, or many.
  • the coordinates of the three anomalies that make up the polygon may be included, or the center coordinates that represent the rectangle and the two vertices may be included. That is, the image abnormal position may be any information representing a point or a geometric figure.
  • the abnormal position is the image abnormal position converted into latitude and longitude. The conversion to latitude and longitude is performed by the abnormal position calculation unit 314.
  • the abnormality position calculation unit 314 calculates the position of the abnormality detected by the abnormality detection unit 313 on the map (hereinafter, simply referred to as an abnormality position).
  • the abnormal position calculation unit 314 converts the abnormal image position into the abnormal position based on the angle of view of the camera 12, the shooting altitude, and the shooting position. The details of the abnormal position calculation process by the abnormal position calculation unit 314 will be described later.
  • the abnormal position calculation unit 314 updates the abnormal information registered in the abnormal information storage unit 352 according to the calculated abnormal position.
  • the duplicate deletion unit 315 deletes duplicate abnormality information.
  • the duplicate deletion unit 315 determines that the two abnormality information is duplicated depending on whether or not the abnormality positions are close (within a predetermined distance), and deletes one of the duplicate abnormality information. The details of the duplicate deletion process by the duplicate deletion unit 315 will be described later.
  • the report creation unit 316 outputs information (hereinafter referred to as a report) indicating the inspection result of the solar cell module 1.
  • the report creation unit 316 creates an overall view (visible image and infrared image) of the solar cell module 1 by synthesizing the RGB image or the thermal image included in the shooting information, and marks the abnormal position included in the abnormal information. And output the comment.
  • the report creation unit 316 may, for example, create a Web page described by HTML (HyperText Markup Language) or a PDF (Portable Document Format) file. However, printing may be performed from an output device such as a printer.
  • FIG. 9 is a diagram illustrating a flow of processing for photographing the solar cell module 1.
  • the flight control unit 112 of the flight device 10 controls the operation of the flight device 10 in response to the flight operation command from the inspection server 30, and the flight device 10 is periodically in flight. Will be executed.
  • the photographing processing unit 114 controls the camera 12 to acquire the RGB image and the thermal image captured by the camera 12 (S201), and the position information acquisition unit 113 includes the GPS sensor 104, the pressure sensor 105, and the pressure sensor 105. Based on the signal from the temperature sensor 106, the shooting position and the shooting altitude are obtained (S202).
  • the shooting information transmission unit 115 creates shooting information with the current date and time (shooting date and time), shooting position, and shooting altitude attached to the RGB image and thermal image acquired from the camera 12, and transmits the shooting information to the inspection server 30 (S203). ).
  • the shooting information receiving unit 312 receives the shooting information transmitted from the flight device 10 (S204), and registers the received shooting information in the shooting information storage unit 351 (S205).
  • the images (RGB images and thermal images) taken by the flight device 10 are sequentially registered in the shooting information storage unit 351 together with the shooting date and time, the shooting position, and the shooting altitude.
  • FIG. 10 is a diagram showing a flow of inspection processing executed by the inspection server 30.
  • the abnormality detection unit 313 detects an abnormality in the solar cell module 1 by performing image analysis of image data included in the shooting information for each of the shooting information stored in the shooting information storage unit 351 (S211).
  • the abnormality detection unit 313 associates the shooting information in which the abnormality is detected with the information for identifying the shooting information, and determines the shooting position and shooting altitude included in the shooting information and the abnormality.
  • Abnormal information including the detected position on the image (image abnormal position) is created and registered in the abnormal information storage unit 352 (S213).
  • the abnormal position calculation unit 314 calculates the abnormal position related to the abnormal information (S214).
  • FIG. 11 is a diagram showing a flow of calculation processing of the abnormal position.
  • the abnormal position calculation unit 314 performs the following processing for each of the abnormal information stored in the abnormal information storage unit 352.
  • the abnormal position calculation unit 314 calculates the actual distance (m) on the map per pixel in the image based on the angle of view and resolution of the camera 12 and the shooting altitude to obtain the pixel distance (S2141). In this embodiment, it is assumed that the angle of view and the resolution of the camera 12 are set in advance.
  • the abnormal position calculation unit 314 calculates the distance in the longitude direction by multiplying the difference between the X coordinate value for each coordinate included in the image abnormal position and the X coordinate value at the center of the image data by the pixel distance (S2142).
  • the abnormal position calculation unit 314 adds the distance in the longitude direction to the longitude of the shooting position to obtain the longitude of the abnormal position (S2143).
  • the abnormal position calculation unit 314 calculates the distance in the latitude direction by multiplying the difference between the Y coordinate value for each coordinate included in the abnormal image position and the Y coordinate value at the center of the image data by the pixel distance (S2144). ..
  • the abnormal position calculation unit 314 adds the distance in the latitude direction to the latitude of the shooting position to obtain the latitude of the abnormal position (S2145).
  • the abnormal position calculation unit 314 updates the abnormal position of the abnormal information based on the calculated latitude and longitude of the abnormal position, and registers the updated abnormal information in the abnormal information storage unit 352 (S2146). As described above, the abnormal position can be obtained from the image abnormal position for each abnormal information.
  • FIG. 12 is a diagram showing a flow of processing for deleting duplicate abnormality information.
  • the duplicate deletion unit 315 performs the following processing on each of the abnormality information stored in the abnormality information storage unit 352 for a set with other abnormality information different from the abnormality information. That is, the duplicate deletion unit 315 calculates the distance between the abnormal positions (distance between abnormalities) included in the two abnormal information (S2151), and when the calculated distance between abnormalities is equal to or less than a predetermined threshold value (S2151). S2152), the other abnormal information is deleted from the abnormal information storage unit 352 (S2153). By repeating the above processing, it is possible to delete the duplicated abnormality information from the abnormality information storage unit 352, assuming that the two abnormalities whose distances are within a predetermined distance are the same abnormality.
  • FIG. 13 is a diagram illustrating a state in which the same abnormality is included in two images.
  • FIG. 13 shows a state in which one abnormality 41 has occurred in the solar cell module 1. It is assumed that the camera 12 has taken two shots, and the portions in the two shooting areas 122-1 and 122-2 are taken as RGB images 421 and 422.
  • the abnormality 41 is imaged at the position of the X coordinate value 450 and the Y coordinate value 250 (image abnormality position 41-1), and in the RGB image 422, the X coordinate value 50 and the Y coordinate are captured.
  • the abnormality 42 is imaged at the position of the value 50 (image abnormality position 41-2).
  • the abnormal position is calculated. Assuming that the centers 431 and 432 of each image are the shooting positions in the unit 314, the actual distance per pixel obtained from the shooting altitude and the angle of view of the camera 12 with respect to the distances in the X and Y directions on the image. The latitude and longitude of the image abnormal positions 41-1 and 41-2 are obtained from the deviation from the shooting position, and the image abnormal positions 41-1 and 41-2 indicate the same position of the abnormality 41 based on this latitude and longitude. It is judged whether or not it is. This makes it possible to automatically determine whether or not the abnormalities detected from the different images 421 and 422 are the same.
  • the report creation unit 316 creates a report regarding the inspection of the solar cell module 1 (S216).
  • FIG. 14 is a diagram showing a flow of a report creation process relating to inspection.
  • FIG. 15 is a diagram showing an example of a report 61 created by the report creation unit 316.
  • the report creation unit 316 accepts the input of comments about each abnormality information from the operator of the inspection server 30, the user of the user terminal accessing the inspection server 30, and the like (S2161).
  • the report creation unit 316 updates the abnormality information according to the received comment, and registers the updated abnormality information in the abnormality information storage unit 352.
  • the report creation unit 316 synthesizes the image data included in each shooting information stored in the shooting information storage unit 351 to create one image including the entire solar cell module 1 (S2162).
  • the abnormal position calculation unit 314 performs the same process as the abnormal position calculation process shown in FIG. 11 to the upper left of the image. And, the latitude and longitude for each coordinate in the lower right can be calculated, and the image can be placed at the position corresponding to the calculated latitude and longitude for composition.
  • the report creation unit 316 obtains the center of the abnormal position included in the abnormal information for each abnormal information registered in the abnormal information storage unit 352, and draws a predetermined figure at the position on the composite image indicated by the center. (S2163).
  • the report creation unit 316 outputs a composite image in which the abnormal positions are plotted as described above to the report 61 (S2164).
  • the composite image 62 is output in the upper part of the report 61.
  • a circular figure is output at the center 621 of the abnormal position.
  • the report creation unit 316 For each abnormality information, the report creation unit 316 draws a figure indicating an abnormality position included in the abnormality information with respect to the image data included in the corresponding shooting information (S2165). In the present embodiment, the abnormal position is drawn as a rectangle.
  • the report creation unit 316 outputs an image in which a figure is drawn to the report 61 (S2166), and outputs a comment included in the abnormality information (S2167).
  • one RGB image 63 in which a rectangle 631 indicating an abnormal position is drawn is output in the lower part of the report 61, and a comment 64 is output in the lower part thereof.
  • the RGB image 63 and the comment 64 for one abnormality information are output, but the RGB image 63 and the comment 64 and the thermal image (not shown) and the comment 64 for all the abnormality information are output. It may be. Further, the report creation unit 316 may output the RGB image and the thermal image in which no abnormality is detected to the report 61.
  • the camera 12 is fixed to the lower part of the machine body, but the present invention is not limited to this, and the camera 12 may be movably mounted via a gimbal.
  • the shooting information may include the shooting direction of the camera 12.
  • the abnormality is detected by using both the RGB image and the thermal image, but the abnormality may be detected by using only one of the RGB image and the thermal image.
  • the barometric pressure sensor 105 and the temperature sensor 106 are used to obtain the shooting altitude, but the present invention is not limited to this, and a known method may be used to obtain the shooting altitude.
  • the duplicated abnormality information is deleted from the abnormality information storage unit 352, but the information (abnormal ID) for identifying the detected abnormality is assigned without the deletion, and the abnormality ID is assigned to the abnormality information. You may try to register.
  • the abnormality information storage unit 352 is associated with the abnormality ID to store a single comment and information that identifies a plurality of shooting information, and the report creation unit 316 is stored in the abnormality information storage unit 352.
  • the abnormal ID can be read without duplication, and the comment corresponding to the read abnormal ID can be output to the report 61.
  • the shooting information from the flight device 10 is transmitted to the inspection server 30 each time the camera 12 takes a picture, but the flight device 10 stores the shooting information in the shooting information storage unit 152.
  • the photographed information stored in the photographed information storage unit 152 may be transmitted to the inspection server 30 periodically during the flight or at once after the flight is completed.
  • the image taken by the flight device 10 is north on the Y-axis direction and east on the right in the X-axis direction, but the present invention is not limited to this, and the flight device 10 is not limited to this. You may shoot in the posture.
  • the northward angle (the angle at which the RGB image and the thermal image are rotated so as to be north in the Y-axis direction) is stored in the shooting information, and the image is rotated or the angle.
  • the latitude and longitude of the abnormal position may be calculated in consideration of.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Geophysics (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Studio Devices (AREA)
  • Photovoltaic Devices (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Investigating Or Analyzing Materials Using Thermal Means (AREA)

Abstract

【課題】対象物の検査を飛行体の利用によって自動化することができるようにする。 【解決手段】検査システムであって、カメラを備える飛行体が検査対象物を撮影した画像、飛行体の撮影高度、および飛行体の地図上の撮影位置を受信する撮影情報受信部と、画像を解析して検査対象物の異常を検出する異常検出部と、異常が検出された画像上の検出位置、撮影高度、および撮影位置に基づいて、地図上における検査対象物の異常位置を算出する異常位置算出部と、少なくとも異常位置を含む異常に関する異常情報および異常を識別する情報を対応付けて記憶する異常情報記憶部と、を備え、異常情報記憶部は、さらに、異常情報記憶部に記憶されている異常情報のそれぞれについて、異常情報とは異なる他の異常情報との組に対して、両異常が同一の異常であると判定した場合には、当該同一の異常に関する異常情報に、同一の異常を識別する情報を関連付けて記憶する。

Description

検査システム
 本発明は、検査システムに関する。
 近年、ドローン(Drone)や無人航空機(UAV:Unmanned Aerial Vehicle)などの飛行体(以下、「飛行体」と総称する。)が産業に利用され始めている。こうした中で、特許文献1には、屋外に設置された太陽電池モジュールの検査を飛行体の利用によって自動化することのできる太陽電池検査システムが開示されている。
特開2017-103908号公報
 特許文献1の技術は、予め設定された飛行計画に従って、飛行体を最初の撮影位置へ向けて移動させ、赤外線カメラによって熱画像データを取得し解析することとしている。
 しかしながら、近年、再生可能エネルギーの重要性が高まり、太陽電池モジュールや太陽電池モジュールを利用した発電施設が大型化する傾向がある。特許文献1に開示されている方法では、このようなニーズに対応することができない。
 本発明はこのような背景を鑑みてなされたものであり、対象物の検査を飛行体の利用によって自動化することのできる新たな技術を提供することを一つの目的とする。
 上記課題を解決するための本発明の主たる発明は、検査対象物を検査する検査システムであって、カメラを備える飛行体が前記検査対象物を撮影した画像、前記飛行体の撮影高度、および前記飛行体の地図上の撮影位置を受信する撮影情報受信部と、前記画像を解析して前記検査対象物の異常を検出する異常検出部と、前記異常が検出された前記画像上の検出位置、前記撮影高度、および前記撮影位置に基づいて、前記地図上における前記検査対象物の異常位置を算出する異常位置算出部と、少なくとも前記異常位置を含む前記異常に関する情報および前記異常を識別する情報を対応付けて記憶する異常情報記憶部と、を備え、前記異常情報記憶部は、さらに、前記異常情報記憶部に記憶されている前記異常情報のそれぞれについて、当該異常情報とは異なる他の異常情報との組に対して、両異常が同一の異常であると判定された場合には、当該同一の異常に関する異常情報に、同一の異常を識別する情報を関連付けて記憶することとする。
 その他本願が開示する課題やその解決方法については、発明の実施形態の欄および図面により明らかにされる。
 本発明によれば、対象物の検査を飛行体の利用によって自動化することができる。
本発明の一実施形態に係る検査システムの全体構成を示す図である。 飛行装置10のハードウェア構成例を示す図である。 フライトコントローラ11のソフトウェア構成例を示す図である。 位置情報記憶部151の構成例を示す図である。 撮影情報記憶部152の構成例を示す図である。 検査サーバ30のハードウェア構成例を示す図である。 検査サーバ30のソフトウェア構成例を示す図である。 異常情報記憶部352に登録される異常情報の構成例を示す図である。 太陽電池モジュール1を撮影する処理の流れを説明する図である。 検査サーバ30により実行される検査処理の流れを示す図である。 異常位置の算出処理の流れを示す図である。 重複した異常情報を削除する処理の流れを示す図である。 同一の異常が2つの画像に含まれている状態を説明する図である。 検査に関するレポートの作成処理の流れを示す図である。 レポート作成部316により作成されるレポート61の一例を示す図である。
 本発明の実施形態の内容を列記して説明する。本発明の実施の形態による飛行体は、以下のような構成を備える。
[項目1]
 検査対象物を検査する検査システムであって、
 カメラを備える飛行体が前記検査対象物を撮影した画像、前記飛行体の撮影高度、および前記飛行体の地図上の撮影位置を受信する撮影情報受信部と、
 前記画像を解析して前記検査対象物の異常を検出する異常検出部と、
 前記異常が検出された前記画像上の検出位置、前記撮影高度、および前記撮影位置に基づいて、前記地図上における前記検査対象物の異常位置を算出する異常位置算出部と、
 少なくとも前記異常位置を含む前記異常に関する情報および前記異常を識別する情報を対応付けて記憶する異常情報記憶部と、
 を備え、
 前記異常情報記憶部は、さらに、
 前記異常情報記憶部に記憶されている前記異常情報のそれぞれについて、当該異常情報とは異なる他の異常情報との組に対して、両異常が同一の異常であると判定された場合には、当該同一の異常に関する異常情報に、同一の前記異常を識別する情報を関連付けて記憶する、
 ことを特徴とする検査システム。
[項目2]
 項目1に記載の検査システムであって、
 前記同一の異常に関する異常情報は、複数の撮影情報を特定する情報を含む、 ことを特徴とする検査システム。
[項目3]
 項目1または2に記載の検査システムであって、
 前記同一の異常に関する異常情報は、単一のコメントを含む
 ことを特徴とする検査システム。
[項目4]
 項目3に記載の検査システムであって、
 検査結果を示す情報をレポートとして出力するレポート生成部をさらに備え、
 前記レポート生成部は、
 前記異常情報記憶部から重複なく前記異常を識別する情報を読み出し、当該読み出した異常を識別する情報に対応する前記単一コメントを前記レポートに出力する、
 ことを特徴とする検査システム。
==概要・全体構成==
 図1は、本発明の一実施形態に係る検査システムの全体構成を示す図である。本実施形態の検査システムは、検査対象物を撮影した画像を解析して異常を検出するものである。本実施形態では、検査対象物の一例として太陽電池モジュール1(太陽光パネル)を想定する。なお、検査対象物としては太陽電池モジュール1に限らず、法面やダムなどのコンクリート構造物であってもよいし、鉄塔や鉄橋などの鋼構造物であってもよいし、農場やゴルフ場等所定の地域や災害時の被災地域であってもよい。
 本実施形態の検査システムは、検査対象物である太陽電池モジュール1を撮影する飛行装置10と、飛行装置10が撮影した画像を解析する検査サーバ30とを含んで構成される。飛行装置10と検査サーバ30とは通信ネットワーク50を介して相互に通信可能に接続されている。本実施形態では通信ネットワーク50はインターネットを想定し、例えば無線通信路、携帯電話回線網、衛星通信路、公衆電話回線網、専用回線網、イーサネット(登録商標)などにより構築される。
 飛行装置10はカメラ12を備え、飛行しながらカメラ12の画角121に応じて、撮影領域122に入る太陽電池モジュール1の一部または全部を撮影する。本実施形態では、説明を簡単にするためカメラ12の画角121は一定であるものとするが、カメラ12の焦点距離を変動させて画角121を変化させるようにすることもできる。
(飛行装置10)
 図2は、飛行装置10のハードウェア構成例を示す図である。飛行装置10は、プロペラ18と、プロペラ18にESC(Electronic Speed Controller)16を介して接続された推進機構(本実施形態ではモータ17を想定する。)と、これらを制御するフライトコントローラ11とを備える。
 飛行装置10はカメラ12を備え、本実施形態では、カメラ12は機体に固定される。カメラ12は、鉛直方向下向きのレンズを備え、鉛直方向に真下の画像のみを撮影するものとする。カメラ12は、可視光線を捉えたRGB画像と、赤外線を捉えたサーマル画像との2種類の画像を撮影することができる。なお、飛行装置10は、RGB画像を撮影するカメラ12と、サーマル画像を作成するカメラ12との2台を備えるようにしてもよいし、3台以上のカメラ12を備えるようにしてもよい。また、カメラ12に代えて、またはカメラ12に加えて、人感センサーなどの各種のセンサを備えるようにしてもよい。カメラ12は、一台にて2種類の画像を撮像することとしてもよいし、複数台で構成することとしてもよい。
 フライトコントローラ11は、プログラマブルプロセッサ(本実施形態では、中央演算処理装置(CPU)を想定する。)などの1つ以上のプロセッサ101を有することができる。また、フライトコントローラ11は、メモリ102を有しており、当該メモリ102にアクセス可能である。メモリ102は、1つ以上のステップを行うためにフライトコントローラ11が実行可能であるロジック、コード、および/またはプログラム命令を記憶する。メモリ102は、例えば、SDカードやランダムアクセスメモリ(RAM)などの分離可能な媒体または外部の記憶装置を含んでいてもよい。カメラ12やセンサなどから取得したデータは、メモリ102に直接に伝達されかつ記憶されてもよい。
 フライトコントローラ11はまた、各種のセンサ類103を備える。本実施形態においてセンサ類103は、例えば、慣性センサ(加速度センサ、ジャイロセンサ)、GPS(Global Positioning System)センサ、近接センサ(例えば、ライダー)、またはビジョン/イメージセンサ(例えば、カメラ)を含み得る。
 フライトコントローラ11は、1つ以上の外部のデバイス(例えば、送受信機(プロポ)、端末、表示装置、または他の遠隔の制御器などである。)からのデータを送信および/または受け取るように構成された送受信部14と通信可能である。送受信部14は、有線通信または無線通信などの任意の適当な通信手段を使用することができる。本実施形態では、送受信部14は、主に検査サーバ30と通信を行う。送受信部14は、例えば、ローカルエリアネットワーク(Local Area Network;LAN)、ワイドエリアネットワーク(Wide Area Network;WAN)、赤外線、無線、WiFi、ポイントツーポイント(P2P)ネットワーク、電気通信ネットワーク、クラウド通信などのうちの1つ以上を利用することができる。送受信部14は、センサ類で取得したデータ、フライトコントローラが生成した処理結果、所定の制御データ、端末または遠隔の制御器からのユーザコマンドなどのうちの1つ以上を送信および/または受け取ることもできる。
 図3は、フライトコントローラ11のソフトウェア構成例を示す図である。フライトコントローラ11は、指示受信部111、飛行制御部112、位置情報取得部113、撮影処理部114、撮影情報送信部115、位置情報記憶部151、撮影情報記憶部152、GPSセンサ104、気圧センサ105および温度センサ106を備える。
 なお、指示受信部111、飛行制御部112、位置情報取得部113、撮影処理部114および撮影情報送信部115は、プロセッサ101がメモリ102に格納されているプログラムを実行することにより実現される。また、位置情報記憶部151および撮影情報記憶部152は、メモリ102の提供する記憶領域として実現される。
 指示受信部111は、飛行装置10の動作を指示する各種のコマンド(以下、飛行操作コマンドという。)を受け付ける。本実施形態では、指示受信部111は、検査サーバ30から飛行操作コマンドを受信することを想定するが、プロポなどの送受信機から飛行操作コマンドを受信するようにしてもよい。
 飛行制御部112は、飛行装置10の動作を制御する。飛行制御部112は、例えば、6自由度(並進運動x、yおよびz、並びに回転運動θx、θyおよびθz)を有する飛行装置10の空間的配置、速度、および/または加速度を調整するために、ESC16を経由してモータ17を制御する。モータ17によりプロペラ18が回転することで飛行装置10の揚力を生じさせる。また、飛行制御部112は、搭載部、センサ類の状態のうちの1つ以上を制御することができる。本実施形態では、飛行制御部112は、指示受信部111が受信した飛行操作コマンドに応じて飛行装置10の動作を制御するものとする。また、飛行制御部112は、自律飛行を可能とするべく、コマンドによらずに飛行装置10が飛行を継続するように各種の制御を行うこともできる。
 位置情報取得部113は、飛行装置10の現在位置を示す位置情報を取得する。本実施形態では、位置情報には、飛行装置10の地図上の位置(緯度経度で表される。)と、飛行装置10の高度とが含まれるものとする。センサ類103にはGPSセンサ104が含まれており、位置情報取得部113は、GPSセンサ104がGPS衛星から受信した電波から、飛行装置10の地図上の位置を算出することができる。また、センサ類103には、気圧センサ105および温度センサ106が含まれており、位置情報取得部113は、飛行前に気圧センサ105により測定した大気圧(以下、基準気圧という。)と、飛行中に気圧センサ105により測定した大気圧(以下、現在気圧という。)との差分と、飛行中に温度センサ106により測定した気温とに基づいて、飛行装置10の飛行高度を計算する。位置情報取得部113は、GPSセンサ104を用いて取得した飛行装置10の地図上の位置(緯度経度)と、気圧センサ105および温度センサ106を用いて取得した飛行装置10の飛行高度とを、メモリ102の位置情報記憶部151に格納する。図4は位置情報記憶部151の構成例を示す図である。図4に示すように、位置情報記憶部151には、飛行装置10の現在位置を示す緯度経度、上記のようにして計算した飛行高度、飛行前に測定した基準気圧、飛行中に測定した現在気圧、および飛行中に測定した気温が格納される。
 撮影処理部114は、カメラ12を制御して太陽電池モジュール1の一部または全部を撮影させ、カメラ12が撮影したRGB画像およびサーマル画像を取得する。本実施形態では、撮影処理部114は、所定の時間(例えば、5秒、30秒など任意の時間を指定することができる。)ごとに撮影を行うようにするものとする。また、本実施形態では、説明を簡単にするため、カメラ12が撮影するRGB画像およびサーマル画像のいずれについても、Y軸方向の上が北、X軸方向の右が東となるように、飛行制御部112により姿勢を決めた上で、撮影処理部114が撮影を行うものとする。なお、撮影処理部114は、所定の移動距離(例えば、3メートル、10メートルなど任意の距離を指定することができる。)ごとに撮影を行うようにしてもよいし、検査サーバ30からの指示に応じて撮影するようにしてもよい。
 撮影処理部114は、取得したRGB画像およびサーマル画像のそれぞれについて、撮影された撮影日時ならびにその時点における飛行装置10の地図上の緯度経度(撮影位置)およびその時点における飛行装置10の飛行高度(撮影高度)を付帯させて(以下、これらの情報が付帯された画像を撮影情報という。)、撮影情報記憶部152に格納する。
 図5は撮影情報記憶部152の構成例を示す図である。撮影情報記憶部152は、RGB画像に係る撮影情報1521およびサーマル画像に係る撮影情報1522を記憶しており、撮影情報1521および1522のいずれも、撮影日時、撮影位置および撮影高度ならびに画像データを含む。撮影情報1521および1522は、例えば、ファイルシステム上のファイルとして記憶させることができる。また、撮影日時、撮影位置および撮影高度は、例えば、JPEG(Joint Photographic Experts Group)画像ファイルのExif(Exchangeable image file format)情報として格納することができる。
 撮影情報送信部115は、カメラ12が撮影した画像を検査サーバ30に送信する。撮影情報送信部115は、RGB画像およびサーマル画像に、撮影日時、撮影位置および撮影高度を付帯させた撮影情報を検査サーバ30に送信するものとする。
(検査サーバ30)
 図6は、検査サーバ30のハードウェア構成例を示す図である。検査サーバ30は、CPU301、メモリ302、記憶装置303、通信装置304、入力装置305、出力装置306を備える。記憶装置303は、各種のデータやプログラムを記憶する、例えばハードディスクドライブやソリッドステートドライブ、フラッシュメモリなどである。通信装置304は、通信ネットワーク50を介して他の装置と通信を行う。通信装置304は、例えばイーサネット(登録商標)に接続するためのアダプタ、公衆電話回線網に接続するためのモデム、無線通信を行うための無線通信機、シリアル通信のためのUSBコネクタやRS232Cコネクタなどを含んで構成される。入力装置305は、データを入力する、例えばキーボードやマウス、タッチパネル、ボタン、マイクロフォンなどである。出力装置306は、データを出力する、例えばディスプレイやプリンタ、スピーカなどである。
 図7は、検査サーバ30のソフトウェア構成例を示す図である。検査サーバ30は、飛行制御部311、撮影情報受信部312、異常検出部313、異常位置算出部314、重複削除部315、レポート作成部316、撮影情報記憶部351および異常情報記憶部352を備える。
 なお、飛行制御部311、撮影情報受信部312、異常検出部313、異常位置算出部314、重複削除部315およびレポート作成部316は、検査サーバ30が備えるCPU301が記憶装置303に記憶されているプログラムをメモリ302に読み出して実行することにより実現され、撮影情報記憶部351および異常情報記憶部352は、検査サーバ30の備えるメモリ302および記憶装置303が提供する記憶領域の一部として実現される。
 飛行制御部311は、飛行装置10を飛行させる制御を行う。本実施形態では、飛行制御部311は、飛行装置10に対して飛行操作コマンドを送信することにより飛行装置10を操作する。飛行制御部311は、例えば、オペレータから地図上における飛行経路の指定を受け付けて、受け付けた飛行経路上を飛行するように飛行操作コマンドを送信することができる。また、飛行制御部311は、複数の撮影領域122によって検査対象となっている太陽電池モジュール1の全体を重複を含みながら撮影できるように、飛行装置10の飛行経路を決定することもできる。
 撮影情報受信部312は、飛行装置10から送信される撮影情報を受信する。撮影情報受信部312は、受信した撮影情報を撮影情報記憶部351に格納する。なお、本実施形態では、撮影情報記憶部351の構成は、図5に示す飛行装置10の撮影情報記憶部152と同一の構成であるものとする。なお、検査サーバ30が備える撮影情報記憶部351は、撮影情報の送信元である飛行装置10を特定する情報に対応付けて、撮影情報1521および1522を記憶するようにしてもよい。
 異常検出部313は、飛行装置10が撮影した画像を解析して、検査対象となる太陽電池モジュール1の異常を検出する。異常検出部313は、RGB画像およびサーマル画像の少なくともいずれかに基づいて異常を検出する。異常検出部313は、例えば、過去に異常が発生した太陽電池モジュール1を撮影した画像を教師信号としてニューラルネットワーク等の機械学習を用いた学習を行っておき、RGB画像またはサーマル画像を入力信号として異常を判定することができる。また、異常検出部313は、正常時の画像をメモリ302に予め記憶しておき、正常時の画像と、RGB画像またはサーマル画像とを比較して、所定値以上の差分のある画素により構成される領域を認識し、当該領域の面積が所定値以上となるものについて異常と判定することもできる。なお、異常検出部313は、公知の技術を用いて画像から異常部分を検出するようにすることができる。異常検出部313は、検出した異常に関する情報(以下、異常情報という。)を異常情報記憶部352に登録する。
 図8は、異常情報記憶部352に登録される異常情報の構成例を示す図である。同図に示すように、異常情報には、撮影情報を特定するための情報(図8の例では、「画像」で示され、例えばJPEGファイル名とすることができる。)、撮影位置、撮影高度、画像上における異常が検出された位置(以下、画像異常位置という。)、地図上における異常の位置(以下、単に異常位置という。)、当該異常に対するコメントが含まれる。撮影位置および撮影高度は、撮影情報から取得される。画像異常位置は、異常検出部313により特定された画像上の位置である。図8では、画像異常位置に矩形を示す2つの頂点の座標が含まれた例が示されているが、画像異常位置には、例えば1つの座標のみが含まれるようにしてもよいし、多角形を構成する3つ異常の座標が含まれるようにしてもよいし、楕円形を表す中心座標と2つの半径とが含まれるようにしてもよい。すなわち、画像異常位置は、点または幾何図形を表す情報であればよい。異常位置は、画像異常位置を緯度経度に変換したものである。緯度経度への変換は異常位置算出部314により行われる。
 異常位置算出部314は、異常検出部313が検出した異常の地図上における位置(以下、単に異常位置という。)を算出する。異常位置算出部314は、カメラ12の画角と撮影高度と撮影位置とに基づいて、画像異常位置を異常位置に変換する。異常位置算出部314による異常位置の算出処理の詳細については後述する。異常位置算出部314は、算出した異常位置により、異常情報記憶部352に登録されている異常情報を更新する。
 重複削除部315は、重複する異常情報を削除する。重複削除部315は、異常位置が近い(所定距離内にある)か否かにより2つの異常情報が重複していると判定し、重複した異常情報の一方を削除する。なお、重複削除部315による重複削除処理の詳細については後述する。
 レポート作成部316は、太陽電池モジュール1の検査結果を示す情報(以下、レポートという。)を出力する。レポート作成部316は、撮影情報に含まれるRGB画像又はサーマル画像をそれぞれ合成して太陽電池モジュール1の全体図(可視画像および赤外画像)を作成するとともに、異常情報に含まれる異常位置をマークし、コメントを出力する。レポート作成部316は、レポートの作成として、例えば、HTML(HyperText Markup Language)により記述されたWebページを作成するようにしてもよいし、PDF(Portable Document Format)ファイルを作成するようにしてもよいし、プリンタ等の出力装置から印刷するようにしてもよい。
==処理==
 以下、本実施形態の検査システムにおける処理について説明する。
 図9は、太陽電池モジュール1を撮影する処理の流れを説明する図である。図9に示す撮影処理は、検査サーバ30からの飛行操作コマンドに応じて飛行装置10の飛行制御部112が飛行装置10の動作を制御し、飛行装置10が飛行している間、定期的に実行される。
 飛行装置10において、撮影処理部114は、カメラ12を制御して、カメラ12が撮影したRGB画像およびサーマル画像を取得し(S201)、位置情報取得部113は、GPSセンサ104、気圧センサ105および温度センサ106からの信号に基づいて、撮影位置および撮影高度を求める(S202)。撮影情報送信部115は、カメラ12から取得したRGB画像およびサーマル画像に、現在の日時(撮影日時)、撮影位置および撮影高度を付帯させた撮影情報を作成して検査サーバ30に送信する(S203)。
 検査サーバ30では、撮影情報受信部312は、飛行装置10から送信される撮影情報を受信し(S204)、受信した撮影情報を撮影情報記憶部351に登録する(S205)。
 以上のようにして、飛行装置10において撮影された画像(RGB画像およびサーマル画像)は、撮影日時、撮影位置および撮影高度とともに、撮影情報記憶部351に順次登録されていく。
 図10は検査サーバ30により実行される検査処理の流れを示す図である。
 異常検出部313は、撮影情報記憶部351に記憶されている撮影情報のそれぞれについて、撮影情報に含まれる画像データを画像解析して、太陽電池モジュール1の異常を検出する(S211)。異常が検出された場合(S212:YES)、異常検出部313は、異常を検出した撮影情報を特定する情報に対応付けて、当該撮影情報に含まれている撮影位置および撮影高度と、異常を検出した画像上の位置(画像異常位置)とを含む異常情報を作成して異常情報記憶部352に登録する(S213)。
 異常位置算出部314は異常情報に係る異常位置を算出する(S214)。図11は、異常位置の算出処理の流れを示す図である。
 異常位置算出部314は、異常情報記憶部352に記憶されている異常情報のそれぞれについて、以下の処理を行う。異常位置算出部314は、カメラ12の画角および解像度と、撮影高度とに基づいて、画像における1画素あたりの地図上での実距離(m)を算出して画素距離とする(S2141)。なお、本実施形態では、カメラ12の画角および解像度は予め設定されているものとする。
 異常位置算出部314は、画像異常位置に含まれる各座標についてのX座標値と画像データの中心のX座標値との差に画素距離を乗じて、経度方向の距離を算出する(S2142)。異常位置算出部314は、撮影位置の経度に経度方向の距離を加算して、異常位置の経度を求める(S2143)。
 同様に異常位置算出部314は、画像異常位置に含まれる各座標についてのY座標値と画像データの中心のY座標値との差に画素距離を乗じて緯度方向の距離を算出する(S2144)。異常位置算出部314は、撮影位置の緯度に緯度方向の距離を加算して、異常位置の緯度を求める(S2145)。
 異常位置算出部314は、算出した異常位置の緯度経度により異常情報の異常位置を更新し、更新した異常情報を異常情報記憶部352に登録する(S2146)。
 以上のようにして、各異常情報について画像異常位置から異常位置が求められる。
 図10に戻り、重複削除部315は重複した異常情報の削除処理を行う(S215)。図12は、重複した異常情報を削除する処理の流れを示す図である。
 重複削除部315は、異常情報記憶部352に記憶されている異常情報のそれぞれについて、当該異常情報とは異なる他の異常情報との組に対して、以下の処理を行う。すなわち、重複削除部315は、2つの異常情報に含まれている異常位置間の距離(異常間距離)を算出し(S2151)、算出した異常間距離が所定の閾値以下である場合には(S2152)、当該他の異常情報を異常情報記憶部352から削除する(S2153)。
 以上の処理を繰り返すことにより、距離が所定距離内にある2つの異常については同一の異常であるものとして、重複する異常情報を異常情報記憶部352から削除することができる。
 図13は、同一の異常が2つの画像に含まれている状態を説明する図である。図13では、太陽電池モジュール1に1つの異常41が発生している状態を示している。カメラ12により2回の撮影が行われ、その2つの撮影領域122-1および撮影領域122-2に入る部分がRGB画像421および422として撮影されたものとする。ここで、RGB画像421においては、X座標値450、Y座標値250の位置(画像異常位置41-1)に異常41が撮像されており、RGB画像422においては、X座標値50、Y座標値50の位置(画像異常位置41-2)に異常42が撮像されている。従来、異なる画像421および422から検出された異常が同一のものであるか否かについては特定されておらず、人手によりその特定はなされていたところ、本実施形態の検査システムでは、異常位置算出部314が各画像の中心431および432が撮影位置であるものとして、画像上でのX方向およびY方向の距離に対して、撮影高度とカメラ12の画角とから求めた1画素あたり実距離を乗じ、撮影位置からの偏差から画像異常位置41-1および41-2の緯度経度を求め、この緯度経度に基づいて画像異常位置41-1および41-2が同一の異常41の位置を示しているか否かを判定している。これにより、異なる画像421および422から検出された異常が同一のものであるか否かを自動的に判定することが可能となっている。
 図10に戻り、レポート作成部316は太陽電池モジュール1の検査に関するレポートを作成する(S216)。図14は、検査に関するレポートの作成処理の流れを示す図である。また、図15はレポート作成部316により作成されるレポート61の一例を示す図である。
 レポート作成部316は、検査サーバ30のオペレータや検査サーバ30にアクセスしているユーザ端末のユーザなどから、各異常情報についてのコメントの入力を受け付ける(S2161)。なお、レポート作成部316は、受け付けたコメントにより異常情報を更新し、更新した異常情報を異常情報記憶部352に登録するようにする。レポート作成部316は、撮影情報記憶部351に記憶されている各撮影情報に含まれる画像データを合成して、太陽電池モジュール1の全体を含む1枚の画像を作成する(S2162)。なお、本実施の形態による画像の合成処理については、オルソ画像を利用して行うこととしているが、異常位置算出部314が図11に示した異常位置の算出処理と同一の処理によって画像の左上および右下の各座標についての緯度経度を算出し、算出した緯度経度に対応する位置に画像を配置して合成を行うことができる。
 レポート作成部316は、異常情報記憶部352に登録されている各異常情報について、異常情報に含まれている異常位置の中心を求め、当該中心が示す合成画像上の位置に所定の図形を描画する(S2163)。レポート作成部316は、上記のようにして異常位置をプロットした合成画像をレポート61に出力する(S2164)。図15の例では、レポート61の上段に合成画像62が出力されている。また、合成画像62上には、異常位置の中心621に円形の図形が出力されている。
 レポート作成部316は、各異常情報について、対応する撮影情報に含まれる画像データに対して、異常情報に含まれる異常位置を示す図形を描画する(S2165)。本実施形態では、異常位置は矩形で描画されることになる。レポート作成部316は、図形を描画した画像をレポート61に出力するとともに(S2166)、異常情報に含まれるコメントを出力する(S2167)。図15の例では、レポート61の下段に、異常位置を示す矩形631が描画された1つのRGB画像63が出力され、その下部にコメント64が出力されている。
 なお、図15では1つの異常情報についてのRGB画像63およびコメント64が出力されているが、全ての異常情報についてのRGB画像63およびコメント64ならびにサーマル画像(不図示)およびコメント64を出力するようにしてもよい。また、レポート作成部316は、異常が検出されなかったRGB画像およびサーマル画像についても、レポート61に出力するようにしてもよい。
 一度の撮影では画面に収まりきらない程度の大型の太陽電池モジュール1を検査しようとした場合、複数枚の写真を撮像し当該写真の1枚1枚に対して解析を行うこととなるところ、撮像範囲122の漏れがないように、撮影範囲122の一部が重複するようにして連続写真を撮ることとなる。しかしながら、当該重複部分に欠陥等の異常が存在していた場合、異常としては1か所にしか存在していないにもかかわらず、複数の画像に写っていることによって複数の異常が存在していると誤認識してしまうことがあった。本発明の発明者らは、複数枚の画像に存在している同一の異常を同一のものとして正しく特定する方法が必要であることに着目した。本実施形態の検査システムによれば、複数の画像に撮像された1つの異常を同一のものとして取り扱うことができる。これにより、検査に係るレポート61を正しく自動的に生成することも可能となる。
 以上、本発明の一実施形態について説明したが、上記実施形態は本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得るとともに、本発明にはその等価物も含まれる。
 例えば、本実施形態では、カメラ12は機体の下部に固定されるものとしたが、これに限らず、ジンバルを介して可動式に装着するようにしてもよい。この場合、撮影情報にはカメラ12の撮影方向を含めるようにしてもよい。
 また、本実施形態では、RGB画像とサーマル画像の両方を用いて異常を検出するものとしたが、RGB画像およびサーマル画像の一方のみを用いて異常を検出するようにしてもよい。
 また、本実施形態では、気圧センサ105および温度センサ106を用いて撮影高度を求めるものとしたが、これに限らず、公知の手法を用いて撮影高度を求めるようにしてもよい。
 また、本実施形態では、重複する異常情報は異常情報記憶部352から削除するものとしたが、削除をせずに検出した異常を識別する情報(異常ID)を割り当て、異常情報に異常IDを登録するようにしてもよい。この場合、異常情報記憶部352には、異常IDに対応付けて、単一のコメントと、複数の撮影情報を特定する情報を記憶するようにし、レポート作成部316は、異常情報記憶部352から重複なく異常IDを読み出し、読み出した異常IDに対応するコメントをレポート61に出力することができる。
 また、本実施形態では、飛行装置10からの撮影情報はカメラ12で撮影が行われる都度検査サーバ30に送信されるものとしたが、飛行装置10は撮影情報記憶部152に撮影情報を蓄積しておき、飛行中に定期的に、あるいは、飛行終了後に一度に撮影情報記憶部152に記憶されている撮影情報を検査サーバ30に送信するようにしてもよい。
 また、本実施形態では、飛行装置10が撮影する画像はY軸方向上が北、X軸方向右が東であることを想定していたが、これに限らず、飛行装置10の飛行時の姿勢のままで撮影するようにしてもよい。この場合、撮影情報には北向きの角度(RGB画像およびサーマル画像をY軸方向上が北となるように回転させる角度)を記憶しておき、画像を回転させたうえで、あるいは、当該角度を考慮して異常位置の緯度経度を算出すればよい。
  10  飛行装置
  11  フライトコントローラ
  12  カメラ
  14  送受信部
  16  ESC
  17  モータ
  18  プロペラ
  30  検査サーバ
  50  通信ネットワーク
  101 プロセッサ
  102 メモリ
  103 センサ類
  104 GPSセンサ
  105 気圧センサ
  106 温度センサ
  111 指示受信部
  112 飛行制御部
  113 位置情報取得部
  114 撮影処理部
  115 撮影情報送信部
  151 位置情報記憶部
  152 撮影情報記憶部
  301 CPU
  302 メモリ
  303 記憶装置
  304 通信装置
  305 入力装置
  306 出力装置
  311 飛行制御部
  312 撮影情報受信部
  313 異常検出部
  314 異常位置算出部
  315 重複削除部
  316 レポート作成部
  351 撮影情報記憶部
  352 異常情報記憶部

Claims (4)

  1.  検査対象物を検査する検査システムであって、
     カメラを備える飛行体が前記検査対象物を撮影した画像、前記飛行体の撮影高度、および前記飛行体の地図上の撮影位置を受信する撮影情報受信部と、
     前記画像を解析して前記検査対象物の異常を検出する異常検出部と、
     前記異常が検出された前記画像上の検出位置、前記撮影高度、および前記撮影位置に基づいて、前記地図上における前記検査対象物の異常位置を算出する異常位置算出部と、
     少なくとも前記異常位置を含む前記異常に関する異常情報および前記異常を識別する情報を対応付けて記憶する異常情報記憶部と、
     を備え、
     前記異常情報記憶部は、さらに、
     前記異常情報記憶部に記憶されている前記異常情報のそれぞれについて、当該異常情報とは異なる他の異常情報との組に対して、両異常が同一の異常であると判定された場合には、当該同一の異常に関する異常情報に、同一の異常を識別する情報を関連付けて記憶する、
     ことを特徴とする検査システム。
  2.  請求項1に記載の検査システムであって、
     前記同一の異常に関する異常情報は、複数の撮影情報を特定する情報を含む、
     ことを特徴とする検査システム。
  3.  請求項1または2に記載の検査システムであって、
     前記同一の異常に関する異常情報は、単一のコメントを含む、
     ことを特徴とする検査システム。
  4.  請求項3に記載の検査システムであって、
     検査結果を示す情報をレポートとして出力するレポート生成部をさらに備え、
     前記レポート生成部は、
     前記異常情報記憶部から重複なく前記異常を識別する情報を読み出し、当該読み出した異常を識別する情報に対応する前記単一のコメントを前記レポートに出力する、
     ことを特徴とする検査システム。
     
PCT/JP2020/016329 2018-05-09 2020-04-13 検査システム WO2020218066A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020544885A JP6802599B1 (ja) 2018-05-09 2020-04-13 検査システム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018091019A JP2019196980A (ja) 2018-05-09 2018-05-09 検査システム
JPPCT/JP2019/017824 2019-04-25
PCT/JP2019/017824 WO2019216257A1 (ja) 2018-05-09 2019-04-25 検査システム

Publications (1)

Publication Number Publication Date
WO2020218066A1 true WO2020218066A1 (ja) 2020-10-29

Family

ID=68468364

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2019/017824 WO2019216257A1 (ja) 2018-05-09 2019-04-25 検査システム
PCT/JP2020/016329 WO2020218066A1 (ja) 2018-05-09 2020-04-13 検査システム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/017824 WO2019216257A1 (ja) 2018-05-09 2019-04-25 検査システム

Country Status (2)

Country Link
JP (3) JP2019196980A (ja)
WO (2) WO2019216257A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019196980A (ja) * 2018-05-09 2019-11-14 株式会社センシンロボティクス 検査システム
JP6829753B1 (ja) * 2019-11-18 2021-02-10 株式会社パスコ 学習済モデル生成装置及びプログラム
CN111650956B (zh) * 2020-08-04 2020-12-08 北京机电工程研究所 一种用于目标持续观测的无人机控制方法
CN111650957B (zh) * 2020-08-04 2020-12-25 北京机电工程研究所 一种用于目标搜索的无人机控制方法
WO2023105608A1 (ja) * 2021-12-07 2023-06-15 三菱電機株式会社 空気調和装置管理システム、空気調和装置管理方法、空気調和装置、管理装置、および飛行体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010127748A (ja) * 2008-11-27 2010-06-10 Fujitsu Microelectronics Ltd 欠陥レビュー装置及び欠陥レビュー方法
US20120262708A1 (en) * 2009-11-25 2012-10-18 Cyberhawk Innovations Limited Unmanned aerial vehicle
WO2015163107A1 (ja) * 2014-04-25 2015-10-29 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
US20160328835A1 (en) * 2011-09-28 2016-11-10 Kurion, Inc. Automatic detection of defects in composite structures using ndt methods

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10253547A (ja) * 1997-03-06 1998-09-25 Kao Corp 基板外観検査システム
JP2005300179A (ja) * 2004-04-06 2005-10-27 Constec Engi Co 赤外線構造物診断システム
JP2007003243A (ja) * 2005-06-21 2007-01-11 Sumitomo Electric Ind Ltd 長尺物の外観検査装置
JP6152353B2 (ja) * 2014-02-18 2017-06-21 株式会社神戸製鋼所 検査装置
JP6604242B2 (ja) * 2016-03-10 2019-11-13 富士通株式会社 撮像装置、方法、及びプログラム
JP2019196980A (ja) * 2018-05-09 2019-11-14 株式会社センシンロボティクス 検査システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010127748A (ja) * 2008-11-27 2010-06-10 Fujitsu Microelectronics Ltd 欠陥レビュー装置及び欠陥レビュー方法
US20120262708A1 (en) * 2009-11-25 2012-10-18 Cyberhawk Innovations Limited Unmanned aerial vehicle
US20160328835A1 (en) * 2011-09-28 2016-11-10 Kurion, Inc. Automatic detection of defects in composite structures using ndt methods
WO2015163107A1 (ja) * 2014-04-25 2015-10-29 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム

Also Published As

Publication number Publication date
JP2019196980A (ja) 2019-11-14
WO2019216257A1 (ja) 2019-11-14
JP2021035833A (ja) 2021-03-04
JPWO2020218066A1 (ja) 2021-05-06
JP6802599B1 (ja) 2020-12-16

Similar Documents

Publication Publication Date Title
JP6802599B1 (ja) 検査システム
JP7070725B2 (ja) 飛行情報生成方法、情報処理装置及びコンピュータプログラム
JP7078093B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
CN111512256B (zh) 自动和自适应的三维机器人现场勘测
JP7260269B2 (ja) 航空非破壊検査用の測位システム
JP6930616B2 (ja) 制御装置、制御方法および飛行体デバイス
US11017228B2 (en) Method and arrangement for condition monitoring of an installation with operating means
US20200082623A1 (en) System and method for generating three-dimensional robotic inspection plan
JP7045030B2 (ja) 検査システム、検査方法、サーバ装置、及びプログラム
Eschmann et al. High-resolution multisensor infrastructure inspection with unmanned aircraft systems
WO2018208995A1 (en) Self-localized mobile sensor network for autonomous robotic inspection
WO2019230604A1 (ja) 検査システム
CN103675609A (zh) 电力巡线设备及系统
JP2018156491A (ja) 設備点検システム
US20190116309A1 (en) Overhead line image capturing system and overhead line image capturing method
JP2023100642A (ja) 検査システム
CN111953892A (zh) 无人飞行器、检查方法及检查程序
Peng et al. Unmanned Aerial Vehicle for infrastructure inspection with image processing for quantification of measurement and formation of facade map
JP6681101B2 (ja) 検査システム
JP6799635B2 (ja) 空撮画像位置特定システムおよび空撮画像位置特定方法。
KR102514703B1 (ko) 복수 개의 카메라를 이용하여 구조물의 손상 영역을 촬영하는 무인 비행 장치 및 이를 이용한 구조물 손상 검사 장치
KR102575000B1 (ko) 플랜트 크랙 진단을 위한 인공지능 드론 플랫폼 시스템
JP6681102B2 (ja) 検査システム
JP2020201850A (ja) 飛行体の制御方法
US20240005770A1 (en) Disaster information processing apparatus, disaster information processing system, disaster information processing method, and program

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2020544885

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20795961

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20795961

Country of ref document: EP

Kind code of ref document: A1