EP3811286A1 - Method and assembly for detecting objects on systems - Google Patents

Method and assembly for detecting objects on systems

Info

Publication number
EP3811286A1
EP3811286A1 EP19766186.1A EP19766186A EP3811286A1 EP 3811286 A1 EP3811286 A1 EP 3811286A1 EP 19766186 A EP19766186 A EP 19766186A EP 3811286 A1 EP3811286 A1 EP 3811286A1
Authority
EP
European Patent Office
Prior art keywords
image
images
dimensional representation
pcd
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP19766186.1A
Other languages
German (de)
French (fr)
Inventor
Josef Alois Birchbauer
Vlad Comanelea-Serban
Olaf KÄHLER
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Energy Global GmbH and Co KG
Original Assignee
Siemens Energy Global GmbH and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Energy Global GmbH and Co KG filed Critical Siemens Energy Global GmbH and Co KG
Publication of EP3811286A1 publication Critical patent/EP3811286A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02GINSTALLATION OF ELECTRIC CABLES OR LINES, OR OF COMBINED OPTICAL AND ELECTRIC CABLES OR LINES
    • H02G1/00Methods or apparatus specially adapted for installing, maintaining, repairing or dismantling electric cables or lines
    • H02G1/02Methods or apparatus specially adapted for installing, maintaining, repairing or dismantling electric cables or lines for overhead lines or cables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30184Infrastructure

Definitions

  • the invention relates to a method according to the preamble of claim 1 and an arrangement according to the preamble of claim 10.
  • the operating resources are recognized and the positions of the operating resources are determined taking into account the position of the first vehicle, whereby detailed images of the operating facilities are determined by means of a second vehicle with a detail camera that is aligned with the respective positions of the operating means means are generated.
  • a single aircraft such as a drone or a helicopter is used to detect masts and isolators when flying over an overhead line using the overview camera, determine the position of the isolators and then use the detail camera to obtain high-resolution images of the isolators. In this way, defective insulators can be identified easily and reliably.
  • Overhead lines have been used overflights with helicopters and image recordings to detect damage or objects on the overhead line.
  • the decision whether an object such as A bird's nest, a balloon or a kite (children's toys) lying on the conductor ropes or below on the ground is difficult to hit with a pure aerial view and prone to errors. So far, this has usually been done by manually evaluating the image recordings. If objects on the line are mistakenly recognized, this results in useless costs and efforts for triggered maintenance.
  • Detections in one or more image recordings cannot always be clearly assigned to a specific 3D object. Since the individual 2D images do not contain any depth information, the distance to an object along the line of sight cannot be determined. Detections can therefore not be restricted to the relevant areas of 3D space, which can lead to irrelevant false detections
  • the object of the invention is to provide a method with which objects in systems can be recognized automatically and reliably.
  • the invention solves this problem with a method according to claim 1.
  • the problem of object recognition is solved by using the 3D information associated with the respective 2D points. Due to the parallax effect, objects under the system such as an overhead line is shown in the pictures at different points in relation to the line. A parallax effect arises when an observer shifts his own position and an apparent change in the position of an object occurs. The effect of parallax is described in detail on Wikipedia, for example (permanent link:
  • a system can be, for example, an electrical system such as an overhead line or an overhead line. However, it can also be a pipeline.
  • an object can be a bird's nest, a car, or a kite.
  • the object of the invention is to provide 3D information in conjunction with 2D detections in 3D space in order to Reduce alarm rate compared to simple 2D detections.
  • the invention it is possible to differentiate safely, quickly and automatically between objects on a system - ie above ground level - and objects below the system - ie close to the ground level. This is an advantage because of dangers or damage to a system such as an overhead line must be removed immediately by maintenance technicians. If an object such as If a bird's nest or a kite is incorrectly recognized as being on the line, the line is switched off and / or maintenance is unnecessarily triggered, which causes costs and reduces the availability of the system.
  • the three-dimensional representation of the system provided is used to restrict a search space for the system or to include the recognized object as a component assign the system in the three-dimensional representation.
  • the use of the three-dimensional representation already available makes it possible, in particular, to reduce the computing power required for image evaluation by restricting the search space.
  • a recognized object can be assigned to a component contained in the three-dimensional representation, so that relevant and irrelevant objects can be separated easily and reliably for further evaluation.
  • Both options have proven to be very beneficial. For example, the first option allows a false negative rate to be feared in the case in question, at the expense of a slightly higher computing power.
  • the second option allows, for example, by means of a less computation-intensive pre-classification, to identify potential problem areas while the images are being taken and, if necessary, to carry out a more precise inspection of these objects automatically.
  • a combination of these two options has also proven to be advantageous.
  • the three-dimensional representation is recorded as a three-dimensional point cloud (PCD), the three-dimensional point cloud (PCD) being semantically segmented in order to restrict a search space for the system in the three-dimensional point cloud (PCD).
  • PCD three-dimensional point cloud
  • a restriction of the search space in this way has proven to be particularly advantageous for typical applications, such as those that occur in the inspection of overhead lines.
  • the three-dimensional representation is obtained by means of a “light detection and ranging (LIDAR)” sensor and recorded as a three-dimensional point cloud (PCD).
  • LIDAR light detection and ranging
  • PCD three-dimensional point cloud
  • the three-dimensional point cloud is semantically segmented in order to restrict a search space for the system in the three-dimensional point cloud (PCD).
  • This is an advantage because the object recognition is restricted to the relevant area, which considerably reduces the calculation requirements and / or increases the speed of the calculations. The complexity is reduced because the search space is restricted to relevant scene content. If the evaluation is carried out on board the aircraft, weight can be saved in this embodiment because a less powerful computer device is required.
  • a typical example is LIDAR data of a high-voltage line, in which (automatically) those points are determined that belong to the overhead lines or are approximated by a parametric model of a chain line.
  • An example of a method for segmenting image data is known from the publication "Mask R-CNN" by Kaiming He et al.
  • a classic 2D detector is used in this restricted search area, which is pre-trained for certain accident classes.
  • an anomaly detection automatically becomes a model of the norm
  • the conductor region is determined (e.g. using auto encoders) and outliers are detected. Both approaches determine in
  • the image space can not only be limited to visible light, but can also extend to adjacent spectral ranges such as (thermal) infrared and ultraviolet light.
  • the detection answers or pixel color values in the individual images for each 3D point of the system can not only be limited to visible light, but can also extend to adjacent spectral ranges such as (thermal) infrared and ultraviolet light.
  • the 3D point cloud is optionally semantically segmented (optional, since the entire PCD can also be semantically relevant for the inspection task);
  • detection results are either generated selectively or the existing detection results are read out (the latter if the detection in the image space was carried out across the board);
  • the remaining 3D points can again be projected back into the image space and thus result in the final detection result in the image space.
  • an overhead line is used as the system, and the semantic segmentation is carried out by using a model of a chain line for detecting conductor lines of the overhead line.
  • the position and orientation of the representation are determined by means of a position determining device. This can be done, for example, by means of a receiver for "Global Positioning System (GPS)" signals, the orientation depending on the viewing direction of the sensor arrangement (LIDAR or camera). The viewing direction can be determined, for example, by means of a tilt sensor in conjunction with a compass, which are provided in the aircraft.
  • GPS Global Positioning System
  • the images are recorded by means of a camera for visible light.
  • the light visible to humans is usually specified with wavelengths between 380 nm to 780nm (permanent link:
  • the camera is guided along the system with an aircraft in order to record the first and the second image at the two different positions.
  • the three-dimensional representation of the system is projected into the two images in order to determine the sections from each.
  • the evaluation device is advises provided. This is an advantage because an evaluation and object detection can take place directly during an overflight.
  • the images and coordinates of the recognized objects can be saved and transmitted to the operator of the system after the flight.
  • the detected objects can be transmitted by radio data communication during the flight.
  • the evaluation device is provided as a central server. This is an advantage because it saves weight and space in the aircraft. For example, all the data recorded by the camera and the LIDAR can be temporarily stored on a data memory and, after the end of the flight, transmitted to the evaluation device for evaluation. Alternatively, the data can be transmitted to the evaluation device by means of radio data communication even during the flight.
  • Figure 1 shows an example of a semantic segmentation of
  • Figure 2 shows an example of images of an overhead line in different frequency ranges
  • Figure 3 shows an example of anomaly detection of objects on an overhead line
  • Figure 4 shows an example of a detection of the position of
  • Figure 1 shows an example of a semantic segmentation of lidar image data.
  • the viewing angle cp of the LIDAR with respect to the location coordinate x is shown.
  • a color scale 3 shows how strongly the LIDAR signals were received. It can be seen that after a successful segmentation of the overhead line cable, line 1 is highlighted using a model of a chain function. The other lines 2 remain in the background.
  • Figure 2 shows an example of images of an overhead line in different frequency ranges.
  • An image in the visible frequency range (VIS), in the infra-red frequency range (IF) and in the ultraviolet frequency range (UV) is shown from left to right.
  • VIS visible frequency range
  • IF infrared area
  • UV ultraviolet frequency range
  • FIG. 3 shows an example of an anomaly detection of artificially inserted objects on an overhead line.
  • the picture is taken from above during an overflight.
  • cable 1 run over wooded areas and a road 4, which bifurcates in the upper part of the picture.
  • a kite 6 is arranged on one of the conductor ropes.
  • the evaluation algorithm correctly marks the objects as deviating from the expected course of the ropes.
  • the algorithm cannot easily obtain the depth information, ie it cannot decide whether the car and in particular whether the kite is on the line or below on the ground.
  • Figure 4 shows two scenes side by side.
  • Two masts 9 each carry an overhead line.
  • Trees 10 can be seen below the overhead line.
  • a first and a second image are recorded at two different positions 7, 8 during an overflight of the line.
  • both images target a section 11 of the line in the line of sight. If an object is arranged directly on or on the line, the object appears on the line at the same location from both perspectives. It is different in the right picture for tree 10.
  • tree 10 does not appear at the same location on the line, but because of the parallax effect from viewing direction 7 on section 11 and from viewing direction 8 on section 12 of the Management. This means that the tree 10 does not have to be arranged at the same height as the line, but rather below it. This principle enables a simple automated distinction between objects arranged on or on a system and objects arranged on the ground.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

The invention relates to a method for detecting objects on systems, having the steps of: - providing a three-dimensional representation of the system, wherein the position and orientation of the representation and the system are known, and - capturing a first image and a second image of the system, the two images being captured from different positions above the system. The invention is characterized in that for a plurality of sections of the system, a respective comparison of the first and the second image is carried out using a parallax effect. If the images in a region surrounding the system match, an object is detected on the system. The invention additionally relates to a corresponding assembly.

Description

Beschreibung description
Verfahren und Anordnung zum Erkennen von Objekten an Anlagen Method and arrangement for recognizing objects in systems
Die Erfindung betrifft ein Verfahren gemäß dem Oberbegriff des Anspruchs 1 sowie eine Anordnung gemäß dem Oberbegriff des Anspruchs 10. The invention relates to a method according to the preamble of claim 1 and an arrangement according to the preamble of claim 10.
Die bisher unveröffentlichte europäische Patentanmeldung 17161027.2 vom 15.03.2017 mit dem Titel „Verfahren und Anord nung für eine Zustandsüberwachung einer Anlage mit Betriebs mitteln" offenbart ein Verfahren für eine Zustandsüberwachung einer Anlage mit Betriebsmitteln, bei dem mittels eines ers ten Fahrzeugs mit einer Überblickssensoranordnung zur opti schen Erfassung der Anlage Überblicksdaten erfasst werden, und The previously unpublished European patent application 17161027.2 dated March 15, 2017 with the title "Method and arrangement for condition monitoring of a system with operating means" discloses a method for condition monitoring of a system with operating means, in which by means of a first vehicle with an overview sensor arrangement for opti system data, overview data are recorded, and
mittels einer Auswerteeinrichtung in den Überblicksdaten die Betriebsmittel erkannt und unter Berücksichtigung der Positi on des ersten Fahrzeugs die Positionen der Betriebsmittel be stimmt werden, wobei mittels eines zweiten Fahrzeugs mit ei ner Detailkamera, die auf die jeweiligen Positionen der Be triebsmittel ausgerichtet wird, Detailaufnahmen der Betriebs mittel erzeugt werden. Beispielsweise wird nur ein einziges Fluggerät wie z.B. eine Drohne oder ein Hubschrauber einge setzt, um bei einem Überflug einer Freileitung mittels der Überblickskamera Masten und Isolatoren zu erkennen, die Posi tion der Isolatoren zu bestimmen und anschließend mittels der Detailkamera hochaufgelöste Bilder der Isolatoren zu gewin nen. Hierdurch können schadhafte Isolatoren einfach und si cher erkannt werden. by means of an evaluation device in the overview data, the operating resources are recognized and the positions of the operating resources are determined taking into account the position of the first vehicle, whereby detailed images of the operating facilities are determined by means of a second vehicle with a detail camera that is aligned with the respective positions of the operating means means are generated. For example, only a single aircraft such as a drone or a helicopter is used to detect masts and isolators when flying over an overhead line using the overview camera, determine the position of the isolators and then use the detail camera to obtain high-resolution images of the isolators. In this way, defective insulators can be identified easily and reliably.
Aus dem Stand der Technik sind zahlreiche Detektionsverfahren in Bildern bekannt. Insbesondere Objektdetektion in zweidi mensionalen (2D) Bildern erhält dabei in letzter Zeit ver mehrt Aufmerksamkeit. Aber auch klassische Detektionen z.B. in Thermographiebildern oder UV Bildern sind im ständigen in dustriellen Einsatz anzutreffen. Ebenso finden sich zahlrei che weitere 2D Detektionsverfahren, z.B. basierend auf Anoma- lien oder auch auf Farbunterschieden . Während der Großteil der bisherigen Arbeiten sich auf 2D Detektionen beschränkt, gibt es nur wenige Arbeiten, die versuchen, Detektionen in einen dreidimensionalen (3D) Raum zu überführen. Numerous detection methods in images are known from the prior art. In particular, object detection in two-dimensional (2D) images has recently received increasing attention. But classic detections, for example in thermographic images or UV images, can also be found in constant industrial use. There are also numerous other 2D detection methods, e.g. based on anomalies lien or also on color differences. While the majority of the previous work has been limited to 2D detection, there are only a few works that attempt to transfer detections into a three-dimensional (3D) space.
Bekannt ist beispielsweise die Veröffentlichung „Probabilis- tic Integration of Cues From Multiple Cameras" von For example, the publication "Probabilistic Integration of Cues From Multiple Cameras" by
J. Denzlerl et al . , die sich mit der Integration von Bildauf nahmen verschiedener Kameras beschäftigt. Aus den Veröffent lichungen „Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks" von Shaoqing Ren et al.,„SSD: Single Shot MultiBox Detector" von Wei Liu et al . und "Using Histograms to Detect and Track Objects in Color Video" von Michael Mason et al . , 2001, sind Verfahren zur Objekterken nung in Bilddaten bekannt. Die Veröffentlichung „Anomaly De tection: A Survey" von Varun Chandola et al . , ACM Computing Surveys, 2009, beschäftigt sich mit dem Erkennen von Abwei chungen von erwarteten Mustern in Daten. J. Denzlerl et al. , which deals with the integration of image recordings from different cameras. From the publications "Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks" by Shaoqing Ren et al., "SSD: Single Shot MultiBox Detector" by Wei Liu et al. and "Using Histograms to Detect and Track Objects in Color Video" by Michael Mason et al. , 2001, methods for object detection in image data are known. The publication "Anomaly Detection: A Survey" by Varun Chandola et al., ACM Computing Surveys, 2009, deals with the detection of deviations from expected patterns in data.
Ferner ist die Doktorarbeit „Improving Object Detection using 3D Spatial Relationships" von Tristram Southey, MSc., Univer- sity of British Columbia, 2013, bekannt. Es wird eine dreidi mensionale Bildanalyse beschrieben. The doctoral thesis "Improving Object Detection using 3D Spatial Relationships" by Tristram Southey, MSc., University of British Columbia, 2013, is also known. A three-dimensional image analysis is described.
Bei der Inspektion von Anlagen wie z.B. Freileitungen werden bisher Überflüge mit Helikoptern und Bildaufzeichnungen ein gesetzt, um Schäden oder Objekte auf der Freileitung zu er kennen. Die Entscheidung, ob ein Objekt wie z.B. ein Vogel nest, ein Ballon oder ein Flugdrachen (Kinderspielzeug) auf den Leiterseilen liegt oder darunter am Boden, ist bei einer reinen Luftaufnahme schwer zu treffen und fehleranfällig. Bisher erfolgt dies in der Regel durch eine manuelle Auswer tung der Bildaufnahmen. Werden Objekte auf der Leitung fälschlicherweise erkannt, so entstehen für eine ausgelöste Wartung entsprechend nutzlose Kosten und Aufwände. When inspecting systems such as Overhead lines have been used overflights with helicopters and image recordings to detect damage or objects on the overhead line. The decision whether an object such as A bird's nest, a balloon or a kite (children's toys) lying on the conductor ropes or below on the ground is difficult to hit with a pure aerial view and prone to errors. So far, this has usually been done by manually evaluating the image recordings. If objects on the line are mistakenly recognized, this results in useless costs and efforts for triggered maintenance.
Detektionen in einer oder mehreren Bildaufnahmen können nicht immer eindeutig einem bestimmten 3D Objekt zugeordnet werden. Da die einzelnen 2D Bilder keine Tiefeninformation enthalten, kann die Entfernung zu einem Objekt entlang des Sehstrahles nicht bestimmt werden. Somit können Detektionen auch nicht auf die relevanten Bereiche des 3D Raumes eingeschränkt wer den, was mitunter zu irrelevanten Fehldetektionen Detections in one or more image recordings cannot always be clearly assigned to a specific 3D object. Since the individual 2D images do not contain any depth information, the distance to an object along the line of sight cannot be determined. Detections can therefore not be restricted to the relevant areas of 3D space, which can lead to irrelevant false detections
führt. Sollen etwa Objekte auf einer Freileitung von Objekten unter der Freileitung unterschieden werden, so ist das durch automatisierte Bildbewertung auf Luftaufnahmen (Vogel perspektive) nicht trivial möglich. leads. If, for example, objects on an overhead line are to be differentiated from objects under the overhead line, automated image evaluation on aerial photographs (bird's eye view) does not make this trivial.
An die Erfindung stellt sich die Aufgabe, ein Verfahren anzu geben, mit dem Objekte an Anlagen automatisch und zuverlässig erkannt werden können. The object of the invention is to provide a method with which objects in systems can be recognized automatically and reliably.
Die Erfindung löst diese Aufgabe mit einem Verfahren gemäß Anspruch 1. The invention solves this problem with a method according to claim 1.
Erfindungsgemäß wird das Problem der Objekterkennung dadurch gelöst, dass die mit den jeweiligen 2D Punkten assoziierte 3D Information genutzt wird. Bedingt durch den Parallaxeneffekt werden Objekte unter der Anlage wie z.B. einer Freileitung in den Bildern an unterschiedlichen Stellen in Relation zur Lei tung abgebildet. Ein Parallaxeneffekt entsteht, wenn ein Be obachter seine eigene Position verschiebt und dadurch eine scheinbare Änderung der Position eines Objektes auftritt. Der Effekt einer Parallaxe ist beispielsweise auf Wikipedia aus führlich beschrieben (permanenter Link: According to the invention, the problem of object recognition is solved by using the 3D information associated with the respective 2D points. Due to the parallax effect, objects under the system such as an overhead line is shown in the pictures at different points in relation to the line. A parallax effect arises when an observer shifts his own position and an apparent change in the position of an object occurs. The effect of parallax is described in detail on Wikipedia, for example (permanent link:
https : //de . wikipedia . org/w/index . php?title=Parallaxe&oldid=17 8305744) . https: // de. wikipedia. org / w / index. php? title = parallax & oldid = 17 8305744).
Eine Anlage kann beispielsweise eine elektrische Anlage wie eine Oberleitung oder eine Freileitung sein. Es kann sich je doch auch um eine Pipeline handeln. Ein Objekt kann bei spielsweise ein Vogelnest, ein Auto oder einen Flugdrachen sein . A system can be, for example, an electrical system such as an overhead line or an overhead line. However, it can also be a pipeline. For example, an object can be a bird's nest, a car, or a kite.
Gegenstand der Erfindung ist es, 3D Informationen in Verbin dung mit 2D Detektionen im 3D Raum zu, um somit die Fehl- alarmrate im Vergleich zu einfachen 2D Detektionen zu redu zieren . The object of the invention is to provide 3D information in conjunction with 2D detections in 3D space in order to Reduce alarm rate compared to simple 2D detections.
Es ist ein Vorteil der Erfindung, dass die Häufigkeit von falsch positiv erkannten Objekten auf einer Anlage, d.h. eine Alarmrate, durch kombinierte Nutzung mehrerer Ansichten in einem vergleichsweise rechen- und speichereffizienten Verfah ren verringert wird. Somit wird eine vergleichsweise zuver lässigere automatische Detektion von Objekten aus Luftbildern und eine deutliche Reduktion des Aufwandes für eine manuelle Nachbearbeitung erreicht. Auch Fehldetektionen, die nur in einem einzigen Bild einer Kamera auftauchen, können mit dem Verfahren sicher erkannt werden. It is an advantage of the invention that the frequency of false positively recognized objects on a system, i.e. an alarm rate is reduced by the combined use of several views in a comparatively compute and memory-efficient method. This results in a comparatively more reliable automatic detection of objects from aerial photos and a significant reduction in the effort for manual post-processing. Even false detections that only appear in a single image from a camera can be reliably detected with the method.
Erfindungsgemäß ist es möglich, sicher, schnell und automa tisch zwischen Objekten auf einer Anlage - also erhöht über dem Erdboden - und Objekten unter der Anlage - also nahe dem Erdboden - zu unterscheiden. Dies ist ein Vorteil, weil Ge fahren oder Schäden an einer Anlage wie z.B. einer Freilei tung sofort durch Wartungstechniker beseitiget werden müssen. Wird ein Objekt wie z.B. ein Vogelnest oder ein Flugdrachen fälschlicherweise als auf der Leitung befindlich erkannt, so wird eine Abschaltung der Leitung und/oder eine Wartung unnö tig ausgelöst, was Kosten verursacht und die Verfügbarkeit der Anlage vermindert. According to the invention, it is possible to differentiate safely, quickly and automatically between objects on a system - ie above ground level - and objects below the system - ie close to the ground level. This is an advantage because of dangers or damage to a system such as an overhead line must be removed immediately by maintenance technicians. If an object such as If a bird's nest or a kite is incorrectly recognized as being on the line, the line is switched off and / or maintenance is unnecessarily triggered, which causes costs and reduces the availability of the system.
Ferner ist es ein Vorteil der Erfindung, dass das beschriebe ne Verfahren vergleichsweise wenig rechenaufwändig ist. Da nur in den beiden zweidimensionalen Bildern Skalarwerte an den bekannten 3D Punkten - den Abschnitten der Anlage - aus gelesen werden müssen, ist der Speicher- bzw. Rechenbedarf vergleichsweise bedeutend kleiner als bei alternativen Ver fahren . Furthermore, it is an advantage of the invention that the method described is comparatively little computational. Since scalar values at the known 3D points - the sections of the system - only have to be read out in the two two-dimensional images, the memory and computing requirements are comparatively significantly smaller than in alternative methods.
In einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens wird die bereitgestellte dreidimensionale Darstel lung der Anlage genutzt, um einen Suchraum für die Anlage einzuschränken oder um das erkannte Objekt einem Bestandteil der Anlage in der dreidimensionalen Darstellung zuzuordnen. Überraschenderweise zeigte sich, dass die Verwendung der be reits vorhandenen dreidimensionalen Darstellung es ermöglicht insbesondere die erforderliche Rechenleistung zur Bildauswer tung zu reduzieren indem der Suchraum eingeschränkt wird. Ferner kann ein erkanntes Objekt einem in der dreidimensiona len Darstellung enthaltenen Bestandteil zugeordnet werden, wodurch für die weitere Auswertung relevante von irrelevanten Objekten einfach und zuverlässig getrennt werden können. Bei de Ansätze erlauben die erforderliche Rechenleistung deutlich zu reduzieren. Beide Optionen haben sich als sehr vorteilhaft erwiesen. Die erste Option erlaubt beispielsweise zulasten einer geringfügig höheren Rechenleistung eine im betreffenden Fall eventuell zu befürchtende Falsch-Negativ-Rate nochmals zu senken. Die zweite Option erlaubt beispielsweise mittels einer wenig rechenintensiven Vorklassifizierung potentielle Problemstellen noch während der Aufnahme der Bilder zu iden tifizieren und gegebenenfalls automatisiert eine genauere In spektion dieser Objekte vorzunehmen. Auch eine Kombination dieser beiden Optionen hat sich als vorteilhaft erwiesen. In a preferred embodiment of the method according to the invention, the three-dimensional representation of the system provided is used to restrict a search space for the system or to include the recognized object as a component assign the system in the three-dimensional representation. Surprisingly, it was found that the use of the three-dimensional representation already available makes it possible, in particular, to reduce the computing power required for image evaluation by restricting the search space. Furthermore, a recognized object can be assigned to a component contained in the three-dimensional representation, so that relevant and irrelevant objects can be separated easily and reliably for further evaluation. With the approaches allow the required computing power to be significantly reduced. Both options have proven to be very beneficial. For example, the first option allows a false negative rate to be feared in the case in question, at the expense of a slightly higher computing power. The second option allows, for example, by means of a less computation-intensive pre-classification, to identify potential problem areas while the images are being taken and, if necessary, to carry out a more precise inspection of these objects automatically. A combination of these two options has also proven to be advantageous.
In einer weiteren bevorzugten Ausführungsform des erfindungs gemäßen Verfahrens wird die dreidimensionale Darstellung als dreidimensionale Punktewolke (PCD) erfasst, wobei die dreidi mensionale Punktewolke (PCD) semantisch segmentiert wird, um in der dreidimensionalen Punktewolke (PCD) einen Suchraum für die Anlage einzuschränken. Eine Einschränkung des Suchraums auf diese Weise hat sich für typische Anwendungsfälle, wie sie beispielsweise bei der Inspektion von Freileitungen auf- treten, als besonders vorteilhaft erwiesen. In a further preferred embodiment of the method according to the invention, the three-dimensional representation is recorded as a three-dimensional point cloud (PCD), the three-dimensional point cloud (PCD) being semantically segmented in order to restrict a search space for the system in the three-dimensional point cloud (PCD). A restriction of the search space in this way has proven to be particularly advantageous for typical applications, such as those that occur in the inspection of overhead lines.
In einer weiteren bevorzugten Ausführungsform des erfindungs gemäßen Verfahrens wird die dreidimensionale Darstellung mit tels eines „light detection and ranging (LIDAR) " Sensors ge wonnen und als dreidimensionale Punktewolke (PCD) erfasst. Dies ist ein Vorteil, weil mittels LIDAR hochgenaue Informa tionen zur Position von Objekten gewonnen werden können. In Verbindung mit der Position des Fluggeräts kann eine Veror- tung der Objekte im dreidimensionalen Raum stattfinden. In a further preferred embodiment of the method according to the invention, the three-dimensional representation is obtained by means of a “light detection and ranging (LIDAR)” sensor and recorded as a three-dimensional point cloud (PCD). This is an advantage because LIDAR provides highly precise information about the position can be obtained from objects In connection with the position of the aircraft, the objects can be located in three-dimensional space.
In einer weiteren bevorzugten Ausführungsform des erfindungs gemäßen Verfahrens wird die dreidimensionale Punktewolke (PCD) semantisch segmentiert, um in der dreidimensionalen Punktewolke (PCD) einen Suchraum für die Anlage einzuschrän ken. Dies ist ein Vorteil, weil die Objekterkennung auf den relevanten Bereich eingeschränkt wird, was den Rechenbedarf erheblich verringert und/oder die Geschwindigkeit der Berech nungen erhöht. Die Komplexität wird vermindert, weil der Suchraum auf relevante Szeneninhalte eingeschränkt werden. Wird an Bord des Fluggeräts die Auswertung durchgeführt, so kann bei dieser Ausführungsform Gewicht eingespart werden, weil eine weniger leistungsfähige Rechnereinrichtung benötigt wird. Ein typisches Beispiel sind LIDAR Daten einer Hochspan nungsleitung, in der (automatisch) jene Punkte bestimmt wer den, die zu den Freileitungen gehören bzw. durch das paramet rische Modell einer Kettenlinie angenähert werden. Ein Bei spiel für ein Verfahren zum Segmentieren von Bilddaten ist aus der Veröffentlichung „Mask R-CNN" von Kaiming He et al . bekannt . In a further preferred embodiment of the method according to the invention, the three-dimensional point cloud (PCD) is semantically segmented in order to restrict a search space for the system in the three-dimensional point cloud (PCD). This is an advantage because the object recognition is restricted to the relevant area, which considerably reduces the calculation requirements and / or increases the speed of the calculations. The complexity is reduced because the search space is restricted to relevant scene content. If the evaluation is carried out on board the aircraft, weight can be saved in this embodiment because a less powerful computer device is required. A typical example is LIDAR data of a high-voltage line, in which (automatically) those points are determined that belong to the overhead lines or are approximated by a parametric model of a chain line. An example of a method for segmenting image data is known from the publication "Mask R-CNN" by Kaiming He et al.
Auf diesen eingeschränkten Suchraum wird ein klassischer 2D Detektor angewandt, der etwa auf bestimmte Störfallklassen vortrainiert wird. Alternativ wird im Sinne einer Anomaliede tektion automatisch ein Modell der Norm A classic 2D detector is used in this restricted search area, which is pre-trained for certain accident classes. Alternatively, an anomaly detection automatically becomes a model of the norm
der Leiterregion bestimmt (z.B. mittels Autoencodern) und Ausreißer werden detektiert. Beide Ansätze bestimmen im the conductor region is determined (e.g. using auto encoders) and outliers are detected. Both approaches determine in
Ergebnis eine Wahrscheinlichkeit für potentielle detektions relevante Zustände einzelner Pixel oder Bildbereiche. Dabei kann in einer Variante der Bildraum dabei nicht nur auf das sichtbare Licht eingeschränkt sein, sondern sich auch auf an grenzende spektrale Bereich wie (thermisches) Infrarot und das ultraviolette Licht erstrecken. In einer Weiterbildung der vorgenannten Ausführungsform ist es vorgesehen, für jeden 3D Punkt der Anlage die Detektions antworten bzw. Pixelfarbwerte in den Einzelbildern The result is a probability of potential detection-relevant states of individual pixels or image areas. In one variant, the image space can not only be limited to visible light, but can also extend to adjacent spectral ranges such as (thermal) infrared and ultraviolet light. In a further development of the aforementioned embodiment, it is provided that the detection answers or pixel color values in the individual images for each 3D point of the system
abzufragen, und eine Konsolidierung dieser Einzeldetektionen vorzunehmen. Als Konsolidierungsfunktion kann dabei einer der folgenden linearen oder nichtlineare mathematischen Ansätze verfolgt werden: Extremwertbestimmung (Minimum/Maximum), Me dianbestimmung, Mittelwertbestimmung, andere robuste Statis tiken wie z.B. mittels Quantilen. to query and consolidate these individual detections. One of the following linear or nonlinear mathematical approaches can be used as a consolidation function: extreme value determination (minimum / maximum), median determination, mean value determination, other robust statistics such as using quantiles.
Es können folgende Verfahrensschritte durchgeführt werden: The following process steps can be carried out:
- Als INPUT werden 3D Punktwolken und dazu hochgenau ört lich registrierte Bildaufnahmen gewonnen;  - As INPUT, 3D point clouds and, in addition, highly precisely recorded images are obtained;
- Optional wird die 3D Punktwolke semantisch segmentiert (Optional, da auch die gesamte PCD semantisch für die Inspektionsaufgabe relevant sein kann) ;  - The 3D point cloud is optionally semantically segmented (optional, since the entire PCD can also be semantically relevant for the inspection task);
- Die nach Segmentierung verbleibenden 3D Punkte werden in die 2D Bilder projiziert;  - The 3D points remaining after segmentation are projected into the 2D images;
- An den resultierenden Stellen im 2D Bild werden Detekti onsergebnisse entweder selektiv generiert oder die vor handenen Detektionsergebnisse ausgelesen (Letzteres falls die Detektion im Bildraum flächendeckend erfolgt ist) ;  - At the resulting points in the 2D image, detection results are either generated selectively or the existing detection results are read out (the latter if the detection in the image space was carried out across the board);
- Für jeden 3D Punkt werden die assoziierten Einzeldetek tionen im Bildraum durch eine Konsolidierungsfunktion auf Konsistenz hin überprüft;  - For each 3D point, the associated individual detections in the image space are checked for consistency using a consolidation function;
- Optional können die verbleibenden 3D Punkte wiederum in den Bildraum zurückprojiziert werden und ergeben somit das finale Detektionsergebnis im Bildraum.  - Optionally, the remaining 3D points can again be projected back into the image space and thus result in the final detection result in the image space.
In einer weiteren bevorzugten Ausführungsform des erfindungs gemäßen Verfahrens wird als Anlage eine Freileitung verwen det, und die semantische Segmentierung wird durchgeführt, in dem ein Modell einer Kettenlinie zur Erkennung von Leitersei len der Freileitung eingesetzt wird. Dies ist ein Vorteil, weil auf einfache Weise der Suchraum eingeschränkt werden kann . In einer weiteren bevorzugten Ausführungsform des erfindungs gemäßen Verfahrens werden die Position und Ausrichtung der Darstellung mittels einer Positionsbestimmungseinrichtung festgestellt. Dies kann beispielsweise mittels eines Empfän gers für „Global Positioning System (GPS)" Signale erfolgen, wobei die Ausrichtung von der Blickrichtung der Sensoranord nung (LIDAR oder Kamera) abhängt. Die Blickrichtung kann z.B. mittels eines Neigungssensors in Verbindung mit einem Kompass festgestellt werden, die im Fluggerät vorgesehen werden. In a further preferred embodiment of the method according to the invention, an overhead line is used as the system, and the semantic segmentation is carried out by using a model of a chain line for detecting conductor lines of the overhead line. This is an advantage because the search space can easily be restricted. In a further preferred embodiment of the method according to the invention, the position and orientation of the representation are determined by means of a position determining device. This can be done, for example, by means of a receiver for "Global Positioning System (GPS)" signals, the orientation depending on the viewing direction of the sensor arrangement (LIDAR or camera). The viewing direction can be determined, for example, by means of a tilt sensor in conjunction with a compass, which are provided in the aircraft.
In einer weiteren bevorzugten Ausführungsform des erfindungs gemäßen Verfahrens werden die Bilder mittels einer Kamera für sichtbares Licht aufgenommen. Das für Menschen sichtbare Licht wird üblicherweise mit Wellenlängen zwischen 380 nm bis 780nm angegeben (permanenter Link: In a further preferred embodiment of the method according to the invention, the images are recorded by means of a camera for visible light. The light visible to humans is usually specified with wavelengths between 380 nm to 780nm (permanent link:
https : //de . wikipedia . org/w/index . php?title=Elektromagnetische s_Spektrum&oldid=178702023) . https: // de. wikipedia. org / w / index. php? title = electromagnetic s_spectrum & oldid = 178702023).
In einer Weiterbildung der vorgenannten Ausführungsform wer den zur Verbesserung der Zuverlässigkeit weitere Kameras ein gesetzt. Beispielsweise können mehrere Kameras redundant oder mit unterschiedlichen Vergrößerungen bzw. Detailauflösungen eingesetzt werden. Dies ist ein Vorteil, weil die Wahrschein lichkeit erhöht wird, bereits bei einem einzigen Überflug der Anlage alle benötigten Bilddaten gewinnen zu können. In a development of the aforementioned embodiment, who set the other cameras to improve reliability. For example, several cameras can be used redundantly or with different magnifications or detailed resolutions. This is an advantage because it increases the likelihood of being able to obtain all the required image data in just one flight over the system.
In einer weiteren bevorzugten Ausführungsform des erfindungs gemäßen Verfahrens wird die Kamera mit einem Fluggerät ent lang der Anlage geführt, um an den beiden unterschiedlichen Positionen das erste und das zweite Bild aufzunehmen. In a further preferred embodiment of the method according to the invention, the camera is guided along the system with an aircraft in order to record the first and the second image at the two different positions.
In einer weiteren bevorzugten Ausführungsform des erfindungs gemäßen Verfahrens wird die dreidimensionale Darstellung der Anlage jeweils in die beiden Bilder projiziert, um die Ab schnitte jeweils festzulegen. In a further preferred embodiment of the method according to the invention, the three-dimensional representation of the system is projected into the two images in order to determine the sections from each.
In einer weiteren bevorzugten Ausführungsform des erfindungs gemäßen Verfahrens wird die Auswertungseinrichtung im Flugge- rät vorgesehen. Dies ist ein Vorteil, weil direkt während ei nes Überfluges eine Auswertung und Objekterkennung stattfin den kann. Die Bilder und Koordinaten der erkannten Objekte können abgespeichert und nach Ende des Fluges an den Betrei ber der Anlage übermittelt werden. Alternativ kann mittels einer Datenkommunikation per Funk schon während des Fluges eine Übermittelung der erkannten Objekte erfolgen. In a further preferred embodiment of the method according to the invention, the evaluation device is advises provided. This is an advantage because an evaluation and object detection can take place directly during an overflight. The images and coordinates of the recognized objects can be saved and transmitted to the operator of the system after the flight. Alternatively, the detected objects can be transmitted by radio data communication during the flight.
In einer weiteren bevorzugten Ausführungsform des erfindungs gemäßen Verfahrens wird die Auswertungseinrichtung als ein zentraler Server vorgesehen. Dies ist ein Vorteil, weil Ge wicht und Bauraum im Fluggerät eingespart wird. Es können beispielsweise alle durch die Kamera und das LIDAR erfassten Daten auf einem Datenspeicher zwischengespeichert und nach Ende des Fluges zur Auswertung an die Auswertungseinrichtung übermittelt werden. Alternativ kann mittels einer Datenkommu nikation per Funk schon während des Fluges eine Übermittelung der Daten an die Auswertungseinrichtung erfolgen. In a further preferred embodiment of the method according to the invention, the evaluation device is provided as a central server. This is an advantage because it saves weight and space in the aircraft. For example, all the data recorded by the camera and the LIDAR can be temporarily stored on a data memory and, after the end of the flight, transmitted to the evaluation device for evaluation. Alternatively, the data can be transmitted to the evaluation device by means of radio data communication even during the flight.
Ferner stellt sich an die Erfindung die Aufgabe, eine Anord nung anzugeben, mit der Objekte an Anlagen automatisch und zuverlässig erkennbar sind. Furthermore, it is an object of the invention to provide an arrangement with which objects in systems can be recognized automatically and reliably.
Die Erfindung löst diese Aufgabe mit einer Anordnung gemäß Anspruch 10. Bevorzugte Ausführungsformen ergeben sich aus den Ansprüchen 11 bis 15. Es ergeben sich für die erfindungs gemäße Anordnung und ihre Ausführungsformen sinngemäß die gleichen Vorteile wie eingangs für das erfindungsgemäße Ver fahren erläutert. The invention solves this problem with an arrangement according to claim 10. Preferred embodiments result from claims 11 to 15. For the arrangement according to the invention and its embodiments, the same advantages as described at the outset for the method according to the invention result.
Zur besseren Erläuterung der Erfindung zeigen in schemati scher Darstellung die For a better explanation of the invention show the schematic representation
Figur 1 ein Beispiel für eine semantische Segmentierung von Figure 1 shows an example of a semantic segmentation of
LIDAR-Bilddaten, und  LIDAR image data, and
Figur 2 ein Beispiel für Bilder einer Freileitung in ver schiedenen Frequenzbereichen, und Figur 3 ein Beispiel für eine Anomalieerkennung von Objek ten an einer Freileitung, und Figure 2 shows an example of images of an overhead line in different frequency ranges, and Figure 3 shows an example of anomaly detection of objects on an overhead line, and
Figur 4 ein Beispiel für eine Erkennung der Position von Figure 4 shows an example of a detection of the position of
Objekten an einer Freileitung durch den Parallaxen effekt.  Objects on an overhead line through the parallax effect.
Figur 1 zeigt ein Beispiel für eine semantische Segmentierung von LIDAR-Bilddaten . Es ist der Blickwinkel cp des LIDAR gegenüber der Ortskoordinate x dargestellt. Auf einer Farb skala 3 ist abgebildet, wie stark die LIDAR-Signale empfangen wurden. Erkennbar ist, dass nach einer erfolgreichen Segmen tierung des Freileitungskabels mittels einer Modells einer Kettenfunktion die Leitung 1 hervorgehoben ist. Die weiteren Leitungen 2 bleiben im Hintergrund. Figure 1 shows an example of a semantic segmentation of lidar image data. The viewing angle cp of the LIDAR with respect to the location coordinate x is shown. A color scale 3 shows how strongly the LIDAR signals were received. It can be seen that after a successful segmentation of the overhead line cable, line 1 is highlighted using a model of a chain function. The other lines 2 remain in the background.
Figur 2 zeigt ein Beispiel für Bilder einer Freileitung in verschiedenen Frequenzbereichen. Von links nach rechts ist jeweils ein Bild im sichtbaren Frequenzbereich (VIS) , im Inf raroten Frequenzbereich (IF) und im ultravioletten Frequenz bereich (UV) dargestellt. Im sichtbaren Freqenzbereich (VIS) zeigen sich auf den Leitungen 1 Vogelnester. Im Infrarotbe reich (IF) zeigt sich ein besonders erhitzter Bereich 99 ei nes Isolators an einem Mast. Im UV-Bereich (UV) sind deutlich Koronaentladungen an den Leitungen 1 zu erkennen. Figure 2 shows an example of images of an overhead line in different frequency ranges. An image in the visible frequency range (VIS), in the infra-red frequency range (IF) and in the ultraviolet frequency range (UV) is shown from left to right. In the visible frequency range (VIS) there are 1 bird nests on the lines. In the infrared area (IF), a particularly heated area 99 of an isolator is shown on a mast. In the UV range (UV), corona discharges can be clearly seen on the lines 1.
Figur 3 zeigt ein Beispiel für eine Anomalieerkennung von künstlich eingefügten Objekten an einer Freileitung. Das Bild ist von oben bei einem Überflug aufgenommen. Dabei verlaufen Leitungskabel 1 über Waldstücken und einer Straße 4, die sich im oberen Teil des Bildes gabelt. Auf der Straße 4 steht ein Auto 5. An einem der Leiterseile ist ein Drachen 6 angeord net. In dem Bild sind vom Auswertungsalgorithmus korrekt bei de Objekte als abweichend vom erwarteten Verlauf von Leiter seilen gekennzeichnet. Ohne Weiteres kann der Algorithmus die Tiefeninformation aber nicht gewinnen, d.h. er kann nicht entscheiden, ob das Auto und insbesondere ob der Flugdrachen auf der Leitung oder darunter am Erdboden befindlich ist. FIG. 3 shows an example of an anomaly detection of artificially inserted objects on an overhead line. The picture is taken from above during an overflight. In this case, cable 1 run over wooded areas and a road 4, which bifurcates in the upper part of the picture. There is a car 5 on street 4. A kite 6 is arranged on one of the conductor ropes. In the picture, the evaluation algorithm correctly marks the objects as deviating from the expected course of the ropes. However, the algorithm cannot easily obtain the depth information, ie it cannot decide whether the car and in particular whether the kite is on the line or below on the ground.
Um Objekte am Boden von Objekten auf der Leitung zu unter scheiden, schlägt die Erfindung eine Ausnutzung des Paralla xeneffekts vor. Figur 4 zeigt nebeneinander zwei Szenen. Es tragen jeweils zwei Masten 9 eine Freileitung. Unterhalb der Freileitung sind Bäume 10 zu sehen. Es werden ein erstes und ein zweites Bild an zwei unterschiedlichen Positionen 7,8 während eines Überfluges der Leitung aufgenommen. In order to distinguish objects on the ground from objects on the line, the invention proposes an exploitation of the parallax effect. Figure 4 shows two scenes side by side. Two masts 9 each carry an overhead line. Trees 10 can be seen below the overhead line. A first and a second image are recorded at two different positions 7, 8 during an overflight of the line.
Im linken Bild ist erkennbar, dass bei Ausrichtung beider Blickrichtungen für die beiden Bilder auf einen Punkt 11 auf der zuvor durch Segmentierung im 3D-Raum erkannten Freilei tung beide Bilder einen Abschnitt 11 der Leitung im Sehstrahl anvisieren. Ist ein Objekt direkt auf bzw. an der Leitung an geordnet, so erscheint das Objekt aus beiden Perspektiven am selben Ort auf der Leitung. Anders ist es im rechten Bild bei dem Baum 10. Der Baum 10 erscheint auf den beiden Bildern nicht an dem selben Ort auf der Leitung, sondern aufgrund des Parallaxeneffekts aus der Blickrichtung 7 an dem Abschnitt 11 und aus der Blickrichtung 8 an dem Abschnitt 12 der Leitung. Dies bedeutet, dass der Baum 10 nicht auf gleicher Höhe wie die Leitung, sondern vielmehr darunter, angeordnet sein muss. Dieses Prinzip ermöglicht eine einfache automatisierte Unter scheidung zwischen an bzw. auf einer Anlage angeordneten Ob jekten und am Erdboden angeordneten Objekten. In the left image it can be seen that when both viewing directions are aligned with the two images at a point 11 on the overhead line previously recognized by segmentation in 3D space, both images target a section 11 of the line in the line of sight. If an object is arranged directly on or on the line, the object appears on the line at the same location from both perspectives. It is different in the right picture for tree 10. In the two pictures, tree 10 does not appear at the same location on the line, but because of the parallax effect from viewing direction 7 on section 11 and from viewing direction 8 on section 12 of the Management. This means that the tree 10 does not have to be arranged at the same height as the line, but rather below it. This principle enables a simple automated distinction between objects arranged on or on a system and objects arranged on the ground.

Claims

Patentansprüche claims
1. Verfahren zum Erkennen von Objekten (5,6) an Anlagen 1), mit den Schritten: 1. Method for recognizing objects (5, 6) in systems 1), with the steps:
- Bereitstellen einer dreidimensionalen Darstellung der Anla ge, wobei die Position und Ausrichtung der Darstellung und der Anlage bekannt sind, und  - Providing a three-dimensional representation of the plant ge, the position and orientation of the representation and the plant are known, and
- Erfassen eines ersten Bildes und eines zweiten Bildes der Anlage, wobei die beiden Bilder von unterschiedlichen Posi tionen (7,8) oberhalb der Anlage (1) aufgenommen werden, dadurch gekennzeichnet, dass  - Capture a first image and a second image of the system, the two images being taken from different positions (7, 8) above the system (1), characterized in that
für eine Vielzahl von Abschnitten der Anlage (1) unter Aus nutzung eines Parallaxeneffekts jeweils ein Vergleich des ersten und des zweiten Bildes durchgeführt wird, wobei für den Fall einer Übereinstimmung der Bilder in einem die Anlage umgebenden Bereich ein Objekt (5) an der Anlage (1) erkannt wird. A comparison of the first and the second image is carried out for a multiplicity of sections of the system (1) using a parallax effect, with an object (5) on the system (5) if the images match in an area surrounding the system ( 1) is recognized.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die bereitgestellte dreidimensionale Darstellung der Anlage genutzt wird, um einen Suchraum für die Anlage einzuschränken oder um das erkannte Objekt einem Bestandteil der Anlage in der dreidimensionalen Darstellung zuzuordnen. 2. The method according to claim 1, characterized in that the three-dimensional representation of the system provided is used to restrict a search space for the system or to assign the recognized object to a component of the system in the three-dimensional representation.
3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass 3. The method according to any one of the preceding claims, characterized in that
die dreidimensionale Darstellung als dreidimensionale Punkte wolke (PCD) erfasst wird, wobei die dreidimensionale Punkte wolke (PCD) semantisch segmentiert wird, um in der dreidimen sionalen Punktewolke (PCD) einen Suchraum für die Anlage ein zuschränken . the three-dimensional representation is recorded as a three-dimensional point cloud (PCD), the three-dimensional point cloud (PCD) being semantically segmented in order to restrict a search space for the system in the three-dimensional point cloud (PCD).
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass als Anlage eine Freileitung verwendet wird, und dass 4. The method according to claim 3, characterized in that an overhead line is used as a system, and that
die semantische Segmentierung durchgeführt wird, indem ein Modell einer Kettenlinie zur Erkennung von Leiterseilen (1) der Freileitung eingesetzt wird. the semantic segmentation is carried out by using a model of a chain line for the detection of conductor cables (1) of the overhead line.
5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die dreidimensionale Darstellung mittels eines „light detection and ranging (LIDAR) " Sensors gewonnen und als dreidimensionale Punktewolke (PCD) erfasst wird und/oder dass die Position und Ausrichtung der Darstellung mittels einer Positionsbestimmungseinrichtung festgestellt werden . 5. The method according to any one of the preceding claims, characterized in that the three-dimensional representation is obtained by means of a “light detection and ranging (LIDAR)” sensor and is detected as a three-dimensional point cloud (PCD) and / or that the position and orientation of the representation is by means of a Position determining device can be determined.
6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bilder mittels einer Kamera für sichtbares Licht aufgenommen werden. 6. The method according to any one of the preceding claims, characterized in that the images are recorded by means of a camera for visible light.
7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Kamera mit einem Fluggerät entlang der Anlage geführt wird, um an den beiden unterschiedlichen Positionen (7,8) das erste und das zweite Bild aufzunehmen. 7. The method according to any one of the preceding claims, characterized in that the camera is guided along the system with an aircraft in order to record the first and the second image at the two different positions (7, 8).
8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die dreidimensionale Darstellung der An lage (1) jeweils in die beiden Bilder projiziert wird, um die Abschnitte jeweils festzulegen. 8. The method according to any one of the preceding claims, characterized in that the three-dimensional representation of the system (1) is projected into the two images in order to determine the sections.
9. Anordnung zum Erkennen von Objekten (5,6) an Anlagen (1), aufweisend : 9. Arrangement for recognizing objects (5, 6) on systems (1), comprising:
- ein Fluggerät mit einem „light detection and ranging  - An aircraft with a "light detection and ranging
(LIDAR) " Sensor zur Erfassung einer dreidimensionalen Dar stellung der Anlage, und  (LIDAR) "Sensor for recording a three-dimensional representation of the system, and
- mit einer Positionsbestimmungseinrichtung zur Erfassung der Position und Ausrichtung der dreidimensionalen Darstellung der Anlage, und  - With a position determining device for detecting the position and orientation of the three-dimensional representation of the system, and
- mit einer Kamera für sichtbares Licht, die zum Erfassen ei nes ersten Bildes und eines zweiten Bildes der Anlage aus gebildet ist, wobei die beiden Bilder von unterschiedlichen Positionen (7,8) oberhalb der Anlage (1) aufgenommen wer den,  - With a camera for visible light, which is formed for capturing a first image and a second image of the system, the two images being taken from different positions (7,8) above the system (1),
dadurch gekennzeichnet, dass characterized in that
eine Auswertungseinrichtung ausgebildet ist, für eine Viel zahl von Abschnitten der Anlage unter Ausnutzung eines Pa- rallaxeneffekts jeweils ein Vergleich des ersten und des zweiten Bildes durchzuführen, wobei für den Fall einer Über einstimmung der Bilder in einem die Anlage (1) umgebenden Be reich ein Objekt an der Anlage (1) erkannt wird. an evaluation device is designed for a large number of sections of the system using a pa rallaxen effect each carry out a comparison of the first and the second image, wherein in the event of a match of the images in an area surrounding the system (1) Be an object on the system (1) is detected.
10. Anordnung nach Anspruch 9, dadurch gekennzeichnet, dass der „light detection and ranging (LIDAR) " Sensor ausgebildet ist, die dreidimensionale Darstellung als dreidimensionale Punktewolke (PCD) zu erfassen, und dass 10. The arrangement according to claim 9, characterized in that the "light detection and ranging (LIDAR)" sensor is designed to detect the three-dimensional representation as a three-dimensional point cloud (PCD), and that
die Auswertungseinrichtung ausgebildet ist, die dreidimensio nale Punktewolke (PCD) semantisch zu segmentieren, um in der dreidimensionalen Punktewolke (PCD) einen Suchraum für die Anlage (1) einzuschränken. the evaluation device is designed to semantically segment the three-dimensional point cloud (PCD) in order to restrict a search space for the system (1) in the three-dimensional point cloud (PCD).
11. Anordnung nach Anspruch 9 oder 10, dadurch gekennzeich net, dass die Anlage eine Freileitung aufweist, und dass die Auswertungseinrichtung ausgebildet ist, die semantische Seg mentierung durchzuführen, indem ein Modell einer Kettenlinie zur Erkennung von Leiterseilen (1) der Freileitung eingesetzt wird . 11. The arrangement according to claim 9 or 10, characterized in that the system has an overhead line, and that the evaluation device is designed to perform the semantic segmentation by using a model of a chain line for the detection of conductor cables (1) of the overhead line.
12. Anordnung nach einem der Ansprüche 9 bis 11, dadurch ge kennzeichnet, dass die Auswertungseinrichtung ausgebildet ist, die dreidimensionale Darstellung der Anlage (1) jeweils in die beiden Bilder zu projizieren, um die Abschnitte je weils festzulegen. 12. Arrangement according to one of claims 9 to 11, characterized in that the evaluation device is designed to project the three-dimensional representation of the system (1) in each case in the two images in order to determine the sections each Weil.
13. Anordnung nach einem der Ansprüche 9 bis 11, dadurch ge kennzeichnet, dass das Fluggerät ein Flugzeug, ein Helikopter oder eine Drohne ist. 13. Arrangement according to one of claims 9 to 11, characterized in that the aircraft is an aircraft, a helicopter or a drone.
14. Anordnung nach einem der Ansprüche 9 bis 13, dadurch ge kennzeichnet, dass die Auswertungseinrichtung im Fluggerät vorgesehen ist. 14. Arrangement according to one of claims 9 to 13, characterized in that the evaluation device is provided in the aircraft.
15. Anordnung nach einem der Ansprüche 9 bis 14, dadurch ge kennzeichnet, dass die Auswertungseinrichtung als ein zentra ler Server vorgesehen ist. 15. Arrangement according to one of claims 9 to 14, characterized in that the evaluation device is provided as a central server.
EP19766186.1A 2018-08-21 2019-08-20 Method and assembly for detecting objects on systems Pending EP3811286A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP18190055.6A EP3614299A1 (en) 2018-08-21 2018-08-21 Method and assembly for identifying objects on installations
PCT/EP2019/072269 WO2020038944A1 (en) 2018-08-21 2019-08-20 Method and assembly for detecting objects on systems

Publications (1)

Publication Number Publication Date
EP3811286A1 true EP3811286A1 (en) 2021-04-28

Family

ID=63350461

Family Applications (2)

Application Number Title Priority Date Filing Date
EP18190055.6A Withdrawn EP3614299A1 (en) 2018-08-21 2018-08-21 Method and assembly for identifying objects on installations
EP19766186.1A Pending EP3811286A1 (en) 2018-08-21 2019-08-20 Method and assembly for detecting objects on systems

Family Applications Before (1)

Application Number Title Priority Date Filing Date
EP18190055.6A Withdrawn EP3614299A1 (en) 2018-08-21 2018-08-21 Method and assembly for identifying objects on installations

Country Status (5)

Country Link
US (1) US11989870B2 (en)
EP (2) EP3614299A1 (en)
CN (1) CN112639803B (en)
BR (1) BR112021002143A2 (en)
WO (1) WO2020038944A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10748038B1 (en) * 2019-03-31 2020-08-18 Cortica Ltd. Efficient calculation of a robust signature of a media unit
US11703457B2 (en) * 2020-12-29 2023-07-18 Industrial Technology Research Institute Structure diagnosis system and structure diagnosis method
NO347027B1 (en) * 2021-06-02 2023-04-24 Kleon Solutions As Method and system for detecting a line above ground from a helicopter

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020014533A1 (en) 1995-12-18 2002-02-07 Xiaxun Zhu Automated object dimensioning system employing contour tracing, vertice detection, and forner point detection and reduction methods on 2-d range data maps
US9525862B2 (en) 2011-08-31 2016-12-20 Metaio Gmbh Method for estimating a camera motion and for determining a three-dimensional model of a real environment
CN102930246B (en) 2012-10-16 2015-04-08 同济大学 Indoor scene identifying method based on point cloud fragment division
JP2014089548A (en) * 2012-10-30 2014-05-15 Sharp Corp Road surface level difference detection method, road surface level difference detection device and vehicle equipped with the road surface level difference detection device
US9449227B2 (en) * 2014-01-08 2016-09-20 Here Global B.V. Systems and methods for creating an aerial image
CN107727076B (en) 2014-05-05 2020-10-23 赫克斯冈技术中心 Measuring system
JP6397801B2 (en) 2015-06-30 2018-09-26 日立オートモティブシステムズ株式会社 Object detection device
US10970877B2 (en) 2015-09-30 2021-04-06 Sony Corporation Image processing apparatus, image processing method, and program
JP6299720B2 (en) 2015-10-02 2018-03-28 トヨタ自動車株式会社 Object recognition device and smoke determination method
US11156573B2 (en) * 2016-06-30 2021-10-26 Skydio, Inc. Solar panel inspection using unmanned aerial vehicles
JP6794243B2 (en) 2016-12-19 2020-12-02 日立オートモティブシステムズ株式会社 Object detector
CN107729878A (en) 2017-11-14 2018-02-23 智车优行科技(北京)有限公司 Obstacle detection method and device, equipment, vehicle, program and storage medium
CN108229548A (en) * 2017-12-27 2018-06-29 华为技术有限公司 A kind of object detecting method and device
CN108364304A (en) * 2018-04-11 2018-08-03 湖南城市学院 A kind of system and method for the detection of monocular airborne target

Also Published As

Publication number Publication date
US20210174061A1 (en) 2021-06-10
CN112639803B (en) 2024-06-11
CN112639803A (en) 2021-04-09
US11989870B2 (en) 2024-05-21
WO2020038944A1 (en) 2020-02-27
EP3614299A1 (en) 2020-02-26
BR112021002143A2 (en) 2021-05-04

Similar Documents

Publication Publication Date Title
DE102009015142B4 (en) Vehicle surroundings recognition device and control system for tracking a preceding vehicle
DE102014209137B4 (en) Method and device for calibrating a camera system of a motor vehicle
EP3376213A1 (en) Method and assembly for monitoring the state of a system with operating elements
DE112011103690T5 (en) Detection and tracking of moving objects
WO2020038944A1 (en) Method and assembly for detecting objects on systems
DE102011111440A1 (en) Method for representation of environment of vehicle, involves forming segments of same width from image points of equal distance in one of image planes, and modeling objects present outside free space in environment
EP3782117A1 (en) Method, device and computer-readable storage medium having instructions for processing sensor data
DE102018215055A1 (en) Method for determining a lane change indication of a vehicle, a computer-readable storage medium and a vehicle
DE102013012930A1 (en) Method for determining a current distance and / or a current speed of a target object from a reference point in a camera image, camera system and motor vehicle
DE102016201741A1 (en) Method for height detection
EP3663881B1 (en) Method for controlling an autonomous vehicle on the basis of estimated movement vectors
EP3545506A1 (en) Method and system for detecting a raised object located within a parking area
WO2020038984A1 (en) Method and assembly for detecting corona discharges of a system comprising equipment
DE102016223094A1 (en) Method and system for detecting a raised object located within a parking lot
DE102020127315B4 (en) System and method for annotating automotive radar data
DE112021002598T5 (en) IMAGE PROCESSING DEVICE
DE102016110691A1 (en) Apparatus and method for determining a respective position of a plurality of aircraft located on an airport surface
DE102018121158A1 (en) Ground sensing point method and driver support system configured to perform such a method
DE102018202753A1 (en) Method for determining a distance between a motor vehicle and an object
DE102019220616B4 (en) PROCEDURE FOR SIMULTANEOUS LOCATION AND IMAGE
DE102021206475A1 (en) Obstacle detection in the track area based on depth data
DE102022201639B3 (en) Method for avoiding collisions of watercraft and device for carrying out the method
DE102019102423A1 (en) Method for live annotation of sensor data
DE102023203319A1 (en) lane-based obstacle detection
DE102022209401A1 (en) Method for generating training data for an adaptive method

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20210121

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20230201