DE112016000702T5 - Auf den visuellen Eigenschaften der menschlichen Augen basierendes UAV-Inspektionsverfahren eines Stromkabels - Google Patents

Auf den visuellen Eigenschaften der menschlichen Augen basierendes UAV-Inspektionsverfahren eines Stromkabels Download PDF

Info

Publication number
DE112016000702T5
DE112016000702T5 DE112016000702.7T DE112016000702T DE112016000702T5 DE 112016000702 T5 DE112016000702 T5 DE 112016000702T5 DE 112016000702 T DE112016000702 T DE 112016000702T DE 112016000702 T5 DE112016000702 T5 DE 112016000702T5
Authority
DE
Germany
Prior art keywords
image
power cable
point
right eye
left eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112016000702.7T
Other languages
English (en)
Inventor
Qingwu Li
Yunpeng Ma
Jinxin Xu
Yaqin Zhou
Feijia He
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changzhou Campus of Hohai University
Original Assignee
Changzhou Campus of Hohai University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changzhou Campus of Hohai University filed Critical Changzhou Campus of Hohai University
Publication of DE112016000702T5 publication Critical patent/DE112016000702T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02GINSTALLATION OF ELECTRIC CABLES OR LINES, OR OF COMBINED OPTICAL AND ELECTRIC CABLES OR LINES
    • H02G1/00Methods or apparatus specially adapted for installing, maintaining, repairing or dismantling electric cables or lines
    • H02G1/02Methods or apparatus specially adapted for installing, maintaining, repairing or dismantling electric cables or lines for overhead lines or cables
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/25UAVs specially adapted for particular uses or applications for manufacturing or servicing
    • B64U2101/26UAVs specially adapted for particular uses or applications for manufacturing or servicing for manufacturing, inspections or repairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20064Wavelet transform [DWT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30136Metal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Manufacturing & Machinery (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Image Analysis (AREA)
  • Remote Monitoring And Control Of Power-Distribution Networks (AREA)

Abstract

Die vorliegende Erfindung offenbart ein auf den visuellen Eigenschaften der menschlichen Augen basierendes UAV-Inspektionsverfahren (engl.: unmanned aerial vehicle, dt.: Drohne) eines Stromkabels. Beim Detektions- und Alarmprozess der externen Unfälle der Stromkabel handelt es sich darum, dass ein UAV-Videoaufnahmemodul mittels einer im UAV geladenen binokularen visuellen Messvorrichtung Informationen über die Verteilung und die Umgebung der Stromleitungen erhält, ein Bildvorverarbeitungsmodul eine Vorverarbeitung für die ins System eingegebenen Bilder des Stromkabels durchführt, ein Stromkabeldetektionsmodul mittels eines visuellen Aufmerksamkeitsmechanismus der menschlichen Augen eine Teilung der Stromleitungen in den Bildern abschließt, und wobei ein binokulares Bildausrichtungsmodul mittels eines SURF-Algorithmus eine genaue Anpassung für den Merkmalspunkt durchführt, ein Fehlerdetektions- und Alarmmodul mittels eines binokularen visuellen Prinzips die dreidimensionalen Raumkoordinaten des Anpassungspunkts und der Stromleitungen errechnet und ein Ergebnisausgabe- und Rückkopplungsmodul anhand der räumlichen Koordinateninformation den vertikalen Abstand zwischen dem Anpassungspunkt und den Stromleitungen errechnet, um die Rückkopplung über die Informationen eines eine Bedrohung für die Stromleitungen bildenden Hindernisses abzuschließen. Mit dem Verfahren der vorliegenden Erfindung kann eine quantitative Analyse für das Hindernis der Stromleitungen durchgeführt werden, dabei sind die Analyseergebnisse stabil und objektiv.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft das Gebiet der digitalen Bildverarbeitung und der automatischen Inspektion eines Stromkabels, insbesondere ein auf den visuellen Eigenschaften der menschlichen Augen basierendes UAV-Inspektionsverfahren eines Stromkabels.
  • Stand der Technik
  • Mit der kräftigen Entwicklung der chinesischen Wirtschaft wächst die Nachfrage nach elektrischer Energie stark an. Um die wachsende Inlandsstromnachfrage zu erfüllen, besteht eine Notwendigkeit zum Ausbau von Stromkabeln, der Hochspannung und der hohen Kapazität. Mit dem Bau einer großen Menge an Stromkabeln wird die Deckfläche immer breiter, und die topographische Situation wird immer komplexer und vielfältiger, dabei ist es ein schwierig zu lösendes Problem, wie während des Baus des Stromnetzes die Kabel topographisch überschreitend gewartet werden; andererseits ändert sich die Umgebung eines Stromkabels ebenfalls ständig mit der Änderung der Region und der Zeit. Das gesamte Stromkabelsystem hat eine hohe Komplexität, dabei wird ein bestehendes Risiko eines wichtigen Kettengliedes die Stromversorgung des Benutzers und die Stromversorgungssicherheit des Systems beeinträchtigen, dadurch wird unkalkulierbarer wirtschaftlicher Schaden bewirkt, und die Sicherheit von Leben und Eigentum wird bedroht, aufgrund dessen ist die Inspektion des Stromkabels ein wichtiger Teil der Wartungsarbeit der Anlage des Stromsystems.
  • Die Hochspannungsleitungen sind Freileitungen. Die Stromkabel, bei denen mittels der Isolatoren und elektrischen Ausrüstungen die Leitungen auf dem Turm überbrückend angeordnet sind, sind ein wichtiger Bestandteil des Stromnetzes und Stromsystems und sind extrem anfällig für die Beeinträchtigung und Beschädigung durch die Außenumgebung. Die derzeit bestehenden Freileitungsunfälle umfassen hauptsächlich äußere Beschädigungsunfälle, Windunfälle, Blitzunfälle und andere durch Alterung der Ausrüstung bewirkte Unfälle, die äußeren Beschädigungsunfälle beziehen sich auf die Unfälle, die dadurch bewirkt werden, dass ein Fremdkörper in den nicht sicheren Bereich oder Abstand eintritt, z.B. treten Waldbäume und Gebäude usw. in den nicht sicheren Bereich des Stromkabels ein, dadurch wird nicht nur eine Bedrohung für die Sicherheit der Stromkabel gebildet, sondern eigener Stromschlag, Brand und andere Unfälle des Hindernisses können auch extrem leicht bewirkt werden. Nach den einschlägigen Berichten nehmen die äußeren Beschädigungsunfälle 1/4 der gesamten Anzahl der jährlichen Ansprechfehler der Stromkabel des ganzen Landes ein, was der Gesellschaft enorme Gefahren und wirtschaftliche Verluste bringt.
  • Der herkömmliche Stromkabelinspektionsmodus ist in der Regel eine manuelle Inspektion am Ort, der Modus erfordert einen großen Verbrauch der menschlichen Ressourcen, aber bei einer großen Deckfläche der Stromkabel und einer vielfältigen Umgebung hat die manuelle Inspektion der Stromkabel am Ort eine niedrige Effizienz und eine schlechte Echtzeitlichkeit, dabei können die Anforderungen an die Deckfläche und die Echtzeitlichkeit der Inspektion des Stromkabels in der Regel nicht erfüllt werden. Darüber hinaus erfolgt das manuelle Inspektionsverfahren der Stromkabel in der Regel durch eine Beobachtung über menschliche Augen, nach den Erfahrungen der Mitarbeiter wird der Zustand der Stromkabel beurteilt. Aufgrund einer übermäßigen Abhängigkeit von dem Zustand und den Erfahrungen der Mitarbeiter kann der Abstand eines Hindernisses zum Stromkabel quantitativ analysiert werden, dadurch kann ein Phänomen der falschen Inspektion und mangelnden Inspektion extrem leicht auftreten, so dass die Anforderungen an die Genauigkeit der Inspektion der Stromkabel nicht erfüllt werden können.
  • Inhalt der Erfindung
  • Es ist ein zu lösendes technisches Problem, hinsichtlich der technischen Mängel auf dem Inspektionsgebiet der äußeren Beschädigungsunfälle der derzeit bestehenden Stromkabel ein UAV-Inspektionssystem eines Stromkabels zur Verfügung zu stellen, um das Inspektionsverfahren des Stromkabels zu verbessern und die Wirksamkeit und die Genauigkeit der Inspektion zu verbessern.
  • Um das obige technische Problem zu lösen, stellt die vorliegende Erfindung ein auf den visuellen Eigenschaften der menschlichen Augen basierendes UAV-Inspektionsverfahren eines Stromkabels zur Verfügung, umfassend folgende Schritte:
    1. (1) UAV-Videoaufnahme: Erhalten der Videobilder der Informationen über die Stromleitungsverteilung und der Stromleitungsumgebung mittels einer im UAV geladenen binokularen visuellen Messvorrichtung; bei der binokularen visuellen Messvorrichtung handelt es sich darum, dass zwei Videobilderfassungsvorrichtungen mit gleichen Spezifikationen und Parametern jeweils in Form des linken Auges und rechten Auges arbeiten und mit einem gleichen Betrachtungswinkel die Videobildinformationen gleichzeitig erfassen; wenn die im UAV geladene binokulare visuelle Messvorrichtung eine Inspektion des Stromkabels durchführt, wird eine drahtlose Fernsteuerung für UAV durchgeführt, so dass UAV in einer parallel zum Stromkabel ausgerichteten Route und oberhalb des Stromkabels einen geraden Flug mit gleichmäßiger Geschwindigkeit durchführt, und wobei die Verteilungsrichtung des Stromkabels in der Videobild-Erfassungssequenz parallel zur Flugrichtung des UAV ausgerichtet ist;
    2. (2) ein Bildvorverarbeitungsmodul, das ein Framing für die eingegebene Videobildsequenz des Stromkabels durchführt, wobei eine Vorverarbeitung für die aktuellen Framebilder durchgeführt wird, umfassend eine Bildgraustufenverarbeitung und (Difference of Gaussian) DoG-Kantenerkennung; dabei beschreibt die DoG-Kantenerkennung mittels der Gaussschen Differenzergebnisse verschiedener Parameter die Kanten der Bilder und führt eine gleiche Verarbeitung nacheinander für das Linksaugenbild und das Rechtsaugenbild durch.
    3. (3) ein Stromkabeldetektionsmodul, das mittels der mathematischen Morphologie die Bilder nach der Vorverarbeitung verarbeitet und die Strukturfaktoren mit gleicher Richtung wie die Stromleitungen auswählt, um eine wiederholte Dilatations- und Erosionsverarbeitung für die Bilder durchzuführen, so dass die Störungen der Bilder beseitigt werden, wobei dann mittels des Aufmerksamkeitsmechanismus der visuellen Anschlussdomäne der menschlichen Augen eine größte lineare Anschlussdomäne ausgewählt wird, um eine Teilung der Stromleitungen in den Bildern abzuschließen; der visuelle Aufmerksamkeitsmechanismus der menschlichen Augen bezieht sich darauf, dass im Sichtbereich die menschlichen Augen sofort die Bereiche mit besonderer Form, Farbe und Leuchtdichte merken, mittels des Aufmerksamkeitsmechanismus der menschlichen Augen für die Anschlussdomäne der besonderen Form schließt der Aufmerksamkeitsmechanismus der visuellen Anschlussdomäne der menschlichen Augen eine Teilung der Stromkabel ab. und wobei die Abszissenpositionen (xdz1,xdz2...xdzj), (xdy1,xdy2...xdyj ) des Stromkabels im Linksaugenbild und Rechtsaugenbild jeweils aufgezeichnet werden; und wobei xdz1,xdz2...xdz, und xdy1,xdy2...xdyj jeweils für die auf dem Linksaugenbild und Rechtsaugenbild befindlichen Abszissen des Mittelpunkts des Anschlussbereichs der Stromleitungen in einer Anzahl von j sind;
    4. (4) ein binokulares Bildausrichtungsmodul, das jeweils eine Ausrichtung für das Linksaugenbild und das Rechtsaugenbild durchführt, wobei mittels des SURF-Algorithmus ein Merkmalspunkt des Linksaugenkantenbildes und des Rechtsaugenkantenbildes nach der Vorverarbeitung jeweils gefunden wird und ein Deskriptor des aktuellen Merkmalspunkts ermittelt wird, und wobei dann eine genaue Paarung für den Merkmalspunkt durchgeführt wird, um die Positionsinformationen des genauen Anpassungspunkts im Linksaugenbild und Rechtsaugenbild (xz1,yz1)-(xy1,yy1), (xz2,yz2)-(xy2,yy2) ... (xzn,yzn)-(xyn,yyn) aufzuzeichnen, und wobei n für die Anzahl aller im Einzelbild enthaltenen Merkmalspunkte steht, und wobei xzn,yzn und xyn,yyn jeweils für die Positionskoordinaten des zugeordneten Merkmalspunkts im Linksaugenbild und Rechtsaugenbild stehen;
    5. (5) dass mittels der im Linksaugenbild und Rechtsaugenbild befindlichen Abszissenposition (xdz1,xdz2 ...xdzj), (xdy1,xdy2...xdyj) des Stromkabels sowie der im Linksaugenbild und Rechtsaugenbild befindlichen Positionen (xz1,yz1)-(xy1,yy1), (xz2,yz2)-(xy2,yy2) ... (xzn,yzn)-(xyn,yyn) des genauen Anpassungspunkts ein Fehlerdetektions- und Alarmmodul mittels des binokularen visuellen Prinzips die dreidimensionalen Raumkoordinaten des Anpassungspunkts und des Stromkabels errechnet und anhand der räumlichen Koordinateninformation den vertikalen Abstand des Anpassungspunkts zum Stromkabel berechnet;
    6. (6) dass ein Ergebnisausgabe- und Rückkopplungsmodul eine Rückkopplung für die Informationen eines eine Bedrohung für das Stromkabel bildenden Hindernisses durchführt, wobei auf dem Interface der Software des Computers die ausführlichen Informationen des Hindernisses rückgekoppelt werden und die Detektionszeit und die Ortsposition des Hindernisses aufgezeichnet werden, wenn der räumliche vertikale Abstand des Anpassungspunkts zum Stromkabel höher als der vorgegebene Schwellenwert ist; und wobei keine Verarbeitung für den aktuellen Anpassungspunkt durchgeführt wird und eine gleiche Verarbeitung für alle Anpassungspunkte im aktuellen Framebild durchgeführt wird, wenn der räumliche vertikale Abstand des Anpassungspunkts zum Stromkabel niedriger als der vorgegebene Schwellenwert ist; und wobei für alle erhaltenen Framebilder nacheinander eine Rückkopplungsverarbeitung der Information des Hindernisses durchgeführt wird, um eine Aufzeichnung der Informationen des Hindernisses während des Inspektionsprozesses abzuschließen.
  • Die vorliegende Erfindung hat folgende Vorteile: mittels der binokularen visuellen Technik werden eine Detektion und Analyse für die externen Hindernisse des Stromkabels durchgeführt, hauptsächlich durch eine gekoppelte Inspektion mittels eines mit einer binokularen visuellen Messvorrichtung geladenen UAVs kann eine Informationssuche für umfangreiche Stromkabel schnell durchgeführt werden, um die Bildinformation des Stromkabels und der Anlage in Echtzeit zu erhalten, dabei schließt das Expertensystem eine quantitative Analyse für die Fehlerrisiken des Stromkabels ab. Im Vergleich zur herkömmlichen manuellen Inspektion wird die UAV-Inspektion nicht durch die Topographie, die Umgebung, den Zustand und andere Faktoren beeinflusst, dadurch können die Verteilungssituation und die Umgebung der Stromkabel in Echtzeit überwacht werden, mittels der binokularen visuellen Technik der menschlichen Augen werden eine quantitative Analyse und ein Alarm für die Verteilungssituation der Stromkabel und die Hindernisse der Stromkabel und andere Probleme durchgeführt, dabei bestehen eine gute Inspektionseffizienz, eine gute Universalität, eine gute Echtzeitlichkeit und andere Eigenschaften.
  • Figurenliste
    • 1 zeigt eine modulare Strukturansicht des UAV-Inspektionssystems des Stromkabels gemäß der vorliegenden Erfindung.
    • 2 zeigt ein physikalisches Modelldiagramm des UAV-Inspektionssystems des Stromkabels gemäß der vorliegenden Erfindung.
    • 3 zeigt ein Prozessablaufdiagramm des UAV-Inspektionssystems des Stromkabels gemäß der vorliegenden Erfindung.
    • 4 zeigt eine schematische Darstellung der Größe des Skalenraum-Filters.
    • 5 zeigt ein Diagramm des binokularen visuellen Abbildungsprinzips.
    • 6 zeigt eine schematische Darstellung der Anpassung der Merkmalspunkte des Linksaugenbildes und Rechtsaugenbildes.
    • 7 zeigt eine schematische Darstellung der Markierung der Hindernispunkte der externen Unfälle des Linksaugenbildes.
  • Ausführliche Ausführungsformen
  • Ein auf den visuellen Eigenschaften der menschlichen Augen basierendes UAV-Inspektionssystem eines Stromkabels, umfassend ein Hardware-Arbeitssystem und ein Software-Betriebssystem, wobei die gesamten Systemmodule wie in 1 dargestellt sind, und wobei das Hardwaresystem ein UAV-Videoinformationserfassungsmodul umfasst, und wobei das Softwaresystem ein Bildvorverarbeitungsmodul, ein Stromkabeldetektionsmodul, ein binokulares Bildausrichtungsmodul, ein Fehlerdetektions- und Alarmmodul und ein Ergebnisausgabe- und Rückkopplungsmodul umfasst.
  • Ein physikalisches Modelldiagramm ist wie in 2 dargestellt, zuerst wird eine Informationserfassung für die zu prüfenden Stromkabel und die Umgebung mittels einer im UAV geladenen binokularen visuellen Messvorrichtung durchgeführt, der Flug des UAVs wird gesteuert, dabei ist die Flugrichtung des UAVs parallel zur Verteilungsrichtung der Stromkabel ausgerichtet. Die erhaltene binokulare Videosequenz wird an das Software-Betriebssystem übertragen, anhand eines bestimmten Intervalls nimmt das Software-Betriebssystem das Bildframe aus der Videosequenz und führt nacheinander eine Bildvorverarbeitung, eine Inspektion des Stromkabels, eine Ausrichtung des Linksaugenbildes und Rechtsaugenbildes, eine Hinderniserfassung und einen Alarm sowie eine Ergebnisausgabe und Rückkopplung für alle Bildframes durch, um die Markierung der Hindernisse und die Aufzeichnung der Informationen während des Inspektionsprozesses abzuschließen.
  • Ein auf den visuellen Eigenschaften der menschlichen Augen basierendes UAV-Inspektionsverfahren eines Stromkabels gemäß der vorliegenden Erfindung, dabei ist der detaillierte Prozess wie in 3 dargestellt:
  • (1) Wenn die Stromkabel einer Region eine Inspektion brauchen, wird zuerst mittels einer im UAV geladenen binokularen visuellen Messvorrichtung eine Cruise für die Stromkabel und die Umgebung durchgeführt, um die einschlägigen Informationen zu erfassen, dabei ist die binokulare visuelle Messvorrichtung durch zwei Kameras gleicher Spezifikation ausgebildet, die Auflösung der Kameras unterschreitet 500W nicht, der Grundlinienabstand b = 120mm zwischen den beiden Kameras wird fest gemacht, die Brennweite f (400mm ≤ ƒ ≤ 1000mm) der Kameras ist bekannt, und die beiden Kameras führen gleichzeitig eine Aufnahme in parallelen gleichen Richtungen durch. UAV wird durch Mitarbeiter betätigt, die Flugrichtung des UAVs mit gleichmäßiger Geschwindigkeit ist parallel zur Verteilungsrichtung der Stromkabel ausgerichtet, der Flugprozess des UAVs hat eine gleichmäßige Geschwindigkeit und ist stabil, das auf den beiden Kameras basierende binokulare visuelle Hardwaresystem soll auf einer stabilen Plattform des UAVs installiert sein, die erfasste linke Videosequenz lz und rechte Video sequenz ly werden in einem durch das UAV getragene Speichergerät gespeichert und mittels eines Mobilfunknetzes an das Softwaresystem übertragen.
  • (2) Während des Cruise-Prozesses des UAVs werden die erfasste linke Videosequenz lz und rechte Videosequenz ly am Ort aus UAV an das Softwaresystem übertragen, das Softwaresystem sichert die erhaltenen Daten zuerst im Datenbereich, gleichzeitig gibt ein Mitarbeiter die Zeit und den Ort der Aufnahme ein. Eine Verarbeitung wird für die linke Videosequenz lz und die rechte Videosequenz ly durchführt, wobei zuerst mit einem bestimmten Intervall jeweils ein kontinuierliches Framing in der linken Videosequenz lz und der rechten Video sequenz ly durchgeführt wird, und wobei beim Framing gefordert wird, dass alle Framebilder durch die Verbindung eine vollständige Cruise-Bildinformation wiederherstellen können und bei der Verbindung der benachbarten Frames kein Informationsverlust besteht, um eine linke Bildsequenz Tz und eine rechte Bildsequenz Ty zu bilden, und wobei die linke Bildsequenz Tz und die rechte Bildsequenz Ty jeweils m Bilder enthält, welche jeweils Tz1,Tz2...Tzm und Ty1,Ty2...Tym sind; und wobei eine Vorverarbeitung für die entsprechenden Framebilder des linken Auges und rechten Auges durchgeführt wird, und wobei zuerst das erste Bild Tz1 des linken Auges und das erste Bild Ty1 des rechten Auges verarbeitet werden, und wobei die entsprechenden Framebilder des linken Auges und rechten Auges in der Reihenfolge nacheinander verarbeitet werden, bis die Verarbeitung des m. Bildes des linken Auges Tzm und des m. Bildes des rechten Auges Tym abgeschlossen wird.
  • Für das erste Bild des linken Auges Tzl und das erste Bild des rechten Auges Ty1 wird eine Vorverarbeitung durchgeführt, umfassend eine Bildgraustufenverarbeitung und DoG-Kantenerkennung (Difference of Gaussian);
    wobei bei der Bildgraustufenverarbeitung ein Farbbild zum Einkanal-Graustufenbild Hzl des ersten Bildes des linken Auges und Einkanal-Graustufenbild Hy1 des ersten Bildes des rechten Auges variiert wird;
    In der DoG-Kantenerkennung ist Difference of Gaussian(DOG) die Differenz der Gaußfunktion, durch eine Faltung der Bilder und der Gaußfunktion wird ein Tiefpassfilterergebnis eines Bildes erhalten, gleich wie der Gauss des Gaussschen Tiefpassfilters ist Gaussian eine Funktion, nämilch eine Normalverteilungsfunktion. Difference of Gaussian, nämlich die Differenz der Gaußfunktion, ist die Differenz zwischen zwei Gaussschen Bildern, hinsichtlich der spezifischen Bildverarbeitung werden die Gaussschen Filterergebnisse desselben Bildes unter verschiedenen Parametern substrahiert, um ein DoG-Bild zu erhalten, nämlich das Ergebnis der Kantenerkennung. Die DoG-Operation wird wie folgt definiert: D = 1 2 π [ 1 σ 1 2 e ( x 2 + y 2 ) 2 σ 1 2 1 σ 2 2 e ( x 2 + y 2 ) 2 σ 2 2 ] H      = [ G ( x , y , σ 1 ) G ( x , y , σ 2 ) ] H
    Figure DE112016000702T5_0001
    und wobei D für das Ergebnis des verarbeiteten Bildes steht, und wobei die erste Konstante σ1 = 0.6 und die zweite Konstante σ2 = 0.9 ist, und wobei x, y jeweils für die Abszisse und die Ordinate des aktuellen Pixels im Bild stehen, und wobei die Größe des Fensters der Gaussschen Filterfunktion 5 × 5 beträgt, und wobei G(x, y, σ1) und G(x, y, σ2) jeweils eine Gauß-Filter-Funktion verschiedener Parameter sind, und wobei H ein Graustufenbild ist, und wobei „*“ für eine Gleitungs-Filterverarbeitung für das gesamte Bild steht, und wobei die Bilder nach der Vorverarbeitung jeweils ein Linksaugenkantenbild Dzl und ein Rechtsaugenkantenbild Dyl sind.
  • (3) Die Stromkabel im Linksaugenkantenbild Dzl und Rechtsaugenkantenbild Dyl werden geteilt, zuerst werden das Linksaugenkantenbild Dzl und das Rechtsaugenkantenbild Dyl mittels der zirkulierenden Dilatations- und Erosionsoperation in der mathematischen Morphologie verarbeitet; die Videoaufnahmerichtung ist parallel zur Verteilungsrichtung der Stromkabel ausgerichtet, im Bild ist die Richtung der Stromkabel parallel zur 90°-Richtung des Bildes ausgerichtet. Bei der morphologischen Bildverarbeitung wird ein Strukturelement im Bild bewegt, dann wird eine Durchschnitt- und Fusionsoperation für das Strukturelement und das Linksaugenkantenbild Dzl sowie Rechtsaugenkantenbild Dyl durchgeführt, das Strukturelement ist ein wichtigster und wesentlicher Begriff, B(x) steht für das Strukturelement, die Erosions- und Dilatationsoperation für jeden Punkt A(x,y) im Arbeitsraum E wird wie folgt definiert: Erosion : X = E B = { A ( x , y ) : B ( x ) E }
    Figure DE112016000702T5_0002
    Dilatation : Y = E B = { A ( x , y ) : B ( y ) E Φ }
    Figure DE112016000702T5_0003
  • Dabei steht ⊂ für „darin enthalten“, wobei ∩ für „Durchschnittsoperation“ steht, und wobei Φ für Nullmenge steht, Mit dem Strukturelement B(x) wird der Arbeitsraum E erodiert und daraus resultiert ein Ergebnis, dass nach der Translation des Strukturelements B das Strukturelement B in einer durch alle Punkte des Arbeitsraums E ausgebildeten Menge enthält; und wobei mit dem Strukturelement B(x) der Arbeitsraum E gedehnt wird und daraus ein Ergebnis resultiert, dass nach der Translation des Strukturelements B die Schnittmenge zwischen dem Strukturelement B und dem Arbeitsraum E eine durch nicht leere Punkte gebildete Menge ist. Ein linearer Strukturfaktor wird ausgewählt, wobei die Länge 3 Pixel und der Winkel 90 Grad beträgt, und wobei eine Erosions- und Dilatationsoperation für das Linksaugenkantenbild Dzl und das Rechtsaugenkantenbild Dyl durchgeführt wird, und wobei eine Zyklusoperation zwei Erosionsoperationen und eine Dilatationsoperation umfasst, und wobei die Zyklusoperationen zwanzigmal durchgeführt werden.
  • Bezüglich eines Bildes nach der zirkulierenden Dilatations- und Erosionsoperation werden die Fläche und die Länge der Anschlussdomäne im Bild erfasst, wobei die Segmente, deren lineare Form und Fläche der Anschlussdomäne die Anforderung des Schwellenwerts erfüllen, aufrechterhalten werden, nämlich die Stromleitung, und wobei die Störungen im Bild beseitigt werden, die Teilung des Stromkabels im Bild abgeschlossen wird und die Abszissenpositionen (xdz1,xdz2...xdzj), (xdy1,xdy2 ...xdyj) des Stromkabels im Linksaugenkantenbild Dzl und Rechtsaugenkantenbild Dyl jeweils aufgezeichnet werden, und wobei das Linksaugenkantenbild Dzl und Rechtsaugenkantenbild Dyl jeweils j Stromleitungen enthalten, und wobei j Abszissenpositionen aufgezeichnet werden.
  • (4) Mittels des SURF-Algorithmus wird eine Erfassung des Merkmalspunkts für das Linksaugenkantenbild Dzl und das Rechtsaugenkantenbild Dyl durchgeführt, damit die Anpassungsmerkmale eine Unveränderlichkeit der Größe haben, die Erfassung der wichtigsten Punkte des Bildes wird im Skalenraum abgeschlossen. Beim SURF-Algorithmus wird eine Rahmenfilterung verschiedener Größen auf dem Originalbild durchgeführt, um eine Bildpyramide verschiedener Skalen auszubilden.
  • (41) Mittels des schnellen Hessian-Detektors wird der Merkmalspunkt ermittelt, dabei verfügt die Hessian-Matrix über eine hervorragende Leistung in Hinsicht auf die Errechnung der Zeit und der Genauigkeit. Hinsichtlich eines Punkts im Bild ist die Definition der Hessian-Matrix unter der Skala wie in folgender Formel dargestellt, hinsichtlich eines Punkts (x, y) im Linksaugenkantenbild Dzl und Rechtsaugenkantenbild Dyl wird die Hessian-Matrix an diesem Punkt wie folgt ausgedrückt, wenn die Skala σ ist: H ( x , σ ) = [ L x x ( x , σ ) L x y ( x , σ ) L x y ( x , σ ) L y y ( x , σ ) ]
    Figure DE112016000702T5_0004
  • Dabei steht die Funktion Lxx(x,σ) für die partielle Ableitung zweiter Ordnung der Gaussfunktion auf der x-Koordinate und die Faltung des Linksaugenkantenbildes Dzl und Rechtsaugenkantenbildes Dyl am Punkt (x, y), wobei die Formel wie folgt ist: L x x ( x , σ ) = D 2 x 2 g ( σ )
    Figure DE112016000702T5_0005
  • Die Beschreibung von Lxy(x,σ) und Lyy(x,σ) ist jeweils wie in der folgenden Formel dargestellt: L x y ( x , σ ) = D 2 x y g ( σ )
    Figure DE112016000702T5_0006
    L y y ( x , σ ) = D 2 y 2 g ( σ ) ,
    Figure DE112016000702T5_0007
    bezieht sich auf die Operation zum Ermitteln der partiellen Ableitung,
  • Dabei wird der Skalenraum des SURF-Algorithmus ebenfalls in Gruppen (Octaves) geteilt, und die Bilder in jeder Gruppe werden nach dem Falten der Filter verschiedener Größen ermittelt. Dabei erhöht sich die Größe der Filter schrittweise. Es wird angenommen, dass die Größe N × N beträgt, beträgt die entsprechende Skala σ = 1.2 × N / 9. Die Größen der Filter in verschiedenen Gruppen innerhalb des Skalenraums sind wie in 4 dargestellt, dabei steht die Abszisse für die Änderung der Größe des Filters, während die Ordinate für verschiedene Gruppen steht.
  • Damit der Algorithmus über eine Eigenschaft der unveränderten Richtung verfügt, weist der SURF-Algorithmus anhand der Informationen des Pixels in der Umgebung des Merkmalspunkts eine einzige Richtung jedem Interessenpunkt erneut zu, dabei ist der detaillierte Schritt wie folgt:
    1. a) Mit dem Merkmalspunkt als Zentrum wird die Antwort des Harr-Wavelets in der horizontalen und vertikalen Richtung innerhalb eines kreisförmigen benachbarten Bereichs mit einem Radius von 6σ errechnet, wobei die Abtastschrittlänge σ und die Größe des Wavelets 4σ beträgt;
    2. b) Mit dem Merkmalspunkt als Zentrum wird eine Gausssche Gewichtung für die Wavelet-Antwort durchgeführt, so dass ein sich dem Merkmalspunkt annäherndes Gewicht groß und ein dem Merkmalspunkt abgewandtes Gewicht klein ist, um eine neue Antwort in der horizontalen Richtung und der vertikalen Richtung zu erhalten;
    3. c) Am Ende durchläuft ein sektorförmiges Fenster mit einem Winkel von 60 Grad den ganzen Kreis, bis die gesamte Antwort des sektorförmigen Fensters am stärksten wird, jetzt ist die Zeigerichtung innerhalb des sektorförmigen Fensters die Hauptrichtung des Interessenpunkts.
  • (42) Der Merkmalspunkt wird zuerst als Mittelpunkt angeordnet, wobei entlang der Hauptrichtung des Mittelpunkts ein Rahmen mit einer Größe von 20σ gebildet wird, und wobei dann der Bereich in 16 kleine Bereiche aufgeteilt wird, und wobei die Wavelet-Antwort in jedem Unterbereich (5σ × 5σ) berechnet wird, um die 0°-Richtung und den Vektor ∑dx, die 90°-Richtung und den Vektor ∑dy, die 180°-Richtung und den Vektor ∑d|x| sowie die 180°-Richtung und den Vektor ∑d|y| zu erhalten, und wobei jeder Unterbereich durch ein Konstruieren eines vierdimensionalen Merkmalsvektors v = (∑dx,∑|dx|, ∑dy,∑|dy|) dargestellt wird, und wobei am Ende ein 64-dimensionaler Deskriptor des Punkts ausgebildet wird;
    Es wird angenommen, dass die Größen des Linksaugenkantenbildes Dz1 und des Rechtsaugenkantenbildes Dyl jeweils M×N sind, und die Bilder werden nacheinander unter derselben Koordinatenachse platziert, um ein Bild mit einer Größe von M×2N auszubilden, die Anpassung der Merkmalspunkte des Linksaugenkantenbildes und Rechtsaugenkantenbildes ist wie in 6 dargestellt. Die Mengen der mit dem SURF-Verfahren erfassten Merkmalspunkte des Linksaugenkantenbildes Dzl und Rechtsaugenkantenbildes Dy1 werden jeweils wie folgt dargestellt: P o s 1 = { ( x 1 ' , y 1 ' ) , ( x 2 ' , y 2 ' ) ,..., ( x p ' , y p ' ) }
    Figure DE112016000702T5_0008
    P o s 2 = { ( x 1 , y 1 ) , ( x 2 , y 2 ) ,..., ( x q , y q ) } ,
    Figure DE112016000702T5_0009
  • Dabei stehen p und q jeweils für die Anzahl der Merkmalspunkte des Linksaugenkantenbildes Dzl und Rechtsaugenkantenbildes Dyl; anhand des Vorwissens über die Folgerichtigkeit zwischen der Steigungsrichtung der endgültigen richtigen Anpassungspunktpaare umfasst das Anpassungsverfahren der Merkmalspunkte der vorliegenden Erfindung folgende Schritte:
    1. a) Bezüglich jedes Punkts i in der Merkmalspunktmenge Pos1 des Linksaugenkantenbildes wird sein euklidischer Abstand zu allen Punkten in der Merkmalspunktmenge Pos2 des Rechtsaugenkantenbildes errechnet, dabei wird ein dem minimalen euklidischen Abstand zugeordneter Punkt als roher Anpassungspunkt des Punkts i ausgewählt;
    2. b) Der euklidische Abstand zwischen allen rohen Anpassungspunktpaaren wird errechnet, und in einer Reihenfolge vom kleinen zum großen euklidischen Abstand werden die Anpassungspunktpaare geordnet, dabei werden die Mehrpunkt-Einzelpunkt-Punktpaare gelöscht, jetzt werden die Merkmalspunkte im Linksaugenkantenbild Dzl und Rechtsaugenkantenbild Dyl jeweils durch eine Merkmalspunktmenge Pos1 des korrigierten Linksaugenkantenbildes und eine Merkmalspunktmenge Pos2 des korrigierten Rechtsaugenkantenbildes dargestellt;
    3. c) Die ersten K1 Paare von den Anpassungspunkten in der Merkmalspunktmenge Pos1 des korrigierten Linksaugenkantenbildes und Merkmalspunktmenge Pos2 des korrigierten Rechtsaugenkantenbildes werden ausgewählt und als P o s _ K 1 = { { ( x 1 ' , y 1 ' ) , ( x 1 , y 1 ) } , { ( x 2 ' , y 2 ' ) , ( x 2 , y 2 ) } ,..., { ( x n ' , y n ' ) , ( x n , y n ) } }
      Figure DE112016000702T5_0010
      markiert sowie als Menge 1 bezeichnet; Die ersten K2 Paare von den Anpassungspunkten in der Merkmalspunktmenge Pos1 des korrigierten Linksaugenkantenbildes und Merkmalspunktmenge Pos2 des korrigierten Rechtsaugenkantenbildes werden ausgewählt und als Pos_K2 dargestellt, dabei erfolgt P o s _ K 2 = { { ( x 1 ' , y 1 ' ) , ( x 1 , y 1 ) } , { ( x 2 ' , y 2 ' ) , ( x 2 , y 2 ) } ,..., { ( x K 2 ' , y K 2 ' ) , ( x K 2 , y K 2 ) } } ,
      Figure DE112016000702T5_0011
      was als Menge 2 bezeichnet wird, dabei erfolgt K1 < K2 ;
    4. d) Für alle Punktpaare in der Menge 2 wird die Steigung zwischen zwei Punkten berechnet, wie in der folgenden Formel dargestellt, ferner folgt ein Aufrunden bzw. Abrunden, um eine Steigungsmenge k auszubilden: k: k = {k1,k2,...,kw} , k w = y w x w x w ' ,1 w K 2 ;
      Figure DE112016000702T5_0012
    5. e) Die Frequenz des Auftretens jeder Steigung in der Steigungsmenge k wird berechnet, die Steigungen mit einer Frequenz von größer als und gleich wie 2 werden ausgesucht, um eine neue Menge k_new = {k1,k2,...,kt} auszubilden, dabei steht t für die Gesamtanzahl der erhaltenen Merkmalspunkte; theoretisch ist die Anzahl der Elemente in der Menge k_new kleiner als die Anzahl der Elemente in der Steigungsmenge; wenn die Frequenz des Auftretens jeder Steigung in der Steigungsmenge k jeweils 1 beträgt, werden die ersten 2K2/3 Paare von den Steigungen ausgewählt, um eine neue Menge k_new auszubilden;
    6. f) Die Steigungen aller Punktpaare in der Merkmalspunktmenge Pos1 des korrigierten Linksaugenkantenbildes und der Merkmalspunktmenge Pos2 des korrigierten Rechtsaugenkantenbildes werden ergodisch berechnet, dabei werden alle Punktpaare mit einer Steigung im Bereich von [kt -0.5,kt +0.5] ausgesucht, um eine Punktpaarmenge Pos_ K3 = {{(xz1,yz1),(xy1,yy1)},{(xz2,yy2),(xy2,yy2)},...,{(xzn,yzn),(xyn,yyn)}} auszubilden, dabei erfolgt kt ∈ k_new ;
  • (5) Ein Diagramm des binokularen visuellen Abbildungsprinzips ist wie in 5 dargestellt, der Grundlinienabstand zwischen den binokularen visuellen Kameras b = 120mm und die Brennweite f (400mm ≤ f ≤ 1000mm ) der Kamera sind bekannt, wobei die Parallaxe d als die Positionsdifferenz zwischen den entsprechenden Punkten eines Punkts in beiden Bildern definiert wird: d = ( x z n x y n )
    Figure DE112016000702T5_0013
    und wobei xzn, xyn jeweils die Abszissen des Anpassungspunktpaars im Linksaugenbild und Rechtsaugenbild sind, dadurch wird die Raumkoordinate eines Punkts P im Koordinatensystem der linken Kamera errechnet: { x c = b x z n d y c = b y z n d z c = b ƒ d
    Figure DE112016000702T5_0014
    und wobei (xc , yc , zc) die Positionsinformationen des aktuellen Anpassungspunkts in der Raumkoordinate darstellt, und wobei yzn für die Ordinate des Anpassungspunktpaars im Linksaugenbild und Rechtsaugenbild steht, und wobei anhand der obigen Formel die Koordinaten aller Anpassungspunkte im Koordinatensystem der linken Kamera errechnet werden, und wobei anhand der obigen Formel und der erhaltenen Abszissenposition {xdz1,xdz2...xdzj), (xdy1,xdy2...xdyj) des Stromkabels die Raumkoordinate eines Punkts am Stromkabel mit einem minimalen räumlichen euklidischen Abstand zum Anpassungspunkt errechnet wird; und wobei der räumliche euklidische Abstand der Punkte am Stromkabel mit gleichen Ordinaten im zweidimensionalen Koordinatensystem zum Anpassungspunkt als minimaler Abstand definiert wird und die Ordinate des Anpassungspunkts unmittelbar dem zugeordneten Punkt am Stromkabel verliehen wird, so dass mit der Punktpaarmenge Pos_K3 = {{(xz1,yz1),(xy1,yy1)},{(xz2,yz2),(Xy2,yy2)},...,{(xzn,yzn),(xyn,yyn)}} die dem Stromkabel einander zugeordneten Punkte Pos_D = {{(xdz1,yz1),(xdy1,yy1)},{(xdz2,yz2),(xdy2,yy2)},...,{(xdzn,yzn),(xdyn,yyn)}} ausgebildet werden, und wobei somit die Raumkoordinate (xd ,yd, zd) eines Punkts D auf dem Stromkabel im Koordinatensystem der linken Kamera errechnet wird.
  • (6) Nach dem Erhalt der Raumkoordinate des Punkts P und Punkts D wird der räumliche euklidische Abstand J des Anpassungspunkts zum Stromkabel errechnet, dabei wird J wie folgt definiert: J = ( x c x d ) 2 + ( y c y d ) 2 + ( z c z d ) 2
    Figure DE112016000702T5_0015
  • Der räumliche euklidische Abstand aller Anpassungspunkte im aktuellen Einzelbild zum Stromkabel wird nacheinander errechnet und mit dem vorgegebenen Erfahrungsschwellenwert des Abstandes verglichen, wenn J höher als der Schwellenwert ist, wird die Markierung des Punkts im Linksaugenbild abgeschlossen, um die Rückkopplung der Informationen eines eine Bedrohung für das Stromkabel bildenden Hindernisses abzuschließen. Im Interface der Software des Computers werden detaillierte Informationen des Hindernisses rückgekoppelt, um die Erfassungszeit und die Ortposition des Hindernisses aufzuzeichnen. Wenn der räumliche vertikale Abstand zwischen dem Anpassungspunkt und dem Stromkabel niedriger als der vorgegebene Schwellenwert ist, wird der aktuelle Anpassungspunkt nicht verarbeitet, und eine gleiche Verarbeitung wird für alle Anpassungspunkte im aktuellen Einzelbild durchgeführt. Eine obige Verarbeitung wird nacheinander für alle Framebilder in der Videosequenz durchgeführt, um die Markierung der Hindernisse und die Aufzeichnung der Informationen während des Inspektionsprozesses abzuschließen.

Claims (11)

  1. Auf den visuellen Eigenschaften der menschlichen Augen basierendes UAV-Inspektionsverfahren eines Stromkabels, dadurch gekennzeichnet, dass es folgende Schritte umfasst: (1) UAV-Videoaufnahme: Erhalten der Videobilder der Informationen über die Stromleitungsverteilung und der Stromleitungsumgebung mittels einer im UAV geladenen binokularen visuellen Messvorrichtung; (2) ein Bildvorverarbeitungsmodul, das ein Framing für die eingegebene Videobildsequenz des Stromkabels durchführt, wobei eine Vorverarbeitung für die aktuellen Framebilder durchgeführt wird, umfassend eine Bildgraustufenverarbeitung und DoG-Kantenerkennung; und wobei die DoG-Kantenerkennung mittels der Gaussschen Differenzergebnisse verschiedener Parameter die Kanten der Bilder beschreibt und eine gleiche Verarbeitung nacheinander für das Linksaugenbild und das Rechtsaugenbild durchführt; (3) ein Stromkabeldetektionsmodul, das mittels der mathematischen Morphologie die Bilder nach der Vorverarbeitung verarbeitet und die Strukturfaktoren mit gleicher Richtung wie die Stromleitungen auswählt, um eine wiederholte Dilatations- und Erosionsverarbeitung für die Bilder durchzuführen, so dass die Störungen der Bilder beseitigt werden, wobei dann mittels des Aufmerksamkeitsmechanismus der visuellen Anschlussdomäne der menschlichen Augen eine größte lineare Anschlussdomäne ausgewählt wird, um eine Teilung der Stromleitungen in den Bildern abzuschließen; und wobei Abszissenpositionen (xdz1,xdz2...xdzj), (xdy1,xdy2... xdyj ) des Stromkabels im Linksaugenbild und Rechtsaugenbild jeweils aufgezeichnet werden; und wobei xdz1, xd2...xdzj und xdy1,xdy2...xdyj jeweils für die auf dem Linksaugenbild und Rechtsaugenbild befindlichen Abszissen des Mittelpunkts des Anschlussbereichs der Stromleitungen in einer Anzahl von j sind; (4) ein binokulares Bildausrichtungsmodul, dass jeweils eine Ausrichtung für das Linksaugenbild und das Rechtsaugenbild durchführt, wobei mittels des SURF-Algorithmus ein Merkmalspunkt des Linksaugenrandbildes und des Rechtsaugenrandbildes nach der Vorverarbeitung jeweils gefunden wird und ein Deskriptor des aktuellen Merkmalspunkts ermittelt wird, und wobei dann eine genaue Paarung für den Merkmalspunkt durchgeführt wird, um die Positionsinformationen des genauen Anpassungspunkts im Linksaugenbild und Rechtsaugenbild (xz1,yz1)-(xy1,yy1), (xz2,yz2)-(xy2,yy2) ... (xzn,yzn)-(xyn,yyn) aufzuzeichnen, und wobei n für die Anzahl aller im Einzelbild enthaltenen Merkmalspunkte steht, und wobei xzn, yzn und xyn, yyn jeweils für die Positionskoordinaten des zugeordneten Merkmalspunkts im Linksaugenbild und Rechtsaugenbild stehen; (5) dass mittels der im Linksaugenbild und Rechtsaugenbild befindlichen Abszissenposition (xdz1,xdz2...xdzj), (xdy1,xdy2 ... xdyj ) des Stromkabels sowie der im Linksaugenbild und Rechtsaugenbild befindlichen Positionen (xz1,yz1)-(xy1,yy1), (xz2,yz2)-(xy2,yy2) ... (xzn,yzn)-(xyn,yyn) des genauen Anpassungspunkts ein Fehlerdetektions- und Alarmmodul mittels des binokularen visuellen Prinzips die dreidimensionalen Raumkoordinaten des Anpassungspunkts und des Stromkabels errechnet und anhand der räumlichen Koordinateninformation den vertikalen Abstand des Anpassungspunkts zum Stromkabel berechnet; (6) dass ein Ergebnisausgabe- und Rückkopplungsmodul eine Rückkopplung für die Informationen eines eine Bedrohung für das Stromkabel bildenden Hindernisses durchführt, wobei auf dem Interface der Software des Computers die ausführlichen Informationen des Hindernisses rückgekoppelt werden und die Detektionszeit und die Orstposition des Hindernisses aufgezeichnet werden, wenn der räumliche vertikale Abstand des Anpassungspunkts zum Stromkabel höher als der vorgegebene Schwellenwert ist; und wobei keine Verarbeitung für den aktuellen Anpassungspunkt durchgeführt wird und eine gleiche Verarbeitung für alle Anpassungspunkte im aktuellen Framebild durchgeführt wird, wenn der räumliche vertikale Abstand des Anpassungspunkts zum Stromkabel niedriger als der vorgegebene Schwellenwert ist; und wobei für alle erhaltenen Framebilder nacheinander eine Rückkopplungsverarbeitung der Information des Hindernisses durchgeführt wird, um eine Aufzeichnung der Informationen des Hindernisses während des Inspektionsprozesses abzuschließen.
  2. Auf den visuellen Eigenschaften der menschlichen Augen basierendes UAV-Inspektionsverfahren eines Stromkabels nach Anspruch 1, dadurch gekennzeichnet, dass es sich bei der binokularen visuellen Messvorrichtung im Schritt (1) darum handelt, dass zwei Videobilderfassungsvorrichtungen mit gleichen Spezifikationen und Parametern jeweils in Form des linken Auges und rechten Auges arbeiten und mit einem gleichen Betrachtungswinkel die Videobildinformationen gleichzeitig erfassen; wenn die im UAV geladene binokulare visuelle Messvorrichtung eine Inspektion des Stromkabels durchführt, wird eine drahtlose Fernsteuerung für UAV durchgeführt, so dass UAV in einer parallel zum Stromkabel ausgerichteten Route und oberhalb des Stromkabels einen geraden Flug mit gleichmäßiger Geschwindigkeit durchführt, und wobei die Verteilungsrichtung des Stromkabels in der Videobild-Erfassungssequenz parallel zur Flugrichtung des UAV ausgerichtet ist; wobei die erfassten Videobilder des Stromkabels eine linke Videosequenz lz und eine rechte Videosequenz ly umfassen, und wobei die Daten der linken Videosequenz lz und der rechten Videosequenz ly in einem durch UAV getragenen Speichergerät gespeichert und mittels eines Mobilfunknetzes an das Bildvorverarbeitungsmodul des Softwaresystems übertragen werden.
  3. Auf den visuellen Eigenschaften der menschlichen Augen basierendes UAV-Inspektionsverfahren eines Stromkabels nach Anspruch 1, dadurch gekennzeichnet, dass im Schritt (2) das Bildvorverarbeitungsmodul eine Verarbeitung für die linke Videosequenz lz und die rechte Videosequenz ly durchführt, wobei zuerst mit einem bestimmten Intervall jeweils ein kontinuierliches Framing in der linken Videosequenz lz und der rechten Videosequenz ly durchgeführt wird, und wobei beim Framing gefordert wird, dass alle Framebilder durch die Verbindung eine vollständige Cruise-Bildinformation wiederherstellen können und bei der Verbindung der benachbarten Frames kein Informationsverlust besteht, um eine linke Bildsequenz Tz und eine rechte Bildsequenz Ty zu bilden, und wobei die linke Bildsequenz Tz und die rechte Bildsequenz Ty jeweils m Bilder enthält, welche jeweils Tz1, Tz2...Tzm und Ty1,Ty2...Tym sind; und wobei eine Vorverarbeitung für die entsprechenden Framebilder des linken Auges und rechten Auges durchgeführt wird, und wobei zuerst das erste Bild Tzl des linken Auges und das erste Bild Ty1 des rechten Auges verarbeitet werden, und wobei die entsprechenden Framebilder des linken Auges und rechten Auges in der Reihenfolge nacheinander verarbeitet werden, bis die Verarbeitung des m. Bildes des linken Auges Tzm und des m. Bildes des rechten Auges Tym abgeschlossen wird.
  4. Auf den visuellen Eigenschaften der menschlichen Augen basierendes UAV-Inspektionsverfahren eines Stromkabels nach Anspruch 3, dadurch gekennzeichnet, dass eine Vorverarbeitung für das erste Bild Tzl des linken Auges und das erste Bild Ty1 des rechten Auges durchgeführt wird, umfassend eine Bildgraustufenverarbeitung und eine DoG-Kantenerkennung: wobei bei der Bildgraustufenverarbeitung ein Farbbild zum Einkanal-Graustufenbild Hzl des ersten Bildes des linken Auges und Einkanal-Graustufenbild Hy1 des ersten Bildes des rechten Auges variiert wird; und wobei in der DoG-Kantenerkennung die-Operation wie folgt definiert wird: D = 1 2 π [ 1 σ 1 2 e ( x 2 + y 2 ) 2 σ 1 2 1 σ 2 2 e ( x 2 + y 2 ) 2 σ 2 2 ] H      = [ G ( x , y , σ 1 ) G ( x , y , σ 2 ) ] H
    Figure DE112016000702T5_0016
    und wobei D für das Ergebnis des verarbeiteten Bildes steht, und wobei σ1 eine erste Konstante und σ2 eine zweite Konstante ist, und wobei x, y jeweils für die Abszisse und die Ordinate des aktuellen Pixels im Bild stehen, und wobei G(x, y, σ1) und G(x, y, σ2) jeweils eine Gauß-Filter-Funktion verschiedener Parameter sind, und wobei H ein Graustufenbild ist, und wobei „*“ für eine Gleitungs-Filterverarbeitung für das gesamte Bild steht, und wobei die Bilder nach der Vorverarbeitung jeweils ein Linksaugenkantenbild Dzl und ein Rechtsaugenkantenbild Dyl sind.
  5. Auf den visuellen Eigenschaften der menschlichen Augen basierendes UAV-Inspektionsverfahren eines Stromkabels nach Anspruch 4, dadurch gekennzeichnet, dass im Schritt (3) das Stromkabel im Linksaugenkantenbild Dzl und Rechtsaugenkantenbild Dyl geteilt wird, wobei B(x) für Strukturelement steht, und wobei die Operation für die Erosion und Dilatation jedes Punkts A(x,y) im Arbeitsraum E wie folgt definiert wird: Erosion : X = E B = { A ( x , y ) : B ( x ) E }
    Figure DE112016000702T5_0017
    Dilatation : Y = E B = { A ( x , y ) : B ( y ) E Φ }
    Figure DE112016000702T5_0018
    und wobei ⊂ für „darin enthalten“ steht, und wobei ∩ für „Durchschnittsoperation“ steht, und wobei Φ für Nullmenge steht, und wobei mit dem Strukturelement B(x) der Arbeitsraum E erodiert wird und daraus ein Ergebnis resultiert, dass nach der Translation des Strukturelements B das Strukturelement B in einer durch alle Punkte des Arbeitsraums E ausgebildeten Menge enthalten wird; und wobei mit dem Strukturelement B(x) der Arbeitsraum E gedehnt wird und daraus ein Ergebnis resultiert, dass nach der Translation des Strukturelements B die Schnittmenge zwischen dem Strukturelement B und dem Arbeitsraum E eine durch nicht leere Punkte gebildete Menge ist.
  6. Auf den visuellen Eigenschaften der menschlichen Augen basierendes UAV-Inspektionsverfahren eines Stromkabels nach Anspruch 5, dadurch gekennzeichnet, dass ein linearer Strukturfaktor ausgewählt wird, wobei die Länge 3 Pixel und der Winkel 90 Grad beträgt, und wobei eine Erosions- und Dilatationsoperation für das Linksaugenrandbild Dzl und das Rechtsaugenrandbild Dyl durchgeführt wird, und wobei eine Zyklusoperation zwei Erosionsoperationen und eine Dilatationsoperation umfasst, und wobei die Zyklusoperationen zwanzigmal durchgeführt werden.
  7. Auf den visuellen Eigenschaften der menschlichen Augen basierendes UAV-Inspektionsverfahren eines Stromkabels nach Anspruch 5, dadurch gekennzeichnet, dass bezüglich eines Bildes nach der zirkulierenden Dilatations- und Erosionsoperation die Fläche und die Länge der Anschlussdomäne im Bild erfasst werden, wobei die Segmente, deren lineare Form und Fläche der Anschlussdomäne die Anforderung des Schwellenwerts erfüllen, aufrechterhalten werden, nämlich die Stromleitung, und wobei die Störungen im Bild beseitigt werden, die Teilung des Stromkabels im Bild abgeschlossen wird und die Abszissenpositionen (xdz1,xdz2...xdzj), xdy1,xdy2... xdyj ) des Stromkabels im Linksaugenrandbild Dzl und Rechtsaugenrandbild Dyl jeweils aufgezeichnet werden, und wobei das Linksaugenrandbild Dzl und Rechtsaugenrandbild Dyl jeweils j Stromleitungen enthalten, und wobei j Abszissenpositionen aufgezeichnet werden.
  8. Auf den visuellen Eigenschaften der menschlichen Augen basierendes UAV-Inspektionsverfahren eines Stromkabels nach Anspruch 7, dadurch gekennzeichnet, dass im Schritt (4) mittels des SURF-Algorithmus eine Merkmalspunktdetektion für das Linksaugenrandbild Dzl und Rechtsaugenrandbild Dyl des Bildes durchgeführt wird, wobei der detaillierte Schritt Folgendes umfasst: (41) Mittels des schnellen Hessian-Detektors wird der Merkmalspunkt ermittelt, hinsichtlich eines Punkts (x,y) im Linksaugenkantenbild Dzl und Rechtsaugenkantenbild Dyl wird die Hessian-Matrix an diesem Punkt wie folgt ausgedrückt, wenn die Skala σ ist: H ( x , σ ) = [ L x x ( x , σ ) L x y ( x , σ ) L x y ( x , σ ) L y y ( x , σ ) ]
    Figure DE112016000702T5_0019
    Dabei steht die Funktion Lxx(x,σ) für die partielle Ableitung zweiter Ordnung der Gaußfunktion auf der x-Koordinate und die Faltung des Linksaugenkantenbildes Dzl und Rechtsaugenkantenbildes Dyl am Punkt (x, y), wobei die Formel wie folgt ist: L x x ( x , σ ) = D 2 x 2 g ( σ )
    Figure DE112016000702T5_0020
    Die Beschreibung von Lxy(x,σ) und Lyy(x,σ) ist jeweils wie in der folgenden Formel dargestellt: L x y ( x , σ ) = D 2 x y g ( σ )
    Figure DE112016000702T5_0021
    L y y ( x , σ ) = D 2 y 2 g ( σ ) ,
    Figure DE112016000702T5_0022
    bezieht sich auf die Operation zum Ermitteln der partiellen Ableitung, Dabei wird der Skalenraum des SURF-Algorithmus in Gruppen geteilt, und die Bilder in jeder Gruppe werden nach dem Falten der Filter verschiedener Größen ermittelt, und die Größe der Filter erhöht sich schrittweise; (42) Der Merkmalspunkt wird als Mittelpunkt angeordnet, wobei entlang der Hauptrichtung des Mittelpunkts ein Rahmen mit einer Größe von 20σ gebildet wird, und wobei dann der Bereich in 16 kleine Bereiche aufgeteilt wird, und wobei die Wavelet-Antwort in jedem Unterbereich (5σ × 5σ) berechnet wird, um die 0°-Richtung und den Vektor ∑dx, die 90°-Richtung und den Vektor ∑dy, die 180°-Richtung und den Vektor ∑d|x| sowie die 180°-Richtung und den Vektor ∑d|y| zu erhalten, und wobei jeder Unterbereich durch ein Konstruieren eines vierdimensionalen Merkmalsvektors v = (∑dx, ∑|dx|, ∑dy, ∑|dy|) dargestellt wird, und wobei am Ende ein 64-dimensionaler Deskriptor des Punkts ausgebildet wird; Es wird angenommen, dass die Größen des Linksaugenrandbildes Dzl und des Rechtsaugenrandbildes Dyl jeweils MxN sind, und die Bilder werden nacheinander unter derselben Koordinatenachse platziert, um ein Bild mit einer Größe von M × 2N auszubilden, dabei werden die Mengen der mit dem SURF-Verfahren erfassten Merkmalspunkte des Linksaugenkantenbildes Dzl und Rechtsaugenkantenbildes Dyl jeweils wie folgt dargestellt: P o s 1 = { ( x 1 ' , y 1 ' ) , ( x 2 ' , y 2 ' ) ,..., ( x p ' , y p ' ) }
    Figure DE112016000702T5_0023
    P o s 2 = { ( x 1 , y 1 ) , ( x 2 , y 2 ) ,..., ( x q , y q ) } ,
    Figure DE112016000702T5_0024
    Dabei stehen p und q jeweils für die Anzahl der Merkmalspunkte des Linksaugenkantenbildes Dzl und Rechtsaugenkantenbildes Dyl; Das Anpassungsverfahren der Merkmalspunkte umfasst folgende Schritte: a) Bezüglich jedes Punkts i in der Merkmalspunktmenge Pos1 des Linksaugenkantenbildes wird sein euklidischer Abstand zu allen Punkten in der Merkmalspunktmenge Pos2 des Rechtsaugenkantenbildes errechnet, dabei wird ein dem minimalen euklidischen Abstand zugeordneter Punkt als roher Anpassungspunkt des Punkts i ausgewählt; b) Der euklidische Abstand zwischen allen rohen Anpassungspunktpaaren wird errechnet, und in einer Reihenfolge vom kleinen zum großen euklidischen Abstand werden die Anpassungspunktpaare geordnet, dabei werden die Mehrpunkt-Einzelpunkt-Punktpaare gelöscht, jetzt werden die Merkmalspunkte im Linksaugenkantenbild Dzl und Rechtsaugenkantenbild Dyl jeweils durch eine Merkmalspunktmenge Pos1 des korrigierten Linksaugenkantenbildes und eine Merkmalspunktmenge Pos2 des korrigierten Rechtsaugenkantenbildes dargestellt; c) Die ersten K1 Paare von den Anpassungspunkten in der Merkmalspunktmenge Pos1 des korrigierten Linksaugenkantenbildes und Merkmalspunktmenge Pos2 des korrigierten Rechtsaugenkantenbildes werden ausgewählt und als P o s _ K 1 = { { ( x 1 ' , y 1 ' ) , ( x 1 , y 1 ) } , { ( x 2 ' , y 2 ' ) , ( x 2 , y 2 ) } ,..., { ( x n ' , y n ' ) , ( x n , y n ) } }
    Figure DE112016000702T5_0025
    markiert sowie als Menge 1 bezeichnet; Die ersten K2 Paare von den Anpassungspunkten in der Merkmalspunktmenge Pos1 des korrigierten Linksaugenkantenbildes und Merkmalspunktmenge Pos2 des korrigierten Rechtsaugenkantenbildes werden ausgewählt und als Pos_K2 dargestellt, dabei erfolgt P o s _ K 2 = { { ( x 1 ' , y 1 ' ) , ( x 1 , y 1 ) } , { ( x 2 ' , y 2 ' ) , ( x 2 , y 2 ) } ,..., { ( x K 2 ' , y K 2 ' ) , ( x K 2 , y K 2 ) } } ,
    Figure DE112016000702T5_0026
    was als Menge 2 bezeichnet wird, dabei erfolgt K1 < K2; d) Für alle Punktpaare in der Menge 2 wird die Steigung zwischen zwei Punkten berechnet, wie in der folgenden Formel dargestellt, ferner folgt ein Aufrunden bzw. Abrunden, um eine Steigungsmenge k auszubilden: k: k = {k1,k2,...kw}, k w = y w x w x w 1 ,1 w K 2 ;
    Figure DE112016000702T5_0027
    e) Die Frequenz des Auftretens jeder Steigung in der Steigungsmenge k wird berechnet, die Steigungen mit einer Frequenz von größer als oder gleich wie 2 werden ausgesucht, um eine neue Menge k _new = {k1,k2,...,kt} auszubilden, dabei steht t für die Gesamtanzahl der erhaltenen Merkmalspunkte; wenn die Frequenz des Auftretens jeder Steigung in der Steigungsmenge k jeweils 1 beträgt, werden die ersten 2K2/3 Paare von den Steigungen ausgewählt, um eine neue Menge k_new auszubilden; f) Die Steigungen aller Punktpaare in der Merkmalspunktmenge Pos1 des korrigierten Linksaugenkantenbildes und der Merkmalspunktmenge Pos2 des korrigierten Rechtsaugenkantenbildes werden durchlaufen und berechnet, dabei werden alle Punktpaare mit einer Steigung im Bereich von [kt - 0.5,kt +0.5] ausgesucht, um eine Punktpaarmenge Pos_K3 = {{(xz1,yz1),(xy1,yy1)}, {(xz2,yz2),(xy2,yy2)},...,{(xzn,yzn),(xyn,yyn)}} auszubilden, dabei erfolgt kt k_new.
  9. Auf den visuellen Eigenschaften der menschlichen Augen basierendes UAV-Inspektionsverfahren eines Stromkabels nach Anspruch 8, dadurch gekennzeichnet, dass im Schritt (41) der SURF-Algorithmus anhand der Informationen des Pixels in der Umgebung des Merkmalspunkts eine einzige Richtung jedem Interessenpunkt erneut zuweist, dabei ist der detaillierte Schritt wie folgt: a) Mit dem Merkmalspunkt als Zentrum wird die Antwort des Harr-Wavelets in der horizontalen und vertikalen Richtung innerhalb eines kreisförmigen benachbarten Bereichs mit einem Radius von 6σ errechnet, wobei die Abtastschrittlänge σ und die Größe des Wavelets 4σ beträgt; b) Mit dem Merkmalspunkt als Zentrum wird eine Gausssche Gewichtung für die Wavelet-Antwort durchgeführt, so dass ein sich dem Merkmalspunkt annäherndes Gewicht groß und ein dem Merkmalspunkt abgewandtes Gewicht klein ist, um eine neue Antwort in der horizontalen Richtung und der vertikalen Richtung zu erhalten; c) Am Ende durchläuft ein sektorförmiges Fenster mit einem Winkel von 60 Grad den ganzen Kreis, bis die gesamte Antwort des sektorförmigen Fensters am stärksten wird, jetzt ist die Zeigerichtung innerhalb des sektorförmigen Fensters die Hauptrichtung des Interessenpunkts.
  10. Auf den visuellen Eigenschaften der menschlichen Augen basierendes UAV-Inspektionsverfahren eines Stromkabels nach Anspruch 8, dadurch gekennzeichnet, dass der Grundlinienabstand zwischen den binokularen visuellen Kameras b ist und die Brennweite f der Kamera bekannt ist, wobei die Parallaxe d als die Positionsdifferenz zwischen den entsprechenden Punkten eines Punkts in beiden Bildern definiert wird: d = ( x z n x y n )
    Figure DE112016000702T5_0028
    und wobei xzn, xyn jeweils die Abszissen des Anpassungspunktpaars im Linksaugenbild und Rechtsaugenbild sind, dadurch wird die Raumkoordinate eines Punkts P im Koordinatensystem der linken Kamera errechnet: { x c = b x z n d y c = b y z n d z c = b ƒ d
    Figure DE112016000702T5_0029
    und wobei (xc , yc , zc) die Positionsinformationen des aktuellen Anpassungspunkts in der Raumkoordinate darstellt, und wobei yzn für die Ordinate des Anpassungspunktpaars im Linksaugenbild und Rechtsaugenbild steht, und wobei anhand der obigen Formel die Koordinaten aller Anpassungspunkte im Koordinatensystem der linken Kamera errechnet werden, und wobei anhand der obigen Formel und der erhaltenen Abszissenposition (xdz1,xdz2...xdzn ), (xdy1,xdy2...xdyn) des Stromkabels die Raumkoordinate eines Punkts am Stromkabel mit einem minimalen räumlichen euklidischen Abstand zum Anpassungspunkt errechnet wird; und wobei der räumliche euklidische Abstand der Punkte am Stromkabel mit gleichen Ordinaten im zweidimensionalen Koordinatensystem zum Anpassungspunkt als minimaler Abstand definiert wird und die Ordinate des Anpassungspunkts unmittelbar dem zugeordneten Punkt am Stromkabel verliehen wird, so dass mit der Punktpaarmenge Pos_K3 = {{(xz1,yz1),(xy1,yy1)},{(xz2,yz2),(xy2,yy2)},...,{(xzn,yzn),(xyn,yyn)}} die dem Stromkabel einander zugeordneten Punkte Pos_D = {{(xdz1,yz1),(xdy1,yy1)},{(xdz2,yz2),(xdy2,yy2)},...{xdzn,yzn),(xdyn,yyn)}} ausgebildet werden, und wobei somit die Raumkoordinate (xd , yd , zd ) eines Punkts D auf dem Stromkabel im Koordinatensystem der linken Kamera errechnet wird.
  11. Auf den visuellen Eigenschaften der menschlichen Augen basierendes UAV-Inspektionsverfahren eines Stromkabels nach Anspruch 10, dadurch gekennzeichnet, dass im Schritt (6) nach dem Erhalten der Raumkoordinate des Punkts P und des Punkts D der räumliche euklidische Abstand J des Anpassungspunkts zum Stromkabel errechnet wird, wobei J wie folgt definiert wird: J = ( x c x d ) 2 + ( y c y d ) 2 + ( z c z d ) 2 .
    Figure DE112016000702T5_0030
DE112016000702.7T 2016-08-11 2016-12-14 Auf den visuellen Eigenschaften der menschlichen Augen basierendes UAV-Inspektionsverfahren eines Stromkabels Withdrawn DE112016000702T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN2016106560383 2016-08-11
CN201610656038.3A CN106356757B (zh) 2016-08-11 2016-08-11 一种基于人眼视觉特性的电力线路无人机巡检方法
PCT/CN2016/109778 WO2018028103A1 (zh) 2016-08-11 2016-12-14 一种基于人眼视觉特性的电力线路无人机巡检方法

Publications (1)

Publication Number Publication Date
DE112016000702T5 true DE112016000702T5 (de) 2018-04-19

Family

ID=57843922

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112016000702.7T Withdrawn DE112016000702T5 (de) 2016-08-11 2016-12-14 Auf den visuellen Eigenschaften der menschlichen Augen basierendes UAV-Inspektionsverfahren eines Stromkabels

Country Status (5)

Country Link
US (1) US10269138B2 (de)
CN (1) CN106356757B (de)
DE (1) DE112016000702T5 (de)
MY (1) MY192356A (de)
WO (1) WO2018028103A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020111209A1 (de) 2020-04-24 2021-10-28 Westnetz Gmbh Verfahren zum Überwachen eines elektrischen Versorgungsnetzes

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3376213A1 (de) * 2017-03-15 2018-09-19 Siemens Aktiengesellschaft Verfahren und anordnung für eine zustandsüberwachung einer anlage mit betriebsmitteln
CN106873627B (zh) * 2017-03-31 2020-07-28 湘潭大学 一种自动巡检输电线路的多旋翼无人机及方法
CN107462217B (zh) * 2017-07-07 2020-04-14 北京航空航天大学 一种面向电力巡检任务的无人机双目视觉障碍物感知方法
CN109426277B (zh) * 2017-08-30 2022-11-08 广州极飞科技股份有限公司 移动轨迹规划的方法及装置
CN107796360B (zh) * 2017-09-30 2020-06-09 杭州艾航科技有限公司 一种基于无人机视频测量单管塔平板天线角度的方法
CN108280404A (zh) * 2017-12-29 2018-07-13 宁波诺视智能科技有限公司 一种基于人工智能的无人机智能巡线识别方法及系统
CN108734143A (zh) * 2018-05-28 2018-11-02 江苏迪伦智能科技有限公司 一种巡检机器人的基于双目视觉的输电线路在线检测方法
US10391867B1 (en) 2018-06-09 2019-08-27 Nxp Aeronautics Research, Llc Apparatus having electric-field actuated generator for powering electrical load within vicinity of powerlines
US11011922B2 (en) 2018-06-09 2021-05-18 Nxp Aeronautics Research, Llc Monitoring tower with device powered using differentials in electric field strengths within vicinity of powerlines
CN108982554A (zh) * 2018-06-20 2018-12-11 国网河南省电力公司电力科学研究院 一种无人机吊装x射线检测装置及检测方法
CN108645383A (zh) * 2018-07-27 2018-10-12 国网福建省电力有限公司漳州供电公司 一种基于无人机测量树线距离的方法
CN108919838B (zh) * 2018-08-27 2021-03-26 河海大学常州校区 一种基于双目视觉的无人机输电线路自动跟踪方法
CN109145905A (zh) * 2018-08-29 2019-01-04 河海大学常州校区 一种基于视觉显著性的输电线路配件检测方法
CN109300118B (zh) * 2018-09-11 2021-09-10 东北大学 一种基于rgb图像的高压电力线路无人机巡检方法
CN109412079B (zh) * 2018-12-13 2020-07-14 杭州申昊科技股份有限公司 一种输电线无人机巡检系统
CN109711368B (zh) * 2018-12-29 2023-04-14 华东理工大学 高空电缆线危险区域图像识别方法
CN110033471B (zh) * 2019-04-19 2022-09-13 福州大学 一种基于连通域分析和形态学操作的框线检测方法
CN110119161B (zh) * 2019-06-14 2022-03-01 河海大学常州校区 一种无人机输电线路巡线视觉避障方法及系统
CN110390672A (zh) * 2019-07-11 2019-10-29 中国计量大学 一种基于EDLines的电力线快速提取方法
CN110347186B (zh) * 2019-07-17 2022-04-05 中国人民解放军国防科技大学 基于仿生双目联动的地面运动目标自主跟踪系统
CN112258561B (zh) * 2019-07-22 2023-08-25 复旦大学 针对图像拼接的匹配点获取方法
CA3149568A1 (en) 2019-08-26 2021-05-27 Steven J. Syracuse Uav airways systems and apparatus
CN111127388A (zh) * 2019-09-21 2020-05-08 南京鑫和汇通电子科技有限公司 一种基于中线模型的对开式刀闸开合角度检测方法
CN110676753B (zh) * 2019-10-14 2020-06-23 宁夏百川电力股份有限公司 输电线路智能巡检机器人
CN111310731B (zh) * 2019-11-15 2024-04-09 腾讯科技(深圳)有限公司 基于人工智能的视频推荐方法、装置、设备及存储介质
US20210183039A1 (en) * 2019-12-13 2021-06-17 Lindsey Firesense, Llc System and method of debris detection and integrity validation for right-of-way based infrastructure
CN111071442B (zh) * 2020-01-07 2022-06-21 国网冀北电力有限公司唐山供电公司 一种线路安全巡视器及其使用方法
CN111814546A (zh) * 2020-06-03 2020-10-23 国网浙江省电力有限公司 用于输电线弧垂测量的图像识别算法
CN111882618B (zh) * 2020-06-28 2024-01-26 北京石油化工学院 双目测距中左右视图特征点匹配处理方法、终端及系统
CN112053461A (zh) * 2020-09-16 2020-12-08 江苏伊卡洛斯电力无人机通用技术有限公司 一种基于无人机的电力巡检方法
CN112215878B (zh) * 2020-11-04 2023-03-24 中日友好医院(中日友好临床医学研究所) 一种基于surf特征点的x光图像配准方法
CN112464789B (zh) * 2020-11-25 2022-09-02 河海大学常州校区 基于线特征的输电线路提取方法
CN112686938B (zh) * 2020-12-29 2024-03-15 重庆大学 基于双目图像测距的输电线路净距计算与安全告警方法
CN112525162B (zh) * 2021-02-09 2021-07-13 国网江苏省电力有限公司泰州供电分公司 一种无人机测量输电线路影像距离的系统及方法
CN113160150B (zh) * 2021-04-01 2022-12-06 西安科技大学 线网异物入侵ai检测方法与装置
CN113191972B (zh) * 2021-04-27 2023-04-14 西安交通大学 一种轻量真实图像去噪的神经网络设计及训练方法
CN113034501B (zh) * 2021-05-25 2021-10-15 国网江苏省电力有限公司泰州供电分公司 一种基于关键点检测的均压环倾斜故障识别方法及装置
CN113205541A (zh) * 2021-05-31 2021-08-03 交通运输部天津水运工程科学研究所 一种基于视觉边缘检测的实验室空间波浪实时测量方法
CN113609921A (zh) * 2021-07-13 2021-11-05 衢州光明电力投资集团有限公司 一种预警方法和系统
CN113525183A (zh) * 2021-07-29 2021-10-22 北京南凯自动化系统工程有限公司 一种铁路接触网障碍物清理系统和方法
CN113670268B (zh) * 2021-08-04 2023-08-01 国网福建省电力有限公司泉州供电公司 基于双目视觉的无人机和电力杆塔距离测量方法
CN113733142B (zh) * 2021-11-05 2022-03-08 广东电网有限责任公司江门供电局 机械手系统及机械手系统的控制方法
CN114463648B (zh) * 2022-01-09 2024-04-16 中国长江三峡集团有限公司 一种基于纯视觉的保持风机叶片位于相机视野中间的方法
CN114119606B (zh) * 2022-01-20 2022-05-10 国网江西省电力有限公司电力科学研究院 基于可见光照片电力线着色的智能化树障隐患分析方法
CN114463425B (zh) * 2022-01-26 2024-04-16 武汉理工大学 一种基于概率Hough直线检测的工件表面无特征点定位方法
CN114659523B (zh) * 2022-03-04 2024-08-02 中国科学院微电子研究所 一种大范围高精度姿态测量方法及装置
CN114782529B (zh) * 2022-03-25 2024-06-25 国网湖北省电力有限公司电力科学研究院 一种面向带电作业机器人的抓线点高精度定位方法、系统及存储介质
CN114756052B (zh) * 2022-03-31 2023-04-07 电子科技大学 一种基于无人机群的多目标协同追踪方法
CN114777745A (zh) * 2022-04-08 2022-07-22 南京信息工程大学 一种基于无迹卡尔曼滤波的倾斜取证建模方法
CN114926552B (zh) * 2022-06-17 2023-06-27 中国人民解放军陆军炮兵防空兵学院 一种基于无人机图像计算像素点高斯坐标方法及系统
CN115150784B (zh) * 2022-09-02 2022-12-06 汕头大学 基于基因调控网络的无人机集群区域覆盖方法及设备
CN115294482B (zh) * 2022-09-26 2022-12-20 山东常生源生物科技股份有限公司 一种基于无人机遥感图像的食用菌产量估算方法
CN116843909B (zh) * 2023-05-12 2024-03-08 国家电网有限公司华东分部 电力线提取方法及装置、存储介质、计算机设备
CN116918593B (zh) * 2023-09-14 2023-12-01 众芯汉创(江苏)科技有限公司 一种基于双目视觉无人影像的输电线路通道树障监测系统
CN117146826B (zh) * 2023-10-26 2024-01-02 国网湖北省电力有限公司经济技术研究院 一种输电线路隐患巡检路径规划方法及装置
CN117541605B (zh) * 2024-01-09 2024-03-29 山东华中重钢有限公司 一种钢结构锈蚀图像区域快速分割方法
CN118097565B (zh) * 2024-04-19 2024-07-30 国网上海市电力公司 一种基于单目视觉的输电通道无效隐患判定方法
CN118245453B (zh) * 2024-05-28 2024-08-13 中水淮河规划设计研究有限公司 一种无人机采集数据的处理方法及计算机设备

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8060270B2 (en) * 2008-02-29 2011-11-15 The Boeing Company System and method for inspection of structures and objects by swarm of remote unmanned vehicles
CN101527046B (zh) * 2009-04-28 2012-09-05 青岛海信数字多媒体技术国家重点实验室有限公司 一种运动检测方法、装置和系统
CN101616310B (zh) * 2009-07-17 2011-05-11 清华大学 可变视角及分辨率的双目视觉系统目标图像稳定化方法
GB0920636D0 (en) * 2009-11-25 2010-01-13 Cyberhawk Innovations Ltd Unmanned aerial vehicle
US20120250010A1 (en) * 2011-03-31 2012-10-04 Richard Charles Hannay Aerial Inspection System(s) and Method(s)
CN102390370B (zh) * 2011-10-25 2013-07-03 河海大学 一种基于立体视觉的车辆行驶应急处理装置及方法
CN102663766B (zh) * 2012-05-04 2014-10-22 云南大学 一种基于非真实感的艺术插画效果绘制方法
CN102929288B (zh) * 2012-08-23 2015-03-04 山东电力集团公司电力科学研究院 基于视觉伺服的输电线路无人机巡检云台控制方法
US9162753B1 (en) * 2012-12-31 2015-10-20 Southern Electrical Equipment Company, Inc. Unmanned aerial vehicle for monitoring infrastructure assets
CN203083532U (zh) * 2013-01-11 2013-07-24 北京国网富达科技发展有限责任公司 一种检测输电线路安全运行的系统
CN103454556B (zh) * 2013-08-09 2016-01-20 国家电网公司 一种具有3d扫描功能的巡检装置及其检测方法
CN103761524B (zh) * 2014-01-17 2016-11-16 电子科技大学 一种基于图像的线性目标识别与提取方法
ES2746980T3 (es) * 2014-01-30 2020-03-09 Boeing Co Vehículo aéreo no tripulado
WO2016149513A1 (en) * 2015-03-18 2016-09-22 Izak Van Cruyningen Flight planning for unmanned aerial tower inspection with long baseline positioning
CN104766319B (zh) * 2015-04-02 2017-06-13 西安电子科技大学 提升夜间拍照图像配准精度的方法
CN104764748B (zh) * 2015-05-04 2017-08-11 成都唐源电气有限责任公司 定位绝缘子的方法、系统以及故障检测的方法和系统
CN104851144B (zh) * 2015-05-29 2018-02-06 高彬桓 具有自适应偏振镜调节的巡检机器人图像处理系统及方法
CN105205781B (zh) * 2015-08-24 2018-02-02 电子科技大学 输电线路航拍图像拼接方法
US11029352B2 (en) * 2016-05-18 2021-06-08 Skydio, Inc. Unmanned aerial vehicle electromagnetic avoidance and utilization system
US20180314994A1 (en) * 2017-05-01 2018-11-01 International Business Machines Corporation Directed unmanned aircraft for enhanced power outage recovery

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020111209A1 (de) 2020-04-24 2021-10-28 Westnetz Gmbh Verfahren zum Überwachen eines elektrischen Versorgungsnetzes

Also Published As

Publication number Publication date
CN106356757B (zh) 2018-03-20
WO2018028103A1 (zh) 2018-02-15
CN106356757A (zh) 2017-01-25
US20180357788A1 (en) 2018-12-13
US10269138B2 (en) 2019-04-23
MY192356A (en) 2022-08-17

Similar Documents

Publication Publication Date Title
DE112016000702T5 (de) Auf den visuellen Eigenschaften der menschlichen Augen basierendes UAV-Inspektionsverfahren eines Stromkabels
DE102015207676B4 (de) Verfahren und Vorrichtung zur Hinderniserkennung auf Basis einer monokularen Kamera
DE102020201787A1 (de) Erzeugen von blickkorrigierten bildern unter verwendung eines bidirektional trainierten netzwerks
DE202017007481U1 (de) System zur Überwachung von Nutzpflanzen
EP2927844A1 (de) Positions- und lagebestimmung von 3d objekten
DE112018000107T5 (de) Fahrzeugkamerakalibrierungsvorrichtung und -Verfahren
DE102011054658A1 (de) Verfahren zur Unterscheidung zwischen einem realen Gesicht und einer zweidimensionalen Abbildung des Gesichts in einem biometrischen Erfassungsprozess
DE112016005905T5 (de) Verfahren und System zum Verschmelzen erfasster Messungen
DE202016008004U1 (de) Automatische Verbindung von Bildern unter Verwendung visueller Eigenschaftsquerverweise auf zugehörige Anwendungen
EP3867796A1 (de) Verfahren und vorrichtung zur bestimmung einer umgebungskarte
EP3614299A1 (de) Verfahren und anordnung zum erkennen von objekten an anlagen
EP3655920B1 (de) Verfahren und vorrichtung zur bewertung von bildausschnitten für eine korrespondenzbildung
DE102022214330A1 (de) Verfahren zur Erzeugung mindestens einer Ground Truth aus der Vogelperspektive
DE102006009774B4 (de) Bewegungsanalyse in digitalen Bildfolgen
DE102011086091A1 (de) Vorrichtung und Verfahren zum mechanischen Ausdünnen von Blüten
WO2003025843A2 (de) Modellbasierte objektklassifikation und zielerkennung
EP3867870B1 (de) Ermitteln einer durchlassgüte einer optikeinheit eines kamerasystems
DE19834718C2 (de) Digitale Bildverarbeitung für ein Qualitätskontrollsystem
EP3214602A1 (de) Verfahren zur dreidimensionalen erfassung von objekten
DE10136649B4 (de) Verfahren und Vorrichtung zur Objekterkennung von sich bewegenden Kraftfahrzeugen
DE102015118941A1 (de) Probabilistisches Verfolgungsverfahren für Partikel in einem Fluid
DE102019102423A1 (de) Verfahren zur Live-Annotation von Sensordaten
DE102007001273A1 (de) Verfahren zur selbsttätigen Analyse von Objektbewegungen
DE112015004803T5 (de) Online hintergrundmodell-extraktion
DE102022211182A1 (de) Verfahren und Vorrichtung zum Ermitteln eines Beleuchtungsparameters

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee