DE112021002328T5 - Verfahren und system zur erkennung einer halde - Google Patents

Verfahren und system zur erkennung einer halde Download PDF

Info

Publication number
DE112021002328T5
DE112021002328T5 DE112021002328.4T DE112021002328T DE112021002328T5 DE 112021002328 T5 DE112021002328 T5 DE 112021002328T5 DE 112021002328 T DE112021002328 T DE 112021002328T DE 112021002328 T5 DE112021002328 T5 DE 112021002328T5
Authority
DE
Germany
Prior art keywords
stockpile
histogram
machine
cluster
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112021002328.4T
Other languages
English (en)
Inventor
Shastri Ram
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Caterpillar Inc
Original Assignee
Caterpillar Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Caterpillar Inc filed Critical Caterpillar Inc
Publication of DE112021002328T5 publication Critical patent/DE112021002328T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/2163Partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20156Automatic seed setting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

System und Verfahren zum Erkennen einer Materialhalde durch eine autonome Maschine. Ein 3D-Punktwolken-Verfahren beinhaltet das Erhalten einer 3D-Punktwolke, die eine Umgebung mit einer Materialhalde anzeigt, das Durchführen einer Bodenflächenschätzung an der Punktwolke zur Identifizierung von Nicht-Boden-Punkten, das Gruppieren der Nicht-Boden-Punkte in Clustern basierend auf einer Näherungsmetrik, das Erzeugen eines normalisierten Höhenhistogramms für jeden der Cluster, das Vergleichen des normalisierten Höhenhistogramms jedes Clusters mit einem verallgemeinerten Haldenhistogramm und das Identifizieren eines Clusters als eine Halde basierend auf der Ähnlichkeit zwischen dem normalisierten Höhenhistogramm und dem verallgemeinerten Haldenhistogramm. Ein 2D-Bildverfahren beinhaltet das Erhalten eines 2D-Bildes von einer Bildgebungsvorrichtung, das Kalibrieren der Bildgebungsvorrichtung in Bezug auf einen Koordinatenrahmen der Maschine und das autonome Erkennen eines Bildes einer Materialhalde in dem zweidimensionalen Bild unter Verwendung eines trainierten neuronalen Deep-Learning-Netzwerkes.

Description

  • Gebiet der Technik
  • Die vorliegende Offenbarung bezieht sich im Allgemeinen auf autonome Systeme und insbesondere auf ein Verfahren und ein System zur autonomen Erkennung einer Materialhalde.
  • Stand der Technik
  • In der Bau- und Bergbauindustrie können autonome Maschinen, wie Planiergeräte, geländefähige Lastkraftwagen, Radlader und Bagger eingesetzt werden. Die Fähigkeit, Materialhalden zu erkennen, ist eine wichtige Funktion für autonome Systeme vieler verschiedener Maschinentypen. Beispielsweise müssen autonome Lkw Halden erkennen und lokalisieren können, damit sie einen Pfad planen und auf zu einer Halde oder um eine Halde herum navigieren können. Autonome Radlader und Bagger müssen in der Lage sein, Halden zu erkennen, damit sie wissen, wie sie sich der Halde nähern und die Schaufel positionieren, um sicherzustellen, dass die Ladekapazität der Schaufel maximiert ist. Autonome Planierraupen müssen Halden erkennen, um die zu verteilende Halde zu identifizieren. Auch für die Hinderniserkennung und Sicherheit ist die Erkennung von Halden wichtig. Führt die Fahrstrecke einer autonomen Maschine durch oder über eine Halde, kann die Maschine umkippen, abrutschen oder stecken bleiben, was nicht nur ein Sicherheitsrisiko darstellt, sondern auch Zeit und Geld kostet, um die Situation zu beheben. Ferner kann es für eine entfernte Bedienperson oder das automatisierte System schwierig sein, den Grad des Werkzeugeingriffs mit der Halde während des Ladesegments des Aushubvorgangs genau zu ermitteln. Ein Versuch, die Effizienz im Ladesegment durch ein autonomes Verfahren zur Erkennung einer Halde zu verbessern, ist in US-Patent Nr. 9,702,115 an Darakhanavala (das '115-Patent) offenbart. Insbesondere offenbart das '115-Patent ein autonomes Verfahren zur Erkennung, wenn eine Erdbewegungsmaschine eine Erdhalde in Kontakt mit einer anderen Erdhalde gebracht hat. Das Verfahren beinhaltet das Empfangen einer Vielzahl von Signalen an einer Steuerung, die einen oder mehrere Parameter angeben, einschließlich einer Fahrgeschwindigkeit der Maschine, einer Soll- Fahrgeschwindigkeit der Maschine, einer Last auf einem Arbeitsgerät der Maschine, einer Abtriebsdrehzahl eines Drehmomentwandlers der Maschine, einer Maschinenneigung, eines Maschinensteuerbefehls, einer Maschinenfahrtrichtung und einer Fahrtrichtung eines Schlitzes, in dem sich die Maschine befindet. Die Steuerung standardisiert und normalisiert jedes Signal aus der Vielzahl von Signalen, um Werte für jeden der einen oder mehreren Parameter zu erzeugen, die alle in einen gemeinsamen Bereich fallen, wobei der gemeinsame Bereich repräsentativ für einen Bereich von minimalen bis maximalen Werten für jeden der einen oder mehreren Parameter ist. Die Steuerung ermittelt auch eine Veränderung jedes der Werte für den einen oder die mehreren Parameter über jede einer Vielzahl von Zeitperioden, um relative Geschwindigkeiten der Veränderung für den einen oder die mehreren Parameter zu berechnen, gewichtet jeden der Werte für jeden des einen oder der mehreren Parameter als eine Funktion der relativen Geschwindigkeiten der Veränderung, addiert die gewichteten Werte der Parameter und wendet eine Sigmoidfunktion auf die gewichteten Werte der Parameter an, um den Effekt zu begrenzen, den ein beliebiger der Parameter auf eine Ausgabe hat, die auf ein Verhalten hinweist, das für die Maschine charakteristisch ist, die eine Erdhalde in Kontakt mit einer anderen Erdhalde geschoben hat.
  • Kurzdarstellung
  • Gemäß einigen Implementierungen bezieht sich die vorliegende Offenbarung auf ein Verfahren zur Erkennung einer Materialhalde durch eine autonome Maschine. Das Verfahren beinhaltet das Empfangen einer dreidimensionalen Punktwolke, die eine Umgebung mit einer Materialhalde anzeigt, unter Verwendung eines Prozessors auf der Maschine, das Durchführen einer Schätzung der Bodenfläche auf der dreidimensionalen Punktwolke, um Nicht-Boden-Punkte zu identifizieren, das Gruppieren der Nicht-Boden-Punkte in einem oder mehreren Clustern von Punkten basierend auf der Nähe der Punkte zueinander, Erzeugen eines normalisierten Höhenhistogramms für jeden der einen oder mehreren Cluster, Vergleichen des normalisierten Höhenhistogramms jedes Clusters mit einem verallgemeinerten Haldenhistogramm, und Identifizieren eines Clusters aus dem einen oder den mehreren Clustern als eine Halde basierend auf der Ähnlichkeit zwischen dem normalisierten Höhenhistogramm des Clusters und dem verallgemeinerten Haldenistogramm. Gemäß einigen Implementierungen bezieht sich die vorliegende Offenbarung auf ein autonomes Fahrzeug mit einer oder mehreren mit einem Rahmen verbundenen und diesen tragenden Traktionsvorrichtungen, einer am Rahmen montierten Leistungsquelle, die zum Antrieb der Traktionsvorrichtungen ausgelegt ist, einer 3D-Sensorvorrichtung, die eine 3D-Punktwolke erzeugen kann, die eine Umgebung mit einer Materialhalde angibt, und einem Prozessor. Der Prozessor ist ausgelegt zum Empfangen einer dreidimensionalen Punktwolke, die eine Umgebung mit einer Materialhalde anzeigt, unter Verwendung eines Prozessors auf der Maschine, zum Durchführen einer Schätzung der Bodenfläche auf der dreidimensionalen Punktwolke, um Nicht-Boden-Punkte zu identifizieren, zum Gruppieren der Nicht-Boden-Punkte in einem oder mehreren Clustern von Punkten basierend auf der Nähe der Punkte zueinander, zum Erzeugen eines normalisierten Höhenhistogramms für jeden der einen oder mehreren Cluster, zum Vergleichen des normalisierten Höhenhistogramms jedes Clusters mit einem verallgemeinerten Haldenhistogramm, und zum Identifizieren eines Clusters aus dem einen oder den mehreren Clustern als eine Halde basierend auf der Ähnlichkeit zwischen dem normalisierten Höhenhistogramm des Clusters und dem verallgemeinerten Haldenistogramm. Gemäß einigen Implementierungen bezieht sich die vorliegende Offenbarung auf ein Verfahren zum Erkennen einer Materialhalde durch eine autonome Maschine, das den Empfang eines zweidimensionalen Bildes einer Umgebung mit einer Materialhalde von einer bildgebenden Vorrichtung unter Verwendung eines Prozessors auf der Maschine, das autonome Erkennen eines Bildes der Materialhalde in dem zweidimensionalen Bild unter Verwendung eines in einem Speicher der Maschine gespeicherten neuronalen Netzwerks mit tiefem Lernvermögen, das zuvor auf das Erkennen eines Bildes einer Materialhalde in einem zweidimensionalen Bild trainiert wurde, und Kalibrieren der bildgebenden Vorrichtung in Bezug auf einen Koordinatenrahmen der Maschine zur Ermittlung des Abstands der Materialhalde von der Maschine, beinhaltet.
  • Figurenliste
    • 1 ist eine Seitenansicht einer beispielhaften Maschine;
    • 2 ist eine schematische Darstellung eines beispielhaften Systems zur Erkennung von Halden der Maschine von 1;
    • 3 ist ein Ablaufdiagramm eines beispielhaften Verfahrens zum Erkennen einer Halde;
    • 4 ist eine Darstellung eines Bildes einer Umgebung mit Materialhalden, wobei die Halden mit Begrenzungsrahmen identifiziert sind;
    • 5 ist eine Darstellung eines Bildes einer Umgebung mit Materialhalden, wobei die Halden mit pixelweisen Segmentierungsmasken identifiziert sind; diese Masken sind in der Abbildung nicht enthalten;
    • 6 ist ein Ablaufdiagramm eines weiteren beispielhaften Verfahrens zum Erkennen einer Halde;
    • 7 ist eine Darstellung einer 3D-Punktwolke, die eine Umgebung mit einer Materialhalde angibt; und
    • 8 ist eine Darstellung der Ausgabe eines Algorithmus zur Schätzung einer Bodenfläche auf der 3D-Punktwolke von 7.
  • Ausführliche Beschreibung
  • 1 veranschaulicht eine beispielhafte Ausführungsform einer autonomen Maschine 10. In dem offenbarten Beispiel ist die autonome Maschine 10 ein Radlader. Es ist jedoch denkbar, dass die autonome Maschine 10 eine Vielzahl von Maschinen sein kann. Bei der autonomen Maschine 10 kann es sich beispielsweise um eine Maschine handeln, die in der Bau- und/oder Bergbauindustrie eingesetzt wird, wie etwa ein Bagger, eine Planierraupe oder ein geländefähiger LKW. Es kann jede autonome Maschine verwendet werden, die von den offenbarten Systemen und Verfahren zur Erkennung einer Halde profitieren würde.
  • Die Maschine 10 kann unter anderem eine Leistungsquelle 12, eine oder mehrere Traktionsvorrichtungen 14 (z. B. Räder oder Ketten), ein Arbeitsgerät 16, einen oder mehrere Hubaktoren 18 und einen oder mehrere Kippaktoren 20 umfassen. Die Hubaktoren 18 und die Kippaktoren 20 können das Arbeitsgerät 16 mit einem Rahmen 22 der Maschine 10 verbinden. In einer beispielhaften Ausführungsform, wie in 1 dargestellt, können die Hubaktoren 18 an einem Ende mit dem Rahmen 22 und am anderen Ende mit einem Strukturelement 24 verbunden sein, das mit dem Arbeitsgerät 16 verbunden sein kann.
  • Das Arbeitsgerät 16 kann über einen Schwenkzapfen 26 mit dem Strukturelement 24 verbunden sein. Die Hubaktoren 18 können zum Anheben des Arbeitsgeräts 16 auf eine gewünschte Höhe über einer Bodenfläche 28 ausgelegt sein. In einer beispielhaften Ausführungsform, wie in 1 dargestellt, können die Kippaktoren 20 an einem Ende mit dem Rahmen 22 und am anderen Ende mit einem Gestängeelement 30 verbunden sein, das mit dem Arbeitsgerät 16 verbunden sein kann.
  • Die Leistungsquelle 12 kann von dem Rahmen 22 der Maschine 10 getragen werden und einen Motor (nicht abgebildet) umfassen, der zum Erzeugen einer Drehleistungsausgabe ausgelegt ist, sowie ein Getriebe (nicht abgebildet), das die Leistungsausgabe in ein gewünschtes Verhältnis von Drehzahl und Drehmoment umwandelt. Die Drehleistungsausgabe kann zum Antrieb einer Pumpe (nicht abgebildet) verwendet werden, die die Hubaktoren 18, die Kippaktoren 20 und/oder einen oder mehrere mit den Traktionsvorrichtungen 14 verbundene Motoren (nicht abgebildet) mit druckbeaufschlagter Flüssigkeit versorgt. Der Motor der Leistungsquelle 12 kann ein Verbrennungsmotor sein, der zum Verbrennen eines Gemischs aus Kraftstoff und Luft ausgelegt ist. Das Getriebe der Leistungsquelle 12 kann jede in der Technik bekannte Form annehmen, beispielsweise eine Lastschaltkonfiguration, die mehrere diskrete Betriebsbereiche bereitstellt, eine stufenlose Konfiguration oder eine Hybridkonfiguration. Zusätzlich zum Antrieb des Arbeitsgeräts 16 kann die Leistungsquelle 12 auch als Antrieb für die Maschine 10, beispielsweise über eine oder mehrere Traktionsvorrichtungen 14, dienen.
  • An der Maschine 10 können zahlreiche verschiedene Arbeitsgeräte 16 funktionsfähig befestigt und von der Leistungsquelle 12 angetrieben werden. Das Arbeitsgerät 16 kann jede Vorrichtung umfassen, die zur Durchführung einer bestimmten Aufgabe verwendet wird, wie beispielsweise eine Schaufel, eine Gabel, ein Schild, eine Schaufel oder jede andere in der Technik bekannte Vorrichtung zur Durchführung einer Aufgabe. Obwohl das Arbeitsgerät 16 in der Ausführungsform von 1 zum Heben und Kippen relativ zur Maschine 10 verbunden ist, kann es sich alternativ oder zusätzlich drehen, gleiten, aufzuschwingen oder auf jede andere in der Technik bekannte Weise bewegen. Die Hub- und Kippaktoren 18, 20 können ausgefahren oder eingefahren werden, um das Arbeitsgerät 16 während eines Grabungszyklus wiederholt zu bewegen.
  • In einer beispielhaften Ausführungsform kann die Maschine 10 zum Bewegen oder Aufstocken einer Materialhalde 34 und/oder zum Aufzeichnen eines Pfades zu der oder um die Materialhalde 34 herum verwendet werden. Die Materialhalde 34 kann aus verschiedenen Arten von Materialien bestehen. Beispielsweise kann die Materialhalde 34 aus losem Sand, Erde, Kies, Lehm, Steinen, mineralischen Formationen usw. bestehen. In der dargestellten Ausführungsform ist das Arbeitsgerät 16 eine Schaufel mit einer Spitze 38, die zum Eindringen in die Materialhalde 34 ausgelegt ist.
  • Mit Bezugnahme auf 2 beinhaltet die Maschine 10 ein System 40 zur autonomen Erkennung von Materialhalden 34. Das System 40 beinhaltet einen oder mehrere Sensoren 42, die zur Bereitstellung eines zweidimensionalen (2D) Bildes einer Umgebung mit einer Materialhalde 34 und/oder einer dreidimensionalen (3D) Kartenraumdarstellung, die eine Umgebung mit einer Materialhalde 34 anzeigt, ausgelegt sind. Beispielsweise kann die Maschine 10, wie in 2 dargestellt, eine 2D-Bildgebungsvorrichtung 44, wie eine Monokamera, eine Wärmekamera, eine Videokamera, eine Stereokamera oder eine andere Bildgebungsvorrichtung (z. B. einen Bildsensor) beinhalten. Die Maschine 10 kann auch eine 3D-Sensorvorrichtung 46, wie beispielsweise eine LID AR-Vorrichtung (Lichterfassungs- und Entfernungsmessvorrichtung), eine RADAR-Vorrichtung (Funkerfassungs- und Entfernungsmessvorrichtung), eine SONAR-Vorrichtung (Schallnavigations- und Entfernungsmessvorrichtung), eine Stereokamera oder jede andere Vorrichtung, die zur Bereitstellung einer 3D-Kartenraumdarstellung (d. h. einer 3D-Punktwolke) fähig ist, die eine Umgebung mit einer Materialhalde 34 anzeigt, beinhalten. Bei dem einen oder den mehreren Sensoren 42 kann es sich um jede in der Technik bekannte geeignete Vorrichtung zur Erzeugung eines 2D-Bildes und/oder einer 3D-Kartenraumdarstellung oder einer anderen geeigneten Ausgabe zur Verwendung bei der Erkennung einer Halde handeln.
  • Der eine oder die mehreren Sensoren 42 können das Bild und/oder eine 3D-Kartenraumdarstellung der Materialhalde 34 erzeugen und das Bild und/oder die 3D-Kartenraumdarstellung an einen bordeigenen Prozessor 48 zur weiteren Verarbeitung übermitteln. Die ein oder mehreren Sensoren 42 sind auf beliebige geeignete Weise kommunikativ mit dem Prozessor 48 gekoppelt. Der Prozessor 48 kann auf vielfältige Weise konfiguriert sein. Der Prozessor 48 kann einen einzelnen Mikroprozessor oder mehrere Mikroprozessoren verkörpern. Der Prozessor 48 kann für die Funktion der Erkennung von Halden dediziert sein oder zusätzliche Funktionen für die Maschine 10 bereitstellen, wie beispielsweise ein Motorsteuermodul (ECM).
  • Das System 40 beinhaltet auch Speicher 50. Der Speicher 50 kann in den Prozessor 48 integriert oder von diesem entfernt, jedoch über den Prozessor 48 zugänglich sein. Bei dem Speicher 50 kann es sich um einen Festwertspeicher (ROM) zum Speichern von Programmen, einem neuronalen Netzwerk oder anderen Informationen, einen Direktzugriffsspeicher (RAM), der als Arbeitsspeicherbereich für die Ausführung der im Speicher 50 gespeicherten Programme dient, oder eine Kombination davon handeln. Der Prozessor 48 kann konfiguriert sein, um auf in dem Speicher 50 gespeicherte Informationen Bezug zu nehmen, und der Speicher 50 kann ausgelegt sein, um verschiedene Informationen zu speichern, die von dem Prozessor 48 ermittelt werden. Die Maschine 10 kann auch mit einer Kommunikationsvorrichtung 52 (1) ausgestattet sein, die die Übermittlung des Bildes und/oder einer 3D-Kartenraumdarstellung an eine bordfremde Einheit oder von einer bordfremden Einheit ermöglicht. Beispielsweise kann die Maschine 10 über die Kommunikationsvorrichtung 52 mit einer entfernten Bedienperson und/oder einer zentralen Einrichtung (nicht abgebildet) kommunizieren.
  • 3 veranschaulicht ein von der Maschine 10 verwendetes beispielhaftes Verfahren 100 zur Erkennung der Materialhalde 34. Das Verfahren 100 verwendet eine oder mehrere Monokamera(s) 44 oder andere bildgebende Vorrichtung(en) (z. B. Ethernet-Bildsensor), die ein 2D-Bild erzeugen können, und den Prozessor 48 auf der Maschine 10, der ein Deep-Learning-Netzwerk für die Inferenz unterstützt. Das Verfahren 100 umfasst die Eingabe von 2D-Bildern in das neuronale Deep-Learning-Netzwerk, das für die Ausführung der Aufgabe der Haldenerkennung trainiert wurde. Das Verfahren 100 umfasst die ersten Schritte des Sammelns und Annotierens von 2D-Bilddaten 102 und die anschließende Verwendung der annotierten Bilddaten zum Trainieren eines neuronalen Deep-Learning-Netzwerks 104. Für den Schritt der Datenerfassung und Annotation 102 werden 2D-Bilder von einer Vielzahl von Halden erhalten. Die Monokamera(s) oder die andere(n) bildgebende(n) Vorrichtung(en), die zum Erhalten der 2D-Bilder verwendet wird/werden, kann/können einer oder mehrere der Sensoren 42 an der Maschine 10, eine oder mehrere Kameras oder andere bildgebende Vorrichtungen unabhängig von der Maschine 10 oder eine Kombination davon sein. Vorzugsweise würden die 2D-Bilder eine Vielzahl von Materialhalden mit unterschiedlichen Formen, Größen und Materialarten beinhalten und die Bilder können von einer Vielzahl von Bau- und Bergbaustellen erhalten werden.
  • Mit Bezugnahme auf Schritt 104 werden die in Schritt 102 erhaltenen 2D-Bilder mit Hilfe eines Annotationswerkzeugs markiert. Es kann jedes geeignete Annotationswerkzeug bzw. jede geeignete Annotationsmethode verwendet werden, die in der Technik für die Markierung von Bildbereichen bekannt ist. 3 veranschaulicht ein Beispiel für ein annotiertes Bild 120. Das annotierte Bild 120 beinhaltet eine Bodenfläche 121, eine erste Materialhalde 122, eine zweite Materialhalde 124, eine stehende Person 126 und einen Felsbrocken 128. Die erste Materialhalde 122 wird durch das Annotationswerkzeug markiert, indem es sie mit einem Begrenzungsrahmen 130 umgibt. Auch die zweite Materialhalde 124 ist von einem zweiten Begrenzungsrahmen 132 umgeben. Auf diese Weise identifizieren die Begrenzungsrahmen 130, 132 diejenigen Bereiche des Bildes 120, die Materialhalden sind. 4 veranschaulicht das annotierte Bild 120 unter Verwendung eines anderen Annotationsverfahrens. Wie in 3 beinhaltet das annotierte Bild 120 eine Bodenfläche 121, eine erste Materialhalde 122, eine zweite Materialhalde 124, eine stehende Person 126 und einen Felsbrocken 128. Die erste Materialhalde 122 wird vom Annotationswerkzeug durch Abdecken der Bereiche des Bildes, die die erste Materialhalde 122 darstellen, mit einer ersten pixelweisen Segmentierungsmaske 140 markiert. Ebenso werden die Bereiche des Bildes, die die zweite Materialhalde 124 darstellen, mit einer zweiten pixelweisen Segmentierungsmaske 142 abgedeckt. Die pixelweisen Segmentierungsmasken 140, 142 identifizieren somit diejenigen Bereiche des Bildes 120, die Materialhalden sind.
  • Die verschiedenen annotierten Bilder der Materialhalden, wie das annotierte Bild 120, werden anschließend zum Trainieren eines neuronalen Deep-Learning-Netzwerks verwendet, das in der Lage ist, Materialhalden in einem Bild zu erkennen. Neuronale Deep-Learning-Netzwerke sind in der Technik bekannt. Jedes geeignete neuronale Deep-Learning-Netzwerk kann verwendet werden. Wird beispielsweise eine Begrenzungsrahmenmarkierung verwendet, kann ein Netzwerk wie MobileNetSSD-V2 genutzt werden. Werden zur Markierung der Materialhalden pixelweise Segmentierungsmasken verwendet, kann ein Netzwerk wie SegNet genutzt werden. Ferner ist die Methodik des Trainings eines neuronalen Deep-Learning-Netzwerks in der Fachwelt bekannt und wird hierin nicht in Einzelheiten erläutert.
  • Sobald das neuronale Deep-Learning-Netzwerk trainiert wurde, wird das trainierte Netzwerk durch Anschluss an den Prozessor 48 eingesetzt. Der Prozessor 48 kann ein beliebiger Prozessor sein, der das neuronale Deep-Learning-Netzwerk ausführen kann. Beispielsweise kann der Prozessor 48 ein beschleunigter ECM sein, der auf FPGAs oder GPUs basiert.
  • Zusätzlich beinhaltet der Einsatz die Kalibrierung der Kamera 44 oder der 2D-Bildgebungsvorrichtung an der Maschine 10, damit der Abstand zwischen den in dem Bild erfassten Objekten und der Maschine ermittelt oder geschätzt werden kann. Beispielsweise kann die Maschine 10 eine Inertialmesseinheit (IMU) beinhalten (nicht abgebildet), die zur Definition eines Koordinatenrahmens der Maschine 10 verwendet werden kann. Eine extrinsische Kalibrierung der Kamera 44 in Bezug auf den Koordinatenrahmen der Maschine 10 kann mit einer Vorrichtung wie einer Universaltotalstation gemessen werden.
  • Nachdem das neuronale Netzwerk trainiert und an den Prozessor 48 angeschlossen und die Kamera 44 kalibriert wurde, ist das System 40 zum autonomen Erkennen von Halden konfiguriert. Im Betrieb erzeugt die Kamera 44 oder die 2D-Bildgebungsvorrichtung in Schritt 106 Bilder und übermittelt die Bilder an den Prozessor 48. In Schritt 108 werden die Bilder an das trainierte neuronale Netzwerk im Prozessor 48 übergeben. Im Schritt 110 untersucht das trainierte neuronale Netzwerk jedes empfangene Bild und erkennt, ob eine Materialhalde 34 in einem bestimmten Bildrahmen gezeigt ist.
  • Sobald eine Materialhalde 34 im Bilderrahmen erkannt wird, wird der Schwerpunkt (Zentrum) der Materialhalde 34 durch Mittelung der Position aller zur Materialhalde 34 gehörenden Pixel berechnet. Die Position kann durch Verwendung der Kameraproj ektionsmatrix und der extrinsischen Kalibrierung in den Maschinenrahmen transformiert werden, sodass das autonome System in der Lage ist, die Position und Lage der Materialhalde 34 in Bezug auf die Maschine 10 zu kennen.
  • 6 veranschaulicht ein weiteres von der Maschine 10 verwendetes beispielhaftes Verfahren 200 zur Erkennung der Materialhalde 34. Das Verfahren 100 verwendet ein System, das die 3D-Sensorvorrichtung 46 und den Prozessor 48 auf der Maschine 10 mit Unterstützung zur Ausführung einer beschleunigten Berechnung beinhaltet. Das Verfahren 200 verwendet eine geometrische Technik zur Erkennung einer Halde basierend auf einer 3D-Punktwolke. Eine 3D-Punktwolke ist ein Satz von Datenpunkten (XYZ-Koordinaten) im Raum.
  • Das Verfahren 200 beinhaltet das Eingeben einer 3D-Punktwolke in den Prozessor 48 in Schritt 202. Die 3D-Punktwolke kann direkt von der 3D-Sensorvorrichtung 46, wie beispielsweise einer Stereokamera, einem LIDAR usw., und/oder von einer beliebigen Art von 3D-Kartenraumdarstellung, wie beispielsweise einer Oktokarte oder Höhenkarte, stammen. Die 3D-Kartenraumdarstellung kann entfernt von der Maschine 10 erzeugt und zum Prozessor 48, beispielsweise von einer externen Einheit über die Kommunikationsvorrichtung 52, hochgeladen werden.
  • 7 veranschaulicht ein Beispiel einer 3D-Punktwolke 300 derselben Szene, wie sie in dem annotierten Bild 120 dargestellt ist. Die 3D-Punktwolke stellt insbesondere die Bodenfläche 121, die erste Materialhalde 122, die zweite Materialhalde 124, die stehende Person 126 und den Felsbrocken 128 dar. Sobald eine 3D-Punktwolke erhalten wurde, kann in Schritt 204 eine Bodenflächenschätzung (Ground Surface Estimation, GSE) für die 3D-Punktwolke durchgeführt werden. GSE ist in der Technik bekannt. Jede(r) geeignete(r) GSE-Technik oder -Algorithmus kann verwendet werden. Im Allgemeinen identifiziert und extrahiert ein GSE-Algorithmus die Hauptbodenfläche aus einer 3D-Punktwolke über eine Reihe von mathematischen und geometrischen Berechnungen wie Normalberechnung, Unebenheitsschätzung, Ebenenanpassung und Random Sampling Consensus (RANSAC).
  • In Schritt 206 weist die Ausgabe der GSE den Punkten, die als Boden angesehen werden, eine Markierung zu und den Punkten, die als Nicht-Boden angesehen werden (d. h. alles über oder unterhalb der Bodenfläche), eine andere Markierung. 8 ist ein Beispiel der Ausgabe der GSE 302 für die 3D-Punktwolke von 7. In 8 sind die Bodenpunkte 304 in einem helleren Farbton dargestellt, während die Nicht-Bodenpunkte 306 in einem dunkleren Farbton dargestellt sind.
  • In Schritt 208 werden nach der Einstufung jedes Punktes als Boden und Nicht-Boden nur die Nicht-Boden-Punkte für die weitere Verarbeitung ausgewählt. Die Nicht-Boden-Punkte werden anschließend basierend auf einer Punkt-zu-Punkt-Näherungsmetrik in Clustern gruppiert (d. h. Nicht-Boden-Punkte, die sich in unmittelbarer Nähe zueinander befinden, werden als Teil desselben Clusters gruppiert). Clustering-Algorithmen, die auf einer Näherungsmetrik basieren, sind in der Technik bekannt. Jeder geeignete Clustering-Algorithmus kann verwendet werden, um die Nicht-Boden-Punkte in Clustern zu gruppieren.
  • In Schritt 210 berechnet der Prozessor 48 für jeden Cluster ein Histogramm der normalisierten Höhe der Punkte von der Bodenfläche. Beispielsweise wird dem niedrigsten Punkt des Clusters der Wert Null und dem höchsten Punkt des Clusters der Wert 1 zugewiesen. Allen Punkten, deren Höhe zwischen dem höchsten und dem niedrigsten Punkt liegt, werden im Verhältnis zu ihrer Höhe relativ zum höchsten und niedrigsten Punkt numerische Werte zwischen Null und 1 zugewiesen. Anschließend wird ein Histogramm der normalisierten Höhendaten erstellt.
  • In Schritt 212 vergleicht der Prozessor 48 das Histogramm mit einer zuvor erstellten und für den Prozessor 48 zugänglichen Halden-Deskriptor-Vorlage. Hinsichtlich der Halden-Deskriptor-Vorlage weisen Materialhalden unabhängig von der Art des Materials im Allgemeinen eine ähnliche Form auf. Daher ist das normalisierte Höhenhistogramm einer Materialhalde im Allgemeinen ähnlich wie das normalisierte Höhenhistogramm anderer Materialhalden. Daher wird ein verallgemeinertes normalisiertes Histogramm einer Materialhalde aus den zuvor gesammelten Daten anderer Halden erstellt und dem Prozessor 48 zur Verfügung gestellt. Das verallgemeinerte Haldenhistogramm wird als Darstellung der meisten Halden (d. h. eine Halden-Deskriptor-Vorlage) verwendet. In einigen Ausführungsformen können mehrere verallgemeinerte Haldenhistogramme erstellt werden, die jeweils mit dem Histogramm der normalisierten Höhe der Punkte von der Bodenfläche für jeden Cluster verglichen werden können.
  • Als Ausgabe des Vergleichs des Histogramms der normalisierten Höhe der Punkte von der Bodenfläche für jeden Cluster mit der Halden-Deskriptor-Vorlage berechnet der Prozessor 48 einen Ähnlichkeitswert. Ein Ähnlichkeitswert gibt an, wie sicher der Algorithmus ist, dass das normalisierte Höhenhistogramm mit der Deskriptor-Vorlage übereinstimmt. Beispielsweise kann ein Ähnlichkeitswert ein numerischer Wert sein, der angibt, wie gut das normalisierte Histogramm mit der Halden-Deskriptor-Vorlage übereinstimmt. In einem Beispiel kann der Ähnlichkeitswert ein Wert zwischen 0 und 100 sein, wobei 0 für überhaupt keine Übereinstimmung steht, während 100 für eine perfekte Übereinstimmung steht. Die Berechnung eines Ähnlichkeitswertes zwischen Datensätzen ist in der Technik bekannt. Jede geeignete Methode zur Berechnung eines Ähnlichkeitswertes zwischen dem Histogramm der normalisierten Höhe der Punkte auf der Bodenfläche für jeden Cluster und der Halden-Deskriptor-Vorlage kann verwendet werden.
  • In Schritt 214 identifiziert der Prozessor 48 die Cluster mit den höchsten Ähnlichkeitswerten und behandelt diese Cluster als Materialhalden. In einigen Ausführungsformen kann ein Schwellenwert für den Ähnlichkeitswert festgelegt werden und der Prozessor vergleicht den Ähnlichkeitswert jedes Clusters mit dem Schwellenwert für den Ähnlichkeitswert. Jeder Cluster, dessen Ähnlichkeitswert den Schwellenwert erreicht oder überschreitet, wird vom Prozessor 48 als Materialhalde betrachtet.
  • In Schritt 216 wird für die als Materialhalden identifizierten Cluster der Standort der Materialhalde 34 ermittelt. Der Standort der Halden kann auf jede geeignete Weise ermittelt werden. Beispielsweise kann der Schwerpunkt (Zentrum) der Halde berechnet und anschließend bei Bedarf in den Maschinen- oder Weltrahmen transformiert werden. Beispielsweise verfügt bei 3D-Wolkenpunktdaten jeder der Punkte über kartesische 3D-Koordinaten (x,y,z) im Raum, die es ermöglichen, den Standort dieser Punkte leicht zu identifizieren. In Abhängigkeit davon, in welchem Koordinatensystem die 3D-Punktdaten vorliegen, kann eine Transformation in den Welt- oder Maschinenrahmen erforderlich sein. Liegen die 3D-Punktdaten im Welt- oder Maschinenrahmen vor, muss keine Transformation vorgenommen werden, um die Standorte der Halden zu ermitteln. Liegen die 3D-Punktdaten jedoch im Rahmen der Sensorvorrichtung vor, kann eine extrinsische Kalibrierung in Bezug auf den Koordinatenrahmen der Maschine 10 mit einer Vorrichtung wie einer Universaltotalstation gemessen werden.
  • In einigen Ausführungsformen kann die Maschine 10 eine Kombination oder Fusion aus dem Verfahren 100, bei dem 2D-Bilder in das neuronale Deep-Learning-Netzwerk eingegeben werden, das für die Aufgabe der Erkennung von Halden trainiert wurde, und dem Verfahren 200, das eine geometrische Technik zur Erkennung einer Halde basierend auf einer 3D-Punktwolke verwendet, nutzen. Beispielsweise kann der eine oder können die mehreren Sensoren 42 der Maschine 10 sowohl eine Kamera 44 oder eine andere 2D-Bildgebungsvorrichtung als auch eine 3D-Sensorvorrichtung 46, wie LIDAR oder eine Stereokamera, beinhalten. Ist die 3D-Sensorvorrichtung 46 eine Stereokamera, weist sie automatisch die 3D-Punktwolke und das 2D-Bild als eine Nachricht aus und kann für beide Verfahren genutzt werden.
  • Die kombinierte Nutzung des Verfahrens 100 und des Verfahrens 200 zur Erkennung von Halden kann auf verschiedene Weise erfolgen. In einer Ausführungsform wird beispielsweise jedes Erkennungsverfahren 100, 200 unabhängig voneinander ausgeführt, wobei die Maschine 10 alle von einem der Verfahren erkannten Materialhalden als eine Halde behandelt. In einer anderen Ausführungsform wird jedem Erkennungsverfahren 100, 200 eine Konfidenzgewichtung zugewiesen und die Ausgaben der beiden Verfahren 100, 200 werden fusioniert. In noch einer weiteren Ausführungsform kann jede im Verfahren 200 erkannte Halde zurück in das Bild projiziert werden, und die beiden Vorhersagen können zur Verbesserung der Vorhersagegenauigkeit fusioniert werden. Beispielsweise können die verschiedenen Haldenerkennungsverfahren 100, 200 unterschiedliche Sensoren (z. B. eine Monokamera und ein LIDAR) verwenden und somit erkannte Halden im jeweiligen Sensorkoordinatensystem bereitstellen. Eine Koordinatentransformation zu der in einem Bildsensor (z. B. einem 3D-Bildsensor) erkannten Halde kann durchgeführt werden, um die Punkte auf dem Bildrahmen der 2D-Bildgebungsvorrichtung anzuordnen. Auf diese Weise wird die von der 3D-Sensorvorrichtung erkannte Halde der von der 2D-Bildgebungsvorrichtung erkannten Halde überlagert, und es kann mit Hilfe von in der Technik bekannten Verfahren ermittelt werden, dass die beiden Sensoren dieselbe Halde erkennen.
  • Gewerbliche Anwendbarkeit
  • Die Systeme und Verfahren zur Erkennung von Halden können in jeder autonomen Maschine eingesetzt werden, die auf Materialhalden stoßen kann, wie beispielsweise in einem Radlader, einem Bagger, einem geländefähigen LKW oder einer Planierraupe. Viele autonome Systeme nutzen derzeit sowohl eine Kamera als auch eine 3D-Sensorvorrichtung, wie LIDAR. Die offenbarten Systeme und Verfahren stellen einen effektiven Weg zur Erkennung von Materialhalden bereit, indem sie die bereits bei den meisten autonomen Systemen vorhandenen Sensoren zusammen mit einem Prozessor 48 auf der Maschine 10 nutzen, der in der Lage ist, die beschleunigte Berechnung durchzuführen, die für die Nutzung der geometrischen Technik zur Erkennung einer Halde basierend auf einer 3D-Punktwolke des Verfahrens 200 von 5 und für die Ausführung des trainierten neuronalen Netzwerks und des Bildvergleichs des Verfahrens 100 von 2 erforderlich ist.
  • Zusätzlich zu der Kernfunktionalität der Haldenerkennung, die erforderlich ist, um einen Pfad zu planen und zu einer Materialhalde hin oder um sie herum zu navigieren und um eine Materialhalde anzufahren und ein Arbeitsgerät optimal zu positionieren, stellen die offenbarten Verfahren zur Haldenerkennung auch Vorteile für die Produktivitätsmessung und -überwachung bereit. Baustellenleiter sind daran interessiert, zu erfahren, wie viel Material die Halde enthält und wie viel Material von der Halde bewegt wurde. Bei den traditionellen Verfahren werden Berechnungen und Schätzungen von Hand und auf Papier vorgenommen. Es besteht jedoch der Wunsch, dass Wahrnehmungssysteme automatisch das Volumen der Halden und die Menge des bewegten Materials berechnen. Bevor diese Metriken berechnet werden können, muss die Halde zunächst automatisch erkannt werden.
  • Während das System als Implementierung in einem autonomen Radlader dargestellt ist, kann es auch in anderen Arten von Maschinen, ob autonom oder nicht, verwendet werden. Sofern hierin nicht anders angegeben, sind alle Unterausführungsformen und optionalen Ausführungsformen entsprechende Unterausführungsformen und optionale Ausführungsformen für alle hierin beschriebenen Ausführungsformen. Obwohl die vorliegende Offenbarung durch die Beschreibung von Ausführungsformen davon veranschaulicht wurde und obwohl die Ausführungsformen sehr detailliert beschrieben wurden, ist es nicht die Absicht des Antragstellers, den Umfang der beigefügten Ansprüche auf diese Details zu begrenzen oder in irgendeiner Weise einzuschränken. Zusätzliche Vorteile und Modifikationen werden sich den Fachleuten auf diesem Gebiet ohne weiteres erschließen. Daher ist die vorliegende Offenbarung in ihren breiteren Aspekten nicht auf die spezifischen Details, die repräsentativen Zusammensetzungen oder Formulierungen und die dargestellten und beschriebenen veranschaulichenden Beispiele beschränkt. Dementsprechend kann von diesen Einzelheiten abgewichen werden, ohne vom Sinn oder Umfang der allgemeinen Offenbarung des Antragstellers hierin abzuweichen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 9702115 [0002]

Claims (10)

  1. Verfahren zum Erkennen einer Materialhalde (34) durch eine autonome Maschine (10), das Verfahren umfassend: Empfangen einer dreidimensionalen Punktwolke (300), die auf eine Umgebung mit einer Materialhalde (34) hinweist, unter Verwendung eines Prozessors (48) auf der Maschine (10); Ausführen einer Bodenflächenschätzung (302) an der dreidimensionalen Punktwolke (300) zur Identifizierung von Nicht-Boden-Punkten (306); Gruppieren der Nicht-Boden-Punkte (306) in einem oder mehreren Clustern von Punkten basierend auf der Nähe der Punkte zueinander; Erstellen eines normalisierten Höhenhistogramms für jeden der ein oder mehreren Cluster; Vergleichen des normalisierten Höhenhistogramms jedes Clusters mit einem verallgemeinerten Haldenhistogramm; und Identifizieren eines Clusters aus dem einen oder mehreren Clustern als Materialhalde (34) basierend auf der Ähnlichkeit zwischen dem normalisierten Höhenhistogramm des Clusters und dem verallgemeinerten Haldenhistogramm.
  2. Verfahren nach Anspruch 1, wobei die dreidimensionale Punktwolke (300) von einem LIDAR oder einer Stereokamera auf der autonomen Maschine (10) empfangen wird.
  3. Verfahren nach Anspruch 1 oder 2, wobei die Identifizierung eines Clusters aus dem einen oder den mehreren Clustern als eine Halde basierend auf der Ähnlichkeit zwischen dem normalisierten Höhenhistogramm des Clusters und dem verallgemeinerten Haldenhistogramm ferner die Berechnung eines Ähnlichkeitswertes zwischen dem normalisierten Höhenhistogramm des Clusters und dem verallgemeinerten Haldenhistogramm und die Identifizierung des Clusters als eine Materialhalde (34) umfasst, wenn der Ähnlichkeitswert gleich einem oder größer als ein Ähnlichkeitswert-Schwellenwert ist.
  4. Verfahren nach einem der Ansprüche 1 bis 3, wobei das verallgemeinerte Haldenhistogramm ein normalisiertes Höhenhistogramm von 3D-Punktwolkendaten (300) von einer oder mehreren Referenzmaterialhalden ist, wobei das verallgemeinerte Haldenhistogramm in einem Speicher (50) gespeichert ist, auf den der Prozessor (48) zugreifen kann.
  5. Verfahren nach einem der Ansprüche 1-4, ferner umfassend Empfangen eines zweidimensionalen Bildes (120) der Umgebung mit der Materialhalde (34) von einer Bildgebungsvorrichtung (44) unter Verwendung eines Prozessors (48) auf der Maschine (10); Autonomes Erkennen eines Bildes der Materialhalde (34) in dem zweidimensionalen Bild unter Verwendung eines neuronalen Deep-Learning-Netzwerks, das in einem Speicher (50) der Maschine (10) gespeichert ist und zuvor trainiert wurde, um ein Bild einer Materialhalde in einem zweidimensionalen Bild zu erkennen; und Kalibrieren der Bildgebungsvorrichtung (44) in Bezug auf einen Koordinatenrahmen der Maschine (10), um den Abstand der Materialhalde (34) von der Maschine (10) zu ermitteln.
  6. Verfahren nach Anspruch 5, ferner umfassend das Zuordnen einer ersten Konfidenzbewertung zu jeder aus der 3D-Punktwolke (300) erkannten Materialhalde und das Zuordnen einer zweiten Konfidenzbewertung zu jeder durch das neuronale Deep-Learning-Netzwerk erkannten Materialhalde.
  7. Verfahren nach Anspruch 5 oder 6, wobei das neuronale Deep-Learning-Netzwerk zur Erkennung eines Bildes einer Materialhalde in einem zweidimensionalen Bild trainiert wird, indem dem neuronalen Deep-Learning-Netzwerk eine Vielzahl von zweidimensionalen Bildern bereitgestellt wird, die ein Bild von einer oder mehreren Materialhalden beinhalten, die markiert wurden.
  8. Autonome Maschine (10), umfassend: eine oder mehrere mit einem Rahmen (22) verbundene und diesen tragende Traktionsvorrichtungen (14); eine an dem Rahmen (22) montierte Leistungsquelle (12), die zum Antrieb der Traktionsvorrichtungen (14) ausgelegt ist; eine 3D-Sensorvorrichtung (46), die zur Erzeugung einer 3D-Punktwolke (300) fähig ist, die eine Umgebung mit einer Materialhalde (34) anzeigt; und einen Prozessor (48), ausgelegt zum: Empfangen der dreidimensionalen Punktwolke (300) von der 3D-Sensorvorrichtung (46); Ausführen einer Bodenflächenschätzung (302) an der dreidimensionalen Punktwolke (300) zur Identifizierung von Nicht-Boden-Punkten (306); Gruppieren der Nicht-Boden-Punkte (306) in einem oder mehreren Clustern von Punkten basierend auf der Nähe der Punkte zueinander; Erstellen eines normalisierten Höhenhistogramms für jeden der ein oder mehreren Cluster; Vergleichen des normalisierten Höhenhistogramms eines jeden Clusters mit einem Referenzhistogramm; und Identifizieren eines Clusters aus dem einen oder mehreren Clustern als Materialhalde (34) basierend auf der Ähnlichkeit zwischen dem normalisierten Höhenhistogramm des Clusters und dem Referenzhistogramm.
  9. Autonome Maschine (10) nach Anspruch 8, wobei die Identifizierung eines Clusters aus dem einen oder den mehreren Clustern als eine Materialhalde (34) basierend auf der Ähnlichkeit zwischen dem normalisierten Höhenhistogramm des Clusters und dem verallgemeinerten Haldenhistogramm ferner die Berechnung eines Ähnlichkeitswertes zwischen dem normalisierten Höhenhistogramm des Clusters und dem verallgemeinerten Haldenhistogramm und die Identifizierung des Clusters als eine Halde umfasst, wenn der Ähnlichkeitswert gleich einem oder größer als ein Ähnlichkeitswert-Schwellenwert ist.
  10. Autonome Maschine (10) nach Anspruch 8 oder 9, wobei der Prozessor (48) ferner konfiguriert ist zum: Empfangen eines zweidimensionalen Bildes (120) einer Umgebung mit der Materialhalde (34) von einer Bildgebungsvorrichtung (44) unter Verwendung eines Prozessors (48) auf der Maschine (10); Autonomen Erkennen eines Bildes der Materialhalde (34) in dem zweidimensionalen Bild (120) unter Verwendung eines neuronalen Deep-Learning-Netzwerks, das in einem Speicher (50) der Maschine (10) gespeichert ist und zuvor trainiert wurde, um ein Bild einer Materialhalde in einem zweidimensionalen Bild zu erkennen; und Kalibrieren der Bildgebungsvorrichtung (44) in Bezug auf einen Koordinatenrahmen der Maschine (10), um einen Abstand der Materialhalde (34) von der Maschine (10) zu ermitteln.
DE112021002328.4T 2020-05-11 2021-04-20 Verfahren und system zur erkennung einer halde Pending DE112021002328T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/871,419 2020-05-11
US16/871,419 US11462030B2 (en) 2020-05-11 2020-05-11 Method and system for detecting a pile
PCT/US2021/028067 WO2021231043A1 (en) 2020-05-11 2021-04-20 Method and system for detecting a pile

Publications (1)

Publication Number Publication Date
DE112021002328T5 true DE112021002328T5 (de) 2023-02-09

Family

ID=78412835

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112021002328.4T Pending DE112021002328T5 (de) 2020-05-11 2021-04-20 Verfahren und system zur erkennung einer halde

Country Status (5)

Country Link
US (1) US11462030B2 (de)
AU (1) AU2021272867A1 (de)
CA (1) CA3177321A1 (de)
DE (1) DE112021002328T5 (de)
WO (1) WO2021231043A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4185990A1 (de) * 2020-08-21 2023-05-31 Waymo Llc Objektzentrische dreidimensionale automatische markierung von punktwolkendaten
CN114325755B (zh) * 2021-11-26 2023-08-01 江苏徐工工程机械研究院有限公司 一种适用于自动驾驶车辆的挡土墙检测方法及系统
CN115032608B (zh) * 2022-08-15 2022-11-01 杭州宇称电子技术有限公司 测距传感器数据优化方法及其应用

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9702115B1 (en) 2016-01-08 2017-07-11 Caterpillar Inc. Autonomous method for detecting a pile

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7298895B2 (en) * 2003-04-15 2007-11-20 Eastman Kodak Company Method for automatically classifying images into events
US9222771B2 (en) * 2011-10-17 2015-12-29 Kla-Tencor Corp. Acquisition of information for a construction site
US9990712B2 (en) * 2015-04-08 2018-06-05 Algotec Systems Ltd. Organ detection and segmentation
US9587369B2 (en) 2015-07-02 2017-03-07 Caterpillar Inc. Excavation system having adaptive dig control
TWI581213B (zh) * 2015-12-28 2017-05-01 力晶科技股份有限公司 物品缺陷檢測方法、影像處理系統與電腦可讀取記錄媒體
US10315866B2 (en) 2016-10-20 2019-06-11 Intelligrated Headquarters, Llc 3D-2D vision system for robotic carton unloading
JP6450788B2 (ja) 2017-02-21 2019-01-09 ファナック株式会社 ワーク取出システム
WO2018201180A1 (en) 2017-05-02 2018-11-08 PETRA Data Science Pty Ltd Automated, real time processing, analysis, mapping and reporting of data for the detection of geotechnical features
US10235566B2 (en) * 2017-07-21 2019-03-19 Skycatch, Inc. Determining stockpile volume based on digital aerial images and three-dimensional representations of a site
US20190005667A1 (en) 2017-07-24 2019-01-03 Muhammad Zain Khawaja Ground Surface Estimation
US10593108B2 (en) * 2017-10-31 2020-03-17 Skycatch, Inc. Converting digital aerial images into a three-dimensional representation utilizing processing clusters
US11124947B2 (en) * 2018-08-22 2021-09-21 Deere & Company Control system for a work machine
JP7211735B2 (ja) * 2018-08-29 2023-01-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 寄与度決定方法、寄与度決定装置及びプログラム
US10872269B2 (en) * 2018-10-26 2020-12-22 Volvo Car Corporation Methods and systems for the fast estimation of three-dimensional bounding boxes and drivable surfaces using LIDAR point clouds
CN110053943B (zh) 2019-05-21 2021-04-23 精英数智科技股份有限公司 一种人工智能视频识别皮带堆煤的监测方法
GB202311795D0 (en) * 2019-12-19 2023-09-13 Motional Ad Llc Foreground extraction using surface fitting

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9702115B1 (en) 2016-01-08 2017-07-11 Caterpillar Inc. Autonomous method for detecting a pile

Also Published As

Publication number Publication date
US20210350114A1 (en) 2021-11-11
US11462030B2 (en) 2022-10-04
WO2021231043A1 (en) 2021-11-18
CA3177321A1 (en) 2021-11-18
AU2021272867A1 (en) 2022-12-15

Similar Documents

Publication Publication Date Title
DE112021002328T5 (de) Verfahren und system zur erkennung einer halde
DE19858750B4 (de) Verfahren und Vorrichtungen zum Bestimmen der Position, Größe und Ausrichtung eines Objekts
DE112020004644T5 (de) Systeme und verfahren zur autonomenbewegung von material
DE102019211710A1 (de) Behälterwinkelerfassung unter verwendung eines bildsensors zur feedbackschleifensteuerung
DE102018207706A1 (de) Umgebungsabtastung unter Verwendung einer Arbeitsmaschine mit einer Kamera
DE112016003502B4 (de) Bauverwaltungssystem und Formmessverfahren
DE112019003159T5 (de) Bildverarbeitungssystem, anzeigevorrichtung, bildverarbeitungsverfahren, verfahren zur erzeugung eines trainierten modells und datensatz zum lernen
DE112020000310T5 (de) Bildverarbeitungssystem, Bildverarbeitungsverfahren, Verfahren zur Erzeugung eines gelernten Modells und Datensatz zum Lernen
DE102020110306A1 (de) System und Verfahren zur Aufrechterhaltung einer Arbeitsfläche auf einer Baustelle
DE112016003771T5 (de) Bauverwaltungssystem, Bauverwaltungsverfahren und Verwaltungsvorrichtung
DE102009050504A1 (de) Verfahren zum Detektieren eines freien Pfads durch eine Analyse einer topografischen Veränderung
DE102009050502A1 (de) Detektion eines freien Pfads unter Verwendung eines hierarchischen Ansatzes
DE102014013155A1 (de) Bildanzeigesystem
DE102020110123A1 (de) System und verfahren für die maschinensteuerung
DE112017001523T5 (de) Formmesssystem, Arbeitsmaschine und Formmessverfahren
DE112020002774T5 (de) System und verfahren zum verwalten von werkzeug auf einer baustelle
DE102019212442A1 (de) Steuersystem für eine Arbeitsmaschine
DE102020206190A1 (de) System und verfahren für die konfiguration einer arbeitsstätten warnzone.
DE112021006111T5 (de) Systeme und Verfahren zur monokularisierten Objekterkennung
DE102021204257A1 (de) Bodeneingriffswerkzeugsteuersystem und -verfahren
Guan et al. Ttm: Terrain traversability mapping for autonomous excavator navigation in unstructured environments
DE102018200060B4 (de) Verfahren zum Betreiben einer mobilen Arbeitsmaschine und mobile Arbeitsmaschine
DE102013202075A1 (de) Bewegungsstrategieerarbeitungs- und/oder Navigationsvorrichtung
CN111444891A (zh) 一种基于机载视觉的无人碾压机作业场景感知系统及方法
DE102019123483A1 (de) Verfahren sowie Kraftfahrzeug-Steuereinheit zum Erfassen einer Umgebung eines Kraftfahrzeugs durch Fusionieren von Sensordaten auf Punktwolkenebene

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: WAGNER & GEYER PARTNERSCHAFT MBB PATENT- UND R, DE