DE102020205175A1 - Steuerung von mobilen baumaschinen für unterirdische kartierung - Google Patents

Steuerung von mobilen baumaschinen für unterirdische kartierung Download PDF

Info

Publication number
DE102020205175A1
DE102020205175A1 DE102020205175.5A DE102020205175A DE102020205175A1 DE 102020205175 A1 DE102020205175 A1 DE 102020205175A1 DE 102020205175 A DE102020205175 A DE 102020205175A DE 102020205175 A1 DE102020205175 A1 DE 102020205175A1
Authority
DE
Germany
Prior art keywords
images
objects
logic
location
excavation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020205175.5A
Other languages
English (en)
Inventor
Scott S. Hendron
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deere and Co
Original Assignee
Deere and Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deere and Co filed Critical Deere and Co
Publication of DE102020205175A1 publication Critical patent/DE102020205175A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • E02F9/2025Particular purposes of control systems not otherwise provided for
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/24Safety devices, e.g. for preventing overload
    • E02F9/245Safety devices, e.g. for preventing overload for preventing damage to underground objects during excavation, e.g. indicating buried pipes or the like
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/261Surveying the work-site to be treated
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/261Surveying the work-site to be treated
    • E02F9/262Surveying the work-site to be treated with follow-up actions to control the work tool, e.g. controller
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • E02F9/2025Particular purposes of control systems not otherwise provided for
    • E02F9/2054Fleet management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata

Landscapes

  • Engineering & Computer Science (AREA)
  • Mining & Mineral Resources (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Structural Engineering (AREA)
  • Civil Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Paleontology (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Instructional Devices (AREA)

Abstract

Bilder, die von einer Bilderfassungsvorrichtung an einer bodenstörenden Arbeitsmaschine aus verschiedenen Perspektiven aufgenommen und empfangen werden. Ein maschinell erlerntes Bildidentifikationsmodell, das Objekte von Interesse in den Bildern erkennt. Basierend auf dem Satz von Bildern wird eine dreidimensionale Darstellung erzeugt. Die dreidimensionale Darstellung identifiziert eine Tiefe, in der sich die erkannten Objekte unter der Oberfläche des auszuhebenden Bodens befinden. Es wird eine Kartenanforderung empfangen, die einen Ort und eine Tiefe identifiziert, für die Bilddaten zur Verfügung gestellt werden sollen. Eine dreidimensionale Darstellung des Ortes und der Tiefe wird als Antwort auf die Anfrage zur Verfügung gestellt.

Description

  • GEBIET DER BESCHREIBUNG
  • Die vorliegende Beschreibung bezieht sich auf mobile Arbeitsmaschinen. Insbesondere bezieht sich die vorliegende Beschreibung auf das Steuern mobiler Arbeitsmaschinen für eine unterirdische Kartierung.
  • HINTERGRUND
  • Es gibt viele verschiedene Arten mobiler Maschinen. Zu diesen Maschinen gehören unter anderem mobile Arbeitsmaschinen, wie Bagger, Lader, Schaber, usw.
  • Alle diese Maschinentypen führen häufig bodenstörende Vorgänge aus, bei denen der Boden neben oder unter den Maschinen ausgehoben, abgeschabt oder anderweitig gestört wird. Bei der Durchführung derartiger Vorgänge können verschiedene Probleme auftreten. So kann es unter der Erde beispielsweise Objekte geben, die durch bodenstörende Vorgänge zerstört werden können. Zum Beispiel können unterirdische Rohre, Fliesen, Versorgungsleitungen (wie z. B. Drähte, Glasfaserkabel usw.) im Boden vergraben sein, die gestört werden könnten. Bei der Durchführung der bodenstörenden Vorgänge (wie z. B. einer Ausgrabung) kann die Ausgrabung diese Objekte beschädigen oder zerstören. Reparaturen können dann zeitaufwendig und teuer sein. Gleichermaßen kann die Beschädigung eines gefährlichen Objekts (z. B. einer Gasleitung) eine Gefahr für die Bediener und die Geräte in der Nähe des Einsatzbereiches darstellen.
  • Ebenso kann es bei der Durchführung dieser Art von Tätigkeiten von Vorteil sein, die Bodenbeschaffenheit des auszuhebenden Bodens zu kennen. Beispielsweise kann es größere und robustere Geräte benötigen, um felsigen Boden zu bewegen, als es bei sandigen Böden der Fall ist. In ähnlicher Weise kann es zusätzliche Überlegungen (wie z. B. Überlegungen zur Entwässerung usw.) geben, wenn bestimmte Arten von Material, wie z. B. Ton, ausgehoben werden.
  • Einige aktuelle Systeme versuchen, diese Probleme anzugehen. So existieren z. B. einige Systeme, die versuchen, mit Hilfe eines Bodenradars Bilder zu erzeugen, um unterirdische Objekte zu identifizieren. Diese Bilder sind jedoch unterschiedlich zu interpretieren und in bestimmten Bodentypen, wie z. B. Ton, häufig ungenau.
  • Die vorstehende Erörterung dient lediglich allgemeinen Hintergrundinformationen und ist nicht als Hilfsmittel bei der Bestimmung des Umfangs des beanspruchten Gegenstands gedacht.
  • KURZDARSTELLUNG
  • Bilder, die von einer Bilderfassungsvorrichtung an einer bodenstörenden Arbeitsmaschine aus verschiedenen Perspektiven aufgenommen und empfangen werden. Ein maschinell erlerntes Bildidentifikationsmodell, das Objekte von Interesse in den Bildern erkennt. Basierend auf dem Satz von Bildern wird eine dreidimensionale Darstellung erzeugt. Die dreidimensionale Darstellung identifiziert eine Tiefe, in der sich die erkannten Objekte unter der Oberfläche des auszuhebenden Bodens befinden. Es wird eine Kartenanforderung empfangen, die einen Ort und eine Tiefe identifiziert, für die Bilddaten zur Verfügung gestellt werden sollen. Eine dreidimensionale Darstellung des Ortes und der Tiefe wird als Antwort auf die Anfrage zur Verfügung gestellt.
  • Diese Zusammenfassung dient der Vorstellung einer Auswahl von Konzepten in vereinfachter Form, die nachfolgend in dem Abschnitt der ausführlichen Beschreibung erläutert werden. Diese Zusammenfassung ist weder dazu bestimmt, wesentliche Merkmale oder grundlegende Funktionen des beanspruchten Gegenstands zu identifizieren, noch soll sie als Hilfe bei der Bestimmung des Umfangs des beanspruchten Gegenstandes verwendet werden. Der beanspruchte Gegenstand ist nicht auf Implementierungen beschränkt, die im Abschnitt Hintergrund aufgeführte Nachteile ganz oder teilweise beseitigen.
  • Figurenliste
    • 1 ist eine bildliche Darstellung, die ein Beispiel für einen bodenstörenden Vorgang zeigt, von dem unterirdische Bilder erfasst werden.
    • 2 zeigt in einem Blockdiagramm ein Beispiel für eine Architektur zur Generierung dreidimensionaler Abbildungsinformationen aus den erfassten Bildern.
    • 3 zeigt ein Flussdiagramm, das ein Beispiel für die Funktionsweise eines Bilderfassungssystems bei der Erfassung von Bildern für die unterirdische Kartierung veranschaulicht.
    • Die 4A und 4B (hier zusammenfassend als 4 bezeichnet) zeigen ein Flussdiagramm, das ein Beispiel für den Betrieb eines Datenverarbeitungssystems für unterirdische Bilder bei der Verarbeitung von Bildern und der Beantwortung von Anforderungen zeigt.
    • 5 zeigt in einem Blockdiagramm ein Beispiel für eine Benutzerschnittstellenanzeige, die auf der Grundlage einer Anfrage generiert werden kann.
    • 6 zeigt ein Blockdiagramm, das ein Beispiel für die in 2 veranschaulichten Architektur darstellt, die in einer Remote-Serverarchitektur eingesetzt wird.
    • Die 7-9 zeigen Beispiele für mobile Geräte, die in den in den vorherigen FIG. gezeigten Architekturen verwendet werden können.
    • 10 zeigt ein Blockdiagramm eines Beispiels einer Computerumgebung, die in den Architekturen verwendet werden kann, die in den vorherigen FIGUREN gezeigt wurden.
  • AUSFÜHRLICHE BESCHREIBUNG
  • 1 stellt eine bildliche Darstellung eines Beispiels einer Arbeitsstelle (oder Ausgrabungsstätte) 100 dar, die sich an einem Ort befindet, an dem ein bodenstörender Vorgang (z. B. eine Ausgrabung) vorgenommen wird. Es wird darauf hingewiesen, dass bodenstörende Vorgänge mit verschiedenen Arten von Maschinen durchgeführt werden können, wobei die bodenstörenden Vorgänge hier als Ausgrabungsvorgänge bezeichnet werden.
  • In dem in 1 gezeigten Beispiel verfügen die mobilen Arbeitsmaschinen (z.B. Bagger) 102 und 104 jeweils über ein bodenstörendes Arbeitsgerät (z. B. eine Schaufel 106-108), das von einer Reihe von Stellantrieben gesteuert wird, um einen Ausgrabungsvorgang durchzuführen. In dem in 1 dargestellten Beispiel erzeugt der Vorgang eine Ausgrabung (oder gestörten Bereich) 110. Bediener in den Bedienerkabinen der Bagger 102-104 können Bedienereingaben zur Steuerung der Stellantriebe bereitstellen, um Bodenausgrabarbeiten vornehmen.
  • Bei der Durchführung der Ausgrabung können unterirdische Objekte (wie Gasleitungen, Rohre, elektrische Kabel, Glasfaserkabel usw.) 117 vorgefunden werden. Sofern den Bedienern der Maschinen 102-104 diese Objekte nicht bekannt sind, können die Objekte durch die Maschinen 102-104 beschädigt oder zerstört werden. Daher kann es vorteilhaft sein, den Ort von unter der Erde befindlichen Objekten zu kennen und zu wissen, um welche Objekte es sich dabei handelt, bevor die Ausgrabungsvorgänge vorgenommen werden.
  • Es kann zudem von Vorteil sein, den Bodentyp zu kennen, der durch den Vorgang gestört wird. So kann es beispielsweise mehr Zeit oder spezielle Geräte erfordern, Boden auszuheben, der größtenteils aus Lehm besteht, als Boden auszuheben, der eine beliebige Anzahl von großen Steinen enthält. 1 zeigt, dass an der Seitenwand der Ausgrabung 110 verschiedene Bodentypen 113 und 115 zu erkennen sind.
  • Daher ist in dem in 1 gezeigten Beispiel die Maschine 102 mit einer Bilderfassungsvorrichtung 109 und die Maschine 104 mit einer Bilderfassungsvorrichtung 111 ausgestattet. Die Bilderfassungsvorrichtungen 109 und 111 werden veranschaulichend gesteuert, um Bilder der Ausgrabung 110 über die Zeit und aus verschiedenen Winkeln zu erfassen. Daher können, wenn die Ausgrabung 110 immer tiefer wird, zusätzliche Bilder erfasst werden, welche die bei der Ausgrabung freigelegten Objekte 117 zeigen. Die Bilder zeigen u.a. auch die Bodentypen 113, 115, die unter anderem ausgehoben werden.
  • Wie nachstehend beschrieben, werden diese Bilder von einem Bildverarbeitungssystem verarbeitet, um eine dreidimensionale Darstellung der Ausgrabung 110 zu erzeugen, welche die verschiedenen Objekte 113, 115, 117 zeigt, die in der richtigen unterirdischen Tiefe unter der Oberfläche des auszuhebenden Bodens angetroffen wurden.
  • In einem Beispiel empfängt das Bildverarbeitungssystem diese Bilder zusammen mit einer Vielzahl weiterer Bilder von anderen Maschinen an anderen Ausgrabungsstätten (oder von bodenstörenden Orten). Es kann automatisch Objekte (wie Rohre, elektrische oder faseroptische Kabel, Bodentypen usw.) in den Bildern identifizieren und Korrelationen zwischen Bildern erzeugen, die an verschiedenen Arbeitsstätten aufgenommen wurden. Wenn beispielsweise ein bestimmter Rohrtyp bei einer Ausgrabung in einer bestimmten Tiefe an einem Ort identifiziert wird und später derselbe Rohrtyp in Bildern identifiziert wird, die bei einer zweiten Ausgrabung, einen Block entfernt, aufgenommen wurden, dann kann eine Korrelation zwischen diesen beiden Bildern hergestellt werden. Die Korrelation kann darin bestehen, zwischen den beiden Bildern zu extrapolieren, unter der Annahme, dass das Rohr unterirdisch zwischen den beiden Orten verläuft., an denen die Ausgrabung stattgefunden hat. Diese und andere Korrelationen können ebenfalls erzeugt werden.
  • Die Bilder, dreidimensionale Darstellungen, Metadaten, die diesen Bildern und Darstellungen entsprechen, sowie Korrelationen zwischen verschiedenen Bildern können alle auf dem Datenverarbeitungssystem für unterirdische Bilder 114 gespeichert und verwaltet werden. Daher kann ein Benutzer eines Anforderungssystems 116 unterirdische Informationen für einen bestimmten Ort anfordern. Das System 114 kann auf diese Anforderung reagieren, indem es eine dreidimensionale Darstellung des unterirdischen Raums an dem gewünschten Ort erzeugt. Es kann diese Informationen dem Anforderungssystem 116 zur Verfügung stellen, wo die dreidimensionale Darstellung einem anfordernden Benutzer angezeigt wird und er mit diesem interagieren kann. Die dreidimensionalen Informationen identifizieren veranschaulichend den Bodentyp und die unterirdischen Objekte, die sich an dem identifizierten Ort unter der Oberfläche befinden, die Tiefe, in der sich diese Objekte befinden, ihre Ausrichtung usw. Die dreidimensionalen Informationen können eine bildliche Darstellung (oder ein tatsächliches Bild) des identifizierten Ortes oder auch sonstige Objekte enthalten. Dies alles wird im Folgenden ausführlicher beschrieben.
  • 2 ist ein Blockdiagramm, das ein Beispiel für eine Architektur 112 zeigt, die einige Objekte aus 1 enthalten. Diese Objekte sind in den 1 und 2 ähnlich nummeriert. 2 zeigt auch, dass in einem Beispiel die Maschinen 102-104 miteinander und mit dem Datenverarbeitungssystem für unterirdische Bilder 114 und dem Anforderungssystem 116 über das Netzwerk 118 kommunizieren können. Das Netzwerk 118 kann somit aus einer Vielzahl unterschiedlicher Arten von Netzwerken bestehen, wie z. B. einem Weitverkehrsnetzwerk, einem LAN, einem Nahfeldkommunikationsnetzwerk, einem zellularen Kommunikationsnetzwerk oder aus einer Vielzahl anderer Netzwerke oder Kombinationen von Netzwerken.
  • 2 zeigt auch, dass in einem Beispiel das Anforderungssystem 116 veranschaulichend eine oder mehrere Benutzerschnittstellen 118 für die Interaktion durch einen anfordernden Benutzer 120 erzeugt. Der anfordernde Benutzer 120 interagiert veranschaulichend mit den Benutzerschnittstellen 118, um das Anforderungssystem 116 und Teile des Datenverarbeitungssystems für unterirdische Bilder 114 zu steuern und zu manipulieren.
  • Ferner zeigt 2, dass zu jeder der mobilen Arbeitsmaschinen 102 und 104 einen Bediener 122 bzw. 124 beinhalten kann. Die Bediener 122 und 124 interagieren veranschaulichend mit den Bedienereingabemechanismen, um mobile Arbeitsmaschinen 102 bzw. 104 zu steuern und zu manipulieren.
  • Es wird darauf hingewiesen, dass die mobilen Arbeitsmaschinen 102 und 104 ähnlich oder auch unterschiedlich sein können. Für die Zwecke der vorliegenden Beschreibung wird davon ausgegangen, dass sie einander ähnlich sind, so dass nur die mobile Arbeitsmaschine 102 ausführlicher beschrieben wird. Bevor die allgemeine Funktionsweise der Architektur 112 bei der Bilderfassung und der Beantwortung von Anforderungen nach einer unterirdischen 3D-Darstellung beschrieben wird, erfolgt zuerst eine kurze Beschreibung einiger Elemente der Architektur 112 und ihrer Funktionsweise.
  • Die mobile Arbeitsmaschine 102 umfasst veranschaulichend einen oder mehrere Prozessoren 126, eine Vielzahl verschiedener Sensoren 128, einen Datenspeicher 130, ein Kommunikationssystem 132, ein Bilderfassungssystem 134, ein Steuerungssystem 136, eine Vielzahl verschiedener steuerbarer Subsysteme 138, Bedienerschnittstellenmechanismen 140, und sie kann eine Vielzahl weiterer Komponenten 142 umfassen. Das Bilderfassungssystem 134 umfasst veranschaulichend ein oder mehrere Erfassungsvorrichtungen 144, eine Erfassungssteuerungslogik 146, eine Bildverarbeitungslogik 148, eine Metadatengeneratorlogik 150, und es kann weitere Komponenten 152 umfassen.
  • Die Sensoren 128 können eine Vielzahl verschiedener Variablen erfassen. Sie können z. B. einen Positionssensor (wie einen GPS-Empfänger oder einen anderen Positionssensor) enthalten, der die Position und Ausrichtung der Maschine 102 oder Teilen der Maschine 102 erfasst. Zu den Sensoren 128 können Sensoren gehören, die die Position der verschiedenen Stellantriebe erfassen, die das Grabungsanbaugerät (z. B. Schaufel, Schürfschar usw.) an der Maschine 102 bewegen. Dazu können unter anderem Sensoren gehören, die Merkmale des Maschinenbetriebs, wie z. B. die Fahrgeschwindigkeit, die von der Maschine getragene Last, die Motordrehzahl, die Motorparameter, den Kraftstoffverbrauch, den Kraftstoffstand erfassen.
  • Das Kommunikationssystem 132 ermöglicht es den Komponenten in Maschine 102 veranschaulichend, miteinander zu kommunizieren und über das Netzwerk 118 zu kommunizieren. Deshalb kann System 132 aus einem Steuergerätenetzwerk-Kommunikationssystem (CAN) und allen sonstigen Systemen bestehen, die zur Kommunikation über das Netzwerk 118 verwendet werden können.
  • Das Steuerungssystem 136 erzeugt veranschaulichend Steuersignale zur Steuerung verschiedener steuerbarer Subsysteme 138. Zu den steuerbaren Subsystemen 138 können Lenk- und Antriebssysteme zum Lenken und Antreiben der mobilen Arbeitsmaschine 102, Stellantriebe, welche die Position des Grabungsanbaugeräts steuern, und eine Vielzahl anderer Komponenten gehören. Das Steuerungssystem 136 kann die Steuersignale auf der Grundlage von Sensorsignaleingaben von Sensoren 128, Bedienereingaben von Bedienerschnittstellenmechanismen 140, Ausgaben vom Bilderfassungssystem 134 und sonstigen Komponenten erzeugen.
  • Die Bedienerschnittstellenmechanismen 140 können eine Vielzahl verschiedener Arten von Mechanismen umfassen, mit denen der Bediener 122 interagieren kann, um die mobile Arbeitsmaschine 102 zu steuern und zu manipulieren. Sie können zum Beispiel Hebel, Pedale, ein Lenkrad, Joysticks, Verbindungen, Ventile, einen berührungsempfindlichen Bildschirm, der Berührungsgesten von Bediener 122 wahrnimmt, ein Sprachverarbeitungssystem, das Sprachbefehle von Bediener 122 empfängt und verarbeitet, sowie eine Vielzahl von weiteren Elementen umfassen. Die Mechanismen 140 können auch visuelle, haptische und Audioausgabemechanismen beinhalten, die dem Bediener 122 Informationen bereitstellen. Diese und andere Mechanismen der Bedienerschnittstelle 140 werden hier in Betracht gezogen.
  • Das Bilderfassungssystem 134 erfasst veranschaulichend die oben beschriebenen Bilder in Bezug auf 1. Daher kann das Erfassungsgerät 144 eine oder mehrere Kameras, Stereokameras, Videokameras oder andere Bilderfassungsvorrichtungen beinhalten. Bilder können im visuellen Spektrum, Infrarotspektrum oder anderen elektromagnetischen Strahlungsspektren vorliegen.
  • Die Erfassungssteuerlogik 146 steuert veranschaulichend Erfassungsvorrichtungen 144, um Bilder zu erfassen. Die Erfassungssteuerlogik 146 kann einen Bilderfassungsauslöser identifizieren und anschließend Bilderfassungsvorrichtungen 144 steuern, um Bilder zu erfassen. Beispielsweise kann die Erfassungssteuerungslogik 146 erfassen, wenn die Stellantriebe in steuerbaren Subsystemen 138 betrieben werden, um einen bodenstörenden Vorgang auszuführen (z. B. wenn eine Schaufel eine Ausgrabung vornimmt, wenn ein Schaber abgesenkt wird usw.). Als Reaktion darauf kann sie die Erfassungsvorrichtungen 144 so steuern, dass sie intermittierend Bilder aufnehmen, wenn sie sich in verschiedenen Winkeln relativ zum zu störenden Boden befinden, oder auf sonstige Weise. Die von den Bilderfassungsvorrichtungen 144 erfassten Bildserien werden der Bildverarbeitungslogik 148 zur Verfügung gestellt, die diese Bilder verarbeiten kann, um Identifizierungsvorgänge zur Identifizierung von Objekten in den Bildern durchzuführen oder eine vorläufige Bildverarbeitung durchzuführen, wobei ein Großteil (oder die gesamte Bildverarbeitung) von dem Datenverarbeitungssystem für unterirdische Bilder 114 vorgenommen wird.
  • Die Metadatengeneratorlogik 150 erzeugt veranschaulichend Metadaten, die den erfassten Bildern entsprechen. Metadaten können z. B. die geographische Position der Ausgrabung, an dem die Bilder erfasst wurden, die Uhrzeit und das Datum, an dem die Bilder erfasst wurden, eine Tiefe der Ausgrabung (z. B. wann die Tiefe auf der Grundlage bekannter Abmessungen der Maschine 102 identifiziert werden kann, und die relative Position des Grabelements in Bezug auf einen Rest der Maschine 102 oder auf sonstige Weise) enthalten. Die Metadatengeneratorlogik 150 kann Metadaten auch auf andere Weise erzeugen.
  • Das Bilderfassungssystem 134 kann anschließend die Bilder und die entsprechenden Daten im Datenspeicher 130 für eine spätere Übertragung speichern oder es kann das Kommunikationssystem 132 steuern, um diese Bilder und die entsprechenden Daten über das Netzwerk 118 an das Datenverarbeitungssystem für unterirdische Bilder 114 zu übermitteln.
  • In einem weiteren Beispiel stellt Bediener 122 über die Bedienerschnittstellenmechanismen 140 eine entsprechende Eingabe bereit, um die Erfassungsvorrichtungen 144 zum Erfassen von Bildern zu steuern. Die Bilder können sowohl manuell als auch automatisch, aber auch auf andere Weise erfasst werden.
  • Das Datenverarbeitungssystem für unterirdische Bilder 114 umfasst veranschaulichend einen oder mehrere Prozessoren oder Server 154, das Kommunikationssystem 156, das Bildübertragungshandhabungssystem 158, das Bildverarbeitungssystem 160, den Datenspeicher 162, das Anforderungsverarbeitungssystem 164, und kann weitere Elemente 166 beinhalten. Das Bildverarbeitungssystem 160 enthält veranschaulichend die dreidimensionale (3D) Generatorlogik 168, die automatische Objektidentifizierungslogik 170, die Bildkorrelationslogik 172, die Datenspeicher-Interaktionslogik 174, und kann weitere Elemente 176 beinhalten. Der Datenspeicher 162 speichert veranschaulichend Bilddaten/Metadaten 178, 3D-Darstellungsdaten/Metadaten 180, Korrelationsdaten 182, und er kann weitere Elemente 184 enthalten.
  • Das Anforderungsverarbeitungssystem 164 enthält zur Veranschaulichung die Anforderungsanalyselogik 186, die Zugriffslogik für den Datenspeicher 188, die Antwort erzeugende Logik 190, die Verarbeitungslogik für die Benutzerinteraktion 192, und kann weitere Elemente 194 enthalten. Die Anforderungsanalyselogik 186 selbst enthält veranschaulichend den Ortsidentifizierer 196, den Tiefenidentifizierer 198, und kann weitere Elemente 200 enthalten.
  • Das Kommunikationssystem 156 ermöglicht es veranschaulichend Elementen in System 114, miteinander zu kommunizieren und entweder direkt oder über das Netzwerk 118 mit weiteren Elementen der Architektur 112 zu kommunizieren. Das Bildübertragungshandhabungssystem 158 handhabt veranschaulichend die Übertragung von Bilddaten für die von den mobilen Arbeitsgeräten 102 und 104 erfassten Bilder, zusammen mit den entsprechenden Metadaten und allen Bildverarbeitungsdaten, die auf den Maschinen 102-104 durchgeführt wurden. Sie stellt die erfassten Bilder veranschaulichend dem Bildverarbeitungssystem 160 bereit. Die dreidimensionale Generatorlogik 168 empfängt veranschaulichend einen von Satz von Bildern, der von einer bestimmten Ausgrabungsstätte (oder einem anderen bodenstörenden Ort) erfasst wurde, und generiert auf der Grundlage dieser Bilder eine dreidimensionale Darstellung. Die 3D-Generatorlogik 168 kann also Photogrammetrietechniken oder sonstige Techniken zur Generierung einer dreidimensionalen Darstellung aus einem Satz von zweidimensionalen Bildern verwenden.
  • Die automatische Objektidentifizierungslogik 170 ist veranschaulichend eine maschinell (oder menschlich) trainierte Identifikation (wie z. B. ein neuronales Netzwerk, ein Bayes'sches Netzwerk oder eine sonstige Klassifizierung, eine auf Regeln basierender Erkenner oder ein probabilistisches Modell), das trainiert ist, Objekte, die häufig an unterirdischen Orten gefunden werden, aus der Serie der Bilder der Orte zu identifizieren. Sie kann beispielsweise trainiert werden, Rohre, verschiedene Arten von Rohren und sonstige Leitungen zu identifizieren. Sie kann unter anderem trainiert werden, Fliesen, elektrische oder faseroptische Kabel, Gegenstände des Abwassersystems und andere Gebrauchsgegenstände zu identifizieren. Während des Trainings kann die automatische Objektidentifizierungslogik 170 den speziellen Typ des Objekts und die Tiefe seiner Position in der Ausgrabung (oder einen anderen bodenstörenden Vorgang) identifizieren. Sie kann seine Ausrichtung erkennen (z. B. kann sie bei der Identifizierung eines Rohrs die Größe des Rohrs, das Material, aus dem das Rohr besteht, und die Ausrichtung der Längsachse des Rohrs erkennen).
  • Die automatische Objektidentifizierungslogik 170 ist auch veranschaulicht trainiert, die Bodentypen zu identifizieren. Zum Beispiel können die Bilder der Ausgrabung eine Seitenwand einer Ausgrabung zeigen (wie die Seitenwand der Ausgrabung 110, die in 1 gezeigt ist). Die Logik 170 kann trainiert werden, um die verschiedenen Bodentypen in unterschiedlichen Tiefen entlang der Seitenwand der Ausgrabung zu identifizieren.
  • Die Bildkorrelationslogik 172 ist veranschaulichend auch eine maschinell trainierte Logik oder sie kann eine regelbasierte Logik oder eine sonstige Logik (z. B. ein neuronales Netzwerk, ein Bayes'sches Netzwerk oder ein anderes regelbasiertes Erkennungs-, Klassifizierungs- oder probabilistisches Modell) sein, die Korrelationen zwischen verschiedenen Bildern von verschiedenen Orten identifiziert. Wenn zum Beispiel eine erste Ausgrabung an einem ersten Ort durchgeführt wird, kann ein erster Satz von Bildern von dieser Ausgrabung aufgenommen werden. Nehmen wir an, dass aus dem ersten Satz von Bildern ein PVC-Rohr mit Nord-Süd-Ausrichtung in einer Tiefe von zwei Metern unter der Oberfläche identifiziert wird und diese Daten können gespeichert werden. Zu einem späteren Zeitpunkt kann dann eine zweite Ausgrabung einen Block entfernt durchgeführt und ein zweiter Satz von Bildern dieser Ausgrabung erfasst werden. Aus dem zweiten Satz von Bildern lässt sich der gleiche Rohrtyp (PVC) mit der gleichen Größe, in der gleichen Tiefe und mit der gleichen Nord-Süd-Ausrichtung identifizieren. Die Bildkorrelationslogik 172 kann somit die beiden Bilder korrelieren und eine Extrapolation durchführen, die anzeigt, dass das identifizierte Rohr zwischen dem ersten und zweiten Ort, in einer Tiefe von zwei Metern, in Nord-Süd-Richtung verläuft.
  • Ähnlich verhält es sich, wenn der erste Satz von Bildern, der vom ersten Ort aus erfasst wurde, eine Tonschicht zeigt, die sich zwischen 2 und 3 Fuß unter der Bodenoberfläche erstreckt, und die Bilder, die vom zweiten Ort aus aufgenommen wurden, ebenfalls eine Tonschicht zeigen, die sich zwischen 0,5 und 1 Meter unter der Bodenoberfläche erstreckt, so kann die Bildkorrelationslogik 172 die beiden Bilder korrelieren und extrapolieren, dass sich die Tonschicht vom ersten Ort zum zweiten Ort in einer Tiefe von 0,5 bis 1 Meter unter der Bodenoberfläche erstreckt. Es können auch eine Vielzahl anderer Korrelationen erzeugt werden, und die oben beschriebenen sind nur exemplarisch.
  • Die Datenspeicher-Interaktionslogik 174 interagiert veranschaulichend mit dem Datenspeicher 162, um die Bilddaten und Metadaten 178, die dem empfangenen Satz von Bildern entsprechen, die dreidimensionalen Darstellungsdaten und Metadaten 180, die den Informationen entsprechen, die von der 3D-Generatorlogik 168 generiert wurden, die Objektdaten 181, die von der Logik 170 generiert wurden und die verschiedene im Bild erkannte Objekte identifizieren, die Korrelationsdaten 182, die von der Korrelationslogik 172 erzeugt wurden, zu speichern, wobei sie auch weitere Elemente 184 speichern kann.
  • Das Anforderungsverarbeitungssystem 164 empfängt veranschaulichend Anforderungen in Bezug auf dreidimensionale unterirdische Kartierungsdaten vom Anforderungssystem 116. Die Anforderungsanalyselogik 186 analysiert die Anforderung, um die bestimmten Informationen zu identifizieren, die als Antwort auf die Anforderung zurückgegeben werden sollen. Die Anforderung wird veranschaulichend mindestens einen Ort enthalten, für den die unterirdischen Informationen angefordert werden, und kann auch einen Tiefenidentifizierer enthalten, die eine Tiefe vorgibt, für die Informationen gesucht werden. Der Tiefenidentifizierer kann einen Tiefenbereich beinhalten (wie etwa 0-3 Meter unter der Oberfläche, 1-2 Meter unter der Oberfläche usw.). Der Ortsidentifizierer 196 identifiziert den Ort, welcher der Anforderung entspricht, und der Tiefenidentifizierer 198 identifiziert eine angeforderte Tiefe, falls eine solche angegeben ist.
  • Die Datenspeicherzugriffslogik 188 greift anschließend auf den Datenspeicher 182 zu, um Informationen zu erhalten, die dem identifizierten Ort und der Tiefe entsprechen. Die Antwortgeneratorlogik 190 generiert eine Antwort auf die Anforderung, basierend auf den aus den im Datenspeicher 162 erhaltenen Informationen. Diese Informationen können dem Anforderungssystem 116 zur Verfügung gestellt werden, wo sie zur Benutzerinteraktion eingeblendet werden können. Der Benutzer kann auf unterschiedlichste Weise mit der Antwort interagieren (von denen einige im Folgenden näher beschrieben werden). Die Benutzerinteraktionsverarbeitungslogik 192 empfängt eine Anzeige dieser Benutzerinteraktionen und verarbeitet sie. Beispielsweise kann es sein, dass der Benutzer Informationen in einer anderen Tiefe anzeigen möchte. Daher kann der Benutzer einen Benutzereingabemechanismus manipulieren, der anzeigt, dass der Benutzer Informationen in einer größeren Tiefe unter der Oberfläche anzeigen möchte. In diesem Fall wird diese Benutzerinteraktion von der Verarbeitungslogik 192 für Benutzerinteraktionen erkannt und verarbeitet, um die gewünschten Informationen zu erhalten, so dass die Antwortgeneratorlogik 190 eine Antwort generieren und die aktualisierten Informationen (oder die als Antwort auf die Benutzerinteraktion bereitgestellten Informationen) dem Anforderungssystem 116 zur Verfügung stellen kann.
  • Das Anforderungssystem 116 umfasst veranschaulichend einen oder mehrere Prozessoren oder Server 202, einen Datenspeicher 204, ein Kommunikationssystem 206, einen Anforderungsgenerator 207, eine Oberflächen-/Interaktionslogik 208, Benutzerschnittstellenlogik/-mechanismen 210, und kann eine Vielzahl weiterer Elemente 212 beinhalten. Das Kommunikationssystem 206 ermöglicht es den Elementen des Anforderungssystems 116, miteinander und mit den anderen Elementen in der Architektur 112 entweder direkt oder über das Netzwerk 118 oder beides zu kommunizieren. Der Anforderungsgenerator 207 empfängt veranschaulichend eine Anforderungseingabe von Benutzer 120 über die Benutzerschnittstelle 118 (die von der Logik der Benutzerschnittstelle oder den Mechanismen 210 gesteuert werden kann) für unterirdische Kartierungsdaten. Der Anforderungsgenerator 207 generiert veranschaulichend eine Anforderung, die, wie oben angegeben, zur Verarbeitung an das Anforderungsverarbeitungssystem 164 gesendet wird. Die Oberflächen-/Interaktionslogik 208 empfängt veranschaulichend die Antwort und stellt auf der Grundlage der Antwort Informationen zur Verfügung, die dem Bediener 120 durch die Benutzerschnittstellenlogik/-mechanismen 210 zum eingeblendet werden können. Sie erfasst auch veranschaulichend die Interaktion des Benutzers mit den eingeblendeten Informationen. In einem Beispiel werden die eingeblendeten Informationen auf einer berührungsempfindlichen Benutzerschnittstellenanzeige angezeigt. Die Informationen können eine Vielzahl verschiedener vom Benutzer betätigbarer Eingabemechanismen umfassen, die vom Benutzer 120 betätigt werden können, um die angezeigten Informationen zu ändern. Die Aktuatoren können z. B. einen Tiefensteuerungsaktuator enthalten, der vom Benutzer 120 betätigt werden kann, um die unterirdische Tiefe zu ändern, für die Informationen angezeigt werden sollen. Sie können einen Positionsaktuator enthalten, der die Position ändert, für die unterirdische Informationen angezeigt werden sollen. Sie können einen Zeitaktuator enthalten, der eine zeitverzögerte Ansicht von Objekten zeigt, die sich auf der Anzeige in unterirdischen Räumen befinden. Beispielsweise kann es sein, dass vor fünf Jahren an einer Stelle ein Rohr in einer unterirdischen Tiefe an einem Ort verlegt wurde und vor drei Jahren ein Glasfaserkabel in einer anderen Tiefe verlegt wurde, jedoch am gleichen Ort. Somit kann der Benutzer 120 durch Ändern des Zeitaktuators identifizieren, wann unterirdische Objekte an dem identifizierten Ort und in welcher Tiefe sie platziert wurden. Dies sind nur Beispiele.
  • 3 ist ein Flussdiagramm, das ein Beispiel für den Betrieb des Bilderfassungssystems 134 auf der mobilen Arbeitsmaschine 102 bei der Erfassung von Bildern an einem Ort eines bodenstörenden Vorgangs darstellt. Die vorliegende Beschreibung geht davon aus, dass es sich bei dem bodenstörenden Vorgang um eine Ausgrabung handelt, aber es wird geschätzt, dass eine solche Beschreibung auch Vorgänge in Betracht zieht, die einen Schabvorgang, einen Ladevorgang oder andere Schmutzbewegungs- oder Bodenstörvorgänge umfassen können.
  • Zunächst wird davon ausgegangen, dass eine bodenstörende Maschine in Betrieb ist. Dies wird durch Block 220 im Ablaufdiagramm von 3 dargestellt. Wiederum kann es sich bei bodenstörenden Maschinen um einen oder mehrere Bagger 222, Schaber 224 oder eine Vielzahl weiterer den Boden beeinträchtigende Maschinen handeln, die die Oberfläche des Bodens bis zu einer unterirdischen Tiefe beeinträchtigen, für die unterirdische Daten angefordert werden können. Dies wird durch Block 226 angezeigt.
  • Zu einem bestimmten Zeitpunkt erkennt die Erfassungssteuerlogik 146, dass ein bodenstörender Vorgang ausgeführt wird. Dies wird durch Block 228 im Flussdiagramm von 3 dargestellt. In einem Beispiel erkennt die Erfassungssteuerlogik 146 der bodenstörende Vorgang auf der Grundlage eines Signals, das von den Geräten oder den Aktoren an der Arbeitsmaschine 102 ausgeht. Beispielsweise kann es sein, dass einer der Aktoren für das Bodeneingriffsgerät (z. B. die Schaufel) betätigt wird, um eine Ausgrabung vorzunehmen. Dies kann von der Erfassungssteuerlogik 146 als Hinweis darauf erkannt werden, dass Maschine 102 einen bodenstörenden Vorgang ausführt. In einem weiteren Beispiel kann die Erfassungssteuerlogik 146 ein Signal von den Mechanismen der Bedienerschnittstelle 140 empfangen, das anzeigt, dass der Bediener 122 einen oder mehrere Eingaben zur Steuerung der Maschine 102 bereitgestellt hat, um einen Ausgrabungsvorgang vorzunehmen. Dies sind nur zwei Beispiele. Das Erkennen des Vorgangs auf Grundlage eines Signals von Maschine 102 wird durch Block 230 im Flussdiagramm von 3 dargestellt. Die Erfassungssteuerlogik 146 kann auch eine Eingabe vom Bediener 122 empfangen, welche die Bilderfassungsvorrichtungen 144 direkt anweist, Bilder zu erfassen. Die Steuerung der Bilderfassungsvorrichtungen zur Erfassung eines Bildes auf der Grundlage einer Bedienereingabe wird durch Block 232 angezeigt.
  • Die Erfassungssteuerlogik 146 kann bestimmen, dass es an der Zeit ist, ein Bild zu erfassen, und Erfassungsgeräte 144 steuern, um Bilder auch auf andere Weise zu erfassen. Dies wird durch Block 234 angezeigt.
  • Die Bilderfassungsvorrichtungen 144 erfassen anschließend einen Satz von Bildern des gestörten Bodens. Dies wird durch Block 236 angezeigt. Die Bilderfassungsvorrichtungen können Vorrichtungen sein, wie etwa Vorrichtungen 109-111, die an dem Gerät selbst befestigt sind. Dies wird durch Block 238 angezeigt. Die Bilderfassungsvorrichtungen können sich auf einem mobilen Gerät befinden, das vom Bediener 122 getragen wird, es können auch Bilderfassungsvorrichtungen sein, die an anderen Positionen angebracht sind. Dies wird durch Block 240 im Ablaufdiagramm von 3 dargestellt.
  • In einem Beispiel steuert die Erfassungssteuerlogik 146 Bilderfassungsvorrichtungen 144, um einen Satz von mehreren Bildern im Laufe der Zeit zu erfassen. Dies wird durch Block 242 im Flussdiagramm von 3 dargestellt. Darüber hinaus kann die Erfassungssteuerlogik 146 Erfassungsvorrichtungen 144 steuern, um Bilder aus verschiedenen Perspektiven zu erfassen. Dies wird durch Block 244 angezeigt. Beispielsweise kann es sein, dass einer der Sensoren 128 ein Beschleunigungsmesser ist, der erkennt, wann sich die Maschine bewegt. Die Erfassungssteuerlogik 146 kann die Erfassungsvorrichtungen 144 steuern, um einen Satz von Bildern während der Bewegung der Maschine zu erfassen. Auf diese Weise entstehen Bilder, die aus verschiedenen Perspektiven aufgenommen werden, so dass daraus leichter eine dreidimensionale Darstellung generiert werden kann.
  • Die Erfassungssteuerlogik 146 kann Erfassungsvorrichtungen 144 steuern, um Bilder auch auf eine Vielzahl weiterer Arten zu erfassen. Dies wird durch Block 246 im Flussdiagramm von 3 dargestellt.
  • Die Metadatengeneratorlogik 150 generiert anschließend Bild-Metadaten, die den generierten Serien von Bildern (und den Einzelbildern) entsprechen. Dies wird durch Block 248 im Ablaufdiagramm von 3 dargestellt. Beispielsweise kann ein Zeitstempel generiert werden, der den Zeitpunkt der Erfassung jedes Bildes identifiziert. Dies wird durch Block 250 angezeigt. Sie kann einen Ortsstempel erzeugen, der den geografischen Ort angibt, an dem das Bild erfasst wurde. Dies wird durch Block 252 angezeigt. Es kann einen Tiefenstempel erzeugen, der eine im Bild dargestellte unterirdische Tiefe angibt. Dies wird durch Block 254 angezeigt. Beispielsweise kann die Metadatengeneratorlogik 150 eine Logik enthalten, die den Ort des in den Boden eingreifenden Anbaugeräts (z. B. der Schaufel) mit Hilfe eines Ortssensors (z. B. eines GPS-Empfängers usw.) identifiziert. Sie kann auch eine Logik enthalten, die die Position der Schaufel relativ zum Rahmen der Maschine 106 identifiziert, die auf der bekannten Maschinengeometrie und dem bekannten Umfang der verschiedenen Aktoren basiert, die zur Positionierung des Bodeneingriffselements verwendet werden. Auf diese Weise kann sie einen Abstand ermitteln, in dem das Bodeneingriffselement unter der Bodenoberfläche, auf der die Maschine 102 steht, in den Boden eingreift. Dies ist nur eine Möglichkeit, einen Tiefenstempel zu erzeugen, und sie wird nur beispielhaft beschrieben.
  • Die Metadatengeneratorlogik 150 kann auch eine Vielzahl weiterer Metadaten erzeugen. Dies wird durch Block 256 im Ablaufdiagramm von 3 dargestellt.
  • Das Bilderfassungssystem 134 kann anschließend die Bildinformationen im Datenspeicher 130 speichern und/oder das Kommunikationssystem 132 steuern, um die Informationen an das Datenverarbeitungssystem für unterirdische Bilder 114 zu übermitteln. Die Übertragung der Bilder wird mithilfe von Block 258 im Flussdiagramm von 3 dargestellt. In einem Beispiel können die Bilder und die entsprechenden Daten im Wesentlichen in Echtzeit (oder nahezu in Echtzeit) übertragen werden, während die Bilder erfasst werden. Dies wird durch Block 260 angezeigt. In einem weiteren Beispiel können die Bilder im Datenspeicher 130 gespeichert und intermittierend übertragen werden (z. B. am Ende einer Schicht, am Ende eines Tages, am Ende jeder Woche oder anderweitig). Dies wird durch Block 262 angezeigt. In einem weiteren Beispiel können die Bilder mit Speichern und Weiterleiten-Mechanismen übertragen werden. Dies wird durch Block 264 angezeigt und im Folgenden näher beschrieben. Die Bilder und die entsprechenden Informationen können dem System 114 auch auf andere Weise übermittelt werden. Dies wird durch Block 266 angezeigt.
  • In einem Beispiel erfasst die Maschine 102 weiterhin Bilder, solange die Ausgrabung oder ein anderer bodenstörender Vorgang ausgeführt wird. Dies wird durch Block 268 im Ablaufdiagramm von 3 dargestellt.
  • Die 4A und 4B (hier zusammenfassend als 4 bezeichnet) veranschaulichen ein Flussdiagramm, das ein Beispiel für den Betrieb des Datenverarbeitungssystems für unterirdische Bilder 114 bei der Verarbeitung von Bildern und bei der Beantwortung von Anforderungen von einem Anforderungssystem 116 zeigt. Das Bildübertragungshandhabungssystem 158 empfängt zunächst ein oder mehrere Bilder des gestörten Bodens zusammen mit den entsprechenden Metadaten, die vom Bilderfassungssystem 134 erzeugt wurden. Der Empfang des Satzes von Bildern wird durch Block 280 im Flussdiagramm von 4 dargestellt.
  • Das System 158 generiert eine Darstellung der Bilder, die vom Bildverarbeitungssystem 160 verarbeitet werden können. Die Darstellung kann die Größe und Form der Ausgrabung identifizieren und kann im Datenspeicher 162 gespeichert werden. Die Verarbeitung des Bildes zur Generierung einer Darstellung des gestörten Bodens wird durch Block 282 angezeigt. Die Identifizierung der Größe und Form der Ausgrabung wird durch Block 284 und die Speicherung dieser Darstellung im Datenspeicher durch Block 286 angezeigt. Das Bildübertragungshandhabungssystem 158 kann eine Darstellung der empfangenen Bilder auch auf andere Weise erzeugen, wie durch Block 288 angezeigt.
  • Die automatische Objektidentifizierungslogik 170 identifiziert anschließend erkennbare Objekte in den Bildern automatisch, z. B. Objekte, die sich in dem auszuhebenden unterirdischen Raum befinden. Dies wird durch Block 290 angezeigt. Beispielsweise kann sie den Bodentyp identifizieren, der ausgegraben wird, wie durch Block 292 angezeigt. Sie kann verschiedene Typen von Rohren oder Leitungen identifizieren, die sich in den Bildern befinden, wie durch Block 294 angezeigt. Sie kann andere Gegenstände, wie z. B. Kabel, Fliesen, Glasfaser- und elektrische Leitungen u.a. identifizieren. Dies wird durch Block 296 angezeigt. Sie kann auch die Art des durchgeführten Vorgangs identifizieren. Beispielsweise kann es sein, dass das Gerät einen Vorgang zum Verlegen von Kabeln, zum Verlegen von Rohren, eine Ausgrabung am Ort oder eine andere Art von Vorgang ausführt. Die Identifizierung der Art des durchgeführten Vorgangs wird durch Block 298 angezeigt. Es können auch andere Objekte in den Bildern identifiziert werden. Dies wird durch Block 300 angezeigt.
  • Die automatische Objektidentifizierungslogik 170 kann außerdem Merkmale, die den erkannten Objekten entsprechen, automatisch identifizieren. Dies wird durch Block 302 angezeigt. Sie kann beispielsweise die Größe des Anteils des gestörten Bodens identifizieren (z. B. die Größe des Lochs, das die Ausgrabung bildet, oder sonstige Größen). Dies wird durch Block 304 angezeigt. Sie kann den Ort der Objekte innerhalb der Ausgrabung identifizieren, wie durch Block 306 angezeigt. Sie kann die Tiefe dieser Objekte erkennen, wie durch Block 308 angezeigt, und sie kann die Richtung oder Ausrichtung (oder Position) der Objekte erkennen, wie durch Block 310 angezeigt. Sie kann auch eine Vielzahl anderer Merkmale identifizieren, die den erkannten Objekten entsprechen, was durch Block 312 angezeigt wird. Mit automatisch ist in einem Beispiel auch gemeint, dass der Schritt, die Funktion oder des Vorgangs ohne weitere menschliche Beteiligung ausgeführt wird, außer vielleicht, um den Schritt, die Funktion oder die Tätigkeit einzuleiten oder zu autorisieren.
  • Die Datenspeicher-Interaktionslogik 174 kann anschließend den Datenspeicher 162 steuern, um Daten zu speichern, die die in den Bildern erkannten Objekte und die diesen Objekten entsprechenden Merkmale anzeigen. Dies wird durch Block 314 angezeigt. Es wird darauf hingewiesen, dass die vom System 158 empfangenen Originalbilddaten und die entsprechenden Metadaten ebenfalls gespeichert werden können.
  • An einem bestimmten Punkt erzeugt die Bildkorrelationslogik 172 veranschaulichend Korrelationen mit Bildern, die in anderen Ausgrabungsstätten aufgenommen wurden. Dies wird durch Block 316 angezeigt. Beispielsweise kann die Bildkorrelationslogik 172 erkennen, dass ein zweiter Satz von Bildern, die einem anderen Ort entsprechen, empfangen und verarbeitet wurde. Sie kann anhand einer Vielzahl von Kriterien bestimmen, ob Korrelationen zwischen unterschiedlichen Serien von Bildern erzeugt werden sollen. Liegen die beiden Orte zum Beispiel innerhalb eines Schwellenabstands voneinander, kann das ein Auslöser sein, um Korrelationen zu identifizieren. Wenn die beiden bodenstörenden Vorgänge identisch sind (oder in der gleichen Tiefe durchgeführt werden), kann dies eine Korrelationsidentifikation auslösen. Dies sind nur Beispiele. Die Bildkorrelationslogik 172 kann anschließend ähnliche Objekte in den verschiedenen Serien von Bildern identifizieren (z. B. die gleiche Art von Rohr mit der gleichen Tiefe, das in die gleiche Richtung verläuft usw.). Dabei können die gleichen Bodentypen oder weitere ähnliche Objekte identifiziert werden. Dies wird durch Block 318 angezeigt. Die Bildkorrelationslogik 172 kann auch zwischen Bildern, die verschiedenen Orten entsprechen, extrapolieren. Zum Beispiel kann extrapoliert werden, dass bestimmte Bodentypen zwischen den beiden Orten verlaufen, oder dass bestimmte auf den Bildern identifizierte Objekte zwischen den beiden Orten verlaufen, usw. Das Extrapolieren zwischen Orten wird durch Block 320 angezeigt. Es versteht sich, dass die Bildkorrelationslogik 172 auch eine Vielzahl anderer Korrelationen generieren kann. Dies wird durch Block 322 angezeigt.
  • Außerdem erzeugt die 3D-Generatorlogik 168 irgendwann eine dreidimensionale Darstellung der Ausgrabung mit den erkannten Objekten und Korrelationen. Beispielsweise kann sie eine dreidimensionale Darstellung eines ausgehobenen Lochs mit Rohren, Bodentypen, Leitungen, Kabeln usw. in den verschiedenen unterirdischen Tiefen erzeugen. Die Generierung der dreidimensionalen Darstellung kann mittels Photogrammetrie oder einer Vielzahl anderer Arten erfolgen. Dies wird durch Block 324 im Ablaufdiagramm von 4 dargestellt.
  • Die Datenspeicher-Interaktionslogik 174 kann den Datenspeicher 162 so steuern, dass diese Informationen sowie alle weiteren Informationen, Darstellungen und Korrelationen, die generiert werden, gespeichert werden. Dies wird durch Block 326 im Ablaufdiagramm von 4 dargestellt.
  • An einem bestimmten Punkt erkennt das Anforderungsverarbeitungssystem 164 eine Anforderungseingabe von einem Anforderungssystem 116. Dies wird durch Block 328 angezeigt. Die Anforderung kann einen geografischen Ort identifizieren, für den unterirdische Daten angefordert werden. Es kann einen einzelnen geographischen Ort oder eine Route zwischen zwei verschiedenen Orten identifizieren, oder eine Vielzahl anderer geographischer Orte, einschließlich der geographischer Orts- oder Routeninformationen in der Anforderung, wie durch Block 330 angezeigt. Die Anforderung kann auch einen Tiefenidentifizierer beinhalten, die eine unterirdische Tiefe angibt, für die Informationen gesucht werden. Die Tiefe kann ein Tiefenbereich oder eine einzelne Tiefe sein. Der Empfang einer Anforderung, die Informationen zur Identifizierung der Tiefe enthält, wird durch Block 332 angezeigt. Die Anfrage kann auch eine Vielzahl weiterer Informationen enthalten, was durch Block 334 angezeigt wird.
  • Die Anforderungsanalyselogik 186 analysiert die Anforderung. Der Ortsidentifizierer 196 identifiziert den Ort und der Tiefenidentifizierer 198 die in der Anforderung angegebenen Tiefen. Die Analyse der Anforderung wird durch Block 336 im Flussdiagramm von 4 dargestellt. Die Datenspeicherzugriffslogik 188 greift anschließend auf den Datenspeicher 162 zu, um die in der Anforderung angeforderten Informationen abzurufen. Bei den Informationen kann es sich um die dreidimensionalen Darstellungsdaten zusammen mit entsprechenden Metadaten und Korrelationsdaten handeln. Sie können auch die Originalbilddaten und deren Metadaten beinhalten. Der Zugriff auf den Datenspeicher zum Erhalt der Antwortdaten wird durch Block 338 im Flussdiagramm von 4 dargestellt.
  • Sobald die Antwortdaten erhalten werden, erzeugt die Antwortgeneratorlogik 190 eine Antwort. Dies wird durch Block 340 im Ablaufdiagramm von 4 dargestellt.
  • Die Antwortgeneratorlogik 190 steuert anschließend das Kommunikationssystem 156, um die Antwort an das Anforderungssystem 116 zu senden. Das Senden der Antwort wird durch Block 342 im Flussdiagramm von 4 angezeigt.
  • Die Oberflächen-/Interaktionslogik 208 blendet anschließend die dreidimensionale Darstellung auf einer Benutzerschnittstelle 118 zur Benutzerinteraktion durch den anfordernden Benutzer 120 ein. Dies wird durch Block 344 im Ablaufdiagramm von 4 angezeigt. In einem weiteren Beispiel kann sich das Anforderungssystem 116 auf der Maschine 102 oder 104 befinden. In diesem Fall kann die Logik 208 die dreidimensionale Darstellung für ein Steuerungssystem 136 anzeigen, das diese verwendet, um Aktuatoren zur Ausgrabung an der Ausgrabungsstätte zu steuern, jedoch den Kontakt mit anfälligen Objekten (Objekte wie Rohre, Kabel usw., die durch das Grabungsanbaugerät beschädigt werden könnten) zu vermeiden. Das Steuerungssystem 136 verwendet die dreidimensionale Darstellung als unterirdische Karte zur automatischen Navigation durch die Ausgrabung, um Beschädigungen zu vermeiden. Dies wird durch Block 345 angezeigt.
  • In einem weiteren Beispiel ist die dreidimensionale Darstellung für den Benutzer 120 eingeblendet und zeigt eine Ansicht des unterirdischen Bodens an dem in der Anforderung angegebenen Ort. Wenn eine bestimmte Tiefe angegeben wurde, kann sie eine dreidimensionale Ansicht von Objekten anzeigen, die sich in dieser Tiefe befinden. Die dreidimensionale Ansicht kann nicht nur Objekte (wie Rohre, Kabel usw.), sondern auch den Bodentyp (in Schichten oder anderweitig) in der angegebenen dreidimensionalen, unterirdischen Tiefe oder in einem Bereich von unterirdischen Tiefen anzeigen. Sie kann diese Informationen dreidimensional darstellen, und zwar nicht nur am angegebenen Ort, sondern auch in einem Bereich um den angegebenen Ort (z. B. in einem Bereich von 10 Metern um den angegebenen Ort herum oder in einem anderen Bereich). All diese und weitere dreidimensionale Darstellungen werden hierin in Betracht gezogen.
  • In einem Beispiel enthält die Benutzerschnittstelle 118, die die Informationen einblendet, einen Satz von vom Benutzer betätigbaren Eingabemechanismen, die der Benutzer betätigen kann, um mit den Informationen zu interagieren. Sie kann zum Beispiel einen Benutzereingabemechanismus zur Ortänderung enthalten, wie durch Block 346 angezeigt. Betätigt der Benutzer dies, kann er den Ort ändern, für den die dreidimensionale Darstellung bereitgestellt wird. Die Benutzerschnittstelle kann einen Benutzereingabemechanismus für die Tiefennavigation 348 enthalten. Der Benutzer kann diesen Mechanismus betätigen, um in der Tiefe zu navigieren, für die die dreidimensionale Darstellung angezeigt wird. Die Benutzerschnittstelle kann einen Benutzereingabemechanismus zur zeitlichen Navigation 350 enthalten, der vom Benutzer betätigt werden kann, um in einem bestimmten Zeitraum durch die Zeit zu navigieren, so dass die dreidimensionale Darstellung Objekte zeigt, die sich zu einem bestimmten Zeitpunkt im Boden befanden. Wenn der Benutzer zeitlich vorwärts und rückwärts navigiert, werden möglicherweise zusätzliche Objekte angezeigt, wenn diese zu unterschiedlichen Zeiten hinzugefügt oder entfernt wurden.
  • Die Benutzerschnittstelle kann einen Benutzereingabemechanismus zum Heben/Senken des Bohrers 352 enthalten. Der Benutzer kann diesen Aktuator betätigen, um detailliertere Informationen anzuzeigen (beim Bohren nach unten) oder um weniger detaillierte, allgemeinere Informationen in der dreidimensionalen Darstellung anzuzeigen (beim Bohren nach oben). Die Benutzerschnittstelle kann einen Benutzereingabemechanismus für Objektfilter 354 enthalten, der vom Benutzer betätigt werden kann, um die verschiedenen anzuzeigenden Objekte zu filtern. Beispielsweise kann der Benutzer die Darstellung so filtern, dass nur Glasfaserkabel, nur Rohre, nur Versorgungsobjekte usw. angezeigt werden. Die Benutzerschnittstelle, die zur Anzeige der Darstellung auf der Oberfläche verwendet wird, kann auch eine Vielzahl anderer Elemente 356 enthalten.
  • Die Benutzerschnittstellenlogik 210 kann Benutzerinteraktionen mit der Benutzerschnittstelle 118 erkennen, und diese Benutzerinteraktionen können an die Benutzerinteraktionsverarbeitungslogik 192 im Anforderungsverarbeitungssystem 164 zurückgesendet werden. Die Erkennung der Eingaben zur Benutzerinteraktion wird durch Block 358 im Flussdiagramm von 4 dargestellt. Die Benutzerinteraktionsverarbeitungslogik 192 kann anschließend auf der Grundlage der erkannten Benutzerinteraktion ein Steuersignal zur Steuerung eines Subsystems im Datenverarbeitungssystem für unterirdische Bilder 114 erzeugen. Dies wird durch Block 360 angezeigt. Zum Beispiel kann die Benutzerinteraktionsverarbeitungslogik 192 ein Steuersignal zur Steuerung des Datenspeichers 162 erzeugen, um auf verschiedene Informationen zuzugreifen, und kann anschließend ein Steuersignal zur Steuerung des Kommunikationssystems 156 erzeugen, um diese Informationen an das Anforderungssystem 116 zu übermitteln. Diese und andere Steuersignale können basierend auf der Benutzerinteraktion generiert werden.
  • 5 ist ein Blockdiagramm, das ein Beispiel für eine bestimmte Benutzerschnittstellenanzeige 362 zeigt, die von der Benutzerschnittstellen-/ Interaktionslogik 208 erzeugt werden kann, wenn das Anforderungssystem 116 eine Antwort auf eine vom Anforderungsgenerator 207 erzeugte Anfrage empfängt. Die Benutzerschnittstellenanzeige 362 enthält veranschaulichend den dreidimensionalen Ansichtsabschnitt 364, der zur Anzeige der dreidimensionalen Darstellung des in der Anforderung spezifizierten Bodens verwendet wird. Die dreidimensionale Ansicht kann z. B. eine dreidimensionale Ansicht zeigen, bei der ein Teil des Bodens weggeschnitten ist, oder eine dreidimensionale Ansicht von oben nach unten, durch eine transparente Darstellung des Bodens oder aus einer anderen Perspektive. Sie kann alle an diesem Ort identifizierten Objekte (wie z. B. Kabel, Rohre usw.) zeigen, die an ihren jeweiligen Orten in einer entsprechenden unterirdischen Tiefe innerhalb der dreidimensionalen Darstellung platziert sind. Der dreidimensionale Ansichtsabschnitt kann die dreidimensionale Darstellung auch in einer Vielzahl weiterer Möglichkeiten zeigen.
  • In dem in 5 gezeigten Beispiel beinhaltet die Anzeige 362 auch einen Benutzerinteraktionsabschnitt 366. Der Benutzerinteraktionsabschnitt 366 kann eine Vielzahl von benutzerinteraktiven Aktuatoren zur Interaktion mit der Anzeige enthalten. Es wird darauf hingewiesen, dass die Aktuatoren an beliebiger Stelle auf der Anzeige 362 angeordnet sein können, ebenso wie der dreidimensionale Ansichtsabschnitt 364. Die beiden Abschnitte können einander überlappen, so dass die Aktuatoren in der dreidimensionalen oder einer anderweitigen Ansicht angezeigt werden. Sie sind in nebeneinander dargestellter Form in 5 nur als Beispiel dargestellt.
  • In dem in 5 gezeigten Beispiel enthält der Benutzerinteraktionsabschnitt 366 einen Tiefenänderungsaktuator 368, einen Zeitrafferaktuator 370, einen Positionsänderungsaktuator 372, Bohrer heben/senken-Aktuatoren 374, einen Objektfilteraktuator 375 und kann eine Vielzahl weiterer Aktuatoren 376 beinhalten. Die Aktuatoren 368-376 können in ähnlicher Weise arbeiten wie die zuvor diskutierten Aktuatoren 346-356.
  • Es wird darauf hingewiesen, dass die Benutzerschnittstellenanzeige 362 auch eine Vielzahl anderer Elemente 378 enthalten kann.
  • Daraus ist ersichtlich, dass im Laufe der Zeit, wenn Bilderfassungsvorrichtungen bei unterschiedlichen Ausgrabungsvorgängen oder anderen den bodenstörenden Vorgängen unterirdische Bilder erfassen, eine detaillierte dreidimensionale unterirdische Karte erstellt werden kann. Selbst an Orten, an denen keine Bilder erfasst wurden, können Korrelationen zwischen anderen Orten gezogen werden, die einen Hinweis darauf geben, was sich auch an diesen Orten befindet, und es kann auch eine dreidimensionale Darstellung dieser Orte (der zuvor nicht ausgegrabenen Orte) generiert und eingeblendet werden.
  • In der vorliegenden Diskussion wurden Prozessoren und Server erwähnt. In einem Beispiel beinhalten die Prozessoren und Server Computerprozessoren mit zugehörigem Speicher und Zeitschaltungen, die nicht separat dargestellt werden. Sie sind funktionale Teile der Systeme oder Vorrichtungen, zu denen sie gehören und durch die sie aktiviert werden, und erleichtern die Funktionalität der anderen Komponenten oder Elemente in diesen Systemen.
  • Es wurde auch eine Reihe von Anzeigen der Benutzerschnittstelle diskutiert. Sie können mehrere verschiedene Formen annehmen und können mehrere verschiedene benutzergesteuerte Eingabemechanismen darauf aufweisen. Beispielsweise können die vom Benutzer aktivierbaren Eingabemechanismen Textfelder, Kontrollkästchen, Symbole, Links, Dropdown-Menüs, Suchfelder usw. sein. Sie können auch auf unterschiedlichste Weise betätigt werden. Sie können beispielsweise mit einer Point-and-Click-Vorrichtung (z. B. Trackball oder Maus) betätigt werden. Sie können über Hardwaretasten, Schalter, einen Joystick oder eine Tastatur, Daumenschalter oder Daumenpads usw. betätigt werden. Sie können auch über eine virtuelle Tastatur oder andere virtuelle Aktuatoren betätigt werden. Wenn der Bildschirm, auf dem sie angezeigt werden, ein berührungsempfindlicher Bildschirm ist, können sie außerdem mit Berührungsgesten betätigt werden. Wenn das Gerät, das sie anzeigt, Spracherkennungskomponenten aufweist, können sie auch mit Sprachbefehlen betätigt werden.
  • Eine Reihe von Datenspeichern wurde ebenfalls behandelt. Es wird darauf hingewiesen, dass diese jeweils in mehrere Datenspeicher aufgeteilt werden können. Alle können lokal für die auf sie zugreifenden Systeme sein, alle können entfernt sein, oder einige können lokal sein, während andere entfernt sind. Alle diese Konfigurationen sind hierin vorgesehen.
  • Außerdem zeigen die FIG. eine Reihe von Blöcken mit Funktionen, die jedem Block zugeordnet sind. Es wird darauf hingewiesen, dass weniger Blöcke verwendet werden können, so dass die Funktionalität von weniger Komponenten ausgeführt wird. Es können auch mehr Blöcke mit der auf mehrere Komponenten verteilten Funktionalität verwendet werden.
  • Es ist zu beachten, dass die vorstehende Erläuterung eine Vielzahl unterschiedlicher Systeme, Komponenten und/oder Logiken beschrieben hat. Es versteht sich, dass solche Systeme, Komponenten und/oder Logik aus Hardwareelementen (wie etwa Prozessoren und zugehörigem Speicher oder anderen Verarbeitungskomponenten, von denen einige im Folgenden beschrieben werden) bestehen können, die die mit diesen Systemen, Komponenten und/oder Logik verbundenen Funktionen ausführen. Darüber hinaus können die Systeme, Komponenten und/oder Logiken aus Software bestehen, die in einen Speicher geladen werden und anschließend von einem Prozessor oder Server oder einer anderen Rechnerkomponente ausgeführt werden, wie unten beschrieben. Die Systeme, Komponenten und/oder Logiken können auch aus verschiedenen Kombinationen von Hardware, Software, Firmware usw. bestehen, von denen einige Beispiele nachfolgend beschrieben werden. Dies sind nur einige Beispiele für unterschiedliche Strukturen, die zur Bildung der oben beschriebenen Systeme, Komponenten und/oder Logik verwendet werden können. Es können auch andere Strukturen verwendet werden.
  • 6 ist ein Blockdiagramm der Maschinen 102 und 104, dargestellt in 1, mit der Ausnahme, dass sie mit Elementen in einer Remote-Serverarchitektur 500 kommunizieren. In einem Beispiel kann die Remote-Serverarchitektur 500 Rechen-, Software-, Datenzugriffs- und Speicherdienste bereitstellen, die keine Kenntnisse des Endbenutzers über den physischen Standort oder die Konfiguration des Systems erfordern, das die Dienste bereitstellt. In verschiedenen Beispielen können Remote-Server die Dienste über ein Weitverkehrsnetzwerk, wie etwa das Internet, unter Verwendung geeigneter Protokolle bereitstellen. So können beispielsweise Remote-Serveranwendungen über ein Weitverkehrsnetzwerk bereitstellen und über einen Webbrowser oder eine andere Computerkomponente darauf zugreifen. Software oder Komponenten, die in 2 dargestellt sind, sowie die entsprechenden Daten können auf Servern an einem entfernten Standort gespeichert werden. Die Computerressourcen in einer entfernten Serverumgebung können an einem entfernten Standort des Rechenzentrums konsolidiert oder verteilt werden. Remote-Server-Infrastrukturen können Dienste über gemeinsam genutzte Rechenzentren bereitstellen, obwohl sie für den Benutzer als ein einziger Zugangspunkt erscheinen. Somit können die hierin beschriebenen Komponenten und Funktionen von einem Remote-Server an einem entfernten Standort über eine Remote-Server-Architektur bereitgestellt werden. Alternativ können sie von einem herkömmlichen Server bereitgestellt werden, oder sie können direkt auf Endgeräten oder auf andere Weise installiert werden.
  • In dem in 6 dargestellten Beispiel ähneln einige Elemente den in den 1 und 2 gezeigten Elementen und sind ähnlich nummeriert. 6 zeigt insbesondere, dass sich das Datenverarbeitungssystem 114, die Maschinen 102, 104 und das System 116 an einem Remote-Serverstandort 502 befinden können. Daher greift die Erntemaschine 100 über den Remote-Serverstandort 502 auf diese Systeme zu.
  • 6 zeigt auch ein weiteres Beispiel für eine Remote-Serverarchitektur. 6 zeigt, dass außerdem in Betracht gezogen wird, dass einige Elemente der 1 und 2 am Remote-Serverstandort 502 angeordnet sind, andere hingegen nicht. Beispielsweise kann der Datenspeicher 130, 162, 204 oder das Bildverarbeitungssystem 160 an einem von Standort 502 getrennten Standort angeordnet sein und über den Remote-Server am Standort 502 zugegriffen werden. Unabhängig davon, wo sie sich befinden, können andere Systeme direkt auf sie zugreifen, über ein Netzwerk (entweder ein Weitverkehrsnetzwerk oder ein LAN) abgerufen werden, sie können an einem Remote-Standort von einem Dienst gehostet werden, oder sie können als Dienst bereitgestellt oder von einem Verbindungsdienst abgerufen werden, der sich an einem Remote-Standort befindet. Außerdem können die Daten an nahezu jedem Standort gespeichert und zeitweise von Interessenten abgerufen oder an diese weitergeleitet werden. So können beispielsweise physikalische Träger anstelle oder zusätzlich zu elektromagnetischen Strahlungsträgern verwendet werden. In einem solchen Beispiel, in dem die Netzabdeckung schlecht oder nicht vorhanden ist, kann eine andere mobile Maschine (beispielsweise ein Tankwagen) über ein automatisches System zur Informationserfassung verfügen. Wenn die Maschinen 102, 104 zum Tanken in die Nähe des Tankwagens kommen (oder umgekehrt), sammelt das System unter Verwendung einer beliebigen Art von drahtloser Ad-hoc-Verbindung automatisch die Informationen von den Maschinen 102, 104. Die gesammelten Informationen können dann an das Hauptnetz weitergeleitet werden, wenn der Tankwagen einen Standort erreicht, an dem es eine Mobilfunkabdeckung (oder eine andere drahtlose Abdeckung) gibt. So kann beispielsweise der Tankwagen in einen überdachten Standort einfahren, wenn er zum Betanken anderer Maschinen fährt oder wenn er sich an einem Haupttanklager befindet. Alle diese Architekturen werden hierin betrachtet. Darüber hinaus können die Informationen auf den Maschinen 102, 104 gespeichert werden, bis die Maschinen einen Standort mit Verbindung zum Internet erreichen. Die Maschinen selbst können dann die Informationen an das Hauptnetzwerk senden.
  • Es wird auch darauf hingewiesen, dass die Elemente der 1 und 2 oder Teile davon auf einer Vielzahl verschiedener Geräte angeordnet werden können. Einige dieser Vorrichtungen beinhalten Server, Desktop-Computer, Laptops, Tablet-Computer oder andere mobile Geräte, wie etwa Palmtop-Computer, Mobiltelefone, Smartphones, Multimedia-Player, persönliche digitale Assistenten usw.
  • 7 ist ein vereinfachtes Blockdiagramm eines veranschaulichenden Beispiels einer tragbaren oder mobilen Computervorrichtung, das als tragbares Endgerät 16 eines Benutzers oder Kunden verwendet werden kann, in der das vorliegende System (oder Teile davon) eingesetzt werden kann. Beispielsweise kann ein mobiles Gerät in der Bedienerkabine der Maschine 102 oder 104 eingesetzt werden, um die Bilder oder die dreidimensionale Darstellung zu generieren, zu verarbeiten oder anzuzeigen. Die 8-9 sind Beispiele für tragbare oder mobile Geräte.
  • 7 zeigt ein allgemeines Blockdiagramm der Komponenten eines Endgeräts 16, auf dem einige der in den 1 und 2 gezeigten Komponenten ausgeführt werden können, die mit ihnen interagierten oder beides. In dem Endgerät 16 ist eine Kommunikationsverbindung 13 bereitgestellt, die es dem tragbaren Endgerät ermöglicht, mit anderen Computervorrichtungen zu kommunizieren, und unter einigen Beispielen einen Kanal zum automatischen Empfangen von Informationen, beispielsweise durch Scannen, bereitstellt. Beispiele für Kommunikationsverbindungen 13 beinhalten das Zulassen der Kommunikation über ein oder mehrere Kommunikationsprotokolle, wie etwa drahtlose Dienste, die verwendet werden, um einen zellularen Zugang zu einem Netzwerk zu ermöglichen, sowie Protokolle, die lokale drahtlose Verbindungen zu Netzwerken bereitstellen.
  • In anderen Beispielen können Anwendungen auf einer entfernbaren „Secure Digital“-(SD-)Karte empfangen werden, die mit einer Schnittstelle 15 verbunden ist. Die Schnittstelle 15 und die Kommunikationsverbindungen 13 kommunizieren mit einem Prozessor 17 (der auch die Prozessoren oder Server aus den vorherigen FIG. verkörpern kann) über einen Bus 19, der ebenfalls mit dem Speicher 21 und den Ein-/Ausgabekomponenten (E/A) 23 sowie dem Taktgeber 25 und dem Ortungssystem 27 verbunden ist.
  • E/A-Komponenten 23 sind in einem Beispiel vorgesehen, um Ein- und Ausgabeoperationen zu erleichtern. E/A-Komponenten 23 für verschiedene Beispiele des Endgeräts 16 können Eingabekomponenten, wie etwa Tasten, Tastsensoren, optische Sensoren, Mikrofone, Touchscreens, Näherungssensoren, Beschleunigungssensoren, Orientierungssensoren, und Ausgabekomponenten, wie etwa eine Anzeigevorrichtung, ein Lautsprecher und/oder ein Druckeranschluss beinhalten. Es können auch andere E/A-Komponenten 23 verwendet werden.
  • Der Taktgeber 25 umfasst veranschaulichend eine Echtzeituhrkomponente, die eine Uhrzeit und ein Datum ausgibt. Dieser kann auch, veranschaulichend, Timing-Funktionen für Prozessor 17 bereitstellen.
  • Das Ortungssystem 27 beinhaltet veranschaulichend eine Komponente, die eine aktuelle geografische Position des Endgeräts 16 ausgibt. Dies kann beispielsweise einen globalen Positionierungssystem-(GPS-)Empfänger, ein LORAN-System, ein Koppelnavigationssystem, ein zellulares Triangulationssystems oder ein anderes Positionierungssystem beinhalten. Es kann beispielsweise auch eine Karten- oder Navigationssoftware beinhalten, die gewünschte Karten, Navigationsrouten und andere geografische Funktionen generiert.
  • Der Speicher 21 speichert das Betriebssystem 29, die Netzwerkeinstellungen 31, die Anwendungen 33, die Anwendungskonfigurationseinstellungen 35, den Datenspeicher 37, die Kommunikationstreiber 39 und die Kommunikationskonfigurationseinstellungen 41. Der Speicher 21 kann alle Arten von greifbaren flüchtigen und nichtflüchtigen computerlesbaren Speichergeräte beinhalten. Er kann auch Computerspeichermedien beinhalten (siehe unten). Der Speicher 21 speichert computerlesbare Anweisungen, die, wenn sie von Prozessor 17 ausgeführt werden, den Prozessor veranlassen, computerimplementierte Schritte oder Funktionen gemäß den Anweisungen auszuführen. Der Prozessor 17 kann von anderen Komponenten aktiviert werden, um auch deren Funktionalität zu verbessern.
  • 8 zeigt ein Beispiel, bei dem das Endgerät 16 ein Tablet-Computer 600 ist. In 8 wird der Computer 600 mit dem Bildschirm 602 der Benutzerschnittstelle dargestellt. Der Bildschirm 602 kann ein Touchscreen oder eine stiftfähige Schnittstelle sein, die Eingaben von einem Stift oder Stylus empfängt. Er kann auch eine virtuelle Bildschirmtastatur verwenden. Natürlich kann es auch über einen geeigneten Befestigungsmechanismus, wie etwa eine drahtlose Verbindung oder einen USB-Anschluss, an eine Tastatur oder eine andere Benutzereingabevorrichtung angeschlossen werden. Der Computer 600 kann auch illustrativ Spracheingaben empfangen.
  • 9 zeigt, dass die Vorrichtung ein Smartphone 71 sein kann. Das Smartphone 71 verfügt über ein berührungsempfindliches Display 73, das Symbole oder Grafiken oder andere Benutzereingabemechanismen 75 anzeigt. Die Mechanismen 75 können von einem Benutzer verwendet werden, um Anwendungen auszuführen, Anrufe zu tätigen, Datenübertragungsvorgänge durchzuführen usw. Im Allgemeinen ist das Smartphone 71 auf einem mobilen Betriebssystem aufgebaut und bietet eine fortschrittlichere Rechenleistung und Konnektivität als ein Funktionstelefon.
  • Es ist zu beachten, dass andere Formen des Endgeräts 16 möglich sind.
  • 10 ist ein Beispiel für eine Computerumgebung, in der Elemente der 1 und 2 oder Teile davon (zum Beispiel) eingesetzt werden können. Unter Bezugnahme auf 10 umfasst ein beispielhaftes System zum Implementieren einiger Ausführungsformen ein Universalrechengerät in Form eines Computers 810. Die Komponenten des Computers 810 können, ohne hierauf beschränkt zu sein, unter anderem eine Verarbeitungseinheit 820 (die Prozessoren oder Server aus den vorstehenden FIGUREN beinhalten kann), einen Systemspeicher 830 und einen Systembus 821 umfassen, die verschiedene Systemkomponenten einschließlich des Systemspeichers mit der Verarbeitungseinheit 820 koppeln. Der Systembus 821 kann eine von mehreren Arten von Busstrukturen sein, einschließlich eines Speicherbusses oder einer Speichersteuerung, eines Peripheriebusses und eines lokalen Busses mit einer Vielzahl von Busarchitekturen. Speicher und Programme, die in Bezug auf 1 beschrieben sind, können in den entsprechenden Teilen von 10 eingesetzt werden.
  • Der Computer 810 enthält typischerweise eine Vielzahl von computerlesbaren Medien. Computerlesbare Medien können beliebige verfügbare Medien sein, auf die der Computer 810 zugreifen kann, und umfassen sowohl flüchtige als auch nichtflüchtige Medien, entfernbare und nicht entfernbare Medien. Computerlesbare Medien können beispielsweise Computerspeichermedien und Kommunikationsmedien umfassen. Computerspeichermedien unterscheiden sich von einem modulierten Datensignal oder einer Trägerwelle und beinhalten diese nicht. Dazu gehören Hardware-Speichermedien mit flüchtigen und nichtflüchtigen, entfernbaren und nicht entfernbaren Medien, die in einem beliebigen Verfahren oder einer Technologie für die Speicherung von Informationen, wie etwa computerlesbaren Befehlen, Datenstrukturen, Programmmodulen oder anderen Daten, implementiert sind. Rechenspeichermedien umfassen, aber sie sind nicht beschränkt auf RAM, ROM, EEPROM, Flash-Speicher oder andere Speichertechnologie, CD-ROM, Digitalversatile-Disks (DVD) oder andere optische Plattenspeicher, Magnetkassetten, -bänder, -plattenspeicher oder andere magnetische Speichergeräte oder jedes andere Medium, das verwendet werden kann, um die gewünschte Information zu speichern, auf die über den Computer 810 zugegriffen werden kann. Kommunikationsmedien können computerlesbare Anweisungen, Datenstrukturen, Programmmodule oder andere Daten in einem Transportmechanismus enthalten und umfassen alle Informationslieferungsmedien. Der Begriff „angepasstes Datensignal“ bezeichnet ein Signal, für das ein oder mehrere seiner Merkmale so festgelegt oder geändert sind, dass Informationen in dem Signal codiert sind.
  • Der Systemspeicher 830 beinhaltet Computerspeichermedien in Form eines flüchtigen und/oder nichtflüchtigen Speichers, wie z. B. Festwertspeicher (ROM) 831 und Direktzugriffsspeicher (RAM) 832. Ein grundlegendes Eingabe- bzw. Ausgabesystem 833 (Basic Input Output System, kurz BIOS), das die grundlegenden Routinen enthält, die helfen, Informationen zwischen Elementen innerhalb des Computers 810, zum Beispiel während des Starts, zu übertragen, wird typischerweise im ROM 831 gespeichert. RAM 832 enthält typischerweise Daten- und/oder Programmmodule, die für die Verarbeitungseinheit 820 unmittelbar zugänglich sind und/oder derzeit betrieben werden. Beispielsweise und nicht als Einschränkung veranschaulicht 10 das Betriebssystem 834, die Anwendungsprogramme 835, andere Programmmodule 836 und die Programmdaten 837.
  • Der Computer 810 kann auch andere entfernbare/nicht-entfernbare, flüchtige/nichtflüchtige Computerspeichermedien beinhalten. Beispielsweise zeigt 10 ein Festplattenlaufwerk 841, das von einem nicht-entfernbaren, nicht-flüchtigen magnetischen Medium, einem nicht-flüchtigen magnetischen Laufwerk 852, einem optischen Laufwerk 855 und einem nicht-flüchtigen optischen Laufwerk 856 liest oder darauf schreibt. Das Festplattenlaufwerk 841 ist typischerweise über eine nicht-entfernbare Speicherschnittstelle, wie etwa die Schnittstelle 840, mit dem Systembus 821 verbunden, und das optische Plattenlaufwerk 855 sind typischerweise über eine entfernbare Speicherschnittstelle, wie etwa die Schnittstelle 850, mit dem Systembus 821 verbunden.
  • Alternativ oder zusätzlich kann die hier beschriebene Funktionalität zumindest teilweise von einer oder mehreren Logikkomponenten der Hardware ausgeführt werden. So können zum Beispiel, und ohne Einschränkung, zu den zur Veranschaulichung aufgeführten Arten von Logikkomponenten der Hardware, die verwendet werden können, feldprogrammierbare Gate-Arrays (FPGAs), anwendungsspezifische integrierte Schaltungen (z. B. ASICs), anwendungsspezifische Standardprodukte (z. B. ASSPs), System-on-a-Chip-Systeme (SOCs), komplexe programmierbare Logikgeräte (CPLDs) usw. gehören.
  • Die Laufwerke und ihre zugehörigen Computerspeichermedien, die oben behandelt und in 10 dargestellt sind, bieten eine Speicherung von computerlesbaren Anweisungen, Datenstrukturen, Programmmodulen und anderen Daten für den Computer 810. In 10 wird beispielsweise die Festplatte 841 als speicherndes Betriebssystem 844, Anwendungsprogramme 845, andere Programmmodule 846 und Programmdaten 847 dargestellt. Es ist zu beachten, dass diese Komponenten entweder gleich oder verschieden vom Betriebssystem 834, den Anwendungsprogrammen 835, anderen Programmmodulen 836 und den Programmdaten 837 sein können.
  • Ein Benutzer kann Befehle und Informationen in den Computer 810 über Eingabevorrichtungen, wie etwa eine Tastatur 862, ein Mikrofon 863 und eine Zeigevorrichtung 861, wie etwa eine Maus, einen Trackball oder ein Touchpad, eingeben. Andere Eingabevorrichtungen (nicht dargestellt) können einen Joystick, ein Gamepad, eine Satellitenschüssel, einen Scanner oder dergleichen beinhalten. Diese und andere Eingabegeräte sind oft über eine Benutzereingabeschnittstelle 860 mit der Verarbeitungseinheit 820 verbunden, die mit dem Systembus gekoppelt ist, aber auch über andere Schnittstellen- und Busstrukturen verbunden sein kann. Eine optische Anzeige 891 oder eine andere Art von Anzeigegerät ist ebenfalls über eine Schnittstelle, wie etwa eine Videoschnittstelle 890, mit dem Systembus 821 verbunden. Zusätzlich zum Monitor können Computer auch andere periphere Ausgabevorrichtungen, wie etwa die Lautsprecher 897 und den Drucker 896 beinhalten, die über eine Ausgabeperipherieschnittstelle 895 verbunden werden können.
  • Der Computer 810 wird in einer Netzwerkumgebung über logische Verbindungen (wie etwa lokales Netzwerk - LAN, ein Steuergerätenetzwerk - CAN oder ein Weitverkehrsnetzwerk - WAN) zu einem oder mehreren Remote-Computern, wie etwa einem Remote-Computer 880, betrieben.
  • Wenn der Computer 810 in einer LAN-Netzwerkumgebung verwendet wird, ist er über eine Netzwerkschnittstelle oder einen Adapter 870 mit dem LAN 871 verbunden. Wenn der Computer 810 in einer WAN-Netzwerkumgebung verwendet wird, umfasst er typischerweise ein Modem 872 oder andere Mittel zum Herstellen von Verbindungen über das WAN 873, zum Beispiel das Internet. In einer vernetzten Umgebung können Programmmodule auf einer externen Speichervorrichtung gespeichert werden. 10 zeigt zum Beispiel, dass Remote-Anwendungsprogramme 885 auf dem Remote-Computer 880 liegen können.
  • Es sei auch darauf hingewiesen, dass die verschiedenen hier beschriebenen Beispiele auf verschiedene Weise kombiniert werden können. Das heißt, Teile eines oder mehrerer Beispiele können mit Teilen eines oder mehrerer anderer Beispiele kombiniert werden. All dies wird hierin betrachtet.
  • Beispiel 1 ist ein Rechnersystem einer Arbeitsmaschine, umfassend:
    • ein Bildübertragungshandhabungssystem, das einen ersten Satz von Bildern einer ersten Ausgrabungsstätte empfängt, die sich an einem ersten Ort befindet;
    • eine automatische Objektidentifizierungslogik, die einen ersten Satz von Objekten an der ersten Ausgrabungsstätte aus dem ersten Satz von Bildern erkennt, wobei sich die Objekte in einer erste unterirdischen Tiefe unter einer Bodenoberfläche an der ersten Ausgrabungsstätte befinden;
    • eine dreidimensionale (3D) Generatorlogik, die aus dem ersten Satz von Bildern eine erste 3D-Darstellung der ersten Ausgrabungsstätte generiert, wobei sich der erkannte erste Satz von Objekten innerhalb der 3D-Darstellung in der unterirdischen Tiefe basieren auf dem ersten Satz von Bildern befindet;
    • eine Datenspeicher-Interaktionslogik, die die erste 3D-Darstellung, die dem ersten Ort der ersten Ausgrabungsstätte entspricht, in einem Datenspeicher speichert; und
    • ein Anforderungsverarbeitungssystem, das von einem Anforderungssystem eine Anforderung empfängt, einen angeforderten Ort identifiziert, auf den Datenspeicher zugreift, um die dem angeforderten Ort entsprechende 3D-Darstellung zu erhalten, und eine Antwort generiert, die die dem angeforderten Ort entsprechende 3D-Darstellung enthält, und die Antwort an das Anforderungssystem sendet.
  • Beispiel 2 ist das Datenverarbeitungssystem der Arbeitsmaschine eines oder aller vorhergehenden Beispiele, wobei die 3D-Generatorlogik konfiguriert ist, um eine Position jedes erkannten Objekts im 3D-Raum basierend auf dem ersten Satz von Bildern zu identifizieren.
  • Beispiel 3 ist das Datenverarbeitungssystem der Arbeitsmaschinen eines oder aller vorhergehenden Beispiele, wobei das Bildübertragungshandhabungssystem konfiguriert ist, um einen zweiten Satz von Bildern von einer zweiten Ausgrabungsstätte an einem zweiten Ort zu empfangen, und wobei die automatische Objektidentifizierungslogik konfiguriert ist, um aus dem zweiten Satz von Bildern einen zweiten Satz von Objekten in der zweiten Ausgrabungsstätte zu erkennen, wobei sich der zweite Satz von Objekten in einer zweiten unterirdischen Tiefe unter einem Oberflächenniveau des Bodens an der zweiten Ausgrabungsstätte befindet.
  • Beispiel 4 ist das Datenverarbeitungssystem der Arbeitsmaschine eines oder aller vorhergehenden Beispiele, wobei die dreidimensionale (3D) Generatorlogik konfiguriert ist, um eine zweite 3D-Darstellung entsprechend der zweiten Ausgrabungsstätte aus dem zweiten Satz von Bildern zu erzeugen, wobei sich der erkannte zweite Satz von Objekten innerhalb der 3D-Darstellung in der zweiten unterirdischen Tiefe basierend auf dem zweiten Satz von Bildern befindet.
  • Beispiel 5 ist das Datenverarbeitungssystem der Arbeitsmaschine eines oder aller vorhergehenden Beispiele und ferner umfassend:
    • eine Bildkorrelationslogik, die konfiguriert ist, um Korrelationen zwischen dem ersten Satz von Objekten und dem zweiten Satz von Objekten auf der Grundlage der ersten und zweiten 3D-Darstellungen zu identifizieren.
  • Beispiel 6 ist das Datenverarbeitungssystem der Arbeitsmaschine eines oder aller vorhergehenden Beispiele, wobei die 3D-Generatorlogik konfiguriert ist, um eine dritte 3D-Darstellung zu erzeugen, die einem dritten Ort entspricht, basierend auf den Korrelationen, die zwischen dem ersten Satz von Objekten und dem zweiten Satz von Objekten identifiziert wurden.
  • Beispiel 7 ist das Datenverarbeitungssystem der Arbeitsmaschine eines oder aller vorhergehenden Beispiele, wobei die 3D-Generatorlogik konfiguriert ist, um die dritte 3D-Darstellung mit erkannten Elementen zu generieren, die sich innerhalb der dritten 3D-Darstellung in einer dritten unterirdischen Tiefe befinden, basierend auf den Korrelationen, die zwischen dem ersten Satz von Objekten und dem zweiten Satz von Objekten identifiziert wurden.
  • Beispiel 8 ist das Datenverarbeitungssystem der Arbeitsmaschine eines oder aller vorhergehenden Beispiele, wobei die Bildkorrelationslogik konfiguriert ist, um die Korrelationen als Extrapolationen von Positionen der erkannten Objekte auf der Grundlage der ersten und zweiten 3D-Darstellung zu identifizieren.
  • Beispiel 9 ist das Datenverarbeitungssystem der Arbeitsmaschine eines oder aller vorhergehenden Beispiele, wobei die automatische Objektidentifizierungslogik ein Klassifizierungsmodell für maschinelles Lernen umfasst, das konfiguriert ist, Objekte durch Klassifizieren der Objekte in eine von mehreren vordefinierten Klassen erkennt.
  • Beispiel 10 ist das Datenverarbeitungssystem der Arbeitsmaschine eines oder aller vorhergehenden Beispiele, wobei die automatische Objektidentifizierungslogik konfiguriert ist, um ein Material zu identifizieren, aus dem ein erkanntes Objekt hergestellt ist.
  • Beispiel 11 ist das Datenverarbeitungssystem der Arbeitsmaschine eines oder aller vorhergehenden Beispiele, wobei die erste Ausgrabungsstätte eine erste Ausgrabung mit einer Seitenwand umfasst und wobei die automatische Objektidentifizierungslogik konfiguriert ist, einen Bodentyp entlang einer Seitenwand der Ausgrabung zu erkennen.
  • Beispiel 12 ist das Datenverarbeitungssystem der Arbeitsmaschine eines oder aller vorhergehenden Beispiele, wobei die 3D-Generatorlogik konfiguriert ist, um verschiedene Tiefenebenen im 3D-Raum für jeden entlang der Seitenwand erkannten Bodentyp auf Grundlage des ersten Satzes von Bildern zu identifizieren.
  • Beispiel 13 ist das Datenverarbeitungssystem der Arbeitsmaschine eines oder aller vorhergehenden Beispiele, wobei die Anforderung eine Tiefenidentifikation enthält und wobei das Anforderungsverarbeitungssystem Folgendes umfasst:
  • eine Anforderungsvergleichslogik, die die Anforderung vergleicht, um den angeforderten Ort und die durch den Tiefenidentifizierer ermittelte Tiefe zu identifizieren, und
  • einen Antwortgenerator, der konfiguriert ist, die Antwort zu generieren, die eine 3D-Darstellung enthält, die dem angeforderten Ort und der Tiefe entspricht.
  • Beispiel 14 ist eine Arbeitsmaschine, umfassend:
    • ein Aushubanbaugerät, das Boden aushebt, um eine Ausgrabung zu erzeugen;
    • eine Bilderfassungsvorrichtung;
    • einen Maschinenausrichtungssensor, der eine Ausrichtung der Arbeitsmaschine erfasst und eine Ausrichtungsausgabe erzeugt, die die erfasste Ausrichtung anzeigt;
    • eine Erfassungssteuerlogik, die die Betätigung des Aushubanbaugerätes erkennt und das Bilderfassungsvorrichtung steuert, um einen Satz von Bildern der Ausgrabung aus verschiedenen Perspektiven aufzunehmen;
    • eine Metadatengeneratorlogik, die Zeitstempel-Metadaten, Ortsstempel-Metadaten und Ausrichtungs-Metadaten erzeugt, die eine Zeit, einen Ort und eine Ausrichtung der Bilderfassungsvorrichtung entsprechend des Satzes von Bildern identifizieren; und
    • ein Kommunikationssystem, das den Satz von Bildern und die entsprechenden Metadaten und Ausrichtungsausgaben an einen Remote-Server überträgt.
  • Beispiel 15 das computerimplementierte Verfahren zur Steuerung eines Bildverarbeitungssystems, wobei das computerimplementierte Verfahren Folgendes umfasst:
    • das Empfangen eines ersten Satzes von Bildern einer ersten Ausgrabungsstätte, die sich an einem ersten Ort befindet;
    • das Erkennen eines ersten Satzes von Objekten in der ersten Ausgrabungsstätte aus dem ersten Satz von Bildern, wobei die Objekte an der ersten Ausgrabungsstätte in einer ersten unterirdischen Tiefe unter einem Oberflächenniveau des Bodens liegen;
    • das Generieren einer ersten 3D-Darstellung der ersten Ausgrabungsstätte aus dem ersten Satz von Bildern, wobei der erste Satz von Objekten, die sich innerhalb der 3D-Darstellung in der unterirdischen Tiefe basierend auf dem ersten Satz von Bildern befindet;
    • das Speichern der ersten 3D-Darstellung, die dem ersten Ort der ersten Ausgrabungsstätte entspricht, in einem Datenspeicher;
    • das Empfangen einer Anforderung von einem Anforderungssystem, das den angeforderten Ort Identifizieret;
    • das Zugreifen auf den Datenspeicher, um die 3D-Darstellung zu erhalten, die dem angeforderten Ort entspricht;
    • das Generieren einer Antwort, die die 3D-Darstellung beinhaltet, die dem angeforderten Ort entspricht; und
    • das Senden der Antwort an das Anforderungssystem.
  • Beispiel 16 ist das computerimplementierte Verfahren eines oder aller vorherigen Beispiele, wobei das Generieren der ersten 3D-Darstellung die Identifizierung einer Position im 3D-Raum von jedem erkannten Objekt auf Grundlage des ersten Satzes von Bildern umfasst.
  • Beispiel 17 ist das computerimplementierte Verfahren von einem oder allen vorhergehenden Beispielen und ferner umfassend:
    • das Empfangen eines zweiten Satzes von Bildern einer zweiten Ausgrabungsstätte an einem zweiten Ort; und
    • das Erkennen eines zweiten Satzes von Objekten in der zweiten Ausgrabungsstätte aus dem zweiten Satz von Bildern, wobei sich die Objekte an der zweiten Ausgrabungsstätte in einer zweiten unterirdischen Tiefe unter einem Oberflächenniveau des Bodens befinden.
  • Beispiel 18 ist das computerimplementierte Verfahren eines oder aller vorhergehenden Beispiele und ferner umfassend:
    • das Generieren einer zweiten 3D-Darstellung, die der zweiten Ausgrabungsstätte aus dem zweiten Satz von Bildern entspricht, wobei die erkannten Objekte innerhalb der 3D-Darstellung in der zweiten unterirdischen Tiefe auf der Grundlage des zweiten Satzes von Bildern lokalisiert werden;
  • Beispiel 19 ist das computerimplementierte Verfahren eines oder aller vorhergehenden Beispiele und ferner umfassend:
    • das Identifizieren von Korrelationen zwischen dem ersten Satz von Objekten und dem zweiten Satz von Objekten auf Grundlage der ersten und zweiten 3D-Darstellungen; und
    • das Generieren einer dritten 3D-Darstellung, die einem dritten Ort entspricht, basierend auf den Korrelationen, die zwischen dem ersten Satz von Objekten und dem zweiten Satz von Objekten identifiziert wurden.
  • Beispiel 20 ist das computerimplementierte Verfahren eines oder aller vorhergehenden Beispiele, wobei das Generieren der dritten 3D-Darstellung das Generieren der dritten 3D-Darstellung mit erkannten Objekten umfasst, die sich innerhalb der dritten 3D-Darstellung in einer dritten unterirdischen Tiefe befinden, basierend auf den Korrelationen, die zwischen dem ersten Satz von Objekten und dem zweiten Satz von Objekten identifiziert wurden.
  • Obwohl der Gegenstand in einer für strukturelle Merkmale und/oder methodische Handlungen spezifischen Sprache beschrieben wurde, versteht es sich, dass der in den beigefügten Ansprüchen definierte Gegenstand nicht unbedingt auf die vorstehend beschriebenen spezifischen Merkmale oder Handlungen beschränkt ist. Vielmehr werden die vorstehend beschriebenen spezifischen Merkmale und Handlungen als exemplarische Formen der Umsetzung der Ansprüche offengelegt.

Claims (15)

  1. Datenverarbeitungssystem (114) für eine Arbeitsmaschine, umfassend: ein Bildübertragungshandhabungssystem (158), das einen ersten Satz von Bildern einer ersten Ausgrabungsstätte empfängt, die sich an einem ersten Ort befindet; eine automatische Objektidentifizierungslogik (170), die einen ersten Satz von Objekten an der ersten Ausgrabungsstätte aus dem ersten Satz von Bildern erkennt, wobei die Objekte um eine erste unterirdische Tiefe unter einem Oberflächenniveau des Bodens an der ersten Ausgrabungsstätte angeordnet sind; eine dreidimensionale (3D) Generatorlogik (168), die aus dem ersten Satz von Bildern eine erste 3D-Darstellung der ersten Ausgrabungsstätte generiert, wobei sich der erkannte erste Satz von Objekten innerhalb der 3D-Darstellung in der unterirdischen Tiefe basieren auf dem ersten Satz von Bildern befindet; eine Datenspeicher-Interaktionslogik (174), die die erste 3D-Darstellung, die dem ersten Ort der ersten Ausgrabungsstätte entspricht, in einem Datenspeicher speichert; und ein Anforderungsverarbeitungssystem (160), das von einem Anforderungssystem (116) eine Anforderung empfängt, einen angeforderten Ort identifiziert, auf den Datenspeicher zugreift, um die dem angeforderten Ort entsprechende 3D-Darstellung zu erhalten, und eine Antwort generiert, die die dem angeforderten Ort entsprechende 3D-Darstellung enthält, und die Antwort an das Anforderungssystem (116) sendet.
  2. Datenverarbeitungssystem (114) der Arbeitsmaschine nach Anspruch 1, bei dem die 3D-Erzeugungslogik konfiguriert ist, um eine Position jedes erkannten Objekts im 3D-Raum basierend auf dem ersten Satz von Bildern zu identifizieren.
  3. Datenverarbeitungssystem (114) der Arbeitsmaschine nach Anspruch 2, wobei das Bildübertragungshandhabungssystem (158) konfiguriert ist, um einen zweiten Satz von Bildern von einer zweiten Ausgrabungsstätte an einem zweiten Ort zu empfangen, und wobei die automatische Objektidentifizierungslogik (170) konfiguriert ist, um aus dem zweiten Satz von Bildern einen zweiten Satz von Objekten in der zweiten Ausgrabungsstätte zu erkennen, wobei sich der zweite Satz von Objekten in einer zweiten unterirdischen Tiefe unter einem Oberflächenniveau des Bodens an der zweiten Ausgrabungsstätte befindet.
  4. Datenverarbeitungssystem (114) der Arbeitsmaschine nach Anspruch 3, wobei die dreidimensionale (3D) Generatorlogik (168) konfiguriert ist, um eine zweite 3D-Darstellung entsprechend der zweiten Ausgrabungsstätte aus dem zweiten Satz von Bildern zu erzeugen, wobei sich der erkannte zweite Satz von Objekten innerhalb der 3D-Darstellung in der zweiten unterirdischen Tiefe basierend auf dem zweiten Satz von Bildern befindet.
  5. Datenverarbeitungssystem (114) der Arbeitsmaschine nach Anspruch 4 und ferner umfassend: eine Bildkorrelationslogik (172), die konfiguriert ist, um Korrelationen zwischen dem ersten Satz von Objekten und dem zweiten Satz von Objekten auf der Grundlage der ersten und zweiten 3D-Darstellungen zu identifizieren.
  6. Datenverarbeitungssystem (114) der Arbeitsmaschine nach Anspruch 5, wobei die 3D-Generatorlogik (168) konfiguriert ist, um eine dritte 3D-Darstellung zu erzeugen, die einem dritten Ort entspricht, basierend auf den Korrelationen, die zwischen dem ersten Satz von Objekten und dem zweiten Satz von Objekten identifiziert wurden.
  7. Datenverarbeitungssystem (114) der Arbeitsmaschine nach Anspruch 6, wobei die 3D-Generatorlogik (168) konfiguriert ist, um die dritte 3D-Darstellung mit erkannten Elementen zu generieren, die sich innerhalb der dritten 3D-Darstellung in einer dritten unterirdischen Tiefe befinden, basierend auf den Korrelationen, die zwischen dem ersten Satz von Objekten und dem zweiten Satz von Objekten identifiziert wurden.
  8. Datenverarbeitungssystem (114) der Arbeitsmaschine nach Anspruch 7, wobei die Bildkorrelationslogik (172) konfiguriert ist, um die Korrelationen als Extrapolationen von Positionen der erkannten Objekte auf der Grundlage der ersten und zweiten 3D-Darstellung zu identifizieren.
  9. Rechnersystem für Arbeitsmaschinen nach einem der Ansprüche 2 bis 8, wobei die automatische Objektidentifizierungslogik (170) ein Klassifizierungsmodell für maschinelles Lernen umfasst, das konfiguriert ist, Objekte durch Klassifizieren der Objekte in eine von mehreren vordefinierten Klassen erkennt.
  10. Datenverarbeitungssystem (114) der Arbeitsmaschine nach einem der Ansprüche 2 bis 9, wobei die automatische Objektidentifizierungslogik (170) konfiguriert ist, um ein Material zu identifizieren, aus dem ein erkanntes Objekt hergestellt ist.
  11. Datenverarbeitungssystem (114) der Arbeitsmaschine nach einem der Ansprüche 2 bis 10, wobei die erste Ausgrabungsstätte eine erste Ausgrabung mit einer Seitenwand umfasst und wobei die automatische Objektidentifizierungslogik (170) konfiguriert ist, einen Bodentyp entlang einer Seitenwand der Ausgrabung zu erkennen.
  12. Datenverarbeitungssystem (114) der Arbeitsmaschine nach Anspruch 11, wobei die 3D-Generatorlogik (168) konfiguriert ist, um verschiedene Tiefenebenen im 3D-Raum für jeden entlang der Seitenwand erkannten Bodentyp auf Grundlage des ersten Satzes von Bildern zu identifizieren.
  13. Datenverarbeitungssystem (114) der Arbeitsmaschine nach einem der Ansprüche 2 bis 12, wobei die Anforderung eine Tiefenidentifikation enthält und wobei das Anforderungsverarbeitungssystem (160) Folgendes umfasst: eine Anforderungsvergleichslogik (186), die die Anforderung vergleicht, um den angeforderten Ort und die durch den Tiefenidentifizierer ermittelte Tiefe zu identifizieren; und einen Antwortgenerator (190), der konfiguriert ist, die Antwort zu generieren, die eine 3D-Darstellung enthält, die dem angeforderten Ort und der Tiefe entspricht.
  14. Arbeitsmaschine (102), umfassend: ein Aushubanbaugerät (138), das Boden aushebt, um eine Ausgrabung zu erzeugen; eine Bilderfassungsvorrichtung (148); einen Maschinenausrichtungssensor (128), der eine Ausrichtung der Arbeitsmaschine (102) erfasst und eine Ausrichtungsausgabe erzeugt, die die erfasste Ausrichtung anzeigt; eine Erfassungssteuerlogik (146), die die Betätigung des Aushubanbaugerätes erkennt und das Bilderfassungsvorrichtung steuert, um einen Satz von Bildern der Ausgrabung aus verschiedenen Perspektiven aufzunehmen; eine Metadatengeneratorlogik (168), die Zeitstempel-Metadaten, Ortsstempel-Metadaten und Ausrichtungs-Metadaten erzeugt, die eine Zeit, einen Ort und eine Ausrichtung der Bilderfassungsvorrichtung entsprechend des Satzes von Bildern identifizieren; und ein Kommunikationssystem (132), das den Satz von Bildern und die entsprechenden Metadaten und Ausrichtungsausgaben an einen Remote-Server überträgt.
  15. Ein computerimplementiertes Verfahren zur Steuerung eines Bildverarbeitungssystems (148), wobei das computerimplementierte Verfahren Folgendes umfasst: das Empfangen eines ersten Satzes von Bildern einer ersten Ausgrabungsstätte, die sich an einem ersten Ort befindet; das Erkennen eines ersten Satzes von Objekten in der ersten Ausgrabungsstätte aus dem ersten Satz von Bildern, wobei die Objekte an der ersten Ausgrabungsstätte in einer ersten unterirdischen Tiefe unter einem Oberflächenniveau des Bodens liegen; das Generieren einer ersten 3D-Darstellung der ersten Ausgrabungsstätte aus dem ersten Satz von Bildern, wobei der erste Satz von Objekten, die sich innerhalb der 3D-Darstellung in der unterirdischen Tiefe basierend auf dem ersten Satz von Bildern befindet; das Speichern der ersten 3D-Darstellung, die dem ersten Ort der ersten Ausgrabungsstätte entspricht, in einem Datenspeicher; das Empfangen einer Anforderung von einem Anforderungssystem (116), das den angeforderten Ort Identifizieret; das Zugreifen auf den Datenspeicher (130), um die 3D-Darstellung zu erhalten, die dem angeforderten Ort entspricht; das Generieren einer Antwort, die die 3D-Darstellung beinhaltet, die dem angeforderten Ort entspricht; und das Senden der Antwort an das Anforderungssystem (116).
DE102020205175.5A 2019-05-02 2020-04-23 Steuerung von mobilen baumaschinen für unterirdische kartierung Pending DE102020205175A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/401,517 US11062511B2 (en) 2019-05-02 2019-05-02 Controlling mobile construction equipment for subterranean mapping
US16/401,517 2019-05-02

Publications (1)

Publication Number Publication Date
DE102020205175A1 true DE102020205175A1 (de) 2020-11-05

Family

ID=72839092

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020205175.5A Pending DE102020205175A1 (de) 2019-05-02 2020-04-23 Steuerung von mobilen baumaschinen für unterirdische kartierung

Country Status (4)

Country Link
US (1) US11062511B2 (de)
CN (1) CN111877449B (de)
DE (1) DE102020205175A1 (de)
RU (1) RU2020114217A (de)

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5553407A (en) * 1995-06-19 1996-09-10 Vermeer Manufacturing Company Excavator data acquisition and control system and method of use
EP1320812A2 (de) * 2000-06-14 2003-06-25 Vermeer Manufacturing Company Verfahren und system für die einteilung und verteilung der ortungsdaten von nutzeinrichtungen
US6735888B2 (en) * 2001-05-18 2004-05-18 Witten Technologies Inc. Virtual camera on the bucket of an excavator displaying 3D images of buried pipes
US7516563B2 (en) 2006-11-30 2009-04-14 Caterpillar Inc. Excavation control system providing machine placement recommendation
JP5052166B2 (ja) * 2007-03-06 2012-10-17 株式会社小松製作所 埋設物検出装置、管理装置、および建設機械監視システムの埋設物探索方法
WO2008154341A1 (en) * 2007-06-07 2008-12-18 Paradigm Geophysical Ltd. Device and method for displaying full azimuth angle domain image data
US8817238B2 (en) 2007-10-26 2014-08-26 Deere & Company Three dimensional feature location from an excavator
US9440591B2 (en) * 2009-05-13 2016-09-13 Deere & Company Enhanced visibility system
US8873334B2 (en) * 2013-03-05 2014-10-28 Hunt Energy Enterprises, L.L.C. Correlation techniques for passive electroseismic and seismoelectric surveying
US20150348309A1 (en) * 2014-06-03 2015-12-03 Schlumberger Technology Corporation Cross section creation and modification
US9824490B1 (en) * 2015-06-08 2017-11-21 Bentley Systems, Incorporated Augmentation of a dynamic terrain surface
US10535168B2 (en) * 2016-03-02 2020-01-14 Schlumberger Technology Corporation Image enhancement using seismic partition images
US10254398B2 (en) * 2016-04-28 2019-04-09 Fluke Corporation Manipulation of 3-D RF imagery and on-wall marking of detected structure
US20190206068A1 (en) * 2016-10-04 2019-07-04 Halliburton Energy Services, Inc. Monitoring a subterranean formation using motion data
US10444344B2 (en) * 2016-12-19 2019-10-15 Fluke Corporation Optical sensor-based position sensing of a radio frequency imaging device
CN106759625A (zh) * 2016-12-20 2017-05-31 清华大学合肥公共安全研究院 一种城市挖掘管线实时预警终端及其固定结构
KR20180075224A (ko) * 2016-12-26 2018-07-04 삼성전자주식회사 객체의 인식 결과를 제공하는 방법 및 전자 장치
US10515272B2 (en) * 2017-05-11 2019-12-24 Digitalglobe, Inc. Muddy water detection using normalized semantic layers
US10679369B2 (en) * 2018-06-12 2020-06-09 Chiral Software, Inc. System and method for object recognition using depth mapping
US10755484B1 (en) * 2018-08-17 2020-08-25 Bentley Systems, Incorporated Estimating subsurface feature locations during excavation
US20200224526A1 (en) * 2019-01-15 2020-07-16 Schlumberger Technology Corporation Utilizing Vision Systems at a Wellsite

Also Published As

Publication number Publication date
US11062511B2 (en) 2021-07-13
US20200349760A1 (en) 2020-11-05
CN111877449A (zh) 2020-11-03
CN111877449B (zh) 2023-04-28
RU2020114217A3 (de) 2021-12-30
RU2020114217A (ru) 2021-10-21

Similar Documents

Publication Publication Date Title
EP3659001B1 (de) Magnetometer für die roboternavigation
DE102018218155A1 (de) Baustellen-überwachungssystem und verfahren
DE102019210970A1 (de) Visuelles assistenz- und steuersystem für einearbeitsmaschine
US11933021B2 (en) Excavating earth from a dig site using an excavation vehicle
DE102018132428A1 (de) Photomosaische Bodenkartierung
DE102018121335A1 (de) Robotergestützte virtuelle grenzen
DE102021200634A1 (de) Maschinenkippkörper-steuerung mit objekterkennung
US11591776B2 (en) Earth-moving machine sensing and control system
DE112016003423T5 (de) Baumanagementsystem und baumanagementverfahren
DE112017002047T5 (de) Verwaltungssystem
DE102014013155A1 (de) Bildanzeigesystem
DE102019211246A1 (de) Maschinenstabilitätserfassung und -steuerung
DE102020110123A1 (de) System und verfahren für die maschinensteuerung
DE102020210159A1 (de) Mobile arbeitsmaschine mit objekterkennung mittels sichterkennung
DE102021202030A1 (de) Verwendung generierter linien zur fahrzeugsteuerung und objektvermeidung
DE102019215578A1 (de) Steuerung des betriebs von forstmaschinen auf basis von datenerfassung
DE102017012116A1 (de) Vorschauerzeugung aus panoramischen Bildern
DE102020208304A1 (de) Arbeitsmaschine mit automatischer erkennung von positionskorrekturdatensendern
DE102020206190A1 (de) System und verfahren für die konfiguration einer arbeitsstätten warnzone.
DE102019203538A1 (de) Mess- und Steuerlogik für Bagger
DE102021121276A1 (de) Bestimmen eines objektdetektionsbereichs basierend auf einem knickgelenkwinkel
WO2022046388A1 (en) Graphical user interface for real-time management of an earth shaping vehicle
DE102021203109A1 (de) Mehrdimensionales visualisierungs- und steuersystem für mobile maschinenpfade
DE102020210179A1 (de) Mobile arbeitsmaschine mit objekterkennungund maschinenpfadvisualisierung
DE102020205175A1 (de) Steuerung von mobilen baumaschinen für unterirdische kartierung

Legal Events

Date Code Title Description
R163 Identified publications notified