DE112020002774T5 - System und verfahren zum verwalten von werkzeug auf einer baustelle - Google Patents

System und verfahren zum verwalten von werkzeug auf einer baustelle Download PDF

Info

Publication number
DE112020002774T5
DE112020002774T5 DE112020002774.0T DE112020002774T DE112020002774T5 DE 112020002774 T5 DE112020002774 T5 DE 112020002774T5 DE 112020002774 T DE112020002774 T DE 112020002774T DE 112020002774 T5 DE112020002774 T5 DE 112020002774T5
Authority
DE
Germany
Prior art keywords
machine
implement
location
site
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112020002774.0T
Other languages
English (en)
Inventor
Peter J. Petrany
Jeremy L. Vogel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Caterpillar Inc
Original Assignee
Caterpillar Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Caterpillar Inc filed Critical Caterpillar Inc
Publication of DE112020002774T5 publication Critical patent/DE112020002774T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0633Workflow analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06313Resource planning in a project environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/08Construction
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station

Landscapes

  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Engineering & Computer Science (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Game Theory and Decision Science (AREA)
  • Educational Administration (AREA)
  • Development Economics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Component Parts Of Construction Machinery (AREA)
  • Operation Control Of Excavators (AREA)

Abstract

Ein Verfahren (400) des Empfangens von Bildinformationen (216a, 216b) mit einem oder mehreren Prozessor(en) (112) und von einem Sensor (106), angeordnet auf einer Baustelle (102), und Bestimmens einer Identität eines Arbeitsgeräts (110), das auf der Baustelle (102) angeordnet ist, basierend mindestens teilweise auf den Bildinformationen (216a, 216b). Das Verfahren (400) beinhaltet ferner das Empfangen von Standortinformationen (114) mit dem einen oder den mehreren Prozessor(en) (112), wobei die Standortinformationen (114) einen ersten Standort (116) des Sensors auf der Baustelle (102) angeben. Zusätzlich beinhaltet das Verfahren (400) das Bestimmen eines zweiten Standorts (118) des Arbeitsgeräts (110) auf der Baustelle (102) basierend mindestens teilweise auf den Standortinformationen (114). In manchen Fällen beinhaltet das Verfahren (400) das Erzeugen einer Baustellenkarte (122) mit dem einen oder den mehreren Prozessor(en) (112), wobei die Baustellenkarte (122) das Arbeitsgerät (110) identifiziert und den zweiten Standort (118) des Arbeitsgeräts (110) auf der Baustelle (102) angibt, und mindestens eines aus Bereitstellen der Baustellenkarte (122) für einen zusätzlichen Prozessor (142) und Verursachen, dass die Baustellenkarte (122) über eine Anzeige (124) dargestellt wird.

Description

  • Technisches Gebiet
  • Die vorliegende Offenbarung betrifft ein System und ein Verfahren zum Verwalten einer Baustelle, wie z. B. Arbeitsgeräte auf einer Baustelle. Genauer betrifft die vorliegende Offenbarung ein System einschließlich eines oder mehrerer Sensoren, die an eine Maschine gekoppelt sind, die konfiguriert sind, um einen Standort oder eine Eigenschaft in Verbindung mit einem Arbeitsgerät zu bestimmen.
  • Hintergrund
  • Muldenkipper, Radlader, Kompaktlader, Planierraupen und andere Maschinen werden häufig verwendet, um verschiedene Konstruktions- oder Abbauaufgaben auf einer Baustelle durchzuführen. Die Maschinen können verschiedene Komponenten und Anbauteile verwenden, zum Beispiel, um Kies, Beton, Asphalt, Erde oder andere Materialien zu entfernen oder hinzuzugeben, die Teil einer Arbeitsoberfläche auf einer Baustelle bilden, Materialien aufzunehmen, zu messen und zu schneiden, und Strukturen aufzubauen. Mehrere Arbeitsgeräte können während eines Konstruktions- oder Abbauprojekts zu mehreren Standorten auf einer Baustelle bewegt werden, da die Arbeitsgeräte während unterschiedlicher Phasen des Vorgangs von unterschiedlichen Maschinen an unterschiedlichen Standorten verwendet werden können.
  • In manchen Fällen kann ein Bauunternehmen viele Maschinen mit hunderten oder sogar tausenden Arbeitsgeräten betreiben, die auf mehreren Baustellen verteilt sind. Die Verwaltung der Standorte und Status der Arbeitsgeräte auf den mehreren Baustellen kann durch häufige und nicht gemeldete Standortveränderungen von Arbeitsgeräten kompliziert werden. Zusätzlich können regelmäßig verlegte Arbeitsgeräte auf der gesamten Baustelle verstreut werden und es kann für Betreiber von Maschinen oder autonome Maschinen, die die Baustelle durchqueren, schwierig sein, diese zu erfassen, was zu einem Sicherheitsrisiko führt.
  • Beispielhafte Systeme und Verfahren zum Nachverfolgen von Gerätschaften oder Werkzeug mit einer oder mehreren Kameras werden in US-Patentanmeldung Veröffentlichungsnr. 2013/0113929 (hiernach als die '929-Veröffentlichung bezeichnet) beschrieben. Insbesondere beschreibt die '929-Veröffentlichung Systeme und Verfahren zur Bewältigung der Schwierigkeit, einen korrekten Nachweis von chirurgischen Instrumenten in einem Operationsraum aufrechtzuhalten. Wie in der '929-Veröffentlichung erklärt, ist eine beispielhafte Kamera an einem chirurgischen Tablett so positioniert, dass die gesamten chirurgischen Instrumente, die auf dem chirurgischen Tablett platziert sind, im Blickfeld der Kamera sind. Eine solche Kamera an einem chirurgischen Tablett kann mehrere Bildgebungsvorrichtungen beinhalten, und die Kamera, die in der '929-Veröffentlichung beschrieben wird, kann konfiguriert sein, um eine 3D-Repräsentation der chirurgischen Instrumente auf dem chirurgischen Tablett basierend auf Informationen zu bilden, die von den entsprechenden Bildgebungsvorrichtungen erhalten werden.
  • Während das System, das in der '929-Referenz beschrieben wird, zur Verwendung in einer Umgebung eines medizinischen Operationsraums konfiguriert sein kann, wären die relativ kleinen Kameras mit fester Position, die in der '929-Referenz beschrieben werden, ungeeignet, um die Identität und/oder den Standort von Arbeitsgeräten auf Baustellen für Abbau, Pflasterung, Konstruktion und/oder anderes zu bestimmen. Zum Beispiel ist eine Fläche, die von solchen Baustellen umfasst ist, typischerweise Größenordnungen größer als der relativ begrenzte Raum, der von solchen Kameras mit fester Position überwacht wird. Ferner verändern sich die entsprechenden Standorte der Arbeitsgeräte, die auf solchen Baustellen typischerweise eingesetzt werden, häufig im Laufe eines Arbeitstags, was die Überwachung deren Standort mit den Kameras mit fester Position, die in der '929-Referenz beschrieben werden, nicht möglich macht.
  • Beispielhafte Ausführungsformen der vorliegenden Offenbarung richten sich auf die Bewältigung der oben beschriebenen Mängel.
  • Zusammenfassung
  • In einer beispielhaften Ausführungsform der vorliegenden Offenbarung beinhaltet ein Verfahren das Empfangen von Bildinformationen mit einem oder mehreren Prozessor(en) und von einem Sensor, der auf einer Baustelle angeordnet ist und eine Identität eines Arbeitsgeräts bestimmt, das auf der Baustelle angeordnet ist, basierend mindestens teilweise auf den Bildinformationen. Das Verfahren beinhaltet das Empfangen von Standortinformationen mit dem einen oder den mehreren Prozessor(en), wobei die Standortinformationen einen ersten Standort des Sensors auf der Baustelle angeben, und das Bestimmen eines zweiten Standorts des Arbeitsgeräts auf der Baustelle, basierend mindestens teilweise auf den Standortinformationen. Das Verfahren beinhaltet ferner das Erzeugen einer Baustellenkarte mit dem einen oder den mehreren Prozessor(en), wobei die Baustellenkarte das Arbeitsgerät identifiziert und den zweiten Standort des Arbeitsgeräts auf der Baustelle angibt, und mindestens eines aus Bereitstellen der Baustellenkarte für einen zusätzlichen Prozessor und Verursachen, dass die Baustellenkarte über eine Anzeige dargestellt wird, beinhaltet.
  • In einer weiteren beispielhaften Ausführungsform der vorliegenden Offenbarung beinhaltet das System eine Maschine, die angepasst ist, um Vorgänge auf einer Baustelle durchzuführen; einen Sensor, der angepasst ist, um Bildinformationen in Verbindung mit der Baustelle zu bestimmen; und einen oder mehrere Prozessor(en). Ein solcher Prozessor oder mehrere solche Prozessoren sind angepasst zum Bestimmen einer Werkzeugeigenschaft in Verbindung mit einem Arbeitsgerät, das auf der Baustelle angeordnet ist, basierend mindestens teilweise auf den Bildinformationen; zum Bestimmen eines ersten Standorts in Verbindung mit dem Arbeitsgerät, basierend mindestens teilweise auf einem zweiten Standort der Maschine; zum Erzeugen einer Baustellenkarte, die das Arbeitsgerät identifiziert und den Standort in Verbindung mit dem Arbeitsgerät angibt; und mindestens zu einem aus Bereitstellen der Baustellenkarte für einen zusätzlichen Prozessor und Verursachen, dass die Baustellenkarte über eine Anzeige dargestellt wird.
  • In noch einer anderen beispielhaften Ausführungsform der vorliegenden Offenbarung beinhaltet ein Verfahren das Empfangen, mit einem Prozessor und von mindestens einem Sensor einer ersten Maschine, eines ersten Indikators, der einen Standort in Verbindung mit einem Arbeitsgerät auf einer Baustelle identifiziert; und eines zweiten Indikators, der eine Werkzeugeigenschaft in Verbindung mit dem Arbeitsgerät identifiziert. Das Verfahren beinhaltet ferner das Bestimmen, mit dem Prozessor, dass eine zweite auf einem ersten Weg fährt, der sich in einem vorbestimmten Schwellenwertabstand des Standorts befindet; und das Senden, an die zweite Maschine, mit dem Prozessor, und basierend mindestens teilweise auf dem Bestimmen, dass der zweite Standort auf dem Weg fährt, der sich in dem vorbestimmten Schwellenwertabstand des Standorts befindet, eines dritten Indikators. Ein solcher dritter Indikator identifiziert den Standort des Arbeitsgeräts und kann ausgeführt werden, sodass er verursacht, dass die zweite Maschine auf einem zweiten Weg fährt, der anders als der erste Weg ist.
  • Figurenliste
    • 1 ist eine schematische Darstellung eines Systems gemäß einer beispielhaften Ausführungsform der vorliegenden Offenbarung.
    • 2 ist eine weitere schematische Darstellung des Systems, das in 1 gezeigt ist.
    • 3 ist eine weitere schematische Darstellung des Systems, das in 1 gezeigt ist.
    • 4 ist ein Flussdiagramm, das ein beispielhaftes Verfahren in Verbindung mit dem System darstellt, das in 1-3 gezeigt ist.
    • 5 ist ein Flussdiagramm, das ein weiteres beispielhaftes Verfahren in Verbindung mit dem System darstellt, das in 1-3 gezeigt ist.
  • Ausführliche Beschreibung
  • Wo es möglich ist, werden die gleichen Referenzzahlen in allen Zeichnungen verwendet, um sich auf gleiche oder ähnliche Teile zu beziehen. Unter Bezugnahme auf 1 kann ein beispielhaftes System 100 in einer Umgebung einer Baustelle 102 (z. B. einer Konstruktions-Baustelle, einer Pflasterungs-Baustelle, einer Abbau-Baustelle usw.) mit einer oder mehreren Maschine(n) 104 arbeiten, wie z. B. einer ersten Maschine(n) 104(a), einer zweiten Maschine(n) 104(b) und so weiter (hier gemeinsam als Maschine(n) 104 bezeichnet), die Abbau-, Pflasterungs- und/oder Konstruktionsarbeiten auf der Baustelle 102 durchführen. Das System 100 kann einen Sensor 106 zum Sammeln von Bildinformationen 108, zum Beispiel von einem Arbeitsgerät 110, beinhalten. Ein oder mehrere Prozessor(en) 112 können sich auf der Baustelle 102 befinden, zum Beispiel getragen von mindestens einer der Maschinen 104, zum Empfangen, Analysieren und/oder Senden von Informationen, wie z. B. Standortinformationen 114, die einen ersten Standort 116 der Maschine(n) 104 und/oder einen zweiten Standort 118 in Verbindung mit dem Arbeitsgerät 110 angeben können.
  • In manchen Beispielen kann das System 100 eine Werkzeugeigenschaft 120 in Verbindung mit dem Arbeitsgerät 110 bestimmen (z. B. mit dem Sensor 106 und dem einen oder den mehreren Prozessor(en) 112). Das System 100 kann eine Baustellenkarte 122 erzeugen, die zum Beispiel das Arbeitsgerät 110 über die Werkzeugeigenschaft 120 (z. B. eine Arbeitsgerätekennung) identifiziert, und den zweiten Standort 118 des Arbeitsgeräts 110 auf der Baustelle 102 angibt. In manchen Fällen kann die Baustellenkarte 122 auf einer Anzeige 124 (z. B. einem Monitor) angezeigt werden, die sich auf der Baustelle 102 befinden kann, zum Beispiel in einer Kabine 126 der Maschine(n) 104. Die Baustellenkarte 122 kann eine visuelle Darstellung einer Grenze 128 beinhalten, die mindestens teilweise um den zweiten Standort 118 herum positioniert ist. Ein Lautsprecher 130 kann sich auf der Baustelle 102 befinden, zum Beispiel getragen von der/den Maschine(n) 104, und kann eine Audioausgabe 132 erzeugen, mindestens teilweise basierend auf den Bildinformationen 108, und die mindestens eine Nähe der Maschine(n) 104 zu dem zweiten Standort 118 des Arbeitsgeräts 110 angibt.
  • In manchen Fällen kann der Prozessor 112 einen ersten Bewegungsparameter 134a bestimmen, der verursachen kann, dass die Maschine(n) 104 entlang eines ersten Fahrwegs 136a auf der Baustelle 102 fahren. Der Prozessor 112 kann einen zweiten Bewegungsparameter 134b mindestens teilweise basierend auf den Bildinformationen 108 und/oder dem zweiten Standort 118 bestimmen. Der zweite Bewegungsparameter 134b kann verursachen, dass die Maschine(n) 104 entlang eines zweiten Fahrwegs 136b fahren, der anders als der erste Fahrweg 136a sein kann.
  • In manchen Beispielen können die Bildinformationen 108 an einem Sensor 106 beim Richten des Sensors 106 an dem Arbeitsgerät 110 und Empfangen von Licht, das von einer Oberfläche 138 des Arbeitsgeräts 110 reflektiert wird, empfangen werden. Informationen, die basierend mindestens teilweise auf den Bildinformationen 108 (z. B. der Baustellenkarte 122 oder einem oder mehreren Indikatoren des zweiten Standorts 118 und/oder der Werkzeugeigenschaft 120) erzeugt werden, können an ein Fernsteuerungssystem 140 gesendet werden, das einen zusätzlichen Prozessor 142 beinhalten kann. Zum Beispiel kann eine Kommunikationsvorrichtung 144, die von der/den Maschine(n) 104 getragen wird, Informationen an das Fernsteuerungssystem 140 über ein Netzwerk 146 und/oder eine oder mehrere Übertragung(en) 148 der Kommunikationsvorrichtung 144 des Fernsteuerungssystems 140 durch das Netzwerk 146 übertragen.
  • Mit fortgesetztem Bezug auf 1 kann in manchen Beispielen das System 100 auf der Baustelle 102 arbeiten, die eine Konstruktions-Baustelle, eine Abbau-Baustelle oder Kombinationen davon umfassen kann. Zum Beispiel kann sich die Baustelle 102 über Tausende Quadratfuß, Hektar oder sogar Meilen erstrecken.
  • Die Maschine(n) 104 können in manchen Fällen eine oder mehrere Maschinen zum Graben, eine oder mehrere Lademaschinen, eine oder mehrere Fördermaschinen, eine oder mehrere Transportmaschinen und/oder andere Arten von Maschinen umfassen, die zur Konstruktion, zum Abbau, zum Pflastern, zum Aushub und/oder für andere Vorgänge auf der Baustelle 102 verwendet werden. Jede der hier beschriebenen Maschinen 104 kann miteinander und/oder mit einem Steuerungssystem vor Ort oder dem Fernsteuerungssystem 140 durch den einen oder die mehreren Prozessor(en) 112 in Kommunikation sein. Der eine oder die mehreren Prozessor(en) 112 können eine drahtlose Kommunikation zwischen den hier beschriebenen Maschinen 104 und/oder zwischen solchen Maschinen 104 und, zum Beispiel, einer oder mehreren anderen Maschinen 104 ermöglichen, zum Zwecke des Übertragens und/oder Empfangens von Betriebsdaten und/oder Anweisungen.
  • Die Maschine(n) 104 können eine Maschine zum Graben umfassen, die Material auf der Baustelle 102 zum Zwecke von anschließenden Vorgängen (d. h. zum Sprengen, Beladen, Fördern und/oder für andere Vorgänge) verringert. Beispiele für Maschinen zum Graben können Bagger, Grabenbagger, Planierraupen, Bohrmaschinen, Grabenfräsen, Schürfkübelbagger usw. beinhalten. Mehrere Maschinen zum Graben können zusammen in einer gemeinsamen Fläche auf der Baustelle 102 angeordnet sein und können ähnliche Funktionen erfüllen. Zum Beispiel kann eine oder mehrere der Maschinen zum Graben Erde, Sand, Mineralien, Kies, Beton, Asphalt, Deckgestein und/oder anderes Material bewegen, das mindestens Teil einer Arbeitsoberfläche der Baustelle 102 umfasst. Von daher können sich mehrere Maschinen zum Graben während verschiedener Phasen des Projekts mehrere Anbauteile teilen, wie z. B. das eine oder die mehreren Arbeitsgeräte 110.
  • Die Maschine(n) 104 können eine Lademaschine umfassen, die Material, das von einer oder mehreren der Maschinen zum Graben verringert wurde, anhebt, trägt, belädt und/oder entfernt. In manchen Beispielen kann die Maschine(n) 104 solches Material entfernen und kann das entfernte Material von einem ersten Standort auf der Baustelle 102 zu einem zweiten Standort auf der Baustelle 102 transportieren. Beispiele für die Maschine(n) 104 können einen Rad- oder Raupenlader, eine Frontschaufel, einen Bagger, einen Seilbagger, ein Schaufelradgerät oder beliebige andere ähnliche Maschine(n) 104 beinhalten. Eine oder mehrere Lademaschinen können in gemeinsamen Flächen der Baustelle 102 betrieben werden, um, zum Beispiel, verringerte Materialien auf eine Fördermaschine zu laden. Von daher können sich mehrere Lademaschinen während verschiedener Phasen des Projekts mehrere Anbauteile teilen, wie z. B. das eine oder die mehreren Arbeitsgeräte 110.
  • In beliebigen hier beschriebenen Beispielen kann eine oder mehrere der Maschine(n) 104 des Systems 100 manuell gesteuert, teilautonom gesteuert und/oder vollständig autonom gesteuert sein. In Beispielen, in denen die Maschine(n) 104 des Systems 100 unter autonomer oder teilautonomer Steuerung betrieben werden, können die Geschwindigkeit, die Lenkung, die Positionierung/Bewegung des Arbeitsgeräts und/oder andere Funktionen solcher Maschinen 104 automatisch oder teilautomatisch gesteuert werden, basierend mindestens teilweise auf der Bestimmung der Bewegungsparameter (z. B. dem ersten Bewegungsparameter 134a, dem zweiten Bewegungsparameter 134b usw.).
  • In manchen Beispielen kann der Sensor 106 durch die Maschine(n) 104 getragen werden (z. B. als eine Vorrichtung der Maschine(n) 104 und/oder als ein lösbares Zubehör der Maschine(n) 104) und/oder der Sensor 106 kann an anderen Standorten der Baustelle 102 positioniert sein, wie z. B. an einem Lichtmast befestigt, an einer Seite eines Gebäudes (z. B. eines örtlichen Büros) befestigt, von Baupersonal getragen, an einem Zaun befestigt, usw. In manchen Beispielen können ein oder mehrere des Sensors 106, der Kommunikationsvorrichtung 144, der Anzeige 124 und/oder des Lautsprechers 130 an der Kabine, dem Fahrgestell, dem Tragwerk und/oder einer beliebigen anderen Komponente der entsprechenden Maschine(n) 104 befestigt sein. In anderen Beispielen können jedoch ein oder mehrere des Sensors 106, der Kommunikationsvorrichtung 144, der Anzeige 124 und/oder des Lautsprechers 130 an der entsprechenden Maschine(n) 104 lösbar befestigt sein und/oder in, zum Beispiel, der Kabine solcher Maschine(n) 104 während des Betriebs angeordnet sein.
  • In manchen Fällen kann der Sensor 106 mindestens einen Perzeptionssensor beinhalten, der konfiguriert ist, um die eine oder mehreren Werkzeugeigenschaft(en) 120 zu bestimmen. Zum Beispiel kann der Sensor 106 konfiguriert sein, um verschiedene Eigenschaft der Oberfläche 138 des Arbeitsgeräts 110 zu erfassen, erkennen, beobachten und/oder auf andere Weise zu bestimmen.
  • In manchen Beispielen kann der Sensor 106 den Perzeptionssensor umfassen, der einen einzelnen Sensor und/oder eine andere Komponente eines lokalen Perzeptionssystems beinhalten kann, das an der/den Maschine(n) 104 angeordnet ist. In anderen Beispielen kann der Perzeptionssensor eine Vielzahl von ähnlichen oder unterschiedlichen Sensoren umfassen, wovon jeder eine Komponente eines solchen lokalen Perzeptionssystems umfasst, die an der/den Maschine(n) 104 angeordnet ist. Zum Beispiel kann der Perzeptionssensor unter anderem einen Lichtsensor, eine Kamera oder eine andere Bildaufnahmevorrichtung umfassen. Ein solcher Sensor 106 kann eine beliebige Art von Vorrichtung sein, die konfiguriert ist, um Bilder aufzunehmen, die das Arbeitsgerät 110, die Oberfläche 138 des Arbeitsgeräts 110, einen Hintergrund hinter dem Arbeitsgerät 110, die Baustelle 102 und/oder andere Umgebungen in einem Blickfeld des Sensors 106 darstellen.
  • In manchen Beispielen kann der Sensor 106 den Lichtsensor, wie z. B. eine oder mehrere Kameras (z. B. RGB-Kameras, Monochromkameras, Intensitäts (Graustufen) -kameras, Infrarotkameras, Ultraviolettkamera, Tiefenkameras, Stereokameras usw.) umfassen. Ein solcher Sensor 106 kann konfiguriert sein, um die Bildinformationen 108 zu empfangen, die, zum Beispiel, eine Länge, eine Breite, eine Tiefe, ein Volumen, eine Farbe, eine Textur, eine Zusammensetzung, eine Strahlungsemission, Kombinationen davon und/oder andere Werkzeugeigenschaften 120 von einem oder mehreren Objekten, wie z. B. dem Arbeitsgerät 110, in dem Blickfeld des Sensors 106 darstellen. Zum Beispiel können solche Werkzeugeigenschaften 120 auch eine oder mehrere einer x-Position (globale Positionskoordinate), einer y-Position (globale Positionskoordinate), einer z-Position (globale Positionskoordinate), einer Ausrichtung (z. B. rollen, kippen, gieren), eines Objekttyps (z. B. einer Klassifizierung), einer Geschwindigkeit des Objekts, einer Beschleunigung des Objekts usw. beinhalten. Es wird verstanden, dass eine oder mehrere solcher Werkzeugeigenschaften 120 (z. B. ein Standort, eine Abmessung, ein Volumen usw.) durch den Sensor 106 bestimmt werden können, umfassend die Bildaufnahmevorrichtung allein oder umfassend eine Kombination einer Bildaufnahmevorrichtung und eines Standortsensors, unten beschrieben. Werkzeugeigenschaften 120 in Verbindung mit dem Arbeitsgerät 10 und/oder der Oberfläche 138 des Arbeitsgeräts 110 können außerdem unter anderem eine Arbeitsgerätekennung, ein Arbeitsgerätemodell, eine Arbeitsgeräteart und/oder eine Arbeitsgerätehistorie beinhalten, wie unten ausführlicher im Hinblick auf 2 beschrieben wird.
  • In manchen Beispielen kann der Sensor 106, wie z. B. die Bildaufnahmevorrichtung und/oder andere Komponenten des Perzeptionssensors, auch konfiguriert sein, um ein oder mehrere Signale für den einen oder die mehreren Prozessor(en) 112 einschließlich der Bildinformationen 108 (z. B. ein Spannungssignal, das die Bildinformationen 108 darstellt) oder anderer Sensorinformationen, die dadurch aufgenommen werden, bereitzustellen. Solche Bildinformationen 108 können, zum Beispiel, eine Vielzahl von Bildern beinhalten, die durch den Sensor 106 aufgenommen werden und verschiedene Werkzeugeigenschaften 120 des Arbeitsgeräts 110 in dem Blickfeld des Sensors 106 angeben. In solchen Beispielen kann der eine oder die mehreren Prozessor(en) 112 und/oder der zusätzliche Prozessor 142 die Bildinformationen 108 analysieren, um den zweiten Standort 118 und/oder die Werkzeugeigenschaft 120 zu bestimmen, wie unten ausführlicher beschrieben.
  • In manchen Fällen kann der Sensor 106 (z. B. der Perzeptionssensor und/oder das lokale Perzeptionssystem) durch die Maschine(n) 104 getragen werden und kann außerdem einen Light-Detection-And-Ranging (hiernach „LIDAR“) -Sensor beinhalten. Ein solcher LIDAR-Sensor kann einen oder mehrere Laser oder andere Lichtemittenten, die von der/den Maschine(n) 104 getragen werden (z. B. darauf montiert, damit verbunden usw.), sowie einen oder mehrere Lichtsensoren beinhalten, die konfiguriert sind, um Strahlung zu empfangen, die von einem Objekt, auf das Licht von solchen Lichtemittenten auftrifft, bestrahlt, reflektiert und/oder auf andere Weise umgekehrt wird. In beispielhaften Ausführungsformen kann ein solcher LIDAR-Sensor konfiguriert sein, sodass der eine oder die mehreren Laser oder andere Lichtemittenten montiert sind, um sich zu drehen (z. B. um eine im Wesentlichen vertikale Achse), wobei verursacht wird, dass die Lichtemittenten, zum Beispiel, einen Bewegungsbereich von 360 Grad durchlaufen, um LIDAR-Sensordaten in Verbindung mit einem Arbeitsgerät 110, der Oberfläche 138 des Arbeitsgeräts 110 und/oder der Baustelle 102 im Allgemeinen aufzunehmen. Zum Beispiel kann ein LIDAR-Sensor der vorliegenden Offenbarung einen Lichtemittenten und einen Lichtsensor haben, wobei der Lichtemittent einen oder mehrere Laser beinhaltet, die fokussiertes Licht zu einem Objekt oder einer Oberfläche richten, das/die das Licht zurück zu dem Lichtsensor reflektiert, obwohl jegliche andere Lichtemission und -erfassung zum Bestimmen des Bereichs erwogen wird (z. B. Flash-LIDAR, MEMS LIDAR, Solid-State-LIDAR und dergleichen). Messungen eines solchen LIDAR-Sensors können als dreidimensionale LIDAR-Sensordaten mit Koordinaten (z. B. kartesisch, polar usw.) dargestellt werden, die Positionen oder Distanzen entsprechen, die durch den LIDAR-Sensor aufgenommen werden. Zum Beispiel können dreidimensionale LIDAR-Sensordaten und/oder andere Sensorinformationen, die von dem LIDAR-Sensor empfangen werden, eine dreidimensionale Karte oder Punktwolke beinhalten, die als eine Vielzahl von Vektoren dargestellt sein kann, die von einem Lichtemittenten ausgehen und an einem Objekt (z. B. der Oberfläche 138 des Arbeitsgeräts) enden. In manchen Beispielen können Umwandlungsvorgänge von dem einen oder den mehreren Prozessor(en) 112 und/oder von dem zusätzlichen Prozessor 142 verwendet werden, um die dreidimensionalen LIDAR-Sensordaten in zweidimensionale Mehrkanaldaten umzuwandeln. In manchen Beispielen können die LIDAR-Sensordaten und/oder andere Bildinformationen 108, die von dem Sensor 106 empfangen werden, durch den einen oder die mehreren Prozessor(en) 112 und/oder durch den zusätzlichen Prozessor 142 automatisch segmentiert werden, und die segmentierten LIDAR-Sensordaten können, zum Beispiel, als Eingabe zum Bestimmen von Trajektorien, Fahrwegen 114, Fahrgeschwindigkeiten und/oder anderen Bewegungsparametern (z. B. dem ersten Bewegungsparameter 134a und/oder dem zweiten Bewegungsparameter 134b) der hier beschriebenen Maschinen 104 verwendet werden.
  • In manchen Beispielen kann der Sensor 106 einen Radio-Detection-and-Ranging (hiernach „RADAR“) -Sensor, einen Sound-Navigation-and-Ranging (hiernach „SONAR“) - Sensor, eine Tiefenerkennungskamera, einen in den Boden eindringenden RADAR-Sensor, einen Magnetfeldemittenten/-detektor und/oder andere Sensoren umfassen, zum Beispiel an der/den Maschine(n) 104 angeordnet und konfiguriert, um Objekte zu erfassen, wie z. B. das Arbeitsgerät 110, das auf der Baustelle 102 vorhanden ist. Jeder der hier beschriebenen Sensoren kann ein oder mehrere entsprechende Signale an den einen oder die mehreren Prozessor(en) 112 und/oder den zusätzlichen Prozessor 142 ausgeben und solche Signale können jegliche der Sensorinformationen beinhalten, die oben beschrieben werden (z. B. Bilddaten, LIDAR-Daten, RADAR-Daten, SONAR-Daten, GPS-Daten usw.). Solche Sensorinformationen können simultan durch eine Vielzahl der Sensoren 106 aufgenommen werden und in manchen Fällen können die Sensorinformationen, die von dem/den Sensor(en) 106 empfangen werden (z. B. die Bildinformationen 108), eine oder mehrere Werkzeugeigenschaften 120 des Arbeitsgeräts 110 beinhalten, identifizieren und/oder angeben.
  • In manchen Beispielen kann der Sensor 106 mindestens einen Standortsensor umfassen, der konfiguriert ist, einen Standort, eine Geschwindigkeit, einen Kurs und/oder eine Ausrichtung der Maschine(n) 104 zu bestimmen. In solchen Ausführungsformen kann die Kommunikationsvorrichtung 144 der Maschine(n) 104 konfiguriert sein, um Signale, die solche bestimmten Standorte, Geschwindigkeiten, Kurse und/oder Ausrichtungen zu erzeugen und/oder an, zum Beispiel, einen oder mehrere Prozessor(en) 112 anderer Maschinen 104 des Systems 100, an das lokale Steuerungssystem und/oder an den zusätzlichen Prozessor 142 des Fernsteuerungssystems 140 zu übertragen. In manchen Beispielen können die Standortsensoren der entsprechenden Maschinen 104 eine Komponente von einem globalen Navigationssatellitensystem (GNSS) oder einem globalen Positionsbestimmungssystem (GPS) beinhalten und/oder umfassen. Alternativ können Universaltotalstationen (UTS) verwendet werden, um entsprechende Positionen der Maschinen zu lokalisieren. In beispielhaften Ausführungsformen können einer oder mehrere der hier beschriebenen Standortsensoren einen GPS-Empfänger, Sender, Sendeempfänger, Laserprismen und/oder andere solche Vorrichtungen umfassen, und der Standortsensor kann in Kommunikation mit einem oder mehreren GPS-Satelliten und/oder UTS sein, um einen entsprechenden Standort der Maschine(n) 104 zu bestimmen, mit denen der Standortsensor kontinuierlich, im Wesentlichen kontinuierlich oder in verschiedenen Zeitintervallen verbunden ist. Eine oder mehrere zusätzliche Maschinen 104 des Systems 100 können außerdem in Kommunikation mit dem einen oder den mehreren GPS-Satelliten und/oder UTS stehen, und solche GPS-Satelliten und/oder UTS können außerdem konfiguriert sein, um entsprechende Standorte solcher zusätzlicher Maschinen 104 zu bestimmen. In manchen Beispielen kann das System 100 die Standortinformationen 114 empfangen, die den ersten Standort 116 der Maschine(n) 104 von dem Sensor 106 (z. B. einem GPS-Sensor) angeben. In jeglichen der hier beschriebenen Beispiele können Standorte, Geschwindigkeiten, Kurse, Ausrichtungen und/oder andere Parameter der Maschine, die durch die entsprechenden Standortsensoren bestimmt werden, durch den einen oder die mehreren Prozessor(en) 112 und/oder andere Komponenten des Systems 100 verwendet werden, um den ersten Standort 116 der Maschine(n) 104 und/oder den zweiten Standort 118 des Arbeitsgeräts 110 zu bestimmen.
  • In manchen Beispielen kann der Sensor 106 mindestens einen Teil eines Fahrwegs erfassen, wie z. B. den ersten Fahrweg 136a, bevor die Maschine(n) 104 den Fahrweg durchquert und/oder während die Maschine(n) 104 gesteuert wird, den Fahrweg zu durchqueren, zum Beispiel, durch Bestimmen des ersten Bewegungsparameters 134a, der dem ersten Fahrweg 136 entspricht. Der Sensor 106 kann außerdem entsprechende Sensorinformationen bestimmen und bereitstellen, die den ersten Standort 116 der Maschine(n) 104 angeben. In solchen Beispielen kann der eine oder die mehreren Prozessor(en) 112 die Sensorinformationen empfangen, die in dem einen oder den mehreren Signalen beinhaltet sind, das durch den Sensor 106 bereitgestellt wird. In manchen Beispielen können die Sensorinformationen, die durch den Sensor 106 bereitgestellt werden, mit einem Zeitstempel versehen sein und/oder auf andere Weise mit Metadaten markiert sein, sodass eine Korrespondenz zwischen den Sensorinformationen (z. B. den Bildinformationen 108) durch den einen oder die mehreren Prozessor(en) 112 identifiziert werden kann. Die Bildinformationen 108 werden unten ausführlicher im Hinblick auf 2 beschrieben.
  • Das eine oder die mehreren Arbeitsgeräte 110 können an verschiedenen Standorten auf der gesamten Baustelle 102 positioniert sein. Das/Die Arbeitsgerät(e) 110 können, in manchen Fällen, an ein Gestell der Maschine(n) 104 lösbar gekoppelt sein. Zum Beispiel kann das Arbeitsgerät 110 einen Behälter umfassen, der konfiguriert ist, um Material in einem offenen Volumen oder einem anderen, im Wesentlichen offenen Raum davon zu tragen. In manchen Beispielen kann das Arbeitsgerät 110 mindestens eines aus einem Adapter, einem Bohrer, einem Grabenbagger, einem Ballengreifer, einem Ballenspeer, einer Schaufel, einem Besen, einem Freischneider, einem Löffel (z. B. einem Grabenbagger vorderer Löffel, einem Grabenbagger hinterer Löffel, einem kompakten Radlader, einem Bagger, einem Lader, einem Seilbagger, einem Kompaktlader, einem Teleskoplader usw.), einer Kaltfräse, einem Verdichter, einem Kuppler (z. B. für einen Grabenbagger Rückseite, für einen Bagger oder für einen Lader), einem Entaster, einem Fällkopf, einem Schlegelmäher, einer Gabel, einem Greifer, einem Hammer, einem Harvesterkopf, einem Arm zur Handhabung von Material, einem Mulchgerät, einer Schneidebacke, einer Abrissbacke, einer Pulverisierbacke, einem Harken, einem Aufreißer, einem Rotor, einer Säge, einem Paar Scheren, einer Silofräse, einer Schneefräse, einem Schneepflug, einem Schneeschieber, einer Stubbenfräser, einem Daumen, einer Winde, einem Stromaggregat, einem Abschnitt eines Wasserabgabesystems oder Kombinationen davon umfassen.
  • In manchen Fällen kann der eine oder die mehreren Prozessor(en) 112 mindestens einen Abschnitt einer Steuerung bilden, die mit einem oder mehreren computerlesbaren Speichermedien kommunikativ gekoppelt sein kann. Zum Beispiel kann der eine oder die mehreren Prozessor(en) 112 einen elektronischen Prozessor beinhalten, der auf eine logische Weise arbeitet, um Vorgänge durchzuführen, Regelalgorithmen auszuführen, Daten zu speichern und abzurufen und andere gewünschte Vorgänge. Der eine oder die mehreren Prozessor(en) 112 können das computerlesbare Speichermedium (z. B. Speicher), Sekundärspeicher, andere Prozessoren (z. B. den zusätzlichen Prozessor 142) und beliebige andere Komponenten zum Ausführen einer Anwendung beinhalten oder darauf zugreifen. Der Speicher und die Sekundärspeicher können in der Form eines Festwertspeichers (ROM) oder eines Arbeitsspeichers (RAM) oder als integrierte Schaltungen, auf die durch den einen oder die mehreren Prozessor(en) 112 zugegriffen werden kann, sein. Verschiedene andere Schaltungen können dem einen oder den mehreren Prozessor(en) 112 zugewiesen sein, wie z. B. Stromversorgungsschaltung, Signalaufbereitungsschaltung, Treiberschaltung und andere Schaltungsarten.
  • In manchen Beispielen kann der eine oder die mehreren Prozessor(en) 112 einen einzelnen Prozessor beinhalten oder kann mehr als einen Prozessor beinhalten, der konfiguriert ist, um verschiedene Funktionen und/oder Merkmale des Systems 100 zu steuern, zum Beispiel der Maschine(n) 104 oder des lokalen Steuerungssystems. Wie hier verwendet, soll der Begriff „ein oder mehrere Prozessor(en)“ in seinem weitesten Sinne verstanden werden und beinhaltet einen oder mehrere Prozessor(en) 112, Prozessoren, Zentraleinheiten und/oder Mikroprozessoren, die mit dem System 100 verbunden sein können und die im Steuern verschiedener Funktionen und Vorgänge der Maschine 104 und anderer Komponenten, die in dem System 100 beinhaltet sind, kooperieren können. Die Funktionalität des einen oder der mehreren Prozessor(en) 112 kann in Hardware und/oder in Software ohne Berücksichtigung der Funktionalität implementiert sein. Der eine oder die mehrere Prozessor(en) 112 können auf eine oder mehrere Datenkarten, Lookup-Tabellen, neurale Netze, Algorithmen (z. B. Algorithmus/Algorithmen für maschinelles Lernen 206, die ausführlicher unten in Hinblick auf 2 beschrieben werden) und/oder andere Komponenten im Zusammenhang mit den Betriebsbedingungen und der Betriebsumgebung des Systems 100 angewiesen sein, das in dem Speicher gespeichert sein kann, auf den durch den einen oder die mehreren Prozessor(en) 112 zugegriffen werden kann. Jede der oben genannten Datenkarten kann eine Datensammlung in der Form von Tabellen, Diagrammen und/oder Gleichungen beinhalten, um die Leistung und Effizienz des Systems 100 und seines Betriebs zu maximieren.
  • In manchen Beispielen kann der eine oder die mehreren Prozessor(en) 112 Komponenten beinhalten, die sich von der entsprechenden der Maschinen 104 entfernt befindet, wie z. B. an einer der anderen Maschinen 104 des Systems 100 oder an dem lokalen Steuerungssystem oder an dem Fernsteuerungssystem 140. Daher kann in manchen Beispielen die Funktionalität des einen oder der mehreren Prozessor(en) 112 verteilt sein, sodass die bestimmten Funktionen an der entsprechenden der Maschinen 104 durchgeführt werden und andere Funktionen entfernt durchgeführt werden. In manchen Beispielen kann der eine oder die mehreren Prozessor(en) 112 durch eine entsprechende Maschine(n) 104 getragen werden und kann eine autonome und/oder teilautonome Steuerung der entsprechenden Maschine(n) 104 entweder allein oder in Kombination mit dem Fernsteuerungssystem 140 ermöglichen.
  • In manchen Fällen kann der eine oder die mehreren Prozessor(en) 112 den zweiten Standort 118 in Verbindung mit dem Arbeitsgerät 110 bestimmen, zum Beispiel basierend mindestens teilweise auf den Bildinformationen 108 und/oder den Standortinformationen 114, die den ersten Standort 116 angeben. Zum Beispiel kann der eine oder die mehreren Prozessor(en) 112 auf der Baustelle 102 (z. B. getragen durch die Maschine(n) 104) und/oder der zusätzliche Prozessor 142 des Fernsteuerungssystems 140 bestimmen, dass das Arbeitsgerät 110 eine Anzahl an Fuß oder Metern von der/den Maschine(n) 104 entfernt ist, über eine Sichtlinienerkennung mit dem Sensor. In manchen Fällen kann das System 100 den zweiten Standort 118 basierend mindestens teilweise auf einem Unterschied zwischen mehreren Rahmen der Bildinformationen 108 bestimmen, wie unten ausführlicher in Hinsicht auf 2 beschrieben wird.
  • In manchen Beispielen kann das System 100 (z. B. über den einen oder die mehreren Prozessor(en) 112, getragen von der/den Maschine(n) 104 und/oder das Fernsteuerungssystem 140) die Werkzeugeigenschaft 120 in Verbindung mit dem Arbeitsgerät 110 bestimmen, zum Beispiel basierend mindestens teilweise auf den Bildinformationen 108, Der eine oder die mehreren Prozessor(en) 112 können mit der Ausgabe von jeder Sensormodalität an ein bestimmtes Objekt, das in einem Speicher gespeichert ist, korrelieren. Unter Verwendung solcher Datenzuordnungs-, Objekterkennungs- und/oder Objektcharakterisierungstechniken kann die Ausgabe von jedem der hier beschriebenen Sensoren verglichen werden. Durch solche Vergleiche und basierend mindestens teilweise auf den Sensorinformationen, die von dem Sensor 106 empfangen werden, kann der eine oder die mehreren Prozessor(en) 112 eine oder mehrere Werkzeugeigenschaften 120 in Verbindung mit einem oder mehreren Arbeitsgeräten 110 identifizieren, die sich auf der Baustelle 102 befinden. Wie oben angemerkt, kann der Sensor 106 mindestens einen Perzeptionssensor und einen Standortsensor beinhalten, und entsprechende Sensorinformationen, die von sowohl dem Perzeptionssensor als auch dem Standortsensor empfangen werden, können durch den einen oder die mehreren Prozessor(en) 112 kombiniert werden oder zusammen betrachtet werden, um die Identität, das Modell, die Art, das Gewicht, die Dimensionshistorie, den Standort, die Form, das Volumen und/oder andere Werkzeugeigenschaften 120 der Arbeitsgeräte 110 zu bestimmen. In manchen Fällen können die Werkzeugeigenschaften 120 eine oder mehrere Positionen des Arbeitsgeräts 110, eine Beladeposition, eine Trageposition, eine Entladeposition und/oder jede andere Position des Arbeitsgeräts 110 relativ zu einer Arbeitsoberfläche und/oder relativ zu einem Gestell der Maschine(n) 104 umfassen. Ferner können, in manchen Beispielen, und abhängig von der Genauigkeit und/oder Treue der Sensorinformationen, die von den verschiedenen Sensoren in Verbindung mit dem Perzeptionssensor empfangen werden, das Vorhandensein, der Standort, die Ausrichtung, die Identität, die Länge, die Breite, die Höhe, die Tiefe und/oder andere Werkzeugeigenschaften 120 des Arbeitsgeräts 110, die durch den einen oder die mehreren Prozessor(en) 112 unter Verwendung erster Sensorinformationen (z. B. LIDAR-Daten) identifiziert werden, durch den einen oder die mehreren Prozessor(en) 112 unter Verwendung zweiter Sensorinformationen (z. B. Bilddaten) verifiziert werden, die simultan mit den ersten Sensorinformationen, aber von einem anderen Sensor oder einer anderen Modalität des Perzeptionssensors, erhalten werden. In manchen Beispielen kann das System 100 den Algorithmus/die Algorithmen für maschinelles Lernen (206 aus 2) und/oder eine Baustellenwerkzeugdatenbank (210 aus 2) umfassen, um die Werkzeugeigenschaft 120 zu bestimmen, wie unten ausführlicher beschrieben.
  • In manchen Fällen kann das System 100 die Baustellenkarte 122 erstellen. Die Baustellenkarte 122 kann an der Maschine/den Maschinen 104 erzeugt werden und/oder kann an die Maschine(n) 104 von dem Fernsteuerungssystem 140 gesendet werden. Die Maschine(n) 104 können die Baustellenkarte 122 auf einer Anzeige 124 darstellen, die den Monitor 126 umfassen kann, der von der/den Maschine(n) 104 getragen wird, wie z. B. in der Kabine der Maschine(n) 104. Das Darstellen der Baustellenkarte 122 kann das Darstellen einer grafischen Benutzeroberfläche auf der Anzeige 124 beinhalten, die, unter anderem, Informationen beinhaltet, die ein Gelände der Baustelle 102, Strukturen der Baustelle 102, Maschine(n) 104 auf der Baustelle 102, angeben, Fahrwege, Fahrgeschwindigkeiten, Ausrichtungen und/oder andere Bewegungsparameter der entsprechenden Maschinen 104, das Arbeitsgerät 110 an dem zweiten Standort 118, die Grenze 128, die Werkzeugeigenschaft 120 (z. B. über ein Etikett, ein Symbol oder eine andere visuelle Kennung) und verschiedene andere Informationen in Bezug auf das System, die Baustelle 102 und/oder das Konstruktionsprojekt oder Abbauprojekt der Baustelle 102 angeben.
  • In manchen Beispielen kann das Anzeigen der Baustellenkarte 122 das Darstellen visueller Repräsentationen von Anweisungen, Standorten (z. B. GPS-Koordinaten, UTS-Koordinaten usw.) und/oder anderer Informationen beinhalten, die einen Umkreis und/oder die Grenze 128 von mindestens einem Abschnitt der Baustelle 102 identifizieren, zum Beispiel mindestens teilweise um den zweiten Standort 118 des Arbeitsgeräts 110 herum. In manchen Fällen kann sich der Lautsprecher 130 auf der Baustelle 102 befinden, wie z. B. in der Kabine der Maschine(n) 104. Der Lautsprecher 130 kann die Audioausgabe 132 erzeugen, die die Nähe der Maschine(n) 104 zu dem Arbeitsgeräts 110 angeben kann. Zum Beispiel kann der Lautsprecher 130 die Audioausgabe 132 basierend auf dem einen oder den mehreren Prozessor(en) 112 erzeugen, die erfassen, dass der erste Standort 116 der Maschine(n) die Grenze 128 gekreuzt hat oder dass die Maschine(n) 104 auf einem Fahrweg fährt, der die Grenze schneidet 128. Dementsprechend kann der Lautsprecher 130 die Audioausgabe 132 als eine Warnung erzeugen. In manchen Beispielen kann die Warnung eine visuelle Warnung sein, die einem Betreiber der Maschine(n) 104 über eine Darstellung auf der Anzeige 124 der Maschine(n) 104, die in der Kabine angeordnet ist, bereitgestellt wird. Zusätzlich oder alternativ kann der eine oder die mehreren Prozessor(en) 112 eine oder mehrere solcher Warnungen für den einen oder die mehreren Prozessor(en) 112, eine elektronische Vorrichtung, die von einem Vorarbeiter auf der Baustelle 102 verwendet wird, eine oder mehrere zusätzliche Maschinen 104 des Systems 100, die auf der Baustelle 102 angeordnet ist, und/oder beliebige andere Komponenten des Systems 100 bereitstellen, wie z. B. das Fernsteuerungssystem 140 über das Netzwerk 146. Solche Warnungen, die auf dem Erfassen des Fahrwegs (z. B. des ersten Fahrwegs 136a) basieren können, der die Grenze 128 und/oder den zweiten Standort 118 in Verbindung mit dem Arbeitsgeräts 110 kreuzt, können signalisieren und/oder verursachen, dass eine oder mehrere Maschinen 104 den Betrieb pausieren.
  • In manchen Beispielen kann der eine oder die mehreren Prozessor(en) 112 einen oder mehrere Bewegungsparameter, wie z. B. den ersten Bewegungsparameter 134a und den zweiten Bewegungsparameter 134b, abrufen, darauf zugreifen und/oder ausführen, um Bewegungen der Maschine(n) 104 auf der Baustelle 102 zu steuern. Zum Beispiel können die Bewegungsparameter Eingabewerte für den einen oder die mehreren Prozessor(en) 112 umfassen, die verursachen, dass der eine oder die mehreren Prozessor(en) die Maschine entlang eines oder mehrerer Fahrwege (z. B. erster Fahrweg 136a, zweiter Fahrweg 136b usw.) bewegen. Solche Fahrwege können eine oder mehrere teilweise oder vollständig geformte Straßen, Brücken, Schienen, Wege oder andere Oberflächen beinhalten, die durch die Oberfläche der Baustelle 102 gebildet sind und von den Konstruktions-, Abbau-, Pflasterungsmaschinen und/oder andere beispielhafte Maschinen 104, die hier beschrieben werden, befahren werden können. Anders gesagt, kann die Maschine(n) 104 konfiguriert sein, um auf mindestens einem Teil von einem oder mehreren Fahrwegen zu fahren und/oder anders zu überqueren, die auf der Oberfläche der Baustelle 102 gebildet sind, um verschiedene Aufgaben auf der Baustelle 102 durchzuführen. Zum Beispiel kann eine Maschine(n) 104 gesteuert werden (z. B. bei Ausführen des ersten Bewegungsparameters 134a), sodass sie den ersten Fahrweg 136a von einem ersten aktuellen Standort (z. B. einem ersten Standort) der Maschine(n) 104 zu einem ersten Endstandort (z. B. einem zweiten Standort) auf der Baustelle 102 durchquert. Die Maschine(n) 104 können eine Angabe empfangen, um den zweiten Bewegungsparameter 134b zu bestimmen (z. B. wie ausführlicher in Hinblick auf 3 beschrieben), und können, dementsprechend, den zweiten Fahrweg 136b von einem zweiten aktuellen Standort (z. B. einem dritten Standort) der Maschine(n) 104 zu einem zweiten Endstandort (z. B. einem vierten Standort) auf der Baustelle 102 durchqueren.
  • In manchen Beispielen kann der Sensor 106, wie z. B. der Perzeptionssensor, der von der/den Maschine(n) 104 getragen wird, mindestens Teil von einem oder mehreren Fahrwegen, die hier beschrieben werden, erfassen, und kann entsprechende Signale zu dem einen oder den mehreren Prozessor(en) 112 richten, einschließlich Sensorinformationen in Verbindung mit Abschnitten der Arbeitsoberfläche, die die entsprechenden Fahrwege definieren. In beliebigen der hier beschriebenen Beispiele kann der Standortsensor außerdem den ersten Standort 116 der Maschine(n) 104 simultan mit den Erfassungsvorgängen, die von dem Perzeptionssensor durchgeführt werden, erfassen, erkennen und/oder auf andere Weise bestimmen, und kann entsprechende Signale zu dem einen oder den mehreren Prozessor(en) 112 einschließlich Sensorinformationen, die den ersten Standort 116 der Maschine(n) 104 angeben, leiten. In manchen Beispielen kann das System 100 bestimmen, dass die Maschine(n) 104 entlang der Fahrwege, die hier beschrieben werden, sicher durchqueren dürfen, ohne Schäden an der/den Maschine(n) 104 und/oder Verletzungen an einem Betreiber der Maschine(n) 104 zu verursachen. In solchen Beispielen kann der eine oder die mehreren Prozessor(en) 112 die Maschine(n) 104 bestimmen und/oder steuern, sodass sie einen Fahrweg (z. B. ersten Fahrweg 136a, zweiten Fahrweg 136b usw.) durchqueren. In manchen Fällen kann das System 100 verursachen, dass die Maschine(n) 104 entlang eines Fahrwegs fahren, um die Effizienz der Maschine(n) 104 zu maximieren, während sie Aufgaben durchführt, die durch einen Baustellenplan definiert sind. Zum Beispiel kann der Fahrweg eine direkteste Route, eine optimale Route und/oder andere Konfigurationen umfassen, um die Zeit und Ressourcen zu minimieren, die erforderlich sind, sodass die Maschine(n) 104 von dem aktuellen Standort zu dem Endstandort fahren. In jeglichen der hier beschriebenen Beispiele kann ein oder mehrere der Fahrwege, die durch den einen oder die mehreren Prozessor(en) 112 bestimmt sind, ein Antriebssystem umfassen, das in einer Antriebs-Hüllkurve angeordnet ist. In solchen Beispielen kann sich das Antriebssystem etwa zentral durch die Antriebs-Hüllkurve erstrecken und die Antriebs-Hüllkurve kann mindestens einen Teil des Fahrwegs definieren, entlang dessen die Maschine(n) 104 fährt, um ein bestimmtes Ziel (z. B. den Endstandort) zu erreichen. Zum Beispiel kann die Antriebs-Hüllkurve, die den Fahrweg definiert, etwa so breit wie die Maschine(n) 104 sein und in manchen Beispielen kann die Antriebs-Hüllkurve und/oder ein im Wesentlichen zentrales Antriebssystem der Antriebs-Hüllkurve verwendet werden, um eine Trajektorie und/oder eine Reihe von sequentiellen Trajektorien zu bestimmen, entlang derer die Maschine(n) 104 fahren können, um den erwünschten Fahrweg zu erreichen. Jede Trajektorie der Reihe von sequentiellen Trajektorien kann durch im Wesentlichen simultanes Erzeugen einer Vielzahl von Trajektorien und Auswählen von einer der Trajektorien, die am besten in der Lage ist, den erwünschten Fahrweg zu erreichen, bestimmt werden. In solchen Beispielen können entsprechende Trajektorien und der resultierende Fahrweg, der dadurch definiert ist, durch den einen oder die mehreren Prozessor(en) 112 gemäß einer Technik des zurückweichenden Horizonts und/oder einer anderen Fahrwegerzeugungstechnik erzeugt und/oder auf andere Weise bestimmt sein. Eine solche Technik und/oder andere Fahrwegerzeugungstechniken können einen oder mehrere Algorithmen, neurale Netze, Lookup-Tabellen, dreidimensionale Karten, Vorhersagemodelle und/oder andere Komponenten verwenden, um mindestens Teil des Fahrwegs zu erzeugen. In manchen Beispielen können GPS-Koordinaten, UTS-Koordinaten und/oder andere Standortinformationen oder Koordinaten, die den aktuellen Standort der Maschine(n) 104 und den Standort des erwünschten Ziels (z. B. den Endstandort) angeben, von dem einen oder den mehreren Prozessor(en) 112 verwendet werden, um eine Reihe von Wegpunkten und/oder eine Reihe von sequentiellen Trajektorien zu erzeugen, die solchen Wegpunkten entsprechen. In solchen Beispielen kann der Fahrweg eine Sequenz von Wegpunkten und/oder Trajektorien umfassen, die von dem aktuellen Standort (z. B. dem ersten Standort 116) der Maschine(n) 104 zu dem Standort des erwünschten Ziels (z. B. dem Endstandort) führen.
  • In manchen Beispielen können, durch Erzeugen von einem oder mehreren des Fahrwegs, der hier beschrieben wird, der eine oder die mehreren Prozessor(en) 112 eine Vielzahl von sequentiellen Traj ektorien erzeugen, und jede Traj ektorie kann einen zweidimensionalen Vektor oder einen dreidimensionalen Vektor umfassen. Solche Trajektorien können lineare Trajektorien sein, die zum Beispiel, unter Verwendung eines linearen Algorithmus (z. B. Y=mX + b) oder einer Variation davon, bestimmt werden, um die Maschine(n) 104 von einem aktuellen Standort zu dem Endstandort zu leiten. Zusätzlich oder alternativ können solche Trajektorien gekrümmte Trajektorien oder andere Trajektorien sein, die unter Verwendung von einem oder mehreren entsprechenden Algorithmen bestimmt sind. Zum Beispiel kann der eine oder die mehreren Prozessor(en) 112 eine gekrümmte Trajektorie unter Verwendung eines oder mehrerer optimaler Kurvenalgorithmen (z. B. einer Polynomgleichung zweiten Grades: Y=aX2 + bX + c; einer Polynomgleichung dritten Grades: Y=aX3 + bX2 + cX + d; usw.) oder anderer Techniken erzeugen. Zusammengenommen können die oben beschriebenen sequentiellen Trajektorien einen oder mehrere der hier beschriebenen Fahrwege ausmachen (z. B. ersten Fahrweg 136a, zweiten Fahrweg 136b usw.). Ferner können in manchen Beispielen die verschiedenen Trajektorien, die durch den einen oder die mehreren Prozessor(en) 112 bestimmt sind, zulässig und/oder durch den einen oder die mehreren Prozessor(en) 112 nutzbar sein zum Steuern eines Betriebs der Maschine(n) 104 für ein bestimmtes Zeitfenster (z. B. weniger als 10 Sekunden) und/oder können in einer bestimmten Frequenz neu berechnet werden (z. B. 10 Hz, 30 Hz usw.).
  • In manchen Fällen kann das Fernsteuerungssystem 140 Informationen von der Baustelle 102 über eine oder mehrere Übertragung(en) 148 von einer oder mehreren Kommunikationsvorrichtung(en) 144 empfangen. Die Kommunikationsvorrichtung(en) 144 können eine Komponente eines drahtlosen Kommunikationssystems des Systems 100 umfassen und als Teil eines solchen drahtlosen Kommunikationssystems kann/können die Maschine(n) 104 des Systems 100 entsprechende Kommunikationsvorrichtungen 144 beinhalten. Solche Kommunikationsvorrichtungen 144 können konfiguriert sein, um eine drahtlose Übertragung einer Vielzahl von Signalen, Anweisungen und/oder Informationen (z. B. die Übertragung(en) 148) zwischen dem einen oder den mehreren Prozessor(en) 112 der Maschinen 104 und anderen einen oder mehreren Prozessor(en) 112 anderer Maschine(n) 104, des lokalen Steuerungssystems und/oder des zusätzlichen Prozessors 142 des Fernsteuerungssystems 140 zuzulassen. Solche Kommunikationsvorrichtungen 144 können außerdem konfiguriert sein, um eine Kommunikation mit anderen Maschinen und Systemen zuzulassen, die von der Baustelle 102 entfernt sind. Zum Beispiel können solche Kommunikationsvorrichtungen 144 einen Sender beinhalten, der konfiguriert ist, um Signale an einen Empfänger von einer oder mehreren anderen solchen Kommunikationsvorrichtungen 144 zu übertragen (z. B. über das Netzwerk 146). In solchen Beispielen kann jede Kommunikationsvorrichtung 144 außerdem einen Empfänger beinhalten, der konfiguriert ist, um solche Signale zu empfangen (z. B. über das Netzwerk 146). In manchen Beispielen können der Sender und der Empfänger einer bestimmten Kommunikationsvorrichtung 144 als ein Sendeempfänger oder eine andere solche Komponente kombiniert sein. Die Kommunikationsvorrichtung(en) 144 können durch die Maschine(n) 104 getragen werden und/oder können an anderen Standorten der Baustelle 102 positioniert sein, wie z. B. das lokale Steuerungssystem. In jeglichen der hier beschriebenen Beispiele können solche Kommunikationsvorrichtungen 144 außerdem Kommunikation ermöglichen (z. B. über das Fernsteuerungssystem 140 und über das Netzwerk 146) mit einem oder mehreren Tablets, Computern, Mobil-/Funktelefonen, Personal Digital Assistants, Mobilgeräten oder anderen elektronischen Vorrichtungen, die sich auf der Baustelle 102 und/oder von der Baustelle 102 entfernt befinden können. Solche elektronischen Vorrichtungen können, zum Beispiel, Mobiltelefone und/oder Tablets von Projektmanagern (z. B. Vorarbeitern) umfassen, die die täglichen Abläufe auf der Baustelle 102 beaufsichtigen.
  • Die eine oder mehreren Übertragungen 148, zum Beispiel zwischen der/den ersten Maschine(n) 104(a) und dem Fernsteuerungssystem 140, können Indikatoren des ersten Standorts 116 der Maschine(n) 104, des zweiten Standorts 118 des Arbeitsgeräts 110, der Werkzeugeigenschaften 120 in Verbindung mit dem Arbeitsgeräts 110, der Baustellenkarte 122 und/oder Kombinationen davon beinhalten. Kommunikationen zwischen der/den ersten Maschine(n) 104(a), der/den zweiten Maschine(n) 104(b) und dem Fernsteuerungssystem 140 über die eine oder mehreren Übertragungen 148 werden unten ausführlicher in Hinblick auf 3 beschrieben. In manchen Beispielen kann die Kommunikationsvorrichtung 140, zum Beispiel der ersten Maschine(n) 104(a), mit dem Fernsteuerungssystem 140 und/oder beliebigen der Komponenten des Systems 100 über ein Netzwerk 146 kommunizieren und/oder anders operabel damit verbunden sein. Das Netzwerk 146 kann ein Local Area Network („LAN“), ein größeres Netzwerk wie z. B. ein Wide Area Network („WAN“) oder eine Sammlung an Netzwerken, wie z. B. das Internet, beinhalten. Protokolle für Netzwerkkommunikation, wie z. B. TCP/IP, Internet-of-Things-Protokolle und/oder andere Kommunikationssysteme können verwendet werden, um das Netzwerk 146 zu implementieren. Obwohl Ausführungsformen hier so beschrieben werden, dass sie das Netzwerk 146 wie z. B. das Internet verwenden, können andere Verteiltechniken implementiert sein, die Informationen über Speicherkarten, Flash-Speicher oder andere tragbare Speichervorrichtungen übertragen.
  • In manchen Beispielen kann sich das Fernsteuerungssystem 140 an einer Schaltzentrale entfernt von der Baustelle 102 befinden und der eine oder die mehreren Prozessor(en) 112 und/oder die eine oder mehreren Komponenten eines Steuerungssystems können sich auf der Baustelle 102 befinden, wie z. B. an einem lokalen Steuerungssystem. Unabhängig von dem Standort der verschiedenen Komponenten des Fernsteuerungssystems 140 und/oder des lokalen Steuerungssystems können solche Komponenten konfiguriert sein, um Kommunikationen zwischen der/den Maschine(n) 104 (z. B. 104(a), 104(b)...104(n)) des Systems 100 zu vereinfachen und diesen Informationen bereitzustellen. In beliebigen der hier beschriebenen Beispielen kann die Funktionalität des einen oder der mehreren Prozessor(en) 112 verteilt sein, sodass bestimmte Vorgänge auf der Baustelle 102 durchgeführt werden und andere Vorgänge entfernt durchgeführt werden (z. B. an dem Fernsteuerungssystem 140). Es wird verstanden, dass der eine oder die mehreren Prozessor(en) 112 eine Komponente des Systems 100, eine Komponente von einer oder mehreren der Maschinen 104, die auf der Baustelle 102 angeordnet sind, eine Komponente eines separaten Mobilgeräts (z. B. ein Mobiltelefon, ein Tablet, einen Laptop usw.) und/oder das Fernsteuerungssystem 140 umfassen können.
  • Das Netzwerk 146, die Kommunikationsvorrichtungen 148 und/oder andere Komponenten des drahtlosen Kommunikationssystems, das oben beschrieben wird, können jedes erwünschte System oder Protokoll implementieren, einschließlich jeglicher einer Vielzahl von Kommunikationsstandards. Die erwünschten Protokolle werden eine Kommunikation zwischen dem einen oder den mehreren Prozessor(en) 112, einer oder mehreren der Kommunikationsvorrichtungen 144 und/oder beliebigen Maschinen 104 oder Komponenten des Systems 100 zulassen. Beispiele für drahtlose Kommunikationssysteme oder Protokolle, die von dem hier beschriebenen System 100 verwendet werden können, beinhalten ein Wireless Personal Area Network wie z. B. Bluetooth RTM (z. B. IEEE 802.15), ein Local Area Network wie z. B. IEEE 802.11b oder 802.11g, ein Mobilfunknetz oder ein beliebiges anderes System oder Protokoll zur Datenübertragung. Andere drahtlose Kommunikationssysteme und Konfigurationen werden erwogen. In manchen Fällen können drahtlose Kommunikationen direkt zwischen dem Fernsteuerungssystem 140 und der/den Maschine(n) 104 (z. B. einer Pflastermaschine, einem Muldenkipper usw.) des Systems 100 oder zwischen solchen Maschinen 104 übertragen und empfangen werden. In anderen Fällen können die Kommunikationen automatisch geroutet werden, ohne dass eine Neuübertragung durch entfernte Mitarbeiter benötigt wird.
  • 2 veranschaulicht Aspekte des beispielhaften Systems 100, das oben beschrieben wird, im Hinblick auf 1 ausführlicher. Unter Bezugnahme auf 2 kann ein Beispiel von System 100 mindestens eine der Maschine(n) 104 (z. B. die erste Maschine 104a, die zweite Maschine 104b usw.), das Arbeitsgerät 110 und den Sensor 106 zum Empfangen der Bildinformationen 108 von dem Arbeitsgeräts 110 beinhalten. In manchen Beispielen können die Bildinformationen 108 einen oder mehrere Rahmen von Bilddaten beinhalten (z. B. gesammelt durch eine Kamera), wie z. B. einen ersten Rahmen 200a und einen zweiten Rahmen 200b.
  • In manchen Beispielen kann der erste Rahmen 200a einem ersten Zeitstempel 202a zugeordnet sein. Der erste Zeitstempel 202a kann eine Zeit angeben, zu der der erste Rahmen 200a erzeugt wird, zum Beispiel durch den Sensor 106, und/oder an dem einen oder den mehreren Prozessor(en) 112 empfangen wird. Der erste Rahmen 200a kann Daten, die das Arbeitsgerät 110 darstellen, und, in manchen Fällen, Daten beinhalten, die eine Hintergrundkennzeichnung 204 darstellen. Zum Beispiel kann der eine oder die mehreren Prozessor(en) 112 bestimmen, dass ein Abschnitt der Bildinformationen 108, umfassend den ersten Rahmen 200a, ein Hintergrundobjekt darstellt (z. B. einen Baum, einen Teil eines Gebäudes, eine stationäre Maschine oder ein beliebiges anderes Objekt, das im Kontrast gegen das Arbeitsgerät 110 steht und/oder hinter dem Arbeitsgerät 110 relativ zu der/den Maschine(n) 104 positioniert ist), und kann dem Hintergrundobjekt eine Markierung zuweisen und/oder diese speichern, die das Hintergrundobjekt als die Hintergrundkennzeichnung 204 identifiziert. Bei der Bestimmung der Hintergrundkennzeichnung 204 und Identifizierung des Arbeitsgeräts 110 als in dem ersten Rahmen 200a dargestellt, kann der eine oder die mehreren Prozessor(en) 112 einen ersten Abstandswert D1 zwischen dem Arbeitsgerät 110 (z. B. einer Kante des Arbeitsgeräts 110 und/oder einem im Wesentlichen Mittelpunkt des Arbeitsgeräts 110) und der Hintergrundkennzeichnung 204 (z. B. einer Kante der Hintergrundkennzeichnung 204 und/oder einem im Wesentlichen Mittelpunkt der Hintergrundkennzeichnung 204) bestimmen.
  • In manchen Beispielen kann der zweite Rahmen 200b einem zweiten Zeitstempel 202b zugeordnet sein. Der zweite Zeitstempel 202b kann eine Zeit angeben, zu der der zweite Rahmen 200b erzeugt wird, zum Beispiel durch den Sensor 106, und/oder an dem einen oder den mehreren Prozessor(en) 112 empfangen wird. Der zweite Zeitstempel 200b kann eine Zeit nach dem ersten Zeitstempel 200a angeben (z. B. mit einem Zeitunterschied in der Größenordnung von Millisekunden, Sekunden oder Minuten). Der zweite Rahmen 200b kann Daten, die das Arbeitsgerät 110 darstellen, und, in manchen Fällen, Daten beinhalten, die die Hintergrundkennzeichnung 204 darstellen. Zum Beispiel kann der eine oder die mehreren Prozessor(en) 112 auf die Markierung zugreifen und/oder diese empfangen, die das Hintergrundobjekt als die Hintergrundkennzeichnung 204 in dem ersten Rahmen 200a identifiziert. Bei der Identifizierung der Hintergrundkennzeichnung 204 (z. B. über die Markierung) und des Arbeitsgeräts 110 als in dem zweiten Rahmen 200a dargestellt, kann der eine oder die mehreren Prozessor(en) 112 einen zweiten Abstandswert D2 zwischen dem Arbeitsgerät 110 (z. B. der Kante des Arbeitsgeräts 110 und/oder dem im Wesentlichen Mittelpunkt des Arbeitsgeräts 11) und der Hintergrundkennzeichnung 204 (z. B. der Kante der Hintergrundkennzeichnung 204 und/oder dem im Wesentlichen Mittelpunkt der Hintergrundkennzeichnung 204) bestimmen. Der eine oder die mehreren Prozessor(en) 112 können eine Differenz DDiff zwischen dem ersten Abstandswert D1 und dem zweiten Abstandswert D2 bestimmen (z. B. berechnen). Basierend mindestens teilweise auf der Differenz DDiff und einer Bestimmung einer Fahrdistanz, die die Maschine(n) 104 zwischen dem Empfangen des ersten Rahmens 200a und des zweiten Rahmens 200b fuhren, kann der eine oder die mehreren Prozessor(en) 112 eine oder mehrere trigonometrische Funktionen ausführen, um einen Trennabstand zwischen dem Arbeitsgerät 110 und der/den Maschine(n) 104 zu berechnen. Basierend mindestens teilweise auf dem Trennabstand und dem ersten Standort 116 der Maschine(n) 104 kann der eine oder die mehreren Prozessor(en) 112 den zweiten Standort 118 (1) des Arbeitsgeräts 110 bestimmen.
  • In manchen Beispielen kann das System 100 einen Algorithmus oder mehrere Algorithmen für maschinelles Lernen 206 beinhalten, die Bildverarbeitung und/oder Erkennungsvorgänge durchführen können. In manchen Beispielen kann der Algorithmus/die Algorithmen für maschinelles Lernen 206 an Maschine(n) 104 gespeichert und/oder ausgeführt werden, zum Beispiel durch den einen oder die mehreren Prozessor(en) 112, die von der/den Maschine(n) 104 getragen werden. Der Algorithmus/die Algorithmen für maschinelles Lernen 206 können, in manchen Fällen, bestimmen, ob, basierend auf den Bildinformationen 108, eine oder mehrere Werkzeugeigenschaften 120 mit einem zugeordneten Konfidenzintervall identifiziert werden können, der einen vorbestimmten Schwellenwert erfüllt. Ein solcher vorbestimmter Schwellenwert kann, zum Beispiel, einen Längenschwellenwert in Verbindung mit einer Länge von einem oder mehreren bekannten Arbeitsgeräten, einen Breitenschwellenwert in Verbindung mit einer Breite von einem oder mehreren bekannten Arbeitsgeräten, einen Höhenschwellenwert in Verbindung mit einer Höhe von einem oder mehreren bekannten Arbeitsgeräten, einem Oberflächenfarbenschwellenwert in Verbindung mit gespeicherten Farbdaten in Verbindung mit einem oder mehreren bekannten Arbeitsgeräten, einen Formschwellenwert in Verbindung mit einer Form von einem oder mehreren bekannten Arbeitsgeräten und/oder einem anderen solchen Schwellenwert oder einer Kombination davon umfassen. In solchen Beispielen kann das Bestimmen, dass ein oder mehrere Konfidenzintervalle in Verbindung mit der Werkzeugeigenschaftsbestimmung den zugeordneten Schwellenwert erfüllen, das Bestimmen beinhalten, dass die Konfidenzintervalle in Verbindung mit einer oder mehreren Werkzeugeigenschaften 120, identifiziert aus den Bildinformationen 108, Werte umfassen, die weniger als oder gleich wie der zugeordnete vorbestimmte Schwellenwert sind.
  • Das System 100 kann einen Trainingsdatensatz 208 beinhalten, der von dem Algorithmus/den Algorithmen für maschinelles Lernen 206 verwendet wird, um, zum Beispiel, Verbesserungen einer Fähigkeit des Algorithmus/der Algorithmen für maschinelles Lernen 206 zu erzeugen, um bestimmte Werkzeugeigenschaften 120 aus den Bildinformationen 108 zu identifizieren. In manchen Beispielen können die Trainingsdaten 208 an einer Maschine(n) 104 gespeichert und/oder von der/den Maschine(n) 104 durch den Algorithmus/die Algorithmen für maschinelles Lernen 206 abgerufen werden. Der Trainingsdatensatz 208 kann zuvor gespeicherte Bildinformationen beinhalten, die zum Beispiel von anderen der einen oder mehreren Maschinen 104 gesammelt und oder gespeichert wurden. Der Trainingsdatensatz 208 kann Bilder beinhalten, die von dem Arbeitsgerät 110 aus mehreren verschiedenen Winkeln, unter unterschiedlichen Lichtbedingungen und/oder teilweise blockiert gesammelt wurden. In manchen Fällen kann der Trainingsdatensatz 208 eine Vielzahl von Bilddateien umfassen, die große Datendateien mit mehreren Megabyte oder Gigabyte sein können. In manchen Beispielen kann der Trainingsdatensatz 208 an der/den Maschine(n) 104 und/oder auf der Baustelle 102 gespeichert und/oder verarbeitet werden, anstatt große Datendateien an Fernsteuerungssystem 140 zu übertragen. In manchen Fällen kann der Algorithmus/die Algorithmen für maschinelles Lernen 206 einen oder mehrere Bildidentifikationsvorgänge an der/den Maschine(n) 104 und/oder auf der Baustelle 102 durchführen, anstatt große Datendateien an Fernsteuerungssystem 140 zu übertragen.
  • In manchen Fällen kann das System 100, beim Bestimmen der Werkzeugeigenschaft 120 und/oder Bestimmen, dass der Konfidenzintervall in Verbindung mit der Werkzeugeigenschaft 120 größer als der vorbestimmte Schwellenwert ist, der eine oder die mehreren Prozessor(en) 112 bestimmen, ob die Werkzeugeigenschaft 120 in einer Baustellenwerkzeugdatenbank 210 gespeichert ist. Die Werkzeugeigenschaft 120 kann eine oder mehrere einer Arbeitsgerätekennung 212a, eines Arbeitsgerätemodells 212b, einer Arbeitsgeräteart 212c, eines Arbeitsgerätegewichts 212d, einer Arbeitsgeräteabmessung 212e, einer Arbeitsgerätehistorie 212f, einer Länge, einer Breite, einer Höhe, einer Tiefe, eines Volumens, einer Ausrichtung, einer Farbe, einer Textur, einer Zusammensetzung, einer Strahlungsemission oder Kombinationen davon umfassen. In manchen Beispielen kann die Werkzeugeigenschaft 120 bestimmt werden basierend auf einer Struktur oder einer Strukturkennung des Arbeitsgeräts 110, zum Beispiel erzeugt aus einem Herstellungsprozess des Arbeitsgeräts 110, wie z. B. eine geformte Struktur, eine gegossene Struktur und/oder eindeutige Identifizierung von Verschleißmustern der geformten Struktur oder gegossenen Struktur. In manchen Beispielen kann die Werkzeugeigenschaft 120 basierend auf einer symbolischen Kennung bestimmt werden, die gestanzt, geätzt, geprägt, gedruckt oder in anderer Weise auf eine Außenfläche des Arbeitsgeräts 110 angeordnet wurde, wie z. B. eine Reihe an Buchstaben oder Zahlen, ein QR-Code, ein Strichcode, ein Logo usw.
  • Die Werkzeugeigenschaft 120 kann die Arbeitsgerätekennung 212a umfassen, die ein bestimmtes Arbeitsgerät 110 angibt, zum Beispiel basierend auf einer symbolischen Kennung (z. B. einer Zahl oder ein Etikett) und/oder einer strukturellen Kennung (z. B. ein bestimmtes Verschleißmuster oder ein einzigartiges strukturelles Merkmal), die ein einzigartiges Arbeitsgerät 110 (z. B. „Grabenbagger hinterer Löffel #0032“ oder „Sally“) des einen oder der mehreren Arbeitsgeräte 110 auf der Baustelle 102 angibt. In manchen Fällen kann die Werkzeugeigenschaft 120 das Arbeitsgerätemodell 212b umfassen, das ein Produktmodell des Arbeitsgeräts 110 angibt (z. B. „300 MM (12in) hinterer Pin-Lock-Grabenbagger-Löffel“). In manchen Beispielen kann die Werkzeugeigenschaft 120 die Arbeitsgeräteart 212c umfassen, die eine Kategorie des Arbeitsgeräts 110 angibt (z. B. „Beladen“, „Fördern“, „Graben“, „Löffel“, „Kupplung“, „Gabel“ usw.). In manchen Beispielen kann die Werkzeugeigenschaft 120 das Arbeitsgerätegewicht 212d umfassen, das ein Gewicht des Arbeitsgeräts 110 angibt (z. B. „249,1 US-Pfund (lbs.)“). In manchen Beispielen kann die Werkzeugeigenschaft 120 die Arbeitsgeräteabmessung 212e umfassen, die eine Höhe, Breite, Länge oder einen anderen Aspekt einer Form des Arbeitsgeräts 110 angibt (z. B. „Breite: 12 Zoll“). In manchen Beispielen kann die Werkzeugeigenschaft 120 die Arbeitsgerätehistorie 212f umfassen, die einen oder mehrere vorherige Vorgänge und oder Standorte des Arbeitsgeräts 110 angibt, wie z. B. eine Nutzungsdauer (z. B. „48,9 Stunden“), bestimmte Nutzungsstandorte auf der Baustelle (z. B. „Baustellen #1, #2, #3, #5, #8“), eine bestimmte Menge einer bestimmten Art der Nutzung (z. B. „130 Fuß Grabenaushebung“ oder „3,82 Kubikmeter getragener Beton“), vorherige Nutzungen der Maschine (z. B. „befestigt an Grabenbagger #04, befestigt an Grabenbagger #6“), vorherige Daten oder Zeiten der Nutzung (z. B. „25.03.2019, 13:14:02“) und/oder Kombinationen davon. In manchen Fällen kann die Werkzeugeigenschaft 120 über ein Fehlen, eine Auslassung oder eine andere Abwesenheit jeglicher elektronischen Komponenten bestimmt werden, die an dem Arbeitsgerät 110 befestigt sind, zum Bestimmen und/oder Übertragen von Informationen, die mit dem zweiten Standort 118 des Arbeitsgeräts 110 und/oder der Werkzeugeigenschaft 120 des Arbeitsgeräts 110 in Verbindung stehen, sodass das Arbeitsgerät 110 als „elektroniklos“ oder „kommunikationslos“ bezeichnet werden kann. In anderen Beispielen kann das Arbeitsgerät 110 Kommunikations-bezogene Elektronik (z. b. Wi-Fi, Bluetooth, RFID usw.) zum Kommunizieren mit dem einen oder den mehreren Prozessor(en) 112 beinhalten.
  • In manchen Beispielen kann die Baustellenwerkzeugdatenbank 210 auf einer computerlesbaren Speichervorrichtung, die von der/den Maschine(n) 104 getragen wird, einer computerlesbaren Speichervorrichtung an einem anderen Standort auf der Baustelle 102 (z. B. auf dem lokalen Steuerungssystem auf der Baustelle 102) und/oder auf dem Fernsteuerungssystem 140 gespeichert werden. Die Baustellenwerkzeugdatenbank 210 kann einen oder mehrere Indikatoren von einem oder mehreren Arbeitsgeräten 110 und/oder eine oder mehrere Werkzeugeigenschaften 120 des einen oder der mehreren Arbeitsgeräte 110 auf der Baustelle 102 speichern. Zum Beispiel kann die Baustellenwerkzeugdatenbank 210 Informationen von einem Baustellenplan empfangen, die Inventurinformationen von Arbeitsgeräten 110 angeben, die zum Beispiel von einer Baufirma oder Abbaufirma geplant sind, die für das Projekt auf der Baustelle 102 verwendet werden sollen. Die Baustellenwerkzeugdatenbank 210 kann aktualisierte Informationen empfangen, wenn Arbeitsgeräte 110 zu der Baustelle 102 gebracht werden, und können eine Nachweisführung von Arbeitsgeräten 110 und/oder entsprechenden Werkzeugeigenschaften 120 der Arbeitsgeräte 110 bereitstellen, die vorhanden sind oder von denen erwartet wird, dass sie auf der Baustelle 102 vorhanden sind. In manchen Fällen kann der eine oder die mehreren Prozessor(en) 112 bestimmen, ob die Werkzeugeigenschaft 120, bestimmt mindestens teilweise aus den Bildinformationen 108, Informationen entspricht, die auf der Baustellenwerkzeugdatenbank 210 gespeichert werden. Zum Beispiel, beim Bestimmen, dass die Arbeitsgerätekennung 212a „Grabenbagger hinterer Löffel #0032“ beinhaltet, kann der eine oder die mehreren Prozessor(en) 112 auf Informationen von der Baustellenwerkzeugdatenbank 210 zugreifen oder diese empfangen, um zu bestimmen, ob die Arbeitsgerätekennung 212a „Grabenbagger hinterer Löffel #0032“ in der Baustellenwerkzeugdatenbank 210 gespeichert ist, zur Verifizierung, dass erwartet wird, dass das Arbeitsgerät 110 in Verbindung mit der Arbeitsgerätekennung 212a „Grabenbagger hinterer Löffel #0032“ auf der Baustelle 102 vorhanden ist. Das Bestimmen, dass die Werkzeugeigenschaft 120 in der Baustellenwerkzeugdatenbank 210 gespeichert ist, kann verursachen, dass der eine oder die mehreren Prozessor(en) den Konfidenzintervall in Verbindung mit der Bestimmung der Werkzeugeigenschaft 120 erhöht.
  • In manchen Fällen kann der Sensor 106 eine oder mehrere Kamera umfassen, wie z. B. eine erste Kamera 214a und eine zweite Kamera 214b. Die erste Kamera 214a kann erste Bildinformationen 216a von dem Arbeitsgerät 110 empfangen und die zweite Kamera 214b kann zweite Bildinformationen 216b von dem Arbeitsgerät 110 empfangen. In manchen Fällen kann das System 100 die Bildinformationen 108 von zwei oder mehreren Kameras empfangen, wie z. B. der ersten Kamera 214a und der zweiten Kamera 214b, sodass das System eine oder mehrere Techniken zur Bestimmung der Parallaxe durchführen kann. Das System 100 kann einen Unterschied 218 zwischen den ersten Bildinformationen 216a und den zweiten Bildinformationen 216b bestimmen, ähnlich wie die Technik, die oben hinsichtlich des ersten Rahmens 200a und des zweiten Rahmens 200b besprochen wird. Jedoch, anstatt den Trennabstand basierend auf der Fahrdistanz der Maschine(n) 104 zu bestimmen, kann der eine oder die mehreren Prozessor(en) 112 den Trennabstand basierend auf der Abstandsdifferenz zwischen der ersten Kamera 214a und der zweiten Kamera 214b bestimmen. In manchen Fällen kann ein Winkel in Verbindung mit der ersten Kamera 214a und/oder die Abstandsdifferenz zwischen der ersten Kamera 214a und der zweiten Kamera 214b den ersten Bildinformationen 216a zugeordnet werden, die an der ersten Kamera 214a empfangen werden. Ähnlich kann das System 100 den Winkel in Verbindung mit der zweiten Kamera 214b und/oder die Abstandsdifferenz zwischen der ersten Kamera 214a und der zweiten Kamera 214b, die den zweiten Bildinformationen 216b zugeordnet sind, bestimmen. Zusätzlich kann der eine oder die mehreren Prozessor(en) 112 auf diese Informationen zugreifen, zum Beispiel über den Algorithmus/die Algorithmen für maschinelles Lernen 206, um eine hochauflösende zweidimensionale oder dreidimensionale Eingabe zum Identifizieren des Arbeitsgeräts 110 und/oder Bestimmen der Werkzeugeigenschaft 120 aus den ersten Bildinformationen 216a und den zweiten Bildinformationen 216b zu erreichen.
  • 3 veranschaulicht Aspekte des beispielhaften Systems 100, das oben beschrieben wird, im Hinblick auf 1 ausführlicher. Unter Bezugnahme auf 3 kann ein Beispiel von System 100 mindestens eine oder mehrere Maschine(n) 104 (z. B. die erste Maschine 104a, die zweite Maschine 104b usw.), das Arbeitsgerät 110 und das Fernsteuerungssystem 140 beinhalten, zum Beispiel, um Flottenverwaltungsvorgänge der Maschine(n) 104 und der Baustelle 102 durchzuführen. Die Übertragung(en) 148 können drahtlose Datenpakete von der Kommunikationsvorrichtung 144 (z. B. von der/den Maschine(n) 104 getragen) umfassen und Indikatoren, die in der/den Übertragung(en) 144 beinhaltet sind, können Daten umfassen, die Informationen darstellen, die auf der Baustelle 102 gesammelt oder erzeugt werden (z. B. durch den einen oder die mehreren Prozessor(en) 112). Die Übertragung(en) 148 können drahtlose Datenpakete umfassen, die an die Kommunikationsvorrichtung 138 von dem Fernsteuerungssystem 140 gesendet werden, die Indikatoren von Informationen beinhalten können, die in dem Fernsteuerungssystem 140 gespeichert und/oder erzeugt werden, wie z. B. Indikatoren des zweiten Standorts 118 des Arbeitsgeräts 110 und/oder Anweisungen, einen Fahrweg der Maschine(n) 104 von dem ersten Fahrweg 136a zu dem zweiten Fahrweg 136b zu verändern, wie unten ausführlicher beschrieben.
  • Das Fernsteuerungssystem 140 kann Informationen empfangen, die von der Baustelle 102 und von mehreren anderen Baustellen übertragen werden, wie z. B. von der/den Maschine(n) 104 und/oder von dem lokalen Steuerungssystem. Die erste(n) Maschine(n) 104a können an das Fernsteuerungssystem 140 eine Übertragung 148 einschließlich eines ersten Indikators 300a, der den zweiten Standort 118 des Arbeitsgeräts 110 darstellt, und eines zweiten Indikators 300b, der die Werkzeugeigenschaft 120 des Arbeitsgeräts 110 darstellt, senden. Das Fernsteuerungssystem 140 kann den ersten Indikator 300a und den zweiten Indikator 300b und/oder Daten, die von dem ersten Indikator 300a und dem zweiten Indikator 300b stammen, an einer Datenbank des Fernsteuerungssystems 140 empfangen und speichern.
  • In manchen Beispielen kann das Fernsteuerungssystem 140 einen dritten Indikator 300c, der den zweiten Standort 118 angibt, zum Beispiel an die zweite(n) Maschine(n) 104b senden, basierend mindestens teilweise auf dem Empfangen des ersten Indikators 300a und/oder des zweiten Indikators 300b. Das Fernsteuerungssystem 140 kann den dritten Indikator 300c basierend mindestens teilweise auf dem Empfangen von Standortinformationen oder Fahrweginformationen in Verbindung mit der/den zweiten Maschine(n) 104b und dem Bestimmen, dass der zweite Standort 118, der durch den ersten Indikator 300a dargestellt wird, in einem vorbestimmten Schwellenwert-Abstandswert von einem Standort oder einem Fahrweg der zweiten Maschine(n) 104(b) ist, senden. In manchen Fällen kann das Fernsteuerungssystem 140 den dritten Indikator 300c basierend mindestens teilweise auf dem Bestimmen, dass die zweite(n) Maschine(n) 104b einen Abstand 302 von der/den ersten Maschine(n) 104a entfernt ist und/oder dass der Abstand 302 weniger als ein vorbestimmter Schwellenwert 304 ist, der in der Datenbank des Fernsteuerungssystems 140 gespeichert sein kann, senden. In manchen Beispielen kann die zweite(n) Maschine(n) 104b den dritten Indikator 300c empfangen und kann, über den/die Prozessor(en) 112, den zweiten Bewegungsparameter 134b ausführen, der in dem dritten Indikator 300c beinhaltet sein kann, sodass die zweite Maschine 104b entlang des zweiten Fahrwegs 136b fährt, der anders als der erste Fahrweg 136a sein kann und außerhalb des vorbestimmten Schwellenwerts 304 sein kann.
  • In manchen Beispielen kann das Fernsteuerungssystem 140 einen vierten Indikator 300d von der/den zweiten Maschine(n) 104b, von einer weiteren Maschine auf der Baustelle 102, von dem lokalen Steuerungssystem der Baustelle 102, von einem weiteren Fernsteuerungssystem oder von Kombinationen davon empfangen. Zum Beispiel kann die zweite(n) Maschine(n) 104b den zweiten Standort 118 des Arbeitsgeräts 118 in manchen Fällen unabhängig von der/den ersten Maschine(n) 104a bestimmen, die den zweiten Standort 118 bestimmen. Die zweite(n) Maschine(n) 104b (oder eine weitere Maschine) können die Übertragung 148 erzeugen und an das Fernsteuerungssystem 140 einschließlich des vierten Indikators 300d des zweiten Standorts 118, erzeugt an der/den zweiten Maschine(n) 104b, senden. In manchen Fällen kann das Fernsteuerungssystem 140 einen Durchschnitt 306 basierend auf dem ersten Indikator 300a des zweiten Standorts 118 und des vierten Indikators 300d des zweiten Standorts 118 erzeugen, zum Beispiel, um eine höhere Genauigkeitsbestimmung des zweiten Standorts 118 des Arbeitsgeräts 110 zu erzeugen. Der Durchschnitt 306 kann auf zusätzlichen Indikatoren des zweiten Standorts 118 basieren, zum Beispiel aus mehreren Maschinen, zusätzlich zu dem ersten Indikator 300a und dem vierten Indikator 300c. Der dritte Indikator 300c des zweiten Standorts 118, der von dem Fernsteuerungssystem 140 gesendet wird, kann auf dem Durchschnitt 306 basieren. In manchen Beispielen kann der dritte Indikator 300c an die erste(n) Maschine(n) 104a zusätzlich oder alternativ zu der/den zweiten Maschine(n) 104b gesendet werden. Der dritte Indikator 300c kann an eine beliebige Anzahl von Maschinen 104 auf der Baustelle 102 oder auf anderen Baustellen gesendet werden.
  • 4 veranschaulicht ein Flussdiagramm, das ein beispielhaftes Verfahren 400 in Verbindung mit dem System 100 darstellt. Das beispielhafte Verfahren 400 ist als eine Sammlung von Schritten in einem logischen Flussdiagramm veranschaulicht, die Vorgänge darstellen, die in Hardware, Software oder einer Kombination davon implementiert werden können. In dem Kontext von Software stellen die Schritte von Computern ausführbare Anweisungen dar, die im Speicher gespeichert sind. Solche Anweisungen können durch den einen oder die mehreren Prozessor(en) 112 (z. B. auf der Baustelle 102 und/oder getragen von der/den Maschine(n) 104), den zusätzlichen Prozessor 142 des Fernsteuerungssystems 140 und/oder andere Komponenten des Systems 100 ausgeführt werden, um die genannten Vorgänge durchzuführen. Solche von Computern ausführbare Anweisungen können Routinen, Programme, Objekte, Komponenten, Datenstrukturen und dergleichen beinhalten, die bestimmte Funktionen erfüllen oder bestimmte abstrakte Datentypen implementieren. Die Reihenfolge, in der die Vorgänge beschrieben werden, soll nicht als eine Beschränkung verstanden werden, und eine beliebige Anzahl der beschriebenen Schritte kann in jeder beliebigen Reihenfolge und/oder parallel kombiniert werden, um den Prozess zu implementieren. Zu Diskussionszwecken, und sofern nicht anders angegeben, wird das Verfahren 400 mit Bezug auf das System 100, die Baustelle 102, die eine oder mehreren Maschine(n) 104 (z. B. die erste(n) Maschine(n) 104(a), die zweite(n) Maschine(n) 104b usw.), den Sensor 106, die Bildinformationen 108, das Arbeitsgerät 110, den einen oder die mehreren Prozessor(en) 112 und oder andere Elemente beschrieben, die in 1-3 gezeigt sind. Insbesondere, obwohl jeder Teil von und/oder das gesamte Verfahren 400 durch den einen oder die mehreren Prozessor(en) 112, eine oder mehrere Steuerung(en) 104, den zusätzlichen Prozessor 142 des Fernrechensystems 140 und/oder andere Komponenten des Systems 100, entweder allein oder in Kombination, durchgeführt werden kann, sofern nicht anders angegeben, wird das Verfahren 400 unten in Bezug auf den einen oder die mehreren Prozessor(en) 112 beschrieben, zur Vereinfachung der Beschreibung.
  • Mit Bezug auf 4, bei 402, kann ein oder mehrere Prozessoren Bildinformationen 108 empfangen, die einen oder mehrere Datenframes (z. B. Video-Frames, die bei etwa 30 Bildern pro Sekunde erfasst werden können) umfassen können, wie z. B. den ersten Frame 200a und den zweiten Frame 200b. Die Bildinformationen 108 können Audioinformationen umfassen, die über SONAR bestimmt sein können, und/oder die Bildinformationen 108 können Informationen umfassen, die durch LIDAR bestimmt sind. Die Bildinformationen 108 können von dem Sensor 106 empfangen werden, der von der/den ersten Maschine(n) 104(a), von der/den zweiten Maschine(n) 104(b) oder von einer anderen Maschine getragen werden kann. Die Bildinformationen 108 können durch den Sensor 106 empfangen werden, der an einem festen Standort befestigt sein kann, wie z. B. einem Lichtmast, einem Zaun, einer Gebäudewand usw.
  • Bei 404 kann ein oder mehrere Prozessor(en) eine Identität eines Arbeitsgeräts bestimmen. Zum Beispiel kann der eine oder die mehreren Prozessor(en) 112 das Arbeitsgerät 110 basierend mindestens teilweise auf dem Empfangen der Bildinformationen 108 identifizieren. Das Identifizieren des Arbeitsgeräts 110 kann das Bestimmen der Werkzeugeigenschaft 120 beinhalten, wie z. B. der Arbeitsgerätekennung 212a, des Arbeitsgerätemodells 212b, der Arbeitsgeräteart 212c, des Arbeitsgerätegewichts 212d, der Arbeitsgeräteabmessung 212e, der Arbeitsgerätehistorie 212f, Kombinationen davon usw. In manchen Fällen kann der Algorithmus oder die mehreren Algorithmen für maschinelles Lernen 206 Bildverarbeitung und/oder Erkennungsvorgänge durchführen. Der Algorithmus/die Algorithmen für maschinelles Lernen 206 kann an Maschine(n) 104 gespeichert und/oder ausgeführt werden, zum Beispiel durch den einen oder die mehreren Prozessor(en) 112, die von der/den Maschine(n) 104 getragen werden. Der Algorithmus/die Algorithmen für maschinelles Lernen 206 kann die Bildinformationen 108 mit Informationen basierend auf dem Trainingsdatensatz 208 vergleichen, um die Werkzeugeigenschaft 120 zu bestimmen und/oder das Arbeitsgerät 110 zu identifizieren.
  • Bei 406 kann ein oder mehrere Prozessor(en) einen Konfidenzintervall bestimmen. Zum Beispiel können Berechnungen, die von dem einen oder den mehreren Prozessor(en) 112 (z. B. über den Algorithmus/die Algorithmen für maschinelles Lernen 206) durchgeführt werden, um die Werkzeugeigenschaft 120 aus den Bildinformationen 108 zu bestimmen, statistische Berechnungen umfassen, die einen Konfidenzintervall in Verbindung mit den Ergebnissen der statistischen Berechnungen beinhalten. Zum Beispiel kann ein Konfidenzintervall von 99 % eine 99%-ige Sicherheit hinsichtlich der Bestimmung der Werkzeugeigenschaft 120 angeben.
  • Bei 408 kann ein oder mehreren Prozessor(en) bestimmen, ob (z. B. falls) ein Konfidenzintervall größer als ein vorbestimmter Schwellenwert ist. Zum Beispiel kann der eine oder die mehreren Prozessor(en) 112 den vorbestimmten Schwellenwert aus einer Datenbank an der/den Maschine(n) 104, auf der Baustelle 102 und/oder an dem Fernsteuerungssystem 140 empfangen. Der vorbestimmte Schwellenwert kann mit einer bestimmten Bildverarbeitungstechnik verbunden sein, zum Beispiel durchgeführt durch den Algorithmus/die Algorithmen für maschinelles Lernen 206. Der eine oder die mehreren Prozessor(en) 112 können die Werkzeugeigenschaft 120 basierend mindestens teilweise auf dem Vergleich des Konfidenzintervalls mit dem vorbestimmten Schwellenwert bestimmen, um zu bestimmen, ob der Konfidenzintervall größer als der vorbestimmte Schwellenwert oder kleiner als der vorbestimmte Schwellenwert ist. Zum Beispiel kann der eine oder die mehreren Prozessor(en) 112 die Werkzeugeigenschaft 120 basierend auf dem Bestimmen, dass der Konfidenzintervall größer als der vorbestimmte Schwellenwert ist, bestimmen.
  • Bei 410 kann ein oder mehreren Prozessor(en) bestimmen, ob (z. B. falls) eine Werkzeugeigenschaft auf der Baustellenwerkzeugdatenbank gespeichert ist. Zum Beispiel kann die Baustellenwerkzeugdatenbank 210 auf einer computerlesbaren Speichervorrichtung, die von der/den Maschine(n) 104 getragen wird, einer computerlesbaren Speichervorrichtung an einem anderen Standort auf der Baustelle 102 (z. B. auf einem lokalen Steuerungssystem auf der Baustelle 102) und/oder auf dem Fernsteuerungssystem 140 gespeichert werden. Die Baustellenwerkzeugdatenbank 210 kann einen oder mehrere Indikatoren von einem oder mehreren Arbeitsgeräten 110 und/oder eine oder mehrere Werkzeugeigenschaften 120 des einen oder der mehreren Arbeitsgeräte 110 auf der Baustelle 102 speichern. Zum Beispiel kann die Baustellenwerkzeugdatenbank 210 Informationen von einem Baustellenplan empfangen, die Inventurinformationen von Arbeitsgeräten 110 angeben, die zum Beispiel von einer Baufirma oder Abbaufirma geplant sind, die für das Projekt auf der Baustelle 102 verwendet werden sollen. Die Baustellenwerkzeugdatenbank 210 kann aktualisierte Informationen empfangen, wenn Arbeitsgeräte 110 zu der Baustelle 102 gebracht werden, und können eine Nachweisführung von Arbeitsgeräten 110 und/oder entsprechenden Werkzeugeigenschaften 120 der Arbeitsgeräte 110 bereitstellen, die vorhanden sind oder von denen erwartet wird, dass sie auf der Baustelle 102 vorhanden sind. In manchen Fällen kann der eine oder die mehreren Prozessor(en) 112 bestimmen, ob die Werkzeugeigenschaft 120, bestimmt mindestens teilweise aus den Bildinformationen 108, Informationen entspricht, die auf der Baustellenwerkzeugdatenbank 210 gespeichert werden. Zum Beispiel, beim Bestimmen, dass die Arbeitsgerätekennung 212a „Grabenbagger hinterer Löffel #0032“ beinhaltet, kann der eine oder die mehreren Prozessor(en) 112 auf Informationen von der Baustellenwerkzeugdatenbank 210 zugreifen oder diese empfangen, um zu bestimmen, ob die Arbeitsgerätekennung 212a „Grabenbagger hinterer Löffel #0032“ in der Baustellenwerkzeugdatenbank 210 gespeichert ist, zur Verifizierung, dass erwartet wird, dass das Arbeitsgerät 110 in Verbindung mit der Arbeitsgerätekennung 212 „Grabenbagger hinterer Löffel #0032“ auf der Baustelle 102 vorhanden ist. Das Bestimmen, dass die Werkzeugeigenschaft 120 in der Baustellenwerkzeugdatenbank 210 gespeichert ist, kann verursachen, dass der eine oder die mehreren Prozessor(en) den Konfidenzintervall in Verbindung mit der Werkzeugeigenschaft 120 erhöht.
  • Bei 412 kann ein oder mehrere Prozessor(en) einen Standort bestimmen. Zum Beispiel kann der eine oder die mehreren Prozessor(en) 112 einen oder mehrere Vorgänge ausführen, um den zweiten Standort 118 des Arbeitsgeräts 110 basierend mindestens teilweise auf dem Empfang der Bildinformationen 108 und/oder den ersten Standort 116 der Maschine(n) 104 zu bestimmen. Bei der Bestimmung, in Schritt 412 Standortbestimmungsvorgänge auszuführen, kann der eine oder die mehreren Prozessor(en) 112 in manchen Beispielen Schritte 414-420 durchführen.
  • Bei 414 kann ein oder mehrere Prozessor(en) Standortinformationen empfangen. Zum Beispiel kann der eine oder die mehreren Prozessor(en) 112 die Bildinformationen 108 empfangen, die den ersten Rahmen 200a und den zweiten Rahmen 200b beinhalten. In manchen Beispielen kann der erste Frame 200a mit dem ersten Zeitstempel 202a verbunden sein, der eine Zeit angibt, zu der der erste Rahmen 200a erzeugt wird, zum Beispiel durch den Sensor 106, und/oder an dem einen oder den mehreren Prozessor(en) 112 empfangen wird. Der erste Rahmen 200a kann Daten, die das Arbeitsgerät 110 darstellen, und, in manchen Fällen, Daten beinhalten, die die Hintergrundkennzeichnung 204 darstellen. Zum Beispiel kann der eine oder die mehreren Prozessor(en) 112 bestimmen, dass ein Abschnitt der Bildinformationen 108, umfassend den ersten Rahmen 200a, ein Hintergrundobjekt darstellt (z. B. einen Baum, einen Teil eines Gebäudes, eine stationäre Maschine oder ein beliebiges anderes Objekt, das im Kontrast gegen das Arbeitsgerät 110 steht und/oder hinter dem Arbeitsgerät 110 relativ zu der/den Maschine(n) 104 positioniert ist), und kann dem Hintergrundobjekt eine Markierung zuweisen und diese speichern, die das Hintergrundobjekt als die Hintergrundkennzeichnung 204 identifiziert.
  • Bei 416 kann ein oder mehrere Prozessor(en) einen ersten Abstandswert bestimmen. Zum Beispiel bei der Bestimmung der Hintergrundkennzeichnung 204 und Identifizierung des Arbeitsgeräts 110 als in dem ersten Rahmen 200a dargestellt, kann der eine oder die mehreren Prozessor(en) 112 den ersten Abstandswert D1 zwischen dem Arbeitsgerät 110 (z. B. der Kante des Arbeitsgeräts 110 und/oder dem im Wesentlichen Mittelpunkt des Arbeitsgeräts 110) und der Hintergrundkennzeichnung 204 (z. B. der Kante der Hintergrundkennzeichnung 204 und/oder dem im Wesentlichen Mittelpunkt der Hintergrundkennzeichnung 204) bestimmen.
  • Bei 418 kann ein oder mehrere Prozessor(en) einen zweiten Abstandswert bestimmen. Zum Beispiel kann der zweite Frame 200b in Verbindung mit dem zweiten Zeitstempel 202b, der die Zeit nach dem ersten Zeitstempel 200a angibt, Daten beinhalten, die das Arbeitsgeräts 110 und, in manchen Fällen, Daten, die die Hintergrundkennzeichnung 204 darstellen. Zum Beispiel kann der eine oder die mehreren Prozessor(en) 112 auf die Markierung zugreifen und/oder diese empfangen, die das Hintergrundobjekt als die Hintergrundkennzeichnung 204 in dem ersten Rahmen 200a identifiziert. Bei der Identifizierung der Hintergrundkennzeichnung 204 und des Arbeitsgeräts 110 als in dem zweiten Rahmen 200a dargestellt, kann der eine oder die mehreren Prozessor(en) 112 den zweiten Abstandswert D2 zwischen dem Arbeitsgerät 110 (z. B. der Kante des Arbeitsgeräts 110 und/oder dem im Wesentlichen Mittelpunkt des Arbeitsgeräts 11) und der Hintergrundkennzeichnung 204 (z. B. der Kante der Hintergrundkennzeichnung 204 und/oder dem im Wesentlichen Mittelpunkt der Hintergrundkennzeichnung 204) bestimmen.
  • Bei 420 kann der eine oder die mehreren Prozessor(en) eine Differenz zwischen dem ersten Abstandswert und dem zweiten Abstandswert bestimmen. Zum Beispiel kann der eine oder die mehreren Prozessor(en) 112 die Differenz DDiff zwischen dem ersten Abstandswert D1 und dem zweiten Abstandswert D2 bestimmen (z. B. berechnen). Basierend mindestens teilweise auf der Differenz DDiff und einer Bestimmung einer Fahrdistanz, die die Maschine(n) 104 zwischen dem Empfangen des ersten Rahmens 200a und des zweiten Rahmens 200b fuhren, kann der eine oder die mehreren Prozessor(en) 112 eine oder mehrere trigonometrische Funktionen ausführen, um einen Trennabstand zwischen dem Arbeitsgerät 110 und der/den Maschine(n) 104 zu berechnen. Basierend mindestens teilweise auf dem Trennabstand und dem ersten Standort 116 der Maschine(n) 104 kann der eine oder die mehreren Prozessor(en) 112 den zweiten Standort 118 des Arbeitsgeräts 110 bestimmen (z. B. Schritt 412).
  • Bei 422 kann ein oder mehrere Prozessor(en) eine Baustellenkarte bestimmen. Zum Beispiel kann der eine oder die mehreren Prozessor(en) 112 die Baustellenkarte 122 erzeugen, die zum Beispiel das Arbeitsgerät 110 über die Werkzeugeigenschaft 120 (z. B. die Arbeitsgerätekennung 212a) identifiziert, und den zweiten Standort 118 des Arbeitsgeräts 110 auf der Baustelle 102 angibt.
  • Bei 424 kann ein oder mehrere Prozessor(en) eine graphische Darstellung anzeigen. Zum Beispiel kann der eine oder die mehreren Prozessor(en) 112 die Baustellenkarte 120 auf der Anzeige 124 anzeigen, die von der/den Maschine(n) 104 getragen wird und/oder sich auf der Baustelle 102 befindet. Die Baustellenkarte 120 kann die visuelle Darstellung der Grenze 128 beinhalten, die mindestens teilweise um den zweiten Standort 118 herum positioniert ist.
  • Bei Schritt 426 kann ein oder mehrere Prozessor(en) eine Audioausgabe erzeugen. Zum Beispiel kann der eine oder die mehreren Prozessor(en) 112 den Lautsprecher 130 steuern, der sich auf der Baustelle 102 befindet und/oder von der/den Maschine(n) 104 getragen wird. Der eine oder die mehreren Prozessor(en) 112 können verursachen, dass der Lautsprecher 130 die Audioausgabe 132 erzeugt, mindestens teilweise basierend auf den Bildinformationen 108, und die mindestens die Nähe der Maschine(n) 104 zu dem zweiten Standort 118 des Arbeitsgeräts 110 angibt.
  • Bei 428 kann ein oder mehrere Prozessor(en) einen ersten Bewegungsparameter bestimmen. Zum Beispiel kann der eine oder die mehreren Prozessor(en) 112 den ersten Bewegungsparameter 134a bestimmen, der verursachen kann, dass die Maschine(n) 104 entlang des ersten Fahrwegs 136a auf der Baustelle 102 fahren.
  • Bei 430 kann ein oder mehrere Prozessor(en) einen zweiten Bewegungsparameter bestimmen. Zum Beispiel kann der eine oder die mehreren Prozessor(en) 112 den zweiten Bewegungsparameter 134b mindestens teilweise basierend auf dem Empfangen der Bildinformationen 108 (z. B. bei Schritt 402), dem Bestimmen des zweiten Standorts 118 (z. B. bei Schritten 412-420) und/oder dem Erzeugen der Baustellenkarte 122 (z. B. an Schritt 422) bestimmen. Das Bestimmen des zweiten Bewegungsparameters 134b kann verursachen, dass die Maschine(n) 104 entlang eines zweiten Fahrwegs 136b fahren, der anders als der erste Fahrweg 136a sein kann, zum Beispiel, um eine Kollision der Maschine(n) 104 mit dem Arbeitsgerät 110 zu vermeiden.
  • 5 veranschaulicht ein Flussdiagramm, das ein beispielhaftes Verfahren 500 in Verbindung mit dem System 100 darstellt. Das beispielhafte Verfahren 500 ist als eine Sammlung von Schritten in einem logischen Flussdiagramm veranschaulicht, die Vorgänge darstellen, die in Hardware, Software oder einer Kombination davon implementiert werden können. In dem Kontext von Software stellen die Schritte von Computern ausführbare Anweisungen dar, die im Speicher gespeichert sind. Solche Anweisungen können, zum Beispiel, durch einen oder mehrere Prozessor(en) 112 (z. B. auf der Baustelle 102 und/oder getragen von der/den Maschine(n) 104), den zusätzlichen Prozessor 142 des Fernsteuerungssystems 140 und/oder andere Komponenten des Systems 100 ausgeführt werden, um die genannten Vorgänge durchzuführen. Solche von Computern ausführbare Anweisungen können Routinen, Programme, Objekte, Komponenten, Datenstrukturen und dergleichen beinhalten, die bestimmte Funktionen erfüllen oder bestimmte abstrakte Datentypen implementieren. Die Reihenfolge, in der die Vorgänge beschrieben werden, soll nicht als eine Beschränkung verstanden werden, und eine beliebige Anzahl der beschriebenen Schritte kann in jeder beliebigen Reihenfolge und/oder parallel kombiniert werden, um den Prozess zu implementieren. Jegliche der Schritte des Verfahrens 500 können einen Teil des Verfahrens 400 bilden und jegliche der Schritte des Verfahrens 400 können einen Teil des Verfahrens 500 bilden. Zu Diskussionszwecken, und sofern nicht anders angegeben, wird das Verfahren 400 mit Bezug auf das System 100, die Baustelle 102, die eine oder mehreren Maschine(n) 104 (z. B. die erste(n) Maschine(n) 104(a), die zweite(n) Maschine(n) 104b usw.), den Sensor 106, die Bildinformationen 108, das Arbeitsgerät 110, den einen oder die mehreren Prozessor(en) 112 und oder andere Elemente beschrieben, die in 1-3 gezeigt sind. Insbesondere, obwohl jeder Teil von und/oder das gesamte Verfahren 500 durch den einen oder die mehreren Prozessor(en) 112, eine oder mehrere Steuerung(en) 104, den zusätzlichen Prozessor 142 des Fernrechensystems 140 und/oder andere Komponenten des Systems 100, entweder allein oder in Kombination, durchgeführt werden kann, sofern nicht anders angegeben, wird das Verfahren 500 unten in Bezug auf den einen oder die mehreren Prozessor(en) 112 beschrieben, zur Vereinfachung der Beschreibung.
  • Mit Bezug auf 5 bei 502 kann ein oder mehrere Prozessoren einen ersten Indikator für einen Standort empfangen. Zum Beispiel kann die erste(n) Maschine(n) 104a an das Fernsteuerungssystem 140 die Übertragung 148 einschließlich des ersten Indikators 300a senden, der den zweiten Standort 118 des Arbeitsgeräts 110 angibt. Das Fernsteuerungssystem 140 kann den ersten Indikator 300a in der Datenbank des Fernsteuerungssystems 140 empfangen und speichern.
  • Bei 504 kann ein oder mehrere Prozessoren einen zweiten Indikator für den Standort empfangen. Zum Beispiel kann der eine oder mehrere Prozessor(en) 112 den vierten Indikator 300d von der/den zweiten Maschine(n) 104b, von einer weiteren Maschine auf der Baustelle 102, von dem lokalen Steuerungssystem der Baustelle 102, von dem Fernsteuerungssystem 140, von einem weiteren Fernsteuerungssystem oder von Kombinationen davon empfangen. Zum Beispiel kann die zweite(n) Maschine(n) 104b den zweiten Standort 118 des Arbeitsgeräts 118 an der/den zweiten Maschine(n) 104b und, in manchen Fällen, unabhängig von der/den ersten Maschine(n) 104a, bestimmen, die den zweiten Standort 118 bestimmen. Die zweite(n) Maschine(n) 104b (oder eine weitere Maschine) können die Übertragung 148 erzeugen und an das Fernsteuerungssystem 140 einschließlich des vierten Indikators 300d des zweiten Standorts 118, erzeugt an der/den zweiten Maschine(n) 104b, senden.
  • Bei 506 kann der eine oder die mehreren Prozessor(en) einen Durchschnitt basierend mindestens teilweise auf dem ersten Indikator und dem zweiten Indikator bestimmen. Zum Beispiel kann das Fernsteuerungssystem 140 den Durchschnitt 306 basierend auf dem ersten Indikator 300a des zweiten Standorts 118 und des vierten Indikators 300d des zweiten Standorts 118 erzeugen, zum Beispiel, um eine höhere Genauigkeitsbestimmung des zweiten Standorts 118 des Arbeitsgeräts 110 zu erzeugen. Der Durchschnitt 306 kann auf zusätzlichen Indikatoren des zweiten Standorts 118 basieren, zum Beispiel aus mehreren Maschinen, zusätzlich zu dem ersten Indikator 300a und dem vierten Indikator 300c.
  • Bei 508 kann ein oder mehrere Prozessor(en) einen Konfidenzintervall in Verbindung mit dem Durchschnitt bestimmen. Zum Beispiel, beim Bestimmen des Durchschnitts 306, kann der eine oder mehrere Prozessor(en) 112 einen Konfidenzintervall in Verbindung mit dem Durchschnitt 306 bestimmen, wie z. B. basierend auf einer Standardabweichung einer Gauß-Verteilung in Verbindung mit dem Durchschnitt 306.
  • Bei 510 kann ein oder mehreren Prozessor(en) bestimmen, ob (z. B. falls) der Konfidenzintervall größer als ein vorbestimmter Schwellenwert ist. Zum Beispiel kann das System 100 den Konfidenzintervall in Verbindung mit einem Grad an Sicherheit, dass Standortinformationen, die von mehreren Quellen (z. B. Maschine(n) 104) gesammelt werden, ausreichend genau sind, speichern, um sie an Maschine(n) 104 auf der Baustelle 102 wiederholt zu übertragen. Dementsprechend kann der eine oder die mehreren Prozessor(en) den Konfidenzintervall (z. B. erzeugen bei Schritt 508) mit dem vorbestimmten Schwellenwert vergleichen, zum Beispiel, um zu bestimmen, ob der vierte Indikator von Schritt 518 gesendet wird.
  • Bei 512 kann ein oder mehrere Prozessoren einen dritten Indikator für eine Werkzeugeigenschaft empfangen. Zum Beispiel kann die Übertragung 148 von der/den ersten Maschine(n) 104a des ersten Indikators 300a außerdem den zweiten Indikator 300b der Werkzeugeigenschaft 120 des Arbeitsgeräts beinhalten, zum Beispiel, wie durch den einen oder die mehreren Prozessor(en) 112 an der/den Maschine(n) 104 und/oder auf der Baustelle 102 bestimmt. In manchen Beispielen kann der zweite Indikator 300b für die Werkzeugeigenschaft 120 in einer anderen Übertragung 148 als der erste Indikator 300a empfangen werden.
  • Bei 514 kann ein oder mehrere Prozessor(en) einen Abstand bestimmen. Zum Beispiel kann der eine oder die mehreren Prozessor(en) 112 bestimmen, dass der erste Standort 116 der ersten Maschine(n) 104a um den Abstand entfernt 302 von der/den zweiten Maschine(n) 104b ist. In manchen Beispielen kann der eine oder die mehreren Prozessor(en) 112 einen Abstand zwischen dem zweiten Standort 118 des Arbeitsgeräts 110 und einem Fahrweg der zweiten Maschine(n) 104b (z. B. Fahrweg 136a) bestimmen.
  • Bei 516 kann ein oder mehreren Prozessor(en) bestimmen, ob der Abstand kleiner als ein vorbestimmter Schwellenwert ist. Zum Beispiel kann der vorbestimmte Schwellenwert ein Wert sein, der auf der Baustelle 102 (z. B. an der/den Maschine(n) 104 und/oder in dem lokalen Steuerungssystem) und/oder in dem Fernsteuerungssystem 140 gespeichert wird. Der eine oder die mehreren Prozessor(en) 112 können den vorbestimmten Schwellenwert empfangen und den Abstand (z. B. den Abstand 302, der in Schritt 514 bestimmt ist) mit dem vorbestimmten Schwellenwert vergleichen, um zu bestimmen, ob der Abstand größer oder kleiner als der vorbestimmte Schwellenwert ist.
  • Bei 518 kann ein oder mehrere Prozessoren einen vierten Indikator für den Standort empfangen. Zum Beispiel kann der zusätzliche Prozessor 142 der Fernrechenvorrichtung 140 den dritten Indikator 300c, der den zweiten Standort 118 angibt, erzeugen und/oder an die zweite(n) Maschine(n) 104b senden. Das Fernsteuerungssystem 140 kann bestimmen, den dritten Indikator 300c, der den zweiten Standort 118 angibt, an die zweite(n) Maschine(n) 104b zu senden, basierend mindestens teilweise auf dem Empfangen des ersten Indikators 300a und/oder des zweiten Indikators 300b. Zum Beispiel kann das Fernsteuerungssystem 140 den dritten Indikator 300c basierend mindestens teilweise auf dem Empfangen von Standortinformationen oder Fahrweginformationen in Verbindung mit der/den zweiten Maschine(n) 104b und dem Bestimmen, dass der zweite Standort 118, der durch den ersten Indikator 300a dargestellt wird, in einem vorbestimmten Schwellenwert-Abstandswert von einem Standort oder einem Fahrweg der zweiten Maschine(n) 104(b) ist, senden. In manchen Fällen kann das Fernsteuerungssystem 140 den dritten Indikator 300c basierend mindestens teilweise auf dem Bestimmen, dass die zweite(n) Maschine(n) 104b den Abstand 302 von der/den ersten Maschine(n) 104a entfernt ist, und/oder dass der Abstand 302 weniger als der vorbestimmte Schwellenwert 304 ist, der in der Datenbank des Fernsteuerungssystems 140 gespeichert ist, senden. Der dritte Indikator 300c des zweiten Standorts 118, der von dem Fernsteuerungssystem 140 gesendet wird, kann auf dem Durchschnitt 306 basieren. In manchen Beispielen kann der dritte Indikator 300c an die erste(n) Maschine(n) 104a zusätzlich oder alternativ zu der/den zweiten Maschine(n) 104b gesendet werden. Der dritte Indikator 300c kann an eine beliebige Anzahl von Maschinen 104 auf der Baustelle 102 oder auf anderen Baustellen gesendet werden.
  • Gewerbliche Anwendbarkeit
  • Die vorliegende Offenbarung beschreibt Systeme und Verfahren zum Steuern verschiedener Maschinen, Sensoren und/oder anderer Komponenten des Systems 100, das auf der Baustelle 102 eingesetzt wird. Solche Systeme und Verfahren können, in manchen Beispielen, verwendet werden, um Aktivitäten der einen oder mehreren Maschine(n) 104 und anderer Komponenten des Systems 100 während Aushub, Abbau, Konstruktion, Pflastern und/oder anderen Vorgängen auf der Baustelle 102, die das eine oder die mehreren Arbeitsgeräte 110 verwenden, effizienter zu koordinieren. Die hier offenbarten Systeme und Verfahren können, in manchen Beispielen, dabei helfen, Standorte von Arbeitsgeräten 110 für verbesserte Sicherheit (z. B., um Kollisionen zwischen Arbeitsgerät(en) 110 und Maschine(n) 104 zu vermeiden, zum Beispiel, die autonom arbeiten können), betriebliche Effizienz (z. B. durch Bestimmen der kürzesten optimalen Fahrwege basierend mindestens teilweise auf den Standorten, wie z. B. dem zweiten Standort 118 von einem oder mehreren Arbeitsgerät(en) 110) und eine Nachweisführung des Inventars (z. B. durch Bereitstellen einer aktualisierten Baustellenwerkzeugdatenbank 210) zu verwalten.
  • Des Weiteren können hier besprochene Systeme und Verfahren die offenbarten Vorteile für eine große Vielfalt an Arbeitsgeräten 110 bereitstellen, die elektroniklos oder kommunikationslos sein können. Zum Beispiel können die Systeme und Verfahren eine oder mehrere Werkzeugeigenschaften 120 (z. B. die Arbeitsgerätekennung 212a) über den Sensor 106 bestimmen, wie z. B. eine oder mehrere Kamera, die auf das Arbeitsgerät 110 gerichtet sein können. Der Sensor 106 kann die Werkzeugeigenschaft 120 basierend auf Licht (sichtbares Licht, natürliches Sonnenlicht, temporäre Baustellenbeleuchtung usw.), das von der Oberfläche 138 des Arbeitsgeräts 110 reflektiert, bestimmen. Daher kann das Arbeitsgerät 110 spezialisierte Elektronik- oder Kommunikationskomponenten weglassen, die an dem Arbeitsgerät 110 angeordnet sind zum Kommunizieren mit anderen Komponenten des Systems 100 (z. B. der eine oder die mehreren Prozessor(en) 112), da die Form selbst des Arbeitsgeräts 110 ausreichende Informationen bereitstellen kann, zum Beispiel über das Licht, das von der Oberfläche 138 reflektiert, um die Werkzeugeigenschaft 120 zu bestimmen.
  • Folglich können die Systeme und Verfahren der vorliegenden Offenbarung dabei helfen, die Zeit und Ressourcen zu verringern, die erforderlich sind, um die Werkzeugeigenschaft 120 (z. B. Identität) und den zweiten Standort 118 des Arbeitsgeräts zu bestimmen, wodurch die Effizienz des Systems 100 verbessert wird. Die Systeme und Verfahren können zusätzliche Flexibilität bereitstellen, um Arbeitsgeräte 110 zu der Baustelle 102 hinzuzufügen und von dort zu entfernen, ohne die Installation von zusätzlichen elektronischen Komponenten oder Kommunikationskomponenten an dem Arbeitsgerät 110 zu erfordern. Die Systeme und Verfahren der vorliegenden Offenbarung können außerdem das Risiko für Schäden an der einen oder den mehreren Maschine(n) 104 und/oder Arbeitsgeräten 110 des Systems 100 während des Betriebs durch Verringern des Risikos für Kollisionen und das Verbessern der Sicherheit verringern. Folglich können die Systeme und Verfahren der vorliegenden Offenbarung Ausfallzeiten verringern, Produktivität des Systems 100 erhöhen und Ausgaben in Verbindung mit Reparaturen an der/den Maschine(n) 104 und dem Arbeitsgerät 110 minimieren.
  • Während Aspekte der vorliegenden Offenbarung mit Bezug auf die oben stehenden Ausführungsformen bestimmt gezeigt und beschrieben wurden, wird von einer Fachperson verstanden, dass verschiedene zusätzliche Ausführungsformen durch die Modifikation der offenbarten Maschinen, Systeme und Verfahren erwogen werden können, ohne von der Idee und dem Anwendungsbereich des Offenbarten abzuweichen. Solche Ausführungsformen sollten so verstanden werden, dass sie in den Anwendungsbereich der vorliegenden Offenbarung fallen, wie basierend auf den Ansprüchen und jeglichen Äquivalenten davon bestimmt.

Claims (15)

  1. Verfahren (400), umfassend: Empfangen von Bildinformationen (216a, 216b) mit einem oder mehreren Prozessor(en) (112) und von einem Sensor (106), der von einer Maschine (104) getragen wird, die auf einer Baustelle (102) angeordnet ist; Bestimmen einer Identität eines Arbeitsgeräts (110), das auf der Baustelle (102) angeordnet ist, basierend mindestens teilweise auf den Bildinformationen (216a, 216b); Empfangen von Standortinformationen (114) mit dem einen oder den mehreren Prozessor(en) (112), wobei die Standortinformationen (114) einen ersten Standort (116) des Sensors (106) auf der Baustelle (102) angeben; Bestimmen eines zweiten Standorts (118) des Arbeitsgeräts (110) auf der Baustelle (102) basierend mindestens teilweise auf den Standortinformationen (114); Erzeugen einer Baustellenkarte (122) mit dem einen oder den mehreren Prozessor(en) (112), wobei die Baustellenkarte (122) das Arbeitsgerät (110) identifiziert und den zweiten Standort (118) des Arbeitsgeräts (110) auf der Baustelle (102) angibt; und mindestens eines aus Bereitstellen der Baustellenkarte (122) für einen zusätzlichen Prozessor (142) und Verursachen, dass die Baustellenkarte (122) über eine Anzeige (124) dargestellt wird.
  2. Verfahren (400) nach Anspruch 1, wobei die Maschine (104) eine erste Maschine (104a) umfasst und wobei das Verursachen, dass die Baustellenkarte (122) dargestellt wird, das Anzeigen der Baustellenkarte (122) auf einem Monitor, der von einer zweiten Maschine (104b) getragen wird, umfasst, und ferner umfassend das Verursachen, dass ein Lautsprecher (130), der von der zweiten Maschine (104b) getragen wird, eine Audioausgabe (132) erzeugt, die den zweiten Standort (118) des Arbeitsgeräts (110) angibt.
  3. Verfahren (400) nach Anspruch 1, ferner umfassend: Verursachen, mit dem einen oder den mehreren Prozessor(en) (112), dass die Maschine (104) entlang eines ersten Wegs (136a) fährt, basierend mindestens teilweise auf einem ersten Bewegungsparameter (134a); Bestimmen eines zweiten Bewegungsparameters (134b), basierend mindestens teilweise auf dem Bestimmen des zweiten Standorts (118) des Arbeitsgeräts (110) auf der Baustelle (102); und Verursachen, mit dem einen oder den mehreren Prozessor(en) (112), dass die Maschine (104) entlang eines zweiten Wegs (136b) fährt, der anders als der erste Weg (136a) ist, basierend mindestens teilweise auf dem zweiten Bewegungsparameter (134b).
  4. Verfahren (400) nach Anspruch 1, ferner umfassend das Bestimmen, mit dem einen oder den mehreren Prozessor(en) (112) und basierend mindestens teilweise auf den Bildinformationen (216a, 216b), einer Werkzeugeigenschaft (120) in Verbindung mit dem Arbeitsgerät (110), und wobei das Verursachen, dass die Baustellenkarte (122) dargestellt wird, das Ausgeben von mindestens einem aus einer graphischen Darstellung oder einer Audioausgabe (132) der Werkzeugeigenschaft (120) beinhaltet.
  5. Verfahren (400) nach Anspruch 1, wobei die Maschine (104) eine erste Maschine (104a) umfasst, und ferner umfassend: Bestimmen, mit dem einen oder den mehreren Prozessor(en) (112), dass eine zweite Maschine (104b) auf einem ersten Weg (136a) fährt, der in einem vorbestimmten Schwellenwertabstand (304) des zweiten Standorts (118) ist; und Senden, an die zweite Maschine (104b), mit dem einen oder den mehreren Prozessor(en) (112) und basierend mindestens teilweise auf dem Bestimmen, dass die zweite Maschine (104b) auf dem ersten Weg (136a) fährt, der in dem vorbestimmten Schwellenwertabstand (304) des zweiten Standorts (118) ist, eines Indikators, der den zweiten Standort (118) des Arbeitsgeräts (110) identifiziert, wobei der Indikator ausgeführt werden kann, um zu verursachen, dass die zweite Maschine (104b) auf einem zweiten Weg (136b) fährt, der anders als der erste Weg (136a) ist.
  6. Verfahren (400) nach Anspruch 5, wobei der zweite Weg (136b) außerhalb des vorbestimmten Schwellenwertabstands (304) des zweiten Standorts (118) ist.
  7. Verfahren (400) nach Anspruch 5, wobei sich die zweite Maschine (104b) einen Abstand entfernt (302) von der ersten Maschine (104a) befindet und das Senden des Indikators, mindestens teilweise, darauf basiert, dass der Abstand (302) kleiner als ein vorbestimmter Schwellenwert (304) ist.
  8. Verfahren (400) nach Anspruch 5, wobei der Indikator einen ersten Indikator umfasst, und ferner umfassend das Empfangen, von einer dritten Maschine, die anders als die erste Maschine (104a) ist, eines zweiten Indikators des zweiten Standorts (118), und wobei der erste Indikator mindestens einen Durchschnitt (306) basierend auf den Standortinformationen (114) und dem zweiten Indikator darstellt.
  9. System (100), umfassend: eine Maschine (104), die angepasst ist, um Vorgänge auf einer Baustelle (102) durchzuführen; einen Sensor (106), der angepasst ist, um Bildinformationen (216a, 216b) in Verbindung mit der Baustelle (102) zu bestimmen; und einen oder mehrere Prozessor(en) (112), die angepasst sind zum: Bestimmen einer Werkzeugeigenschaft (120) in Verbindung mit einem Arbeitsgerät (110), das auf der Baustelle (102) angeordnet ist, basierend mindestens teilweise auf den Bildinformationen (216a, 216b); Bestimmen eines ersten Standorts (118) in Verbindung mit dem Arbeitsgerät (110) basierend mindestens teilweise auf einem zweiten Standort (116) der Maschine (104); Erzeugen einer Baustellenkarte (122), die das Arbeitsgerät (110) identifiziert und den ersten Standort (118) in Verbindung mit dem Arbeitsgerät (110) angibt; und mindestens einem aus Bereitstellen der Baustellenkarte (122) für einen zusätzlichen Prozessor (142) und Verursachen, dass die Baustellenkarte (122) über eine Anzeige (124) dargestellt wird.
  10. System (100) nach Anspruch 9, wobei die Bildinformationen (216a, 216b) einen ersten Frame (200a) in Verbindung mit einem ersten Zeitstempel (202a) und einen zweiten Frame (200b) in Verbindung mit einem zweiten Zeitstempel (202b) beinhalten, der anders als der erste Zeitstempel (202a) ist, und wobei das Bestimmen des ersten Standorts (118) Folgendes umfasst: Bestimmen, basierend mindestens teilweise auf dem ersten Frame (200a), eines ersten Abstandwerts (D1) in Verbindung mit dem Arbeitsgerät (110) und einer Hintergrundkennzeichnung (204); Bestimmen, basierend mindestens teilweise auf dem zweiten Frame (200b), eines zweiten Abstandwerts (D2) in Verbindung mit dem Arbeitsgerät (110) und der Hintergrundkennzeichnung (204); und Bestimmen einer Differenz (DDiff) zwischen dem ersten Abstandswert (D1) und dem zweiten Abstandswert (D2).
  11. System (100) nach Anspruch 9, wobei der eine oder die mehreren Prozessor(en) (112) angepasst sind, um Folgendes zu bestimmen: den ersten Standort (118) basierend mindestens teilweise auf einem Fahrweg (136a) der Maschine (104); oder die Werkzeugeigenschaft (120) basierend mindestens teilweise auf: einem Algorithmus für maschinelles Lernen (206), der an der Maschine (104) ausgeführt werden kann, wobei der Algorithmus für maschinelles Lernen (206) konfiguriert ist, um einen Konfidenzintervall in Verbindung mit der Werkzeugeigenschaft (120) basierend mindestens teilweise auf einem Trainingsdatensatz (208), der an der Maschine (104) gespeichert ist, zu bestimmen.
  12. System (100) nach Anspruch 9, wobei der eine oder die mehreren Prozessor(en) (112) ferner für Folgendes angepasst sind: Bestimmen, dass die Werkzeugeigenschaft (120) in einer Baustellenwerkzeugdatenbank (210) gespeichert ist, wobei die Baustellenwerkzeugdatenbank (210) Informationen speichert, die ein oder mehrere Arbeitsgeräte (110) angeben, die auf der Baustelle (102) vorhanden sind.
  13. System (100) nach Anspruch 9, wobei die Werkzeugeigenschaft (120) mindestens eines aus einer Arbeitsgerätekennung (212a), eines Arbeitsgerätemodells (212b), einer Arbeitsgeräteart (212c), eines Arbeitsgerätegewichts (212d), einer Arbeitsgeräteabmessung (212e) oder einer Arbeitsgerätehistorie (212f) umfasst.
  14. System (100) nach Anspruch 9, wobei der Sensor (106) eine erste Kamera (214a) umfasst, die von der Maschine (104) getragen wird, und die Bildinformationen erste Bildinformationen (216a) umfassen, wobei das System (100) ferner eine zweite Kamera (214b) umfasst, die von der Maschine (104) getragen wird, wobei Bestimmen des ersten Standorts (118) das Bestimmen einer Differenz (218) zwischen den ersten Bildinformationen (216a) und zweiten Bildinformationen (216b), bestimmt durch die zweite Kamera (214b), beinhaltet.
  15. System (100) nach Anspruch 9, wobei die Bildinformationen (216a, 216b) von einer Oberfläche (138) des Arbeitsgeräts (110) reflektieren.
DE112020002774.0T 2019-07-01 2020-06-24 System und verfahren zum verwalten von werkzeug auf einer baustelle Pending DE112020002774T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/459,381 2019-07-01
US16/459,381 US11200523B2 (en) 2019-07-01 2019-07-01 System and method for managing tools at a worksite
PCT/US2020/039226 WO2021003042A1 (en) 2019-07-01 2020-06-24 System and method for managing tools at a worksite

Publications (1)

Publication Number Publication Date
DE112020002774T5 true DE112020002774T5 (de) 2022-03-03

Family

ID=74066776

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112020002774.0T Pending DE112020002774T5 (de) 2019-07-01 2020-06-24 System und verfahren zum verwalten von werkzeug auf einer baustelle

Country Status (6)

Country Link
US (1) US11200523B2 (de)
CN (1) CN114026581A (de)
AU (1) AU2020299301A1 (de)
CA (1) CA3144082A1 (de)
DE (1) DE112020002774T5 (de)
WO (1) WO2021003042A1 (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11454713B2 (en) * 2020-02-04 2022-09-27 Caterpillar Inc. Configuration of a LIDAR sensor scan area according to a cycle segment of an operation of a machine
US11718972B2 (en) * 2020-06-03 2023-08-08 Deere & Company Image-based attachment identification and position detection
US20220259822A1 (en) * 2021-02-18 2022-08-18 Caterpillar Inc. Automated Mobilization of Mobile Machines
US11921492B2 (en) * 2021-03-30 2024-03-05 Mitsubishi Electric Research Laboratories, Inc. Transfer between tasks in different domains
CN113312777A (zh) * 2021-06-03 2021-08-27 广东博智林机器人有限公司 施工工作面的检查方法、装置、电子设备及存储介质
US11346086B1 (en) * 2021-06-25 2022-05-31 Built Robotics Inc. Machine learning for optimizing tool path planning in autonomous earth moving vehicles
US11346080B1 (en) * 2021-06-25 2022-05-31 Built Robotics Inc. Online machine learning for determining soil parameters

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5612864A (en) 1995-06-20 1997-03-18 Caterpillar Inc. Apparatus and method for determining the position of a work implement
US7865285B2 (en) 2006-12-27 2011-01-04 Caterpillar Inc Machine control system and method
US8238612B2 (en) * 2008-05-06 2012-08-07 Honeywell International Inc. Method and apparatus for vision based motion determination
US7911379B2 (en) 2008-08-18 2011-03-22 Trimble Navigation Limited Construction equipment component location tracking
US20120249342A1 (en) * 2011-03-31 2012-10-04 Koehrsen Craig L Machine display system
US20130113929A1 (en) 2011-11-08 2013-05-09 Mary Maitland DeLAND Systems and methods for surgical procedure safety
US10083483B2 (en) * 2013-01-09 2018-09-25 Bank Of America Corporation Actionable exception alerts
US9449397B2 (en) * 2014-10-15 2016-09-20 Caterpillar Inc. Real-time visual odometry system for determining motion of a machine with a range detection unit
US9685009B2 (en) * 2015-04-01 2017-06-20 Caterpillar Inc. System and method for managing mixed fleet worksites using video and audio analytics
US20160312432A1 (en) * 2015-04-23 2016-10-27 Caterpillar Inc. Computer Vision Assisted Work Tool Recognition and Installation
US10119830B2 (en) 2016-02-29 2018-11-06 Komatsu Ltd. Control system for work machine, work machine, and management system for work machine
US9938693B1 (en) 2016-12-15 2018-04-10 Caterpillar Inc. Asset tracking and work tool identification
US10011976B1 (en) * 2017-01-03 2018-07-03 Caterpillar Inc. System and method for work tool recognition
US20180325032A1 (en) 2017-05-12 2018-11-15 Deere & Company System for automatically controlling conditioning and windrowing arrangements of a work vehicle

Also Published As

Publication number Publication date
CN114026581A (zh) 2022-02-08
US20210004744A1 (en) 2021-01-07
WO2021003042A1 (en) 2021-01-07
CA3144082A1 (en) 2021-01-07
AU2020299301A1 (en) 2022-02-03
US11200523B2 (en) 2021-12-14

Similar Documents

Publication Publication Date Title
DE112020002774T5 (de) System und verfahren zum verwalten von werkzeug auf einer baustelle
DE112020004644T5 (de) Systeme und verfahren zur autonomenbewegung von material
DE102020110306A1 (de) System und Verfahren zur Aufrechterhaltung einer Arbeitsfläche auf einer Baustelle
DE112012000290B4 (de) Anzeigesystem einer Erdbewegungsmaschine und Erdbewegungsmaschine
DE112016003771T5 (de) Bauverwaltungssystem, Bauverwaltungsverfahren und Verwaltungsvorrichtung
DE112016003502B4 (de) Bauverwaltungssystem und Formmessverfahren
DE19750315B4 (de) Verfahren und Vorrichtung zum Betrieb von Oberflächenveränderungsmaschinen relativ zu einem Arbeitsgelände
DE112013000115B4 (de) Baumanagementvorrichtung für eine Aushubmaschine, Baumanagementvorrichtung für einen Bagger, Aushubmaschinerie und Baumanagementsystem
DE102019127644A1 (de) Verfahren zum definieren eines arbeitsbereichs für autonomes baufahrzeug
US20230205221A1 (en) Worksite plan execution
DE112016003423T5 (de) Baumanagementsystem und baumanagementverfahren
US9322148B2 (en) System and method for terrain mapping
DE102018218155A1 (de) Baustellen-überwachungssystem und verfahren
DE102018207706A1 (de) Umgebungsabtastung unter Verwendung einer Arbeitsmaschine mit einer Kamera
DE112017001523T5 (de) Formmesssystem, Arbeitsmaschine und Formmessverfahren
DE112009001554T5 (de) Vermeidungssystem für eine Baustelle
DE112016003683T5 (de) Baumaschine und bauverwaltungssystem
DE102018124205A1 (de) Arbeitswerkzeug-kollisionsvermeidungssystem für unter der erde befindliche gegenstände
DE102018209336A1 (de) Verfahren und Einrichtung zum Betrieb von autonom betriebenen Arbeitsmaschinen
DE112017004096T5 (de) Erfassungsverarbeitungsvorrichtung für arbeitsmaschine und ein erfassungsverarbeitungsverfahren einer arbeitsmaschine
DE112018001463T5 (de) Baustellenverwaltungsvorrichtung, Ausgabevorrichtung und Baustellenverwaltungsverfahren
DE102021202030A1 (de) Verwendung generierter linien zur fahrzeugsteuerung und objektvermeidung
DE112021002328T5 (de) Verfahren und system zur erkennung einer halde
DE102020206190A1 (de) System und verfahren für die konfiguration einer arbeitsstätten warnzone.
DE102020207978A1 (de) System und verfahren zur maximierung der produktivität eines arbeitsfahrzeugs

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: WAGNER & GEYER PARTNERSCHAFT MBB PATENT- UND R, DE