DE102016212623A1 - UAV-basiertes Abfühlen für Arbeitsabläufe in einem Arbeitsbereich - Google Patents

UAV-basiertes Abfühlen für Arbeitsabläufe in einem Arbeitsbereich Download PDF

Info

Publication number
DE102016212623A1
DE102016212623A1 DE102016212623.7A DE102016212623A DE102016212623A1 DE 102016212623 A1 DE102016212623 A1 DE 102016212623A1 DE 102016212623 A DE102016212623 A DE 102016212623A DE 102016212623 A1 DE102016212623 A1 DE 102016212623A1
Authority
DE
Germany
Prior art keywords
machine
mobile machine
uav
control system
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016212623.7A
Other languages
English (en)
Inventor
Ramanathan Sugumaran
Bradley Hitchler
Noel W Anderson
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deere and Co
Original Assignee
Deere and Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deere and Co filed Critical Deere and Co
Publication of DE102016212623A1 publication Critical patent/DE102016212623A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0219Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B79/00Methods for working soil
    • A01B79/005Precision agriculture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U50/00Propulsion; Power supply
    • B64U50/10Propulsion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U50/00Propulsion; Power supply
    • B64U50/10Propulsion
    • B64U50/19Propulsion using electrically powered motors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U50/00Propulsion; Power supply
    • B64U50/30Supply or distribution of electrical power
    • B64U50/37Charging when not in flight
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U70/00Launching, take-off or landing arrangements
    • B64U70/90Launching from or landing on platforms
    • B64U70/92Portable platforms
    • B64U70/93Portable platforms for use on a land or nautical vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U80/00Transport or storage specially adapted for UAVs
    • B64U80/30Transport or storage specially adapted for UAVs with arrangements for data transmission
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • B64U2101/32UAVs specially adapted for particular uses or applications for imaging, photography or videography for cartography or topography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U80/00Transport or storage specially adapted for UAVs
    • B64U80/20Transport or storage specially adapted for UAVs with arrangements for servicing the UAV
    • B64U80/25Transport or storage specially adapted for UAVs with arrangements for servicing the UAV for recharging batteries; for refuelling

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Environmental Sciences (AREA)
  • Soil Sciences (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Transportation (AREA)
  • Catching Or Destruction (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Guiding Agricultural Machines (AREA)

Abstract

Ein Sensor fühlt ein Attribut eines Arbeitsbereichs an einem Standort ab, der geografisch von einer entsprechenden mobilen Maschine beabstandet ist. Basierend auf dem abgefühlten Attribut wird ein Arbeitsablauf an dem Standort durchgeführt. Ein Aktionssignal wird auf Basis der Wirkdaten erzeugt. Ein unbemanntes Luftfahrzeug kommuniziert Wirkdaten, die eine Wirkung des Arbeitsablaufes an dem Standort anzeigen, an die mobile Maschine. Das Aktionssignal kann verwendet werden, um Arbeitsabläufe im Arbeitsbereich zu steuern.

Description

  • Fachgebiet der Erfindung
  • Die vorliegende Beschreibung betrifft Arbeitsabläufe in einem Arbeitsbereich. Insbesondere betrifft die vorliegende Beschreibung die Verwendung eines unbemannten Luftfahrzeugs (UAV), um Daten für die Verwendung in der Steuerung von Arbeitsabläufen in einem Arbeitsbereich zu sammeln.
  • Hintergrundwissen
  • Es gibt eine Vielzahl verschiedener Arten mobiler Maschinen. Diese Arten von Maschinen können landwirtschaftliche Maschinen, Rasenpflegemaschinen, forstwirtschaftliche Maschinen, Baumaschinen etc. umfassen. Die Maschinen werden für die Durchführung einer großen Vielzahl von Funktionen in Arbeitsabläufen in einem Arbeitsbereich verwendet.
  • Ein Beispiel umfasst landwirtschaftliche Maschinen. Teilflächenspezifische Landwirtschaft bedeutet, Erntegutpflegefunktionen nur dort durchzuführen, wo sie innerhalb eines Feldes benötigt werden. Daher wurden Anstrengungen unternommen, Attribute eines Feldes abzufühlen und sie mit einem geographischen Standort zu korrelieren, um Abbildungen zwischen abgefühlten Attributen und ihrem Standort in einem Feld zu erzeugen. Manche dieser Systeme fühlen Attribute in einem Feld ab, indem sie Fernbilder verwenden, die entweder von einem Luftfahrzeug oder Satellitenplattformen aufgenommen wurden. Andere Ansätze haben Kameras auf Maschinen zur Untergrundbearbeitung verwendet, um Bilder aufzunehmen.
  • Die obige Diskussion wird lediglich zur allgemeinen Hintergrundinformation bereitgestellt und ist nicht für die Verwendung als Hilfe beim Bestimmen des Schutzumfangs des beanspruchten Erfindungsgegenstands vorgesehen.
  • Zusammenfassung
  • Ein Sensor fühlt ein Attribut eines Arbeitsbereichs an einem Standort ab, der von einer entsprechenden mobilen Maschine geographisch beabstandet ist. Ein Arbeitsablauf wird an dem Standort durchgeführt, basierend auf dem abgefühlten Attribut. Ein unbemanntes Luftfahrzeug kommuniziert Wirkdaten, die eine Wirkung des Arbeitsablaufs am Standort angeben, an die mobile Maschine. Ein Aktionssignal wird basierend auf den Wirkdaten erzeugt. Das Aktionssignal kann verwendet werden, um Arbeitsabläufe im Arbeitsbereich zu steuern.
  • Diese Zusammenfassung ist bereitgestellt, um eine Auswahl von Konzepten in einer vereinfachten Form vorzustellen, die in der nachstehenden detaillierten Beschreibung ausführlicher beschrieben werden. Diese Zusammenfassung soll weder Schlüsselmerkmale oder Hauptmerkmale des beanspruchten Gegenstandes identifizieren noch soll sie als Hilfe zur Bestimmung des Schutzumfangs des beanspruchten Gegenstandes verwendet werden. Der beanspruchte Erfindungsgegenstand ist nicht auf Implementierungen beschränkt, die einen oder alle der im Hintergrundwissen erwähnten Nachteile beheben.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist ein Blockdiagramm eines Beispiels einer Erntegutpflegemaschinenarchitektur.
  • 2 ist ein detaillierteres Blockdiagramm von einem Beispiel von der in 1 gezeigten Erntegutpflegemaschinenarchitektur.
  • 3 ist ein Blockdiagramm eines Beispiels einer weiteren Erntegutpflegemaschinenarchitektur.
  • 4 ist ein Flussdiagramm, das ein Beispiel des Arbeitsablaufs einer Erntegutpflegemaschine mit einem unbemannten Luftfahrzeug, das vor einer mobilen Erntegutpflegemaschine betrieben wird, zeigt.
  • 5 ist ein Flussdiagramm, das ein Beispiel des Arbeitsablaufs einer Erntegutpflegemaschine mit einem unbemannten Luftfahrzeug, das hinter einer mobilen Erntegutpflegemaschine betrieben wird, zeigt.
  • 6 ist ein Blockdiagramm eines Beispiels einer Erntegutpflegesteuerung, im Detail.
  • 7 ist ein Flussdiagramm, das ein Beispiel des Arbeitsablaufs der in 3 gezeigten Erntegutpflegemaschinenarchitektur näher veranschaulicht.
  • 8 ist ein Blockdiagramm, das den Arbeitsablauf einer Erntegutpflegemaschinenarchitektur unter Verwendung einer Differenzabbildung veranschaulicht.
  • 8A zeigt ein Beispiel für abgefühlte Werte, die verwendet werden können, um eine Metrik zu erzeugen.
  • 9 ist ein Blockdiagramm, das ein Beispiel einer detaillierteren Implementierung der in 3 gezeigten Erntegutpflegemaschinenarchitektur zeigt.
  • 10 (10A, 10B und 10C umfassend) zeigt Muster, die detektiert werden können, um Fehler oder Betriebsstörungen zu identifizieren.
  • 11 ist ein Blockdiagramm eines Beispiels eines Kalibrierungspfades.
  • 12 ist ein Bilddiagramm eines Beispiels der in 3 gezeigten Erntegutpflegemaschinenarchitektur, wobei ein Andockbereich abgebildet ist.
  • 13 zeigt ein Beispiel dafür, wie Information in einer Remote-Serverarchitektur verwendet werden kann.
  • 1416 zeigen Beispiele für mobile Vorrichtungen, die in den oben gezeigten Architekturen verwendet werden können.
  • 17 zeigt ein Beispiel einer Rechnerumgebung, die in den in vorhergehenden Figuren gezeigten Architekturen verwendet werden kann.
  • Detaillierte Beschreibung
  • 1 ist ein Blockdiagramm eines Beispiels einer Erntegutpflegemaschinenarchitektur 100. Es versteht sich, dass die Architektur 100 eine Architektur sein kann, in der eine andere Art von Maschine, wie etwa eine im Bauwesen, in der Rasenpflege, in der Forstwirtschaft verwendete Maschine oder eine andere landwirtschaftliche Maschine etc. verwendet wird. Es wird hierin lediglich zum Zwecke eines Beispiels als Erntegutpflegemaschinenarchitektur beschrieben.
  • Die Architektur 100 umfasst beispielsweise eine Erntegutpflegemaschine 102 und ein unbemanntes Luftfahrzeug (UAV) 104. Das UAV 104 umfasst beispielsweise einen Antriebsmechanismus 106, wie etwa einen oder mehrere Rotoren, die von einem oder mehreren Motoren angetrieben werden. In dem in 1 gezeigten Beispiel ist das UAV 104 über eine Verbindung 108 mit der Erntegutpflegemaschine 102 gekoppelt. In einem Beispiel ist die Verbindung 108 ein mechanisches Halteseil, das eine Stromverbindung von der Maschine 102 zum UAV 104 bereitstellt, um das UAV 104 mit Energie zu versorgen. Die Verbindung 108 stellt beispielsweise auch eine Kommunikationsverbindung zwischen der Maschine 102 und dem UAV 104 bereit, so dass das UAV 104 Sensordaten (die abgefühlte Werten, die von Sensoren auf dem UAV 104 abgefühlt wurden, angeben) an die Maschine 102 zurückübertragen kann. Sie kann auch beispielsweise geographische Informationen bereitstellen, um die relativen Positionen der Maschine 102 und des UAV 104 anzugeben, und sie kann Steuersignale bereitstellen, durch die eine Steuerung auf der Maschine 102 das UAV 104 steuern kann oder umgekehrt.
  • In einem Beispiel bewegt sich die Maschine 102 über einen Arbeitsbereich (wie etwa ein Feld). Das UAV 104 fliegt beispielsweise in der Nähe der Maschine 102, wobei es ein oder mehrere Attribute des Arbeitsbereichs abfühlt. Attributindikatoren, die die abgefühlten Attribute anzeigen, werden der Maschine 102 bereitgestellt, so dass die Maschine 102 ihren eigenen Arbeitsablauf (oder den Arbeitsablauf anderer Maschinen) basierend auf den abgefühlten Attributen steuern kann. Ebenso kann eine beliebige Anzahl von Metriken basierend auf dem abgefühlten Attribut berechnet und anderen Maschinen oder Analysesystemen bereitgestellt werden.
  • Es wird angemerkt, dass, obwohl ein Teil der vorliegenden Diskussion unter Annahme fortgesetzt wird, dass die Maschine 102 eine Sprühmaschine zum Auftragen von Chemikalien auf ein Erntegut oder ein Feld ist, die Maschine 102 eine beliebige aus einer großen Vielzahl verschiedener Arten von Maschinen sein kann. Beispielsweise kann sie eine Pflanzmaschine, ein Erntefahrzeug, eine Bodenbearbeitungsmaschine oder eine große Vielzahl anderer Maschinen sein. Es wird ebenso angemerkt, dass das UAV 104 in der Architektur 100 relativ zur Maschine 102 in einer Vorwärtsrichtung fliegen und Daten zurücksenden kann, die von der Maschine 102 für die Durchführung ihrer Arbeitsabläufe verwendet werden können. In einem anderen Beispiel kann das UAV 104 hinter der Maschine 102 fliegen und Informationen an die Maschine 102 senden, die angeben, wie der von der Maschine 102 durchgeführte Arbeitsablauf tatsächlich ausgeführt wurde (z.B. zeigt die Qualität des von der Maschine 102 durchgeführten Arbeitsablaufs an). In noch einem weiteren Beispiel kann das UAV 104 abwechselnd sowohl vor als auch hinter der Maschine 102 fliegen. Somit kann das UAV 104 beispielsweise zuerst der Maschine 102 vorausfliegen und ein gegebenes Attribut des Ernteguts oder Felds abfühlen und der Maschine 102 diese Information bereitstellen, so dass die Maschine 102 ihren Arbeitsablauf darauf einstellen kann. Es kann dann der Maschine 102 hinterherfliegen, um abzufühlen, wie gut die Maschine 102 tatsächlich ihren Arbeitsablauf ausgeführt hat und dieses Information an die Maschine 102 zurück zu übertragen. Die Maschine 102 kann gegebenenfalls ihren Arbeitsablauf einstellen. In noch einem weiteren Beispiel gibt es mehrere UAVs 104, die mit der Maschine 102 verbunden sind, so dass manche der Maschine vorausfliegen können, manche der Maschine 102 hinterherfliegen können etc.
  • Bevor diese Beispiele im Einzelnen beschrieben werden, wird zuerst eine detailliertere Beschreibung eines Beispiels von der Maschine 102 und dem UAV 104 bereitgestellt. 2 ist ein Blockdiagramm, das ein Beispiel der Erntegutpflegemaschinenarchitektur 100 (gezeigt in 1) in höherem Detailgrad veranschaulicht. In dem in 2 gezeigten Beispiel kann das UAV 104 ein Antriebssystem 110 aufweisen, das Rotoren 106, einen oder mehrere Attributsensoren 112, eine Kommunikationskomponente 114, ein Positionsbestimmungssystem 116 und einen Satz von Prozessoren oder Steuerungen 118 ansteuert. Es kann auch andere Objekte 120 aufweisen. Die Prozessoren oder Steuerungen 118 können eine Antriebssteuerkomponente 122, eine Sensorsteuerkomponente 124, eine Kommunikationssteuerkomponente 126 umfassen und sie können andere Objekte 128 umfassen.
  • Das in 2 gezeigte Beispiel veranschaulicht, dass die mobile Erntegutpflegemaschine 102 ihr eigenes Antriebssystem 130, eine oder mehrere Benutzerschnittstellenkomponenten 132 und ein Kommunikationssystem 134 (das eine UAV-Kommunikationskomponente 136 und andere Kommunikationskomponenten 138 umfassen kann) aufweisen kann. Die Maschine 102 kann ein Erntegutpflegesteuersystem (oder Steuerung) 140 (das Steuersignale ausgeben kann, um einen Satz von steuerbaren Erntegutpflegemechanismen 142 zu steuern), ein Positionsbestimmungssystem 144, eine Vielzahl anderer Sensoren 145, ein Energieversorgungssystem 146 aufweisen und es kann andere Objekte 148 umfassen. Bevor der gesamte Arbeitsablauf der Architektur 100 näher beschrieben wird, wird vorab ein kurzer Überblick bereitgestellt.
  • Die mobile Erntegutpflegemaschine 102 wird in manchen Beispielen wiederum als eine Sprühmaschine beschrieben. Jedoch können Erntegutpflegemaschinen ebenso eine große Vielzahl anderer Maschinen umfassen. Sie können beispielsweise selbstfahrende Sprühmaschinen, gezogene Sprühmaschinen, mechanische Jätmaschinen, Laser-Unkrautvernichter, Düngeraufträger, Pflanzmaschinen, Erntefahrzeuge und eine große Vielzahl anderer Maschinen umfassen.
  • Daher kann das Antriebssystem 130 ein beliebiges Antriebssystem sein, das für die jeweilige Maschine geeignet ist. Das Energieversorgungssystem 146 kann ein System sein, das die Maschine 102 und auch das UAV 104 mit Energie versorgt. Jedoch kann die Maschine 102 auch von einem vom UAV 104 getrennten Energieversorgungssystem mit Energie versorgt werden. In einem Beispiel umfasst es beispielsweise einen Motor mit einem Getriebe, das Mechanismen mit Untergrundkontakt (wie etwa Räder, Schienen etc.) antreibt. Benutzerschnittstellenkomponenten 132 können eine große Vielzahl von Benutzerschnittstellenkomponenten sein, die es einem Benutzer erlauben, sich mit den anderen Teilen der Maschine 102 zu verbinden. Diese können beispielsweise Hebel, Schalter, Räder, Steuerknüppel, Schaltflächen, ein Lenkrad, Pedale etc. umfassen. Sie können auch Mikrofone mit Spracherkennungssystemen und Systemen für die Verarbeitung natürlicher Sprache umfassen, um Spracheingaben zu verarbeiten. Sie können Benutzereingabemechanismen umfassen, die von einer Benutzerschnittstellenanzeige betätigt werden können. Beispielsweise können sie Symbole, Hyperlinks, Dropdown-Menüs, Optionsfelder, Textfelder oder eine große Vielzahl anderer Benutzereingabemechanismen sein, die von einem Benutzer auf einem Benutzerschnittstellenanzeigenbildschirm betätigt werden können. Die Benutzereingabemechanismen können betätigt werden, um die mobile Erntegutpflegemaschine 102 oder das UAV 104 oder beide zu steuern und beeinflussen.
  • Die Erntegutpflegesteuerung 140 empfängt beispielsweise Informationen vom UAV 104 und kann Informationen von einer großen Vielzahl der anderen Sensoren 145 empfangen. Es erzeugt dann ein Steuersignal, um steuerbare Erntegutpflegemechanismen 142 zu steuern. Das Steuern der Erntegutpflegemechanismen kann das Einstellen der Höhe des Rahmens oder des Untergrundkontaktelements über dem Untergrund; die Tiefe in oder unter dem Untergrund, den Abwärtsdruck oder Winkel des Untergrundkontaktelements; die Art oder Geschwindigkeit der Chemikalienauftragung; das Muster der Chemikalienauftragung; oder die Steuerung anderer Mechanismen umfassen. Es kann ebenso verwendet werden, um die Maschinengeschwindigkeit zu steuern. In mehreren anderen Anwendungen kann die Steuerung 140 Mechanismen 142 steuern, um eine große Vielfalt anderer Arbeitsabläufe durchzuführen. Manche davon umfassen unter anderem die Höhe des Auslegers, Düsengröße, Lösungsabgabesysteme (Durchfluss und Druck), Tiefenführung, Anpresskraftsysteme, Oberflächenbeschaffenheit des Bodens (z.B. ist er eben und glatt), Schneidehöhe, Rückständeverteilsystem (gleichmäßige Streuung von Rückständen hinter dem Erntefahrzeug durch ein Erhöhen der Schleudergeschwindigkeit), Reihenräumerhöhe (Rückständeentfernung), Erdbohrerpositionen, Ausgießerpositionen, Maschine-zu-Maschine-Positionen, Fahrzeugtraktionssteuersystem, Fahrzeug- und Arbeitsgerätelenksteuerung.
  • Das Positionsbestimmungssystem 144 erzeugt beispielsweise einen Positionsindikator, der eine Position der Maschine 102 anzeigt. Beispielsweise kann dies ein globales Positionsbestimmungssystem (GSP), ein Koppelnavigationssystem, ein zelluläres Triangulationssystem oder eine große Vielzahl anderer Positionsbestimmungssysteme sein.
  • Auf dem UAV 104 versorgt das Antriebssystem 110 die Rotoren 106 oder anderen Mechanismen, um dem UAV 104 Antriebskraft bereitzustellen, mit Energie. Die Antriebssteuerkomponente 122 steuert beispielsweise das Antriebssystem 110. Dabei kann sie die Richtung, Höhe, Haltung, Geschwindigkeit und andere Merkmale des UAV 104 steuern.
  • Attributsensoren 112 fühlen beispielsweise ein oder mehrere Attribute eines Felds oder Ernteguts, über das sich die Maschine 102 bewegt, ab. Beispielsweise können Attributsensoren 112 Dinge wie den Boden, Bodenart, Bodenfeuchtigkeit, Bodenbedeckung, Rückständedichte, Ernteguttyp, Vorliegen von Unkraut und Unkrautart, Pflanzengröße, Pflanzenhöhe, Pflanzengesundheit, Pflanzenvitalität, Vorliegen von Chemikalien, Chemikalienverbreitung etc. abfühlen. Die Sensoren 112 können somit eine große Vielfalt verschiedener Sensorarten sein, wie etwa Kameras, Infrarotkameras oder andere Infrarotsensoren, Videokameras, Stereokameras, LIDAR-Sensoren, strukturierte Lichtsysteme etc.
  • Die Sensorsteuerkomponente 124 kann beispielsweise Attributsensoren 112 steuern. Daher kann sie beispielsweise steuern, wann Sensormesswerte abgelesen werden, und sie kann eine Signalkonditionierung, wie etwa Linearisierung, Normalisierung, Verstärkung etc., an den Sensorsignalen durchführen. Wie nachfolgend beschrieben kann sie beispielsweise auch eine andere Verarbeitung an den Attributsignalen durchführen, oder die Verarbeitung kann von der Erntegutpflegesteuerung 140 auf der Maschine 102 durchgeführt werden, oder die Verarbeitung kann zwischen der Komponente 124 und der Komponente 140 aufgeteilt werden.
  • Die Kommunikationskomponente 114 kommuniziert beispielsweise mit einer mobilen Erntegutpflegemaschine 102. Sie kann über einen drahtgebundenen Kommunikationskabelstrang kommunizieren, wenn die Verbindung 108 ein physisch verbundener Kabelstrang ist. Sie kann auch über eine Drahtloskommunikationsverbindung kommunizieren. Die Kommunikationssteuerkomponente 126 steuert beispielsweise die Kommunikationskomponente 114, um mit der Maschine 102 zu kommunizieren. Sie kann die Attributsensorsignale von den Sensoren 112 kommunizieren, sie kann sie nach der nach der Aufbereitung durch die Komponente 124 kommunizieren. Sie kann auch andere Werte, die basierend auf den Attributsensoren erzeugt werden, oder andere Objekte im UAV 104 kommunizieren. Beispielsweise kann sie die vom Positionsbestimmungssystem 116 identifizierte Position des UAV 104 kommunizieren. Sie kann beispielsweise auch einen relativen Versatz zwischen der Position des UAV 104 und der Position der Maschine 102 berechnen und diesen Wert der Maschine 102 kommunizieren. Sie kann die Kommunikation einer großen Vielzahl anderer Werte oder Signale zwischen dem UAV 104 sowie der Maschine 102 steuern.
  • Das Positionsbestimmungssystem 116 erzeugt beispielsweise einen Positionsindikator, der eine Position des UAV 104 angibt. Wie beim Positionsbestimmungssystem 144 kann das System 116 ein GPS-System, ein zelluläres Triangulationssystem, ein Koppelnavigationssystem oder eine große Vielzahl anderer Systemarten sein. Das Positionsbestimmungssystem 116 kann auch Nick-, Roll- oder Gierindikatoren erzeugen, die Nicken, Rollen oder Gieren des UAV 104 anzeigen.
  • Es wird auch angemerkt, dass die verschiedenen Verarbeitungen von Objekten, die in Zusammenhang mit 2 erwähnt wurden, ebenso an anderen Standorten (statt des UAV 104 oder der Maschine 102) durchgeführt werden können. Beispielsweise können verschiedene Signale oder Werte an einen entfernten Standort übertragen werden, wo die Verarbeitung durchgeführt wird. Die Ergebnisse dieser Verarbeitung können an dem entfernten Standort gespeichert oder an die Architektur 100 zur Verwendung innerhalb der Architektur 100 zurückgesendet werden, oder beides.
  • Bevor wiederum der Arbeitsablauf der Architektur 100 näher erörtert wird, wird zuerst eine weitere Implementierung der Architektur 100 kurz erwähnt. 3 zeigt ein Beispiel von Architektur 152. Die Architektur 100 kann eine Implementierung von Architektur 100 oder einer anderen Architektur sein. Aus 3 ist ersichtlich, dass die Architektur 152 die mobile Erntegutpflegemaschine 102, das UAV 104 und die Verbindung 108 umfasst. 3 veranschaulicht auch, dass die Maschine 102 einen steuerbaren Erntegutpflegemechanismus 142 aufweist, der einen Arbeitsablauf auf einem Teil 157 des Arbeitsbereichs durchführt, während sich die Maschine 102 in der durch Pfeil 158 angezeigten Richtung über den Arbeitsbereich bewegt. Die Architektur 152 umfasst beispielsweise ein weiteres UAV 154, das über Verbindung 156 mit der Maschine 102 gekoppelt sein kann. Somit bewegt sich die Maschine 102 in dem in 3 gezeigten Beispiel beispielsweise über ein Feld oder einen Arbeitsbereich in einer durch Pfeil 158 angezeigten Richtung. Das UAV 104 fliegt der Maschine 102 beispielsweise voraus und das UAV 154 fliegt der Maschine 102 beispielsweise hinterher. Das UAV 104 verwendet beispielsweise den einen oder mehreren darauf angeordneten Attributsensoren 112, um Arbeitsbereichdaten aus einem Teil 160 des Arbeitsbereichs zu erfassen. Das UAV 154 verwendet seinen Sensor beispielsweise, um Arbeitsbereichdaten aus einem Teil 162 des Arbeitsbereichs zu erfassen, nachdem die Maschine 102 diesen passiert hat.
  • Es wird selbstverständlich angemerkt, dass das UAV 104 womöglich vor der Maschine 102 in einer zur Fahrtrichtung 158 senkrechten Richtung hin- und herfliegen muss, um Arbeitsbereichdaten aus dem Teil 160 des Arbeitsbereichs zu erfassen. In einem anderen Beispiel können die Attributsensoren 112 ein Abfühlfeld aufweisen, das breit genug ist, um den Teil 160 abzudecken. In noch einem weiteren Beispiel werden mehrere UAVs 104 verwendet, um Daten vom Teil 160 vor der Maschine 102 zu erfassen.
  • In einem Beispiel gilt dasselbe für das hinterherfliegende UAV 154. Daten können aus dem Teil 162 erfasst werden, indem das UAV hinter der Maschine 102 hin- und herfliegt oder indem mehrere UAVs hinter der Maschine 102 eingesetzt werden. Es kann auch Daten mit Sensoren erfassen, die ein Abfühlfeld aufweisen, das breit genug ist, um den Teil 162 abzudecken.
  • In noch einem weiteren Beispiel wird ein einzelnes UAV 104 verwendet, das der Maschine 102 zeitweise vorausfliegt, um Daten aus dem Teil 160 zu erfassen, und dann der Maschine 102 hinterherfliegt, um Daten aus dem Teil 162 zu erfassen. All diese Implementierungen werden hierin berücksichtigt.
  • In jedem Fall haben die Teile 160 und 162 im Allgemeinen eine Abmessung D, die der entsprechenden Abmessung D des Teils 157 ähnlich ist, der vom steuerbaren Mechanismus 142 bearbeitet wird. Daher kann, wie nachfolgend näher beschrieben wird, das UAV 104 Daten mit Bezug auf den Teil 160 erfassen und diese Daten (und seinen Standort) an die Maschine 102 zurückkommunizieren. Die Maschine 102 kann die Daten verwenden, um die vom steuerbaren Erntegutpflegemechanismus 142 in Teil 157 durchgeführten Arbeitsabläufe zu steuern, wenn sich die Maschine 102 weit genug vorwärts in die Richtung 158 bewegt hat, dass der Teil 157 derselbe ist wie der Teil 160. Das UAV 154 kann dann Daten aus Teil 162 erfassen (wiederum wenn der Teil 162 derselbe ist wie Teil 157), um die Qualität des vom steuerbaren Erntegutpflegemechanismus 142 durchgeführten Arbeitsablaufs anzuzeigen. Dies kann wiederum an die Maschine 102 zurück übertragen werden, die basierend auf dieser Information eine große Vielfalt verschiedener Arbeitsabläufe durchführen kann.
  • Als nur ein konkretes Beispiel kann die Maschine 102 eine Sprühmaschine sein. Die Sprühmaschine kann eine Direkteinspritzsprühmaschine sein, die in der Lage ist, gleichzeitig mehrere landwirtschaftliche Chemikalien in unterschiedlichen Konzentrationen zu versprühen. Diese Chemikalien können zudem einen chemischen Marker, wie etwa einen Farbstoff, umfassen, der vom hinterherfliegenden UAV 154 mit den Attributsensoren 112 detektierbar ist. Das UAV 104 kann beispielsweise Aufnahmen eines Teils 160 in einem Feld, über das die Maschine 102 fährt, aufnehmen. Es kann diese Information über die Verbindung 108 an die Maschine 102 übertragen. Die Erntegutpflegesteuerung 140 kann dann den Standort und die Art des Unkrauts in diesen Aufnahmen bestimmen. Es kann einzelne Sprühdüsen steuern, um verschiedene Arten von Chemikalien an verschiedenen Stellen abzugeben, um das im Teil 160 identifizierte Unkraut zu behandeln, wenn sich die Sprühmaschine 142 über dem Teil 160 befindet. Das UAV 154 kann dann identifizieren, ob die Sprühmaschine Chemikalien auf die entsprechenden Stellen aufgebracht hat, sobald es über den Teil des Felds überfliegt, in dem die Chemikalien versprüht wurden. In manchen Fällen wird dies durch Abfühlen der Menge, Gegenwart oder Abwesenheit des Markers auf den Zielstellen, wie etwa auf Unkrautblättern, erreicht. Natürlich kann dieser Arbeitsablauf fortdauernd sein, so dass die Daten für jede Stelle im Feld vom UAV 104 an die Maschine 102 und dann vom UAV 154 an die Maschine 102 übertragen und geographisch korreliert werden, während sich die Maschine 102 über das Feld bewegt. Der Arbeitsablauf kann ebenso periodisch durchgeführt werden.
  • Der Arbeitsablauf der Architekturen 100 und 152 wird nun mit Bezug auf eine Vielzahl verschiedener Implementierungen beschrieben. Beispielsweise ist 4 ein Flussdiagramm, das den Arbeitsablauf der Architektur 100 veranschaulicht, wenn nur ein vorausfliegendes UAV 104 (oder ein Satz vorausfliegender UAVs) mit Bezug auf die Maschine 102 eingesetzt werden. In einer solchen Implementierung gibt es kein hinterherfliegendes UAV 154.
  • Das UAV 152 verwendet daher zuerst seinen einen oder mehrere Attributsensoren 112, um ein Attribut eines Bereichs des Arbeitsbereichs, der vor der mobilen Erntegutpflegemaschine 102 liegt, abzufühlen, während sich die Maschine 102 in Vorwärtsrichtung bewegt. Dies wird durch Block 166 in 4 angezeigt. Dabei kann das UAV 104 das Attributsignal mit einer Position, von der es abgefühlt wird, wie vom Positionsbestimmungssystem 116 angezeigt, korrelieren.
  • Das UAV 104 kommuniziert dann eine Anzeige des abgefühlten Attributs und den Standort, von dem es abgefühlt wurde, an die mobile Erntegutpflegemaschine 102 über die Verbindung 108. Dies wird von Block 168 angezeigt. Die Erntegutsteuerung 140 auf der Maschine 102 verarbeitet dann den abgefühlten Attributindikator, um ein Aktionssignal zu erzeugen. Dies wird durch Block 170 angezeigt. Wenn die Maschine 102 beispielsweise eine Sprühmaschine ist, kann die Erntegutpflegesteuerung 140 eine Sprühvorschrift erzeugen, die eine oder mehrere Chemikalien (wie etwa die Chemikalienart, die Chemikalienkonzentration und ihre Auftragungsstelle) vorschreiben.
  • Die Erntegutpflegesteuerung 140 steuert dann beispielsweise die steuerbaren Erntegutpflegemechanismen 142, basierend auf dem Aktionssignal. Dies wird durch Block 172 angezeigt. Beispielsweise kann die Erntegutpflegesteuerung 140 unter Verwendung der Sprühvorschrift und der vom Positionsbestimmungssystem 144 bereitgestellten Standortinformation einzelne Aktoren (wie etwa Sprühpumpen, Ventile, Düsen etc.) auf dem Mechanismus 142 steuern, um Chemikalien in Übereinstimmung mit der Vorschrift, die für den derzeitigen geographischen Standort der Sprühmaschine bereitgestellt wurde, aufzubringen. Es kann somit die Mechanismen 142 steuern, um eine bestimmte Chemikalie, eine bestimmte Chemikalienart, in einer bestimmten Chemikalienkonzentration an einer gewünschten Auftragungsstelle aufzubringen.
  • In manchen Beispielen kann der Attributsensor 112 eine Kamera oder ein anderer Bildaufnahmemechanismus sein, der eine Aufnahme des Teils 160 des Felds oder Arbeitsbereichs aufnimmt. Bilder können zweidimensional oder dreidimensional sein. Bilder können von elektromagnetischer Strahlung sein, die von einem Objekt reflektiert, emittiert oder übertragen wird. Bilder können eines oder mehrere aus elektromagnetischer Strahlungsintensität, Wellenlänge, Bandlaufzeit, Phasenverschiebung oder jeden anderen geeigneten Bildparameter umfassen. In einer solchen Implementierung verarbeitet die Erntegutpflegesteuerung 140 verarbeitet das Bild beispielsweise, um Unkraut zu identifizieren. Die Bildbearbeitung kann eine große Vielfalt verschiedener Verfahren verwenden, wie etwa spektrale Reflexionseigenschaften der Blätter, Form (oder Morphologie) oder andere Eigenschaften, um die Spezies von Erntegut und Unkraut zu identifizieren. Die Pflanzengröße kann anhand der Pixelgröße im Sichtbereich, Stereo-Bildaufnahme, Laufzeitreflexion, strukturellem Licht oder anderen Verfahren oder Mechanismen geschätzt werden. Diese oder andere Parameter können für die Erzeugung der Vorschrift verwendet werden, indem die Chemikalienart und Konzentration (oder Dosierung) ausgewählt wird. In einer solchen Implementierung können die Chemikalien verschiedene Arten von Pflanzenschutzmitteln sein.
  • Auch kann die Chemikalienkonzentration über die Breite des von der Maschine 102 behandelten Bereichs schwanken. Es kann auch die von der Maschine 102 zurückgelegte Distanz schwanken.
  • In einem anderen Beispiel kann das vom UAV 104 aufgenommene Bild verarbeitet werden, um die Pflanzengesundheit oder Vitalität zu bestimmen. Anstatt der Vorschrift, ein Pflanzenschutzmittel aufzutragen, können die Chemikalien Nährstoffe umfassen, wie etwa Stickstoff, Phosphor, Kalium, Mikronährstoffe, wie etwa Schwefel, Eisen etc., Boden-pH-Modifikatoren, wie etwa Kalk, unter einer großen Vielzahl anderer Chemikalien.
  • In noch einem weiteren Beispiel kann das Bild verarbeitet werden, um die Gegenwart und den Schweregrad von Schädlingen und Krankheiten zu bestimmen. In diesem Fall kann die Vorschrift sein, Chemikalien vorzuschreiben, die Schädlingsbekämpfungsmittel, Insektenbekämpfungsmittel, Pilzvernichtungsmittel, Nematizide etc. umfassen können. 5 ist ein Flussdiagramm, das ein Beispiel des Arbeitsablaufs von Architektur 100 veranschaulicht, wobei nur ein hinterherfliegendes UAV 154 eingesetzt wird. Bei einer solchen Implementierung gibt es kein vorausfliegendes UAV 104.
  • In der mit Bezug auf 5 beschriebenen Implementierung fühlt das UAV 154 zuerst ein Attribut eines Bereichs eines Arbeitsbereichs ab, der hinter einer mobilen Erntegutpflegemaschine 102 liegt. Dies wird durch Block 174 in 5 angezeigt. Es kommuniziert dann eine Anzeige des abgefühlten Attributs und seinen Standort an die Maschine 102. Dies wird durch Block 176 angezeigt. Die Erntegutpflegesteuerung 140 verarbeitet dann den abgefühlten Attributindikator, um eine Metrik zu erzeugen, die die Qualität des von der mobilen Erntegutpflegemaschine 102 (und dem steuerbaren Mechanismus 142) an diesem geographischen Standort durchgeführten Erntegutpflegearbeitsablaufs anzeigt. Dies wird durch Block 178 angezeigt. Die Steuerung 140 kann die Metrik für eine Verwendung auf verschiedene Arten ausgeben. Die Reihe von Arten wird nachfolgend detaillierter beschrieben. Das Ausgeben der Metrik zur Verwendung wird durch Block 180 angezeigt.
  • In der mit Bezug auf 5 beschriebenen Implementierung (wo die beispielhafte Maschine 102 wiederum eine Sprühmaschine ist) kann die Vorschrift eine A-priori-Vorschrift sein oder sie kann von Sensordaten abgeleitet werden, die von den am Fahrzeug angebrachten Arbeitsbereichsensoren 145 erhalten werden. In einer solchen Implementierung wird das hinterherfliegende UAV 154 verwendet, um die Qualität der Auftragung der Chemikalie zu überwachen und gegebenenfalls Nachbesserungssprühvorgänge durchzuführen (wie nachfolgend im Detail beschrieben).
  • Bevor noch eine weitere Implementierung, in der sowohl ein vorausfliegendes UAV 104 als auch ein hinterherfliegendes UAV 154 vorliegen, beschrieben wird, wird zuvor eine detailliertere Beschreibung eines Beispiels einer Erntegutpflegesteuerung 140 bereitgestellt. 6 zeigt ein detaillierteres Blockdiagramm eines Beispiels einer Erntegutpflegesteuerung 140. In dem in 6 gezeigten Beispiel umfasst die Steuerung 140 beispielsweise eine geographische Korrelationskomponente 190, eine Vorschriftserzeugungskomponente 192 und eine Differenzabbildungerzeugungskomponente 194. Es kann eine Mustererkennungskomponente 196, Ergänzungsinformationssammelsystem 198 und ein Korrekturmaßnahmensystem 200 umfassen. Es kann beispielsweise ein Kalibrierungssystem 202, eine oder mehrere Warnungs-/Benachrichtigungserzeugungskomponenten 204 und einen Datenspeicher 206 umfassen.
  • In dem in 6 gezeigten Beispiel umfasst das Korrekturmaßnahmensystem 200 beispielsweise eine Problemidentifikationskomponente 208, eine Korrekturmaßnahmenidentifikationskomponente 210 und kann andere Objekte 212 umfassen. Der Datenspeicher 206 kann eine oder mehrere Vorschriften 214, einen Satz beobachteter Werte 216, eine oder mehrere Differenzabbildungen 218 und andere Objekte 220 umfassen.
  • In dem mit Bezug auf 6 beschriebenen Beispiel bringt die mobile Erntegutpflegemaschine 102 beispielsweise eine oder mehrere Chemikalien auf ein Feld auf. Daher kann jede Vorschrift 214 eine Chemikalienart 222, eine Chemikalienkonzentration 224, eine Auftragungsstelle 226 und eine große Vielzahl anderer Informationen 228 umfassen.
  • 7 ist ein Flussdiagramm, das ein Beispiel des Arbeitsablaufs der in 3 gezeigten Architektur 152 unter Verwendung einer Erntegutpflegesteuerung 140, wie dem mit Bezug auf 6 beschriebenen, zeigt. Es wird auch angemerkt, dass dieselbe Architektur anstatt mit sowohl einem vorausfliegenden UAV 104 und einem hinterherfliegenden UAV 154 unter Verwendung eines einzelnen UAV, das abwechselnd vor und hinter der mobilen Erntegutpflegemaschine 102 fliegt, implementiert werden kann. Zudem kann sie unter Verwendung mehrerer vorausfliegender und hinterherfliegender UAV implementiert werden.
  • Die mobile Erntegutpflegemaschine 102 empfängt zuerst Informationen von einem vorausfliegenden UAV 104. Dies wird durch Block 250 in 7 angezeigt. Dies kann beispielsweise gemäß einem oben mit Bezug auf 4 beschriebenen Arbeitsablauf durchgeführt werden. Das Empfangen von Informationen vom vorausfliegenden UAV 104 kann eine große Vielzahl verschiedener Formen annehmen. Es kann das abgefühlte Attribut, wie durch Block 251 angezeigt, umfassen, den Standort, an dem das abgefühlte Attribut abgefühlt wurde, wie durch Block 253 angezeigt, und es kann andere Objekte 254 umfassen.
  • Die Vorschriftserzeugungskomponente 192 erzeugt dann eine Vorschrift und die Maschine 102 führt den Erntegutpflegearbeitsablauf durch, indem sie basierend auf den vom vorausfliegenden UAV 104 (z.B. basierend auf der Vorschrift) empfangenen Informationen die steuerbaren Mechanismen 142 steuert. Dies wird durch Block 252 angezeigt. Wenn die Maschine 102 beispielsweise eine Sprühmaschine ist, kann sie Chemikalien einer bestimmten Chemikalienart und -konzentration an verschiedenen Standorten in Übereinstimmung mit der Vorschrift auftragen. Wenn mehrere Chemikalien oder mehrere Konzentrationen beteiligt sind, kann jede davon einen eindeutigen chemischen Marker aufweisen, was erlaubt, dass das tatsächlich aufgetragene Muster durch die Attributsensoren 112 im hinterherfliegenden UAV 154 detektiert wird. Somit fühlt das hinterherfliegende UAV 154 die Information ab und stellt sie der mobilen Erntegutpflegemaschine 102 über die Verbindung 156 bereit. Dies wird durch Block 260 in 7 angezeigt.
  • Das Empfangen von Informationen vom hinterherfliegenden UAV 154 kann auch eine große Vielzahl an Formen annehmen. Die Information kann das abgefühlte Attribut selbst, wie durch Block 263 angezeigt, der Standort 265, an dem das abgefühlte Attribut abgefühlt wurde, und eine große Vielzahl anderer Informationen 267 sein.
  • Die geographische Korrelationskomponente 190 in der Erntegutpflegesteuerung 140 korreliert die Informationen von vorne und hinten basierend auf ihren Standorten. Dies wird durch Block 262 angezeigt. Beispielsweise korreliert sie die vom vorausfliegenden UAV 104 erfassten Informationen mit den vom hinterherfliegenden UAV 154 erfassten Informationen, so dass die Informationen demselben Terrain auf dem Feld entsprechen.
  • Die Differenzabbildungerzeugungskomponente 194 erzeugt anschließend eine Differenzabbildung, die eine Differenz zwischen dem vorgeschriebenen und dem tatsächlichen Erntegutpflegearbeitsablauf anzeigt. Dies wird durch Block 264 angezeigt. Beispielsweise wird, wäre ein bestimmter Satz von Chemikalien in verschiedenen Konzentrationen an verschiedenen Standorten auf dem Feld aufzutragen, wird die Differenzabbildung anzeigen, ob und wie sehr der tatsächliche Sprüharbeitsablauf mit der Vorschrift übereinstimmt.
  • Die Differenansichterzeugungskomponente 194 gibt dann die Differenzabbildung für die Verwendung aus. Dies wird durch Block 266 angezeigt. Die Differenzabbildung kann auf eine große Vielzahl verschiedener Arten verwendet werden. Sie kann von der mobilen Erntegutpflegemaschine 102 selbst verwendet werden. Dies wird durch Block 268 angezeigt. Beispielsweise kann eine Maschine 202 einen zusätzlichen steuerbaren Mechanismus 280 (wie etwa einen zweiten Düsensatz, die hinter dem UAV 154 eingesetzt werden oder eine zweite gezogene Sprühmaschine oder einen Chemikalienaufträger) aufweisen. Sie kann auch verwendet werden, um den Arbeitsablauf einer anderen mobilen Erntegutpflegemaschine zu beeinflussen. Dies wird durch Block 270 gezeigt. 8 veranschaulicht ein Beispiel dafür.
  • Aus 8 geht hervor, dass eine Vielzahl sekundärer mobiler Erntegutpflegemaschinen 272274 bereitgestellt sind, die dem hinterherfliegenden UAV 154 folgen. Maschine 272 ist ein Nachbesserungs-UAV, das einen Chemikalienaufträger 276 umfasst, und das verwendet werden kann, um eine Chemikalie auf das Feld oder den Arbeitsbereich aufzutragen. Maschine 274 ist eine weitere bodenfahrende Maschine 274, wiederum mit einem Aufträger 278, der zum Auftragen von Chemikalien verwendet werden kann. Die Maschinen 272274 können bemannte, autonome, halbautonome oder, zusätzliche gebundene Maschinen sein.
  • Basierend auf der Differenzabbildung, werden die Bereiche 282 und 284 als nachbesserungsbedürftig identifiziert. Beispielsweise kann es sein, dass die Vorschrift mit Bezug auf die Bereiche 282 und 284 nicht präzise genug befolgt wurde. In dem Fall kann die Differenzabbildung (oder manche Anzeigen oder Metriken, die beispielhaft für die Differenzabbildung sind) einer oder mehreren Maschinen 272274 bereitgestellt werden, die eine Nachbesserung durchführen und zusätzliche Chemikalien auf die Bereiche 282 und 284 sprühen können. In noch einem weiteren Beispiel weist das hinterherfliegende UAV 152 selbst einen Chemikalienaufträger auf, der ebenfalls verwendet werden kann, um die Punkte 282 und 284 zu behandeln.
  • Als eine Implementierung kann die Differenzabbildung seine Vektorregionen oder Matrixelemente nach Auftragung der Chemikalie als „angemessen“, „grenzwertig“, „mangelhaft“ etc. eingeteilt haben. Die mangelhaften Bereiche 282 und 284 können vom Prozessor als genug wirtschaftliches oder anderes Interesse aufweisend identifiziert werden, um nachgebessert zu werden. Dem mangelhaften Bereich 282 kann ein Nachbesserungs-UAV 272 zugewiesen werden, das eine Chemikalie auftragen kann, um den Bereich in den Auftragungsstatus „angemessen“ zu bringen. Wiederum auf 7 Bezug nehmend kann die Differenzabbildung auch verwendet werden, um Warnungen oder Benachrichtigungen für den Benutzer zu erzeugen. Dies wird durch Block 290 in 7 angezeigt.
  • Beispielsweise ist ein chemischer Marker (verwendet, um zu identifizieren, ob die Auftragung mit der Vorschrift übereinstimmt) möglicherweise teuer. Somit kann es sein, dass er nicht durchgehend über den gesamten Arbeitsbereich (oder Feld) aufgetragen wird. In solchen Fällen kann er auf einen Diagnoseteil des Arbeitsbereichs oder Felds aufgetragen werden und Aktionen können gesetzt werden, basierend darauf, was sich in diesem Diagnoseteil ereignet hat. Beispielsweise kann die Differenzabbildung Werte umfassen, die verwendet werden, um eine Auftragungsmetrik zu erzeugen, die die Qualität der Auftragung anzeigt (z.B. wie sehr es mit der Vorschrift übereinstimmt). Als ein Beispiel kann jeder Teil 160, für den Daten erfasst werden und für den eine Vorschrift erzeugt wird, in Teilabschnitte unterteilt werden und jeder Teilabschnitt kann einen Wert aufweisen, der anzeigt, wie gut die tatsächliche Auftragung mit der Vorschrift übereinstimmt. 8A veranschaulicht ein Beispiel einer Differenzabbildung für einen solchen Teil.
  • In dem in 8A gezeigten Beispiel wird angenommen, dass der steuerbare Mechanismus 142 eine Sprühmaschine ist, die 8 Düsen oder Teilabschnitte aufweist. Somit umfasst die Differenzabbildung einen Wert, der jeder Düse oder jedem Teilabschnitt entspricht. Der für jeden Teil der Differenzabbildung erzeugte Wert zeigt an, ob eine gegebene Chemikalie übermäßig aufgetragen, wie vorgeschrieben aufgetragen oder mangelhaft aufgetragen etc. wurde. Somit sind die acht Werte auf der in 8A gezeigten Differenzabbildung +5, 0, +1, –1, –3, –5, –4 und –4. Die Differenzwerte können eine Prozentabweichung (oder eine andere Abweichung) von der Vorschrift oder einer anderen Variablen darstellen, die angibt, wie gut die tatsächliche Auftragung mit der Vorschrift übereinstimmt. Die Werte können verwendet werden, um eine Auftragungsmetrik zu erzeugen.
  • Beispielsweise kann die Auftragungsmetrik erzeugt werden, indem alle individuellen Werte in der Differenzabbildung für einen entsprechenden Teil des Arbeitsbereichs summiert werden. Die Summe kann eine einfache Summe, eine Summe absoluter Fehlerwerte, eine gewichtete Summe oder jede andere Metrik sein. Sobald die Metrik berechnet wurde, kann sie mit einer oder mehreren Warnschwellen verglichen werden. Beispielsweise können die Warnschwellen eine erste Schwelle umfassen. Liegt die Metrik innerhalb der ersten Schwelle, kann eine Benachrichtigung erzeugt werden, die anzeigt, dass der Arbeitsablauf angemessen durchgeführt wird. Übersteigt die Metrik die erste Schwelle, liegt aber innerhalb einer zweiten Schwelle, kann das anzeigen, dass der Arbeitsablauf angemessen durchgeführt wird, aber sich nahe der Grenze zu einer unangemessenen Durchführung befindet. In diesem Fall kann eine warnende Benachrichtigung erzeugt werden. Übersteigt die Metrik die zweite Schwelle, kann dies eine Warnung erzeugen, die anzeigt, dass der Arbeitsablauf unangemessen durchgeführt wird. Selbstverständlich kann es eine große Vielzahl verschiedener Anzahlen und Arten von Schwellen geben, um eine große Vielzahl verschiedener Arten von Warnungen oder Benachrichtigungen zu erzeugen.
  • Es wird auch angemerkt, dass die Warnungen und Benachrichtigungen eine große Vielzahl verschiedener Formen annehmen können. Sie können einer lokalen Bedienperson oder an einen entfernten Ort bereitgestellt werden. Sie können visuelle Kommunikationen (wie etwa farbkodiert grün, gelb, rot etc.) sein. Sie können akustisch (wie etwa kein Geräusch, Intervallton, Dauerton etc.) sein. Sie können haptisch (wie etwa keine Vibration des Sitzes oder des Telefons, Intervallvibration, Dauervibration etc.) sein oder sie können eine beliebige einer großen Vielzahl anderer Formen annehmen.
  • Bezugnehmend wiederum auf 7 kann die Differenzabbildung ausgegeben werden, um eine visuell wahrnehmbare Qualitätsansicht zu erzeugen. Dies wird durch Block 292 angezeigt. Die Qualitätsansicht kann beispielsweise eine geographische Darstellung des Felds und visuell wahrnehmbare Identifikatoren umfassen, die die Qualität des Erntegutpflegearbeitsablaufs anzuzeigen, wie er auf jedem der identifizierten Standorte im Feld durchgeführt wurde. In einem anderen Beispiel wurden nur die Bereiche, in denen der Arbeitsablauf ungenügend durchgeführt wurde, identifiziert. Die Qualitätsansicht kann auch eine große Vielzahl anderer Formen annehmen.
  • Bezugnehmend wiederum auf 7 kann die Differenzabbildung verwendet werden, um auch andere Funktionen durchzuführen. Beispielsweise kann sie verwendet werden, um eine Musteridentifikation 294 durchzuführen, die problematische Muster anzeigen kann. Sie kann verwendet werden, um eine Fehlerbearbeitung und eine Fehlerkorrektur, wie durch Block 296 angezeigt, durchzuführen, und sie kann verwendet werden, um Maschinenprobleme zu identifizieren und Korrekturindikatoren, die diese Probleme korrigieren, zu erzeugen. Maschinenprobleme können Konfigurationsprobleme umfassen, die Probleme mit Bezug auf die Konfiguration oder den Aufbau der Maschine anzeigen, oder sie können tatsächliche Betriebsstörungen der Maschine anzeigen. Alle diese werden durch Block 298 angezeigt.
  • 9 und 10 werden nun beschrieben, um eine Reihe von Beispielen für Musteridentifikation 294, Fehlerbearbeitung und -korrektur 296 und Maschinenproblemidentifikation und -korrektur 298 anzuzeigen. Es wird angemerkt, dass die Erntegutpflegesteuerung 140 für die Durchführung dieser Art von Vorgängen Zusatzinformationen aus dem Sammelsystem 198 abrufen kann. Eine Reihe von Beispielen dafür wird nachfolgend ebenso beschrieben.
  • 9 zeigt ein Beispiel für Architektur 152, in der manche Objekte ähnlich denen in 3 gezeigten sind und sie ähnlich nummeriert sind. 9 zeigt jedoch, dass die Maschine 102 in dem erörterten Beispiel einen Sprühmechanismus 300 umfasst, der eine Chemikalie 302, ein Verteilungssystem 304 (welches Dinge wie Pumpen, Verteilungsleitungen etc. umfassen kann) und einen Satz Düsenventilaktoren 306 umfasst. Der steuerbare Mechanismus 142 umfasst eine Anordnung von Sprühdüsen 308. Jede Düse kann einzeln steuerbar sein oder sie können in Segmenten steuerbar sein. Düsenventilaktoren 306 steuern Pumpen und Leitungen 304, um eine oder mehrere Chemikalien 302 in verschiedenen Konzentrationen durch jede der Düsen 308 auf den entsprechenden Teil des zu behandelnden Felds abzugeben. Das vorausfliegende UAV 104 fühlt die Attribute des Teils 162 ab, so dass eine Vorschrift für die Chemikalienabgabe auf diesen Bereich erzeugt werden kann, wenn sich die Maschine 102 darüber befindet. Das hinterherfliegende UAV 154 fühlt die Qualität dieser Auftragung ab.
  • In manchen Beispielen kann ein Auftragungsfehler auf eine Maschine oder eine Umgebungssituation bezogen sein, für die ein Ausgleich durchgeführt werden kann, um den Auftragungsfehler zu reduzieren. In diesem Fall kann die Differenzabbildung durch das Korrekturmaßnahmensystem 200 analysiert werden. Beispielsweise kann die Problemidentifikationskomponente 208 Muster, die Probleme anzeigen, identifizieren und die Korrekturmaßnahmenidentifikationskomponente 210 kann Korrekturmaßnahmen identifizieren, die unternommen werden können, um diese Probleme zu mildern oder zu beseitigen. Die Komponenten 208 und 210 können auch vom Ergänzungsinformationssammelsystem 198 empfangene Informationen verwenden.
  • Zum Beispiel kann der Auftragungsfehler größer sein, wo signifikante Seitenwinde vorliegen. In einem solchen Beispiel kann die Chemikalie zwischen der Zeit, zu der sie von den Düsen 308 abgegeben wird, und der Zeit, zu der sie das zu behandelnde Erntegut erreicht, in Richtung der Seitenwinde verblasen werden. Somit kann das Ergänzungsinformationssammelsystem 198 ein System sein, das die Windgeschwindigkeit und -richtung misst. Dies kann lokal relativ zur Maschine 102 gemessen werden oder es kann von einer nahegelegenen Wetterstation oder auf anderem Wege erhalten werden. Durch die Berücksichtigung der Windgeschwindigkeit und Windrichtung kann es sein, dass die Problemidentifikationskomponente 208 und die Korrekturmaßnahmenidentifikationskomponente 210 identifizieren, dass der wehende Wind die Chemikalie von ihrem vorgeschriebenen Stelle auf eine Stelle räumlich verlagert hat, die von der vorgeschriebenen Stelle um eine zum Windvektor proportionale (oder anderweitig darauf bezogene) Distanz verschoben ist. In diesem Fall kann die Korrekturmaßnahmenidentifikationskomponente 210 identifizieren, dass die Korrekturmaßnahme das Modifizieren, welche Ausgangsstellen (z.B. welche Düsen 308) verwendet werden, um die Chemikalien aufzutragen, und des Zeitablaufs der Chemikalienfreisetzung umfasst. Beispielsweise kann bei einem bestimmten Windvektor bestimmt werden, für eine gegebene Maschinengeschwindigkeit und -richtung die zugewiesenen Düsen 50 cm in eine Richtung zu verschieben und die Auftragung um 500 ms zu verzögern (relativ zu der Vorschrift, die während ruhiger Windverhältnisse zur Anwendung käme). Dies würde die Chemikalie mit einer geringeren Abweichung von der vorgeschriebenen Auftragung auftragen. 10 (die 10A, 10B und 10C umfasst) veranschaulicht dies. 10 nimmt an, dass die Fahrtrichtung der Maschine relativ zu den veranschaulichten Teilen durch den Pfeil 158 gezeigt wird.
  • 10A zeigt, dass die vorgeschriebene Auftragung von Chemikalien für einen Teil 160 durch 310 repräsentiert werden kann. Dies zeigt an, dass für einen wesentlichen Teil des behandelten Bereichs eine Auftragung von Chemikalien bei Rate 1 bereitgestellt werden sollte. Für einen relativ kleinen Teil nahe dem Mittelpunkt des gesamten Teils sollte die Chemikalie jedoch bei Rate 2 aufgetragen werden. Da das hinterherfliegende UAV 154 über den Teil fliegt, in dem die Auftragung stattgefunden hat, fühlt es ein Auftragungsmuster ab, das von 312 angezeigt wird. Dies zeigt an, dass sich der der Rate 2 entsprechende Auftragungsteil von dem vorgeschriebenen Standort verlagert hat. Dies (gemeinsam mit einem Windvektor, falls einer verwendet wird) kann tendenziell anzeigen, dass der Wind die Auftragung beeinflusst hat. In diesem Fall kann das Korrekturmaßnahmensystem 200 das Problem identifizieren und zukünftige Auftragungen korrigieren, um die Windgeschwindigkeit und -richtung zu berücksichtigen.
  • 10B zeigt ein Beispiel für ein Muster, das von dem Korrekturmaßnahmensystem 200 identifiziert werden kann, um eine Maschinenfehlfunktion zu identifizieren. In 2B zeigt die Ziffer 314 an, dass der gesamte behandelte Teil eine Auftragung der Chemikalie bei Rate 1 erhalten sollte. Zahl 316 zeigt jedoch die tatsächlich aufgetragene Rate, die vom hinterherfliegenden UAV 154 abgefühlt wird. Es ist ersichtlich, dass es zwei Abschnitte 318 und 320 gibt, welche die Auftragung mit Rate 1 erhalten haben. Es gibt jedoch auch einen Abschnitt 322, der keine Auftragung erhalten hat. Da die Fahrtrichtung durch den Pfeil 158 angezeigt wird, kann der Abschnitt 322 einer Düse entsprechen, die ausgefallen oder verstopft ist. In diesem Fall kann der Betreiber unverzüglich benachrichtigt werden, und eine Angabe bezüglich der Natur des Problems kann ebenfalls bereitgestellt werden. Zum Beispiel kann eine Benachrichtigung erzeugt werden, die angibt, dass „Düse 6 verstopft oder ausgefallen“ ist.
  • 10C zeigt auch ein weiteres Muster, das verwendet werden kann, um ein Problem zu identifizieren. Zahl 324 zeigt, dass dem behandelten Teil vorgeschrieben wurde, die Chemikalie mit Rate 1 zu erhalten. Das tatsächlich angewendete Muster zeigt jedoch, dass Teil 326 eine Auftragung bei Rate 1 erhalten hat, aber Teil 328 eine Auftragung bei lediglich der halben Rate 1 erhalten hat. Dies zeigt an, dass eine Sprühdüse (oder ein Sprühabschnitt) eine reduzierte Durchflussrate aufweisen kann, aber dass diese/dieser nicht völlig ausgefallen ist. Wenn das Muster anzeigt, dass eine Düse relativ zur Vorschrift eine durchgehend niedrigere Rate aufträgt, dann kann diese Düse gesteuert werden, um X% mehr Chemikalie aufzutragen, um die tatsächlich aufgetragene Rate näher an die vorgeschriebene Rate heranzubringen.
  • In noch einem weiteren Beispiel können diese Muster anzeigen, dass eine Pumpe, welche die Chemikalie einer Abschnittsdüse zuführt oder ein Ventil, welches den Durchfluss der Chemikalie regelt, lecken kann. Dies kann eine reduzierte Auftragung durch diese Düse zur Folge haben. Das Muster kann daher eine relativ zur Vorschreibung durchgehend niedrige tatsächlich aufgetragene Rate für eine Düse oder eine Anzahl von Düsen anzeigen, die von der Pumpe oder von dem Ventil beliefert werden. Eine geeignete Warnung oder Benachrichtigung kann für den Benutzer zur Verfügung gestellt werden.
  • Erneut auf das Flussdiagramm von 7 Bezug nehmend, können die von den UVAs 104 und 154 (oder von beiden) erzeugten Informationen auch verwendet werden, um Kalibrierungsvorgänge unter Verwendung diagnostischer Zonenverarbeitung durchzuführen. Dies wird durch Block 350 angezeigt. 11 zeigt ein Beispiel dafür. 11 zeigt, dass, um Kosten oder andere Faktoren, die mit einem chemischen Marker assoziiert werden, zu reduzieren, die Verwendung des chemischen Markers auf einen Satz diagnostischer Zonen im Arbeitsbereich beschränkt sein kann. In 11 kann ein A-priori-Auftragungspfad 352 für die Maschine 102 berechnet werden. Es kann jedoch sein, dass die Maschine nur auf einem Satz diagnostischer Zonen entlang dieses Pfades eine Verarbeitung durchführt. Der Satz diagnostischer Zonen kann auch a priori oder in situ oder unter Verwendung einer Kombination von sowohl A-priori- als auch In-situ-Identifizierung identifiziert werden.
  • Manche Kriterien, die verwendet werden können, um den Standort der diagnostischen Zonen zu definieren, können zum Beispiel Windrichtung, Windgeschwindigkeit, Auftragungsrate, aufgrund der Vorschrift verwendete Auftragungsauslässe etc. umfassen. In 11 können die diagnostischen Zonen 354 und 356 zum Beispiel zur Windkalibrierung verwendet werden, wenn die Maschine in die östliche Richtung in 11 fährt. Eine Auftragungsvorschrift kann für Zone 354 erzeugt werden, und dann kann die Auftragung aufgetragen werden und das tatsächlich aufgetragene Muster kann detektiert werden. Anpassungen können auf Basis dessen vorgenommen werden, wie gut das tatsächlich aufgetragene Muster mit der Vorschrift übereinstimmt, und die gleiche Verarbeitung kann in Bezug auf Zone 356 vorgenommen werden. Die diagnostischen Zonen 358 und 360 können zur Windkalibrierung verwendet werden, wenn die Maschine in die westliche Richtung fährt.
  • In einem weiteren Beispiel können die diagnostischen Zonen 362 und 364 verwendet werden, um den Komponentenzustand bei hohen Auftragungsraten zu prüfen, und die diagnostischen Zonen 366 und 368 können verwendet werden, um den Komponentenzustand bei niedrigen Auftragungsraten zu prüfen. Zusätzliche diagnostische Zonen können auf Basis der Feldbedingungen zugewiesen werden. Solche diagnostische Zonen können auf Basis individueller Feldbedingungen und der konkret durchgeführten Erntegutpflegefunktion stark variieren.
  • Es sollte ebenso beachtet werden, dass die vorliegenden Architekturen es berücksichtigen, die Maschine 102 zur Durchführung mehrerer Feldüberquerungen zu verwenden. Zum Beispiel kann bei einer ersten Feldüberquerung ein einzelnes UAV 104 der Maschine 102 vorausfliegen. In dem zweiten Betriebsmodus kann es der Maschine 102 hinterherfliegen. In anderen Beispielen werden sowohl voraus- als auch hinterherfliegende UAVs verwendet, und die zweite Feldüberquerung von Maschine 104 wird verwendet, um Nachbesserungsvorgänge durchzuführen. All diese werden hierin berücksichtigt.
  • Erneut auf 7 Bezug nehmend, kann eine Vielzahl von Nachbetriebsanalyseverfahren 351 für die hierin beschriebenen Daten durchgeführt werden. Diese können auf Maschine 102 erfolgen oder an eine Remote-Serverumgebung gesendet werden, wo die Analytik durchgeführt wird. Die Daten können auch auf andere Weisen 353 genutzt werden.
  • 12 zeigt noch ein weiteres Beispiel von Maschine 102. Maschine 102 weist beispielsweise ein vorausfliegendes UAV 104 und ein hinterherfliegendes UAV 154 auf. Sie sind beispielsweise unter Verwendung physischer Halteseile, welche die Verbindungen 108 und 156 repräsentieren, mit Maschine 102 verbunden. 12 stellt auch dar, dass der Maschine 102 beispielsweise ein Landebereich (oder Andockbereich) 380 bereitgestellt ist. In dem In 12 gezeigten Beispiel umfasst der Andockbereich 380 beispielsweise einen Bereich, damit die UAVs 104 und 154 landen oder andocken können. Sie können mechanische Befestigungs- oder Einrastmechanismen umfassen, die automatisch oder manuell betätigt werden, um die UAVs 104 und 154 an der Maschine 102 zu befestigen. Sie können Strom- oder Batterielade-Andockelemente, Datenübertragungsanschlüsse oder auch andere mechanische, elektronische oder elektromagnetische Komponenten umfassen.
  • Es ist ersichtlich, dass das vorliegende System eine Echtzeit- oder Fast-Echtzeitsteuerung bereitstellt. Weil das eine oder mehrere UAVs Daten über den Arbeitsbereich zur gleichen Zeit bereitstellen, zu der die mobile Maschine auf dem Arbeitsbereich arbeitet, kann diese Art der Steuerung erzielt werden. Dies trifft unabhängig davon zu, ob die UAVs gleichzeitig vor der – und hinter der – mobilen Maschine betrieben werden oder ob ein UAV hinter der mobilen Maschine betrieben wird oder zwischen dem Betrieb vor und hinter der mobilen Maschine wechselt.
  • Ausführungsformen der vorliegenden Erfindung weisen vorteilhafterweise Bilder mit ausreichender Auflösung auf, um kleine Objekte in dem Feld zu unterscheiden.
  • In der vorliegenden Beschreibung wurden Prozessoren und Server erwähnt. In einem Beispiel umfassen die Prozessoren und Server Computerprozessoren mit zugeordneter Arbeitsspeicher- und Zeitsteuerungsschaltung, die nicht separat gezeigt werden. Sie sind Funktionsteile der Systeme oder Vorrichtungen, zu denen sie gehören und von denen sie aktiviert werden, und ermöglichen die Funktionalität der anderen Komponenten oder Objekte in diesen Systemen.
  • Ebenso wurden mehrere Benutzerschnittstellenanzeigen beschrieben. Sie können eine breite Palette unterschiedlicher Formen annehmen und können eine breite Palette unterschiedlicher, vom Benutzer betätigbarer Eingabemechanismen aufweisen, die darauf angeordnet sind. Zum Beispiel können die vom Benutzer betätigbaren Eingabemechanismen Textfelder, Kontrollfelder, Symbole, Links, Dropdown-Menüs, Suchfelder etc. sein. Sie können auch auf eine breite Palette unterschiedlicher Weisen betätigt werden. Zum Beispiel können sie betätigt werden, indem eine Zeige- und Klickvorrichtung (wie z. B. ein Trackball oder eine Maus) verwendet wird. Sie können unter Verwendung von Hardwareknöpfen, Schaltern, einem Steuerknüppel oder einer Tastatur, Daumenschaltern oder Daumenkontaktfeldern etc. betätigt werden. Sie können auch unter Verwendung einer virtuellen Tastatur oder anderer virtueller Aktoren betätigt werden. Zusätzlich dazu können sie, wenn der Bildschirm, auf dem sie angezeigt werden, ein berührungssensibler Bildschirm ist, unter Verwendung von Berührungsgesten aktiviert werden. Ebenso können sie, wenn die Vorrichtung, die sie anzeigt, Spracherkennungskomponenten aufweist, unter Verwendung von Sprachbefehlen betätigt werden.
  • Einige Datenspeicher wurden ebenfalls beschrieben. Es wird angemerkt, dass sie jeweils in mehrere Datenspeicher aufgeteilt werden können. Alle können lokal auf den Systemen sein, die auf sie zugreifen; alle können rechnerfern sein, oder manche können lokal sein, während andere rechnerfern sind. All diese Konfigurationen werden hierin berücksichtigt.
  • Ebenso zeigen die Figuren einige Blöcke, wobei jedem Block eine Funktionalität zugeordnet ist. Es wird angemerkt, dass weniger Blöcke verwendet werden können, sodass die Funktionalität von weniger Komponenten durchgeführt wird. Ebenso können mehr Blöcke verwendet werden, wobei die Funktionalität unter mehr Komponenten aufgeteilt ist.
  • Man wird ebenso bemerken, dass die Differenzabbildung oder beliebige der anderen Informationen an eine Remote-Serverumgebung ausgegeben werden können.
  • 13 ist ein Blockdiagramm der in 1 gezeigten Maschine 102, außer dass sie mit Elementen in einer Remote-Serverarchitektur 500 kommuniziert. In einem Beispiel kann die Remote-Serverarchitektur 500 Rechen-, Software-, Datenzugangs- und Speicherdienste bereitstellen, die es nicht erfordern, dass der Endbenutzer den physischen Standort oder die Konfiguration des Systems, das die Dienste liefert, kennt. In verschiedenen Ausführungsformen können Remote-Server die Dienste unter Verwendung geeigneter Protokolle über ein weiträumiges Netzwerk wie z. B. das Internet liefern. Zum Beispiel können Remote-Server Anwendungen über ein weiträumiges Netzwerk liefern, und auf sie kann über einen Webbrowser oder eine beliebige andere Rechenkomponente zugegriffen werden. In den vorangehenden Figuren gezeigte Software oder Komponenten sowie die entsprechenden Daten können auf Servern an einem entfernten Standort gespeichert werden. Die Rechenressourcen in einer Remote-Serverumgebung können an einem entfernten Datenzentrumstandort konsolidiert werden, oder sie können verteilt sein. Remote-Serverinfrastrukturen können Dienste über gemeinsam genutzte Datenzentren liefern, obwohl sie dem Benutzer als ein einzelner Zugriffspunkt erscheinen. Daher können die hierin beschriebenen Komponenten und Funktionen unter Verwendung der Remote-Serverarchitektur von einem Remote-Server an einem entfernten Standort bereitgestellt werden. Alternativ dazu können sie von einem herkömmlichen Server bereitgestellt werden, oder sie können direkt oder auf andere Weise auf Kundenvorrichtungen installiert sein.
  • In dem in 13 gezeigten Beispiel sind manche Objekte ähnlich den in vorangehenden Figuren gezeigten und ähnlich nummeriert. 13 zeigt insbesondere, dass die Erntegutpflegesteuerung (oder Teile davon) und der Datenspeicher 206 an einem Remote-Serverstandort 502 angeordnet sein können. Daher greift die Maschine 102 auf diese Systeme über den Remote-Serverstandort 502 zu.
  • 13 stellt ebenso ein weiteres Beispiel der Remote-Serverarchitektur dar. 13 zeigt, dass auch berücksichtigt wird, dass manche Elemente an dem Remote-Serverstandort 502 angeordnet sind, während andere dies nicht sind. Beispielhaft können der Datenspeicher 206 oder ein Drittsystem 507 an einem Standort angeordnet sein, der vom Standort 502 getrennt ist, und auf sie kann über den Remote-Server am Standort 502 zugegriffen werden. Andere Teile der Maschine 102 (z. B. Teile des Steuersystems 140) können an einem Remote-Serverstandort 502 oder an einem anderen Ort gespeichert sein. Unabhängig davon, wo sie angeordnet sind, kann direkt über ein Netzwerk (entweder ein weiträumiges Netzwerk oder ein lokales Netzwerk) von der Maschine 102 oder dem Benutzer 508 auf sie zugegriffen werden, sie können an einem entfernten Standort von einem Dienst gehostet werden, oder sie können als Dienst bereitgestellt werden, oder auf sie kann über einen Verbindungsdienst zugegriffen werden, der sich an einem entfernten Standort befindet. Ebenso können die Daten im Wesentlich an einem beliebigen Standort gespeichert werden, und auf sie kann zeitweise durch Interessenten zugegriffen werden oder sie können an diese weitergeleitet werden. Zum Beispiel können physische Träger statt oder zusätzlich zu elektromagnetischen Wellenträgern verwendet werden. In einer solchen Ausführungsform, in welcher die Netzabdeckung schlecht oder nicht vorhanden ist, kann eine weitere mobile Maschine (wie z. B. ein Tanklaster) ein automatisches Informationssammelsystem aufweisen. Wenn die Maschine 102 (oder beliebige UAVs) dem Tanklaster zum Betanken nahe kommen, sammelt das System unter Verwendung einer beliebigen Art von Ad-hoc-Drahtlosverbindung automatisch die Informationen von der Maschine (oder dem UAV). Die gesammelten Informationen können dann an das Hauptnetzwerk weiteregeleitet werden, wenn der Tanklaster einen Standort erreicht, an dem es eine Mobilfunkabdeckung (oder eine andere Drahtlosnetzabdeckung) gibt. Zum Beispiel kann der Tanklaster an einen Standort mit Netzabdeckung kommen, wenn er zum Betanken anderer Maschinen unterwegs ist oder wenn er an einem wichtigen Treibstofflagerstandort ist. All diese Architekturen werden hierin berücksichtigt. Ferner können die Informationen auf der Maschine 102 gespeichert werden, bis die Maschine 102 an einen Standort mit Netzabdeckung kommt. Die Maschine 102 kann dann selbst die Informationen an das Hauptnetzwerk senden.
  • Man wird ebenso bemerken, dass die Elemente von 1 oder Teile davon auf einer breiten Palette unterschiedlicher Vorrichtungen angeordnet sein können. Manche dieser Vorrichtungen umfassen Server, Desktopcomputer, Laptopcomputer, Tabletcomputer oder andere mobile Vorrichtungen wie z. B. Palmtop-Computer, Mobiltelefone, Smart Phones, Multimedia-Player, persönliche digitale Assistenten etc.
  • 14 ist ein vereinfachtes Blockdiagramm eines veranschaulichenden Beispiels einer tragbaren oder mobilen Rechenvorrichtung, die als tragbare Vorrichtung 16 eines Benutzers oder Kunden verwendet werden kann, in welcher das vorliegende System (oder Teile davon) eingesetzt werden können. Zum Beispiel kann eine mobile Vorrichtung zur Verwendung bei der Erzeugung, Verarbeitung oder Anzeige der Daten in der Betreiberkabine der Maschine 102 eingesetzt werden. 1516 sind Beispiele tragbarer oder mobiler Vorrichtungen.
  • 14 stellt ein allgemeines Blockdiagramm der Komponenten einer Client-Vorrichtung 16 bereit, die manche in vorangehenden Figuren gezeigte Komponenten betreiben kann, die mit diesen interagiert, oder beides. In der Vorrichtung 16 wird eine Kommunikationsverbindung 13 bereitgestellt, die es der tragbaren Vorrichtung ermöglicht, mit anderen Rechenvorrichtungen zu kommunizieren und in manchen Ausführungsformen einen Kanal zum automatischen Empfangen von Informationen, wie z. B. durch Scannen, bereitstellt. Beispiele der Kommunikationsverbindung 13 umfassen es, die Kommunikation durch ein oder mehrere Kommunikationsprotokolle ermöglichen, wie z. B. Drahtlosdienste, die zum Bereitstellen eines Mobilfunkzugangs zu einem Netzwerk verwendet werden, und Protokolle, die lokale Drahtlosverbindungen zu Netzwerken bereitstellen.
  • In anderen Beispielen können Anwendungen auf einer Wechsel-Secure-Digital-(SD-)Karte empfangen werden, die mit einer Schnittstelle 15 verbunden ist. Die Schnittstelle 15 und die Kommunikationsverbindungen 13 kommunizieren mit dem Prozessor 17 (der auch Prozessoren oder Server aus vorangehenden Figuren enthalten kann) über einen Bus 19, der auch mit dem Arbeitsspeicher 21 und Eingabe/Ausgabe-(I/O-)Komponenten 23 sowie mit dem Taktgeber 25 und dem Ortungssystem 27 verbunden ist.
  • In einer Ausführungsform sind I/O-Komponenten 23 bereitgestellt, um Eingabe- und Ausgabevorgänge zu vereinfachen. In verschiedenen Ausführungsformen der Vorrichtung 16 können die I/O-Komponenten 23 Eingabekomponenten wie z. B. Knöpfe, Touch-Sensoren, optische Sensoren, Mikrofone, Touch Screens, Näherungssensoren, Beschleunigungsmesser, Orientierungssensoren sowie Ausgabekomponenten wie z. B. eine Anzeigevorrichtung, einen Lautsprecher und/oder einen Druckeranschluss umfassen. Andere I/O-Komponenten 23 können ebenfalls verwendet werden.
  • Der Taktgeber 25 umfasst beispielsweise eine Echtzeit-Taktgeberkomponente, die eine Zeit und ein Datum ausgibt. Sie kann beispielsweise auch Zeiteinstellungsfunktionen für den Prozessor 17 bereitstellen.
  • Das Ortungssystem 27 umfasst beispielsweise eine Komponente, die einen derzeitigen geografischen Standort der Vorrichtung 16 ausgibt. Dies kann zum Beispiel einen Empfänger eines Globalen Positionierungssystems (GPS), ein LORAN-System, ein Koppelnavigationssystem, ein zellulares Triangulationssystem oder ein anderes Positionierungssystem umfassen. Es kann zum Beispiel auch Kartierungssoftware oder Navigationssoftware umfassen, die gewünschte Karten, Navigationsrouten und andere geografische Funktionen erzeugt.
  • Der Arbeitsspeicher 21 speichert das Betriebssystem 29, Netzwerkeinstellungen 31, Anwendungen 33, Anwendungskonfigurationseinstellungen 35, den Datenspeicher 37, Kommunikationstreiber 39 und Kommunikationskonfigurationseinstellungen 41. Der Arbeitsspeicher 21 kann alle Arten von materiellen, nichtflüchtigen, computerlesbaren Arbeitsspeichervorrichtungen umfassen. Er kann ebenso (unten beschriebene) Computerspeichermedien umfassen. Der Arbeitsspeicher 21 speichert computerlesbare Befehle, die, wenn sie von dem Prozessor 17 ausgeführt werden, bewirken, dass der Prozessor computerimplementierte Schritte oder andere Funktionen gemäß den Befehlen durchführt. Der Prozessor 17 kann auch von anderen Komponenten aktiviert werden, um ihre Funktionalität zu vereinfachen.
  • 15 zeigt ein Beispiel, in welchem die Vorrichtung 16 ein Tabletcomputer 600 ist. In 16 wird der Computer 600 mit dem Benutzerschnittstellenanzeigebildschirm 602 gezeigt. Der Bildschirm 602 kann ein Touch Screen oder eine mit einem Stift bedienbare Schnittstelle sein, die Eingaben von einem Stift oder Eingabestift empfängt. Er kann auch eine virtuelle Tastatur auf dem Bildschirm sein. Natürlich kann er auch über einen geeigneten Anschlussmechanismus wie zum Beispiel eine Drahtlosverbindung oder einen USB-Anschluss an eine Tastatur oder eine andere Benutzereingabevorrichtung angeschlossen sein. Der Computer 600 kann beispielsweise auch Spracheingaben empfangen.
  • Zusätzliche Beispiele von Vorrichtungen 16 können ebenso verwendet werden. Die Vorrichtung 16 kann eine Telefonfunktion, ein Smartphone oder ein Mobiltelefon sein. Das Telefon kann einen Satz von Tastenfeldern umfassen, um Telefonnummern zu wählen, eine Anzeige, die dazu fähig ist, Bilder einschließlich Anwendungsbilder, Symbole, Webseiten, Fotografien und Videos anzuzeigen, sowie Steuerknöpfe, um auf dem Bildschirm gezeigte Symbole auszuwählen. Das Telefon kann eine Antenne umfassen, um zellulare Telefonsignale wie z. B. General Packet Radio Service (GPRS) und 1Xrtt sowie Short Message Service-(SMS-)Signale zu empfangen. In manchen Beispielen umfasst das Telefon auch einen Secure-Digital-(SD-)Kartenschlitz, der eine SD-Karte aufnimmt.
  • Die mobile Vorrichtung kann auch ein persönlicher digitaler Assistent oder Multimedia-Player oder eine Tablet-Rechenvorrichtung etc. sein (im Folgenden als PDA bezeichnet). Der PDA kann einen induktiven Bildschirm umfassen, welcher die Position eines Eingabestifts (oder anderer Zeigevorrichtungen wie z. B. des Fingers eines Benutzers) abfühlt, wenn der Eingabestift über dem Bildschirm positioniert ist. Dies ermöglicht es dem Benutzer, Objekte auf dem Bildschirm auszuwählen, hervorzuheben und zu bewegen als auch zu zeichnen und zu schreiben. Der PDA kann auch einige Benutzereingabetasten oder -knöpfe umfassen, die es dem Benutzer ermöglichen, durch Menüoptionen oder andere Anzeigeoptionen zu scrollen, die auf der Anzeige angezeigt werden, und es dem Benutzer ermöglichen, Anwendungen zu ändern oder Benutzereingabefunktionen auszuwählen, ohne die Anzeige zu berühren. Der PDA kann auch eine interne Antenne und einen Infrarotsender/-empfänger, die eine drahtlose Kommunikation mit anderen Computern ermöglichen, sowie Verbindungsanschlüsse umfassen, die Hardwareverbindungen mit anderen Rechenvorrichtungen ermöglichen. Solche Hardwareverbindungen werden üblicherweise durch eine Verbindungsstation hergestellt, welche den anderen Computer über einen seriellen oder USB-Anschluss verbindet. Daher sind diese Verbindungen keine Netzwerkverbindungen.
  • 16 zeigt, dass das Telefon ein Smart Phone 71 ist. Das Smart Phone 71 weist eine berührungsempfindliche Anzeige 73 auf, die Symbole oder Kacheln oder andere Benutzereingabemechanismen 75 anzeigt. Die Mechanismen 75 können von einem Benutzer verwendet werden, um Anwendungen auszuführen, Anrufe zu tätigen, Datenübertragungsvorgänge durchzuführen etc. Im Allgemeinen basiert das Smart Phone 71 auf einem mobilen Betriebssystem und bietet eine fortgeschrittenere Rechenfähigkeit und Konnektivität als eine Telefonfunktion.
  • Es ist zu beachten, dass andere Formen der Vorrichtungen 16 möglich sind.
  • 17 ist ein Beispiel einer Rechenumgebung, in welcher Elemente der vorangehenden Figuren oder (zum Beispiel) Teile davon eingesetzt werden können. Unter Bezugnahme auf 17 umfasst ein beispielhaftes System zur Implementierung einiger Ausführungsformen eine Mehrzweck-Rechenvorrichtung in Form eines Computers 810. Komponenten des Computers 810 können umfassen, sind aber nicht beschränkt auf, eine Verarbeitungseinheit 820 (die Prozessoren oder Server aus vorangehenden Figuren umfassen kann), einen Systemarbeitsspeicher 830 und einen Systembus 821, der verschiedene Systemkomponenten einschließlich des Systemarbeitsspeichers mit der Verarbeitungseinheit 820 koppelt. Der Systembus 821 kann unter Verwendung einer Vielzahl von Busarchitekturen ein beliebiger aus mehreren Arten von Busstrukturen einschließlich eines Arbeitsspeicherbus oder einer Arbeitsspeichersteuerung, eines peripheren Bus und eines lokalen Bus sein. Der Arbeitsspeicher und die Programme, die unter Bezugnahme auf vorangehende Figuren beschrieben wurden, können in entsprechenden Teilen von 17 eingesetzt werden.
  • Der Computer 810 umfasst üblicherweise eine Vielzahl computerlesbarer Medien. Computerlesbare Medien können beliebige verfügbare Medien sein, auf die der Computer 810 zugreifen kann, und umfassen sowohl flüchtige als auch nichtflüchtige Medien, Wechsel- und Nicht-Wechselmedien. Beispielhaft, und nicht beschränkend, können computerlesbare Medien Computerspeichermedien und Kommunikationsmedien umfassen. Computerspeichermedien unterscheiden sich von, und umfassen nicht, einem/einer modulierten Datensignal oder Trägerwelle. Sie umfassen Hardwarespeichermedien einschließlich sowohl flüchtiger als auch nichtflüchtiger, Wechsel- und Nicht-Wechselmedien, die in einem beliebigen Verfahren oder einer beliebigen Technologie zur Speicherung von Informationen implementiert sind, wie z. B. computerlesbare Befehle, Datenstrukturen, Programmmodule oder andere Daten. Computerspeichermedien umfassen, sind aber nicht beschränkt auf, RAM, ROM, EEPROM, Flash-Arbeitsspeicher oder eine andere Arbeitsspeichertechnologie, CD-ROM, Digital Versatile Disks (DVD) oder andere optische Festplattenspeicher, magnetische Kassetten, Magnetbänder, magnetische Festplattenspeicher oder andere magnetische Speichervorrichtungen oder ein beliebiges anderes Medium, das verwendet werden kann, um die gewünschten Informationen zu speichern, und auf welches von dem Computer 810 zugegriffen werden kann. Kommunikationsmedien können computerlesbare Befehle, Datenstrukturen, Programmmodule oder andere Daten in einem Transportmechanismus enthalten und umfassen beliebige Informationsübertragungsmedien. Der Begriff „moduliertes Datensignal“ bedeutet ein Datensignal, bei dem eine oder mehrere Eigenschaften so eingestellt oder geändert werden, um Informationen im Signal zu kodieren.
  • Der Systemarbeitsspeicher 830 umfasst Computerspeichermedien in Form von flüchtigen und/oder nichtflüchtigen Arbeitsspeichern wie z. B. Festwertspeichern (ROM) 831 und Direktzugriffsspeichern (RAM) 832. Ein Basis-Eingabe/Ausgabe-System 833 (BIOS), das die Basisroutinen enthält, die bei der Informationsübertragung zwischen Elementen innerhalb des Computers 810 helfen, wie z. B. während des Hochfahrens, ist üblicherweise in dem ROM 831 gespeichert. Der RAM 832 enthält üblicherweise Daten und/oder Programmmodule, auf die sofort durch die Verarbeitungseinheit 820 zugegriffen werden kann und/oder die auf dieser betrieben werden. Beispielhaft und nicht beschränkend stellt 17 das Betriebssystem 834, Anwendungsprogramme 835, andere Programmmodule 836 sowie Programmdaten 837 dar.
  • Der Computer 810 kann auch andere flüchtige/nichtflüchtige Wechsel-/Nicht-Wechsel-Computerspeichermedien umfassen. 17 stellt leidglich beispielhaft ein Festplattenlaufwerk 841 das von nichtflüchtigen, magnetischen Nicht-Wechselmedien liest oder auf diese schreibt, ein optisches Festplattenlaufwerk 855 und eine nichtflüchtige optische Festplatte 856 dar. Das Festplattenlaufwerk 841 ist üblicherweise über eine Schnittstelle für Nicht-Wechsel-Arbeitsspeicher wie z. B. die Schnittstelle 840 mit dem Systembus 821 verbunden, und das optische Festplattenlaufwerk 855 ist üblicherweise über eine Schnittstelle für Wechsel-Arbeitsspeicher wie z. B. die Schnittstelle 850 mit dem Systembus 821 verbunden.
  • Alternativ oder zusätzlich dazu kann die hierin beschriebene Funktionalität zumindest teilweise von einer oder mehreren Hardwarelogikkomponenten durchgeführt werden. Zum Beispiel und ohne Beschränkung können beispielhafte Arten von Hardwarelogikkomponenten, die verwendet werden können, feldprogrammierbare Gate-Arrays (FPGAs), anwendungsspezifische integrierte Schaltungen (z. B. ASICs), anwendungsspezifische Standardprodukte (z. B. ASSPs), Ein-Chip-Systeme (SOCs), komplexe programmierbare Logikvorrichtungen (CPLDs) etc. umfassen.
  • Die Laufwerke und die ihnen zugeordneten, oben beschriebenen und in 17 dargestellten Speichermedien stellen Speicher für computerlesbare Befehle, Datenstrukturen, Programmmodule und andere Daten für den Computer 810 bereit. In 17 wird das Festplattenlaufwerk 841 zum Beispiel so dargestellt, dass es das Betriebssystem 844, Anwendungsprogramme 845, andere Programmmodule 846 und Programmdaten 847 speichert. Es ist zu beachten, dass diese Komponenten entweder gleich dem Betriebssystem 834, den Anwendungsprogrammen 835, den anderen Programmmodulen 836 und den Programmdaten 837 sein oder sich von diesen unterscheiden können.
  • Ein Benutzer kann über Eingabevorrichtungen wie z. B. eine Tastatur 862, ein Mikrophon 863 und eine Zeigevorrichtung 861 wie z. B. eine Maus, einen Trackball oder ein Touch Pad Befehle und Informationen in den Computer 810 eingeben. Andere Eingabevorrichtungen (nicht gezeigt) können einen Steuerknüppel, eine Steuerkonsole, eine Satellitenschüssel, einen Scanner oder Ähnliches umfassen. Diese und andere Eingabevorrichtungen sind oft über eine Benutzereingabeschnittstelle 860, die mit dem Systembus gekoppelt ist, mit der Verarbeitungseinheit 820 verbunden, können aber über andere Schnittstellen- und Busstrukturen angeschlossen sein. Eine visuelle Anzeige 891 oder eine andere Art von Anzeigenvorrichtung ist ebenfalls mit über eine Schnittstelle wie z. B. eine Videoschnittstelle 890 dem Systembus 821 verbunden. Zusätzlich zu dem Monitor können Computer auch andere periphere Ausgabevorrichtungen wie z. B. die Lautsprecher 897 und den Drucker 896 umfassen, die über eine periphere Ausgabeschnittstelle 895 angeschlossen sein können.
  • Der Computer 810 wird in einer vernetzten Umgebung, die logische Verbindungen (wie z. B. ein lokales Netzwerk – LAN oder ein weiträumiges Netzwerk – WAN) zu einem oder mehreren Remote-Computern wie z. B. einem Remote-Computer 880 verwendet, betrieben.
  • Wenn er in einer LAN-Netzwerkumgebung verwendet wird, ist der Computer 810 über eine Netzwerkschnittstelle oder einen Netzwerkadapter 870 mit dem LAN 871 verbunden. Wenn er in einer WAN-Netzwerkumgebung verwendet wird, umfasst der Computer 810 üblicherweise ein Modem 872 oder andere Mittel, um Kommunikationsverbindungen über das WAN 873 wie z. B. das Internet herzustellen. In einer Netzwerkumgebung können Programmmodule in einer rechnerfernen Arbeitsspeichervorrichtung gespeichert sein. 17 stellt zum Beispiel dar, dass sich rechnerferne Anwendungsprogramme 885 auf einem Remote-Computer 880 befinden.
  • Es sollte ebenso beachtet werden, dass die verschiedenen, hierin beschriebenen Ausführungsformen auf verschiedene Weisen kombiniert werden können. Das bedeutet, Tele eines oder mehrerer Ausführungsformen können mit Teilen einer oder mehrerer anderer Ausführungsformen kombiniert werden. All dies wird hierin berücksichtigt.
  • Beispiel 1 ist eine mobile Maschine, welche Folgendes umfasst:
    einen steuerbaren Mechanismus, der einen Arbeitsablauf auf einem Arbeitsbereich durchführt, während die mobile Maschine in einer Fahrtrichtung über den Arbeitsbereich fährt;
    ein Kommunikationssystem, das Attributdaten empfängt, die ein abgefühltes Attribut eines Standortes des Arbeitsbereichs anzeigen, und das Wirkdaten empfängt, die eine Wirkung des Arbeitsablaufes an dem Standort des Arbeitsbereichs anzeigen, der in der Fahrtrichtung hinter der mobilen Maschine ist, nachdem der steuerbare Mechanismus den Arbeitsablauf an dem Standort durchgeführt hat, wobei das Kommunikationssystem die Wirkdaten von einem ersten unbemannten Luftfahrzeug (UAV) über eine Kommunikationsverbindung zwischen dem ersten UAV und der mobilen Maschine empfängt; und
    ein Steuersystem, das den steuerbaren Mechanismus auf Basis der Attributdaten steuert.
  • Beispiel 2 ist die mobile Maschine aus beliebigen oder allen vorangehenden Beispielen, worin das Steuersystem ferner Folgendes umfasst:
    eine geografische Korrelationskomponente, welche die Attributdaten und die Wirkdaten mit dem Standort korreliert.
  • Beispiel 3 ist die mobile Maschine aus beliebigen oder allen vorangehenden Beispielen, worin das Steuersystem ferner Folgendes umfasst:
    eine Vorschriftserzeugungskomponente, die einen vorgeschriebenen Arbeitsablauf für den steuerbaren Mechanismus auf Basis der Attributdaten erzeugt, wobei das Steuersystem den steuerbaren Mechanismus auf Basis des vorgeschriebenen Arbeitsablaufes steuert.
  • Beispiel 4 ist die mobile Maschine aus beliebigen oder allen vorangehenden Beispielen, worin das Steuersystem ferner Folgendes umfasst:
    eine Differenzabbildung-Erzeugungskomponente, welche für eine Vielzahl von Standorten in dem Arbeitsbereich eine Differenz zwischen dem vorgeschriebenen Arbeitsablauf an dem Standort und dem an dem Standort durchgeführten Arbeitsablauf bestimmt und eine Differenzabbildung erzeugt, welche die bestimmten Differenzen mit der Vielzahl von Standorten korreliert.
  • Beispiel 5 ist die mobile Maschine aus beliebigen oder allen vorangehenden Beispielen, worin das Steuersystem ein Aktionssignal erzeugt, um eine Korrekturmaßnahme zu tätigen, um ausgewählte Differenzen in der Differenzabbildung zu behandeln.
  • Beispiel 6 ist die mobile Maschine aus beliebigen oder allen vorangehenden Beispielen, worin das Steuersystem ferner Folgendes umfasst:
    eine Musteridentifikatorkomponente, die ein Muster von Differenzen auf Basis der Differenzabbildung identifiziert und ein Mustersignal erzeugt, welches das identifizierte Muster anzeigt
  • Beispiel 7 ist die mobile Maschine aus beliebigen oder allen vorangehenden Beispielen, worin das Steuersystem ferner Folgendes umfasst:
    eine Problemidentifizierungskomponente, die das Mustersignal empfängt und ein Problem auf Basis des identifizierten Musters identifiziert, und
    eine Korrekturmaßnahmenidentifikationskomponente, welche auf Basis des identifizierten Problems eine Korrekturmaßnahme identifiziert.
  • Beispiel 8 ist die mobile Maschine aus beliebigen oder allen vorangehenden Beispielen, worin die Problemidentifizierungskomponente Maschinenprobleme mit dem steuerbaren Mechanismus identifiziert.
  • Beispiel 9 ist die mobile Maschine aus beliebigen oder allen vorangehenden Beispielen, worin das Steuersystem ferner Folgendes umfasst:
    eine Benachrichtigungserzeugungskomponente, die auf Basis des identifizierten Problems eine Betreiberbenachrichtigung erzeugt.
  • Beispiel 10 ist die mobile Maschine aus beliebigen oder allen vorangehenden Beispielen und ferner umfassend:
    ein Kalibrierungssystem, das auf Basis einer Gruppe von Standorten in der Differenzabbildung ein Kalibrierungssignal erzeugt, wobei das Steuersystem zumindest eines aus der mobilen Maschine und dem steuerbaren Mechanismus auf Basis des Kalibrierungssignals kalibriert.
  • Beispiel 11 ist die mobile Maschine aus beliebigen oder allen vorangehenden Beispielen, worin das erste UAV der mobilen Maschine in der Fahrtrichtung hinterherfliegt und worin die Attributdaten von einem zweiten UAV empfangen werden, das der mobilen Maschine in der Fahrtrichtung vorausfliegt, und ferner umfassend:
    ein erstes physisches Halteseil, welches das erste UAV mit der mobilen Maschine verbindet; und
    ein zweites physisches Halteseil, welches das zweite UAV mit der mobilen Maschine verbindet.
  • Beispiel 12 ist die mobile Maschine aus beliebigen oder allen vorangehenden Beispielen, worin das erste und zweite UAV jeweils eine Bildaufnahmevorrichtung umfassen, die ein Bild des Standorts aufnimmt, um die Attributdaten beziehungsweise die Wirkdaten zu erzeugen.
  • Beispiel 13 ist die mobile Maschine aus beliebigen oder allen vorangehenden Beispielen, worin das Steuersystem das Aktionssignal an eine zweite mobile Maschine sendet, um einen Nachfolge-Arbeitsablauf an ausgewählten Standorten in der Differenzabbildung durchzuführen.
  • Beispiel 14 ist ein computerimplementiertes Verfahren, welches Folgendes umfasst:
    das Empfangen von Attributdaten, welche ein abgefühltes Attribut eines Standortes eines Arbeitsbereiches anzeigen, die in der Fahrtrichtung vor einer mobilen Maschine ist;
    das Erzeugen eines vorgeschriebenen Arbeitsablaufindikators, welcher einen vorgeschriebenen Arbeitsablauf anzeigt, der an dem Standort auf Basis der Attributdaten durchgeführt werden soll;
    das Steuern eines steuerbaren Mechanismus, der mit der mobilen Maschine gekoppelt ist, um den vorgeschriebenen Arbeitsablauf auf Basis des vorgeschriebenen Arbeitsablaufindikators an dem Standort des Arbeitsbereiches durchzuführen;
    das Empfangen von Wirkdaten, welche eine Wirkung des Arbeitsablaufes an dem Standort des Arbeitsbereichs anzeigen, von einem ersten unbemannten Luftfahrzeug (UAV) über eine Kommunikationsverbindung, nachdem der steuerbare Mechanismus den Arbeitsablauf an dem Standort durchgeführt hat; und
    das Erzeugen eines Aktionssignals, um eine Maßnahme auf Basis der Wirkdaten durchzuführen.
  • Beispiel 15 ist das computerimplementierte Verfahren aus beliebigen oder allen vorangehenden Beispielen, worin das Erzeugen eines vorgeschriebenen Arbeitsablaufindikators Folgendes umfasst:
    das Korrelieren der Attributdaten mit dem Standort; und
    das Bereitstellen des Standortes gemeinsam mit dem vorgeschriebenen Arbeitsablaufindikator.
  • Beispiel 16 ist das computerimplementierte Verfahren aus beliebigen oder allen vorangehenden Beispielen, worin das Erzeugen eines Aktionssignals Folgendes umfasst:
    das Bestimmen, für eine Vielzahl von Standorten im Arbeitsbereich, einer Differenz zwischen dem vorgeschriebenen Arbeitsablauf an dem Standort und dem an dem Standort durchgeführten Arbeitsablauf;
    das Erzeugen einer Differenzabbildung, welche die bestimmten Differenzen mit der Vielzahl von Standorten korreliert; und
    das Erzeugen des Aktionssignals, um eine Korrekturmaßnahme zu tätigen, um Differenzen in der Differenzabbildung zu beheben.
  • Beispiel 17 ist das computerimplementierte Verfahren aus beliebigen oder allen vorangehenden Beispielen, worin das Erzeugen des Aktionssignals ferner Folgendes umfasst:
    das Identifizieren eines Musters von Differenzen auf Basis der Differenzabbildung;
    das Erzeugen eines Mustersignals, welches das identifizierte Muster anzeigt;
    das Identifizieren eines Problems auf Basis des Mustersignals;
    das Identifizieren einer Korrekturmaßnahme auf Basis des identifizierten Problems; und
    das Erzeugen des Aktionssignals, um die Korrekturmaßnahme zu tätigen.
  • Beispiel 18 ist ein mobiles Maschinensystem, welches Folgendes umfasst:
    ein erstes unbemanntes Luftfahrzeug (UAV);
    ein zweites UAV; und
    eine mobile Maschine, welche Folgendes umfasst:
    einen steuerbaren Mechanismus, der einen Arbeitsablauf auf einem Arbeitsbereich durchführt, während die mobile Maschine in einer Fahrtrichtung über den Arbeitsbereich fährt;
    ein Steuersystem, welches von dem ersten UAV Attributdaten empfängt, welche ein Attribut des Arbeitsbereiches anzeigen, das von dem ersten UAV an einem Standort abgefühlt wird, der in Fahrrichtung vor der mobilen Maschine ist, wobei das Steuersystem einen vorgeschriebenen Arbeitsablauf erzeugt, der an dem Standort durchgeführt werden soll, und den steuerbaren Mechanismus steuert, um den Arbeitsablauf auf Basis des vorgeschriebenen Arbeitsablaufes an dem Standort durchzuführen, wobei das Steuersystem Wirkdaten von dem zweiten UAV empfängt, die eine Wirkung des an dem Standort durchgeführten Arbeitsablaufes anzeigen, nachdem der Arbeitsablauf an dem Standort durchgeführt wurde, und ein Aktionssignal auf Basis von Differenzen zwischen dem vorgeschriebenen Arbeitsablauf und dem an dem Standort durchgeführten Arbeitsablauf erzeugt.
  • Beispiel 19 ist das mobile Maschinensystem aus beliebigen oder allen vorangehenden Beispielen, worin das erste und das zweite UAV jeweils einen Bildaufnahmesensor aufweisen, der ein Bild des Standortes aufnimmt, wobei die Attributdaten und die Effektdaten die Bilder anzeigen.
  • Beispiel 20 ist das mobile Maschinensystem aus beliebigen oder allen vorangehenden Beispielen, worin zumindest eines aus dem ersten und dem zweiten UAV durch physische Halteseile physisch mit der mobilen Maschine verbunden ist.
  • Obwohl der Gegenstand in einer Sprache beschrieben wurde, die spezifisch für strukturelle Merkmale und/oder methodologische Maßnahmen ist, ist zu verstehen, dass der in den beiliegenden Patemtansprüchen definierte Gegenstand nicht notwendigerweise auf die oben beschriebenen spezifischen Merkmale oder Maßnahmen beschränkt ist. Vielmehr werden die oben spezifischen Merkmale und Maßnahmen als beispielhafte Formen der Implementierung der Patentansprüche offenbart.

Claims (14)

  1. Mobile Maschine, umfassend: einen steuerbaren Mechanismus, der einen Arbeitsablauf auf einem Arbeitsbereich durchführt, während die mobile Maschine in einer Fahrtrichtung über den Arbeitsbereich fährt; ein Kommunikationssystem, das Attributdaten empfängt, die ein abgefühltes Attribut eines Standorts des Arbeitsbereichs anzeigen, und das Wirkdaten empfängt, die eine Wirkung des Arbeitsablaufes an dem Standort des Arbeitsbereichs anzeigen, der in der Fahrtrichtung hinter der mobilen Maschine ist, nachdem der steuerbare Mechanismus den Arbeitsablauf an dem Standort durchgeführt hat, wobei das Kommunikationssystem die Wirkdaten von einem ersten unbemannten Luftfahrzeug (UAV) über eine Kommunikationsverbindung zwischen dem ersten UAV und der mobilen Maschine empfängt; und ein Steuersystem, das den steuerbaren Mechanismus auf Basis der Attributdaten steuert.
  2. Mobile Maschine nach Anspruch 1, worin das Steuersystem ferner Folgendes umfasst: eine geografische Korrelationskomponente, welche die Attributdaten und die Wirkdaten mit dem Standort korreliert.
  3. Mobile Maschine nach Anspruch 2, worin das Steuersystem ferner Folgendes umfasst: eine Vorschriftserzeugungskomponente, die einen vorgeschriebenen Arbeitsablauf für den steuerbaren Mechanismus auf Basis der Attributdaten erzeugt, wobei das Steuersystem den steuerbaren Mechanismus auf Basis des vorgeschriebenen Arbeitsablaufes steuert.
  4. Mobile Maschine nach Anspruch 3, worin das Steuersystem ferner Folgendes umfasst: eine Differenzabbildung-Erzeugungskomponente, welche für eine Vielzahl von Standorten im Arbeitsbereich eine Differenz zwischen dem vorgeschriebenen Arbeitsablauf an dem Standort und dem an dem Standort durchgeführten Arbeitsablauf bestimmt und eine Differenzabbildung erzeugt, welche die bestimmten Differenzen mit der Vielzahl von Standorten korreliert.
  5. Mobile Maschine nach Anspruch 4, worin das Steuersystem ein Aktionssignal erzeugt, um eine Korrekturmaßnahme zu tätigen, um ausgewählte Differenzen in der Differenzabbildung zu behandeln.
  6. Mobile Maschine nach Anspruch 4, worin das Steuersystem ferner Folgendes umfasst: eine Musteridentifikatorkomponente, die ein Muster von Differenzen auf Basis der Differenzabbildung identifiziert und ein Mustersignal erzeugt, welches das identifizierte Muster anzeigt.
  7. Mobile Maschine nach Anspruch 6, worin das Steuersystem ferner Folgendes umfasst: eine Problemidentifizierungskomponente, die das Mustersignal empfängt und ein Problem auf Basis des identifizierten Musters identifiziert, und eine Korrekturmaßnahmenidentifikationskomponente, welche auf Basis des identifizierten Problems eine Korrekturmaßnahme identifiziert.
  8. Mobile Maschine nach Anspruch 7, worin die Problemidentifizierungskomponente Maschinenprobleme mit dem steuerbaren Mechanismus identifiziert.
  9. Mobile Maschine nach Anspruch 7, worin das Steuersystem ferner Folgendes umfasst: eine Benachrichtigungserzeugungskomponente, die auf Basis des identifizierten Problems eine Betreiberbenachrichtigung erzeugt.
  10. Mobile Maschine nach Anspruch 4 und ferner umfassend: ein Kalibrierungssystem, das auf Basis einer Gruppe von Standorten in der Differenzabbildung ein Kalibrierungssignal erzeugt, wobei das Steuersystem zumindest eines aus der mobilen Maschine und dem steuerbaren Mechanismus auf Basis des Kalibrierungssignals kalibriert.
  11. Mobile Maschine nach Anspruch 1, worin das erste UAV der mobilen Maschine in der Fahrtrichtung hinterherfliegt und worin die Attributdaten von einem zweiten UAV empfangen werden, das der mobilen Maschine in der Fahrtrichtung vorausfliegt, und ferner umfassend: ein erstes physisches Halteseil, welches das erste UAV mit der mobilen Maschine verbindet.
  12. Mobile Maschine nach Anspruch 11 und ferner umfassend: ein zweites physisches Halteseil, das das zweite UAV mit der mobilen Maschine verbindet.
  13. Mobile Maschine nach Anspruch 11, worin das erste und zweite UAV jeweils eine Bildaufnahmevorrichtung umfassen, die ein Bild des Standorts aufnimmt, um die Attributdaten beziehungsweise die Wirkdaten zu erzeugen.
  14. Mobile Maschine nach Anspruch 5, worin das Steuersystem das Aktionssignal an eine zweite mobile Maschine sendet, um einen Nachfolge-Arbeitsablauf an ausgewählten Standorten in der Differenzabbildung durchzuführen.
DE102016212623.7A 2015-07-30 2016-07-12 UAV-basiertes Abfühlen für Arbeitsabläufe in einem Arbeitsbereich Pending DE102016212623A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/813,573 2015-07-30
US14/813,573 US9740208B2 (en) 2015-07-30 2015-07-30 UAV-based sensing for worksite operations

Publications (1)

Publication Number Publication Date
DE102016212623A1 true DE102016212623A1 (de) 2017-02-02

Family

ID=57795988

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016212623.7A Pending DE102016212623A1 (de) 2015-07-30 2016-07-12 UAV-basiertes Abfühlen für Arbeitsabläufe in einem Arbeitsbereich

Country Status (2)

Country Link
US (2) US9740208B2 (de)
DE (1) DE102016212623A1 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020039045A1 (de) * 2018-08-24 2020-02-27 naiture GmbH & Co. KG Trägersystem mit einem träger und einer mobilen vorrichtung zur bearbeitung des bodens und/oder zur manipulation der flora und fauna und verfahren hierzu
DE102019201632A1 (de) * 2019-02-08 2020-08-13 Zf Friedrichshafen Ag Vorrichtung zur Routenplanung für eine Landmaschine basierend auf Sensordaten und Bildsegmentierung
CN112601447A (zh) * 2018-08-24 2021-04-02 奈图尔两合公司 移动式分析处理装置
IT202000004222A1 (it) * 2020-02-28 2021-08-28 Cnh Ind Italia Spa Veicolo agricolo provvisto di un dispositivo anteriore e uno posteriore di formazione di immagini tridimensionali
US11640177B2 (en) 2019-05-15 2023-05-02 Deere & Company Control and mapping based on multi-vehicle sensor fusion
WO2023161210A1 (de) * 2022-02-28 2023-08-31 Bayer Aktiengesellschaft Kalibrierung von bearbeitungsmaschinen für eine präzisionslandwirtschaft

Families Citing this family (94)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11212962B2 (en) * 2013-02-20 2022-01-04 Deere & Company Field condition determination
CN112859899A (zh) * 2014-10-31 2021-05-28 深圳市大疆创新科技有限公司 用于利用视觉标记进行监视的系统和方法
US9679420B2 (en) * 2015-04-01 2017-06-13 Smartdrive Systems, Inc. Vehicle event recording system and method
US9772395B2 (en) 2015-09-25 2017-09-26 Intel Corporation Vision and radio fusion based precise indoor localization
US10618655B2 (en) 2015-10-14 2020-04-14 Flirtey Holdings, Inc. Package delivery mechanism in an unmanned aerial vehicle
US10112721B2 (en) 2015-10-14 2018-10-30 Flirtey Holdings, Inc. Parachute deployment system for an unmanned aerial vehicle
US20170116558A1 (en) * 2015-10-27 2017-04-27 Caterpillar Inc. Unmanned Aircraft System Deployment and Analytics Using the Same
US9786105B2 (en) * 2015-12-08 2017-10-10 Caterpillar Inc. Gathering data from machine operating at worksite
US20170193646A1 (en) * 2016-01-05 2017-07-06 Caterpillar Inc. Dust detection system for a worksite
US10168696B2 (en) * 2016-03-31 2019-01-01 International Business Machines Corporation Dynamic analysis of real-time restrictions for remote controlled vehicles
US9877470B2 (en) * 2016-05-10 2018-01-30 Crinklaw Farm Services, Inc. Robotic agricultural system and method
US9807996B1 (en) * 2016-05-28 2017-11-07 Simon Siu-Chi Yu Bug eater
US11464168B2 (en) * 2016-10-12 2022-10-11 Kyndryl, Inc. Automated vegetation removal
US10013611B2 (en) * 2016-10-24 2018-07-03 Timothy John Barrier System and method for preparing an aerial hydrological-assay for golf courses
US10928821B2 (en) 2016-11-04 2021-02-23 Intel Corporation Unmanned aerial vehicle-based systems and methods for generating landscape models
US10255670B1 (en) 2017-01-08 2019-04-09 Dolly Y. Wu PLLC Image sensor and module for agricultural crop improvement
US10721859B2 (en) 2017-01-08 2020-07-28 Dolly Y. Wu PLLC Monitoring and control implement for crop improvement
US10775796B2 (en) * 2017-01-10 2020-09-15 Cnh Industrial America Llc Aerial vehicle systems and methods
US9655356B1 (en) * 2017-02-07 2017-05-23 Bradley Davis Lytle, Jr. Selective herbicide and responsible pesticide allocation apparatus and system
US10255770B2 (en) 2017-05-16 2019-04-09 Deere & Company System and method for nutrient leakage detection
WO2018223031A1 (en) 2017-06-02 2018-12-06 Flirtey Holdings Inc. Package delivery mechanism
US10913086B2 (en) 2017-08-08 2021-02-09 Deere & Company Drift sensor for agricultural spraying
US10905057B2 (en) 2017-08-08 2021-02-02 Deere & Company Thermal imaging drift sensor for agricultural spraying
US10252285B2 (en) 2017-08-08 2019-04-09 Deere & Company Mobile drift sensor for agricultural spraying
US10814976B2 (en) 2017-09-29 2020-10-27 Deere & Company Using unmanned aerial vehicles (UAVs or drones) in forestry machine-connectivity applications
US10761544B2 (en) 2017-10-13 2020-09-01 Deere & Company Unmanned aerial vehicle (UAV)-assisted worksite operations
US11308735B2 (en) * 2017-10-13 2022-04-19 Deere & Company Unmanned aerial vehicle (UAV)-assisted worksite data acquisition
EP3695355A1 (de) * 2017-10-13 2020-08-19 Bayer CropScience LP Individualisierte und spezifisch angepasste pflanzenverwaltung unter verwendung von autonomen schwarmdrohnen und künstlicher intelligenz
US10925208B2 (en) 2017-10-31 2021-02-23 Deere & Company System and method for monitioring vapor concentrations
WO2019125808A1 (en) * 2017-12-21 2019-06-27 Basf Corporation Handheld device for controlling treatment and method for resistance management in managed landscapes
US10800423B2 (en) 2018-02-20 2020-10-13 Deere & Company Monitoring steering conditions of an off-road vehicle
US20190263518A1 (en) * 2018-02-28 2019-08-29 Espen Garner Unmanned Aerial Vehicle Having an Insect Trap
US10750733B1 (en) 2018-02-28 2020-08-25 Espen Garner Autonomous insect carrier
US11241004B2 (en) 2018-05-24 2022-02-08 Deere & Company Plugged spray nozzle detection using radio-frequency transmissions
US11219912B2 (en) 2018-05-24 2022-01-11 Deere & Company Plugged sprayer/spreader detection using electromagnetic radiation
AU2018433124A1 (en) * 2018-07-17 2021-02-25 Photonic Detection Systems Pty Ltd A detection system for detecting matter and distinguishing specific matter from other matter
US11373399B2 (en) * 2018-07-26 2022-06-28 Hall Enterprise Llc Method of crop analysis using drone with flying and driving capability
US11079725B2 (en) 2019-04-10 2021-08-03 Deere & Company Machine control using real-time model
US11641800B2 (en) 2020-02-06 2023-05-09 Deere & Company Agricultural harvesting machine with pre-emergence weed detection and mitigation system
US11240961B2 (en) 2018-10-26 2022-02-08 Deere & Company Controlling a harvesting machine based on a geo-spatial representation indicating where the harvesting machine is likely to reach capacity
US11672203B2 (en) 2018-10-26 2023-06-13 Deere & Company Predictive map generation and control
US11589509B2 (en) 2018-10-26 2023-02-28 Deere & Company Predictive machine characteristic map generation and control system
US11467605B2 (en) 2019-04-10 2022-10-11 Deere & Company Zonal machine control
US11957072B2 (en) 2020-02-06 2024-04-16 Deere & Company Pre-emergence weed detection and mitigation system
US11653588B2 (en) 2018-10-26 2023-05-23 Deere & Company Yield map generation and control system
US11178818B2 (en) 2018-10-26 2021-11-23 Deere & Company Harvesting machine control system with fill level processing based on yield data
US11206763B2 (en) 2018-10-31 2021-12-28 Deere & Company Weed seed based harvester working member control
DE102018128002A1 (de) * 2018-11-08 2020-05-14 Matthias Rimkus Verfahren zur Bodenabtastung mit Hilfe einer (Drehflügel)-Flugdrohne
CN109507967B (zh) * 2018-11-30 2021-12-03 广州极飞科技股份有限公司 作业控制方法及装置
CN109855629B (zh) * 2019-03-15 2021-11-19 朱彬 一种任务规划方法、装置及电子设备
US11778945B2 (en) 2019-04-10 2023-10-10 Deere & Company Machine control using real-time model
US11234366B2 (en) 2019-04-10 2022-02-01 Deere & Company Image selection for machine control
US11266060B2 (en) 2019-06-06 2022-03-08 Cnh Industrial America Llc System and method for controlling the operation of a seed-planting implement based on cover crop density
US11483960B2 (en) 2019-11-19 2022-11-01 Cnh Industrial Canada, Ltd. System and method for monitoring seedbed conditions using a seedbed sensing assembly supported on a UAV
US11684005B2 (en) 2020-03-06 2023-06-27 Deere & Company Method and system for estimating surface roughness of ground for an off-road vehicle to control an implement
US11718304B2 (en) 2020-03-06 2023-08-08 Deere & Comoanv Method and system for estimating surface roughness of ground for an off-road vehicle to control an implement
US11678599B2 (en) 2020-03-12 2023-06-20 Deere & Company Method and system for estimating surface roughness of ground for an off-road vehicle to control steering
US11667171B2 (en) 2020-03-12 2023-06-06 Deere & Company Method and system for estimating surface roughness of ground for an off-road vehicle to control steering
US11685381B2 (en) 2020-03-13 2023-06-27 Deere & Company Method and system for estimating surface roughness of ground for an off-road vehicle to control ground speed
US11753016B2 (en) 2020-03-13 2023-09-12 Deere & Company Method and system for estimating surface roughness of ground for an off-road vehicle to control ground speed
US11477940B2 (en) 2020-03-26 2022-10-25 Deere & Company Mobile work machine control based on zone parameter modification
US11852621B2 (en) 2020-04-23 2023-12-26 Cnh Industrial Canada, Ltd. System and method for monitoring tilled floor conditions using a tilled floor sensing assembly
US11684011B2 (en) * 2020-04-29 2023-06-27 Deere & Company Automatic fill control based on visual identification of grain receiving vehicles
EP4125314A1 (de) 2020-05-01 2023-02-08 Kinze Manufacturing, Inc. Playthrough für datenteilung eines verbundenen planers
US12004504B2 (en) 2020-05-29 2024-06-11 Cnh Industrial America Llc Systems and methods for controlling a nozzle assembly of an agricultural applicator
AU2021291711A1 (en) * 2020-06-18 2022-12-22 Exel Industries A method of selectively treating vegetation in a field
US11927459B2 (en) 2020-10-09 2024-03-12 Deere & Company Machine control using a predictive map
US11711995B2 (en) 2020-10-09 2023-08-01 Deere & Company Machine control using a predictive map
US11871697B2 (en) 2020-10-09 2024-01-16 Deere & Company Crop moisture map generation and control system
US11845449B2 (en) 2020-10-09 2023-12-19 Deere & Company Map generation and control system
US11889788B2 (en) 2020-10-09 2024-02-06 Deere & Company Predictive biomass map generation and control
US11675354B2 (en) 2020-10-09 2023-06-13 Deere & Company Machine control using a predictive map
US11983009B2 (en) 2020-10-09 2024-05-14 Deere & Company Map generation and control system
US11727680B2 (en) 2020-10-09 2023-08-15 Deere & Company Predictive map generation based on seeding characteristics and control
US11895948B2 (en) 2020-10-09 2024-02-13 Deere & Company Predictive map generation and control based on soil properties
US11874669B2 (en) 2020-10-09 2024-01-16 Deere & Company Map generation and control system
US11849672B2 (en) 2020-10-09 2023-12-26 Deere & Company Machine control using a predictive map
US11592822B2 (en) 2020-10-09 2023-02-28 Deere & Company Machine control using a predictive map
US11635765B2 (en) 2020-10-09 2023-04-25 Deere & Company Crop state map generation and control system
US11825768B2 (en) 2020-10-09 2023-11-28 Deere & Company Machine control using a predictive map
US11650587B2 (en) 2020-10-09 2023-05-16 Deere & Company Predictive power map generation and control system
US11946747B2 (en) 2020-10-09 2024-04-02 Deere & Company Crop constituent map generation and control system
US11844311B2 (en) 2020-10-09 2023-12-19 Deere & Company Machine control using a predictive map
US11474523B2 (en) 2020-10-09 2022-10-18 Deere & Company Machine control using a predictive speed map
US11849671B2 (en) 2020-10-09 2023-12-26 Deere & Company Crop state map generation and control system
US11864483B2 (en) 2020-10-09 2024-01-09 Deere & Company Predictive map generation and control system
US11889787B2 (en) 2020-10-09 2024-02-06 Deere & Company Predictive speed map generation and control system
US11944087B2 (en) 2020-12-21 2024-04-02 Deere & Company Agricultural sprayer with real-time, on-machine target sensor
US11832609B2 (en) 2020-12-21 2023-12-05 Deere & Company Agricultural sprayer with real-time, on-machine target sensor
US20220211025A1 (en) * 2021-01-06 2022-07-07 Cnh Industrial America Llc System and method for performing spraying operations with an agricultural sprayer
US11793187B2 (en) * 2021-01-15 2023-10-24 Cnh Industrial America Llc System and method for monitoring agricultural fluid deposition rate during a spraying operation
DE102021120757A1 (de) * 2021-08-10 2023-02-16 Claas Tractor Sas Verfahren zum Sammeln von landwirtschaftlichen Messdaten bei einer landwirtschaftlichen Arbeitsmaschine
US11971725B2 (en) * 2021-10-14 2024-04-30 Cnh Industrial America Llc System and method for performing spraying operations with an agricultural applicator
TWI786985B (zh) * 2021-12-09 2022-12-11 英業達股份有限公司 基於動態調整預警範圍的無人機自動噴灑作業系統及其方法

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4015366A (en) 1975-04-11 1977-04-05 Advanced Decision Handling, Inc. Highly automated agricultural production system
DE4340096A1 (de) 1992-11-27 1994-06-01 Basf Ag Verfahren zur Auswertung von Düngungsversuchen an Pflanzen
US5699244A (en) 1994-03-07 1997-12-16 Monsanto Company Hand-held GUI PDA with GPS/DGPS receiver for collecting agronomic and GPS position data
US5668719A (en) 1994-08-05 1997-09-16 Tyler Limited Partnership Method of fertilizer application and field treatment
US5902343A (en) * 1996-11-22 1999-05-11 Case Corporation Automatic scaling of GPS field maps
US5995895A (en) * 1997-07-15 1999-11-30 Case Corporation Control of vehicular systems in response to anticipated conditions predicted using predetermined geo-referenced maps
US20010016053A1 (en) 1997-10-10 2001-08-23 Monte A. Dickson Multi-spectral imaging sensor
US6178253B1 (en) * 1997-10-10 2001-01-23 Case Corporation Method of determining and treating the health of a crop
WO2001095219A1 (en) 2000-06-05 2001-12-13 Ag-Chem Equipment Company, Inc. System and method for providing profit analysis for site-specific farming
US6889620B2 (en) 2001-02-28 2005-05-10 The Mosaic Company Method for prescribing site-specific fertilizer application in agricultural fields
US20030130767A1 (en) 2002-01-07 2003-07-10 Carroll Ernest A. Method of and apparatus for acquiring aerial imagery for precision farming
US6883892B2 (en) 2002-10-31 2005-04-26 Hewlett-Packard Development Company, L.P. Printing apparatus calibration
US7086073B2 (en) 2003-06-16 2006-08-01 Microsoft Corporation Optical storage media with embedded security device
US20060106539A1 (en) 2004-11-12 2006-05-18 Choate Paul H System and method for electronically recording task-specific and location-specific information, including farm-related information
US20070019254A1 (en) 2005-07-21 2007-01-25 Huanzhao Zeng Closed-loop color calibration with perceptual adjustment
US20070091137A1 (en) 2005-10-24 2007-04-26 Hewlett-Packard Development Company, L.P. Printer calibration method
US8208680B2 (en) 2006-11-07 2012-06-26 The Curators Of The University Of Missouri Method of predicting crop yield loss due to N-deficiency
US20080140431A1 (en) * 2006-12-07 2008-06-12 Noel Wayne Anderson Method of performing an agricultural work operation using real time prescription adjustment
US8319165B2 (en) 2007-07-03 2012-11-27 Holland Kyle H Variable rate chemical management for agricultural landscapes
FI20085764L (fi) 2008-08-08 2010-03-26 Ravintoraisio Oy Menetelmä viljelykasvien tuotannon ympäristövaikutusten seuraamiseksi
WO2011150351A2 (en) 2010-05-28 2011-12-01 Gvm, Inc. System and method for collecting and processing agricultural field data
US9076105B2 (en) 2010-08-20 2015-07-07 Deere & Company Automated plant problem resolution
US8594897B2 (en) 2010-09-30 2013-11-26 The Curators Of The University Of Missouri Variable product agrochemicals application management
US10115158B2 (en) * 2010-10-25 2018-10-30 Trimble Inc. Generating a crop recommendation
US8855937B2 (en) * 2010-10-25 2014-10-07 Trimble Navigation Limited Crop characteristic estimation
US9058633B2 (en) * 2010-10-25 2015-06-16 Trimble Navigation Limited Wide-area agricultural monitoring and prediction
US8488874B2 (en) 2011-01-31 2013-07-16 Dalhouse University Variable rate sprayer system and method of variably applying agrochemicals
US9113590B2 (en) 2012-08-06 2015-08-25 Superior Edge, Inc. Methods, apparatus, and systems for determining in-season crop status in an agricultural crop and alerting users
EP2902984A4 (de) * 2012-09-26 2016-07-13 Kubota Kk Bodenarbeitsfahrzeug, verwaltungssystem für das bodenarbeitsfahrzeug und verfahren zur anzeige von bodenarbeitsinformationen
CN202953175U (zh) 2012-11-13 2013-05-29 上海交通大学无锡研究院 一种连续供药喷洒农药无人机
US20140263822A1 (en) 2013-03-18 2014-09-18 Chester Charles Malveaux Vertical take off and landing autonomous/semiautonomous/remote controlled aerial agricultural sensor platform
CN203528823U (zh) 2013-10-31 2014-04-09 无锡同春新能源科技有限公司 一种带彩色稻病图像识别仪防治水稻白叶枯病的无人机
US9948898B2 (en) * 2014-08-22 2018-04-17 Verizon Patent And Licensing Inc. Using aerial imaging to provide supplemental information about a location

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020039045A1 (de) * 2018-08-24 2020-02-27 naiture GmbH & Co. KG Trägersystem mit einem träger und einer mobilen vorrichtung zur bearbeitung des bodens und/oder zur manipulation der flora und fauna und verfahren hierzu
CN112601447A (zh) * 2018-08-24 2021-04-02 奈图尔两合公司 移动式分析处理装置
CN112601447B (zh) * 2018-08-24 2023-08-18 奈图尔两合公司 移动式分析处理装置
DE102019201632A1 (de) * 2019-02-08 2020-08-13 Zf Friedrichshafen Ag Vorrichtung zur Routenplanung für eine Landmaschine basierend auf Sensordaten und Bildsegmentierung
US11640177B2 (en) 2019-05-15 2023-05-02 Deere & Company Control and mapping based on multi-vehicle sensor fusion
IT202000004222A1 (it) * 2020-02-28 2021-08-28 Cnh Ind Italia Spa Veicolo agricolo provvisto di un dispositivo anteriore e uno posteriore di formazione di immagini tridimensionali
EP3871481A1 (de) * 2020-02-28 2021-09-01 CNH Industrial Italia S.p.A. Landwirtschaftliches fahrzeug mit einer vorderen und einer hinteren 3d-bildgebungsvorrichtung
WO2023161210A1 (de) * 2022-02-28 2023-08-31 Bayer Aktiengesellschaft Kalibrierung von bearbeitungsmaschinen für eine präzisionslandwirtschaft

Also Published As

Publication number Publication date
BR102016015380A2 (pt) 2017-01-31
US10095235B2 (en) 2018-10-09
US20170315555A1 (en) 2017-11-02
US9740208B2 (en) 2017-08-22
US20170031365A1 (en) 2017-02-02

Similar Documents

Publication Publication Date Title
DE102016212623A1 (de) UAV-basiertes Abfühlen für Arbeitsabläufe in einem Arbeitsbereich
EP2927767B1 (de) Planungssystem und verfahren zur planung einer feldbearbeitung
DE102018218155A1 (de) Baustellen-überwachungssystem und verfahren
DE112011102805B4 (de) Automatische Steuerung von passiven, gezogenen Geräten
WO2020016385A1 (de) Verfahren und system zum bestimmen einer position eines fahrzeugs
DE102017201700A1 (de) Paralleles Ankuppeln für modulare Leistungseinheiten
DE102020206737A1 (de) Arbeitsmaschinensteuerung basierend auf maschinenfähigkeiten in bezug auf arbeitsauftragskriterien
WO2020182564A1 (de) Vision-basiertes lenkungsassistenzsystem für landfahrzeuge
DE102021204256A1 (de) Mäherpositionierungs-Konfigurationssystem
EP3150037B1 (de) Verfahren und unterstützungssystem zur sensorgestützten bewirtschaftung einer landwirtschaftlichen fläche
DE102020206190A1 (de) System und verfahren für die konfiguration einer arbeitsstätten warnzone.
EP3575912A1 (de) Mähroboter
DE102019201914A1 (de) Trajektoriebestimmung für Landmaschinen unter Verwendung von Rasterkarten
DE112018007180T5 (de) Ort-schätzung-vorrichtung, bewegendes objekt, ort-schätzung-verfahren und programm
DE102022203349A1 (de) Reihenerkennungsvorgänge mit kontexterfassung
EP3887915B1 (de) Vorrichtung zum lokalisieren einer landmaschine basierend auf sensordaten und bildsegmentierung
DE102023128324A1 (de) Systeme und verfahren zur automatischen bestimmung von feldinformationen
DE102023125003A1 (de) Steuerung von landwirtschaftlichen maschinen basierend auf agronomie- und maschinenparametern
DE112018002405T5 (de) Betriebsunterstützungssystem für arbeitsmaschine und landwirtschaftsunterstützungssystem
DE102018116800A1 (de) Verfahren zur Erstellung einer Netzabdeckungskarte mittels einer landwirtschaftlichen Arbeitsmaschine
DE102023126750A1 (de) Kalibriereinstellung für landwirtschaftliche sprühvorrichtung mit echtzeitzielsensor an der maschine
DE102023113765A1 (de) Modifizieren eines fahrzeugverhaltens auf grundlage eines begrenzungstyps
DE102023131005A1 (de) Automatisierte bildbasierte aufnahmefahrzeuggrenzendetektion und steuerung
DE102023113767A1 (de) Automatische erzeugung von feldbegrenzungen
DE102021124199A1 (de) Prädiktives Kartenerzeugungs- und Steuersystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication