DE102021131799A1 - Automatisches, bildgebungsbasiertes Bodenverdichtungs-Detektionssystem - Google Patents

Automatisches, bildgebungsbasiertes Bodenverdichtungs-Detektionssystem Download PDF

Info

Publication number
DE102021131799A1
DE102021131799A1 DE102021131799.1A DE102021131799A DE102021131799A1 DE 102021131799 A1 DE102021131799 A1 DE 102021131799A1 DE 102021131799 A DE102021131799 A DE 102021131799A DE 102021131799 A1 DE102021131799 A1 DE 102021131799A1
Authority
DE
Germany
Prior art keywords
camera
soil
vehicle
ground
compaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021131799.1A
Other languages
English (en)
Inventor
Alina Sobania
Sourin Ghosh
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deere and Co
Original Assignee
Deere and Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deere and Co filed Critical Deere and Co
Publication of DE102021131799A1 publication Critical patent/DE102021131799A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B69/00Steering of agricultural machines or implements; Guiding agricultural machines or implements on a desired track
    • A01B69/001Steering by means of optical assistance, e.g. television cameras
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B69/00Steering of agricultural machines or implements; Guiding agricultural machines or implements on a desired track
    • A01B69/007Steering or guiding of agricultural vehicles, e.g. steering of the tractor to keep the plough in the furrow
    • A01B69/008Steering or guiding of agricultural vehicles, e.g. steering of the tractor to keep the plough in the furrow automatic

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Soil Sciences (AREA)
  • Environmental Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Ein Verfahren und ein System zum Detektieren der Verdichtung des Bodens eines Feldes (50), das von einem landwirtschaftlichen Fahrzeug (10) überquert wird, wobei eine erste Kamera (102) auf den Boden blickt, bevor das Fahrzeug (10) darüber gefahren ist, eine zweite Kamera (104) auf den Boden blickt, nachdem das Fahrzeug (10) darüber gefahren ist, und ein elektronisches Datenverarbeitungssystem (100) Bildsignale von der ersten Kamera (102) und der zweiten Kamera (104) empfängt und auf der Grundlage der Bildsignale von der ersten Kamera (102) und der zweiten Kamera (104) Daten bezüglich der Verdichtung des Bodens ableitet.

Description

  • Die vorliegende Offenbarung bezieht sich auf ein bildgebungsbasiertes Bodenverdichtungs-Detektionssystem, das zwei Farbstereokameras umfasst. Die Erfindung zielt auf die Verwendung eines landwirtschaftlichen Fahrzeugs für Anwendungen wie etwa den Schutz des Ernteguts, Düngung, Kultivierung und Sprühen. Die Erfindung betrifft Bildgebungssensoren und die Detektion von Bodenverdichtung im Feld.
  • HINTERGRUND
  • Bodenverdichtung kann nahezu alle physikalischen, chemischen und biologischen Eigenschaften und Funktionen eines Bodens negativ beeinflussen. Zusammen mit der Bodenerosion wird sie als das kostspieligste und schwerwiegendste Umweltproblem angesehen, das durch herkömmliche Landwirtschaft bewirkt wird. In der Landwirtschaft ist die Bodenverdichtung ein komplexes Problem, bei dem Boden, Erntegut, Wetter und Maschinen wechselwirken. Ein äußerer Druck aufgrund der Verwendung schwerer Maschinen und ein ungeeignetes Bodenmanagement können zur Verdichtung des Unterbodens führen, wobei undurchlässige Schichten im Boden erzeugt werden, die Wasser- und Nährstoffkreisläufe einschränken. Dieser Prozess kann Wirkungen vor Ort wie etwa ein verringertes Wachstum des Ernteguts, einen verringerten Ertrag und eine verringerte Qualität sowie Wirkungen außerhalb des Geländes wie etwa eine(n) erhöhte(n) Oberflächenwasserabfluss, Bodenerosion, Treibhausgasemissionen, Eutrophierung, ein verringertes Wiederauffüllen des Grundwassers und einen Verlust an Biodiversität bewirken. Im Unterschied zu Versalzung oder Erosion ist Bodenverdichtung prinzipiell ein Problem unter der Oberfläche und daher ein unsichtbares Phänomen. Spezielle Identifizierungsverfahren sind notwendig, um das Problem geeignet zu lokalisieren, zu überwachen und zu managen (zitiert aus Wikipedia https://en.wikipedia.org/wiki/Soil compaction (agriculture) wie am 27 November 2020 abgefragt).
  • Viele landwirtschaftliche Fahrzeuge sind bereits mit Positionsbestimmungssystemen wie GNSS (GPS) oder Trägheitssystemen (IMU) ausgestattet. Kameras werden heutzutage mehr und mehr ein Teil der Maschinen; außerdem ist die Wettervorhersage immer ein äußerst wichtiger Indikator in der Landwirtschaft.
  • Die Überwachung des Bodenzustands, das Erzeugen einer Karte mit Bodeninformationen und das Speichern der Historie der Informationen können sehr wichtige Indikatoren bei der Entscheidungsfindung für Entscheidungen durch Menschen und/oder durch künstliche Intelligenz sein.
  • EP 2 508 057 A1 beschreibt ein Bodenverdichtungs-Detektionssystem, das Kameras nutzt, die in die Spur blicken, die von einem landwirtschaftlichen Fahrzeug hinterlassen wird, und die Tiefe der Spur mit dem Boden um die Spur vergleicht, um daraus die erreichte Bodenverdichtung abzuleiten, was daraufhin in eine Karte eingegeben werden kann, die verwendet werden soll, um Korrekturmaßnahmen zu planen. Da die Spur bereits von einem früheren Vorgang im Feld gewesen sein könnte und für den tatsächlichen Vorgang erneut verwendet (dieser gefolgt) wird, können die Informationen, die lediglich erhalten werden, nachdem der Reifen oder die Gummiraupe des Fahrzeugs über den Boden gefahren ist, irreführend sein.
  • EP 3 195 719 A1 beschreibt ein weiteres System zum Erfassen von Bodenverdichtung, die durch landwirtschaftliche Maschinen erzeugt wird, auf der Grundlage eines den Untergrund durchdringenden Radarsensors. In einer Ausführungsform kann Bodenverdichtung vor der Maschine mit einem ersten Sensor und hinter der Maschine mit einem zweiten Sensor detektiert werden, wobei deren Signale verglichen werden, um Informationen über die erreichte Bodenverdichtung abzuleiten, die es ermöglichen, Korrekturmaßnahmen zu ergreifen.
  • Es wurde außerdem vorgeschlagen, auf der Grundlage von Bodenverdichtungswerten, die durch Sensoren gemessen werden, die nicht im Einzelnen beschrieben sind, Zwischenbegrünungssamen auszusähen, um eine Bodenverdichtung zu entfernen ( EP 3 586 592 A2 ).
  • Weitere Ansätze, Bodenverdichtung zu erkennen, sind menschliche Sichtprüfungen, um nach Anzeichen wie eine harte Verdichtung, ein Fehlen von Rissen oder lediglich beabstandete Risse, die senkrecht zusammenlaufen, eine blaue oder schwarze Bodenfarbe aufgrund einer Verringerung von Eisen in den Bodenmineralien wegen Sauerstoffmangels im Boden zu suchen oder um die Wurzeln der Pflanzen zu prüfen (Flur & Furche, April 2019, https://flurundfurche.de/verdichtung-nicht-auf-die-leichteschulter-nehmen/ abgefragt am 27. November 2020). Diese menschliche Sichtprüfung ist erfahrungsbasiert und somit Fehlern unterworfen.
  • Bodenverdichtung kann außerdem vorhergesagt werden, sobald die Last und andere Parameter der landwirtschaftlichen Maschine bekannt sind (Prikner P. u. a., Field compaction capacity of agricultural tyres, Agronomy Research 15(3), S. 806-816 (2017)), und ein bekanntes Verdichtungsprofil kann verwendet werden, um geeignete Fahrgassen zu wählen, um Erholung und Auflockerung sicherzustellen ( WO 2011/063814 A1 und EP 2 267 566 A2 ). Dieser Ansatz des Aufzeichnens von Belastungen des Untergrunds im Ablauf von Zeit und Position ist relativ kompliziert und würde ein genaueres Wissen über ortsspezifische Bodenparameter wie eine Reaktion auf Druck erfordern.
  • Es wäre somit wünschenswert, ein zuverlässiges und dabei einfaches Erfassungssystem zum Detektieren und Dokumentieren von Bodenverdichtung zu besitzen.
  • ZUSAMMENFASSUNG
  • Gemäß einem ersten Aspekt wird ein System zum Detektieren der Verdichtung des Bodens eines Feldes, das von einem landwirtschaftlichen Fahrzeug überquert wird, bereitgestellt, das eine erste Kamera, die konfiguriert ist, auf den Boden zu blicken, bevor das Fahrzeug darübergefahren ist, eine zweite Kamera, die konfiguriert ist, auf den Boden zu blicken, nachdem das Fahrzeug darüber gefahren ist, und ein elektronisches Datenverarbeitungssystem, das konfiguriert ist, Bildsignale von der ersten Kamera und der zweiten Kamera zu empfangen und auf der Grundlage der Bildsignale von der ersten Kamera und der zweiten Kamera Daten bezüglich der Verdichtung des Bodens abzuleiten, umfasst.
  • Das elektronische Datenverarbeitungssystem kann konfiguriert sein, die Tiefe einer vorher vorhandenen Spur im Boden aus den Bildsignalen der ersten Kamera abzuleiten, die Tiefe einer Spur im Boden, die durch mit dem Untergrund in Eingriff gelangende Mittel des Fahrzeugs erzeugt wird, aus den Bildsignalen der zweiten Kamera abzuleiten und die Daten bezüglich der Bodenverdichtung auf der Grundlage der Tiefen beider Spuren und mindestens einer Eigenschaft des Fahrzeugs (die z. B. Parameter wie eine Masse des Fahrzeugs und einen Bereich, in dem die mit dem Untergrund in Eingriff gelangenden Mittel des Fahrzeugs mit dem Boden in Kontakt gelangen, umfasst) zu berechnen.
  • Das elektronische Datenverarbeitungssystem kann konfiguriert sein, aus dem Bild der ersten Kamera eine Farbe des Bodens abzuleiten, der von der ersten Kamera gesehen wird, um aus der Farbe eine tatsächliche Bodenfeuchtigkeit oder eine andere Bodeneigenschaft wie Bodenart und/oder Bodenqualität zu folgern und die Daten bezüglich der Bodenverdichtung außerdem auf der Grundlage der gefolgerten tatsächlichen Bodenfeuchtigkeit oder der anderen Bodeneigenschaft abzuleiten.
  • Das elektronische Datenverarbeitungssystem kann konfiguriert sein, aus dem Bild der zweiten Kamera eine Farbe des Untergrundbodens abzuleiten, der durch eine Bodenbearbeitungs-Arbeitsvorrichtung aufgenommen wird, die von der zweiten Kamera gesehen wird, und die Daten bezüglich der Bodenverdichtung außerdem auf der Grundlage der Farbe unter Verwendung einer vorab gespeicherten Beziehung zwischen Farbe und Bodenverdichtung abzuleiten.
  • Das elektronische Datenverarbeitungssystem kann konfiguriert sein, aus dem Bild der zweiten Kamera Bodenpartikel, die auf mit dem Untergrund in Eingriff gelangenden Mitteln des Fahrzeugs haften, und/oder Staub, der durch mit dem Untergrund in Eingriff gelangende Mittel des Fahrzeugs aufgeworfen wird, und/oder verfestigte Bodenpartikel, die durch mit dem Untergrund in Eingriff gelangende Mittel des Fahrzeugs weggeworfen werden, abzuleiten und aus den identifizierten Partikeln und/oder dem identifizierten Staub Daten über die Bodenverdichtung abzuleiten.
  • Das elektronische Datenverarbeitungssystem kann konfiguriert sein, aus dem Bild der ersten Kamera und/oder der zweiten Kamera Wasser, das auf dem Boden steht und/oder durch das Fahrzeug hochgespritzt wird, und/oder eine harte Verdichtung des Bodens, ein Fehlen von Rissen oder lediglich beabstandete Risse, die senkrecht zusammenlaufen, im Boden abzuleiten und aus mindestens einem davon Daten über die Bodenverdichtung abzuleiten.
  • Das elektronische Datenverarbeitungssystem kann konfiguriert sein, aus dem Bild der zweiten Kamera die Tiefe und Struktur einer Spur, die durch ein mit dem Untergrund in Eingriff gelangendes Mittel des Fahrzeugs im Boden hinterlassen wird, abzuleiten und auf der Grundlage davon, wie gut der Reifen in den Boden gedrückt ist, Daten über die Bodenverdichtung abzuleiten.
  • Das elektronische Datenverarbeitungssystem kann konfiguriert sein, aus dem Bild mindestens einer der Kameras auf der Grundlage einer Bildgebungs-Entfernungsmessung einen Schlupf der mit dem Untergrund in Eingriff gelangenden Mittel des Fahrzeugs und/oder einen möglichen Zustand des Festfahrens des Fahrzeugs im Boden abzuleiten und eine Anwenderschnittstelle derart zu steuern, dass im Fall eines Schlupfs und/oder eines möglichen Zustands des Festfahrens eine Warnung an eine Bedienperson des Fahrzeugs bereitgestellt wird.
  • Das elektronische Datenverarbeitungssystem kann konfiguriert sein, die Bodenverdichtungsdaten zum Planen von Maßnahmen, um eine detektierte Bodenverdichtung zu entfernen, und/oder für eine zukünftige Routenplanung, um das Fahren über verdichteten Boden zu vermeiden, in einer Karte mit Geo-Referenzierung zu speichern.
  • Gemäß einem zweiten Aspekt wird ein Verfahren zum Detektieren der Verdichtung des Bodens eines Feldes, das von einem landwirtschaftlichen Fahrzeug überquert wird, beschrieben, wobei eine erste Kamera auf den Boden blickt, bevor das Fahrzeug darüber gefahren ist, eine zweite Kamera auf den Boden blickt, nachdem das Fahrzeug darüber gefahren ist, und ein elektronisches Datenverarbeitungssystem Bildsignale von der ersten Kamera und der zweiten Kamera empfängt und auf der Grundlage der Bildsignale von der ersten Kamera und der zweiten Kamera Daten bezüglich der Verdichtung des Bodens ableitet.
  • Figurenliste
  • Eine Ausführungsform ist in den Zeichnungen gezeigt; es zeigen:
    • 1 eine schematische Seitenansicht eines Fahrzeugs mit einer Bodenbearbeitungs-Arbeitsvorrichtung; und
    • 2 ein Diagramm, das eine Signalverarbeitung zur Bodenverdichtungsdetektion zeigt.
  • GENAUE BESCHREIBUNG DER ZEICHNUNGEN
  • Traktor und Arbeitsvorrichtung
  • 1 zeigt ein Fahrzeug 10 in der Form eines landwirtschaftlichen Traktors mit einer Arbeitsvorrichtung 22 zum Bestellen des Bodens eines landwirtschaftlichen Feldes 50, auf dem Pflanzen 52 angebaut werden. Die Arbeitsvorrichtung 22 ist an einer Dreipunktkupplung 24 des Fahrzeugs 10 angebracht. Die Arbeitsvorrichtung 22 umfasst eine Querstange 32, die Reiheneinheiten 34 trägt, die über die Arbeitsbreite der Arbeitsvorrichtung 22 verteilt sind. Die Reiheneinheiten 34 besitzen Werkzeuge 48, um Unkraut zwischen den Pflanzenreihen 52 zu entfernen, und werden auf auf dem Untergrund folgenden Rädern 42 getragen.
  • Das Fahrzeug 10 weist eine Trägerstruktur 12 mit lenkbaren Vorderrädern 14 und angetriebenen Hinterrädern 16 als mit dem Untergrund in Eingriff gelangende Mittel auf, die teilweise oder alle durch ein oder zwei Paare Gummiraupen als mit dem Untergrund in Eingriff gelangende Mittel ersetzt werden könnten. Die Dreipunktkupplung 24 ist außerdem an der Trägerstruktur 12 angebracht, ebenso wie eine Fahrerkabine 18 mit einem Fahrerarbeitsplatz 20. Eine Kraftmaschine treibt die Hinterräder 16 und wahlweise die Vorderräder 14 an.
  • Die Kombination aus dem Fahrzeug 10 und der Arbeitsvorrichtung 22 ist lediglich ein Beispiel für eine landwirtschaftliche Maschine, die konfiguriert ist, über ein Feld 50 zu fahren. Einzelheiten über die gezeigte Ausführungsform des Fahrzeugs 10 und der Arbeitsvorrichtung 22 und deren Steuerung sind in DE 10 2016 212 201 A1 zu finden, dessen Offenbarung hier durch Bezugnahme mit aufgenommen ist.
  • Das Fahrzeug 10 umfasst eine Anwenderschnittstelle 98, eine elektronische Datenverarbeitungseinheit 100, einen Positionsbestimmungsempfänger 106, der konfiguriert ist, Signale von einem globalen Satellitennavigationssystem (GNSS) wie GPS, Galileo oder Glonass zu empfangen, um daraus die tatsächliche Position des Fahrzeugs 10 abzuleiten, und eine erste Kamera 102 sowie eine zweite Kamera 104 auf einem Dach 26 der Fahrerkabine 18. Die Anwenderschnittstelle 98 umfasst eine Anzeige und Eingabemittel. Die Kameras 102, 104, die Anwenderschnittstelle 98 und der Positionsbestimmungsempfänger 106 und/oder eine Trägheitsmesseinheit 96 sind mit der elektronischen Datenverarbeitungseinheit 100 elektronisch (durch Leitungen oder drahtlos) verbunden. Der Positionsbestimmungsempfänger 106 kann durch eine Trägheitsmesseinheit (IMU) 96 erweitert oder ersetzt werden.
  • Es sei erwähnt, dass die Kameras 102, 104 nicht auf dem Fahrzeug 10 befestigt angebracht sein müssen, sondern auf einer (angebundenen oder nicht angebundenen) Drohne getragen werden könnten, die vor und hinter dem Fahrzeug 10 fliegt, oder durch eine einzige Kamera auf einer Drohne, die vor und nach dem landwirtschaftlichen Vorgang über das Feld 50 fliegt, realisiert sein könnten. In diesem Fall wäre die erste Kamera 102 die Kamera, die vor dem Vorgang über das Feld 50 fliegt, und die zweite Kamera 104 die Kamera, die nach dem landwirtschaftlichen Vorgang über das Feld 50 fliegt.
  • Im Folgenden werden alle Bezugnahmen auf Richtungen in Bezug auf die Vorwärtsrichtung des Fahrzeugs 10 gegeben, die in 1 nach links weist.
  • Bodenverdichtungsdetektion
  • Die erste Kamera 102 blickt nach vorne und weist ein Blickfeld auf, das das Feld 50 vor dem Fahrzeug 10 enthält. Das Bildsignal der ersten Kamera 102 wird durch die elektronische Datenverarbeitungseinheit 100 verarbeitet. Die zweite Kamera 104 blickt nach hinten und weist ein Blickfeld auf, das das Feld 50 hinter dem Fahrzeug 10 enthält, das sich vor der Arbeitsvorrichtung 22 und/oder hinter der Arbeitsvorrichtung 22 befinden kann. Das Bildsignal der zweiten Kamera 104 wird durch die elektronische Datenverarbeitungseinheit 100 verarbeitet. Die Bildsignale, die durch die Kameras 102, 104 bereitgestellt werden, enthalten somit Pixel, die den Boden vor dem Fahrzeug 10, bevor die Räder 14, 16 über den Boden gefahren sind, und hinter dem Fahrzeug 10, nachdem die Räder 14, 16 über den Boden gefahren sind, des Feldes 50 darstellen.
  • Ein System zum Detektieren und Dokumentieren von Bodenverdichtung, die durch das Fahrzeug 10 bewirkt wird, gemäß der vorliegenden Erfindung umfasst die Kameras 102, 104, die Farbstereokameras sein können, den Positionsbestimmungsempfänger 106 und oder die Trägheitsmesseinheit 96, die elektronische Datenverarbeitungseinheit 100, die Anwenderschnittstelle 98 sowie einen wahlweisen Wettersensor 94, der Windstärke und Windrichtung, Temperatur, Luftfeuchtigkeit und Luftdruck detektiert. Anstelle der Verwendung eines Wettersensors 94 können entsprechende Daten von einer entfernten Station an die elektronische Datenverarbeitungseinheit 100 gesendet und durch eine Kommunikationseinheit 92 empfangen werden. Somit kann jeder verfügbare Wetterbericht, der Daten über die Wetterhistorie für das jeweilige Feld 50 oder seine Umgebung enthält, durch die elektronische Datenverarbeitungseinheit 100 verwendet werden. Die Bodenverdichtungsdaten, die durch die elektronische Datenverarbeitungseinheit 100 berechnet werden, können in einem Speicher letzterer gespeichert oder über die Kommunikationseinheit 92 an einen entfernten Ort gesendet oder in der Cloud gespeichert werden. Eine Datenverarbeitung muss nicht notwendigerweise an Bord des Fahrzeugs 10 in der elektronischen Datenverarbeitungseinheit 100 stattfinden, sondern kann ebenso entfernt durchgeführt werden.
  • Die elektronische Datenverarbeitungseinheit 100 kann außerdem Daten bezüglich des Fahrzeugs 10 und der Arbeitsvorrichtung 22 wie z. B. Gewicht, Größe (Breite und Durchmesser) der Reifen der Räder 14, 16 und wahlweise 42 speichern. Diese Daten können ohnehin für andere Zwecke, insbesondere zur Steuerung des Fahrzeugs 10 und/oder der Arbeitsvorrichtung 22, in der elektronischen Datenverarbeitungseinheit 100 gespeichert sein oder der elektronischen Datenverarbeitungseinheit durch Steuereinheiten des Fahrzeugs 10 und/oder der Arbeitsvorrichtung 22 über ein BusSystem (insbesondere gemäß ISO 11783) zugestellt werden. Einige der Daten können aus den Signalen der Kamera 102 oder 104 abgeleitet werden, insbesondere bezüglich der Arbeitsvorrichtung 22. Mit anderen Worten, auf der Grundlage des Verarbeitens und Vergleichens des Bildes der angehängten Arbeitsvorrichtung mit Daten, die in einer Datenbank gespeichert sind, können entsprechende Daten bezüglich Gewicht und anderer Eigenschaften der Arbeitsvorrichtung 22 aus der Datenbank abgeleitet werden. Dasselbe kann mit dem Bild des Fahrzeugs 10 durchgeführt werden, das entweder durch die Kamera 102 oder die Kamera 104 bereitgestellt wird.
  • Die Kameras 102 und 104 nehmen während des Betriebs ununterbrochen 3D- und Farbbildgebungsinformationen der Spuren auf, die von den Reifen auf dem Untergrund, dem Boden und/oder den Reifen hinterlassen werden, die für den Bodenverdichtungs-Detektionsprozess benötigt werden. Die Wetterdaten und/oder Ortsinformationen würden einige zusätzliche, unterstützende Informationen über den aktuellen Bodenzustand und/oder den Ort des Feldabschnitts liefern. Die elektronische Datenverarbeitungseinheit 100 enthält eine Bildanalysesoftware, die aus herkömmlichen Modellen und/oder Modellen mit Algorithmen des tiefgehenden maschinellen Lernens oder beidem besteht. Die detektierten Bodenmerkmale und der Ort des Feldabschnitts werden außerdem verwendet, um eine Bodenverdichtungskarte bzw. ein Bodenverdichtungsprofil zu erzeugen.
  • Das Vorhersagen von Bodenverschlechterung oder Bodenverdichtung wird gemäß dem Diagramm, das in 2 gezeigt ist, durch eine Kombination eines oder mehrerer oder aller der folgenden Parameter durchgeführt, die durch das duale Kamerasystem beobachtet werden:
    1. (a) Die Farbe des Bodens, der von der vorderen Kamera 102 und/oder der hinteren Kamera 104 gesehen wird. Wie in Kasten 108 angegeben ist, werden die Bildsignale von der vorderen Kamera 102 korrigiert (Vorverarbeitung, Perspektivenkorrektur, Identifizierung von Boden im Bild). Wie in Kasten 110 angegeben ist, kann auf der Grundlage der Farbe der Bodens, der von der Kamera 102 gesehen wird, die aus dem Bild abgeleitet wird, und gemäß Kasten 112 von bekannten Farben von bekannten Arten von Bodenzuständen, die in der elektronischen Datenverarbeitungseinheit 100 gespeichert sind, die tatsächliche Art des Bodenzustands wie nass, trocken, usw. auf der Grundlage der Signale der Kamera 102 detektiert werden. Dasselbe (Kästen 114 und 116) kann mit dem Signal von der hinteren Kamera 104 durchgeführt werden, insbesondere dann, wenn die Arbeitsvorrichtung 22 einen Bodenbearbeitungsvorgang durchführt, da daraufhin nicht lediglich die Oberfläche des Bodens untersucht werden kann, sondern außerdem Abschnitte des Untergrundbodens, die sich unter der Oberfläche befinden. Die Farbe des Untergrundbodens kann einen Hinweis über die Bodenverdichtung geben. Heute sind manuelle Farbkartenwerkzeuge verfügbar, die es einer Person ermöglichen, diverse Farben der unterliegenden Bodenoberfläche zu vergleichen und auf der Grundlage einer vorab gespeicherten Beziehung zwischen Farbe und Verdichtung die Verdichtungsstufen für eine Bodenart und/oder die Bodenfeuchtigkeit zu schätzen, wobei möglicherweise außerdem das Signal von der ersten Kamera 102 in Betracht gezogen wird, um die Bodenart und/oder die Bodenfeuchtigkeit zu identifizieren. Dies kann außerdem auf elektronische Weise durch das elektronische Datenverarbeitungssystem 100 auf der Grundlage des Signals der hinteren Kamera 104 durchgeführt werden, solange die Arbeitsvorrichtung 22 z. B. während eines Bodenbearbeitungsvorgangs den Boden öffnet.
    2. (b) Wenn die hintere Kamera 104 die Reifen der Hinterräder 16 sehen kann, kann durch Betrachten, wieviel Schlamm an den Hinterreifen haftet, eine Vorhersage der Bodenfeuchtigkeit durchgeführt werden. Im Allgemeinen bleiben Stücke von Bodensegmenten auf den Reifen stecken, wenn eine hohe Feuchtigkeit und Verdichtung des Oberbodens vorliegen. Die hintere Kamera 104 kann außerdem beobachten, wieviel Staub oder Schlamm durch die Hinterreifen zurückgeworfen wird, nachdem das Fahrzeug 10 über einen Abschnitt des Feldes 50 gefahren ist. Wenn die Bodenoberfläche trocken und wenig verdichtet ist, wird eine große Menge Staub von den Reifen ausgestoßen, da die Bodenpartikel locker sind (der Boden ist aufgrund von Wassermangel locker gebunden). Wenn der Boden andererseits trocken und schwer verdichtet ist, wird weniger Staub ausgestoßen, da es wenig lockere Partikel geben wird (der Boden ist dicht gebunden). Dieser Ausstoß kann unter Verwendung einer Bildanalyse der hinteren Kamera 104 detektiert werden. Wenn die Bodenoberfläche feucht und nicht schwer verdichtet ist, werden verfestigte Stücke von Bodensegmenten ausgestoßen, wenn sich der Reifen vorwärts bewegt. Dieser Ausstoß kann ebenfalls unter Verwendung einer Bildanalyse der hinteren Kamera 104 detektiert werden. Mit anderen Worten, wenn der Boden feucht ist, es jedoch einen geringen Ausstoß von Bodenstücken gibt, bedeutet dies eine geringe Bodenverdichtung, und wenn der Boden feucht ist, es jedoch einen hohen Ausstoß von Bodenstücken gibt, bedeutet dies eine sehr hohe Bodenverdichtung.
    3. (c) Die Tiefe des Fahrgassenbereichs (Spuren, die durch die Räder 14, 16 erzeugt werden) kann geprüft werden, bevor und nachdem der Traktor darüber gefahren ist, unter Verwendung sowohl der vorderen als auch der hinteren Kamera 102, 104 in Kombination, um die Wirkung des Traktorgewichts auf die Bodenfestigkeit zu kennen, wie durch den Kasten 118 angegeben wird. Hier wird Bezug genommen auf die Offenbarung von EP 2 508 057 A1 , die hier durch Bezugnahme mit aufgenommen ist. Indem nicht lediglich das Bild der hinteren Kamera 104, sondern außerdem jenes der vorderen Kamera 102 berücksichtigt wird, können möglicherweise vorher vorhandene Spuren detektiert und berücksichtigt werden, womit das Ergebnis nicht verfälscht wird. Aus der Verdichtungswirkung (d. h. der Tiefe der Spuren der Räder 14, 16), die durch das Fahrzeug 10 erzielt wird, und unter Verwendung der bekannten Masse des Fahrzeugs und der bekannten Breiten und Durchmesser der Reifen der Räder 14, 16 (und somit des Drucks auf den Untergrund, der bewirkt wird, indem sich das Fahrzeug 10 über den Boden bewegt) kann die Bodenverdichtung abgeleitet werden, wobei insbesondere außerdem die Bodenfeuchtigkeit, die aus dem Bild der ersten Kamera 102 abgeleitet wird und/oder die Bodenverdichtung, die aus dem Bild der zweiten Kamera 104 abgeleitet wird, wie oben bezüglich Parameter (a) beschrieben ist, in Betracht gezogen werden. Alternativ oder zusätzlich kann die Bodenfeuchtigkeit auf der Grundlage des historischen und/oder tatsächlichen Wetters, das durch den Wettersensor 94 bereitgestellt und/oder über die Kommunikationseinheit 92 heruntergeladen wird, berechnet werden.
    4. (d) Jegliches stehende Wasser, das auf der Fahrgasse vorhanden ist, insbesondere nach Regenfällen, kann durch die vordere und die hintere Kamera 102, 104 detektiert werden. Unter Verwendung der hinteren Kamera werden Wasserspritzer (aufgrund von Oberflächenunterschieden) beobachtet. Mehr stehendes Wasser bedeutet eine hohe Verdichtung, da das Wasser die obere Bodenoberfläche nicht durchdringen kann. Außerdem können Anzeichen wie eine harte Verdichtung, ein Fehlen oder Vorhandensein von Rissen oder lediglich beabstandete Risse, die senkrecht zusammenlaufen, durch das elektronische Datenverarbeitungssystem 100 identifiziert werden, die eine mögliche Bodenverdichtung angeben.
    5. (e) Die vorgeschlagene Idee kann die Bodenverdichtung vorhersagen, indem die Tiefe und Struktur der Spur unter Verwendung der hinteren Kamera 104 detektiert wird, und auf der Grundlage davon, wie gut die Spur in den Boden gedrückt ist. Wenn die Verdichtung sehr hoch ist, wird es keinen Abdruck der Spur geben. Hier spielen die Bodenfeuchtigkeit und die Temperatur ebenfalls eine maßgebliche Rolle. Wenn die Temperatur nahe 0 Grad Celsius liegt, wird sich der Spurabdruck auf dem Boden kaum ändern, wenn die Bilder der vorderen Kamera 102 und der hinteren Kamera 104 verglichen werden. Andererseits bewirkt eine höhere Bodenfeuchtigkeit, dass der Boden weich ist, und dann treten die Spurabdrücke stärker hervor. Wenn z. B. ein sauberer Spurabdruck und hohe Feuchtigkeit und eine mittlere Temperatur vorliegen, liegt eine geringe Bodenverdichtung vor, während dann, wenn es keinen eindeutigen Spurabdruck gibt und hohe Feuchtigkeit und eine mittlere Temperatur vorliegen, eine hohe Bodenverdichtung vorliegt.
    6. (f) Ferner kann eine Reifentiefeanalyse bei jeder Traktorüberfahrt dazu beitragen, ein Verdichtungsprofil im Zeitablauf zu erzeugen, und kann verwendet werden, um eine Führungsstrategie in jedem Erntezyklus zu planen. Die ununterbrochene Überwachung des vorderen und des hinteren Bereichs sowohl um die linke als auch um die rechte Spur kann dazu beitragen, Situationen zu verhindern, in denen das landwirtschaftliche Fahrzeug im Schlamm steckenbleibt. Bevor der Traktor beginnt, in den Boden einzusinken, kann das vorgeschlagene System, das eine Kombination einer vorderen und einer hinteren Kamera umfasst, dies erfassen und den Fahrer warnen, bevor ein derartiges Szenario eintritt. Dies ist möglich, indem das Bodenverdichtungsprofil bzw. die Bodenverdichtungskarte verwendet wird und die aktuelle Situation des Traktors durch Überwachen der Reifen des landwirtschaftlichen Fahrzeugs, von Schlamm auf den Reifen und der Spurtiefen verglichen wird. Zum Beispiel kann das vorgeschlagene System einen Alarm für den Fahrer des landwirtschaftlichen Fahrzeugs auslösen, nicht auf dem aktuellen Weg zu fahren, der eine Situation, im Schlamm steckenzubleiben, bewirken kann. Dies kann unter Verwendung einer Kombination des erzeugten Verdichtungsprofils, des Wettersensors und einer Echtzeitanalyse der Bilder, die durch die vordere und die hintere Kamera aufgenommen werden, durchgeführt werden.
    7. (g) Man kann außerdem Reifenschlupf vorhersagen und die Bedienperson des Fahrzeugs 10 mittels der Anwenderschnittstelle 98 darüber alarmieren, indem spezifische, durch die vordere und die hintere Kamera 102, 104 beobachtete Gebiete beobachtet werden und die Technik einer Bildgebungs-Entfernungsmessung verwendet wird. Zum Beispiel die gemessene Entfernung im Zeitablauf für ein Gebiet vor dem Fahrzeug 10 auf der Grundlage der Bilder der vorderen Kamera 102 und ein weiteres Gebiet hinter dem Traktor auf der Grundlage der Bilder der hinteren Kamera 104. Die Zeit, bis die hintere Kamera 104 ein bestimmtes Gebiet sieht, das durch ein spezielles Merkmal im Bild wie einen Stein, eine Pflanze oder einen Reifenabdruck identifiziert wird, das vorher von der vorderen Kamera 102 gesehen worden ist, kann mit einer erfassten Umfangsgeschwindigkeit der Räder 14, 16 geteilt durch die jeweilige Zeit verglichen werden, um einen Schlupf der Räder 14, 16 zu detektieren. Wenn kein Schlupf vorliegt, wird die gemessene Entfernung im Zeitablauf proportional zu oder gleich der Fahrzeuggeschwindigkeit, die auf dem Tachometer angezeigt wird, und der Drehzahl des Reifens sein. Wenn andererseits ein Radschlupf vorliegt, wird die gemessene Entfernung im Zeitablauf nicht mit der Fahrzeuggeschwindigkeit (die durch Entfernungsmessung gemessen wird) und der Reifendrehzahl korrelieren. Dies ist so, weil das Fahrzeug versuchen wird, sich vorwärtszubewegen, jedoch aufgrund dessen, dass die Reifen auf dem Untergrund rutschen, vollständig oder nahezu ortsfest bleiben wird. Dies kann dazu beitragen, einen Schlupfzustand zu identifizieren, und dazu beitragen, einen Radschlupf auf den Fahrgassen vorherzusagen und Zustände, in denen das Fahrzeug 10 in nassen Stellen des Feldes steckenbleibt, zu verhindern.
    8. (h) Das vorgeschlagene System kann eine Beschädigung des Ernteguts angeben (wahlweise), die durch diverse Umweltbedingungen oder Insektenangriffe auftreten könnte. Dies ist möglich, indem der Zustand des Ernteguts unter Verwendung der Farbbilder der vorderen Kamera analysiert wird. Während der Traktor über ein Gebiet fährt, in dem Erntegut vorhanden ist, kann das vorgeschlagene System auf der Grundlage der Farbe und der Struktur des Ernteguts eine beliebige Beschädigung des Ernteguts angeben. Der Fahrer bzw. der Bauernhofbesitzer kann über eine mögliche Beschädigung des Ernteguts in dem spezifischen Gebiet des Feldes alarmiert werden. Das angegebene Gebiet mit einer Beschädigung des Ernteguts kann einer Feldkarte zugewiesen werden. Dieses System wäre befähigt, eine mögliche Beschädigung des Ernteguts und nicht notwendigerweise eine genaue Schätzung der Beschädigung des Ernteguts anzugeben, jedoch kann es dabei unterstützen, auf der Grundlage des angegebenen Ausmaßes der Beschädigung des Ernteguts eine Ertragskarte mit entsprechenden Angaben zu erzeugen. Die Signale der Kameras 102, 104 können außerdem zum Detektieren der Pflanzenreihen 52 auf dem Feld und somit zum automatischen Lenken des Fahrzeugs 10, derart, dass die Räder 14, 16 zwischen den Reihen bleiben, und ebenso für die Arbeitsvorrichtung 22, derart, dass die Reiheneinheiten 34 zwischen den Reihen bleiben, solange Mittel vorhanden sind, um die Arbeitsvorrichtung 22 in Bezug auf das Fahrzeug 10 seitlich zu bewegen, wie Aktoren für die Dreipunktkupplung 24, verwendet werden.
    9. (i) Die Verdichtungskarte bzw. das Verdichtungsprofil, die unter Verwendung des vorgeschlagenen Systems erzeugt werden (Kasten 120), können verwendet werden, um den Prozess zur Erzeugung von Führungslinien zu unterstützen. Wenn eine Fahrgasse für den aktuellen Erntezyklus mehrere Male überfahren wurde und die Verdichtungskarte bzw. das Verdichtungsprofil eine hohe Verdichtung im Gebiet der Fahrgasse angibt, würde das System vorschlagen zu vermeiden, für den nächsten Erntegutzyklus über diese Fahrgasse zu fahren, bis sich die Verdichtung normalisiert. In diesem Fall kann das System die Erzeugung einer alternativen Führungslinie, die die Fahrgasse mit hoher Verdichtung umgeht, vorschlagen. Da die Verdichtungskarte für alle nachfolgenden Durchfahrten des Fahrzeugs aktualisiert wird, können die Führungslinien ununterbrochen verändert bzw. aktualisiert werden, um die Gesamtbodenverdichtung zu minimieren. Wenn das Feld schwer verdichtet ist, kann das System dem Bauern außerdem vorschlagen, in einem Umlauf tiefwurzelnde, faserige Kulturpflanzen zu pflanzen, um die Böden zu durchdringen, tiefe Wurzelkanäle zu bilden und dem Boden organisches Material hinzuzufügen. Es wäre außerdem möglich, ein Reifendruck-Steuersystem derart zu steuern, dass der Druck in den Reifen abgesenkt wird, sobald das Fahrzeug 10 über hoch verdichteten Boden fährt.
    10. (j) Während der Arbeit mit dem Fahrzeug 10 und anderen Fahrzeugen und im Zeitablauf kann aus Eingangsdaten von den Kameras 102, 104 und anderen Sensoren und aus der berechneten Bodenverdichtung in der Datenbank (Kasten 120) eine relativ große Datenmenge gesammelt werden. All diese Eingangs- und Ausgangsdaten für ein einziges Fahrzeug 10 oder viele Fahrzeuge können verwendet werden, um ein selbstlernendes System (wie etwa ein neurales Netz) zu speisen, das im Zeitablauf Beziehungen zwischen Eingangssignalen und einer resultierenden Bodenverdichtung besser lernen kann. Die Datenbank kann um getrennte Bodenverdichtungsmessungen, wie sie durch eine Bodensonde oder einen den Untergrund durchdringenden Radarsensor durchgeführt werden, erweitert werden, um den Eingang für das selbstlernende System zu verbessern und es somit sogar noch zuverlässiger zu machen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 2508057 A1 [0005, 0032]
    • EP 3195719 A1 [0006]
    • EP 3586592 A2 [0007]
    • WO 2011/063814 A1 [0009]
    • EP 2267566 A2 [0009]
    • DE 102016212201 A1 [0024]

Claims (11)

  1. System zum Detektieren der Verdichtung des Bodens eines Feldes (50), das von einem landwirtschaftlichen Fahrzeug (10) überquert wird, das eine erste Kamera (102), die konfiguriert ist, auf den Boden zu blicken, bevor das Fahrzeug (10) darübergefahren ist, eine zweite Kamera (104), die konfiguriert ist, auf den Boden zu blicken, nachdem das Fahrzeug (10) darüber gefahren ist, und ein elektronisches Datenverarbeitungssystem (100), das konfiguriert ist, Bildsignale von der ersten Kamera (102) und der zweiten Kamera (104) zu empfangen und auf der Grundlage der Bildsignale von der ersten Kamera (102) und der zweiten Kamera (104) Daten bezüglich der Verdichtung des Bodens abzuleiten, umfasst.
  2. System nach Anspruch 1, wobei das elektronische Datenverarbeitungssystem (100) konfiguriert ist, die Tiefe einer vorher vorhandenen Spur im Boden aus den Bildsignalen der ersten Kamera (102) abzuleiten, die Tiefe einer Spur im Boden, die durch mit dem Untergrund in Eingriff gelangende Mittel des Fahrzeugs (10) erzeugt wird, aus den Bildsignalen der zweiten Kamera (102) abzuleiten, und die Daten bezüglich der Bodenverdichtung auf der Grundlage der Tiefen beider Spuren und mindestens einer Eigenschaft des Fahrzeugs (10), die eine Masse des Fahrzeugs (10) und/oder einen Bereich, in dem die mit dem Untergrund in Eingriff gelangenden Mittel des Fahrzeugs (10) mit dem Boden in Kontakt gelangen, umfasst, abzuleiten.
  3. System nach Anspruch 1 oder 2, wobei das elektronische Datenverarbeitungssystem (100) konfiguriert ist, aus dem Bild der ersten Kamera (102) eine Farbe des Bodens, der von der ersten Kamera (102) gesehen wird, abzuleiten, aus der Farbe eine tatsächliche Bodenfeuchtigkeit zu folgern und die Daten bezüglich der Bodenverdichtung außerdem auf der Grundlage der gefolgerten, tatsächlichen Bodenfeuchtigkeit abzuleiten.
  4. System nach einem der Ansprüche 1 bis 3, wobei das elektronische Datenverarbeitungssystem (100) konfiguriert ist, aus dem Bild der zweiten Kamera (104) eine Farbe des Untergrundbodens abzuleiten, der durch eine Bodenbearbeitungs-Arbeitsvorrichtung (22) aufgenommen wird, die von der zweiten Kamera (104) gesehen wird, und die Daten bezüglich der Bodenverdichtung außerdem auf der Grundlage der Farbe unter Verwendung einer vorab gespeicherten Beziehung zwischen Farbe und Bodenverdichtung abzuleiten.
  5. System nach einem der Ansprüche 1 bis 4, wobei das elektronische Datenverarbeitungssystem (100) konfiguriert ist, aus dem Bild der zweiten Kamera (104) Bodenpartikel, die auf mit dem Untergrund in Eingriff gelangenden Mitteln des Fahrzeugs (10) haften, und/oder Staub, der durch mit dem Untergrund in Eingriff gelangende Mittel des Fahrzeugs (10) aufgeworfen wird, und/oder verfestigte Bodenpartikel, die durch mit dem Untergrund in Eingriff gelangende Mittel des Fahrzeugs (10) weggeworfen werden, abzuleiten und aus den identifizierten Partikeln und/oder dem identifizierten Staub Daten über die Bodenverdichtung abzuleiten.
  6. System nach einem der Ansprüche 1 bis 5, wobei das elektronische Datenverarbeitungssystem (100) konfiguriert ist, aus dem Bild der ersten Kamera (102) und/oder der zweiten Kamera (104) Wasser, das auf dem Boden steht und/oder durch das Fahrzeug (10) hochgespritzt wird, und/oder eine harte Verdichtung des Bodens, ein Vorhandensein oder Fehlen von Rissen oder lediglich beabstandete Risse, die senkrecht zusammenlaufen, im Boden abzuleiten und aus mindestens einem davon Daten über die Bodenverdichtung abzuleiten.
  7. System nach einem der Ansprüche 1 bis 6, wobei das elektronische Datenverarbeitungssystem (100) konfiguriert ist, aus dem Bild der zweiten Kamera (104) die Tiefe und Struktur einer Spur, die durch ein mit dem Untergrund in Eingriff gelangendes Mittel des Fahrzeugs (10) im Boden hinterlassen wird, abzuleiten und auf der Grundlage davon, wie gut die Spur in den Boden gedrückt ist, Daten über die Bodenverdichtung abzuleiten.
  8. System nach einem der Ansprüche 1 bis 7, wobei das elektronische Datenverarbeitungssystem (100) konfiguriert ist, aus dem Bild mindestens einer der Kameras (102, 104) auf der Grundlage einer Bildgebungs-Entfernungsmessung einen Schlupf der mit dem Untergrund in Eingriff gelangenden Mittel des Fahrzeugs (10) und/oder einen möglichen Zustand des Festfahrens des Fahrzeugs (10) im Boden abzuleiten und eine Anwenderschnittstelle (98) derart zu steuern, dass im Fall eines Schlupfs und/oder eines möglichen Zustands des Festfahrens eine Warnung an eine Bedienperson des Fahrzeugs (10) ausgegeben wird.
  9. System nach einem der vorhergehenden Ansprüche, wobei das elektronische Datenverarbeitungssystem (100) konfiguriert ist, die Bodenverdichtungsdaten zum Planen von Maßnahmen, um eine detektierte Bodenverdichtung zu entfernen, und/oder für eine zukünftige Routenplanung, um das Fahren über verdichteten Boden zu vermeiden, in einer Karte mit Geo-Referenzierung zu speichern.
  10. Fahrzeug (10) mit einem System nach einem der vorhergehenden Ansprüche.
  11. Verfahren zum Detektieren der Verdichtung des Bodens eines Feldes (50), das von einem landwirtschaftlichen Fahrzeug (10) überquert wird, wobei eine erste Kamera (102) auf den Boden blickt, bevor das Fahrzeug (10) darüber gefahren ist, eine zweite Kamera (104) auf den Boden blickt, nachdem das Fahrzeug (10) darüber gefahren ist, und ein elektronisches Datenverarbeitungssystem (100) Bildsignale von der ersten Kamera (102) und der zweiten Kamera (104) empfängt und auf der Grundlage der Bildsignale von der ersten Kamera (102) und der zweiten Kamera (104) Daten bezüglich der Verdichtung des Bodens ableitet.
DE102021131799.1A 2020-12-30 2021-12-02 Automatisches, bildgebungsbasiertes Bodenverdichtungs-Detektionssystem Pending DE102021131799A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IN202021057098 2020-12-30
IN202021057098 2020-12-30

Publications (1)

Publication Number Publication Date
DE102021131799A1 true DE102021131799A1 (de) 2022-06-30

Family

ID=81972544

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021131799.1A Pending DE102021131799A1 (de) 2020-12-30 2021-12-02 Automatisches, bildgebungsbasiertes Bodenverdichtungs-Detektionssystem

Country Status (1)

Country Link
DE (1) DE102021131799A1 (de)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2267566A2 (de) 2009-06-16 2010-12-29 CLAAS Selbstfahrende Erntemaschinen GmbH Routenplanungsverfahren und -system
WO2011063814A1 (en) 2009-11-25 2011-06-03 Aarhus Universitet System for reducing compaction of soil
EP2508057A1 (de) 2011-04-07 2012-10-10 CLAAS Selbstfahrende Erntemaschinen GmbH Vorrichtung und Verfahren zur Überwachung der Befahrbarkeit eines Bodens
EP3195719A1 (de) 2016-01-20 2017-07-26 CLAAS E-Systems KGaA mbH & Co KG Landwirtschaftliche maschine
DE102016212201A1 (de) 2016-07-05 2018-01-11 Deere & Company Anordnung zur selbsttätigen Führung eines Gerätes
EP3586592A2 (de) 2018-06-25 2020-01-01 Deere & Company Präskriptionszwischenfruchtaussaat mit mähdrescher

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2267566A2 (de) 2009-06-16 2010-12-29 CLAAS Selbstfahrende Erntemaschinen GmbH Routenplanungsverfahren und -system
WO2011063814A1 (en) 2009-11-25 2011-06-03 Aarhus Universitet System for reducing compaction of soil
EP2508057A1 (de) 2011-04-07 2012-10-10 CLAAS Selbstfahrende Erntemaschinen GmbH Vorrichtung und Verfahren zur Überwachung der Befahrbarkeit eines Bodens
EP3195719A1 (de) 2016-01-20 2017-07-26 CLAAS E-Systems KGaA mbH & Co KG Landwirtschaftliche maschine
DE102016212201A1 (de) 2016-07-05 2018-01-11 Deere & Company Anordnung zur selbsttätigen Führung eines Gerätes
EP3586592A2 (de) 2018-06-25 2020-01-01 Deere & Company Präskriptionszwischenfruchtaussaat mit mähdrescher

Similar Documents

Publication Publication Date Title
US11698264B2 (en) Predicting terrain traversability for a vehicle
EP2622955B2 (de) Landwirtschaftliche Maschine mit einem System zur selbsttätigen Einstellung eines Bearbeitungsparameters und zugehöriges Verfahren
EP2267566B1 (de) Routenplanungsverfahren und -system
EP2508057B1 (de) Vorrichtung und Verfahren zur Überwachung der Befahrbarkeit eines Bodens
DE102016214554A1 (de) Verfahren zur Optimierung eines Arbeitsparameters einer Maschine zur Ausbringung von landwirtschaftlichem Material auf ein Feld und entsprechende Maschine
EP3097754B1 (de) Landwirtschaftliche arbeitsmaschine
DE102017217391A1 (de) Landwirtschaftliches Arbeitsfahrzeug
DE102011078292A1 (de) Verfahren und Vorrichtung zum Erzeugen einer Befahrbarkeitskarte eines Umgebungsbereiches eines Fahrzeuges
DE102009028990A1 (de) Verfahren und System für die Umfelderfassung
DE102019109191A1 (de) Verfahren zur Kurvenradiusermittlung
WO2018086764A1 (de) Verfahren zum prädikativen erzeugen von daten zur steuerung eines fahrweges und eines betriebsablaufes für landwirtschaftliche fahrzeuge und maschinen
EP3783529A1 (de) Sicherheitssystem und verfahren zum betreiben einer mobilen landwirtschaftlichen arbeitsmaschine
DE102022207537A1 (de) Kartenbasiertes steuersystem mit positionsfehlerkorrektur für landwirtschaftliche maschinen
EP1847898B1 (de) Verfahren zur Aufzeichnung von Fahrwegdaten eines landwirtschaftlichen Maschinensystems
DE102021131799A1 (de) Automatisches, bildgebungsbasiertes Bodenverdichtungs-Detektionssystem
DE102017103646A1 (de) Landwirtschaftliche Maschine und Verfahren für eine landwirtschaftliche Maschine
EP4052550B1 (de) Seitenhangausgleichsvorrichtung für den weinanbau
EP3859651A1 (de) Systeme und verfahren zur erfassung der durchquerbarkeit einer stelle
DE102021120757A1 (de) Verfahren zum Sammeln von landwirtschaftlichen Messdaten bei einer landwirtschaftlichen Arbeitsmaschine
DE102021208343B3 (de) Autonom fahrendes Fahrzeug zum Befahren eines unbefestigten Geländeabschnittes, computer-implementiertes Ansteuerverfahren zum Ansteuern eines autonom fahrenden Fahrzeuges, sowie Computerprogrammprodukt
DE102020214075A1 (de) Verfahren zum Steuern einer Einheit einer mobilen landwirtschaftlichen Vorrichtung
DE102022113393A1 (de) Verfahren zur Ermittlung einer Bodenbeschaffenheit
DE102023127962A1 (de) System und Verfahren zur Nutzung von Agronomiedaten
DE102023118625A1 (de) Steuern eines Pflanzenpflegegeräts basierend auf einer Vielzahl an Wächterpflanzencharakteristika
DE102021214001A1 (de) Verfahren zum Ermitteln einer Pflanzeninformation bezüglich einer Pflanze auf einer landwirtschaftlichen Fläche