DE102019203247A1 - Vision-based steering assistance system for land vehicles - Google Patents
Vision-based steering assistance system for land vehicles Download PDFInfo
- Publication number
- DE102019203247A1 DE102019203247A1 DE102019203247.8A DE102019203247A DE102019203247A1 DE 102019203247 A1 DE102019203247 A1 DE 102019203247A1 DE 102019203247 A DE102019203247 A DE 102019203247A DE 102019203247 A1 DE102019203247 A1 DE 102019203247A1
- Authority
- DE
- Germany
- Prior art keywords
- vehicle
- processor unit
- surroundings
- track line
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 43
- 238000001514 detection method Methods 0.000 claims abstract description 32
- 238000004590 computer program Methods 0.000 claims abstract description 11
- 238000012545 processing Methods 0.000 claims description 19
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 230000011218 segmentation Effects 0.000 claims description 8
- 238000013473 artificial intelligence Methods 0.000 claims description 7
- 238000003708 edge detection Methods 0.000 claims description 5
- 230000003287 optical effect Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 description 4
- 238000005065 mining Methods 0.000 description 4
- 238000001454 recorded image Methods 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000003672 processing method Methods 0.000 description 3
- 241000196324 Embryophyta Species 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 241001417527 Pempheridae Species 0.000 description 2
- 235000013339 cereals Nutrition 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000002420 orchard Substances 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 241000219310 Beta vulgaris subsp. vulgaris Species 0.000 description 1
- 244000068988 Glycine max Species 0.000 description 1
- 235000010469 Glycine max Nutrition 0.000 description 1
- 235000011430 Malus pumila Nutrition 0.000 description 1
- 244000070406 Malus silvestris Species 0.000 description 1
- 235000015103 Malus silvestris Nutrition 0.000 description 1
- 240000004658 Medicago sativa Species 0.000 description 1
- 244000061456 Solanum tuberosum Species 0.000 description 1
- 235000002595 Solanum tuberosum Nutrition 0.000 description 1
- 240000006394 Sorghum bicolor Species 0.000 description 1
- 244000107946 Spondias cytherea Species 0.000 description 1
- 235000021536 Sugar beet Nutrition 0.000 description 1
- 240000006365 Vitis vinifera Species 0.000 description 1
- 235000014787 Vitis vinifera Nutrition 0.000 description 1
- 240000008042 Zea mays Species 0.000 description 1
- 235000016383 Zea mays subsp huehuetenangensis Nutrition 0.000 description 1
- 235000002017 Zea mays subsp mays Nutrition 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 235000009973 maize Nutrition 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 238000009331 sowing Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01B—SOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
- A01B69/00—Steering of agricultural machines or implements; Guiding agricultural machines or implements on a desired track
- A01B69/001—Steering by means of optical assistance, e.g. television cameras
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01B—SOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
- A01B69/00—Steering of agricultural machines or implements; Guiding agricultural machines or implements on a desired track
- A01B69/007—Steering or guiding of agricultural vehicles, e.g. steering of the tractor to keep the plough in the furrow
- A01B69/008—Steering or guiding of agricultural vehicles, e.g. steering of the tractor to keep the plough in the furrow automatic
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/10—Path keeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2300/00—Indexing codes relating to the type of vehicle
- B60W2300/15—Agricultural vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Life Sciences & Earth Sciences (AREA)
- Transportation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Engineering & Computer Science (AREA)
- Environmental Sciences (AREA)
- Soil Sciences (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft den autonomen Betrieb eines Fahrzeugs (1). So wird beispielsweise eine Prozessoreinheit zum autonomen Betrieb eines Fahrzeugs (1) vorgeschlagen. Die Prozessoreinheit umfasst eine Schnittstelle, wobei die Prozessoreinheit dazu eingerichtet ist, mittels der Schnittstelle auf eine von einer Sensoreinheit generierte Umfelderfassung des Fahrzeugs (1) zuzugreifen, mehrere Spurlinien (4.1, 4.2) in der Umfelderfassung zu erkennen, eine Spurlinie (4.1) aus den mehreren Spurlinien (4.1, 4.2) auszuwählen, und das Fahrzeug (1) basierend auf der ausgewählten Spurlinie (4.1) derart zu steuern, dass das Fahrzeug (1) autonom der ausgewählten Spurlinie (4.1) folgt. Weitere Ansprüche sind auf ein entsprechendes Fahrerassistenzsystem (5), ein Verfahren sowie auf ein Computerprogrammprodukt und ein Fahrzeug (1) gerichtet.The invention relates to the autonomous operation of a vehicle (1). For example, a processor unit for the autonomous operation of a vehicle (1) is proposed. The processor unit comprises an interface, the processor unit being set up to use the interface to access a detection of the surroundings of the vehicle (1) generated by a sensor unit, to recognize several lane lines (4.1, 4.2) in the detection of the surroundings, a lane line (4.1) from the to select several track lines (4.1, 4.2), and to control the vehicle (1) based on the selected track line (4.1) in such a way that the vehicle (1) autonomously follows the selected track line (4.1). Further claims are directed to a corresponding driver assistance system (5), a method and a computer program product and a vehicle (1).
Description
Die Erfindung betrifft eine Prozessoreinheit, ein Fahrerassistenzsystem, ein Verfahren und ein Computerprogrammprodukt zum autonomen Betrieb eines Fahrzeugs, insbesondere eines landwirtschaftlichen Nutzfahrzeugs.The invention relates to a processor unit, a driver assistance system, a method and a computer program product for the autonomous operation of a vehicle, in particular an agricultural utility vehicle.
Es sind Fahrerassistenzsysteme für landwirtschaftliche Nutzfahrzeuge bzw. Maschinen (Landtechnik) bekannt. Diese Fahrerassistenzsysteme sollen insbesondere als vollautomatisierte oder teilautomatisierte Lenkhilfe den Fahrer entlasten. Dabei hat sich die Lenkhilfe via GPS-Steuerung in der Landtechnik etabliert. Die Fahrerassistenzsysteme sind teilweise sehr komplex und ermöglichen je nach Korrektursignal Genauigkeiten von bis zu 2 cm. Problematisch an GPS ist die teilweise nicht vorhandene Signalabdeckung weltweit (z.B. auch im Bergland) und die je nach System hohen Anschaffungskosten und Lizenzkosten.Driver assistance systems for agricultural utility vehicles or machines (agricultural engineering) are known. These driver assistance systems are intended to relieve the driver in particular as a fully automated or partially automated steering aid. The steering aid via GPS control has established itself in agricultural engineering. The driver assistance systems are sometimes very complex and, depending on the correction signal, enable accuracies of up to 2 cm. Problems with GPS are the partially non-existent signal coverage worldwide (e.g. also in mountainous regions) and the high acquisition and license costs, depending on the system.
Alternative, nicht auf GPS basierende Fahrerassistenzsysteme für landwirtschaftliche Nutzfahrzeuge sehen optische Systeme vor, die bestimmte Anwendungen in der Landwirtschaft automatisieren. Beispiele sind Fahrerassistenzsysteme, die auf Kameras, auf Lidar-Sensoren oder allgemeiner auf Laser-Sensoren basieren. Derartige Systeme sind jedoch aufwändig und teuer (insbesondere, wenn Lidar-Sensoren zum Einsatz kommen) und/oder können nur eine einfache Anwendung ausführen oder unterstützen. Beispielsweise ermöglichen diese Systeme typischerweise lediglich, einen Schwad mittig vor dem Fahrzeug zu erkennen und nicht seitlich des Fahrzeugs. Unter einem „Schwad“ kann ein abgemähtes und in einer Reihe liegendes landwirtschaftliches Gut verstanden werden, z.B. Gras, Getreide o.Ä. Weiterhin sind derartige Systeme nicht in der Lage, mehrere Anwendungen (z.B. Mähen, Schwaden, Laden oder Pressen) zu verarbeiten und bieten so keine echte Alternative zu GPS-Systemen.Alternative driver assistance systems for agricultural vehicles that are not based on GPS provide optical systems that automate certain applications in agriculture. Examples are driver assistance systems based on cameras, lidar sensors or, more generally, laser sensors. However, such systems are complex and expensive (in particular when lidar sensors are used) and / or can only carry out or support a simple application. For example, these systems typically only allow a swath to be recognized centrally in front of the vehicle and not to the side of the vehicle. A “swath” can be understood as an agricultural crop that has been mown and lined up in a row, e.g. Grass, grain, etc. Furthermore, such systems are not able to process several applications (e.g. mowing, swathing, loading or baling) and thus do not offer a real alternative to GPS systems.
Ein Fahrer eines landwirtschaftlichen Nutzfahrzeugs muss sich typischerweise für die Dauer eines ganzen Tages auf einen Arbeitsgang konzentrieren. Daneben muss der Fahrer üblicherweise neben dem Steuern des Fahrzeugs gleichzeitig die Funktion von Anbaugeräten des Fahrzeugs überwachen. Dies kann dazu führen, dass es zu Fehlbedienungen kommt, dass die Maschinen nicht optimal effizient genutzt werden und dass die Arbeitsleistung und die Arbeitsqualität leiden.A driver of an agricultural utility vehicle typically has to concentrate on one operation for a whole day. In addition, in addition to controlling the vehicle, the driver usually has to simultaneously monitor the function of attachments in the vehicle. This can lead to incorrect operation, the machines not being used optimally and efficiently and the work performance and quality of work suffer.
Teure GPS Systeme sind für kleinere oder mittlere Landwirtschaftsbetriebe oftmals nicht rentabel oder nutzlos in Gebieten mit schlechter Signalabdeckung. Optische Assistenzsysteme sind bisher sehr eingeschränkt in Ihrer Funktion und können oft nur sehr einfache Anwendungen umsetzen.Expensive GPS systems are often not profitable for small or medium-sized farms or are useless in areas with poor signal coverage. Optical assistance systems have so far been very limited in their function and can often only implement very simple applications.
Eine Aufgabe der vorliegenden Erfindung kann darin gesehen werden, eine insbesondere zu teuren GPS-Systemen alternative Technologie bereitzustellen, die den Fahrer entlastet und ihm mehr Komfort bei verschiedenen Anwendungen (z.B. Mähen, Schwaden, Laden oder Pressen) bietet.One object of the present invention can be seen as providing a technology that is an alternative to expensive GPS systems in particular, which takes the burden off the driver and offers him more comfort in various applications (e.g. mowing, swathing, loading or baling).
Die Aufgabe wird gelöst durch die Gegenstände der unabhängigen Patentansprüche. Vorteilhafte Ausführungsformen sind Gegenstand der Unteransprüche, der folgenden Beschreibung sowie der Figuren.The object is achieved by the subjects of the independent claims. Advantageous embodiments are the subject of the dependent claims, the following description and the figures.
Gemäß der vorliegenden Erfindung wird eine Technologie vorgeschlagen, die Spurlinien (z.B. Schwade oder Mähkanten) in einem Feld erfasst, entsprechende Bildinhalte verarbeitet sowie die richtige Spur auswählt und dann die Lenkung des Fahrzeugs entsprechend ansteuert. Einen Kern der Erfindung stellt dabei ein System aus einfachen Sensoren (z.B. Kameras) und modernster Bildverarbeitung dar (insbesondere durch Methoden der Künstlichen Intelligenz erweitert, siehe weiter unten), die es ermöglicht, das System flexibel zu gestalten und einzusetzen. Je nach Art der Anwendung und des Einsatzgebietes kann das System unterschiedlich implementiert und so an Kundenanforderungen angepasst werden.According to the present invention, a technology is proposed which detects track lines (e.g. swaths or mowed edges) in a field, processes corresponding image content, selects the correct track and then controls the steering of the vehicle accordingly. A core of the invention is a system of simple sensors (e.g. cameras) and state-of-the-art image processing (expanded in particular by methods of artificial intelligence, see below), which enables the system to be designed and used flexibly. Depending on the type of application and the area of application, the system can be implemented in different ways and thus adapted to customer requirements.
Insbesondere werden gemäß der vorliegenden Erfindung drei Funktionalitäten bzw. Verfahrensschritte vorgeschlagen, nämlich die Erkennung der Spurlinien („Sehen“ bzw. im Englischen: „See“), die Auswahl der richtigen Spurlinie („Denken“ bzw. im Englischen: „Think“) und die Ansteuerung der Lenkung des Fahrzeugs („Handeln“ bzw. im Englischen: „Act“). Die vorliegende Erfindung ermöglicht, den Fahrer zu entlasten und ihm mehr Komfort bei verschiedenen Anwendungen (z.B. Mähen, Schwaden, Laden oder Pressen) zu bieten. Das landwirtschaftliche Nutzfahrzeug kann dadurch effizienter genutzt werden. Die Schlagkraft wird höher, die Arbeitsleistung und Arbeitsqualität verbessern sich deutlich und der Kraftstoffverbrauch sinkt.In particular, according to the present invention, three functionalities or method steps are proposed, namely the recognition of the lane lines ("seeing" or in English: "see"), the selection of the correct lane line ("thinking" or in English: "think") and the control of the steering of the vehicle ("act"). The present invention makes it possible to relieve the driver and to offer him more comfort in various applications (e.g. mowing, swathing, loading or baling). The agricultural utility vehicle can thus be used more efficiently. The efficiency increases, work performance and quality of work improve significantly and fuel consumption decreases.
In diesem Sinne wird gemäß einem ersten Aspekt der Erfindung eine Prozessoreinheit zum autonomen Betrieb eines Fahrzeugs bereitgestellt. Die Prozessoreinheit kann ein Element eines elektronischen Steuergeräts des Fahrzeugs bilden. Die Prozessoreinheit kann weiterhin ein Element eines Fahrerassistenzsystems des Fahrzeugs bilden. Die Prozessoreinheit umfasst eine Schnittstelle. Die Schnittstelle ist insbesondere eine Kommunikations-Schnittstelle, welche den Austausch von Daten ermöglicht, und zwar einen Austausch von Daten zwischen der Prozessoreinheit einerseits und einer Sensoreinheit andererseits. Weiterhin kann die Prozessoreinheit über die Schnittstelle Befehle an Aktuatoren des Fahrzeugs übermitteln, beispielsweise an einen Lenk-Aktuator des Fahrzeugs. Die Prozessoreinheit ist insbesondere dazu eingerichtet, mittels der Schnittstelle auf eine von der Sensoreinheit generierte Umfelderfassung des Fahrzeugs zuzugreifen, mehrere Spurlinien in der Umfelderfassung zu erkennen, eine Spurlinie aus den mehreren Spurlinien auszuwählen, und das Fahrzeug basierend auf der ausgewählten Spurlinie derart zu steuern, dass das Fahrzeug autonom der ausgewählten Spurlinie folgt, z.B. dass das Fahrzeug auf oder seitlich neben der ausgewählten Spurlinie fährt. Wenn die Sensoreinheit lediglich eine einzige Spurlinie in dem Umfeld des Fahrzeugs erfasst, dann ist die Prozessoreinheit auch dazu eingerichtet, diese einzige Spurlinie zu erkennen und das Fahrzeug derart zu steuern, dass es ihr folgt.In this sense, according to a first aspect of the invention, a processor unit for the autonomous operation of a vehicle is provided. The processor unit can form an element of an electronic control unit of the vehicle. The processor unit can also form an element of a driver assistance system of the vehicle. The processor unit includes an interface. The interface is, in particular, a communication interface which enables the exchange of data, specifically an exchange of data between the processor unit on the one hand and a sensor unit on the other. Furthermore, the processor unit can transmit commands to actuators of the vehicle via the interface, for example to a steering actuator of the vehicle. The processor unit is set up in particular to use the interface to access a surrounding area detection of the vehicle generated by the sensor unit, to recognize several lane lines in the surrounding area detection, to select a lane line from the several lane lines and to control the vehicle based on the selected lane line in such a way that the vehicle autonomously follows the selected lane line, eg that the vehicle drives on or to the side of the selected lane line. If the sensor unit only detects a single lane line in the vicinity of the vehicle, then the processor unit is also set up to recognize this single lane line and to control the vehicle in such a way that it follows it.
Gemäß einem zweiten Aspekt der Erfindung wird analog ein Fahrerassistenzsystem zum autonomen Betrieb eines Fahrzeugs vorgeschlagen. Das Fahrerassistenzsystem umfasst eine Sensoreinheit zur Erfassung eines Umfelds des Fahrzeugs und eine Prozessoreinheit gemäß dem ersten Aspekt der Erfindung. Die Sensoreinheit ist dazu eingerichtet, eine Umfelderfassung des Fahrzeugs zu generieren.According to a second aspect of the invention, a driver assistance system for the autonomous operation of a vehicle is proposed. The driver assistance system comprises a sensor unit for detecting the surroundings of the vehicle and a processor unit according to the first aspect of the invention. The sensor unit is set up to generate a detection of the surroundings of the vehicle.
Gemäß einem dritten Aspekt der Erfindung wird ein entsprechendes Verfahren zum autonomen Betrieb eines Fahrzeugs vorgeschlagen. Das Verfahren kann ein Generieren einer Umfelderfassung des Fahrzeugs durch eine Sensoreinheit und ein Erkennen mehrerer Spurlinien in der Umfelderfassung mittels einer Prozessoreinheit umfassen. Weiterhin kann mittels der Prozessoreinheit eine Spurlinie aus den mehreren Spurlinien ausgewählt werden, und das Fahrzeug mittels der Prozessoreinheit basierend auf der ausgewählten Spurlinie gesteuert werden, sodass das Fahrzeug autonom der ausgewählten Spurlinie folgt, z.B. dass das Fahrzeug auf oder seitlich neben der ausgewählten Spurlinie fährt.According to a third aspect of the invention, a corresponding method for the autonomous operation of a vehicle is proposed. The method can include generating a detection of the surroundings of the vehicle by means of a sensor unit and recognizing a plurality of lane lines in the detection of the surroundings by means of a processor unit. Furthermore, a lane line can be selected from the multiple lane lines by means of the processor unit, and the vehicle can be controlled by means of the processor unit based on the selected lane line, so that the vehicle autonomously follows the selected lane line, e.g. that the vehicle drives on or to the side of the selected track line.
Gemäß einem vierten Aspekt der Erfindung wird ferner analog ein Computerprogrammprodukt zum autonomen Betrieb eines Fahrzeugs bereitgestellt. Das Computerprogrammprodukt leitet, wenn es auf einer Prozessoreinheit ausgeführt wird, die Prozessoreinheit an, mittels einer Schnittstelle auf eine von einer Sensoreinheit generierte Umfelderfassung des Fahrzeugs zuzugreifen, mehrere Spurlinien in der Umfelderfassung zu erkennen, eine Spurlinie aus den mehreren Spurlinien auszuwählen, und das Fahrzeug basierend auf der ausgewählten Spurlinie derart zu steuern, dass das Fahrzeug autonom der ausgewählten Spurlinie folgt, z.B. dass das Fahrzeug auf oder seitlich neben der ausgewählten Spurlinie fährt.According to a fourth aspect of the invention, a computer program product for the autonomous operation of a vehicle is also provided. When it is executed on a processor unit, the computer program product instructs the processor unit to use an interface to access an environment detection of the vehicle generated by a sensor unit, to recognize multiple lane lines in the area detection, to select a lane line from the multiple lane lines, and based the vehicle to steer on the selected lane line in such a way that the vehicle autonomously follows the selected lane line, e.g. that the vehicle drives on or to the side of the selected track line.
Gemäß einem fünften Aspekt der Erfindung wird ein Fahrzeug bereitgestellt, insbesondere ein Offroad-Fahrzeug. Das Fahrzeug kann eine Prozessoreinheit gemäß dem ersten Aspekt der Erfindung umfassen. Alternativ oder zusätzlich kann das Fahrzeug ein Fahrerassistenzsystem gemäß dem zweiten Aspekt der Erfindung umfassen.According to a fifth aspect of the invention, a vehicle is provided, in particular an off-road vehicle. The vehicle can comprise a processor unit according to the first aspect of the invention. Alternatively or additionally, the vehicle can comprise a driver assistance system according to the second aspect of the invention.
Die folgenden Ausführungen gelten gleichermaßen für die Prozessoreinheit gemäß dem ersten Aspekt der Erfindung, für das Fahrerassistenzsystem gemäß dem zweiten Aspekt der Erfindung, für das Verfahren gemäß dem dritten Aspekt der Erfindung, für das Computerprogrammprodukt gemäß dem vierten Aspekt der Erfindung und für das Fahrzeug gemäß dem fünften Aspekt der Erfindung.The following statements apply equally to the processor unit according to the first aspect of the invention, for the driver assistance system according to the second aspect of the invention, for the method according to the third aspect of the invention, for the computer program product according to the fourth aspect of the invention and for the vehicle according to the fifth aspect of the invention.
Das Fahrzeug kann mittels der Prozessoreinheit gesteuert werden. Unter „gesteuert“ oder „steuern“ kann insbesondere verstanden werden, dass das Fahrzeug autonom betrieben werden kann, d.h. es kann insbesondere automatisch gelenkt, beschleunigt und abgebremst werden, einschließlich aller dazu notwendigen Steuerungen von Aktuatoren insbesondere des Antriebsstrangs, der Lenkung und Signalgebung des Fahrzeugs. Die Steuerung des Fahrzeugs mittels der Prozessoreinheit kann automatisch oder durch einen Nutzer des Fahrzeugs mittels eines Bedienelements aktiviert werden, wenn das Fahrzeug entlang einer Spurlinie fährt. Wenn das Fahrzeug an einem Vorgewende der Spurlinie(n) dreht, kann die Steuerung des Fahrzeugs automatisch oder durch den Nutzer des Fahrzeugs mittels eines Bedienelements deaktiviert werden.The vehicle can be controlled by means of the processor unit. Under “controlled” or “control” can be understood in particular that the vehicle can be operated autonomously, i.e. In particular, it can be automatically steered, accelerated and braked, including all the necessary controls of actuators, in particular of the drive train, of the vehicle's steering and signaling. The control of the vehicle by means of the processor unit can be activated automatically or by a user of the vehicle by means of an operating element when the vehicle is traveling along a lane. If the vehicle turns at a headland of the lane line (s), the control of the vehicle can be deactivated automatically or by the user of the vehicle by means of an operating element.
Eine Spurlinie kann beispielsweise einen Schwad oder eine Mähkante oder eine Schnittkante auf einer landwirtschaftlichen Nutzfläche, z.B. einem Feld, umfassen. Weiterhin kann die Spurlinie eine Fahrspur, eine Pflanzreihe, eine Baumreihe, einen Bordstein oder einen Arbeitsweg umfassen. So kann die Prozessoreinheit dazu eingerichtet sein, nicht nur Schwade und Mähkanten als Spurlinien zu erkennen und das Fahrzeug anzuweisen ihnen zu folgen, sondern mit einfachem Applikationsaufwand können auch andere Anwendungen in der Landwirtschaft, im Kommunalbereich oder auch im Baumaschinengeschäft erfolgreich automatisiert werden. So können beispielsweise Maisreihen, Apfelbäume in Plantagen, Rebstöcke in Weinbergen, Schnittkanten eines Mähdreschers im Getreide, Hackkulturen (Sojabohnen, Zuckerrüben etc.), Kartoffeldämme oder Bordsteine für Kehrmaschinen beim Mäheinsatz von Straßenrändern erkannt werden. Die Spurlinie kann sich insbesondere auf einem Feld befinden und beispielsweise durch ein vorheriges Sähen hervorgerufen worden sein. Pflanzreihen sind Reihen des betreffenden angebauten Produkts, z.B. Mais oder Weinreben. Baumreihen sind beispielsweise auf Obstbaumplantagen, z.B. Apfelplantagen, anzutreffen. Arbeitswege findet man beispielsweise im Bergbau (insbesondere im Tagebau).A track line can, for example, be a swath or a mowing edge or a cutting edge on an agricultural area, e.g. a field. Furthermore, the lane line can comprise a lane, a row of plants, a row of trees, a curb or a work path. The processor unit can not only recognize swaths and mowed edges as track lines and instruct the vehicle to follow them, but also other applications in agriculture, in the municipal sector or in the construction machinery business can be successfully automated with simple application effort. For example, rows of maize, apple trees in plantations, vines in vineyards, cut edges of a combine harvester in grain, chopped crops (soybeans, sugar beets, etc.), potato ridges or curbs for road sweepers when mowing roadsides can be recognized. The track line can, in particular, be located in a field and, for example, have been caused by previous sowing. Plant rows are rows of the cultivated product in question, e.g. Corn or grapevines. Rows of trees are for example on orchards, e.g. Apple orchards. For example, commutes to work can be found in mining (especially in opencast mining).
Bei dem Fahrzeug kann es sich insbesondere um ein Offroad-Fahrzeug handeln. Unter einem Offroad-Fahrzeug kann ein Fahrzeug verstanden werden, dessen primäres Einsatzgebiet nicht eine Straße ist (wie dies z.B. bei Personenkraftfahrwagen, Bussen oder Lastkraftfahrwagen der Fall ist), sondern beispielsweise eine landwirtschaftliche Nutzfläche, z.B. ein zu bearbeitendes / bestehendes Feld oder ein Waldgebiet, oder ein Bergbaugebiet (insbesondere Tagebau), oder eine industrielle Nutzfläche, z.B. innerhalb einer Fertigungsstätte oder einer Lagerhalle. Beispielsweise kann das Offroad-Fahrzeug ein landwirtschaftliches Nutzfahrzeug bzw. eine landwirtschaftliche Zugmaschine wie Mähdrescher oder Traktor sein. Weiterhin kann es sich bei dem Fahrzeug um ein Flurförderzeug handeln, z.B. um einen Gabelstapler oder um einen Schlepper. Weiterhin kann das Fahrzeug auch ein Kommunalfahrzeug sein, z.B. eine Straßenkehrmaschine, ein Müllfahrzeug oder ein Schneeräum-Fahrzeug. The vehicle can in particular be an off-road vehicle. An off-road vehicle can be understood to mean a vehicle whose primary area of use is not a road (as is the case, for example, with passenger cars, buses or trucks), but for example an agricultural area, e.g. a field to be worked / existing or a forest area, or a mining area (in particular open-cast mining), or an industrial area, for example within a production facility or warehouse. For example, the off-road vehicle can be an agricultural utility vehicle or an agricultural tractor such as a combine harvester or tractor. Furthermore, the vehicle can be an industrial truck, for example a forklift or a tractor. Furthermore, the vehicle can also be a municipal vehicle, for example a street sweeper, a garbage truck or a snow clearing vehicle.
Insbesondere ist die Prozessoreinheit dazu eingerichtet diejenige Spurlinie auszuwählen, welche den geringsten Abstand zu dem Fahrzeug hat. Beispielsweise kann die Umfelderfassung mehrere zeitlich nacheinander aufgenommene Kamera-Bilder umfassen (Bildfolge), welche das Umfeld des Fahrzeugs abbilden. In einem dieser Kamera-Bilder kann beispielsweise eine erste Spurlinie und eine zweite Spurlinie erkannt werden. Die erste Spurlinie und die zweite Spurlinie können parallel zueinander und seitlich neben dem Fahrzeug verlaufen. Dies kann durch Methoden der Bildverarbeitung erkannt werden. Ebenfalls kann durch Methoden der Bildverarbeitung erkannt werden, welche der beiden Spurlinien sich seitlich näher an dem Fahrzeug befindet. Wenn dies die erste Spurlinie ist, so kann die Prozessoreinheit die erste Spurlinie auswählen und das Fahrzeug derart steuern, dass es auf oder parallel zu der ersten Spurlinie fährt. Wenn die Prozessoreinheit jedoch ermittelt, dass die zweite Spurlinie einen geringeren Abstand zum Fahrzeug aufweist als die erste Spurlinie, dann kann es die zweite Spurlinie auswählen und das Fahrzeug derart steuern, dass es beispielsweise auf oder mit seitlichem Abstand parallel zu der zweiten Spurlinie fährt.In particular, the processor unit is set up to select that lane line which is the smallest distance from the vehicle. For example, the detection of the surroundings can comprise several camera images recorded one after the other (image sequence), which depict the surroundings of the vehicle. For example, a first track line and a second track line can be recognized in one of these camera images. The first track line and the second track line can run parallel to one another and to the side of the vehicle. This can be recognized by methods of image processing. Image processing methods can also be used to identify which of the two lane lines is closer to the side of the vehicle. If this is the first lane line, the processor unit can select the first lane line and control the vehicle in such a way that it drives on or parallel to the first lane line. However, if the processor unit determines that the second lane line is closer to the vehicle than the first lane line, then it can select the second lane line and control the vehicle such that it drives, for example, on or at a lateral distance parallel to the second lane line.
Die vorliegende Erfindung unterstützt mehrere verschiedene Anwendungen (z.B. Mähen, Schwaden, Laden oder Pressen). Weiterhin ermöglicht die vorliegende Erfindung, dass Spurlinien mit einem bestimmten Abstand gefolgt werden kann, was insbesondere wichtig bei unterschiedlichen Arbeitsbreiten von Anbaugeräten ist, die an das Fahrzeug angebaut werden können. Ferner ermöglicht die vorliegende Erfindung, dass Spurlinien zuverlässig erkannt werden können. Außerdem können Schwade und Schnittkanten beispielsweise mit einem seitlichen Abstand von bis zu 8 m erkannt werden, wobei das landwirtschaftliche Nutzfahrzeug derart gesteuert werden kann, dass den genannten erkannten Objekten gefolgt wird.The present invention supports several different applications (e.g., mowing, swathing, loading or baling). Furthermore, the present invention enables track lines to be followed at a certain distance, which is particularly important in the case of different working widths of attachments that can be attached to the vehicle. Furthermore, the present invention enables track lines to be reliably recognized. In addition, swaths and cut edges can be recognized, for example with a lateral distance of up to 8 m, wherein the agricultural utility vehicle can be controlled in such a way that the named recognized objects are followed.
Die Sensoreinheit ist dazu eingerichtet, ein lokales Umfeld des Fahrzeugs zu erfassen. Das lokale Umfeld des Fahrzeugs kann als Region of Interest (ROI) bezeichnet werden. Beispielsweise kann die Region of Interest ein Feld oder ein Teil eines Felds sein. Das Feld oder der Teil des Felds kann dazu bestimmt sein, von dem Fahrzeug insbesondere landwirtschaftlich bearbeitet zu werden. Beispielsweise kann das Fahrzeug oder ein Anbaugerät des Fahrzeugs Mittel aufweisen, die es dazu befähigen, eine bestimmte Operation innerhalb des Arbeitsbereichs durchzuführen, z.B. Mähen, Schwaden, Laden oder Pressen. Diese Mittel können in das Fahrzeug integriert oder als Anbaugeräte an das Fahrzeug angebaut sein. Die bei der Erfassung des Umfelds entstehenden Aufnahmen bzw. Frames ergeben die Umfelderfassung. So kann es sich bei der Umfelderfassung beispielsweise um Bilder handeln, wenn als Sensor eine Kamera oder ein Kamerasystem eingesetzt wird. Weiterhin kann es sich bei der Umfelderfassung um Frames handeln, wenn beispielsweise ein Radar oder ein Lidar eingesetzt wird. Die Aufnahmen, insbesondere die Bilder oder Frames, decken jeweils einen begrenzten Bereich um das Fahrzeug herum ab. Dies ist mit dem Merkmal „lokal“ gemeint. Das lokale Umfeld des Fahrzeugs ist somit ein begrenzter Bereich, welcher sich außen um das Fahrzeug herum erstreckt.The sensor unit is set up to detect a local area surrounding the vehicle. The local surroundings of the vehicle can be referred to as the region of interest (ROI). For example, the region of interest can be a field or part of a field. The field or the part of the field can be intended to be worked in particular for agriculture by the vehicle. For example, the vehicle or an attachment to the vehicle may have means enabling it to perform a specific operation within the work area, e.g. Mowing, swathing, loading or baling. These means can be integrated into the vehicle or attached to the vehicle as attachments. The recordings or frames produced when the surroundings are recorded result in the recording of the surroundings. For example, the detection of the surroundings can be images if a camera or a camera system is used as the sensor. Furthermore, the detection of the surroundings can be frames if, for example, a radar or a lidar is used. The recordings, in particular the images or frames, each cover a limited area around the vehicle. This is what is meant by the “local” feature. The local environment of the vehicle is thus a limited area that extends around the outside of the vehicle.
Die Reichweite bzw. Erstreckung des lokalen Umfelds kann je nach verwendetem Sensortyp abweichen und ggfs. eingestellt werden. Das im Rahmen der vorliegenden Anmeldung offenbarte Sensorsystem ist dazu eingerichtet, derart an dem Fahrzeug angeordnet zu werden, insbesondere befestigt zu werden, dass es das lokale Umfeld des Fahrzeugs erfassen kann. Der Bereich der Umgebung, welchen der betreffende Sensor dabei erfasst, kann auch als sogenanntes „Field of View“ bezeichnet werden. Dieser Bereich kann je nach verwendetem Sensor eindimensional, zweidimensional oder dreidimensional sein. Es ist möglich, dass der durch den Sensor erfassbare Bereich einen Teil der Umgebung des Fahrzeugs erfassen kann, z.B. einen Sektor im Vorausbereich und/oder im seitlichen Bereich und/oder im Hinterausbereich des Fahrzeugs. Weiterhin kann der betreffende Sensor auch dazu eingerichtet sein, die vollständige Umgebung des Fahrzeugs zu erfassen, z.B. beim Einsatz sogenannter Surround View Systeme.The range or extent of the local environment can vary depending on the type of sensor used and can be adjusted if necessary. The sensor system disclosed in the context of the present application is designed to be arranged on the vehicle, in particular to be attached, in such a way that it can detect the local surroundings of the vehicle. The area of the environment which the relevant sensor detects can also be referred to as the so-called “field of view”. This area can be one-dimensional, two-dimensional or three-dimensional, depending on the sensor used. It is possible that the area detectable by the sensor can detect part of the surroundings of the vehicle, e.g. a sector in the front area and / or in the side area and / or in the rear area of the vehicle. Furthermore, the relevant sensor can also be set up to detect the entire surroundings of the vehicle, e.g. when using so-called surround view systems.
Die Prozessoreinheit ist dazu eingerichtet, die Umfelderfassung auszuwerten. Die Umfelderfassung kann beispielsweise eine Aufnahme des lokalen Umfelds des Fahrzeugs sein. Insbesondere ist die Prozessoreinheit dazu eingerichtet, aus Aufnahmen oder Frames, die durch die Sensoreinheit generiert worden sind, Objekte zu extrahieren. Beispielsweise kann die Prozessoreinheit ein Bild einer Kamera der Sensoreinheit auswerten, und dabei sämtliche Spuren innerhalb des Bilds erkennen.The processor unit is set up to evaluate the detection of the surroundings. The detection of the surroundings can be, for example, a recording of the local surroundings of the vehicle. In particular, the processor unit is set up to use recordings or frames generated by the sensor unit have been to extract objects. For example, the processor unit can evaluate an image from a camera of the sensor unit and in doing so recognize all traces within the image.
Die mehreren Spurlinien können mittels Methoden der Bildverarbeitung erkannt werden, beispielsweise innerhalb eines Bildes, welches von einer Kamera der Sensoreinheit aufgenommen worden ist und welches das Umfeld des Fahrzeugs abbildet. Beispiele für geeignete Methoden der Bildverarbeitung sind beispielsweise die semantische Segmentierung oder die Kantenerkennung. Das Ergebnis der Anwendung solcher Methoden der Bildverarbeitung kann insbesondere ein Polynom sein, das die Erstreckung und den Verlauf der Spurlinien beschreibt.The multiple lane lines can be recognized by means of image processing methods, for example within an image which has been recorded by a camera of the sensor unit and which depicts the surroundings of the vehicle. Examples of suitable methods of image processing are, for example, semantic segmentation or edge detection. The result of using such image processing methods can in particular be a polynomial that describes the extent and course of the track lines.
In einer Ausführungsform ist die Prozessoreinheit dazu eingerichtet, das Fahrzeug basierend auf wenigstens einem der folgenden Parameter zu steuern, nämlich basierend auf einer Krümmung der ausgewählten Spurlinie, basierend auf einem Kursfehler des Fahrzeugs oder basierend auf einer Differenz aus einem aus der Umfelderfassung ermittelten seitlichen Abstand der ausgewählten Spurlinie zu dem Fahrzeug einschließlich dessen Anbaugeräten und einem gewünschten Abstand der ausgewählten Spurlinie zu dem Fahrzeug einschließlich dessen Anbaugeräten.In one embodiment, the processor unit is set up to control the vehicle based on at least one of the following parameters, namely based on a curvature of the selected lane line, based on a course error of the vehicle or based on a difference between a lateral distance of the determined from the surroundings detection selected lane line to the vehicle including its attachments and a desired distance of the selected lane line to the vehicle including its attachments.
In einer weiteren Ausführungsform ist die Prozessoreinheit dazu eingerichtet ist, die mehreren Spurlinien in der Umfelderfassung zu erkennen, indem Methoden der Bildverarbeitung mit Methoden der künstlichen Intelligenz kombiniert werden. Dabei kann ein künstliches neuronales Netz trainiert werden, z.B. indem dem künstlichen neuronalen Netz zu dessen Training repräsentative Beispielbilder mit Spurlinien zur Verfügung gestellt werden. Die Erweiterung der „klassischen Bildverarbeitung“ um Elemente der Künstlichen Intelligenz ermöglicht insbesondere mehrere Spurlinien zu erkennen und durch Training beispielsweise eines neuronalen Netzes den Erkennungsgrad und somit die Zuverlässigkeit ständig zu verbessern. Ein durch die Kombination aus klassischer Bildverarbeitung und Künstlicher Intelligenz ausgegebenes Polynom kann die Krümmung der Spurlinie, den Verlauf der Spurlinie und den seitlichen Abstand der Spurlinie zu dem Offroad-Fahrzeug einschließlich dessen Anbaugeräten mit einer besonders hohen Wahrscheinlichkeit richtig beschreiben. Zusammen mit dem gewünschten Abstand der Spurlinie zu dem Offroad-Fahrzeug einschließlich dessen Anbaugeräten („desired lateral offset“) kann die Lenkung des Fahrzeugs angesteuert werden.In a further embodiment, the processor unit is set up to recognize the multiple lane lines in the detection of the surroundings by combining methods of image processing with methods of artificial intelligence. An artificial neural network can be trained, e.g. in that representative sample images with track lines are made available to the artificial neural network for its training. The extension of the "classic image processing" by elements of artificial intelligence enables in particular to recognize several lane lines and to continuously improve the degree of recognition and thus the reliability by training a neural network, for example. A polynomial output through the combination of classic image processing and artificial intelligence can correctly describe the curvature of the track line, the course of the track line and the lateral distance of the track line to the off-road vehicle including its attachments with a particularly high probability. The steering of the vehicle can be controlled together with the desired distance between the track line and the off-road vehicle including its attachments (“desired lateral offset”).
Beispielsweise können durch die Sensoreinheit generierte Bilder oder Frames mittels der sogenannten semantischen Segmentierung (im Englischen: „Semantic-Segmentation“) verarbeitet werden, die ein künstliches neuronales Netz nutzt. Bei der semantischen Segmentierung werden einzelne Bildinhalte segmentiert. Dabei können benachbarte Pixel zu einer inhaltlich zusammenhängenden Bildregionen zusammengefasst werden, wenn sie ein definiertes Homogenitätskriterium erfüllen. Es kann insbesondere eine Pixel-genaue Klassifikation der Bilder erfolgen, wobei für jeden Pixel die Zugehörigkeit zu einer bekannten Objektklasse bestimmt werden kann. Beispielsweise kann die Prozessoreinheit eine Bildfolge von einer Kamera erhalten, welche das Umfeld des Fahrzeugs in aufeinanderfolgenden Bildern der Bildfolge erfasst. In den Bildern kann die Prozessoreinheit mittels semantischer Segmentierung beispielsweise Merkmale extrahieren und in einer Klassifikation jeden Pixel einer Objektklasse zuordnen, beispielsweise einer Objektklasse „Spurlinie“, einer Objektklasse „Feld ohne Spurlinie“, „Himmel“ usw. Die Methode des semantischen Segmentierung eignet sich besonders für komplexe Anwendungen und liefert eine besonders hohe Genauigkeit.For example, images or frames generated by the sensor unit can be processed by means of so-called semantic segmentation (in English: “Semantic segmentation”), which uses an artificial neural network. With semantic segmentation, individual image contents are segmented. Adjacent pixels can be combined to form an image region with a coherent content if they meet a defined homogeneity criterion. In particular, a pixel-precise classification of the images can take place, it being possible for each pixel to belong to a known object class. For example, the processor unit can receive an image sequence from a camera which records the surroundings of the vehicle in successive images of the image sequence. In the images, the processor unit can extract features using semantic segmentation, for example, and assign each pixel to an object class in a classification, for example an object class “track line”, an object class “field without track line”, “sky” etc. The semantic segmentation method is particularly suitable for complex applications and delivers particularly high accuracy.
Alternativ können durch die Sensoreinheit generierte Bilder oder Frames mittels der Methode der Kantenerkennung verarbeitet werden, die ein künstliches neuronales Netz nutzt. Dabei kann mittels des künstlichen neuronalen Netzes ein Filter angepasst werden. Bei der Methode der Kantenerkennung (im Englischen: „edge detection“) können flächige Bereiche in einem digitalen Bild voneinander getrennt werden, insbesondere wenn sie sich entlang gerader oder gekrümmter Linien ausreichend in Farb- oder Grauwert, Helligkeit oder Textur unterscheiden. Dabei können spezielle Kantenoperatoren, die auch als Filter bezeichnet werden, Übergänge zwischen flächigen Bereichen erkennen und als Kanten markieren. Mit anderen Worten können bei der Methode der Kantenerkennung Kanten in einem beispielsweise zweidimensionalen Bild erkannt werden, das z.B. von einer Kamera aufgenommen worden ist. Informationen bezüglich erkannter Kanten können zum Erkennen bestimmter Objekte in dem Bild genutzt werden, bezugnehmend auf die vorliegende Erfindung insbesondere zum Erkennen von Spurlinien auf einem Feld. Dazu können beispielsweise die Informationen bezüglich erkannter Kanten mit hinterlegten Mustern verglichen werden.Alternatively, images or frames generated by the sensor unit can be processed using the edge detection method that uses an artificial neural network. A filter can be adapted by means of the artificial neural network. With the edge detection method, flat areas in a digital image can be separated from one another, especially if they differ sufficiently in color or gray value, brightness or texture along straight or curved lines. Special edge operators, also known as filters, can recognize transitions between two-dimensional areas and mark them as edges. In other words, with the edge detection method, edges can be detected in an e.g. two-dimensional image which e.g. was recorded by a camera. Information relating to recognized edges can be used for recognizing certain objects in the image, with reference to the present invention in particular for recognizing track lines in a field. For this purpose, for example, the information relating to recognized edges can be compared with stored patterns.
Das System ermöglicht durch die Erkennung der Spurlinien auch eine Ansteuerung bzw. Automatisierung eines Anbaugeräts des Fahrzeugs. So kann beispielsweise eine Ladewagen-Pickup (als Beispiel eines Anbaugeräts) z.B. über ein CAN-Signal ausgehoben werden, wenn das Ende eines Schwads von der Sensoreinheit erkannt wird. Weiterhin kann die Ladewagen-Pickup z.B. über ein CAN-Signal abgesenkt werden, wenn der Anfang eines Schwads von der Sensoreinheit erkannt wird. In diesem Sinne ist gemäß einer weiteren Ausführungsform vorgesehen, dass die Prozessoreinheit dazu eingerichtet ist, ein an das Fahrzeug angebautes Anbaugerät basierend auf der ausgewählten Spurlinie und dessen Verlauf in der Umfelderfassung zu steuern. Der gewünschte Abstand zu den Spurlinien („Desired Lateral Offset“) kann durch die Breite des Anbaugerätes definiert werden. Entweder kann dies manuell durch den Fahrer über ein Terminal eingegeben werden oder durch eine automatische Anbaugeräteerkennung, z.B. mittels eines Tags des Anbaugeräts, wobei der Tag direkt von der Prozessoreinheit bzw. dem Fahrerassistenzsystem erkannt und verarbeitet wird.By recognizing the track lines, the system also enables control or automation of an attachment in the vehicle. For example, a loading wagon pick-up (as an example of an attachment) can be lifted, for example via a CAN signal, when the end of a swath is detected by the sensor unit. Furthermore, the loading wagon pickup can be lowered, for example via a CAN signal, when the sensor unit detects the beginning of a swath. In this sense, it is provided according to a further embodiment that the processor unit is set up to a to control the attachment attached to the vehicle based on the selected track line and its course in the environment detection. The desired distance to the track lines ("Desired Lateral Offset") can be defined by the width of the attachment. This can either be entered manually by the driver via a terminal or by automatic attachment recognition, for example by means of a tag on the attachment, the tag being recognized and processed directly by the processor unit or the driver assistance system.
Die Prozessoreinheit kann in ein Fahrerassistenzsystem des Fahrzeugs integriert sein oder mit dem Fahrerassistenzsystem kommunikativ verbunden sein. Die Prozessoreinheit kann dazu eingerichtet sein, einzuleiten, dass das Fahrzeug in einen sicheren Zustand überführt wird, wenn die Prozessoreinheit in der Umfelderfassung wenigstens ein potentielles Kollisionsobjekt erkennt. Ein potentielles Kollisionsobjekt kann ein Gegenstand (ortsfest oder beweglich, z.B. ein Baum, ein Strommast, ein Pfahl oder ein anderes Fahrzeug), ein Mensch oder ein Tier sein, dass sich innerhalb des erfassten lokalen Umfelds des Fahrzeugs befindet. Unter „einzuleiten“ kann in diesem Zusammenhang insbesondere verstanden werden, dass die Prozessoreinheit einen Befehl an das Fahrerassistenzsystem des Fahrzeugs übermittelt, sodass das Fahrerassistenzsystem das Fahrzeug in den sicheren Zustand überführt. Beispielsweise kann das Fahrerassistenzsystem das Fahrzeug beim Überführen in den sicheren Zustand zum Stillstand bringen. Alternativ kann auch die Geschwindigkeit verringert werden (ohne dass das Fahrzeug gestoppt werden muss), sodass eine Kollisionsgefahr signifikant verringert werden kann. Weiterhin kann eine optische oder akustische Warnung ausgegeben werden, insbesondere an den Nutzer des Fahrzeugs (z.B. über ein Display innerhalb des Fahrzeugs) und/oder an das lokale Umfeld des Fahrzeugs, z.B. durch eine Hupe, ein Signalhorn, einen Lautsprecher oder durch eine Leuchteinrichtung des Fahrzeugs. Die optische oder akustische Warnung kann insbesondere durch Personen und Tiere wahrgenommen werden, die sich in der Nähe des Fahrzeugs befinden. Auf diese Weise können Personen in der Nähe vor dem autonom fahrenden Fahrzeug gewarnt und Kollisionen vermieden werden.The processor unit can be integrated into a driver assistance system of the vehicle or be communicatively connected to the driver assistance system. The processor unit can be set up to initiate that the vehicle is transferred to a safe state when the processor unit detects at least one potential collision object in the surroundings detection. A potential collision object can be an object (stationary or movable, e.g. a tree, a power pole, a pole or another vehicle), a person or an animal that is located within the detected local area around the vehicle. In this context, “initiate” can in particular be understood to mean that the processor unit transmits a command to the driver assistance system of the vehicle so that the driver assistance system transfers the vehicle to the safe state. For example, the driver assistance system can bring the vehicle to a standstill when it is brought into the safe state. Alternatively, the speed can also be reduced (without the vehicle having to be stopped), so that the risk of collision can be significantly reduced. Furthermore, an optical or acoustic warning can be issued, in particular to the user of the vehicle (e.g. via a display inside the vehicle) and / or to the local area surrounding the vehicle, e.g. by a horn, a horn, a loudspeaker or by a lighting device of the vehicle. The visual or acoustic warning can in particular be perceived by people and animals who are in the vicinity of the vehicle. In this way, people in the vicinity can be warned of the autonomously driving vehicle and collisions can be avoided.
Die Sensoreinheit zur Erfassung des Umfelds des Fahrzeugs kann wenigstens einen der folgenden Sensoren umfassen, nämlich einen Bildverarbeitungs-Sensor, insbesondere eine Kamera, einen Radar-Sensor oder einen Laser-basierten Sensor.The sensor unit for detecting the surroundings of the vehicle can comprise at least one of the following sensors, namely an image processing sensor, in particular a camera, a radar sensor or a laser-based sensor.
Der Bildverarbeitungs-Sensor (z.B. eine Kamera), kann dazu eingerichtet sein, Bilder des Umgebungsbereichs aufzunehmen. Mittels bekannter Methoden der Bildverarbeitung und Bildauswertung können in den Bildern Merkmale erkannt werden, insbesondere die Spurlinien.The image processing sensor (e.g. a camera) can be set up to record images of the surrounding area. Using known methods of image processing and image evaluation, features can be recognized in the images, in particular the track lines.
Der Radar-basierte Sensor kann dazu eingerichtet sein, in dem erfassten Umfeld des Fahrzeugs Merkmale zu erkennen, insbesondere die Spurlinien. Der Radar-basierte Sensor kann beispielsweise Abstände zu Objekten innerhalb des erfassten Umfelds messen. Weiterhin kann der Radar-basierte Sensor beispielsweise auch Azimut-Werte, Höhen-Werte (Elevation), Intensitäts-Werte und Radialgeschwindigkeits-Werte messen. Der Radar-Sensor kann zur Ermittlung der Steigung eingesetzt werden. Durch Einbeziehen von Höhenwerten kann insbesondere eine Steigung des Geländes ermittelt werden, welche in dem erfassten Umfeld des Fahrzeugs vorliegt. Insbesondere kann die Sensoreinheit wenigstens eine Kamera umfassen, welche in einem Field of View der Kamera Spurlinien erkennt, und zusätzlich kann die Sensoreinheit einen Radar-basierten Sensor umfassen, welcher dazu eingerichtet ist, in einem Field of View des Radar-basierten Sensors die Steigung des Geländes zu ermitteln. Die Fields of View der Kamera und des Radar-basierten Sensors können dabei deckungsgleich sein, sich überlappen oder sich nicht überlappen (komplementäre Fields of View). Ein entsprechender Messzyklus, in dem der Radar-basierte Sensor das Umfeld des Fahrzeugs erfasst bzw. auf die beschriebene Art vermessen hat, kann dabei als ein „Frame“ bezeichnet werden. Der Radar-basierte Sensor kann das Umfeld somit N-dimensional abtasten bzw. erfassen, wodurch Punktewolken generiert werden können. Aus erfassten Punktewolken kann der Radar-basierte Sensor Merkmale extrahieren. Die Punktewolke kann entsprechend mehrere Dimensionen umfassen (N-dimensionale Punktewolke), wenn man beispielsweise auch Intensitäten und Radialgeschwindigkeiten beachtet.The radar-based sensor can be set up to recognize features in the detected surroundings of the vehicle, in particular the lane lines. The radar-based sensor can, for example, measure distances to objects within the detected surroundings. Furthermore, the radar-based sensor can also measure azimuth values, altitude values (elevation), intensity values and radial velocity values, for example. The radar sensor can be used to determine the slope. By including altitude values, it is possible in particular to determine a slope of the terrain which is present in the detected surroundings of the vehicle. In particular, the sensor unit can include at least one camera that detects lane lines in a field of view of the camera, and the sensor unit can additionally include a radar-based sensor that is set up to measure the gradient of the in a field of view of the radar-based sensor To determine the terrain. The fields of view of the camera and the radar-based sensor can be congruent, overlap or not overlap (complementary fields of view). A corresponding measurement cycle in which the radar-based sensor recorded the surroundings of the vehicle or measured it in the manner described can be referred to as a “frame”. The radar-based sensor can therefore scan or detect the environment in an N-dimensional manner, as a result of which point clouds can be generated. The radar-based sensor can extract features from recorded point clouds. The point cloud can accordingly comprise several dimensions (N-dimensional point cloud) if, for example, intensities and radial velocities are also taken into account.
Der Laser-basierter Sensor (z.B. ein Lidar-Sensor) kann dazu eingerichtet sein, in dem erfassten Umfeld des Fahrzeugs Merkmale zu erkennen, insbesondere die Spurlinien. Der Laser-basierte Sensor kann beispielsweise innerhalb des erfassten Umfelds Intensitäten in einer x-Richtung, in einer y-Richtung und in einer z-Richtung eines kartesischen Koordinatensystems des Laser-basierten Sensors messen. Ein entsprechender Messzyklus, in dem der Laser-basierte Sensor das Umfeld erfasst bzw. auf die beschriebene Art vermessen hat, kann dabei als ein „Frame“ bezeichnet werden. Der Laser-basierte Sensor kann das Umfeld N-dimensional abtasten bzw. erfassen, wodurch Punktewolken generiert werden können. Aus erfassten Punktewolken kann der Laser-basierte Sensor Merkmale extrahieren. Die Punktewolke kann entsprechend mehrere Dimensionen umfassen (N-dimensionale Punktewolke).The laser-based sensor (e.g. a lidar sensor) can be set up to recognize features in the detected surroundings of the vehicle, in particular the lane lines. The laser-based sensor can, for example, measure intensities in an x-direction, in a y-direction and in a z-direction of a Cartesian coordinate system of the laser-based sensor within the detected surroundings. A corresponding measuring cycle in which the laser-based sensor has recorded the environment or measured it in the described manner can be referred to as a “frame”. The laser-based sensor can scan or detect the environment N-dimensionally, whereby point clouds can be generated. The laser-based sensor can extract features from recorded point clouds. The point cloud can accordingly comprise several dimensions (N-dimensional point cloud).
Zusätzlich zu der automatischen Auswahl der Spurlinie durch die Prozessoreinheit kann eine Auswahl einer zu folgenden Spurlinie, z.B. einem zu folgenden Schwad oder einer zu folgenden Schnittkante, von einem Fahrer bzw. Nutzer des landwirtschaftlichen Nutzfahrzeugs über eine Bedienhilfe gesteuert werden. In diesem Sinne umfasst das System in einer weiteren Ausführungsform eine Bedieneinheit, welche dazu eingerichtet ist, einem Nutzer das Auswählen einer Spurlinie aus den mehreren Spurlinien zu ermöglichen. Die Bedieneinheit kann ein Display umfassen, z.B. einen Touchscreen. Das Display kann die mehreren durch die Sensoreinheit erfassten Spurlinien zeigen. Der Nutzer kann aus den mehreren dargestellten Spurlinien diejenige Spurlinie auswählen, der das Fahrzeug autonom folgen soll.In addition to the automatic selection of the track line by the processor unit, a Selection of a track line to be followed, for example a swath to be followed or a cutting edge to be followed, can be controlled by a driver or user of the agricultural utility vehicle via an operating aid. In this sense, the system comprises, in a further embodiment, an operating unit which is set up to enable a user to select a track line from the multiple track lines. The operating unit can comprise a display, for example a touch screen. The display can show the multiple track lines detected by the sensor unit. The user can select the lane line that the vehicle is to autonomously follow from the multiple lane lines shown.
Im Folgenden werden Ausführungsbeispiele der Erfindung anhand der schematischen Zeichnung näher erläutert, wobei gleiche oder ähnliche Elemente mit dem gleichen Bezugszeichen versehen sind. Hierbei zeigt
-
1 eine Draufsicht auf ein Feld, auf welchem ein Traktor mit einem Anbaugerät autonom fährt, -
2 Elemente eines Fahrerassistenzsystems fürden Traktor nach 1 , -
3 Schritte eines Verfahrens zur Detektion von Spurlinien und zur Steuerung des Traktors nach1 basierend auf einer ausgewählten Spurlinie mittels des Fahrerassistenzsystems nach2 , und -
4 Szenarien A bis F, in welchendas Fahrerassistenzsystem nach 2 in einem Traktor aktiv bzw. passiv ist.
-
1 a top view of a field on which a tractor with an attachment drives autonomously, -
2 Elements of a driver assistance system for thetractor 1 , -
3 Steps of a method for the detection of track lines and for controlling the tractor according to1 based on a selected track line by means of thedriver assistance system 2 , and -
4th Scenarios A to F, in which the driver assistance system after2 is active or passive in a tractor.
Das Fahrzeug
Die Sensoreinheit
Auf der Speichereinheit
Dem Traktor
Die Breitenachse B kann beispielsweise durch den breitesten Abschnitt des Anbaugeräts
Die Kamera
In einem anschließenden Schritt
Bei den Spurlinien
Basierend auf der ausgewählten Spurlinie
In dem durch
In dem durch
Die Prozessoreinheit
BezugszeichenlisteList of reference symbols
- LL.
- Längsachse Gespann Traktor und Anbaugerät im Bild-KoordinatensystemLongitudinal axis tractor and implement in the image coordinate system
- BB.
- Breitenachse Anbaugerät im Bild-KoordinatensystemAttachment latitude axis in the image coordinate system
- B0B0
- Desired Lateral OffsetDesired lateral offset
- B1B1
- Lateral Offset zur ersten SpurlinieLateral offset to the first track line
- B2B2
- Lateral Offset zur zweiten SpurlinieLateral offset to the second track line
- x0x0
- longitudinaler Offset im Traktor-Koordinatensystemlongitudinal offset in the tractor coordinate system
- xx
- Längsachse Traktor im Traktor-KoordinatensystemLongitudinal axis of the tractor in the tractor coordinate system
- yy
- Querachse/Breitenachse im Traktor-koordinatensystemCross axis / latitude axis in the tractor coordinate system
- 11
- Traktortractor
- 22
- AnbaugerätAttachment
- 33
- Feldfield
- 4.14.1
- erste Spurliniefirst track line
- 4.24.2
- zweite Spurliniesecond track line
- 55
- FahrerassistenzsystemDriver assistance system
- 66th
- ProzessoreinheitProcessor unit
- 77th
- SpeichereinheitStorage unit
- 88th
- KommunikationsschnittstelleCommunication interface
- 99
- SensoreinheitSensor unit
- 1010
- ComputerprogrammproduktComputer program product
- 1111
- digitales Kamerasystemdigital camera system
- 1212
- Umfeld des TraktorsAround the tractor
- 1313
- Radar-basierter SensorRadar-based sensor
- 1414th
- VorgewendeHeadland
- 1515th
- potentielles Kollisionsobjektpotential collision object
- 100100
- VerfahrensschrittProcess step
- 200200
- VerfahrensschrittProcess step
- 300300
- VerfahrensschrittProcess step
- 400400
- VerfahrensschrittProcess step
- 500500
- VerfahrensschrittProcess step
- 600600
- VerfahrensschrittProcess step
- 700700
- VerfahrensschrittProcess step
Claims (14)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019203247.8A DE102019203247A1 (en) | 2019-03-11 | 2019-03-11 | Vision-based steering assistance system for land vehicles |
PCT/EP2020/055651 WO2020182564A1 (en) | 2019-03-11 | 2020-03-04 | Vision-based steering assistance system for land vehicles |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019203247.8A DE102019203247A1 (en) | 2019-03-11 | 2019-03-11 | Vision-based steering assistance system for land vehicles |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019203247A1 true DE102019203247A1 (en) | 2020-09-17 |
Family
ID=69845334
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019203247.8A Pending DE102019203247A1 (en) | 2019-03-11 | 2019-03-11 | Vision-based steering assistance system for land vehicles |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102019203247A1 (en) |
WO (1) | WO2020182564A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112319468A (en) * | 2020-11-12 | 2021-02-05 | 上海伯镭智能科技有限公司 | Driverless lane keeping method for maintaining road shoulder distance |
DE102022117447A1 (en) | 2022-07-13 | 2024-01-18 | Claas Selbstfahrende Erntemaschinen Gmbh | Method for processing a field with a photovoltaic system standing on the field |
EP4331332A1 (en) * | 2022-08-25 | 2024-03-06 | CLAAS Selbstfahrende Erntemaschinen GmbH | System for determining a crop edge and self-propelled harvester |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220350991A1 (en) * | 2021-04-30 | 2022-11-03 | Deere & Company | Vision guidance system using dynamic edge detection |
CN113673438A (en) * | 2021-08-23 | 2021-11-19 | 上海商汤临港智能科技有限公司 | Collision early warning method and device, electronic equipment and storage medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19743884C2 (en) * | 1997-10-04 | 2003-10-09 | Claas Selbstfahr Erntemasch | Device and method for the contactless detection of processing limits or corresponding guide variables |
DE102006055858A1 (en) * | 2006-11-27 | 2008-05-29 | Carl Zeiss Ag | Method and arrangement for controlling a vehicle |
DE102017117148A1 (en) * | 2017-07-28 | 2019-01-31 | RobArt GmbH | MAGNETOMETER FOR ROBOT NAVIGATION |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6385515B1 (en) * | 2000-06-15 | 2002-05-07 | Case Corporation | Trajectory path planner for a vision guidance system |
EP2798928B1 (en) * | 2013-04-29 | 2024-02-07 | CLAAS E-Systems GmbH | Operating system for and method of operating an automatic guidance system of an agricultural vehicle |
DE102016118227A1 (en) * | 2016-09-27 | 2018-03-29 | Claas Selbstfahrende Erntemaschinen Gmbh | Image analysis system for agricultural machines |
US10455755B2 (en) * | 2017-08-31 | 2019-10-29 | Cnh Industrial America Llc | System and method for strip till implement guidance monitoring and adjustment |
-
2019
- 2019-03-11 DE DE102019203247.8A patent/DE102019203247A1/en active Pending
-
2020
- 2020-03-04 WO PCT/EP2020/055651 patent/WO2020182564A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19743884C2 (en) * | 1997-10-04 | 2003-10-09 | Claas Selbstfahr Erntemasch | Device and method for the contactless detection of processing limits or corresponding guide variables |
DE102006055858A1 (en) * | 2006-11-27 | 2008-05-29 | Carl Zeiss Ag | Method and arrangement for controlling a vehicle |
DE102017117148A1 (en) * | 2017-07-28 | 2019-01-31 | RobArt GmbH | MAGNETOMETER FOR ROBOT NAVIGATION |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112319468A (en) * | 2020-11-12 | 2021-02-05 | 上海伯镭智能科技有限公司 | Driverless lane keeping method for maintaining road shoulder distance |
DE102022117447A1 (en) | 2022-07-13 | 2024-01-18 | Claas Selbstfahrende Erntemaschinen Gmbh | Method for processing a field with a photovoltaic system standing on the field |
EP4331332A1 (en) * | 2022-08-25 | 2024-03-06 | CLAAS Selbstfahrende Erntemaschinen GmbH | System for determining a crop edge and self-propelled harvester |
Also Published As
Publication number | Publication date |
---|---|
WO2020182564A1 (en) | 2020-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3666050B1 (en) | Agricultural system | |
DE102019203247A1 (en) | Vision-based steering assistance system for land vehicles | |
EP3299996B1 (en) | Agricultural machines with image processing system | |
DE69814847T2 (en) | AGRICULTURAL HARVEST WITH ROBOT CONTROL | |
DE10250694B3 (en) | Agricultural vehicle control method provides automatic travel and field end management by detection, storage and controlled alteration of vehicle operating parameters | |
DE102016212623A1 (en) | UAV-based sensing for workflows in a workspace | |
DE102008015277A1 (en) | Method and device for steering a second agricultural machine, which is steerable over a field relative to a first agricultural machine | |
EP1769662A1 (en) | Agricultural working unit with a working device for creating a row of objects | |
DE102016209437A1 (en) | Automatic steering system for guiding an agricultural vehicle over a field and corresponding method | |
EP3783529A1 (en) | Safety system and method for operating a mobile agricultural working machine | |
DE102019111317A1 (en) | Autonomous agricultural work machine and method of operating it | |
DE102019201914A1 (en) | Trajectory determination for agricultural machinery using raster maps | |
DE102019006720A1 (en) | Autonomous operation of a vehicle | |
EP4220530A1 (en) | Method for supporting classification of environmental data of an agricultural working machine | |
EP4085741A1 (en) | Steering method for an agricultural machine | |
EP4064819B1 (en) | Method for treating plants in a field, for generating training data and for training a neural network | |
WO2020165063A1 (en) | Method for operating an automated vehicle | |
DE102019201977A1 (en) | Method for determining a condition of a crop planting and agricultural vehicle | |
EP4064818B1 (en) | Method for treating plants in a field | |
EP4331332A1 (en) | System for determining a crop edge and self-propelled harvester | |
EP4272531A1 (en) | Self-propelled agricultural working machine | |
EP3732950A1 (en) | Method for operating a self-propelled agricultural working machine | |
EP4270281A1 (en) | Swarm assistance system for planning and controlling the use of at least one autonomous agricultural universal working machine | |
EP4268561A1 (en) | Agricultural machine combination and machine for the same | |
DE102021125360A1 (en) | Device and method for determining a steering specification for an agricultural machine |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R012 | Request for examination validly filed |