DE102019203247A1 - Vision-based steering assistance system for land vehicles - Google Patents

Vision-based steering assistance system for land vehicles Download PDF

Info

Publication number
DE102019203247A1
DE102019203247A1 DE102019203247.8A DE102019203247A DE102019203247A1 DE 102019203247 A1 DE102019203247 A1 DE 102019203247A1 DE 102019203247 A DE102019203247 A DE 102019203247A DE 102019203247 A1 DE102019203247 A1 DE 102019203247A1
Authority
DE
Germany
Prior art keywords
vehicle
processor unit
surroundings
track line
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019203247.8A
Other languages
German (de)
Inventor
Benedict Strohmaier
Costanza Cascelli
Tommy Ikonen
Jan-Frederik Kuhn
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102019203247.8A priority Critical patent/DE102019203247A1/en
Priority to PCT/EP2020/055651 priority patent/WO2020182564A1/en
Publication of DE102019203247A1 publication Critical patent/DE102019203247A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B69/00Steering of agricultural machines or implements; Guiding agricultural machines or implements on a desired track
    • A01B69/001Steering by means of optical assistance, e.g. television cameras
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B69/00Steering of agricultural machines or implements; Guiding agricultural machines or implements on a desired track
    • A01B69/007Steering or guiding of agricultural vehicles, e.g. steering of the tractor to keep the plough in the furrow
    • A01B69/008Steering or guiding of agricultural vehicles, e.g. steering of the tractor to keep the plough in the furrow automatic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2300/00Indexing codes relating to the type of vehicle
    • B60W2300/15Agricultural vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Transportation (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Environmental Sciences (AREA)
  • Soil Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Biology (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft den autonomen Betrieb eines Fahrzeugs (1). So wird beispielsweise eine Prozessoreinheit zum autonomen Betrieb eines Fahrzeugs (1) vorgeschlagen. Die Prozessoreinheit umfasst eine Schnittstelle, wobei die Prozessoreinheit dazu eingerichtet ist, mittels der Schnittstelle auf eine von einer Sensoreinheit generierte Umfelderfassung des Fahrzeugs (1) zuzugreifen, mehrere Spurlinien (4.1, 4.2) in der Umfelderfassung zu erkennen, eine Spurlinie (4.1) aus den mehreren Spurlinien (4.1, 4.2) auszuwählen, und das Fahrzeug (1) basierend auf der ausgewählten Spurlinie (4.1) derart zu steuern, dass das Fahrzeug (1) autonom der ausgewählten Spurlinie (4.1) folgt. Weitere Ansprüche sind auf ein entsprechendes Fahrerassistenzsystem (5), ein Verfahren sowie auf ein Computerprogrammprodukt und ein Fahrzeug (1) gerichtet.The invention relates to the autonomous operation of a vehicle (1). For example, a processor unit for the autonomous operation of a vehicle (1) is proposed. The processor unit comprises an interface, the processor unit being set up to use the interface to access a detection of the surroundings of the vehicle (1) generated by a sensor unit, to recognize several lane lines (4.1, 4.2) in the detection of the surroundings, a lane line (4.1) from the to select several track lines (4.1, 4.2), and to control the vehicle (1) based on the selected track line (4.1) in such a way that the vehicle (1) autonomously follows the selected track line (4.1). Further claims are directed to a corresponding driver assistance system (5), a method and a computer program product and a vehicle (1).

Description

Die Erfindung betrifft eine Prozessoreinheit, ein Fahrerassistenzsystem, ein Verfahren und ein Computerprogrammprodukt zum autonomen Betrieb eines Fahrzeugs, insbesondere eines landwirtschaftlichen Nutzfahrzeugs.The invention relates to a processor unit, a driver assistance system, a method and a computer program product for the autonomous operation of a vehicle, in particular an agricultural utility vehicle.

Es sind Fahrerassistenzsysteme für landwirtschaftliche Nutzfahrzeuge bzw. Maschinen (Landtechnik) bekannt. Diese Fahrerassistenzsysteme sollen insbesondere als vollautomatisierte oder teilautomatisierte Lenkhilfe den Fahrer entlasten. Dabei hat sich die Lenkhilfe via GPS-Steuerung in der Landtechnik etabliert. Die Fahrerassistenzsysteme sind teilweise sehr komplex und ermöglichen je nach Korrektursignal Genauigkeiten von bis zu 2 cm. Problematisch an GPS ist die teilweise nicht vorhandene Signalabdeckung weltweit (z.B. auch im Bergland) und die je nach System hohen Anschaffungskosten und Lizenzkosten.Driver assistance systems for agricultural utility vehicles or machines (agricultural engineering) are known. These driver assistance systems are intended to relieve the driver in particular as a fully automated or partially automated steering aid. The steering aid via GPS control has established itself in agricultural engineering. The driver assistance systems are sometimes very complex and, depending on the correction signal, enable accuracies of up to 2 cm. Problems with GPS are the partially non-existent signal coverage worldwide (e.g. also in mountainous regions) and the high acquisition and license costs, depending on the system.

Alternative, nicht auf GPS basierende Fahrerassistenzsysteme für landwirtschaftliche Nutzfahrzeuge sehen optische Systeme vor, die bestimmte Anwendungen in der Landwirtschaft automatisieren. Beispiele sind Fahrerassistenzsysteme, die auf Kameras, auf Lidar-Sensoren oder allgemeiner auf Laser-Sensoren basieren. Derartige Systeme sind jedoch aufwändig und teuer (insbesondere, wenn Lidar-Sensoren zum Einsatz kommen) und/oder können nur eine einfache Anwendung ausführen oder unterstützen. Beispielsweise ermöglichen diese Systeme typischerweise lediglich, einen Schwad mittig vor dem Fahrzeug zu erkennen und nicht seitlich des Fahrzeugs. Unter einem „Schwad“ kann ein abgemähtes und in einer Reihe liegendes landwirtschaftliches Gut verstanden werden, z.B. Gras, Getreide o.Ä. Weiterhin sind derartige Systeme nicht in der Lage, mehrere Anwendungen (z.B. Mähen, Schwaden, Laden oder Pressen) zu verarbeiten und bieten so keine echte Alternative zu GPS-Systemen.Alternative driver assistance systems for agricultural vehicles that are not based on GPS provide optical systems that automate certain applications in agriculture. Examples are driver assistance systems based on cameras, lidar sensors or, more generally, laser sensors. However, such systems are complex and expensive (in particular when lidar sensors are used) and / or can only carry out or support a simple application. For example, these systems typically only allow a swath to be recognized centrally in front of the vehicle and not to the side of the vehicle. A “swath” can be understood as an agricultural crop that has been mown and lined up in a row, e.g. Grass, grain, etc. Furthermore, such systems are not able to process several applications (e.g. mowing, swathing, loading or baling) and thus do not offer a real alternative to GPS systems.

Ein Fahrer eines landwirtschaftlichen Nutzfahrzeugs muss sich typischerweise für die Dauer eines ganzen Tages auf einen Arbeitsgang konzentrieren. Daneben muss der Fahrer üblicherweise neben dem Steuern des Fahrzeugs gleichzeitig die Funktion von Anbaugeräten des Fahrzeugs überwachen. Dies kann dazu führen, dass es zu Fehlbedienungen kommt, dass die Maschinen nicht optimal effizient genutzt werden und dass die Arbeitsleistung und die Arbeitsqualität leiden.A driver of an agricultural utility vehicle typically has to concentrate on one operation for a whole day. In addition, in addition to controlling the vehicle, the driver usually has to simultaneously monitor the function of attachments in the vehicle. This can lead to incorrect operation, the machines not being used optimally and efficiently and the work performance and quality of work suffer.

Teure GPS Systeme sind für kleinere oder mittlere Landwirtschaftsbetriebe oftmals nicht rentabel oder nutzlos in Gebieten mit schlechter Signalabdeckung. Optische Assistenzsysteme sind bisher sehr eingeschränkt in Ihrer Funktion und können oft nur sehr einfache Anwendungen umsetzen.Expensive GPS systems are often not profitable for small or medium-sized farms or are useless in areas with poor signal coverage. Optical assistance systems have so far been very limited in their function and can often only implement very simple applications.

Eine Aufgabe der vorliegenden Erfindung kann darin gesehen werden, eine insbesondere zu teuren GPS-Systemen alternative Technologie bereitzustellen, die den Fahrer entlastet und ihm mehr Komfort bei verschiedenen Anwendungen (z.B. Mähen, Schwaden, Laden oder Pressen) bietet.One object of the present invention can be seen as providing a technology that is an alternative to expensive GPS systems in particular, which takes the burden off the driver and offers him more comfort in various applications (e.g. mowing, swathing, loading or baling).

Die Aufgabe wird gelöst durch die Gegenstände der unabhängigen Patentansprüche. Vorteilhafte Ausführungsformen sind Gegenstand der Unteransprüche, der folgenden Beschreibung sowie der Figuren.The object is achieved by the subjects of the independent claims. Advantageous embodiments are the subject of the dependent claims, the following description and the figures.

Gemäß der vorliegenden Erfindung wird eine Technologie vorgeschlagen, die Spurlinien (z.B. Schwade oder Mähkanten) in einem Feld erfasst, entsprechende Bildinhalte verarbeitet sowie die richtige Spur auswählt und dann die Lenkung des Fahrzeugs entsprechend ansteuert. Einen Kern der Erfindung stellt dabei ein System aus einfachen Sensoren (z.B. Kameras) und modernster Bildverarbeitung dar (insbesondere durch Methoden der Künstlichen Intelligenz erweitert, siehe weiter unten), die es ermöglicht, das System flexibel zu gestalten und einzusetzen. Je nach Art der Anwendung und des Einsatzgebietes kann das System unterschiedlich implementiert und so an Kundenanforderungen angepasst werden.According to the present invention, a technology is proposed which detects track lines (e.g. swaths or mowed edges) in a field, processes corresponding image content, selects the correct track and then controls the steering of the vehicle accordingly. A core of the invention is a system of simple sensors (e.g. cameras) and state-of-the-art image processing (expanded in particular by methods of artificial intelligence, see below), which enables the system to be designed and used flexibly. Depending on the type of application and the area of application, the system can be implemented in different ways and thus adapted to customer requirements.

Insbesondere werden gemäß der vorliegenden Erfindung drei Funktionalitäten bzw. Verfahrensschritte vorgeschlagen, nämlich die Erkennung der Spurlinien („Sehen“ bzw. im Englischen: „See“), die Auswahl der richtigen Spurlinie („Denken“ bzw. im Englischen: „Think“) und die Ansteuerung der Lenkung des Fahrzeugs („Handeln“ bzw. im Englischen: „Act“). Die vorliegende Erfindung ermöglicht, den Fahrer zu entlasten und ihm mehr Komfort bei verschiedenen Anwendungen (z.B. Mähen, Schwaden, Laden oder Pressen) zu bieten. Das landwirtschaftliche Nutzfahrzeug kann dadurch effizienter genutzt werden. Die Schlagkraft wird höher, die Arbeitsleistung und Arbeitsqualität verbessern sich deutlich und der Kraftstoffverbrauch sinkt.In particular, according to the present invention, three functionalities or method steps are proposed, namely the recognition of the lane lines ("seeing" or in English: "see"), the selection of the correct lane line ("thinking" or in English: "think") and the control of the steering of the vehicle ("act"). The present invention makes it possible to relieve the driver and to offer him more comfort in various applications (e.g. mowing, swathing, loading or baling). The agricultural utility vehicle can thus be used more efficiently. The efficiency increases, work performance and quality of work improve significantly and fuel consumption decreases.

In diesem Sinne wird gemäß einem ersten Aspekt der Erfindung eine Prozessoreinheit zum autonomen Betrieb eines Fahrzeugs bereitgestellt. Die Prozessoreinheit kann ein Element eines elektronischen Steuergeräts des Fahrzeugs bilden. Die Prozessoreinheit kann weiterhin ein Element eines Fahrerassistenzsystems des Fahrzeugs bilden. Die Prozessoreinheit umfasst eine Schnittstelle. Die Schnittstelle ist insbesondere eine Kommunikations-Schnittstelle, welche den Austausch von Daten ermöglicht, und zwar einen Austausch von Daten zwischen der Prozessoreinheit einerseits und einer Sensoreinheit andererseits. Weiterhin kann die Prozessoreinheit über die Schnittstelle Befehle an Aktuatoren des Fahrzeugs übermitteln, beispielsweise an einen Lenk-Aktuator des Fahrzeugs. Die Prozessoreinheit ist insbesondere dazu eingerichtet, mittels der Schnittstelle auf eine von der Sensoreinheit generierte Umfelderfassung des Fahrzeugs zuzugreifen, mehrere Spurlinien in der Umfelderfassung zu erkennen, eine Spurlinie aus den mehreren Spurlinien auszuwählen, und das Fahrzeug basierend auf der ausgewählten Spurlinie derart zu steuern, dass das Fahrzeug autonom der ausgewählten Spurlinie folgt, z.B. dass das Fahrzeug auf oder seitlich neben der ausgewählten Spurlinie fährt. Wenn die Sensoreinheit lediglich eine einzige Spurlinie in dem Umfeld des Fahrzeugs erfasst, dann ist die Prozessoreinheit auch dazu eingerichtet, diese einzige Spurlinie zu erkennen und das Fahrzeug derart zu steuern, dass es ihr folgt.In this sense, according to a first aspect of the invention, a processor unit for the autonomous operation of a vehicle is provided. The processor unit can form an element of an electronic control unit of the vehicle. The processor unit can also form an element of a driver assistance system of the vehicle. The processor unit includes an interface. The interface is, in particular, a communication interface which enables the exchange of data, specifically an exchange of data between the processor unit on the one hand and a sensor unit on the other. Furthermore, the processor unit can transmit commands to actuators of the vehicle via the interface, for example to a steering actuator of the vehicle. The processor unit is set up in particular to use the interface to access a surrounding area detection of the vehicle generated by the sensor unit, to recognize several lane lines in the surrounding area detection, to select a lane line from the several lane lines and to control the vehicle based on the selected lane line in such a way that the vehicle autonomously follows the selected lane line, eg that the vehicle drives on or to the side of the selected lane line. If the sensor unit only detects a single lane line in the vicinity of the vehicle, then the processor unit is also set up to recognize this single lane line and to control the vehicle in such a way that it follows it.

Gemäß einem zweiten Aspekt der Erfindung wird analog ein Fahrerassistenzsystem zum autonomen Betrieb eines Fahrzeugs vorgeschlagen. Das Fahrerassistenzsystem umfasst eine Sensoreinheit zur Erfassung eines Umfelds des Fahrzeugs und eine Prozessoreinheit gemäß dem ersten Aspekt der Erfindung. Die Sensoreinheit ist dazu eingerichtet, eine Umfelderfassung des Fahrzeugs zu generieren.According to a second aspect of the invention, a driver assistance system for the autonomous operation of a vehicle is proposed. The driver assistance system comprises a sensor unit for detecting the surroundings of the vehicle and a processor unit according to the first aspect of the invention. The sensor unit is set up to generate a detection of the surroundings of the vehicle.

Gemäß einem dritten Aspekt der Erfindung wird ein entsprechendes Verfahren zum autonomen Betrieb eines Fahrzeugs vorgeschlagen. Das Verfahren kann ein Generieren einer Umfelderfassung des Fahrzeugs durch eine Sensoreinheit und ein Erkennen mehrerer Spurlinien in der Umfelderfassung mittels einer Prozessoreinheit umfassen. Weiterhin kann mittels der Prozessoreinheit eine Spurlinie aus den mehreren Spurlinien ausgewählt werden, und das Fahrzeug mittels der Prozessoreinheit basierend auf der ausgewählten Spurlinie gesteuert werden, sodass das Fahrzeug autonom der ausgewählten Spurlinie folgt, z.B. dass das Fahrzeug auf oder seitlich neben der ausgewählten Spurlinie fährt.According to a third aspect of the invention, a corresponding method for the autonomous operation of a vehicle is proposed. The method can include generating a detection of the surroundings of the vehicle by means of a sensor unit and recognizing a plurality of lane lines in the detection of the surroundings by means of a processor unit. Furthermore, a lane line can be selected from the multiple lane lines by means of the processor unit, and the vehicle can be controlled by means of the processor unit based on the selected lane line, so that the vehicle autonomously follows the selected lane line, e.g. that the vehicle drives on or to the side of the selected track line.

Gemäß einem vierten Aspekt der Erfindung wird ferner analog ein Computerprogrammprodukt zum autonomen Betrieb eines Fahrzeugs bereitgestellt. Das Computerprogrammprodukt leitet, wenn es auf einer Prozessoreinheit ausgeführt wird, die Prozessoreinheit an, mittels einer Schnittstelle auf eine von einer Sensoreinheit generierte Umfelderfassung des Fahrzeugs zuzugreifen, mehrere Spurlinien in der Umfelderfassung zu erkennen, eine Spurlinie aus den mehreren Spurlinien auszuwählen, und das Fahrzeug basierend auf der ausgewählten Spurlinie derart zu steuern, dass das Fahrzeug autonom der ausgewählten Spurlinie folgt, z.B. dass das Fahrzeug auf oder seitlich neben der ausgewählten Spurlinie fährt.According to a fourth aspect of the invention, a computer program product for the autonomous operation of a vehicle is also provided. When it is executed on a processor unit, the computer program product instructs the processor unit to use an interface to access an environment detection of the vehicle generated by a sensor unit, to recognize multiple lane lines in the area detection, to select a lane line from the multiple lane lines, and based the vehicle to steer on the selected lane line in such a way that the vehicle autonomously follows the selected lane line, e.g. that the vehicle drives on or to the side of the selected track line.

Gemäß einem fünften Aspekt der Erfindung wird ein Fahrzeug bereitgestellt, insbesondere ein Offroad-Fahrzeug. Das Fahrzeug kann eine Prozessoreinheit gemäß dem ersten Aspekt der Erfindung umfassen. Alternativ oder zusätzlich kann das Fahrzeug ein Fahrerassistenzsystem gemäß dem zweiten Aspekt der Erfindung umfassen.According to a fifth aspect of the invention, a vehicle is provided, in particular an off-road vehicle. The vehicle can comprise a processor unit according to the first aspect of the invention. Alternatively or additionally, the vehicle can comprise a driver assistance system according to the second aspect of the invention.

Die folgenden Ausführungen gelten gleichermaßen für die Prozessoreinheit gemäß dem ersten Aspekt der Erfindung, für das Fahrerassistenzsystem gemäß dem zweiten Aspekt der Erfindung, für das Verfahren gemäß dem dritten Aspekt der Erfindung, für das Computerprogrammprodukt gemäß dem vierten Aspekt der Erfindung und für das Fahrzeug gemäß dem fünften Aspekt der Erfindung.The following statements apply equally to the processor unit according to the first aspect of the invention, for the driver assistance system according to the second aspect of the invention, for the method according to the third aspect of the invention, for the computer program product according to the fourth aspect of the invention and for the vehicle according to the fifth aspect of the invention.

Das Fahrzeug kann mittels der Prozessoreinheit gesteuert werden. Unter „gesteuert“ oder „steuern“ kann insbesondere verstanden werden, dass das Fahrzeug autonom betrieben werden kann, d.h. es kann insbesondere automatisch gelenkt, beschleunigt und abgebremst werden, einschließlich aller dazu notwendigen Steuerungen von Aktuatoren insbesondere des Antriebsstrangs, der Lenkung und Signalgebung des Fahrzeugs. Die Steuerung des Fahrzeugs mittels der Prozessoreinheit kann automatisch oder durch einen Nutzer des Fahrzeugs mittels eines Bedienelements aktiviert werden, wenn das Fahrzeug entlang einer Spurlinie fährt. Wenn das Fahrzeug an einem Vorgewende der Spurlinie(n) dreht, kann die Steuerung des Fahrzeugs automatisch oder durch den Nutzer des Fahrzeugs mittels eines Bedienelements deaktiviert werden.The vehicle can be controlled by means of the processor unit. Under “controlled” or “control” can be understood in particular that the vehicle can be operated autonomously, i.e. In particular, it can be automatically steered, accelerated and braked, including all the necessary controls of actuators, in particular of the drive train, of the vehicle's steering and signaling. The control of the vehicle by means of the processor unit can be activated automatically or by a user of the vehicle by means of an operating element when the vehicle is traveling along a lane. If the vehicle turns at a headland of the lane line (s), the control of the vehicle can be deactivated automatically or by the user of the vehicle by means of an operating element.

Eine Spurlinie kann beispielsweise einen Schwad oder eine Mähkante oder eine Schnittkante auf einer landwirtschaftlichen Nutzfläche, z.B. einem Feld, umfassen. Weiterhin kann die Spurlinie eine Fahrspur, eine Pflanzreihe, eine Baumreihe, einen Bordstein oder einen Arbeitsweg umfassen. So kann die Prozessoreinheit dazu eingerichtet sein, nicht nur Schwade und Mähkanten als Spurlinien zu erkennen und das Fahrzeug anzuweisen ihnen zu folgen, sondern mit einfachem Applikationsaufwand können auch andere Anwendungen in der Landwirtschaft, im Kommunalbereich oder auch im Baumaschinengeschäft erfolgreich automatisiert werden. So können beispielsweise Maisreihen, Apfelbäume in Plantagen, Rebstöcke in Weinbergen, Schnittkanten eines Mähdreschers im Getreide, Hackkulturen (Sojabohnen, Zuckerrüben etc.), Kartoffeldämme oder Bordsteine für Kehrmaschinen beim Mäheinsatz von Straßenrändern erkannt werden. Die Spurlinie kann sich insbesondere auf einem Feld befinden und beispielsweise durch ein vorheriges Sähen hervorgerufen worden sein. Pflanzreihen sind Reihen des betreffenden angebauten Produkts, z.B. Mais oder Weinreben. Baumreihen sind beispielsweise auf Obstbaumplantagen, z.B. Apfelplantagen, anzutreffen. Arbeitswege findet man beispielsweise im Bergbau (insbesondere im Tagebau).A track line can, for example, be a swath or a mowing edge or a cutting edge on an agricultural area, e.g. a field. Furthermore, the lane line can comprise a lane, a row of plants, a row of trees, a curb or a work path. The processor unit can not only recognize swaths and mowed edges as track lines and instruct the vehicle to follow them, but also other applications in agriculture, in the municipal sector or in the construction machinery business can be successfully automated with simple application effort. For example, rows of maize, apple trees in plantations, vines in vineyards, cut edges of a combine harvester in grain, chopped crops (soybeans, sugar beets, etc.), potato ridges or curbs for road sweepers when mowing roadsides can be recognized. The track line can, in particular, be located in a field and, for example, have been caused by previous sowing. Plant rows are rows of the cultivated product in question, e.g. Corn or grapevines. Rows of trees are for example on orchards, e.g. Apple orchards. For example, commutes to work can be found in mining (especially in opencast mining).

Bei dem Fahrzeug kann es sich insbesondere um ein Offroad-Fahrzeug handeln. Unter einem Offroad-Fahrzeug kann ein Fahrzeug verstanden werden, dessen primäres Einsatzgebiet nicht eine Straße ist (wie dies z.B. bei Personenkraftfahrwagen, Bussen oder Lastkraftfahrwagen der Fall ist), sondern beispielsweise eine landwirtschaftliche Nutzfläche, z.B. ein zu bearbeitendes / bestehendes Feld oder ein Waldgebiet, oder ein Bergbaugebiet (insbesondere Tagebau), oder eine industrielle Nutzfläche, z.B. innerhalb einer Fertigungsstätte oder einer Lagerhalle. Beispielsweise kann das Offroad-Fahrzeug ein landwirtschaftliches Nutzfahrzeug bzw. eine landwirtschaftliche Zugmaschine wie Mähdrescher oder Traktor sein. Weiterhin kann es sich bei dem Fahrzeug um ein Flurförderzeug handeln, z.B. um einen Gabelstapler oder um einen Schlepper. Weiterhin kann das Fahrzeug auch ein Kommunalfahrzeug sein, z.B. eine Straßenkehrmaschine, ein Müllfahrzeug oder ein Schneeräum-Fahrzeug. The vehicle can in particular be an off-road vehicle. An off-road vehicle can be understood to mean a vehicle whose primary area of use is not a road (as is the case, for example, with passenger cars, buses or trucks), but for example an agricultural area, e.g. a field to be worked / existing or a forest area, or a mining area (in particular open-cast mining), or an industrial area, for example within a production facility or warehouse. For example, the off-road vehicle can be an agricultural utility vehicle or an agricultural tractor such as a combine harvester or tractor. Furthermore, the vehicle can be an industrial truck, for example a forklift or a tractor. Furthermore, the vehicle can also be a municipal vehicle, for example a street sweeper, a garbage truck or a snow clearing vehicle.

Insbesondere ist die Prozessoreinheit dazu eingerichtet diejenige Spurlinie auszuwählen, welche den geringsten Abstand zu dem Fahrzeug hat. Beispielsweise kann die Umfelderfassung mehrere zeitlich nacheinander aufgenommene Kamera-Bilder umfassen (Bildfolge), welche das Umfeld des Fahrzeugs abbilden. In einem dieser Kamera-Bilder kann beispielsweise eine erste Spurlinie und eine zweite Spurlinie erkannt werden. Die erste Spurlinie und die zweite Spurlinie können parallel zueinander und seitlich neben dem Fahrzeug verlaufen. Dies kann durch Methoden der Bildverarbeitung erkannt werden. Ebenfalls kann durch Methoden der Bildverarbeitung erkannt werden, welche der beiden Spurlinien sich seitlich näher an dem Fahrzeug befindet. Wenn dies die erste Spurlinie ist, so kann die Prozessoreinheit die erste Spurlinie auswählen und das Fahrzeug derart steuern, dass es auf oder parallel zu der ersten Spurlinie fährt. Wenn die Prozessoreinheit jedoch ermittelt, dass die zweite Spurlinie einen geringeren Abstand zum Fahrzeug aufweist als die erste Spurlinie, dann kann es die zweite Spurlinie auswählen und das Fahrzeug derart steuern, dass es beispielsweise auf oder mit seitlichem Abstand parallel zu der zweiten Spurlinie fährt.In particular, the processor unit is set up to select that lane line which is the smallest distance from the vehicle. For example, the detection of the surroundings can comprise several camera images recorded one after the other (image sequence), which depict the surroundings of the vehicle. For example, a first track line and a second track line can be recognized in one of these camera images. The first track line and the second track line can run parallel to one another and to the side of the vehicle. This can be recognized by methods of image processing. Image processing methods can also be used to identify which of the two lane lines is closer to the side of the vehicle. If this is the first lane line, the processor unit can select the first lane line and control the vehicle in such a way that it drives on or parallel to the first lane line. However, if the processor unit determines that the second lane line is closer to the vehicle than the first lane line, then it can select the second lane line and control the vehicle such that it drives, for example, on or at a lateral distance parallel to the second lane line.

Die vorliegende Erfindung unterstützt mehrere verschiedene Anwendungen (z.B. Mähen, Schwaden, Laden oder Pressen). Weiterhin ermöglicht die vorliegende Erfindung, dass Spurlinien mit einem bestimmten Abstand gefolgt werden kann, was insbesondere wichtig bei unterschiedlichen Arbeitsbreiten von Anbaugeräten ist, die an das Fahrzeug angebaut werden können. Ferner ermöglicht die vorliegende Erfindung, dass Spurlinien zuverlässig erkannt werden können. Außerdem können Schwade und Schnittkanten beispielsweise mit einem seitlichen Abstand von bis zu 8 m erkannt werden, wobei das landwirtschaftliche Nutzfahrzeug derart gesteuert werden kann, dass den genannten erkannten Objekten gefolgt wird.The present invention supports several different applications (e.g., mowing, swathing, loading or baling). Furthermore, the present invention enables track lines to be followed at a certain distance, which is particularly important in the case of different working widths of attachments that can be attached to the vehicle. Furthermore, the present invention enables track lines to be reliably recognized. In addition, swaths and cut edges can be recognized, for example with a lateral distance of up to 8 m, wherein the agricultural utility vehicle can be controlled in such a way that the named recognized objects are followed.

Die Sensoreinheit ist dazu eingerichtet, ein lokales Umfeld des Fahrzeugs zu erfassen. Das lokale Umfeld des Fahrzeugs kann als Region of Interest (ROI) bezeichnet werden. Beispielsweise kann die Region of Interest ein Feld oder ein Teil eines Felds sein. Das Feld oder der Teil des Felds kann dazu bestimmt sein, von dem Fahrzeug insbesondere landwirtschaftlich bearbeitet zu werden. Beispielsweise kann das Fahrzeug oder ein Anbaugerät des Fahrzeugs Mittel aufweisen, die es dazu befähigen, eine bestimmte Operation innerhalb des Arbeitsbereichs durchzuführen, z.B. Mähen, Schwaden, Laden oder Pressen. Diese Mittel können in das Fahrzeug integriert oder als Anbaugeräte an das Fahrzeug angebaut sein. Die bei der Erfassung des Umfelds entstehenden Aufnahmen bzw. Frames ergeben die Umfelderfassung. So kann es sich bei der Umfelderfassung beispielsweise um Bilder handeln, wenn als Sensor eine Kamera oder ein Kamerasystem eingesetzt wird. Weiterhin kann es sich bei der Umfelderfassung um Frames handeln, wenn beispielsweise ein Radar oder ein Lidar eingesetzt wird. Die Aufnahmen, insbesondere die Bilder oder Frames, decken jeweils einen begrenzten Bereich um das Fahrzeug herum ab. Dies ist mit dem Merkmal „lokal“ gemeint. Das lokale Umfeld des Fahrzeugs ist somit ein begrenzter Bereich, welcher sich außen um das Fahrzeug herum erstreckt.The sensor unit is set up to detect a local area surrounding the vehicle. The local surroundings of the vehicle can be referred to as the region of interest (ROI). For example, the region of interest can be a field or part of a field. The field or the part of the field can be intended to be worked in particular for agriculture by the vehicle. For example, the vehicle or an attachment to the vehicle may have means enabling it to perform a specific operation within the work area, e.g. Mowing, swathing, loading or baling. These means can be integrated into the vehicle or attached to the vehicle as attachments. The recordings or frames produced when the surroundings are recorded result in the recording of the surroundings. For example, the detection of the surroundings can be images if a camera or a camera system is used as the sensor. Furthermore, the detection of the surroundings can be frames if, for example, a radar or a lidar is used. The recordings, in particular the images or frames, each cover a limited area around the vehicle. This is what is meant by the “local” feature. The local environment of the vehicle is thus a limited area that extends around the outside of the vehicle.

Die Reichweite bzw. Erstreckung des lokalen Umfelds kann je nach verwendetem Sensortyp abweichen und ggfs. eingestellt werden. Das im Rahmen der vorliegenden Anmeldung offenbarte Sensorsystem ist dazu eingerichtet, derart an dem Fahrzeug angeordnet zu werden, insbesondere befestigt zu werden, dass es das lokale Umfeld des Fahrzeugs erfassen kann. Der Bereich der Umgebung, welchen der betreffende Sensor dabei erfasst, kann auch als sogenanntes „Field of View“ bezeichnet werden. Dieser Bereich kann je nach verwendetem Sensor eindimensional, zweidimensional oder dreidimensional sein. Es ist möglich, dass der durch den Sensor erfassbare Bereich einen Teil der Umgebung des Fahrzeugs erfassen kann, z.B. einen Sektor im Vorausbereich und/oder im seitlichen Bereich und/oder im Hinterausbereich des Fahrzeugs. Weiterhin kann der betreffende Sensor auch dazu eingerichtet sein, die vollständige Umgebung des Fahrzeugs zu erfassen, z.B. beim Einsatz sogenannter Surround View Systeme.The range or extent of the local environment can vary depending on the type of sensor used and can be adjusted if necessary. The sensor system disclosed in the context of the present application is designed to be arranged on the vehicle, in particular to be attached, in such a way that it can detect the local surroundings of the vehicle. The area of the environment which the relevant sensor detects can also be referred to as the so-called “field of view”. This area can be one-dimensional, two-dimensional or three-dimensional, depending on the sensor used. It is possible that the area detectable by the sensor can detect part of the surroundings of the vehicle, e.g. a sector in the front area and / or in the side area and / or in the rear area of the vehicle. Furthermore, the relevant sensor can also be set up to detect the entire surroundings of the vehicle, e.g. when using so-called surround view systems.

Die Prozessoreinheit ist dazu eingerichtet, die Umfelderfassung auszuwerten. Die Umfelderfassung kann beispielsweise eine Aufnahme des lokalen Umfelds des Fahrzeugs sein. Insbesondere ist die Prozessoreinheit dazu eingerichtet, aus Aufnahmen oder Frames, die durch die Sensoreinheit generiert worden sind, Objekte zu extrahieren. Beispielsweise kann die Prozessoreinheit ein Bild einer Kamera der Sensoreinheit auswerten, und dabei sämtliche Spuren innerhalb des Bilds erkennen.The processor unit is set up to evaluate the detection of the surroundings. The detection of the surroundings can be, for example, a recording of the local surroundings of the vehicle. In particular, the processor unit is set up to use recordings or frames generated by the sensor unit have been to extract objects. For example, the processor unit can evaluate an image from a camera of the sensor unit and in doing so recognize all traces within the image.

Die mehreren Spurlinien können mittels Methoden der Bildverarbeitung erkannt werden, beispielsweise innerhalb eines Bildes, welches von einer Kamera der Sensoreinheit aufgenommen worden ist und welches das Umfeld des Fahrzeugs abbildet. Beispiele für geeignete Methoden der Bildverarbeitung sind beispielsweise die semantische Segmentierung oder die Kantenerkennung. Das Ergebnis der Anwendung solcher Methoden der Bildverarbeitung kann insbesondere ein Polynom sein, das die Erstreckung und den Verlauf der Spurlinien beschreibt.The multiple lane lines can be recognized by means of image processing methods, for example within an image which has been recorded by a camera of the sensor unit and which depicts the surroundings of the vehicle. Examples of suitable methods of image processing are, for example, semantic segmentation or edge detection. The result of using such image processing methods can in particular be a polynomial that describes the extent and course of the track lines.

In einer Ausführungsform ist die Prozessoreinheit dazu eingerichtet, das Fahrzeug basierend auf wenigstens einem der folgenden Parameter zu steuern, nämlich basierend auf einer Krümmung der ausgewählten Spurlinie, basierend auf einem Kursfehler des Fahrzeugs oder basierend auf einer Differenz aus einem aus der Umfelderfassung ermittelten seitlichen Abstand der ausgewählten Spurlinie zu dem Fahrzeug einschließlich dessen Anbaugeräten und einem gewünschten Abstand der ausgewählten Spurlinie zu dem Fahrzeug einschließlich dessen Anbaugeräten.In one embodiment, the processor unit is set up to control the vehicle based on at least one of the following parameters, namely based on a curvature of the selected lane line, based on a course error of the vehicle or based on a difference between a lateral distance of the determined from the surroundings detection selected lane line to the vehicle including its attachments and a desired distance of the selected lane line to the vehicle including its attachments.

In einer weiteren Ausführungsform ist die Prozessoreinheit dazu eingerichtet ist, die mehreren Spurlinien in der Umfelderfassung zu erkennen, indem Methoden der Bildverarbeitung mit Methoden der künstlichen Intelligenz kombiniert werden. Dabei kann ein künstliches neuronales Netz trainiert werden, z.B. indem dem künstlichen neuronalen Netz zu dessen Training repräsentative Beispielbilder mit Spurlinien zur Verfügung gestellt werden. Die Erweiterung der „klassischen Bildverarbeitung“ um Elemente der Künstlichen Intelligenz ermöglicht insbesondere mehrere Spurlinien zu erkennen und durch Training beispielsweise eines neuronalen Netzes den Erkennungsgrad und somit die Zuverlässigkeit ständig zu verbessern. Ein durch die Kombination aus klassischer Bildverarbeitung und Künstlicher Intelligenz ausgegebenes Polynom kann die Krümmung der Spurlinie, den Verlauf der Spurlinie und den seitlichen Abstand der Spurlinie zu dem Offroad-Fahrzeug einschließlich dessen Anbaugeräten mit einer besonders hohen Wahrscheinlichkeit richtig beschreiben. Zusammen mit dem gewünschten Abstand der Spurlinie zu dem Offroad-Fahrzeug einschließlich dessen Anbaugeräten („desired lateral offset“) kann die Lenkung des Fahrzeugs angesteuert werden.In a further embodiment, the processor unit is set up to recognize the multiple lane lines in the detection of the surroundings by combining methods of image processing with methods of artificial intelligence. An artificial neural network can be trained, e.g. in that representative sample images with track lines are made available to the artificial neural network for its training. The extension of the "classic image processing" by elements of artificial intelligence enables in particular to recognize several lane lines and to continuously improve the degree of recognition and thus the reliability by training a neural network, for example. A polynomial output through the combination of classic image processing and artificial intelligence can correctly describe the curvature of the track line, the course of the track line and the lateral distance of the track line to the off-road vehicle including its attachments with a particularly high probability. The steering of the vehicle can be controlled together with the desired distance between the track line and the off-road vehicle including its attachments (“desired lateral offset”).

Beispielsweise können durch die Sensoreinheit generierte Bilder oder Frames mittels der sogenannten semantischen Segmentierung (im Englischen: „Semantic-Segmentation“) verarbeitet werden, die ein künstliches neuronales Netz nutzt. Bei der semantischen Segmentierung werden einzelne Bildinhalte segmentiert. Dabei können benachbarte Pixel zu einer inhaltlich zusammenhängenden Bildregionen zusammengefasst werden, wenn sie ein definiertes Homogenitätskriterium erfüllen. Es kann insbesondere eine Pixel-genaue Klassifikation der Bilder erfolgen, wobei für jeden Pixel die Zugehörigkeit zu einer bekannten Objektklasse bestimmt werden kann. Beispielsweise kann die Prozessoreinheit eine Bildfolge von einer Kamera erhalten, welche das Umfeld des Fahrzeugs in aufeinanderfolgenden Bildern der Bildfolge erfasst. In den Bildern kann die Prozessoreinheit mittels semantischer Segmentierung beispielsweise Merkmale extrahieren und in einer Klassifikation jeden Pixel einer Objektklasse zuordnen, beispielsweise einer Objektklasse „Spurlinie“, einer Objektklasse „Feld ohne Spurlinie“, „Himmel“ usw. Die Methode des semantischen Segmentierung eignet sich besonders für komplexe Anwendungen und liefert eine besonders hohe Genauigkeit.For example, images or frames generated by the sensor unit can be processed by means of so-called semantic segmentation (in English: “Semantic segmentation”), which uses an artificial neural network. With semantic segmentation, individual image contents are segmented. Adjacent pixels can be combined to form an image region with a coherent content if they meet a defined homogeneity criterion. In particular, a pixel-precise classification of the images can take place, it being possible for each pixel to belong to a known object class. For example, the processor unit can receive an image sequence from a camera which records the surroundings of the vehicle in successive images of the image sequence. In the images, the processor unit can extract features using semantic segmentation, for example, and assign each pixel to an object class in a classification, for example an object class “track line”, an object class “field without track line”, “sky” etc. The semantic segmentation method is particularly suitable for complex applications and delivers particularly high accuracy.

Alternativ können durch die Sensoreinheit generierte Bilder oder Frames mittels der Methode der Kantenerkennung verarbeitet werden, die ein künstliches neuronales Netz nutzt. Dabei kann mittels des künstlichen neuronalen Netzes ein Filter angepasst werden. Bei der Methode der Kantenerkennung (im Englischen: „edge detection“) können flächige Bereiche in einem digitalen Bild voneinander getrennt werden, insbesondere wenn sie sich entlang gerader oder gekrümmter Linien ausreichend in Farb- oder Grauwert, Helligkeit oder Textur unterscheiden. Dabei können spezielle Kantenoperatoren, die auch als Filter bezeichnet werden, Übergänge zwischen flächigen Bereichen erkennen und als Kanten markieren. Mit anderen Worten können bei der Methode der Kantenerkennung Kanten in einem beispielsweise zweidimensionalen Bild erkannt werden, das z.B. von einer Kamera aufgenommen worden ist. Informationen bezüglich erkannter Kanten können zum Erkennen bestimmter Objekte in dem Bild genutzt werden, bezugnehmend auf die vorliegende Erfindung insbesondere zum Erkennen von Spurlinien auf einem Feld. Dazu können beispielsweise die Informationen bezüglich erkannter Kanten mit hinterlegten Mustern verglichen werden.Alternatively, images or frames generated by the sensor unit can be processed using the edge detection method that uses an artificial neural network. A filter can be adapted by means of the artificial neural network. With the edge detection method, flat areas in a digital image can be separated from one another, especially if they differ sufficiently in color or gray value, brightness or texture along straight or curved lines. Special edge operators, also known as filters, can recognize transitions between two-dimensional areas and mark them as edges. In other words, with the edge detection method, edges can be detected in an e.g. two-dimensional image which e.g. was recorded by a camera. Information relating to recognized edges can be used for recognizing certain objects in the image, with reference to the present invention in particular for recognizing track lines in a field. For this purpose, for example, the information relating to recognized edges can be compared with stored patterns.

Das System ermöglicht durch die Erkennung der Spurlinien auch eine Ansteuerung bzw. Automatisierung eines Anbaugeräts des Fahrzeugs. So kann beispielsweise eine Ladewagen-Pickup (als Beispiel eines Anbaugeräts) z.B. über ein CAN-Signal ausgehoben werden, wenn das Ende eines Schwads von der Sensoreinheit erkannt wird. Weiterhin kann die Ladewagen-Pickup z.B. über ein CAN-Signal abgesenkt werden, wenn der Anfang eines Schwads von der Sensoreinheit erkannt wird. In diesem Sinne ist gemäß einer weiteren Ausführungsform vorgesehen, dass die Prozessoreinheit dazu eingerichtet ist, ein an das Fahrzeug angebautes Anbaugerät basierend auf der ausgewählten Spurlinie und dessen Verlauf in der Umfelderfassung zu steuern. Der gewünschte Abstand zu den Spurlinien („Desired Lateral Offset“) kann durch die Breite des Anbaugerätes definiert werden. Entweder kann dies manuell durch den Fahrer über ein Terminal eingegeben werden oder durch eine automatische Anbaugeräteerkennung, z.B. mittels eines Tags des Anbaugeräts, wobei der Tag direkt von der Prozessoreinheit bzw. dem Fahrerassistenzsystem erkannt und verarbeitet wird.By recognizing the track lines, the system also enables control or automation of an attachment in the vehicle. For example, a loading wagon pick-up (as an example of an attachment) can be lifted, for example via a CAN signal, when the end of a swath is detected by the sensor unit. Furthermore, the loading wagon pickup can be lowered, for example via a CAN signal, when the sensor unit detects the beginning of a swath. In this sense, it is provided according to a further embodiment that the processor unit is set up to a to control the attachment attached to the vehicle based on the selected track line and its course in the environment detection. The desired distance to the track lines ("Desired Lateral Offset") can be defined by the width of the attachment. This can either be entered manually by the driver via a terminal or by automatic attachment recognition, for example by means of a tag on the attachment, the tag being recognized and processed directly by the processor unit or the driver assistance system.

Die Prozessoreinheit kann in ein Fahrerassistenzsystem des Fahrzeugs integriert sein oder mit dem Fahrerassistenzsystem kommunikativ verbunden sein. Die Prozessoreinheit kann dazu eingerichtet sein, einzuleiten, dass das Fahrzeug in einen sicheren Zustand überführt wird, wenn die Prozessoreinheit in der Umfelderfassung wenigstens ein potentielles Kollisionsobjekt erkennt. Ein potentielles Kollisionsobjekt kann ein Gegenstand (ortsfest oder beweglich, z.B. ein Baum, ein Strommast, ein Pfahl oder ein anderes Fahrzeug), ein Mensch oder ein Tier sein, dass sich innerhalb des erfassten lokalen Umfelds des Fahrzeugs befindet. Unter „einzuleiten“ kann in diesem Zusammenhang insbesondere verstanden werden, dass die Prozessoreinheit einen Befehl an das Fahrerassistenzsystem des Fahrzeugs übermittelt, sodass das Fahrerassistenzsystem das Fahrzeug in den sicheren Zustand überführt. Beispielsweise kann das Fahrerassistenzsystem das Fahrzeug beim Überführen in den sicheren Zustand zum Stillstand bringen. Alternativ kann auch die Geschwindigkeit verringert werden (ohne dass das Fahrzeug gestoppt werden muss), sodass eine Kollisionsgefahr signifikant verringert werden kann. Weiterhin kann eine optische oder akustische Warnung ausgegeben werden, insbesondere an den Nutzer des Fahrzeugs (z.B. über ein Display innerhalb des Fahrzeugs) und/oder an das lokale Umfeld des Fahrzeugs, z.B. durch eine Hupe, ein Signalhorn, einen Lautsprecher oder durch eine Leuchteinrichtung des Fahrzeugs. Die optische oder akustische Warnung kann insbesondere durch Personen und Tiere wahrgenommen werden, die sich in der Nähe des Fahrzeugs befinden. Auf diese Weise können Personen in der Nähe vor dem autonom fahrenden Fahrzeug gewarnt und Kollisionen vermieden werden.The processor unit can be integrated into a driver assistance system of the vehicle or be communicatively connected to the driver assistance system. The processor unit can be set up to initiate that the vehicle is transferred to a safe state when the processor unit detects at least one potential collision object in the surroundings detection. A potential collision object can be an object (stationary or movable, e.g. a tree, a power pole, a pole or another vehicle), a person or an animal that is located within the detected local area around the vehicle. In this context, “initiate” can in particular be understood to mean that the processor unit transmits a command to the driver assistance system of the vehicle so that the driver assistance system transfers the vehicle to the safe state. For example, the driver assistance system can bring the vehicle to a standstill when it is brought into the safe state. Alternatively, the speed can also be reduced (without the vehicle having to be stopped), so that the risk of collision can be significantly reduced. Furthermore, an optical or acoustic warning can be issued, in particular to the user of the vehicle (e.g. via a display inside the vehicle) and / or to the local area surrounding the vehicle, e.g. by a horn, a horn, a loudspeaker or by a lighting device of the vehicle. The visual or acoustic warning can in particular be perceived by people and animals who are in the vicinity of the vehicle. In this way, people in the vicinity can be warned of the autonomously driving vehicle and collisions can be avoided.

Die Sensoreinheit zur Erfassung des Umfelds des Fahrzeugs kann wenigstens einen der folgenden Sensoren umfassen, nämlich einen Bildverarbeitungs-Sensor, insbesondere eine Kamera, einen Radar-Sensor oder einen Laser-basierten Sensor.The sensor unit for detecting the surroundings of the vehicle can comprise at least one of the following sensors, namely an image processing sensor, in particular a camera, a radar sensor or a laser-based sensor.

Der Bildverarbeitungs-Sensor (z.B. eine Kamera), kann dazu eingerichtet sein, Bilder des Umgebungsbereichs aufzunehmen. Mittels bekannter Methoden der Bildverarbeitung und Bildauswertung können in den Bildern Merkmale erkannt werden, insbesondere die Spurlinien.The image processing sensor (e.g. a camera) can be set up to record images of the surrounding area. Using known methods of image processing and image evaluation, features can be recognized in the images, in particular the track lines.

Der Radar-basierte Sensor kann dazu eingerichtet sein, in dem erfassten Umfeld des Fahrzeugs Merkmale zu erkennen, insbesondere die Spurlinien. Der Radar-basierte Sensor kann beispielsweise Abstände zu Objekten innerhalb des erfassten Umfelds messen. Weiterhin kann der Radar-basierte Sensor beispielsweise auch Azimut-Werte, Höhen-Werte (Elevation), Intensitäts-Werte und Radialgeschwindigkeits-Werte messen. Der Radar-Sensor kann zur Ermittlung der Steigung eingesetzt werden. Durch Einbeziehen von Höhenwerten kann insbesondere eine Steigung des Geländes ermittelt werden, welche in dem erfassten Umfeld des Fahrzeugs vorliegt. Insbesondere kann die Sensoreinheit wenigstens eine Kamera umfassen, welche in einem Field of View der Kamera Spurlinien erkennt, und zusätzlich kann die Sensoreinheit einen Radar-basierten Sensor umfassen, welcher dazu eingerichtet ist, in einem Field of View des Radar-basierten Sensors die Steigung des Geländes zu ermitteln. Die Fields of View der Kamera und des Radar-basierten Sensors können dabei deckungsgleich sein, sich überlappen oder sich nicht überlappen (komplementäre Fields of View). Ein entsprechender Messzyklus, in dem der Radar-basierte Sensor das Umfeld des Fahrzeugs erfasst bzw. auf die beschriebene Art vermessen hat, kann dabei als ein „Frame“ bezeichnet werden. Der Radar-basierte Sensor kann das Umfeld somit N-dimensional abtasten bzw. erfassen, wodurch Punktewolken generiert werden können. Aus erfassten Punktewolken kann der Radar-basierte Sensor Merkmale extrahieren. Die Punktewolke kann entsprechend mehrere Dimensionen umfassen (N-dimensionale Punktewolke), wenn man beispielsweise auch Intensitäten und Radialgeschwindigkeiten beachtet.The radar-based sensor can be set up to recognize features in the detected surroundings of the vehicle, in particular the lane lines. The radar-based sensor can, for example, measure distances to objects within the detected surroundings. Furthermore, the radar-based sensor can also measure azimuth values, altitude values (elevation), intensity values and radial velocity values, for example. The radar sensor can be used to determine the slope. By including altitude values, it is possible in particular to determine a slope of the terrain which is present in the detected surroundings of the vehicle. In particular, the sensor unit can include at least one camera that detects lane lines in a field of view of the camera, and the sensor unit can additionally include a radar-based sensor that is set up to measure the gradient of the in a field of view of the radar-based sensor To determine the terrain. The fields of view of the camera and the radar-based sensor can be congruent, overlap or not overlap (complementary fields of view). A corresponding measurement cycle in which the radar-based sensor recorded the surroundings of the vehicle or measured it in the manner described can be referred to as a “frame”. The radar-based sensor can therefore scan or detect the environment in an N-dimensional manner, as a result of which point clouds can be generated. The radar-based sensor can extract features from recorded point clouds. The point cloud can accordingly comprise several dimensions (N-dimensional point cloud) if, for example, intensities and radial velocities are also taken into account.

Der Laser-basierter Sensor (z.B. ein Lidar-Sensor) kann dazu eingerichtet sein, in dem erfassten Umfeld des Fahrzeugs Merkmale zu erkennen, insbesondere die Spurlinien. Der Laser-basierte Sensor kann beispielsweise innerhalb des erfassten Umfelds Intensitäten in einer x-Richtung, in einer y-Richtung und in einer z-Richtung eines kartesischen Koordinatensystems des Laser-basierten Sensors messen. Ein entsprechender Messzyklus, in dem der Laser-basierte Sensor das Umfeld erfasst bzw. auf die beschriebene Art vermessen hat, kann dabei als ein „Frame“ bezeichnet werden. Der Laser-basierte Sensor kann das Umfeld N-dimensional abtasten bzw. erfassen, wodurch Punktewolken generiert werden können. Aus erfassten Punktewolken kann der Laser-basierte Sensor Merkmale extrahieren. Die Punktewolke kann entsprechend mehrere Dimensionen umfassen (N-dimensionale Punktewolke).The laser-based sensor (e.g. a lidar sensor) can be set up to recognize features in the detected surroundings of the vehicle, in particular the lane lines. The laser-based sensor can, for example, measure intensities in an x-direction, in a y-direction and in a z-direction of a Cartesian coordinate system of the laser-based sensor within the detected surroundings. A corresponding measuring cycle in which the laser-based sensor has recorded the environment or measured it in the described manner can be referred to as a “frame”. The laser-based sensor can scan or detect the environment N-dimensionally, whereby point clouds can be generated. The laser-based sensor can extract features from recorded point clouds. The point cloud can accordingly comprise several dimensions (N-dimensional point cloud).

Zusätzlich zu der automatischen Auswahl der Spurlinie durch die Prozessoreinheit kann eine Auswahl einer zu folgenden Spurlinie, z.B. einem zu folgenden Schwad oder einer zu folgenden Schnittkante, von einem Fahrer bzw. Nutzer des landwirtschaftlichen Nutzfahrzeugs über eine Bedienhilfe gesteuert werden. In diesem Sinne umfasst das System in einer weiteren Ausführungsform eine Bedieneinheit, welche dazu eingerichtet ist, einem Nutzer das Auswählen einer Spurlinie aus den mehreren Spurlinien zu ermöglichen. Die Bedieneinheit kann ein Display umfassen, z.B. einen Touchscreen. Das Display kann die mehreren durch die Sensoreinheit erfassten Spurlinien zeigen. Der Nutzer kann aus den mehreren dargestellten Spurlinien diejenige Spurlinie auswählen, der das Fahrzeug autonom folgen soll.In addition to the automatic selection of the track line by the processor unit, a Selection of a track line to be followed, for example a swath to be followed or a cutting edge to be followed, can be controlled by a driver or user of the agricultural utility vehicle via an operating aid. In this sense, the system comprises, in a further embodiment, an operating unit which is set up to enable a user to select a track line from the multiple track lines. The operating unit can comprise a display, for example a touch screen. The display can show the multiple track lines detected by the sensor unit. The user can select the lane line that the vehicle is to autonomously follow from the multiple lane lines shown.

Im Folgenden werden Ausführungsbeispiele der Erfindung anhand der schematischen Zeichnung näher erläutert, wobei gleiche oder ähnliche Elemente mit dem gleichen Bezugszeichen versehen sind. Hierbei zeigt

  • 1 eine Draufsicht auf ein Feld, auf welchem ein Traktor mit einem Anbaugerät autonom fährt,
  • 2 Elemente eines Fahrerassistenzsystems für den Traktor nach 1,
  • 3 Schritte eines Verfahrens zur Detektion von Spurlinien und zur Steuerung des Traktors nach 1 basierend auf einer ausgewählten Spurlinie mittels des Fahrerassistenzsystems nach 2, und
  • 4 Szenarien A bis F, in welchen das Fahrerassistenzsystem nach 2 in einem Traktor aktiv bzw. passiv ist.
In the following, exemplary embodiments of the invention are explained in more detail with reference to the schematic drawing, the same or similar elements being provided with the same reference symbols. Here shows
  • 1 a top view of a field on which a tractor with an attachment drives autonomously,
  • 2 Elements of a driver assistance system for the tractor 1 ,
  • 3 Steps of a method for the detection of track lines and for controlling the tractor according to 1 based on a selected track line by means of the driver assistance system 2 , and
  • 4th Scenarios A to F, in which the driver assistance system after 2 is active or passive in a tractor.

1 zeigt eine landwirtschaftliche Nutzmaschine in der Form eines Traktors 1. Im Heckbereich des Traktors 2 ist ein Anbaugerät 2 an den Traktor 1 angebaut. Der Traktor 1 zieht das Anbaugerät über ein Feld 3, sodass das Anbaugerät 2 das Feld 3 bearbeiten kann und sodass mehrere Spurlinien entstehen, in dem gezeigten Ausführungsbeispiel eine erste Spurlinie 4.1 und eine zweite Spurlinie 4.2. Die erste Spurlinie 4.1 verläuft parallel zu der zweiten Spurlinie 4.2. Der Traktor 1 befindet sich mit dem Anbaugerät 2 seitlich beabstandet neben der ersten Spurlinie 4.1. Die zweite Spurlinie 4.2 ist weiter entfernt von dem Fahrzeug 1 und dem Anbaugerät 2 als die erste Spurlinie 4.1. 1 Figure 3 shows an agricultural machine in the form of a tractor 1 . In the rear of the tractor 2 is an attachment 2 to the tractor 1 cultivated. The tractor 1 pulls the implement across a field 3 so that the attachment 2 the field 3 can edit and so that several track lines arise, in the embodiment shown, a first track line 4.1 and a second track line 4.2 . The first track line 4.1 runs parallel to the second track line 4.2 . The tractor 1 is located with the attachment 2 laterally spaced next to the first track line 4.1 . The second track line 4.2 is further away from the vehicle 1 and the attachment 2 as the first track line 4.1 .

Das Fahrzeug 1 umfasst ein näher in 2 dargestelltes System 5 zum autonomen Betrieb des Fahrzeugs 1 (in bestimmten Situationen/Szenarien, vgl. 4). Das System 5 umfasst in dem gezeigten Ausführungsbeispiel eine Prozessoreinheit 6, eine Speichereinheit 7, eine Kommunikations-Schnittstelle 8 und eine Sensoreinheit 9. The vehicle 1 includes a closer in 2 illustrated system 5 for the autonomous operation of the vehicle 1 (in certain situations / scenarios, cf. 4th ). The system 5 comprises in the exemplary embodiment shown a processor unit 6th , a storage unit 7th , a communication interface 8th and a sensor unit 9 .

Die Sensoreinheit 9 umfasst in dem gezeigten Ausführungsbeispiel ein digitales Kamerasystem, das im Folgenden mit „Kamera“ bezeichnet und in 2 mit dem Bezugszeichen 11 versehen ist. Die Kamera 11 ist insbesondere auf einem Dach des Traktors 1 angeordnet, so dass sie ein Umfeld 12 des Traktors 1 abdeckt, das sich in einem Vorausbereich und beidseitig seitlich des Traktors 1 befindet. Dies ist jedoch rein beispielhaft. Alternativ kann das digitale Kamerasystem 11 auch z.B. ein Surround View System umfassen, welches ein Umfeld 12 erfassen kann, das sich 360° um den Traktor 1 herum erstreckt. Die Kamera 11 nimmt nacheinander und kontinuierlich Bilder des Umfelds 12 des Traktors 1 auf, wodurch ein Video bzw. eine Bildfolge des Umfelds 12 des Traktors 1 generiert wird. Dieses Video bzw. diese Bildfolge ist die Umfelderfassung des Traktors 1. Innerhalb der einzelnen Bilder dieses Videos bzw. dieser Bildfolge können Bildausschnitte definiert werden (Regions of Interest, kurz: ROI), innerhalb welcher die Spurlinien 4.1 und 4.2 mittels Methoden der Bilderkennung erkannt werden können. Optional können dabei Methoden der Künstlichen Intelligenz bzw. des Maschinellen Lernens zum Einsatz kommen. Beispielsweise kann als Methode der Bilderkennung die semantische Segmentierung gewählt werden, wobei ein künstliches neuronales Netz zum Einsatz kommt (z.B. ein Convolutional Neural Network, kurz: CNN), das mit Referenzbildern trainiert wird. Zusätzlich zu der Kamera 9 kann die Sensoreinheit 10 einen Radar-basierten Sensor 13 aufweisen. Der Radar-basierte Sensor 13 ist derart an dem Traktor 1 angeordnet, dass er Höhenwerte ermitteln kann, die eine Berechnung einer Steigung des Geländes erlauben, welche in dem erfassten Umfeld 12 des Traktors 1 vorliegt.The sensor unit 9 comprises, in the exemplary embodiment shown, a digital camera system, referred to below as “camera” and shown in FIG 2 with the reference number 11 is provided. The camera 11 is in particular on a roof of the tractor 1 arranged so that they are an environment 12 of the tractor 1 covers that is in a forward area and on both sides of the tractor 1 is located. However, this is purely exemplary. Alternatively, the digital camera system 11 also include, for example, a surround view system, which an environment 12 that is 360 ° around the tractor 1 extends around. The camera 11 takes pictures of the surroundings one after the other and continuously 12 of the tractor 1 on, creating a video or a sequence of images of the environment 12 of the tractor 1 is generated. This video or this sequence of images is the detection of the tractor's surroundings 1 . Within the individual images of this video or this image sequence, image sections can be defined (regions of interest, short: ROI), within which the track lines 4.1 and 4.2 can be recognized by means of image recognition methods. Methods of artificial intelligence or machine learning can optionally be used. For example, semantic segmentation can be selected as the method of image recognition, using an artificial neural network (eg a convolutional neural network, or CNN for short) that is trained with reference images. In addition to the camera 9 can the sensor unit 10 a radar-based sensor 13 exhibit. The radar-based sensor 13 is like that on the tractor 1 arranged so that he can determine height values that allow a calculation of a slope of the terrain, which in the detected environment 12 of the tractor 1 present.

Auf der Speichereinheit 7 kann ein Computerprogrammprodukt 10 gespeichert sein. Das Computerprogrammprodukt 10 kann auf der Prozessoreinheit 6 ausgeführt werden, wozu die Prozessoreinheit 6 und die Speichereinheit 7 entsprechend kommunikativ miteinander verbunden sind. Wenn das Computerprogrammprodukt 10 auf der Prozessoreinheit 6 ausgeführt wird, leitet es die Prozessoreinheit 6 an, die im Zusammenhang mit der Zeichnung beschriebenen Funktionen bzw. Verfahrensschritte auszuführen.On the storage unit 7th can be a computer program product 10 be saved. The computer program product 10 can be on the processor unit 6th are executed, including the processor unit 6th and the storage unit 7th are correspondingly communicatively connected to each other. When the computer program product 10 on the processor unit 6th is executed, it directs the processor unit 6th to carry out the functions or process steps described in connection with the drawing.

Dem Traktor 1 kann ein Koordinatensystem mit einer x-Achse (Längsrichtung) und einer quer dazu verlaufenden y-Achse (Querrichtung bzw. Breitenrichtung) zugeordnet sein, dass als Referenzkoordinatensystem angesehen werden kann. Jedem von der Kamera 11 aufgenommenen Bild kann ein Kamera-Koordinatensystem zugeordnet sein. 1 zeigt, dass dieses Koordinatensystem eine Längsachse L des Gespanns aus Traktor 1 und Anbaugerät 2 aufweisen kann. In dem Beispiel nach 1 stimmt die Längsachse L des Bild-Koordinatensystems mit der x-Achse des Traktor-Koordinatensystems überein. Das Bild-Koordinatensystem weist ferner eine quer zu der Längsachse L verlaufende Breitenachse B des Anbaugeräts 1 auf, das sich in Breitenrichtung B weiter seitlich erstreckt als der Traktor 1. In dem Ausführungsbeispiel nach 1 stimmt die Breitenachse L nicht mit der y-Achse des Traktor-Koordinatensystems überein, sondern es besteht ein longitudinaler Versatz x0 in Längsrichtung x. Die Prozessoreinheit 6 ist dazu eingerichtet, diesen Versatz zu berücksichtigen, indem sie ermittelte Bild-Koordinaten in Traktor-Koordinaten umrechnet. Die Prozessoreinheit 6 ist ebenfalls dazu eingerichtet, einen Versatz in Breitenrichtung y zu berücksichtigen, indem sie ermittelte Bild-Koordinaten in Traktor-Koordinaten umrechnet (auch wenn in dem vorliegenden Beispiel nach 1 kein Versatz in Breitenrichtung y vorliegt).The tractor 1 a coordinate system with an x-axis (longitudinal direction) and a y-axis running transversely thereto (transverse direction or width direction) can be assigned that can be viewed as a reference coordinate system. Everyone from the camera 11 A camera coordinate system can be assigned to the recorded image. 1 shows that this coordinate system has a longitudinal axis L of the tractor combination 1 and attachment 2 may have. In the example after 1 the longitudinal axis L of the image coordinate system corresponds to the x-axis of the tractor coordinate system. The image coordinate system also has a width axis B of the attachment running transversely to the longitudinal axis L. 1 on, which extends laterally in width direction B than the tractor 1 . In the embodiment according to 1 if the latitude L does not coincide with the y-axis of the tractor coordinate system, there is a longitudinal offset x0 in the longitudinal direction x. The processing unit 6th is set up to take this offset into account by converting the determined image coordinates into tractor coordinates. The processing unit 6th is also set up to take into account an offset in the width direction y by converting the determined image coordinates into tractor coordinates (even if in the present example according to 1 there is no offset in width direction y).

Die Breitenachse B kann beispielsweise durch den breitesten Abschnitt des Anbaugeräts 2 verlaufen, wie diese durch 1 gezeigt ist. Das breitere Anbaugerät 2 soll gemäß dem Ausführungsbeispiel nach 1 einen gewünschten seitlichen Abstand („desired lateral offset“, „Soll-Abstand“) zu einer nächstgelegenen Spurlinie haben (in dem Ausführungsbeispiel nach 1 ist dies die erste Spurlinie 4.1), während das Gespann aus Traktor 1 und Anbaugerät 2 auf dem Feld 3 fährt und das Feld 3 mittels des Anbaugeräts 2 bearbeitet. Dieser seitlich Soll-Abstand kann beispielsweise einige Meter betragen, z.B. 8 m. Es kann beispielsweise in einem ersten Verfahrensschritt 100 (3) ein Abstand B0 definiert werden, welchen die nächstliegende Spurlinie 4.1 von der Längsachse L des Gespanns aus Traktor 1 und Anbaugerät 2 mindestens aufweisen soll. Der gewünschte seitliche Abstand B0 kann als Abstands-Datensatz vorliegen, auf welchen die Prozessoreinheit 6 Zugriff hat. Beispielsweise kann das Anbaugerät 2 einen Tag, z.B. einen RFID-Tag umfassen, der durch das Fahrerassistenzsystem 5 ausgelesen werden kann. Auf dem Tag kann der Abstands-Datensatz hinterlegt sein. Weiterhin kann der Abstands-Datensatz auch durch einen Nutzer bzw. einen Fahrer des Traktors 1 in das Fahrerassistenzsystem 5 erzeugt werden, z.B. durch Eingabe über ein entsprechendes Terminal des Traktors 1.The latitude axis B can, for example, pass through the widest section of the attachment 2 run through like this 1 is shown. The wider attachment 2 should according to the embodiment 1 have a desired lateral offset (“desired lateral offset”) to a closest track line (in the exemplary embodiment according to FIG 1 this is the first track line 4.1 ), while the tractor team 1 and attachment 2 on the field 3 drives and the field 3 by means of the attachment 2 processed. This desired lateral distance can be a few meters, for example 8 m. It can, for example, in a first process step 100 ( 3 ) a distance B0 can be defined, which is the closest track line 4.1 from the longitudinal axis L of the tractor combination 1 and attachment 2 should have at least. The desired lateral distance B0 can be present as a distance data record on which the processor unit 6th Has access. For example, the attachment 2 include a tag, for example an RFID tag, which is generated by the driver assistance system 5 can be read out. The distance data record can be stored on the day. Furthermore, the distance data record can also be provided by a user or a driver of the tractor 1 into the driver assistance system 5 can be generated, for example, by input via a corresponding terminal on the tractor 1 .

Die Kamera 11 nimmt in einem zweiten Verfahrensschritt 200 (3) ein Bild des Umfelds des Traktors 1 auf. Der zweite Schritt 200 kann nach dem ersten Schritt 100 durchgeführt werden. Alternativ können die Schritte 100 und 200 jedoch auch zeitgleich oder zeitlich überlappend durchgeführt werden. Die Prozessoreinheit 6 kann in einem dritten Verfahrensschritt 300 (3) das von der Kamera 11 aufgenommene Bild auswerten und dabei die Spurlinien 4.1 und 4.2 erkennen, wobei wie weiter oben erwähnt Methoden der Künstlichen Intelligenz zum Einsatz kommen können. Dadurch entsteht ein klassifiziertes Bild der Kamera.The camera 11 takes in a second step 200 ( 3 ) an image of the area around the tractor 1 on. The second step 200 can after the first step 100 be performed. Alternatively, the steps 100 and 200 however, they can also be carried out simultaneously or overlapping in time. The processing unit 6th can in a third process step 300 ( 3 ) that from the camera 11 evaluate the recorded image and the track lines 4.1 and 4.2 recognize, whereby, as mentioned above, methods of artificial intelligence can be used. This creates a classified image from the camera.

In einem anschließenden Schritt 400 (3) kann ein Polynom-Fitting durchgeführt werden. Beim Polynomfitting werden die Bildinhalte weiterverarbeitet und aus einzelnen Informationen (Punkten, unterbrochenen Linien, etc.) werden Polynome berechnet, die eine Spurlinie bzw. deren Richtung definieren. Das Ergebnis dieses vierten Verfahrensschritts 400 sind somit Polynome in dem Bild-Koordinatensystem (L, B). In einem fünften Verfahrensschritt 500 (3) können die Polynome, die zuvor im Bild-Koordinatensystem berechnet worden sind, in Koordinaten des Traktor-Koordinatensystems transformiert werden. Das Ergebnis dieses fünften Verfahrensschritts 500 sind somit Polynome in dem Traktor-Koordinatensystem (x, y).In a subsequent step 400 ( 3 ) a polynomial fitting can be carried out. With polynomial fitting, the image content is further processed and polynomials are calculated from individual information (points, broken lines, etc.) that define a track line or its direction. The result of this fourth step 400 are thus polynomials in the image coordinate system (L, B). In a fifth process step 500 ( 3 ) the polynomials that were previously calculated in the image coordinate system can be transformed into coordinates of the tractor coordinate system. The result of this fifth process step 500 are thus polynomials in the tractor coordinate system (x, y).

Bei den Spurlinien 4.1 und 4.2 kann es sich beispielsweise um Schwade oder Schnittkanten handeln. Die erste Spurlinie 4.1 weist in der Breitenrichtung B einen ersten seitlichen Abstand (erster „lateral offset“ / erster „Ist-Abstand“) B1 zu der Längsachse L des Gespanns aus Traktor 1 und Anbaugerät 2 auf. Die zweite Spurlinie 4.2 weist in der Breitenrichtung B einen zweiten seitlichen Abstand (zweiter „lateral offset“; zweiter „Ist-Abstand“) B2 zu der Längsachse L des Gespanns aus Traktor 1 und Anbaugerät 2 auf. Der erste seitliche Abstand B1 ist kleiner als der zweite seitliche Abstand B2, d.h. die erste Spurlinie 4.1 befindet sich in der Breitenrichtung B näher an der Längsachse L des Gespanns aus Traktor 1 und Anbaugerät 2 als die zweite Spurlinie 4.2. Die Prozessoreinheit 6 kann in einem weiteren Verfahrensschritt 600 (3) das Bild dahingehend auswerten, welche der beiden Spurlinien 4.1 und 4.2 einen geringeren seitlichen Abstand (in der Breitenrichtung B) zu dem Gespann aus Traktor 1 und Anbaugerät 2 aufweist. In dem Ausführungsbeispiel nach 1 wird die Prozessoreinheit 6 dabei feststellen, dass die erste Spurlinie 4.1 den geringeren seitlichen Abstand zu dem Gespann aus Traktor 1 und Anbaugerät 2 aufweist als die zweite Spurlinie 4.2 (B1 < B2). Dementsprechend wird die Prozessoreinheit 6 die erste Spurlinie 4.1 auswählen.At the track lines 4.1 and 4.2 it can be swaths or cut edges, for example. The first track line 4.1 has in the width direction B a first lateral distance (first “lateral offset” / first “actual distance”) B1 to the longitudinal axis L of the combination of tractor 1 and attachment 2 on. The second track line 4.2 has in the width direction B a second lateral distance (second “lateral offset”; second “actual distance”) B2 to the longitudinal axis L of the combination of tractor 1 and attachment 2 on. The first lateral distance B1 is smaller than the second lateral distance B2, that is to say the first track line 4.1 is located in the width direction B closer to the longitudinal axis L of the tractor combination 1 and attachment 2 than the second track line 4.2 . The processing unit 6th can in a further process step 600 ( 3 ) evaluate the image to determine which of the two track lines 4.1 and 4.2 a smaller lateral distance (in the width direction B) to the combination of tractor 1 and attachment 2 having. In the embodiment according to 1 becomes the processor unit 6th while doing this, notice that the first track line 4.1 the smaller lateral distance to the tractor combination 1 and attachment 2 as the second track line 4.2 (B1 <B2). The processor unit becomes accordingly 6th the first track line 4.1 choose.

Basierend auf der ausgewählten Spurlinie 4.1 kann die Prozessoreinheit 6 den Traktor 1 in einem siebten Verfahrensschritt 700 derart steuern, dass sich das Gespann aus Traktor 1 und Anbaugerät 2 autonom entlang der ausgewählten ersten Spurlinie 4.1 bewegt. Dabei kann das Anbaugerät 2 seiner Hauptfunktion nachgehen, nämlich das Feld 3 zu bearbeiten und dabei beispielsweise eine neue Spurlinie neben der ersten Spurlinie 4.1 erzeugen oder die erste Spurlinie 4.1 einsammeln.Based on the selected track line 4.1 can the processor unit 6th the tractor 1 in a seventh process step 700 control in such a way that the combination of tractor 1 and attachment 2 autonomously along the selected first track line 4.1 emotional. The attachment can 2 perform its main function, namely the field 3 edit and create a new track line next to the first track line, for example 4.1 create or the first track line 4.1 collect.

In dem durch 1 gezeigten Beispiel ist der erste seitliche Ist-Abstand B1 kleiner als der seitliche Soll-Abstand B0. Gefordert bzw. gewünscht ist jedoch, dass der Ist-Abstand B1 mindestens so groß ist wie der Soll-Abstand B0. Die Prozessoreinheit 6 kann dies ermitteln und beispielsweise derart korrigierend auf die Lenkung des Traktors 1 einwirken, dass sich das Gespann aus Traktor 1 und Anbaugerät 2 von der ersten Spurlinie 4.1 wegbewegt (gemäß der Ansicht nach 1 nach links), dass der Abstand B1 der Längsachse L von der ersten Spurlinie 4.1 in nachfolgenden von der Kamera 11 aufgenommenen Bildern steigt und dass das Soll-Kriterium B1 ≥ B0 erfüllt wird. Wenn der Ist-Abstand B1 und der Soll-Abstand B0 vom Wert her übereinstimmen, ist die durch das Fahrerassistenzsystem 5 gelieferte Lenkungs-Genauigkeit hoch und der Traktor 1 folgt perfekt der Spurlinie 4.1 in dem eingehaltenen Abstand B0. Je größer die Abweichung zwischen Soll-Abstand B0 und Ist Abstand B1 ist, desto ungenauer ist die Steuerung bzw. Regelung durch das Fahrerassistenzsystem 5.In that through 1 shown example, the first lateral actual distance B1 is smaller than the lateral setpoint distance B0. However, what is required or desired is that the actual distance B1 is at least as great as the setpoint distance B0. The processing unit 6th can determine this and, for example, corrective action on the steering of the tractor 1 act that the tractor-trailer combination 1 and attachment 2 from the first track line 4.1 moved away (according to the view of 1 to the left) that the distance B1 of the longitudinal axis L from the first track line 4.1 in subsequent from the camera 11 recorded images increases and that the target criterion B1 ≥ B0 is met. If the actual distance B1 and the setpoint distance B0 have the same value, that is determined by the driver assistance system 5 delivered steering accuracy high and the tractor 1 follows the track line perfectly 4.1 in the maintained distance B0. The greater the deviation between the setpoint distance B0 and the actual distance B1, the less precise the control or regulation by the driver assistance system 5 .

In dem durch 1 gezeigten Beispiel weisen die Spurlinien 4.1 und 4.2 jeweils eine Krümmung auf. Die Prozessoreinheit 6 ist dazu eingerichtet, die Krümmung der Spurlinien 4.1 und 4.2 zu ermitteln. Beispielsweise kann die Prozessoreinheit 6 - wie durch 1 gezeigt - eine Tangente T dort an die erste Spurlinie 4.1 anlegen, wo die Breitenachse B die erste Spurlinie 4.1 schneidet. Diese Tangente T kann derart verschoben werden, dass sie im Schnittpunkt zwischen der Längsachse L und der Breitenachse B liegt. Die Prozessoreinheit 6 kann einen Winkel Δ zwischen dieser verschobenen Tangente T' und der Längsachse L berechnen. Der Winkel Δ kann als Kursfehler des Traktors 1 angesehen werden. Der Winkel Δ kann beispielsweise durch Abdrift, Wind, Traktionsprobleme oder Fliehkräfte verursacht sein. Würde sich der Traktor 1 weiter in Richtung der Längsachse L geradeaus bewegen, dann würden sich der Traktor 1 und das Anbaugerät 2 der ersten Spurlinie 4.1 nähern und diese evtl. überfahren. Um jedoch der gekrümmten ersten Spurlinie 4.1 mit dem seitlichen Soll-Abstand B0 zu folgen, kann die Prozessoreinheit 6 beispielsweise derart korrigierend auf die Lenkung des Traktors 1 einwirken, dass sich der Verlauf der verschobenen Tangente T' in nachfolgenden von der Kamera 11 aufgenommenen Bildern dem Verlauf der Längsachse L annähert, und dass der Kursfehler in Form des Winkels Δ minimiert wird.In that through 1 Example shown show the track lines 4.1 and 4.2 each has a curvature. The processing unit 6th is set up to control the curvature of the track lines 4.1 and 4.2 to investigate. For example, the processor unit 6th - how through 1 shown - a tangent T there to the first track line 4.1 Create where the latitude B is the first track line 4.1 cuts. This tangent T can be shifted in such a way that it lies at the point of intersection between the longitudinal axis L and the width axis B. The processing unit 6th can calculate an angle Δ between this displaced tangent T 'and the longitudinal axis L. The angle Δ can be seen as a heading error of the tractor 1 be considered. The angle Δ can be caused, for example, by drift, wind, traction problems or centrifugal forces. Would the tractor 1 move straight ahead in the direction of the longitudinal axis L, then the tractor would move 1 and the attachment 2 the first track line 4.1 approach and possibly run over them. However, around the curved first track line 4.1 with the lateral setpoint distance B0, the processor unit 6th for example, correcting the steering of the tractor in this way 1 act that the course of the shifted tangent T 'in subsequent from the camera 11 recorded images approximates the course of the longitudinal axis L, and that the course error in the form of the angle Δ is minimized.

Die Prozessoreinheit 6 kann weiterhin dazu eingerichtet sein, einzuleiten, dass der Traktor in einen sicheren Zustand gebracht wird (z.B. gestoppt wird), wenn die Prozessoreinheit 6 in der Umfelderfassung wenigstens ein potentielles Kollisionsobjekt 15 erkennt, z.B. eine Person, einen Pfahl oder ein anders Fahrzeug. Alternativ kann auch eine Warnung an den Fahrer des Traktors 1 oder dessen Umfeld 12 abgegeben werden.The processing unit 6th can also be set up to initiate that the tractor is brought into a safe state (eg stopped) when the processor unit 6th at least one potential collision object in the environment detection 15th recognizes, for example, a person, a pole or another vehicle. Alternatively, a warning can also be sent to the driver of the tractor 1 or its environment 12 be handed in.

4 zeigt, dass das Fahrerassistenzsystem 5 eines Traktors 1 dann aktiv sein kann und den Traktor 1 wie vorstehend beschrieben steuern kann, wenn der Traktor 1 auf dem Feld 3 entlang der Spurlinie 4 fährt (Szenarien A, B und C). Wenn Probleme mit der Erkennung der Spurlinien 4 auftreten, übergibt das Fahrerassistenzsystem 5 die Kontrolle über die Steuerung des Traktors 1 wieder an den Fahrer des Traktors 1. Auch während der Fahrer den Traktor 1 an einem Vorgewende 14 wendet, übergibt das Fahrerassistenzsystem 5 die Kontrolle über die Steuerung des Traktors 1 wieder an den Fahrer des Traktors 1. Ferner übergibt das Fahrerassistenzsystem 5 die Kontrolle über die Steuerung des Traktors 1 wieder an den Fahrer des Traktors 1, wenn der Fahrer nicht am Vorgewende 14 wendet oder einen völlig falschen Kurs einschlägt (Szenarien D, E und F), weil in diesen Fällen beispielsweise keine Spurlinie 4 in dem Umfeld des Traktors 1 durch die Sensoreinheit des Traktors 1 erfasst werden können und die Bedingungen für die Steuerung des Traktors 1 somit nicht erfüllt werden können. 4th shows that the driver assistance system 5 of a tractor 1 then can be active and the tractor 1 can control as described above when the tractor 1 on the field 3 along the track line 4th drives (scenarios A, B and C). If problems with the recognition of the track lines 4th occur, transfers the driver assistance system 5 control over the control of the tractor 1 back to the driver of the tractor 1 . Even while the driver is the tractor 1 on a headland 14th turns, the driver assistance system hands over 5 control over the control of the tractor 1 back to the driver of the tractor 1 . The driver assistance system also transfers 5 control over the control of the tractor 1 back to the driver of the tractor 1 when the driver is not on the headland 14th turns around or takes a completely wrong course (scenarios D, E and F), because in these cases, for example, there is no track line 4th in the vicinity of the tractor 1 through the tractor's sensor unit 1 can be recorded and the conditions for controlling the tractor 1 thus cannot be met.

BezugszeichenlisteList of reference symbols

LL.
Längsachse Gespann Traktor und Anbaugerät im Bild-KoordinatensystemLongitudinal axis tractor and implement in the image coordinate system
BB.
Breitenachse Anbaugerät im Bild-KoordinatensystemAttachment latitude axis in the image coordinate system
B0B0
Desired Lateral OffsetDesired lateral offset
B1B1
Lateral Offset zur ersten SpurlinieLateral offset to the first track line
B2B2
Lateral Offset zur zweiten SpurlinieLateral offset to the second track line
x0x0
longitudinaler Offset im Traktor-Koordinatensystemlongitudinal offset in the tractor coordinate system
xx
Längsachse Traktor im Traktor-KoordinatensystemLongitudinal axis of the tractor in the tractor coordinate system
yy
Querachse/Breitenachse im Traktor-koordinatensystemCross axis / latitude axis in the tractor coordinate system
11
Traktortractor
22
AnbaugerätAttachment
33
Feldfield
4.14.1
erste Spurliniefirst track line
4.24.2
zweite Spurliniesecond track line
55
FahrerassistenzsystemDriver assistance system
66th
ProzessoreinheitProcessor unit
77th
SpeichereinheitStorage unit
88th
KommunikationsschnittstelleCommunication interface
99
SensoreinheitSensor unit
1010
ComputerprogrammproduktComputer program product
1111
digitales Kamerasystemdigital camera system
1212
Umfeld des TraktorsAround the tractor
1313
Radar-basierter SensorRadar-based sensor
1414th
VorgewendeHeadland
1515th
potentielles Kollisionsobjektpotential collision object
100100
VerfahrensschrittProcess step
200200
VerfahrensschrittProcess step
300300
VerfahrensschrittProcess step
400400
VerfahrensschrittProcess step
500500
VerfahrensschrittProcess step
600600
VerfahrensschrittProcess step
700700
VerfahrensschrittProcess step

Claims (14)

Prozessoreinheit (6) zum autonomen Betrieb eines Fahrzeugs (1), die Prozessoreinheit (6) umfassend eine Schnittstelle (8), wobei die Prozessoreinheit (6) dazu eingerichtet ist, - mittels der Schnittstelle (8) auf eine von einer Sensoreinheit (9) generierte Umfelderfassung des Fahrzeugs (1) zuzugreifen, - mehrere Spurlinien (4.1, 4.2) in der Umfelderfassung zu erkennen, - eine Spurlinie (4.1) aus den mehreren Spurlinien (4.1, 4.2) auszuwählen, und - das Fahrzeug (1) basierend auf der ausgewählten Spurlinie (4.1) derart zu steuern, dass das Fahrzeug (1) autonom der ausgewählten Spurlinie (4.1) folgt.Processor unit (6) for the autonomous operation of a vehicle (1), the processor unit (6) comprising an interface (8), the processor unit (6) being set up to - to use the interface (8) to access a detection of the surroundings of the vehicle (1) generated by a sensor unit (9), - Recognize several track lines (4.1, 4.2) in the detection of the surroundings, - select a track line (4.1) from the several track lines (4.1, 4.2), and - To control the vehicle (1) based on the selected track line (4.1) in such a way that the vehicle (1) autonomously follows the selected track line (4.1). Prozessoreinheit (6) nach Anspruch 1, wobei die Prozessoreinheit (6) dazu eingerichtet ist, das Fahrzeug (1) basierend auf wenigstens einem der folgenden Parameter zu steuern, nämlich - einer Krümmung der ausgewählten Spurlinie (4.1), - einem Kursfehler des Fahrzeugs (1), - einer Differenz aus einem aus der Umfelderfassung ermittelten seitlichen Abstand (B1) der ausgewählten Spurlinie (4.1) zu dem Fahrzeug (1) einschließlich dessen Anbaugeräten (2) und einem gewünschten Abstand (B0) der ausgewählten Spurlinie (4.1) zu dem Fahrzeug (1) einschließlich dessen Anbaugeräten (2).Processor unit (6) Claim 1 , the processor unit (6) being set up to control the vehicle (1) based on at least one of the following parameters, namely - a curvature of the selected lane line (4.1), - a course error of the vehicle (1), - a difference a lateral distance (B1) between the selected track line (4.1) and the vehicle (1) including its attachments (2) and a desired distance (B0) between the selected track line (4.1) and the vehicle (1) including its attachments, determined from the detection of the surroundings (2). Prozessoreinheit (6) nach einem der vorstehenden Ansprüche, wobei die Prozessoreinheit (6) dazu eingerichtet ist, die mehreren Spurlinien (4.1, 4.2) in der Umfelderfassung mittels Methoden der Bildverarbeitung kombiniert mit Methoden der künstlichen Intelligenz zu erkennen.Processor unit (6) according to one of the preceding claims, wherein the processor unit (6) is set up to recognize the multiple track lines (4.1, 4.2) in the environment detection using methods of image processing combined with methods of artificial intelligence. Prozessoreinheit (6) nach Anspruch 3, wobei die Methode der semantischen Segmentierung mit einem künstlichen neuronalen Netz kombiniert wird.Processor unit (6) Claim 3 , whereby the method of semantic segmentation is combined with an artificial neural network. Prozessoreinheit (6) nach Anspruch 3 oder 4, wobei die Methode der Kantenerkennung mit einem künstlichen neuronalen Netz kombiniert wird.Processor unit (6) Claim 3 or 4th , whereby the method of edge detection is combined with an artificial neural network. Prozessoreinheit (6) nach einem der vorstehenden Ansprüche, wobei die Prozessoreinheit (6) dazu eingerichtet ist, ein an das Fahrzeug (1) angebautes Anbaugerät (2) basierend auf der ausgewählten Spurlinie (4.1) und dessen Verlauf in der Umfelderfassung zu steuern.Processor unit (6) according to one of the preceding claims, wherein the processor unit (6) is set up to control an attachment (2) mounted on the vehicle (1) based on the selected track line (4.1) and its course in the environment detection. Prozessoreinheit (6) nach einem der vorstehenden Ansprüche, wobei die Prozessoreinheit (6) dazu eingerichtet ist, - zu prüfen, ob die Umfelderfassung wenigstens ein potentielles Kollisionsobjekt abbildet, und - das Fahrzeug (1) in einen sicheren Zustand zu überführen oder die Geschwindigkeit des Fahrzeugs (1) zu reduzieren oder eine optische oder akustische Warnung and den Nutzer des Fahrzeugs (1) oder an das Umfeld des Fahrzeugs (1) auszugeben, wenn die Umfelderfassung wenigstens ein potentielles Kollisionsobjekt abbildet.Processor unit (6) according to one of the preceding claims, wherein the processor unit (6) is set up to - to check whether the environment detection shows at least one potential collision object, and - To transfer the vehicle (1) to a safe state or to reduce the speed of the vehicle (1) or to output an optical or acoustic warning to the user of the vehicle (1) or to the surroundings of the vehicle (1) when the surroundings are detected maps at least one potential collision object. Prozessoreinheit (6) nach einem der vorstehenden Ansprüche, wobei die Spurlinie (4.1, 4.2) - einen Schwad, - eine Schnittkante, - eine Mähkante, - eine Fahrspur, - eine Pflanzreihe, - eine Baumreihe, - einen Bordstein oder - einen Arbeitsweg (15) umfasst.Processor unit (6) according to one of the preceding claims, wherein the track line (4.1, 4.2) - a swath, - a cut edge, - a mowing edge, - one lane, - a row of plants, - a row of trees, - a curb or - Includes a work path (15). Fahrerassistenzsystem (5) zum autonomen Betrieb eines Fahrzeugs (1), das Fahrerassistenzsystem (5) umfassend - eine Sensoreinheit (9), wobei die Sensoreinheit (9) dazu eingerichtet ist, eine Umfelderfassung des Fahrzeugs (1) zu generieren, und - eine Prozessoreinheit (6) nach einem der vorstehenden Ansprüche.Driver assistance system (5) for the autonomous operation of a vehicle (1), comprising the driver assistance system (5) - A sensor unit (9), the sensor unit (9) being set up to generate a detection of the surroundings of the vehicle (1), and - A processor unit (6) according to one of the preceding claims. Fahrerassistenzsystem (5) nach Anspruch 9, wobei die Sensoreinheit (9) zur Erfassung des Umfelds (12) des Fahrzeugs (1) wenigstens einen der folgenden Sensoren umfasst, nämlich - einen Bildverarbeitungs-Sensor, insbesondere eine Kamera (11), vorzugsweise eine Stereokamera, - einen Radar-Sensor (13), - einen Laser-basierten Sensor.Driver assistance system (5) Claim 9 , wherein the sensor unit (9) for detecting the surroundings (12) of the vehicle (1) comprises at least one of the following sensors, namely - an image processing sensor, in particular a camera (11), preferably a stereo camera, - a radar sensor ( 13), - a laser-based sensor. Fahrerassistenzsystem (5) nach einem der Ansprüche 9 oder 10, das Fahrerassistenzsystem (5) weiterhin umfassend eine Bedieneinheit, welche dazu eingerichtet ist, einem Nutzer das Auswählen einer Spurlinie (4.1) aus den mehreren Spurlinien (4.1, 4.2) zu ermöglichen.Driver assistance system (5) according to one of the Claims 9 or 10 , the driver assistance system (5) further comprising an operating unit which is set up to enable a user to select a track line (4.1) from the multiple track lines (4.1, 4.2). Verfahren zum autonomen Betrieb eines Fahrzeugs (1), das Verfahren umfassend die Schritte: - Generieren einer Umfelderfassung des Fahrzeugs (1) durch eine Sensoreinheit (9), - Erkennen mehrerer Spurlinien (4.1, 4.2) in der Umfelderfassung mittels einer Prozessoreinheit (6), - Auswählen einer Spurlinie (4.1) aus den mehreren Spurlinien (4.1, 4.2) mittels der Prozessoreinheit (6), und - Steuern des Fahrzeugs (1) mittels der Prozessoreinheit (6) basierend auf der ausgewählten Spurlinie (4.1), sodass das Fahrzeug (1) autonom der ausgewählten Spurlinie (4.1) folgt.A method for the autonomous operation of a vehicle (1), the method comprising the steps: - generating a detection of the surroundings of the vehicle (1) by a sensor unit (9), Recognition of several lane lines (4.1, 4.2) in the environment detection by means of a processor unit (6), - selecting a lane line (4.1) from the several lane lines (4.1, 4.2) by means of the processor unit (6), and - controlling the vehicle (1) by means of the processor unit (6) based on the selected track line (4.1), so that the vehicle (1) autonomously follows the selected track line (4.1). Computerprogrammprodukt (10) zum autonomen Betrieb eines Fahrzeugs (1), wobei das Computerprogrammprodukt (10), wenn es auf einer Prozessoreinheit (6) ausgeführt wird, die Prozessoreinheit (6) anleitet, - mittels einer Schnittstelle (8) auf eine von einer Sensoreinheit (9) generierte Umfelderfassung des Fahrzeugs (1) zuzugreifen, - mehrere Spurlinien (4.1, 4.2) in der Umfelderfassung zu erkennen, - eine Spurlinie (4.1) aus den mehreren Spurlinien (4.1, 4.2) auszuwählen, und - das Fahrzeug (1) basierend auf der ausgewählten Spurlinie (4.1) derart zu steuern, dass das Fahrzeug (1) autonom der ausgewählten Spurlinie (4.1) folgt.Computer program product (10) for the autonomous operation of a vehicle (1), the computer program product (10) instructing the processor unit (6) when it is executed on a processor unit (6), - to use an interface (8) to access a detection of the surroundings of the vehicle (1) generated by a sensor unit (9), - Recognize several track lines (4.1, 4.2) in the detection of the surroundings, - select a track line (4.1) from the several track lines (4.1, 4.2), and - To control the vehicle (1) based on the selected track line (4.1) in such a way that the vehicle (1) autonomously follows the selected track line (4.1). Fahrzeug (1) umfassend eine Prozessoreinheit (6) nach einem der Ansprüche 1 bis 7 oder ein Fahrerassistenzsystem (5) nach einem der Ansprüche 8 bis 11.Vehicle (1) comprising a processor unit (6) according to one of the Claims 1 to 7th or a driver assistance system (5) according to one of the Claims 8 to 11 .
DE102019203247.8A 2019-03-11 2019-03-11 Vision-based steering assistance system for land vehicles Pending DE102019203247A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102019203247.8A DE102019203247A1 (en) 2019-03-11 2019-03-11 Vision-based steering assistance system for land vehicles
PCT/EP2020/055651 WO2020182564A1 (en) 2019-03-11 2020-03-04 Vision-based steering assistance system for land vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019203247.8A DE102019203247A1 (en) 2019-03-11 2019-03-11 Vision-based steering assistance system for land vehicles

Publications (1)

Publication Number Publication Date
DE102019203247A1 true DE102019203247A1 (en) 2020-09-17

Family

ID=69845334

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019203247.8A Pending DE102019203247A1 (en) 2019-03-11 2019-03-11 Vision-based steering assistance system for land vehicles

Country Status (2)

Country Link
DE (1) DE102019203247A1 (en)
WO (1) WO2020182564A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112319468A (en) * 2020-11-12 2021-02-05 上海伯镭智能科技有限公司 Driverless lane keeping method for maintaining road shoulder distance
DE102022117447A1 (en) 2022-07-13 2024-01-18 Claas Selbstfahrende Erntemaschinen Gmbh Method for processing a field with a photovoltaic system standing on the field
EP4331332A1 (en) * 2022-08-25 2024-03-06 CLAAS Selbstfahrende Erntemaschinen GmbH System for determining a crop edge and self-propelled harvester

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220350991A1 (en) * 2021-04-30 2022-11-03 Deere & Company Vision guidance system using dynamic edge detection
CN113673438A (en) * 2021-08-23 2021-11-19 上海商汤临港智能科技有限公司 Collision early warning method and device, electronic equipment and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19743884C2 (en) * 1997-10-04 2003-10-09 Claas Selbstfahr Erntemasch Device and method for the contactless detection of processing limits or corresponding guide variables
DE102006055858A1 (en) * 2006-11-27 2008-05-29 Carl Zeiss Ag Method and arrangement for controlling a vehicle
DE102017117148A1 (en) * 2017-07-28 2019-01-31 RobArt GmbH MAGNETOMETER FOR ROBOT NAVIGATION

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6385515B1 (en) * 2000-06-15 2002-05-07 Case Corporation Trajectory path planner for a vision guidance system
EP2798928B1 (en) * 2013-04-29 2024-02-07 CLAAS E-Systems GmbH Operating system for and method of operating an automatic guidance system of an agricultural vehicle
DE102016118227A1 (en) * 2016-09-27 2018-03-29 Claas Selbstfahrende Erntemaschinen Gmbh Image analysis system for agricultural machines
US10455755B2 (en) * 2017-08-31 2019-10-29 Cnh Industrial America Llc System and method for strip till implement guidance monitoring and adjustment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19743884C2 (en) * 1997-10-04 2003-10-09 Claas Selbstfahr Erntemasch Device and method for the contactless detection of processing limits or corresponding guide variables
DE102006055858A1 (en) * 2006-11-27 2008-05-29 Carl Zeiss Ag Method and arrangement for controlling a vehicle
DE102017117148A1 (en) * 2017-07-28 2019-01-31 RobArt GmbH MAGNETOMETER FOR ROBOT NAVIGATION

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112319468A (en) * 2020-11-12 2021-02-05 上海伯镭智能科技有限公司 Driverless lane keeping method for maintaining road shoulder distance
DE102022117447A1 (en) 2022-07-13 2024-01-18 Claas Selbstfahrende Erntemaschinen Gmbh Method for processing a field with a photovoltaic system standing on the field
EP4331332A1 (en) * 2022-08-25 2024-03-06 CLAAS Selbstfahrende Erntemaschinen GmbH System for determining a crop edge and self-propelled harvester

Also Published As

Publication number Publication date
WO2020182564A1 (en) 2020-09-17

Similar Documents

Publication Publication Date Title
EP3666050B1 (en) Agricultural system
DE102019203247A1 (en) Vision-based steering assistance system for land vehicles
EP3299996B1 (en) Agricultural machines with image processing system
DE69814847T2 (en) AGRICULTURAL HARVEST WITH ROBOT CONTROL
DE10250694B3 (en) Agricultural vehicle control method provides automatic travel and field end management by detection, storage and controlled alteration of vehicle operating parameters
DE102016212623A1 (en) UAV-based sensing for workflows in a workspace
DE102008015277A1 (en) Method and device for steering a second agricultural machine, which is steerable over a field relative to a first agricultural machine
EP1769662A1 (en) Agricultural working unit with a working device for creating a row of objects
DE102016209437A1 (en) Automatic steering system for guiding an agricultural vehicle over a field and corresponding method
EP3783529A1 (en) Safety system and method for operating a mobile agricultural working machine
DE102019111317A1 (en) Autonomous agricultural work machine and method of operating it
DE102019201914A1 (en) Trajectory determination for agricultural machinery using raster maps
DE102019006720A1 (en) Autonomous operation of a vehicle
EP4220530A1 (en) Method for supporting classification of environmental data of an agricultural working machine
EP4085741A1 (en) Steering method for an agricultural machine
EP4064819B1 (en) Method for treating plants in a field, for generating training data and for training a neural network
WO2020165063A1 (en) Method for operating an automated vehicle
DE102019201977A1 (en) Method for determining a condition of a crop planting and agricultural vehicle
EP4064818B1 (en) Method for treating plants in a field
EP4331332A1 (en) System for determining a crop edge and self-propelled harvester
EP4272531A1 (en) Self-propelled agricultural working machine
EP3732950A1 (en) Method for operating a self-propelled agricultural working machine
EP4270281A1 (en) Swarm assistance system for planning and controlling the use of at least one autonomous agricultural universal working machine
EP4268561A1 (en) Agricultural machine combination and machine for the same
DE102021125360A1 (en) Device and method for determining a steering specification for an agricultural machine

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed