DE102019201297B4 - Autonomer Betrieb eines Fahrzeugs innerhalb eines sicheren Arbeitsbereichs - Google Patents

Autonomer Betrieb eines Fahrzeugs innerhalb eines sicheren Arbeitsbereichs Download PDF

Info

Publication number
DE102019201297B4
DE102019201297B4 DE102019201297.3A DE102019201297A DE102019201297B4 DE 102019201297 B4 DE102019201297 B4 DE 102019201297B4 DE 102019201297 A DE102019201297 A DE 102019201297A DE 102019201297 B4 DE102019201297 B4 DE 102019201297B4
Authority
DE
Germany
Prior art keywords
vehicle
work area
processor unit
surroundings
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102019201297.3A
Other languages
English (en)
Other versions
DE102019201297A1 (de
Inventor
Michael Amann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102019201297.3A priority Critical patent/DE102019201297B4/de
Priority to CN202080012245.XA priority patent/CN113382905A/zh
Priority to PCT/EP2020/052441 priority patent/WO2020157282A2/de
Priority to US17/427,141 priority patent/US20220095525A1/en
Publication of DE102019201297A1 publication Critical patent/DE102019201297A1/de
Application granted granted Critical
Publication of DE102019201297B4 publication Critical patent/DE102019201297B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B69/00Steering of agricultural machines or implements; Guiding agricultural machines or implements on a desired track
    • A01B69/007Steering or guiding of agricultural vehicles, e.g. steering of the tractor to keep the plough in the furrow
    • A01B69/008Steering or guiding of agricultural vehicles, e.g. steering of the tractor to keep the plough in the furrow automatic
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B69/00Steering of agricultural machines or implements; Guiding agricultural machines or implements on a desired track
    • A01B69/003Steering or guiding of machines or implements pushed or pulled by or mounted on agricultural vehicles such as tractors, e.g. by lateral shifting of the towing connection
    • A01B69/004Steering or guiding of machines or implements pushed or pulled by or mounted on agricultural vehicles such as tractors, e.g. by lateral shifting of the towing connection automatic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q5/00Arrangement or adaptation of acoustic signal devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0011Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/005Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with signals other than visual, e.g. acoustic, haptic
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0055Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
    • G05D1/0077Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements using redundant signals or controls
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Soil Sciences (AREA)
  • Environmental Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Prozessoreinheit (4) zum autonomen Betrieb eines Fahrzeugs (1) innerhalb eines sicheren Arbeitsbereichs, wobei die Prozessoreinheit (4) eine Schnittstelle (6) umfasst, wobei die Prozessoreinheit (4) dazu eingerichtet ist,- mittels der Schnittstelle (6) auf eine von einem Modul (3) zur Positionsbestimmung durch eine globale Lokalisierung bestimmte Position eines Fahrzeugs (1) zuzugreifen,- mittels der Schnittstelle (6) auf eine von einer Sensoreinheit (7) generierte Umfelderfassung des Fahrzeugs (1) zuzugreifen,- das Fahrzeug (1) basierend auf der durch die globale Lokalisierung bestimmten Position des Fahrzeugs (1) und basierend auf der von der Sensoreinheit (7) generierten Umfelderfassung des Fahrzeugs (1) zu steuern- in einem ersten Prüfungsschritt zu prüfen, ob sich die durch das Modul (3) zur Positionsbestimmung bestimmte Position innerhalb eines Arbeitsbereichs (2) befindet, wobei der Arbeitsbereich (2) als ein sicherer autonomer Arbeitsbereich des Fahrzeugs (1) vordefiniert ist,- in einem zweiten Prüfungsschritt zu prüfen, ob die Umfelderfassung wenigstens ein potentielles Kollisionsobjekt (12, 16) abbildet, und- das Fahrzeug (1) basierend auf den Ergebnissen der beiden Prüfungsschritte zu steuern, sodass eine Kollision mit dem potentiellen Kollisionsobjekt (12, 16) vermieden wird.

Description

  • Die Erfindung betrifft eine Prozessoreinheit, ein System, ein Verfahren und ein Computerprogrammprodukt zum autonomen Betrieb eines Fahrzeugs innerhalb eines sicheren Arbeitsbereichs.
  • Einschlägige Normen (z.B. ISO 18497) fordern für autonom fahrende Maschinen, insbesondere zur landwirtschaftlichen Nutzung, eine Kollisionsvermeidung, welche auf der Maschine vorzusehen ist und die Maschine bei einer drohenden Kollision in den sicheren Zustand, meistens in den Stillstand, überführen soll. Diese Maßnahme verhindert jedoch nicht ein ungewolltes Verlassen eines autonomen Arbeitsbereichs, innerhalb welchem die Maschine operiert und autonom fährt. Somit könnte es zu Kollisionen mit anderen Verkehrsteilnehmern kommen, welche in die unerwartet auftauchende Maschine fahren könnten.
  • Unter aktuellen rechtlichen Randbedingungen ist der Betrieb einer autonom fahrenden Arbeitsmaschine nur in abgesperrten Bereichen erlaubt, wobei die bauliche Art und Weise der Absperrung nicht geklärt ist und es somit nicht sichergestellt ist, dass die Absperrung die Maschine beim ungewollten Verlassen aufhalten würde. Es sind Verfahren zur Definition eines virtuellen Zauns („Geo-Fencing“) bekannt. Dabei wird typischerweise ein globales Navigationssatellitensystem (im Englischen: Global Navigation Satellite System; kurz: GNSS) eingesetzt. GNSS ist ein System zur Positionsbestimmung und Navigation auf der Erde und in der Luft durch den Empfang der Signale insbesondere von Navigationssatelliten. GNSS wird mit einer Karte (DTM) kombiniert, um einen sicheren Arbeitsbereich (Im Englischen: Autonomous Operating Zone, kurz: AOZ) zu definieren, innerhalb welchem die Maschine operieren und autonom fahren darf.
  • GNSS hat unter anderem die Probleme der Genauigkeit (ohne zusätzliche Maßnahmen), der Verfügbarkeit (Verschattung) und der leichten Angriffsfähigkeit (Spoofing).
  • Die Druckschrift DE 20 2007 008 557 U1 offenbart ein System zum automatischen Bewegen von Material in einem Arbeitsbereich mit mindestens einem verfahrbaren Arbeitsgerät. Das System weist eine Steuerung zum automatischen Verfahren des Arbeitsgeräts mit einer automatischen Erkennung von Hindernissen auf. Die Steuerung weist eine erste Hindernisbearbeitungsfunktion auf, die ein Hindernis mit dem verfahrbaren Arbeitsgerät automatisch im Arbeitsbereich bewegt. Eine zweite Hindernisbearbeitungsfunktion dient dazu, das Hindernis mit dem verfahrbaren Arbeitsgerät automatisch aus dem Arbeitsbereich zu entfernen.
  • Eine Aufgabe der vorliegenden Erfindung kann darin gesehen werden, eine robuste und sichere Überwachung eines autonomen Arbeitsbereichs bereitzustellen.
  • Die Aufgabe wird gelöst durch die Gegenstände der unabhängigen Patentansprüche. Vorteilhafte Ausführungsformen sind Gegenstand der Unteransprüche, der folgenden Beschreibung sowie der Figuren.
  • Gemäß der vorliegenden Erfindung wird ein Ansatz zur Problemlösung vorgeschlagen, gemäß welchem eine globale Lokalisierung und eine lokale Lokalisierung eines Fahrzeugs bzw. einer Maschine miteinander kombiniert werden. Durch diese kombinierte Lokalisierung wird ermöglicht, dass sowohl auf globaler als auch auf lokaler Ebene überwacht werden kann, dass sich das Fahrzeug innerhalb eines sicheren autonomen Arbeitsbereichs befindet, und falls dies nicht oder in absehbarer Zeit nicht länger der Fall sein sollte, geeignete Warn- oder Gegenmaßnahmen eingeleitet werden können.
  • In diesem Sinne wird gemäß einem ersten Aspekt der Erfindung eine Prozessoreinheit zum autonomen Betrieb eines Fahrzeugs innerhalb eines sicheren Arbeitsbereichs bereitgestellt. Die Prozessoreinheit umfasst eine Schnittstelle, über welche die Prozessoreinheit auf eine von einem Modul zur Positionsbestimmung durch eine globale Lokalisierung bestimmte Position eines Fahrzeugs und auf eine von einer Sensoreinheit generierte Umfelderfassung des Fahrzeugs zugreifen kann. Die Schnittstelle ist eine Kommunikations-Schnittstelle, welche den Austausch von Daten ermöglicht, und zwar einen Austausch von Daten zwischen der Prozessoreinheit einerseits und dem Modul zur Bestimmung der Position des Fahrzeugs sowie der Sensoreinheit andererseits. Die Prozessoreinheit ist weiterhin dazu eingerichtet, das Fahrzeug basierend auf der durch die globale Lokalisierung bestimmten Position des Fahrzeugs und basierend auf der von der Sensoreinheit generierten Umfelderfassung des Fahrzeugs zu steuern.
  • Gemäß einem zweiten Aspekt der Erfindung wird analog ein System zum autonomen Betrieb eines Fahrzeugs innerhalb eines sicheren Arbeitsbereichs vorgeschlagen. Das System umfasst ein Modul zur Positionsbestimmung eines Fahrzeugs, eine Sensoreinheit zur Erfassung eines Umfelds des Fahrzeugs und eine Prozessoreinheit. Das Modul zur Positionsbestimmung ist dazu eingerichtet, eine Position eines Fahrzeugs mittels einer globalen Lokalisierung zu bestimmen, und die Sensoreinheit ist dazu eingerichtet, eine Umfelderfassung des Fahrzeugs zu generieren. Weiterhin ist die Prozessoreinheit dazu eingerichtet, das Fahrzeug basierend auf der durch die globale Lokalisierung bestimmten Position des Fahrzeugs und basierend auf der von der Sensoreinheit generierten Umfelderfassung des Fahrzeugs zu steuern.
  • Gemäß einem dritten Aspekt der Erfindung wird ein entsprechendes Verfahren zum autonomen Betrieb eines Fahrzeugs, z. B. eines Offroad-Fahrzeugs, innerhalb eines sicheren Arbeitsbereichs vorgeschlagen. Das Verfahren kann die folgenden Schritte umfassen:
    • - Bestimmen einer Position eines Fahrzeugs mittels einer globalen Lokalisierung durch ein Modul zur Positionsbestimmung,
    • - Generieren einer Umfelderfassung des Fahrzeugs durch eine Sensoreinheit,
    • - Steuern des Fahrzeugs mittels einer Prozessoreinheit basierend auf der durch die globale Lokalisierung bestimmten Position des Fahrzeugs und basierend auf der von der Sensoreinheit generierten Umfelderfassung des Fahrzeugs.
  • Gemäß einem vierten Aspekt der Erfindung wird ein Fahrzeug bereitgestellt, insbesondere ein Offroad-Fahrzeug. Das Fahrzeug kann eine Prozessoreinheit gemäß dem ersten Aspekt der Erfindung umfassen. Alternativ oder zusätzlich kann das Fahrzeug ein System gemäß dem zweiten Aspekt der Erfindung umfassen.
  • Die folgenden Ausführungen gelten gleichermaßen für die Prozessoreinheit gemäß dem ersten Aspekt der Erfindung, für das System gemäß dem zweiten Aspekt der Erfindung, für das Verfahren gemäß dem dritten Aspekt der Erfindung, und für das Fahrzeug gemäß dem fünften Aspekt der Erfindung.
  • Das Fahrzeug kann mittels der Prozessoreinheit gesteuert werden. Unter „gesteuert“ oder „steuern“ kann verstanden werden, dass das Fahrzeug autonom betrieben werden kann, d.h. es kann z. B. automatisch gelenkt, beschleunigt und abgebremst werden, einschließlich aller dazu notwendigen Steuerungen insbesondere des Antriebsstrangs, der Lenkung und Signalgebung des Fahrzeugs.
  • Bei dem Fahrzeug kann es sich um ein Offroad-Fahrzeug handeln. Unter einem Offroad-Fahrzeug kann ein Fahrzeug verstanden werden, dessen primäres Einsatzgebiet nicht eine Straße ist (wie dies z.B. bei Personenkraftfahrwagen, Bussen oder Lastkraftfahrwagen der Fall ist), sondern beispielsweise eine landwirtschaftliche Nutzfläche, z.B. ein zu bestehendes Feld oder ein Waldgebiet, oder ein Bergbaugebiet (z. B. Tagebau), oder eine industrielle Nutzfläche, z.B. innerhalb einer Fertigungsstätte oder einer Lagerhalle. Beispielsweise kann das Offroad-Fahrzeug ein landwirtschaftliches Nutzfahrzeug wie Mähdrescher oder Traktor sein. Weiterhin kann es sich bei dem Fahrzeug um ein Flurförderzeug handeln, z.B. um einen Gabelstapler oder um einen Schlepper.
  • Die Prozessoreinheit kann in ein Fahrerassistenzsystem des Fahrzeugs integriert sein oder mit dem Fahrerassistenzsystem kommunikativ verbunden sein. Die Prozessoreinheit kann dazu eingerichtet sein, einzuleiten, dass das Fahrzeug in einen sicheren Zustand verführt wird, wenn sich die durch das Modul zur Positionsbestimmung bestimmte Position nicht innerhalb des als sicher vordefinierten Arbeitsbereichs befindet. Unter „einzuleiten“ kann in diesem Zusammenhang verstanden werden, dass die Prozessoreinheit einen Befehl an ein Fahrerassistenzsystem des Fahrzeugs übermittelt, sodass das Fahrerassistenzsystem das Fahrzeug in den sicheren Zustand überführt. Beispielsweise kann das Fahrerassistenzsystem das Fahrzeug beim Überführen in den sicheren Zustand zum Stillstand bringen.
  • Die Sensoreinheit ist dazu eingerichtet, ein lokales Umfeld des Fahrzeugs zu erfassen. Die dabei entstehenden Aufnahmen bzw. Frames ergeben die Umfelderfassung. So kann es sich bei der Umfelderfassung beispielsweise um Bilder handeln, wenn als Sensor eine Kamera oder ein Kamerasystem eingesetzt wird. Weiterhin kann es sich bei der Umfelderfassung um Frames handeln, wenn beispielsweise ein Radar oder ein Lidar eingesetzt wird. Die Aufnahmen, z. B. die Bilder oder Frames, decken jeweils einen begrenzten Bereich um das Fahrzeug herum ab. Dies ist mit dem Merkmal „lokal“ gemeint. Das lokale Umfeld des Fahrzeugs ist somit ein begrenzter Bereich, welcher sich außen um das Fahrzeug herum erstreckt. Das lokale Umfeld des Fahrzeugs befindet sich vorzugsweise innerhalb des Arbeitsbereichs. Mit anderen Worten kann das lokale Umfeld ein Unterbereich des Arbeitsbereichs sein.
  • Die Reichweite bzw. Erstreckung des lokalen Umfelds kann je nach verwendetem Sensortyp abweichen und ggfs. eingestellt werden. Das im Rahmen der vorliegenden Anmeldung offenbarte Sensorsystem ist dazu eingerichtet, derart an dem Fahrzeug angeordnet zu werden, z. B. befestigt zu werden, dass es das lokale Umfeld des Fahrzeugs erfassen kann. Der Bereich der Umgebung, welchen der betreffende Sensor dabei erfasst, kann auch als sogenanntes „Field of View“ bezeichnet werden. Dieser Bereich kann je nach verwendetem Sensor eindimensional, zweidimensional oder dreidimensional sein. Es ist möglich, dass der durch den Sensor erfassbare Bereich einen Teil der Umgebung des Fahrzeugs erfassen kann, z.B. einen Sektor im Vorausbereich, im seitlichen Bereich oder im Hinterausbereich des Fahrzeugs. Weiterhin kann der betreffende Sensor auch dazu eingerichtet sein, die vollständige Umgebung des Fahrzeugs zu erfassen, z.B. beim Einsatz sogenannter Surround View Systeme.
  • Das lokale Umfeld des Fahrzeugs kann unterteilt werden. Beispielsweise kann ein bestimmter Sensor der Sensoreinheit einen bestimmten Bereich um das Fahrzeug herum erfassen. Dieser Erfassungsbereich des Sensors kann beispielsweise aufgeteilt werden in einen inneren Bereich („sicherer lokaler Arbeitsbereich“), der sich näher an dem Fahrzeug befindet, und in einen äußeren Bereich, der sich weiter entfernt von dem Fahrzeug befindet. Je nachdem, innerhalb welches Bereichs ein potentielles Kollisionsobjekt durch die Sensoreinheit erfasst und durch die Prozessoreinheit aus der entsprechenden Umfelderfassung extrahiert worden ist, können geeignete Gegenmaßnahmen eingeleitet werden, um eine Kollision mit dem erkannten potentiellen Kollisionsobjekt zu vermeiden. Wenn beispielsweise ein Baum innerhalb des äußeren Bereichs erfasst und extrahiert worden ist, so kann die Prozessoreinheit beispielsweise veranlassen, dass die Geschwindigkeit des Fahrzeugs lediglich leicht verringert wird, da sich der Baum noch relativ weit weg von dem Fahrzeug befindet. Wenn der Baum allerdings innerhalb des inneren Bereichs erfasst und extrahiert worden ist, so kann die Prozessoreinheit beispielsweise veranlassen, dass die Geschwindigkeit des Fahrzeugs sehr stark verringert wird oder das Fahrzeug gestoppt wird, da sich der Baum in diesem Fall relativ nahe an dem Fahrzeug befindet.
  • Unter einem „sicheren Arbeitsbereich“ kann ein Arbeitsbereich verstanden werden, innerhalb welchem das Fahrzeug autonom operieren kann, wobei eine Kollision des Fahrzeugs mit einem Objekt, insbesondere mit einem anderen Fahrzeug, einem Gegenstand oder mit einem Menschen oder Tier, mit hoher Wahrscheinlichkeit ausgeschlossen werden kann. Mit anderen Worten befindet sich innerhalb des als sicher definierten Arbeitsbereichs mit hoher Wahrscheinlichkeit kein Objekt, welches mit dem Fahrzeug kollidieren könnte. Der Arbeitsbereich kann ein statischer Bereich sein, d.h. dieser Bereich ist örtlich unveränderlich. Beispielsweise kann der Bereich ein Feld oder einen Teil eines Felds abdecken. Das Feld oder der Teil des Felds kann dazu bestimmt werden, von dem Fahrzeug landwirtschaftlich bearbeitet zu werden. Beispielsweise kann das Fahrzeug Mittel aufweisen, die es dazu befähigen, eine bestimmte Operation innerhalb des Arbeitsbereichs durchzuführen, z.B. Boden auf dem Feld zu pflügen oder Getreide abzuernten.
  • Das durch die Sensoreinheit erfasste lokale Umfeld des Fahrzeugs befindet sich innerhalb des Arbeitsbereichs. Das lokale Umfeld kann somit ein Teilbereich des Arbeitsbereichs sein. Das lokale Umfeld kann von einer Position des Fahrzeugs abhängig sein. Je nachdem auf welcher Position sich das Fahrzeug gerade befindet, ändert sich das lokale Umfeld bzw. das Field of View, und die Sensoreinheit wird andere Merkmale erfassen und/oder bereits zuvor erfasste Merkmale auf unterschiedlicher relativer Position zu dem Fahrzeug erfassen.
  • Die Prozessoreinheit ist dazu eingerichtet, die Umfelderfassung auszuwerten. Die Umfelderfassung kann beispielsweise eine Aufnahme des lokalen Umfelds des Fahrzeugs sein. Beispielsweise ist die Prozessoreinheit dazu eingerichtet, aus Aufnahmen oder Frames, die durch die Sensoreinheit generiert worden sind, Objekte zu extrahieren. Beispielsweise kann die Prozessoreinheit ein Bild einer Kamera der Sensoreinheit auswerten, und dabei feststellen, ob das Bild ein potentielles Kollisionsobjekt abbildet, d.h. beinhaltet oder darstellt.
  • Befindet sich das Fahrzeug beispielsweise zu einem ersten Zeitpunkt auf einer ersten Fahrzeug-Position, dann kann die Sensoreinheit beispielsweise einen Baum auf einer ersten Baum-Position relativ zu der ersten Fahrzeug-Position erfassen. Wenn sich das Fahrzeug nunmehr weiterbewegt, befindet es sich zu einem zweiten Zeitpunkt auf einer zweiten Fahrzeug-Position, die von der ersten Fahrzeug-Position abweicht, und von der zweiten Fahrzeug-Position aus wird ein anderes Umfeld des Fahrzeugs erfasst als aus der ersten Fahrzeugposition heraus. Von dieser zweiten Fahrzeug-Position aus wird das Fahrzeug den zuvor erfassten Baum entweder gar nicht mehr oder aber in einer zweiten Baum-Position relativ zu der zweiten Fahrzeug-Position erfassen, wobei die zweite Baum-Position von der ersten Baum-Position abweicht. Weiterhin kann das Fahrzeug von der zweiten Position aus beispielsweise ein weiteres Merkmal erfassen, z.B. eine Hecke, die es aus der ersten Position heraus noch nicht erfassen konnte, beispielsweise weil sich die Hecke zuvor nicht im Field of View des Fahrzeugs befunden hat.
  • Erfindungsgemäß ist die Prozessoreinheit dazu eingerichtet, in einem ersten Prüfungsschritt zu prüfen, ob sich die durch das Modul zur Positionsbestimmung bestimmte Position innerhalb eines Arbeitsbereichs befindet, wobei der Arbeitsbereich als ein sicherer autonomer Arbeitsbereich des Fahrzeugs vordefiniert ist. Weiterhin ist die Prozessoreinheit in dieser Ausführungsform dazu eingerichtet, in einem zweiten Prüfungsschritt zu prüfen, ob die Umfelderfassung wenigstens ein potentielles Kollisionsobjekt abbildet und das Fahrzeug basierend auf den Ergebnissen der beiden Prüfungsschritte zu steuern.
  • Die Steuerung des Fahrzeugs basierend auf den beiden Prüfungsschritten kann beinhalten, dass eingeleitet wird, dass das Fahrzeug in einen sicheren Zustand überführt wird, wenn in dem ersten Prüfungsschritt festgestellt wird, dass sich die durch das Modul zur Positionsbestimmung bestimmte Position außerhalb des Arbeitsbereichs befindet. Die Überführung in den sicheren Zustand kann alternativ oder zusätzlich auch eingeleitet werden, wenn in dem zweiten Prüfungsschritt festgestellt wird, dass die Umfelderfassung wenigstens ein potentielles Kollisionsobjekt abbildet. Ein potentielles Kollisionsobjekt kann ein Gegenstand (ortsfest oder beweglich, z.B. ein Baum oder ein anderes Fahrzeug), ein Mensch oder ein Tier sein, dass sich innerhalb des erfassten lokalen Umfelds des Fahrzeugs befindet.
  • Gemäß der vorliegenden Erfindung wird somit eine Steuerung des Fahrzeugs basierend auf einer zweistufigen Überwachung vorgeschlagen. Im Rahmen einer ersten Überwachung wird basierend auf Daten des Moduls zur Positionsbestimmung des Fahrzeugs überprüft, ob sich das Fahrzeug innerhalb eines sicher vordefinierten Arbeitsbereichs befindet, innerhalb dessen ein autonomer Betrieb des Fahrzeugs vorgesehen und erlaubt ist. Im Rahmen einer zweiten Überprüfung wird basierend auf Daten des Sensorsystems ein Unterbereich oder Weg innerhalb des Arbeitsbereichs ermittelt, innerhalb welchem das Fahrzeug operieren kann, d.h. sowohl autonom verfahren als auch seiner eigentlichen Aufgabe nachgehen kann, z.B. pflügen, ernten oder säen.
  • Durch die Einbeziehung der Umfelderfassung ist die Überwachung des Fahrzeugs besonders sicher und robust. Falls die globale Lokalisierung ausfallen oder ungenaue Ergebnisse liefern sollte, kann durch die Überprüfung der Umfelderfassung ein potentielles Kollisionsobjekt ermittelt werden, das sich innerhalb oder außerhalb des Arbeitsbereichs befinden kann, und es können geeignete Gegenmaßnahmen ergriffen werden, um eine Kollision zu vermeiden. Selbst wenn das Fahrzeug somit autonom fahrend aus seinem als sicher vordefinierten Arbeitsbereich austreten sollte, wird eine Kollision potentieller Kollisionsobjekte mit dem Fahrzeug außerhalb des Arbeitsbereichs vermieden. Wenn das Fahrzeug innerhalb des Arbeitsbereichs autonom fährt, kann die Umfelderfassung dazu beitragen, das Fahrzeug besonders sicher unter Vermeidung von Schäden an Umwelt, Fahrzeug und Lebewesen autonom zu steuern.
  • Die globale Lokalisierung kann das Ergebnis liefern, dass sich das Fahrzeug innerhalb des als sicher definierten Arbeitsbereichs befindet, und dass daher eine Kollision mit einem Objekt unwahrscheinlich ist. Wenn sich dennoch potentielle Kollisionsobjekte innerhalb des Arbeitsbereichs befinden, kann eine Kollision mit diesen Objekten durch die globale Lokalisierung allein nicht ausgeschlossen werden. Die im Folgenden beschriebene Ausführungsform setzt hier an und ermöglicht, potentielle Kollisionsobjekte innerhalb des als sicher definierten Arbeitsbereichs zu erkennen und geeignete Gegenmaßnahmen zur Kollisionsvermeidung einzuleiten. In diesem Sinne ist einer Ausführungsform die Prozessoreinheit dazu eingerichtet das Fahrzeug in einen sicheren Zustand zu überführen und/oder die Geschwindigkeit des Fahrzeugs zu reduzieren und/oder eine optische oder akustische Warnung zu geben, sofern die folgenden zwei Bedingungen gleichzeitig erfüllt sind, nämlich wenn sich erstens die durch das Modul zur Positionsbestimmung bestimmte Position innerhalb des als sicher vordefinierten Arbeitsbereichs befindet, und wenn zweitens die Umfelderfassung wenigstens ein potentielles Kollisionsobjekt abbildet.
  • Dieser Fall kann beispielsweise auftreten, wenn das Fahrzeug innerhalb des vorgesehenen Arbeitsbereichs normal operiert und/oder autonom fährt, und wenn innerhalb des als sicher vordefinierten Arbeitsbereichs Objekte durch die Sensoreinheit erkannt werden, mit denen eine Kollision zu vermeiden ist, z.B. mit einem Gegenstand oder mit einer Pflanze wie einer Baumreihe, aber auch beispielsweise mit einer Person oder mit einem Tier, die sich innerhalb des Arbeitsbereichs befinden. Diese Ausführungsform leistet einen Beitrag, die Sicherheit innerhalb des Arbeitsbereiches zu erhöhen, wenn das Fahrzeug darin autonom fährt, indem beispielsweise dessen Geschwindigkeit reduziert wird oder Personen bzw. Tiere, die sich innerhalb des Arbeitsbereiches befinden, vor dem Fahrzeug gewarnt werden.
  • Die optische oder akustische Warnung kann z. B. an das lokale Umfeld des Fahrzeugs abgegeben werden, z.B. durch eine Hupe, ein Signalhorn, einen Lautsprecher oder durch eine Leuchteinrichtung des Fahrzeugs. Die optische oder akustische Warnung kann durch Personen und Tiere wahrgenommen werden, die sich in der Nähe des Fahrzeugs befinden. Auf diese Weise können Personen in der Nähe vor dem autonom fahrenden Fahrzeug gewarnt und Kollisionen vermieden werden.
  • Im besten Falle können die beschriebenen Prüfungsschritte das Ergebnis liefern, dass sich das Fahrzeug innerhalb des als sicher vordefinierten Arbeitsbereichs befindet, und dass sich weiterhin in dem lokalen Umfeld des Fahrzeugs keine potentiellen Kollisionsobjekte befinden. In diesem Falle soll das Fahrzeug möglichst ohne Einschränkungen operieren und autonom fahren können. In diesem Sinne ist gemäß einer weiteren Ausführungsform vorgesehen, dass die Prozessoreinheit dazu eingerichtet ist, zu erlauben, dass das Fahrzeug ohne Einschränkungen autonom betrieben wird, wenn sich erstens die durch das Modul zur Positionsbestimmung bestimmte Position innerhalb des als sicher vordefinierten Arbeitsbereichs befindet, und wenn zweitens die Umfelderfassung kein potentielles Kollisionsobjekt abbildet. Unter „ohne Einschränkungen“ kann in diesem Zusammenhang verstanden werden, dass das Fahrzeug ohne Geschwindigkeitsbeschränkung innerhalb des ersten Arbeitsbereichs innerhalb des zweiten Arbeitsbereichs autonom verfahren werden kann.
  • Gemäß einer weiteren Ausführungsform ist vorgesehen, dass die Prozessoreinheit dazu eingerichtet ist, einen äußeren Randstreifen innerhalb des als sicher definierten Arbeitsbereichs zu definieren. Wenn sich das Fahrzeug innerhalb dieses Randstreifens befindet, was z.B. mittels GPS-Lokalisierung im Rahmen des ersten Prüfungsschritts festgestellt werden kann, so ist die Prozessoreinheit weiterhin dazu eingerichtet eine optische oder akustische Warnung (wie vorstehend beschrieben) einzuleiten. Auf diese Weise können Personen und Tiere, die sich außerhalb des als sicher definierten Arbeitsbereichs befinden, vor dem Fahrzeug gewarnt werden, das sich zwar noch innerhalb des Arbeitsbereichs befindet, diesen jedoch unter Umständen zeitnah verlassen wird, da es sich bereits innerhalb des äußeren Randstreifens des als sicher definierten Arbeitsbereichs befindet. Diese Ausführungsform leistet einen Beitrag, eine Kollision des Fahrzeugs mit Personen und Tieren, die sich in der Nähe aber trotzdem noch außerhalb des Arbeitsbereichs befinden, zu vermeiden.
  • In einer Ausführungsform ist das Modul zur Positionsbestimmung dazu eingerichtet, die Positionsbestimmung des Fahrzeugs mittels eines globalen Navigationssatellitensystems durchzuführen. Ein globales Navigationssatellitensystem (im Englischen: Global Navigation Satellite System; kurz: GNSS) ist ein System zur Positionsbestimmung und Navigation auf der Erde und in der Luft durch den Empfang der Signale insbesondere von Navigationssatelliten. Beispiele für globale Navigationssatellitensysteme sind NAVSTAR GPS oder Galileo.
  • Weiterhin kann das Modul zur Positionsbestimmung dazu eingerichtet sein, die Positionsbestimmung des Fahrzeugs mittels eines Verfahrens zur gleichzeitigen Lokalisierung und Kartierung durchzuführen. Es sind Algorithmen zur gleichzeitigen Lokalisierung und Kartierung bekannt. In der Fachsprache wird typischerweise der englischsprachige Begriff „Simultaneous Localization And Mapping“ (oder abgekürzt: „SLAM“) verwendet. SLAM-Algorithmen konzentrieren sich zumeist auf Daten, die von einem Sensor erfasst werden. Die Algorithmen können auf Scans eines Sensor-Frames angewendet werden, um einzelne Punkte zu extrahieren. Die einzelnen Punkte können in folgenden Scans wiedererkannt werden. Eine Translation und eine Rotation dieser einzelnen Punkte zwischen aufeinanderfolgenden Sensor-Frames kann verwendet werden, um eine Ego-Bewegung eines Fahrzeugs zu berechnen und um eine Merkmals-Karte zu erstellen. Weiterhin kann eine Wiedererkennung von bekannten Merkmalskombinationen genutzt werden, um innerhalb einer zuvor erstellten Karte eine Lokalisierung des Fahrzeugs durchzuführen.
  • Zum Beispiel können mittels der Sensoreinheit zur Erfassung des Umfelds des Fahrzeugs Merkmale aus der lokalen Umgebung des Fahrzeugs extrahiert sowie zur Lokalisierung und Kartierung im Rahmen eines SLAM-Verfahrens genutzt werden. Beispielsweise können signifikante Marken in der lokalen Umgebung des Fahrzeugs herangezogen werden (d.h. insbesondere aus Sensorframes extrahiert werden), z.B. Masten und Türme. Alternativ oder zusätzlich können eigens für die Durchführung des SLAM-Verfahrens installierte Marken am Feldrand herangezogen werden. Ferner können bildgebende Verfahren genutzt werden, um z.B. eine Grenze eines Feldes zu ermitteln, z.B. in Abgrenzung zu anderen angrenzenden Feldern oder Wegen.
  • Die Sensoreinheit zur Erfassung des Umfelds des Fahrzeugs kann wenigstens einen der folgenden Sensoren umfassen, nämlich einen Bildverarbeitungs-Sensor, z. B. eine Kamera, einen Radar-Sensor, einen Laser-basierter Sensor und ein Odometer.
  • Der Bildverarbeitungs-Sensor (z.B. eine Kamera), kann mittels bekannter Methoden der Bildverarbeitung und Bildauswertung dazu eingerichtet sein, Bilder des Umgebungsbereichs aufzunehmen, und in den Bildern Merkmale zu erkennen.
  • Der Radar-basierte Sensor kann dazu eingerichtet sein, in dem erfassten Umfeld des Fahrzeugs Merkmale zu erkennen. Der Radar-basierte Sensor kann beispielsweise Abstände zu Objekten innerhalb des erfassten Umfelds messen. Weiterhin kann der Radar-basierte Sensor beispielsweise auch Azimut-Werte, Höhen-Werte (Elevation), Intensitäts-Werte und Radialgeschwindigkeits-Werte messen. Ein entsprechender Messzyklus, in dem der Radar-basierte Sensor das Umfeld des Fahrzeugs erfasst bzw. auf die beschriebene Art vermessen hat, kann dabei als ein „Frame“ bezeichnet werden. Der Radar-basierte Sensor kann das Umfeld somit N-dimensional abtasten bzw. erfassen, wodurch Punktewolken generiert werden können. Aus erfassten Punktewolken kann der Radar-basierte Sensor Merkmale extrahieren. Die Punktewolke kann entsprechend mehrere Dimensionen umfassen (N-dimensionale Punktewolke), wenn man beispielsweise auch Intensitäten und Radialgeschwindigkeiten beachtet.
  • Der Laser-basierter Sensor (z.B. ein Lidar-Sensor) kann dazu eingerichtet sein, in dem erfassten Umfeld des Fahrzeugs Merkmale zu erkennen. Der Laser-basierte Sensor kann beispielsweise innerhalb des erfassten Umfelds Intensitäten in einer x-Richtung, in einer y-Richtung und in einer z-Richtung eines kartesischen Koordinatensystems des Laser-basierten Sensors messen. Ein entsprechender Messzyklus, in dem der Laser-basierte Sensor das Umfeld erfasst bzw. auf die beschriebene Art vermessen hat, kann dabei als ein „Frame“ bezeichnet werden. Der Laser-basierte Sensor kann das Umfeld N-dimensional abtasten bzw. erfassen, wodurch Punktewolken generiert werden können. Aus erfassten Punktewolken kann der Laser-basierte Sensor Merkmale extrahieren. Die Punktewolke kann entsprechend mehrere Dimensionen umfassen (N-dimensionale Punktewolke).
  • Das Odometer ermöglicht eine relative Positionsermittlung des Fahrzeugs. Das Odometer kann dazu eingerichtet sein, Umdrehungen von Rädern des Fahrzeugs zwischen zwei Messzeitpunkten zu zählen und über einen bekannten Radius der Räder des Fahrzeugs eine Distanz zu ermitteln, welche das Fahrzeug zwischen den Messzeitpunkten zurückgelegt hat. Insbesondere kann das Odometer dazu eingerichtet sein, über unterschiedliche Drehzahlen der Räder des Fahrzeugs und/oder über einen Lenkeinschlag von Rädern des Fahrzeugs eine Bewegungsrichtung des Fahrzeugs zu ermitteln. Ferner können auch von einer Inertial Measurement Unit (IMU) generierte Werte oder Fahrzeugdaten wie z.B. Geschwindigkeit oder Gierrate ebenso zur Bestimmung der Pose und der Bewegung des Fahrzeugs hinzugezogen werden. Bei Kraftfahrzeugen kann ein Odometer in Form eines Kilometerzählers eingesetzt werden, welcher typischerweise auf Messgrößen aus dem Fahrwerk zugreifen kann, insbesondere auf gemessene Radumdrehungen und Lenkdaten wie Radlenkwinkel oder Lenkradwinkel.
  • Die Sensoreinheit kann dazu eingerichtet sein, wenigstens eines der folgenden Merkmale in dem Umfeld des Fahrzeugs zu erfassen, nämlich eine Fahrspur, eine Pflanzreihe, eine Baumreihe und eine Arbeitsweg. Die Fahrspur kann sich in einem Feld befinden und beispielsweise durch ein vorheriges Sähen hervorgerufen worden sein. Pflanzreihen sind Reihen des betreffenden angebauten Produkts, z.B. Mais oder Weinreben. Baumreihen sind beispielsweise auf Obstbaumplantagen, z.B. Apfelplantagen, anzutreffen. Arbeitswege findet man beispielsweise im Bergbau.
  • Im Folgenden werden Ausführungsbeispiele der Erfindung anhand der schematischen Zeichnung näher erläutert, wobei gleiche oder ähnliche Elemente mit dem gleichen Bezugszeichen versehen sind. Hierbei zeigt
    • 1 eine Draufsicht auf einen Arbeitsbereich, innerhalb welchem ein Fahrzeug autonom fahren darf,
    • 2 eine Draufsicht auf einen Fahrweg, auf welchem das Fahrzeug nach 1 fahren darf,
    • 3 eine überlagerte Draufsicht des Arbeitsbereichs nach 1 und des Fahrwegs nach 2,
    • 4 eine Draufsicht auf einen alternativen Arbeitsweg, auf welchem das Fahrzeug nach 1 fahren darf,
    • 5 eine überlagerte Draufsicht des Arbeitsbereichs nach 1 und des Arbeitsweges nach 4 und
    • 6 ein Ablaufschema eines Verfahrens zur Steuerung des Fahrzeugs nach 1.
  • 1 zeigt eine landwirtschaftliche Nutzmaschine. Bei der Maschine kann es sich beispielsweise um eine landwirtschaftliche Nutzmaschine handeln, z.B. um einen Mähdrescher. Die Maschine kann autonom betrieben werden. Dies bedeutet, die Maschine kann - ohne einen Insassen, der sie steuert, oder ohne einen Bediener, der die Maschine fernsteuert - insbesondere ihrer Hauptfunktion nachgehen, z.B. Getreide zu ernten, und weiterhin autonom fahren. Im Folgenden wird eine solche Maschine mit dem Begriff „Fahrzeug“ bezeichnet und in der Zeichnung mit dem Bezugszeichen „1“ versehen.
  • Das Fahrzeug 1 umfasst ein System 18 zum autonomen Betrieb des Fahrzeugs 1 innerhalb eines sicheren Arbeitsbereichs. Das System 18 umfasst in dem gezeigten Ausführungsbeispiel ein GPS-Modul 3 als ein Modul zur Bestimmung der Position des Fahrzeugs 1. Weiterhin kann das System 18 eine Prozessoreinheit 4, eine Speichereinheit 5, eine Kommunikations-Schnittstelle 6 und eine Sensoreinheit 7 umfassen. Auf der Speichereinheit 5 kann ein Computerprogrammprodukt 8 gespeichert sein. Das Computerprogrammprodukt 8 leitet, wenn es auf der Prozessoreinheit 4 ausgeführt wird, die Prozessoreinheit 4 an, die im Folgenden beschriebenen Funktionen bzw. Verfahrensschritte auszuführen.
  • Das Fahrzeug 1 soll in einem als sicher vordefinierten Arbeitsbereich 2 (Autonomous Operating Zone, kurz: AOZ) autonom betrieben werden. Außerhalb des Arbeitsbereichs 2 (z.B. um den Arbeitsbereich 2 herum) befindet sich ein nicht-autonomes Gebiet 9, innerhalb welchem sich z. B. Personen, Tiere und andere Fahrzeuge befinden können, die nicht damit rechnen, dass das Fahrzeug 1 sich autonom fahrend in das Gebiet 9 begibt. Es soll vermieden werden, dass sich das Fahrzeug 1 autonom aus dem als sicher vordefinierten Arbeitsbereich 2 heraus bewegt und autonom in das nicht-autonome Gebiet 9 einfährt. Der Arbeitsbereich 2 ist in einer Karte hinterlegt (z.B. in einem Navigationssystem des Fahrzeugs 1), auf welche die Prozessoreinheit 4 zugreifen kann.
  • In einem ersten Schritt 100 wird eine globale Lokalisierung des Fahrzeugs 1 durchgeführt. In dem Schritt 100 kann die globale Lokalisierung mittels verschiedener Verfahren erfolgen, z.B. mittels GNSS. Dies kann mittels des GPS-Moduls 3 erfolgen. Das GPS-Modul 3 kann mittels GNSS fortlaufend eine Position des Fahrzeugs 1 bestimmen. Die Prozessoreinheit 4 kann über die Kommunikations-Schnittstelle 6 auf diese Positionen zugreifen. Die Positionen können mittels der Prozessoreinheit 4 mit dem Arbeitsbereich 2 verglichen werden, der in der Karte hinterlegt ist (siehe Schritt 300 weiter unten). Alternativ kann auch ein SLAM-Verfahren zur Bestimmung der Position des Fahrzeugs 1 genutzt werden, wobei in diesem Fall ein Abgleich mit einer internen Karte (mit globalen Koordinaten) erfolgen kann. Zur Durchführung des SLAM-Verfahrens können signifikante Marken in der Umgebung des Fahrzeugs 1 mittels der Sensoreinheit 5 erfasst und extrahiert werden, z.B. Masten und Türme. Alternativ können auch eigens dafür installierte Marken (z.B. an einem Feldrand) herangezogen werden. Ferner können bildgebende Verfahren genutzt werden, um beispielsweise die Grenze eines Feldes zu ermitteln, z.B. zu anderen angrenzenden Feldern oder Wegen.
  • In einem zweiten Schritt 200 wird mittels der Sensoreinheit 7 eine lokale Lokalisierung durchgeführt (2 und 4). Die Schritte 100 und 200 können parallel (wie durch 6 gezeigt) oder nacheinander ablaufen. Während des Schritts 200 erfasst die Sensoreinheit 7 Merkmale innerhalb eines lokalen Umfelds 10 des Fahrzeugs 1. Dazu kann die Sensoreinheit 7 beispielsweise eine Kamera, einen Lidar-Sensor, einen Radar-Sensor oder ein Odometrie-Gerät umfassen. Beispielsweise kann die Sensoreinheit 7 ein Surround View System mit mehreren Kameras umfassen, die ein Field of View im zweistelligen Meter-Bereich erfassen können. Die Kommunikations-Schnittstelle 6 kann auf die von der Sensoreinheit 7 in dem lokalen Umfeld 10 des Fahrzeugs 1 erfassten Merkmale zugreifen. Die lokale Lokalisierung basiert auf lokalen Merkmalen in dem lokalen Umfeld 10 des Fahrzeugs 1.
  • 2 zeigt diesbezüglich ein erstes Beispiel mit vier Baumreihen 11, die jeweils mehrere Bäume 12 umfassen (in 2 ist lediglich ein Baum exemplarisch mit einem Bezugszeichen „12“ versehen). Die Sensoreinheit 7 hat das Umfeld 10 des Fahrzeugs 1 erfasst. Aus einer entsprechenden Umfelderfassung (z.B. aus einem Bild der Kamera der Sensoreinheit 7) können die Bäume 12 der Baumreihen 11 extrahiert werden. Das Extrahieren kann beispielsweise durch die Prozessoreinheit 4 des Fahrzeugs 1 erfolgen. Alternativ kann die Sensoreinheit 7 eine weitere Prozessoreinheit umfassen, welche das Extrahieren ausführen kann.
  • Die Sensoreinheit 7 kann auch eine Fahrspur 13 erfassen. Auf der Fahrspur befinden sich keine potentiellen Kollisionsobjekte. Auf der Fahrspur 13 kann das Fahrzeug 1 somit kollisionsfrei autonom fahren. Eine Kollision mit den Bäumen 12 der Baumreihen 11 soll vermieden werden, um Schäden an dem Fahrzeug 1 und an den Bäumen 12 zu vermeiden. Die Prozessoreinheit 4 kann im Schritt 200 prüfen, ob sich innerhalb des erfassten Umfelds 10 potentielle Kollisionsobjekte (z.B. die Bäume 12) befinden. Wenn die Prozessoreinheit 4 feststellt, dass sich innerhalb des erfassten Umfelds 10 des Fahrzeugs 1 z.B. die Bäume 12 befinden, kann sie das Fahrzeug 1 in einem Schritt 300 dazu veranlassen, beispielsweise langsamer zu fahren oder sogar zum Stillstand zu kommen. Weiterhin kann die Prozessoreinheit 4 durch geeignete Auswertungen der Umfelderfassung feststellen, wie weit ein potentielles Kollisionsobjekt (z.B. ein Baum 12) von dem Fahrzeug 1 entfernt ist, und der ermittelten Entfernung entsprechend geeignete Maßnahmen einleiten. Beispielsweise kann die Steuerungseinheit 7 veranlassen, das Fahrzeug 1 stark abzubremsen, wenn ein Baum 12 besonders nahe an dem Fahrzeug 1 detektiert worden ist. Andererseits kann die Prozessoreinheit 4 veranlassen, dass das Fahrzeug 1 beispielsweise lediglich leicht abgebremst wird, wenn erkannt worden ist, dass sich der Baum 12 relativ weit weg von dem Fahrzeug 1 innerhalb des erkannten Umfelds 10 des Fahrzeugs 1 befindet.
  • Weiterhin kann im Schritt 200 ein Bereich 14, welcher sich innerhalb des lokalen Umfelds 10 und innerhalb der erkannten Fahrspur 13 befindet, durch die Prozessoreinheit 4 als ein sicherer lokaler Arbeitsbereich definiert werden. Innerhalb des sicheren lokalen Arbeitsbereichs 14 darf das Fahrzeug 1 fahren, vorzugsweise ohne Reduzierung der Geschwindigkeit des Fahrzeugs 1. Der Bereich des lokalen Umfelds 10 hingegen, innerhalb welchem sich die erkannten Bäume 12 befinden, werden nicht als ein sicherer Arbeitsbereich definiert. Der lokale Arbeitsbereich 14 kann sich beispielsweise in der durch 4 gezeigten Position des Fahrzeugs 1 wenige Meter um das Fahrzeug 1 herum erstrecken. Der lokale Arbeitsbereich 14 ist nicht statisch, sondern bewegt sich mit einer Bewegung des Fahrzeugs 1.
  • 4 zeigt ein weiteres Beispiel mit einem Arbeitsweg 15, wie er typischerweise im Bergbau (Tagebau) anzutreffen ist. Der Arbeitsweg 15 wird von der Sensoreinheit 7 erfasst. Der Arbeitsweg 15 kann beispielsweise als sicherer Arbeitsbereich vordefiniert sein. Die Sensoreinheit 7 kann auch Objekte abseits des Arbeitswegs 15 erfassen, z.B. Felswände 16, die sich beispielsweise senkrecht und seitlich entlang des Arbeitsweges 15 erstrecken können. Eine Kollision mit den Felswänden 16 soll vermieden werden, um Schäden an dem Fahrzeug 1 und an den Felswänden 16 zu vermeiden. Um dies zu ermöglichen, kann im Schritt 200 ein Bereich 14, welcher sich innerhalb des erkannten Arbeitswegs 15 befindet, durch die Prozessoreinheit 4 als ein sicherer Arbeitsbereich definiert werden. Innerhalb des Arbeitsbereichs 14 darf das Fahrzeug 1 fahren. Der Bereich hingegen, innerhalb welchem sich die erkannten Felswände 16 befinden, werden nicht als ein sicherer Arbeitsbereich definiert. Der sichere Arbeitsbereich 14 kann sich beispielsweise in der durch 4 gezeigten Position des Fahrzeugs 1m um das Fahrzeug 1 herum erstrecken. Der sichere Arbeitsbereich 14 ist nicht statisch, sondern bewegt sich mit einer Bewegung des Fahrzeugs 1 mit.
  • In einem dritten Schritt 300 wird basierend auf der globalen Lokalisierung (Schritt 100) und basierend auf der lokalen Lokalisierung (Schritt 200) eine lokale und globale AOZ-Überwachung durchgeführt. So kann die globale Lokalisierung des Fahrzeugs 1 (Ist-Position des Fahrzeugs 1) mit einer vorher definierten Karte mit erlaubten Positionen (Sollbereich) verglichen werden. Dieser Sollbereich stellt den als sicher vordefinierten Arbeitsbereich 2 dar („globaler Arbeitsbereich“). Befindet sich das Fahrzeug 1 an einem Randstreifen bzw. Randbereich 17 des globalen Arbeitsbereichs 2 und versucht den globalen Arbeitsbereich 2 ungewollt zu verlassen, so kann das Fahrzeug 1 in einen definierten sicheren Zustand überführt werden.
  • Im dem dritten Schritt 300 werden die Ergebnisse der Schritte 100 und 200 überlagert, was eine kombinierte Überwachung ermöglicht. 3 zeigt die Überlagerung der globalen Lokalisierung nach 1 mit der lokalen Lokalisierung nach 2. Entsprechend zeigt 5 die Überlagerung der globalen Lokalisierung nach 1 mit der lokalen Lokalisierung nach 4.
  • Durch die Kombination ergeben sich nun beispielsweise drei Bereiche bzw. Optionen, wie das Fahrzeug 1 autonom fahren bzw. autonom gesteuert werden kann:
    1. 1. Die Überlagerung von lokaler AOZ und globaler AOZ ergibt, dass sich das Fahrzeug 1 innerhalb des globalen Arbeitsbereichs 2 befindet, und dass sich kein potentielles Kollisionsobjekt 12, 14 innerhalb des lokalen Arbeitsbereichs 14 befindet. Dieser Fall ist durch 3 und 5 dargestellt. In diesem Fall kann autonomes Fahren stets zugelassen werden. Die Prozessoreinheit 4 muss keine Gegenmaßnahmen (z.B. Reduzieren der Geschwindigkeit oder Stoppen des Fahrzeugs 1) einleiten, um eine Kollision zu verhindern.
    2. 2. Die Überlagerung von lokaler VZ und globaler AO Z ergibt, dass sich das Fahrzeug 1 innerhalb des globalen Arbeitsbereichs 2 befindet. Allerdings ist festgestellt worden, dass sich ein potentielles Kollisionsobjekt 12, 14 innerhalb des lokalen Umfelds 10 des Fahrzeugs 1 befindet. Dieses potentielle Kollisionsobjekt 12, 14 kann sich beispielsweise innerhalb des lokalen Arbeitsbereichs 14 befinden, oder aber auch weiter weg von dem Fahrzeug 1, wie dies beispielsweise durch 2 gezeigt ist (gemäß 2 befinden sich die Bäume 12 innerhalb des lokalen Umfelds 10 des Fahrzeugs 1). In diesem Fall kann die Prozessoreinheit 4 veranlassen, dass sich das Fahrzeug 1 in einen sicheren Zustand begibt. Alternativ kann die Prozessoreinheit 4 auch veranlassen, dass eine Geschwindigkeitsreduktion des Fahrzeugs 1 aktiviert wird, oder aber, dass eine optische oder eine akustische Warnung aktiviert wird.
    3. 3. Die Überlagerung von lokaler AOZ und globaler AOZ ergibt, dass sich das Fahrzeug 1 nicht innerhalb des globalen Arbeitsbereichs 2 befindet, und dass darüber hinaus ein potentielles Kollisionsobjekt 12, 14 innerhalb des lokalen Umfelds 10 des Fahrzeugs 1 festgestellt worden ist. Dieses potentielle Kollisionsobjekt 12, 14 kann sich beispielsweise innerhalb des lokalen Arbeitsbereichs 14 befinden, oder aber auch weiter weg von dem Fahrzeug 1, wie beispielsweise durch 2 gezeigt ist, gemäß welcher sich die Bäume 12 innerhalb des lokalen Umfelds 10 des Fahrzeugs 1 befinden. In diesem Fall kann die Prozessoreinheit 4 veranlassen, dass sich das Fahrzeug 1 unmittelbar in einen sicheren Zustand begibt, d.h. dass das Fahrzeug 1 vorzugsweise sofort zum Stillstand gebracht wird.
  • Bezugszeichenliste
  • 1
    Fahrzeug
    2
    globaler Arbeitsbereich des Fahrzeugs
    3
    GPS-Modul
    4
    Prozessoreinheit
    5
    Speichereinheit
    6
    Kommunikationsschnittstelle
    7
    Sensoreinheit
    8
    Computerprogrammprodukt
    9
    nicht-autonomes Gebiet
    10
    lokales Umfeld des Fahrzeugs
    11
    Baumreihe
    12
    Baum
    13
    Fahrspur
    14
    lokaler Arbeitsbereich des Fahrzeugs
    15
    Arbeitsweg
    16
    Felswand
    17
    Randbereich des globalen Arbeitsbereichs
    18
    System zum autonomen Betrieb des Fahrzeugs
    100
    Verfahrensschritt
    200
    Verfahrensschritt
    300
    Verfahrensschritt

Claims (12)

  1. Prozessoreinheit (4) zum autonomen Betrieb eines Fahrzeugs (1) innerhalb eines sicheren Arbeitsbereichs, wobei die Prozessoreinheit (4) eine Schnittstelle (6) umfasst, wobei die Prozessoreinheit (4) dazu eingerichtet ist, - mittels der Schnittstelle (6) auf eine von einem Modul (3) zur Positionsbestimmung durch eine globale Lokalisierung bestimmte Position eines Fahrzeugs (1) zuzugreifen, - mittels der Schnittstelle (6) auf eine von einer Sensoreinheit (7) generierte Umfelderfassung des Fahrzeugs (1) zuzugreifen, - das Fahrzeug (1) basierend auf der durch die globale Lokalisierung bestimmten Position des Fahrzeugs (1) und basierend auf der von der Sensoreinheit (7) generierten Umfelderfassung des Fahrzeugs (1) zu steuern - in einem ersten Prüfungsschritt zu prüfen, ob sich die durch das Modul (3) zur Positionsbestimmung bestimmte Position innerhalb eines Arbeitsbereichs (2) befindet, wobei der Arbeitsbereich (2) als ein sicherer autonomer Arbeitsbereich des Fahrzeugs (1) vordefiniert ist, - in einem zweiten Prüfungsschritt zu prüfen, ob die Umfelderfassung wenigstens ein potentielles Kollisionsobjekt (12, 16) abbildet, und - das Fahrzeug (1) basierend auf den Ergebnissen der beiden Prüfungsschritte zu steuern, sodass eine Kollision mit dem potentiellen Kollisionsobjekt (12, 16) vermieden wird.
  2. Prozessoreinheit (4) nach Anspruch 1, wobei die Prozessoreinheit (4) dazu eingerichtet ist, wenigstens eine der folgenden Maßnahmen einzuleiten, nämlich - das Fahrzeug (1) in einen sicheren Zustand zu überführen, - die Geschwindigkeit des Fahrzeugs (1) zu reduzieren und - eine optische oder akustische Warnung zu geben, wenn - sich die durch das Modul (3) zur Positionsbestimmung bestimmte Position innerhalb des Arbeitsbereichs (2) befindet, und - die Umfelderfassung wenigstens ein potentielles Kollisionsobjekt (12, 16) abbildet.
  3. Prozessoreinheit (4) nach Anspruch 1 oder 2, wobei die Prozessoreinheit (4) dazu eingerichtet ist, zu erlauben, dass das Fahrzeug (1) ohne Einschränkungen autonom betrieben wird, wenn sich die durch das Modul (3) zur Positionsbestimmung bestimmte Position innerhalb des Arbeitsbereichs (2) befindet, und wenn die Umfelderfassung kein potentielles Kollisionsobjekt (12, 16) abbildet.
  4. Prozessoreinheit (4) nach einem der Ansprüche 1 bis 3, wobei die Prozessoreinheit (4) dazu eingerichtet ist, einen äußeren Randstreifen (17) des Arbeitsbereichs (2) zu definieren, und eine optische oder akustische Warnung einzuleiten, wenn sich das Fahrzeug (1) innerhalb des Randstreifens (17) befindet.
  5. System (18) zum autonomen Betrieb eines Fahrzeugs (1) innerhalb eines sicheren Arbeitsbereichs, das System (18) umfassend - ein Modul (3) zur Positionsbestimmung eines Fahrzeugs (1), - eine Sensoreinheit (7) zur Erfassung eines Umfelds (10) des Fahrzeugs (1) und - eine Prozessoreinheit (4) nach einem der Ansprüche 1 bis 4, wobei - das Modul (3) zur Positionsbestimmung dazu eingerichtet, eine Position eines Fahrzeugs (1) mittels einer globalen Lokalisierung zu bestimmen, - die Sensoreinheit (7) dazu eingerichtet ist, eine Umfelderfassung des Fahrzeugs (1) zu generieren, und wobei die Prozessoreinheit (4) dazu eingerichtet ist, - das Fahrzeug (1) basierend auf der durch die globale Lokalisierung bestimmten Position des Fahrzeugs (1) und basierend auf der von der Sensoreinheit (7) generierten Umfelderfassung des Fahrzeugs (1) zu steuern, - in einem ersten Prüfungsschritt zu prüfen, ob sich eine durch das Modul (3) zur Positionsbestimmung bestimmte Position innerhalb eines Arbeitsbereichs (2) befindet, wobei der Arbeitsbereich (2) als ein sicherer Arbeitsbereich des Fahrzeugs (1) vordefiniert ist, - in einem zweiten Prüfungsschritt zu prüfen, ob eine durch die Sensoreinheit (7) generierte Umfelderfassung des Fahrzeugs (1) wenigstens ein potentielles Kollisionsobjekt (12, 16) abbildet, und - das Fahrzeug (1) basierend auf den Ergebnissen der beiden Prüfungsschritte zu steuern, sodass eine Kollision mit dem potentiellen Kollisionsobjekt (12, 16) vermieden wird.
  6. System (18) nach Anspruch 5, wobei das Modul (3) zur Positionsbestimmung dazu eingerichtet ist, die Position des Fahrzeugs (1) mittels eines globalen Navigationssatellitensystems zu bestimmen.
  7. System (18) nach einem der Ansprüche 5 oder 6, wobei das Modul (3) zur Positionsbestimmung dazu eingerichtet ist, die Position des Fahrzeugs (1) mittels eines Verfahrens zur gleichzeitigen Lokalisierung und Kartierung durchzuführen.
  8. System (18) nach einem der Ansprüche 5 bis 7, wobei die Sensoreinheit (7) zur Erfassung des Umfelds (10) des Fahrzeugs (1) wenigstens einen der folgenden Sensoren umfasst, nämlich - einen Bildverarbeitungs-Sensor, - einen Radar-Sensor, - einen Laser-basierten Sensor und - ein Odometer.
  9. System (18) nach einem der Ansprüche 5 bis 8, wobei die Sensoreinheit (7) dazu eingerichtet ist, wenigstens eines der folgenden Merkmale in dem Umfeld (10) des Fahrzeugs zu erfassen, nämlich - eine Fahrspur (13), - eine Pflanzreihe, - eine Baumreihe (11) und - eine Arbeitsweg (15).
  10. Verfahren zum autonomen Betrieb eines Fahrzeugs (1) innerhalb eines sicheren Arbeitsbereichs, das Verfahren umfassend die Schritte: - Bestimmen einer Position eines Fahrzeugs (1) mittels einer globalen Lokalisierung durch ein Modul (3) zur Positionsbestimmung, - Generieren einer Umfelderfassung des Fahrzeugs (1) durch eine Sensoreinheit (7), - Steuern des Fahrzeugs (1) mittels einer Prozessoreinheit (4) basierend auf der durch die globale Lokalisierung bestimmten Position des Fahrzeugs (1) und basierend auf der von der Sensoreinheit (7) generierten Umfelderfassung des Fahrzeugs (1), wobei die Prozessoreinheit (4) nach einem der Ansprüche 1 bis 4 ausgeformt ist, wobei - in einem ersten Prüfungsschritt geprüft wird, ob sich die durch das Modul (3) zur Positionsbestimmung bestimmte Position innerhalb eines Arbeitsbereichs (2) befindet, wobei der Arbeitsbereich (2) als ein sicherer autonomer Arbeitsbereich des Fahrzeugs (1) vordefiniert ist, - in einem zweiten Prüfungsschritt geprüft wird, ob die Umfelderfassung wenigstens ein potentielles Kollisionsobjekt (12, 16) abbildet, und - das Fahrzeug (1) basierend auf den Ergebnissen der beiden Prüfungsschritte gesteuert wird, sodass eine Kollision mit dem potentiellen Kollisionsobjekt (12, 16) vermieden wird.
  11. Computerprogrammprodukt (8), wobei das Computerprogrammprodukt (8), wenn es auf einer Prozessoreinheit (4) nach einem der Ansprüche 1 bis 4 ausgeführt wird, die Prozessoreinheit (4) anleitet, - mittels einer Schnittstelle (6) auf eine von einem Modul (3) zur Positionsbestimmung durch eine globale Lokalisierung bestimmte Position eines Fahrzeugs (1) zuzugreifen, - mittels der Schnittstelle (6) auf wenigstens eine von einer Sensoreinheit (7) generierte Umfelderfassung des Fahrzeugs (1) zuzugreifen, - in einem ersten Prüfungsschritt zu prüfen, ob sich die durch das Modul (3) zur Positionsbestimmung bestimmte Position innerhalb eines Arbeitsbereichs (2) befindet, wobei der Arbeitsbereich (2) als ein sicherer autonomer Arbeitsbereich des Fahrzeugs (1) vordefiniert ist, - in einem zweiten Prüfungsschritt zu prüfen, ob die Umfelderfassung wenigstens ein potentielles Kollisionsobjekt (12, 16) abbildet, und - das Fahrzeug (1) basierend auf den Ergebnissen der beiden Prüfungsschritte zu steuern, und - das Fahrzeug (1) basierend auf den Ergebnissen der beiden Prüfungsschritte zu steuern, sodass eine Kollision mit dem potentiellen Kollisionsobjekt (12, 16) vermieden wird.
  12. Fahrzeug (1), das Fahrzeug (1) umfassend eine Prozessoreinheit (4) nach einem der Ansprüche 1 bis 4 und/oder ein System (18) nach einem der Ansprüche 5 bis 9.
DE102019201297.3A 2019-02-01 2019-02-01 Autonomer Betrieb eines Fahrzeugs innerhalb eines sicheren Arbeitsbereichs Active DE102019201297B4 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102019201297.3A DE102019201297B4 (de) 2019-02-01 2019-02-01 Autonomer Betrieb eines Fahrzeugs innerhalb eines sicheren Arbeitsbereichs
CN202080012245.XA CN113382905A (zh) 2019-02-01 2020-01-31 在安全的工作区域内自主操作车辆
PCT/EP2020/052441 WO2020157282A2 (de) 2019-02-01 2020-01-31 Autonomer betrieb eines fahrzeugs innerhalb eines sicheren arbeitsbereichs
US17/427,141 US20220095525A1 (en) 2019-02-01 2020-01-31 Autonomous operation of a vehicle within a safe working region

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019201297.3A DE102019201297B4 (de) 2019-02-01 2019-02-01 Autonomer Betrieb eines Fahrzeugs innerhalb eines sicheren Arbeitsbereichs

Publications (2)

Publication Number Publication Date
DE102019201297A1 DE102019201297A1 (de) 2020-08-06
DE102019201297B4 true DE102019201297B4 (de) 2021-03-18

Family

ID=69528781

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019201297.3A Active DE102019201297B4 (de) 2019-02-01 2019-02-01 Autonomer Betrieb eines Fahrzeugs innerhalb eines sicheren Arbeitsbereichs

Country Status (4)

Country Link
US (1) US20220095525A1 (de)
CN (1) CN113382905A (de)
DE (1) DE102019201297B4 (de)
WO (1) WO2020157282A2 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11898331B2 (en) * 2020-12-02 2024-02-13 Caterpillar Sarl System and method for detecting objects within a working area

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202007008557U1 (de) * 2007-06-19 2008-10-30 Liebherr-Werk Bischofshofen Ges.M.B.H. System zum automatischen Bewegen von Material

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES1036074Y (es) * 1997-01-09 1997-12-01 Jorge Fierro Antonio Luis Dispositivo avisador de salida de vehiculos automoviles de garajes y similares.
US7451030B2 (en) * 2005-02-04 2008-11-11 Novariant, Inc. System and method for interactive selection and determination of agricultural vehicle guide paths offset from each other with varying curvature along their length
US8755966B2 (en) * 2012-04-03 2014-06-17 Caterpillar Inc. System and method for controlling autonomous machine within lane boundaries during position uncertainty
CN102902272A (zh) * 2012-10-24 2013-01-30 吴菊芳 一种割草机器人定位控制方法及使用该方法的系统
CN103823464A (zh) * 2012-11-16 2014-05-28 苏州宝时得电动工具有限公司 自驱动移动装置
CN103891463A (zh) * 2012-12-28 2014-07-02 苏州宝时得电动工具有限公司 自动割草系统
KR20200039817A (ko) * 2014-03-28 2020-04-16 얀마 가부시키가이샤 자율 주행 작업 차량
CN105094126A (zh) * 2014-05-22 2015-11-25 苏州宝时得电动工具有限公司 户外自走机器人系统
US9708793B2 (en) * 2015-03-11 2017-07-18 Kubota Corporation Work vehicle and running control apparatus causing automatic running of work vehicle
EP3156873B2 (de) * 2015-10-15 2023-04-05 Honda Research Institute Europe GmbH Autonomes fahrzeug mit verbesserter simultaner ortung und kartierungsfunktion
DE102015222414A1 (de) * 2015-11-13 2017-05-18 Robert Bosch Gmbh Autonomes Arbeitsgerät
KR102113414B1 (ko) * 2016-03-07 2020-05-20 얀마 가부시키가이샤 경로 생성 장치
CN107449434B (zh) * 2016-05-31 2020-10-16 法拉第未来公司 使用定位估计误差界限进行安全车辆导航
JP6701002B2 (ja) * 2016-06-23 2020-05-27 株式会社クボタ 走行支援システム及び作業車
KR20180071598A (ko) * 2016-12-20 2018-06-28 주식회사 포스코 중장비 위치 추적 시스템
EP3571561B1 (de) * 2017-01-19 2022-03-02 Husqvarna AB Verbesserte arbeitsablaufplanung für einen roboterrasenmäher
US10212400B2 (en) * 2017-05-01 2019-02-19 Cnh Industrial America Llc Systems of acquiring image data for an autonomous work vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202007008557U1 (de) * 2007-06-19 2008-10-30 Liebherr-Werk Bischofshofen Ges.M.B.H. System zum automatischen Bewegen von Material

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Norm DIN EN ISO 18497 2016-10-00. Landwirtschaftliche Maschinen und Traktoren - Sicherheit hochautomatisierter Maschinen (ISO/DIS 18497.2:2016); Deutsche und Englische Fassung prEN ISO 18497:2016. S. 1-50. *

Also Published As

Publication number Publication date
DE102019201297A1 (de) 2020-08-06
US20220095525A1 (en) 2022-03-31
CN113382905A (zh) 2021-09-10
WO2020157282A3 (de) 2020-11-12
WO2020157282A2 (de) 2020-08-06

Similar Documents

Publication Publication Date Title
EP3510463B1 (de) Sensoranordnung für ein autonom betriebenes nutzfahrzeug und ein verfahren zur rundumbilderfassung
EP3253634B1 (de) Verarbeiten von sensordaten für ein fahrerassistenzsystem
EP3260357B1 (de) Fahrzeug mit rangiersystem
EP2580097B1 (de) Verfahren zum unterstützen eines fahrers eines kraftfahrzeugs beim einparken in eine parklücke, fahrerassistenzeinrichtung und kraftfahrzeug
DE102013200132B4 (de) Fahrspurhaltesystem für ein Fahrzeug
DE102016115371A1 (de) Verfahren und vorrichtung zur meidung von rückwärtigem querverkehr
DE19947766A1 (de) Einrichtung zur Überwachung der Umgebung eines einparkenden Fahrzeugs
DE102018219564A1 (de) Fahrzeug und verfahren zum steuern desselben
DE102019202026A1 (de) Verfahren und Steuereinrichtung zur Fahrzeugkollisionsvermeidung
DE102020123087A1 (de) System zur vermeidung seitlichen streifens bei anhängern
DE102019134594A1 (de) Anhänger- und fahrzeugkollisionserfassung und -reaktion während eines automatischen koppelungsmanövers
DE102017108254B4 (de) Rundumsichtkamerasystem zur Objekterkennung und -verfolgung und Verfahren zum Ausstatten eines Fahrzeugs mit einem Rundumsichtkamerasystem
DE102005042989B3 (de) Verfahren zur Erkennung eines bevorstehenden Unfalls aufgrund eines Schleudervorgangs bei einem vorausfahrenden Fahrzeug
EP3395632B1 (de) Automatisches und kollaboratives fahrerloses transportsystem
DE102011077333A1 (de) Fahrerassistenzsystem mit Objektdetektion
DE10151982A1 (de) Optoelektronische Erfassungseinrichtung
EP3283343A1 (de) OBJEKTVERFOLGUNG VOR UND WÄHREND EINES ZUSAMMENSTOßES
DE102019201297B4 (de) Autonomer Betrieb eines Fahrzeugs innerhalb eines sicheren Arbeitsbereichs
DE102014006547A1 (de) Fahrerassistenzsystem für ein Kraftfahrzeug und Verfahren zum Ausgeben einer Warnung
DE102018212366A1 (de) Fahrzeugsteuergerät und verfahren
DE102019111317A1 (de) Autonome landwirtschaftliche Arbeitsmaschine und Verfahren zu deren Betrieb
DE102021210006B3 (de) Verfahren und Steuereinrichtung zum Steuern eines Fahrzeugs
DE102016109850B4 (de) Verfahren zum Erkennen einer Neigung in einer Fahrbahn eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
EP3456681A1 (de) Flurförderzeug, insbesondere schlepperfahrzeug
WO2019137864A1 (de) Verfahren zum verhindern einer kritischen situation für ein kraftfahrzeug, wobei ein abstand zwischen einer kraftfahrzeugkontur und einer objektkontur bestimmt wird, fahrerassistenzsystem sowie kraftfahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final