DE102022208646A1 - Method for detecting obstacles on uneven surfaces - Google Patents

Method for detecting obstacles on uneven surfaces Download PDF

Info

Publication number
DE102022208646A1
DE102022208646A1 DE102022208646.5A DE102022208646A DE102022208646A1 DE 102022208646 A1 DE102022208646 A1 DE 102022208646A1 DE 102022208646 A DE102022208646 A DE 102022208646A DE 102022208646 A1 DE102022208646 A1 DE 102022208646A1
Authority
DE
Germany
Prior art keywords
offset
vehicle
signature
area
sensor data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022208646.5A
Other languages
German (de)
Inventor
Andreas HEINZLER
Stefan Traub
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102022208646.5A priority Critical patent/DE102022208646A1/en
Priority to PCT/EP2023/070280 priority patent/WO2024041822A1/en
Publication of DE102022208646A1 publication Critical patent/DE102022208646A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft Verfahren zur Hinderniserkennung, wobei mit einem Sensor ein vor einem Fahrzeug liegender Fahrweg erfasst wird und die so erhaltenen Sensordaten durch eine Recheneinheit verarbeitet werden, wobei in einem ersten Schritt eine erwartete Geländeebene anhand der Fahrzeuggeometrie ermittelt wird; in einem zweiten Schritt ein oberer Offset und ein unterer Offset zu der erwarteten Geländeebene vorgegeben werden, wobei sich durch den oberen und unteren Offset ein Bereich ausbildet; in einem dritten Schritt erhaltene Sensordaten herausgefiltert werden, wenn sich diese innerhalb des ausgebildeten Bereichs befinden; bei Erhalt einer Signatur außerhalb des ausgebildeten Bereichs in einem vierten Schritt der zumindest der obere Offset dahingehend verändert wird, dass um die erhaltene Signatur der ausgebildete Bereich angepasst wird.The invention relates to methods for obstacle detection, in which a sensor is used to detect a route in front of a vehicle and the sensor data thus obtained are processed by a computing unit, with an expected terrain level being determined in a first step based on the vehicle geometry; in a second step, an upper offset and a lower offset to the expected terrain level are specified, an area being formed by the upper and lower offsets; sensor data obtained in a third step are filtered out if they are within the formed area; upon receipt of a signature outside the formed area, in a fourth step the at least the upper offset is changed in such a way that the formed area is adjusted around the obtained signature.

Description

Die vorliegende Erfindung betrifft ein Verfahren zur Hinderniserkennung in einem Fahrzeug, wobei ein Hindernis als ein Objekt zu verstehen ist, welches von dem betreffenden Fahrzeug nicht überfahren werden kann. Ferner ist ein Computerprogrammprodukt umfasst.The present invention relates to a method for obstacle detection in a vehicle, whereby an obstacle is to be understood as an object which cannot be driven over by the vehicle in question. A computer program product is also included.

Aus dem Stand der Technik sind verschiedene Verfahren zur Hinderniserkennung bekannt. Beispielsweise betrifft DE 10 2013 200 385 A1 ein Verfahren zur Unterstützung eines Fahrers eines Fahrzeugs bei einer Fahrt auf unebenem Gelände, eine entsprechende Vorrichtung sowie ein entsprechendes Computerprogrammprodukt. Mittels optischer, Radar- oder Lidar-Sensoren wird eine Unebenheit in dem befahrenen Gelände detektiert und dahingehend klassifiziert, ob die Unebenheit ein Hindernis darstellt, welches eine für das Fahrzeug beschädigungsfreie Weiterfahrt ausschließt. Neben einer Steigung oder einem Gefälle kann es sich bei dem Hindernis bzw. der Unebenheit um ein Schlagloch, eine Rampe, eine Quer- oder Längsbodenwelle handeln.Various methods for obstacle detection are known from the prior art. For example, concerns DE 10 2013 200 385 A1 a method for supporting a driver of a vehicle when driving on uneven terrain, a corresponding device and a corresponding computer program product. Using optical, radar or lidar sensors, an unevenness in the terrain being traveled is detected and classified as to whether the unevenness represents an obstacle that prevents the vehicle from continuing its journey without causing damage. In addition to an incline or decline, the obstacle or unevenness can be a pothole, a ramp, a transverse or longitudinal bump.

Ferner offenbart DE 10 2012 203 091 A1 Verfahren zur Erfassung von Objekten in der Umgebung eines Kraftfahrzeugs mit einem Abstandssensor, der nach dem Puls-Echo-Verfahren arbeitet. Das Verfahren erlaubt es, bei einem schwach reflektierenden Untergrund eine durch eine Kennlinie vorgegebene Schwelle zu senken und hierdurch die Empfindlichkeit zu steigern. Hierdurch können auch schwach reflektierende Objekte detektiert werden. Weiterhin erlaubt es das Verfahren insbesondere dann, wenn durch einen stark reflektierenden Untergrund große Störsignale auftreten, diese durch Anheben der durch die Kennlinie vorgegebene Schwelle auszublenden. Dies erlaubt eine eindeutige Zuordnung der Signale zu Objekten und keine Falschmessungen durch Messungen von Bodensignalen. Weiterhin werden durch das erfindungsgemäße Verfahren nicht nur Bodensignale ausgeblendet, sondern es besteht auch die Möglichkeit, Störsignale, die sich zum Beispiel durch Messfehler ergeben, auszublenden.Further revealed DE 10 2012 203 091 A1 Method for detecting objects in the surroundings of a motor vehicle with a distance sensor that works according to the pulse-echo method. The method makes it possible to lower a threshold specified by a characteristic curve in the case of a weakly reflecting background and thereby increase the sensitivity. This means that even weakly reflecting objects can be detected. Furthermore, the method makes it possible, particularly when large interference signals occur due to a highly reflective background, to mask these out by increasing the threshold specified by the characteristic curve. This allows the signals to be clearly assigned to objects and no false measurements due to measurements of ground signals. Furthermore, the method according to the invention not only suppresses ground signals, but it also makes it possible to suppress interference signals that arise, for example, from measurement errors.

Die Aufgabe der vorliegenden Erfindung besteht darin, ein verbessertes Verfahren zur Hinderniserkennung bereitzustellen, insbesondere bei Betrieb des Fahrzeugs auf unebenem Untergrund.The object of the present invention is to provide an improved method for obstacle detection, particularly when operating the vehicle on uneven ground.

Diese Aufgabe wird mit dem erfindungsgemäßen Verfahren zur Hinderniserkennung gelöst. Dabei wird mit einem Sensor ein vor einem Fahrzeug liegender Fahrweg erfasst. Die so erhaltenen Sensordaten werden durch eine Recheneinheit verarbeitet, wobei in einem ersten Schritt eine erwartete Geländeebene ermittelt wird.This task is solved with the obstacle detection method according to the invention. A sensor is used to record a route in front of a vehicle. The sensor data obtained in this way is processed by a computing unit, with an expected terrain level being determined in a first step.

Bei dem Fahrzeug kann es sich um jede Art von Fahrzeugen handeln, im Vordergrund stehen jedoch Off-Road-Fahrzeuge. Mitunter kann es sich um ein konventionell durch einen Bediener, ein teilautonom oder ein vollautonom betriebenes Fahrzeug handeln. Insbesondere handelt es sich bei dem Fahrzeug um Arbeitsmaschinen, beispielsweise Land-, Forst- oder Baumaschinen. Diese werden typischerweise in einem Arbeitsbetrieb auf einem unebenen Untergrund bzw. Fahrweg betrieben. Insbesondere handelt es sich bei dem Fahrweg um eine Straße, einen (Feld-) Weg oder eine Baustelle oder eine landwirtschaftliche Nutzfläche - mit anderen Worten um einen unbefestigten Untergrund. Häufig weist der Fahrweg dabei eine unebene Topografie auf. Diese kann sich aus einem nicht befestigten oder geebneten Untergrund, aufgrund von Bodenwellen, Schlaglöchern, Furchen, Bordsteinen, Hügeln oder Geröll ergeben. Bei dem Sensor handelt es sich um einen solchen, welcher eine Tiefeninformation bereitstellen, bspw. (3D-) Lidar, (3D-) Radar, ToF-Kamera, Stereokamera. Auch können die genannten Sensortypen miteinander kombiniert werden, um eine Objekterkennung zu verbessern. Je nach Sensortyp handelt es sich bei dem Sensor um eine Sende-/Empfangseinheit, da insbesondere bei einem Radar- oder Lidar-Sensor ein Signal ausgesendet und ein reflektiertes Signal empfangen wird. Die Recheneinheit kann als separate Recheneinheit ausgebildet oder mitunter in einem anderen Gerät integriert sein. Insbesondere kann die Recheneinheit in den Sensor bzw. die Sende-/Empfangseinheit integriert sein. Alternativ kann die Recheneinheit auch in einem anderen Steuergerät des Fahrzeugs eingebettet sein.The vehicle can be any type of vehicle, but the focus is on off-road vehicles. Sometimes it can be a vehicle operated conventionally by an operator, a semi-autonomous or a fully autonomous vehicle. In particular, the vehicle is work machines, for example agricultural, forestry or construction machines. These are typically operated in a work environment on an uneven surface or road. In particular, the route is a road, a (field) path or a construction site or an agricultural area - in other words, an unpaved surface. The route often has uneven topography. This can result from an unpaved or leveled surface, due to bumps, potholes, ruts, curbs, hills or rubble. The sensor is one that provides depth information, for example (3D) lidar, (3D) radar, ToF camera, stereo camera. The sensor types mentioned can also be combined with one another to improve object detection. Depending on the sensor type, the sensor is a transmitter/receiver unit, since, particularly with a radar or lidar sensor, a signal is sent out and a reflected signal is received. The computing unit can be designed as a separate computing unit or can sometimes be integrated into another device. In particular, the computing unit can be integrated into the sensor or the transmitting/receiving unit. Alternatively, the computing unit can also be embedded in another control unit of the vehicle.

Das Ermitteln der erwarteten Geländeebene beschreibt das Ermitteln einer Ebene bzw. Fläche, in welcher ein erwarteter Fahrweg liegt und erfolgt dabei beispielsweise anhand einer Extrapolation des gerade bzw. zuletzt befahrenen Fahrwegs, anhand der Fahrzeuggeometrie, einer Fahrzeugausrichtung, anhand von Positionsdaten und/oder Kartendaten. Insbesondere können Beschleunigungs- und/oder Neigungssensoren für die Bestimmung der erwarteten Geländeebene hinzugezogen werden. Darüber hinaus können kurzfristige Einflüsse, welche durch das Befahren eines unebenen Untergrunds verursacht werden, mittels der Beschleunigungs- und Neigungssensoren bei der Ermittlung der erwarteten Geländeebene kompensiert bzw. eliminiert werden. Insofern über Positions- und/oder Kartendaten Kenntnisse über Steigungen und Gefälle bereitgestellt werden, können diese Informationen für die Ermittlung der erwarteten Geländeebene berücksichtigt werden. Mitunter kann hier eine Datenschnittstelle vorgesehen werden, mittels welcher ein Datenaustausch mit einem Server oder einer Remotesteuerung erfolgt, um entsprechende Topografie- bzw. Kartendaten zu erhalten und bereitzustellen.Determining the expected terrain level describes the determination of a plane or area in which an expected route lies and is carried out, for example, on the basis of an extrapolation of the route currently or last traveled, on the basis of the vehicle geometry, a vehicle orientation, on the basis of position data and/or map data. In particular, acceleration and/or inclination sensors can be used to determine the expected terrain level. In addition, short-term influences caused by driving on uneven surfaces can be compensated for or eliminated using the acceleration and inclination sensors when determining the expected terrain level. To the extent that knowledge of inclines and slopes is provided via position and/or map data, this information can be taken into account to determine the expected terrain level. Sometimes a data interface can be provided here, by means of which data is exchanged with a server or a remote control in order to achieve the corresponding Obtain and provide topography or map data.

In einem zweiten Schritt des Verfahrens werden ein oberer Offset und ein unterer Offset zu der erwarteten Geländeebene vorgegeben, wobei sich durch den oberen und unteren Offset ein Bereich ausbildet. Der obere Offset und der untere Offset können dabei gleich groß sein, also den gleichen Wert aufweisen. Mit anderen Worten bilden der obere und untere Offset eine Grenze aus, welche den ausgebildeten Bereich definieren bzw. begrenzen. Beispielsweise kann der ausgebildete Bereich in der Länge durch das distale Ende des Erfassungsbereichs des Sensors übereinstimmen, also mit der distalen Länge der erwarteten Geländeebene und dem oberen oder unteren Offset. Zur räumlichen Zuordnung könnte dem oberen Offset ein positives Vorzeichen zugeordnet werden und dem unteren Offset ein negatives Vorzeichen. Dabei beziehen sich positives und negatives Vorzeichen auf die Ausrichtung in Bezug auf die erwartete Geländeebene. In einer seitlichen Betrachtung stellt der ausgebildete Bereich eine Fläche dar, tatsächlich wird jedoch ein Volumen im Raum vor dem Fahrzeug beschrieben. Dies resultiert daraus, dass der Betrachtungsbereich des Sensors sich vor dem Fahrzeug auch über ein seitliches Ausmaß erstreckt.In a second step of the method, an upper offset and a lower offset to the expected terrain level are specified, with an area being formed by the upper and lower offsets. The upper offset and the lower offset can be the same size, i.e. have the same value. In other words, the upper and lower offsets form a boundary which defines or limits the formed area. For example, the length of the formed region can match the distal end of the detection range of the sensor, i.e. the distal length of the expected terrain level and the upper or lower offset. For spatial assignment, a positive sign could be assigned to the upper offset and a negative sign to the lower offset. The positive and negative signs refer to the orientation in relation to the expected terrain level. When viewed from the side, the formed area represents a surface, but in fact a volume is described in the space in front of the vehicle. This results from the fact that the viewing area of the sensor also extends to the side in front of the vehicle.

In einem dritten Schritt werden erhaltene Sensordaten herausgefiltert, wenn sich diese innerhalb des ausgebildeten Bereichs befinden. Somit können einerseits unkritische Sensordaten unberücksichtigt bleiben, wodurch die zu verarbeitenden Daten deutlich reduziert werden können. Demzufolge wird weniger Rechenleistung für eine Verarbeitung von Daten verwendet, welche nicht benötigt werden. Alternativ dazu kann auch der Erfassungsbereich des Sensors dahingehend eingeschränkt werden, dass eine Erfassung ausschließlich außerhalb des ausgebildeten Bereichs erfolgt.In a third step, sensor data obtained is filtered out if it is within the formed area. On the one hand, this means that uncritical sensor data can be ignored, which means that the data to be processed can be significantly reduced. As a result, less computing power is used to process data that is not needed. Alternatively, the detection range of the sensor can also be limited so that detection only takes place outside the formed area.

Bei Erhalt einer Signatur außerhalb des ausgebildeten Bereichs wird in einem vierten Schritt der zumindest der obere Offset dahingehend verändert, dass um die erhaltene Signatur herum der ausgebildete Bereich angepasst wird. Eine Signatur beschreibt dabei eine Signalcharakteristik, welche von einem Objekt, insbesondere einem Hindernis, hervorgerufen wird. Folglich kann eine solche Signatur durch reflektierte Signale (Radar, Lidar) oder durch eine Bilderkennung bei Verwendung von bildgebenden Sensoren (Kamera) hervorgerufen werden. Die Veränderung des Offsets kann dabei entweder in Form einer Anpassung des Werts des Offsets für den gesamten ausgebildeten Bereich erfolgten oder distal begrenzt in unmittelbarer distaler Nähe zu dem Objekt. Auch kann der Offset in Form einer Anpassungskurve angepasst werden. Besonders vorteilhaft ist dabei eine Reduzierung des Offsets. Die beschriebene Anpassung erfolgt vorrangig in Bezug auf den oberen Offset, es können jedoch auch der obere und untere Offset angepasst werden. Dabei kann die Anpassung beider Offsets symmetrisch zur erwarteten Grundebene oder für den oberen und unteren Offset individuell erfolgen. Auch kann eine, mitunter temporäre, Deaktivierung des Offsets erfolgen.When a signature is received outside the formed area, in a fourth step the at least the upper offset is changed in such a way that the formed area is adjusted around the obtained signature. A signature describes a signal characteristic that is caused by an object, in particular an obstacle. Consequently, such a signature can be caused by reflected signals (radar, lidar) or by image recognition using imaging sensors (camera). The change in the offset can either take place in the form of an adjustment of the value of the offset for the entire formed area or in a distally limited manner in the immediate distal proximity to the object. The offset can also be adjusted in the form of an adjustment curve. A reduction in the offset is particularly advantageous. The adjustment described is primarily related to the upper offset, but the upper and lower offset can also be adjusted. Both offsets can be adjusted symmetrically to the expected base plane or individually for the upper and lower offsets. The offset can also be deactivated, sometimes temporarily.

Gemäß einer Weiterbildung des Verfahrens wird in einem fünften Schritt durch die Recheneinheit ein Signal in Reaktion auf die Signatur ausgegeben. Bei dem ausgegebenen Signal kann es sich um einen Hinweis auf einer Mensch-Maschine-Schnittstelle, bspw. ein Display, handeln. Alternativ oder ergänzend kann eine Anpassung von Fahrdynamikparametern des Fahrzeugs erfolgen, beispielsweise eine Fahrgeschwindigkeit. Auch können Betriebsparameter des Motors (Drehmoment, Drehzahl, Leistung), des Getriebes (Gangwechsel) oder von Differenzialsperren (Sperren/Entsperren) angepasst werden. Ferner können ein Fahrzeughalt oder ein Notstopp durch das Signal der Recheneinheit initiiert werden.According to a further development of the method, in a fifth step the computing unit outputs a signal in response to the signature. The output signal can be an indication on a human-machine interface, for example a display. Alternatively or additionally, driving dynamics parameters of the vehicle can be adjusted, for example a driving speed. Operating parameters of the engine (torque, speed, power), the transmission (gear changing) or differential locks (locking/unlocking) can also be adjusted. Furthermore, a vehicle stop or an emergency stop can be initiated by the signal from the computing unit.

Insofern eine Signatur erhalten wurde, können weitere Sensoren vorrangig den angepassten ausgebildeten Bereich erfassen, in welchem die Signatur erhalten wurde. Insbesondere könnte so eine Qualifizierung bzw. Bestätigung der erhaltenen Signatur anhand der verschiedenen Sensordaten erfolgen.To the extent that a signature has been received, further sensors can primarily detect the adapted trained area in which the signature was received. In particular, the signature received could be qualified or confirmed based on the various sensor data.

In einer Weiterbildung wird als Maximalwert zumindest für den oberen Offset ein Wert vorgegeben, der einer maximal zulässigen Hindernishöhe entspricht. Hierunter ist zu verstehen, dass das Fahrzeug Hindernisse unterhalb der maximal zulässigen Hindernishöhe überfahren kann, folglich ein Hindernis oberhalb einer maximal zulässigen Hindernishöhe eine Kollision und somit eine Beschädigung des Fahrzeugs zur Folge hätte. Auch könnte eine zu steile Steigung als Hindernis oberhalb einer maximal zulässigen Hindernishöhe zu fassen sein. Der obere Offset kann, ebenso wie der untere Offset, durch einen Bediener oder über die Datenschnittstelle vorgegeben werden. Auch können die Werte für den Offset auf einem Speicherelement des Fahrzeugs abgelegt sein.In a further development, a value which corresponds to a maximum permissible obstacle height is specified as the maximum value, at least for the upper offset. This means that the vehicle can drive over obstacles below the maximum permissible obstacle height, and consequently an obstacle above a maximum permissible obstacle height would result in a collision and thus damage to the vehicle. A gradient that is too steep could also be considered an obstacle above a maximum permissible obstacle height. The upper offset, like the lower offset, can be specified by an operator or via the data interface. The values for the offset can also be stored on a memory element of the vehicle.

Alternativ oder ergänzend sind der obere und/oder untere Offset über eine Entfernung veränderlich. Hierunter ist zu verstehen, dass nahe des Fahrzeugs ein abweichender Offset vorgesehen werden kann als in größerer Entfernung. Hierdurch kann eine frühe Erkennung von entfernten Objekten erfolgen, während eine präzise Erfassung in einem Nahbereich des Fahrzeugs erfolgt.Alternatively or additionally, the upper and/or lower offsets are variable over a distance. This means that a different offset can be provided close to the vehicle than at a greater distance. This allows early detection of distant objects, while precise detection takes place in a close area of the vehicle.

Weiter können der obere und/oder untere Offset in Abhängigkeit einer aktuellen Fahrzeuggeschwindigkeit oder einer Geschwindigkeitsvorgabe veränderlich sein. Hierunter ist zu verstehen, dass mitunter bei höheren Fahrzeuggeschwindigkeiten bereits kleinere Objekte nur erschwert überfahren werden können, welche bei geringerer Fahrzeuggeschwindigkeit mitunter problemlos passiert werden können. Auch kann es erforderlich sein, bei einer höheren Fahrzeuggeschwindigkeit bereits frühzeitig Objekte zu erkennen und mitunter während der Annäherung eine präzise Verarbeitung der Sensordaten bzw. erhaltenen Signaturen vorzunehmen. Ebenso wie eine aktuelle Fahrzeuggeschwindigkeit ist die zuvor beschriebene Vorgehensweise auch auf eine Geschwindigkeitsvorgabe anzuwenden. Dabei unterscheidet sich eine aktuelle Fahrzeuggeschwindigkeit von einer Fahrvorgabe dahingehend, dass mitunter aufgrund äußerer Einflüsse (keine ausreichende Motorleistung, Traktion, Anfahrvorgang) eine aktuelle Fahrzeuggeschwindigkeit von einer Geschwindigkeitsvorgabe abweicht.Furthermore, the upper and/or lower offset can be variable depending on a current vehicle speed or a speed specification. This means that it is sometimes difficult to drive over smaller objects at higher vehicle speeds, which can sometimes be passed without any problems at lower vehicle speeds. It may also be necessary to recognize objects at an early stage at higher vehicle speeds and sometimes to carry out precise processing of the sensor data or signatures obtained while approaching. Just like a current vehicle speed, the procedure described above can also be applied to a speed specification. A current vehicle speed differs from a driving target in that sometimes a current vehicle speed deviates from a speed target due to external influences (insufficient engine power, traction, starting process).

Weiterbildend können Topografiedaten aus weiteren Datenquellen der Recheneinheit zugeführt und mit den erhaltenen Sensordaten zusammengeführt werden. Hierunter ist zu verstehen, dass beispielsweise Topografiedaten zur Plausibilisierung der erhaltenen Sensordaten herangezogen werden können.In a further development, topography data from other data sources can be fed to the computing unit and merged with the sensor data received. This means that, for example, topography data can be used to check the plausibility of the sensor data obtained.

Gemäß einem weiteren Aspekt der vorliegenden Erfindung betrifft diese ein Computerprogrammprodukt, umfassend Befehle, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das erfindungsgemäße Verfahren auszuführen. Bei dem Computer kann es sich beispielsweise um die Recheneinheit handeln. Alternativ kann der Computer bzw. die Recheneinheit auch in den Sensor bzw. die Sende-/Empfangseinheit integriert sein. Ferner kann das Computerprogrammprodukt auf einem Smartphone, einem Tablet-PC oder über einen Rechner remote ausgeführt werden. Auch kann das Computerprogrammprodukt auf einem beliebigen anderen Steuergerät des Fahrzeugs ausgeführt werden, beispielsweise einem Getriebe- oder Motorsteuergerät oder auf einem Fahrzeugführungsrechner.According to a further aspect of the present invention, this relates to a computer program product comprising instructions which, when the program is executed by a computer, cause it to carry out the method according to the invention. The computer can be, for example, the computing unit. Alternatively, the computer or the computing unit can also be integrated into the sensor or the transmitter/receiver unit. Furthermore, the computer program product can be executed remotely on a smartphone, a tablet PC or via a computer. The computer program product can also be executed on any other control device of the vehicle, for example a transmission or engine control device or on a vehicle control computer.

Auch kann ein Maschinenlernverfahren angewendet werden, um die Objekterkennung und/oder die Anpassung des Offsets zu optimieren.A machine learning method can also be used to optimize object detection and/or the adjustment of the offset.

Die Erfindung wird nachfolgend anhand der einzigen 1 beschrieben. Dabei zeigt die Abbildung ein als Landmaschine ausgeführtes Fahrzeug 1. Das Fahrzeug 1 verfügt an einer Fahrzeugfront über einen Sensor 2. Der Sensor 2 weist einen nach vorne gerichteten Erfassungsbereich 3 auf, welcher mittels Strichpunktlinien vereinfacht dargestellt wird. Das Fahrzeug 1 befährt einen Fahrweg 4, welcher mittels durchgehender gerader Linie dargestellt ist.The invention is explained below using the only 1 described. The illustration shows a vehicle 1 designed as an agricultural machine. The vehicle 1 has a sensor 2 on the front of the vehicle. The sensor 2 has a forward-facing detection area 3, which is shown in simplified form using dash-dotted lines. The vehicle 1 travels along a route 4, which is shown by a continuous straight line.

Ausgehend von dem aktuellen Fahrweg 4 wird eine erwartete Geländeebene 5 ermittelt, welche vorliegend den aktuellen Fahrweg 4 als Strichlinie fortsetzt. In einem Erwartungsabschnitt 6 weist der Fahrweg 4 eine unebene Topografie auf, welche durch Erhebungen und Vertiefungen geprägt ist. Der Erwartungsabschnitt liegt dabei vor dem Fahrzeug 1 und entspricht von seiner Erstreckung der distalen Länge des Erfassungsbereichs 3.Starting from the current route 4, an expected terrain level 5 is determined, which in the present case continues the current route 4 as a dashed line. In an expected section 6, the route 4 has an uneven topography, which is characterized by elevations and depressions. The expectation section lies in front of the vehicle 1 and its extent corresponds to the distal length of the detection area 3.

Durch einen oberen Offset 7 und einen unteren Offset 8 wird ein Bereich 9 um die erwartete Geländeebene 5 ausgebildet, welcher schraffiert dargestellt ist. Der obere und untere Offset 7, 8 begrenzen somit in der hier dargestellten Seitenansicht eine Fläche um die erwartete Geländeebene 5. In einer perspektivischen Darstellung wäre ersichtlich, dass es sich bei dem ausgebildeten Bereich 9 hingegen nicht um eine Fläche, sondern um ein Volumen handelt, welches sich durch die erwartete Geländeebene 5 und den oberen und unteren Offset 7, 8 beschreiben lässt. Vorliegend sind ein oberer Offsetwert I und ein unterer Offsetwert II gleich groß, sodass der ausgebildete Bereich 9 symmetrisch um die erwartete Geländeebene 5 ist. Folglich entspricht eine Höhe III des ausgebildeten Bereichs 9 der Addition des oberen und unteren Offsetwerts I, II bzw. lässt sich durch die Gleichung (III = I + II) beschreiben.An upper offset 7 and a lower offset 8 form an area 9 around the expected terrain level 5, which is shown hatched. The upper and lower offsets 7, 8 thus delimit an area around the expected terrain level 5 in the side view shown here. In a perspective view it would be apparent that the formed area 9 is not a surface, but a volume, which can be described by the expected terrain level 5 and the upper and lower offsets 7, 8. In the present case, an upper offset value I and a lower offset value II are the same size, so that the formed area 9 is symmetrical about the expected terrain level 5. Consequently, a height III of the formed region 9 corresponds to the addition of the upper and lower offset values I, II or can be described by the equation (III = I + II).

Die Erhebungen und Vertiefungen des Fahrwegs 4 in dem Erwartungsabschnitt 6 würden ohne das erfindungsgemäße Verfahren Sensordaten zu Signaturen erhalten werden, welche als unerwünschte Störgröße zu betrachten sind. Da diese in dem ausgebildeten Bereich 9 liegen, werden diese herausgefiltert bzw. nicht berücksichtigt. Diese herausgefilterten Sensordaten 10 sind als leere Kreise in der Figur dargestellt.Without the method according to the invention, the elevations and depressions of the route 4 in the expected section 6 would be obtained sensor data for signatures, which are to be viewed as undesirable disturbance variables. Since these lie in the formed area 9, they are filtered out or not taken into account. These filtered out sensor data 10 are shown as empty circles in the figure.

Sobald hingegen ein Objekt 11 aus dem ausgebildeten Bereich 9 herausragt, werden die Sensordaten erfasst bzw. eine Signatur des Objekts 11 wird erhalten. Dabei sind die berücksichtigten Sensordaten 12 als gefüllte Kreise dargestellt. Folglich wurde ein Objekt 11 erkannt, welches ein Hindernis für das Fahrzeug 1 darstellt, das mitunter nicht überfahren werden kann. Zur weiteren Qualifizierung der Sensordaten kann nun in einem Areal um das Objekt 11 bzw. um die berücksichtigten Sensordaten 12 der obere und/oder untere Offset 7, 8 angepasst werden, um ein genaueres Bild über das Objekt 11 zu erhalten. Vorliegend würde der obere Offset 7 verringert, sodass auch tiefer liegende Signaturen berücksichtigt werden. Diese ergänzten Sensordaten 13 sind als Kreise mit Schraffierung dargestellt. Exemplarisch wird in 1 lediglich ein weiterer Punkt ergänzt. Je nach Verfahren könnte der Offset 7, 8 jedoch weiter angepasst werden, bis eine vollständige Signatur des Objekts 11 erhalten wurde und das Objekt 11 mitunter klassifiziert werden konnte.However, as soon as an object 11 protrudes from the formed area 9, the sensor data is recorded and a signature of the object 11 is obtained. The sensor data 12 taken into account are shown as filled circles. Consequently, an object 11 was detected, which represents an obstacle for the vehicle 1, which sometimes cannot be driven over. To further qualify the sensor data, the upper and/or lower offset 7, 8 can now be adjusted in an area around the object 11 or around the sensor data 12 taken into account in order to obtain a more precise image of the object 11. In the present case, the upper offset 7 would be reduced so that deeper signatures are also taken into account. These supplemented sensor data 13 are shown as circles with hatching. Example rish becomes in 1 just added another point. However, depending on the method, the offset 7, 8 could be further adjusted until a complete signature of the object 11 was obtained and the object 11 could sometimes be classified.

Im Ergebnis würde aufgrund der erhaltenen Sensordaten 12, 13 ein Signal ausgegeben, dass sich vor dem Fahrzeug 1 ein nicht überfahrbares Hindernis befindet. Folglich könnte eine Warnung ausgegeben werden, ein Anhaltevorgang initiiert werden oder eine alternative Trajektorie bestimmt werden, um durch einen Lenkeingriff das Objekt 11 zu umfahren.As a result, based on the sensor data 12, 13 received, a signal would be output that there is an obstacle in front of the vehicle 1 that cannot be driven over. Consequently, a warning could be issued, a stopping process could be initiated, or an alternative trajectory could be determined in order to avoid the object 11 through a steering intervention.

Nicht gezeigt sind in der 1 eine Recheneinheit. Dies bedeutet jedoch nicht, dass diese nicht von der Erfindung umfasst ist. Die Recheneinheit kann beispielsweise auch in den Sensor 2 integriert sein. Darüber hinaus sind keine weiteren Sensoren der eingangs genannten Art gezeigt. Diese können ebenfalls in den Sensor 2 als Einheit integriert oder an bzw. in dem Fahrzeug 1 an geeigneter Stelle vorgesehen sein. Mittels der weiteren Sensoren erfolgt insbesondere eine Betrachtung des angepassten ausgebildeten Bereichs 9 bzw. um die erhaltenen Signaturen des Objekts 11.Not shown in the 1 a computing unit. However, this does not mean that it is not covered by the invention. The computing unit can also be integrated into the sensor 2, for example. In addition, no other sensors of the type mentioned are shown. These can also be integrated into the sensor 2 as a unit or provided on or in the vehicle 1 at a suitable location. In particular, the additional sensors are used to observe the adapted formed area 9 or the obtained signatures of the object 11.

BezugszeichenReference symbols

11
Fahrzeugvehicle
22
Sensorsensor
33
ErfassungsbereichDetection area
44
Fahrwegroute
55
erwartete Geländeebeneexpected terrain level
66
ErwartungsabschnittExpectations section
77
oberer Offsetupper offset
88th
unterer Offsetlower offset
99
ausgebildeter Bereichtrained area
1010
herausgefilterte Sensordatenfiltered out sensor data
1111
Objektobject
1212
berücksichtigte Sensordatensensor data taken into account
1313
ergänzte Sensordaten supplemented sensor data
II
Offsetwert oberer OffsetOffset value upper offset
IIII
Offsetwert unterer OffsetOffset value lower offset
IIIIII
Höhe BereichHeight range

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102013200385 A1 [0002]DE 102013200385 A1 [0002]
  • DE 102012203091 A1 [0003]DE 102012203091 A1 [0003]

Claims (8)

Verfahren zur Hinderniserkennung, wobei mit einem Sensor (2) ein vor einem Fahrzeug (1) liegender Fahrweg (4) erfasst wird und die so erhaltenen Sensordaten (10, 12, 13) durch eine Recheneinheit verarbeitet werden, wobei - in einem ersten Schritt eine erwartete Geländeebene (5) ermittelt wird; - in einem zweiten Schritt ein oberer Offset (7) und ein unterer Offset (8) zu der erwarteten Geländeebene (5) vorgegeben werden, wobei sich durch den oberen und unteren Offset (7, 8) ein Bereich (9) ausbildet; - in einem dritten Schritt erhaltene Sensordaten (10) herausgefiltert werden, wenn sich diese innerhalb des ausgebildeten Bereichs (9) befinden; - bei Erhalt einer Signatur außerhalb des ausgebildeten Bereichs (9) in einem vierten Schritt der zumindest der obere Offset (7) dahingehend verändert wird, dass um die erhaltene Signatur der ausgebildete Bereich (9) angepasst wird.Method for obstacle detection, wherein a route (4) lying in front of a vehicle (1) is detected using a sensor (2) and the sensor data (10, 12, 13) thus obtained are processed by a computing unit, wherein - in a first step an expected terrain level (5) is determined; - in a second step, an upper offset (7) and a lower offset (8) to the expected terrain level (5) are specified, an area (9) being formed by the upper and lower offsets (7, 8); - Sensor data (10) obtained in a third step are filtered out if they are located within the formed area (9); - When a signature is received outside the formed area (9), in a fourth step the at least the upper offset (7) is changed in such a way that the formed area (9) is adjusted around the obtained signature. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass in einem fünften Schritt durch die Recheneinheit ein Signal in Reaktion auf die Signatur ausgegeben wird.Procedure according to Claim 1 , characterized in that in a fifth step the computing unit outputs a signal in response to the signature. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass weitere Sensoren vorrangig den angepassten ausgebildeten Bereich (9) erfassen, in welchem die Signatur erhalten wurde.Method according to one of the preceding claims, characterized in that further sensors primarily detect the adapted formed area (9) in which the signature was obtained. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass Maximalwert zumindest für den oberen Offset (7) ein Wert (I) vorgegeben wird, der einer maximal zulässigen Hindernishöhe entspricht.Method according to one of the preceding claims, characterized in that a value (I) which corresponds to a maximum permissible obstacle height is specified at least for the upper offset (7). Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass der obere und/oder untere Offset (7, 8) über eine Entfernung veränderlich ist.Method according to one of the preceding claims, characterized in that the upper and/or lower offset (7, 8) is variable over a distance. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass der obere und/oder untere Offset (7, 8) in Abhängigkeit einer aktuellen Fahrzeuggeschwindigkeit oder einer Geschwindigkeitsvorgabe veränderlich ist.Method according to one of the preceding claims, characterized in that the upper and/or lower offset (7, 8) is variable depending on a current vehicle speed or a speed specification. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass Topographiedaten aus weiteren Datenquellen der Recheneinheit zugeführt und mit den erhaltenen Sensordaten (10, 12, 13) zusammengeführt werden.Method according to one of the preceding claims, characterized in that topography data from further data sources are supplied to the computing unit and combined with the sensor data (10, 12, 13) obtained. Computerprogrammprodukt, umfassend Befehle, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das Verfahren nach einem der Ansprüche 1 bis 7 auszuführen.Computer program product, comprising instructions which, when the program is executed by a computer, cause it to carry out the method according to one of the Claims 1 until 7 to carry out.
DE102022208646.5A 2022-08-22 2022-08-22 Method for detecting obstacles on uneven surfaces Pending DE102022208646A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102022208646.5A DE102022208646A1 (en) 2022-08-22 2022-08-22 Method for detecting obstacles on uneven surfaces
PCT/EP2023/070280 WO2024041822A1 (en) 2022-08-22 2023-07-21 Method for detecting obstacles on uneven ground

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022208646.5A DE102022208646A1 (en) 2022-08-22 2022-08-22 Method for detecting obstacles on uneven surfaces

Publications (1)

Publication Number Publication Date
DE102022208646A1 true DE102022208646A1 (en) 2024-02-22

Family

ID=87517194

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022208646.5A Pending DE102022208646A1 (en) 2022-08-22 2022-08-22 Method for detecting obstacles on uneven surfaces

Country Status (2)

Country Link
DE (1) DE102022208646A1 (en)
WO (1) WO2024041822A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012203091A1 (en) 2012-02-29 2013-08-29 Robert Bosch Gmbh Method for detecting objects in the vicinity of a motor vehicle
DE102013200385A1 (en) 2013-01-14 2014-07-17 Robert Bosch Gmbh Method and device for assisting a driver of a vehicle when driving on uneven terrain
DE102018107754A1 (en) 2017-04-06 2018-10-11 GM Global Technology Operations LLC OBJECT TRACKING

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11657532B2 (en) * 2019-12-11 2023-05-23 Nvidia Corporation Surface profile estimation and bump detection for autonomous machine applications

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012203091A1 (en) 2012-02-29 2013-08-29 Robert Bosch Gmbh Method for detecting objects in the vicinity of a motor vehicle
DE102013200385A1 (en) 2013-01-14 2014-07-17 Robert Bosch Gmbh Method and device for assisting a driver of a vehicle when driving on uneven terrain
DE102018107754A1 (en) 2017-04-06 2018-10-11 GM Global Technology Operations LLC OBJECT TRACKING

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
CASTELNOVI, M., Arkin, R., Collins, T. R.: Reactive speed control system based on terrain roughness detection. In: Proceedings of the 2005 IEEE International Conference on Robotics and Automation. IEEE, 2005. S. 891-896. doi: 10.1109/ROBOT.2005.1570230
CRABB, R., et al.: Real-time foreground segmentation via range and color imaging. In: 2008 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops. IEEE, 2008. S. 1-5. doi: 10.1109/CVPRW.2008.4563170
HADSELL, R., et al.: Deep belief net learning in a long-range vision system for autonomous off-road driving. In: 2008 IEEE/RSJ International Conference on Intelligent Robots and Systems. IEEE, 2008. S. 628-633. doi: 10.1109/IROS.2008.4651217
LARSON, J., Trivedi, M., Bruch, M.: Off-road terrain traversability analysis and hazard avoidance for UGVs. In: CALIFORNIA UNIV SAN DIEGO DEPT OF ELECTRICAL ENGINEERING, 2011. S. 1-8 [Version online abrufbar über https://apps.dtic.mil/sti/pdfs/ADA536652.pdf]
MANDUCHI, R., et al.: Obstacle detection and terrain classification for autonomous off-road navigation. In: Autonomous robots, 2005, 18. Jg., S. 81-102. doi: 10.1023/B:AURO.0000047286.62481.1d
MATTI, D., Ekenel, H. K., Thiran, J.-P.: Combining LiDAR space clustering and convolutional neural networks for pedestrian detection. In: 2017 14th IEEE International Conference on Advanced Video and Signal Based Surveillance (AVSS). IEEE, 2017. S. 1-6. doi: 10.1109/AVSS.2017.8078512

Also Published As

Publication number Publication date
WO2024041822A1 (en) 2024-02-29

Similar Documents

Publication Publication Date Title
DE112017001351B4 (en) DRIVING ASSISTANCE DEVICE
DE102013209575B4 (en) METHOD OF CONTROLLING A VEHICLE
DE102016122819B9 (en) Vehicle travel control device
DE10326190A1 (en) Apparatus and method for determining a spatial orientation of a hanger or trailer
DE102017119013A1 (en) Vehicle travel control device
DE102016003438A1 (en) Driving assistance system of a vehicle and method for controlling the same
EP2507648B1 (en) Method for adjusting the sensitivity of ultrasonic sensors
DE102008001648A1 (en) Driver assistance method for moving a motor vehicle and driver assistance device
DE102006036921A1 (en) Method for stabilizing a motor vehicle and vehicle dynamics control system
DE102017222017A1 (en) Method and system for determining and providing a soil profile
DE102021103370A1 (en) OBJECT DETECTION USING LOW-LEVEL CAMERA-RADAR FUSION
DE102013202915A1 (en) Method for measuring parking space for parking assistance system of motor vehicle, involves determining free parking area within parking space depending on positions of two corners and detection of obstacles within two blind ranges
DE102014111012A1 (en) A method for assisting a driver of a motor vehicle when parking out, driver assistance system and motor vehicle
DE112019001080T5 (en) METHOD AND DEVICE FOR DETECTION AND TRACKING, OBJECT CLASSIFICATION AND TERRAIN INFERENCE
DE102004033078A1 (en) Method and device for measuring a parking space for a parking assistance system of a motor vehicle
DE102017111931A1 (en) Method for monitoring a ground area below a motor vehicle by means of an optical sensor device, sensor device, driver assistance system and motor vehicle
DE102018124979A1 (en) Driver assistance system for determining a distance between two vehicles with a camera
DE102008025773A1 (en) Local and movement conditions estimating method for observed object i.e. vehicle, involves determining distance, detecting shifting of portion of object, and estimating parameter of local and movement condition
DE102016200656A1 (en) Method for evaluating an environment of a vehicle
DE102021100623B4 (en) EXPENDITURE FOR A VERSATILE DRIVING FEELING
WO2019002482A1 (en) Method and device for determining a quality of a surface in the surroundings of a vehicle
DE102016208833A1 (en) Method and device for supporting a driving maneuver of a motor vehicle
DE102022208646A1 (en) Method for detecting obstacles on uneven surfaces
DE102019102922A1 (en) Method and device for multi-sensor data fusion for automated and autonomous vehicles
DE102018212002A1 (en) VEHICLE CONTROL DEVICE AND METHOD

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication