DE102022208646A1 - Method for detecting obstacles on uneven surfaces - Google Patents
Method for detecting obstacles on uneven surfaces Download PDFInfo
- Publication number
- DE102022208646A1 DE102022208646A1 DE102022208646.5A DE102022208646A DE102022208646A1 DE 102022208646 A1 DE102022208646 A1 DE 102022208646A1 DE 102022208646 A DE102022208646 A DE 102022208646A DE 102022208646 A1 DE102022208646 A1 DE 102022208646A1
- Authority
- DE
- Germany
- Prior art keywords
- offset
- vehicle
- signature
- area
- sensor data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000001514 detection method Methods 0.000 claims abstract description 16
- 238000004590 computer program Methods 0.000 claims description 6
- 238000012876 topography Methods 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 2
- 230000018109 developmental process Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft Verfahren zur Hinderniserkennung, wobei mit einem Sensor ein vor einem Fahrzeug liegender Fahrweg erfasst wird und die so erhaltenen Sensordaten durch eine Recheneinheit verarbeitet werden, wobei in einem ersten Schritt eine erwartete Geländeebene anhand der Fahrzeuggeometrie ermittelt wird; in einem zweiten Schritt ein oberer Offset und ein unterer Offset zu der erwarteten Geländeebene vorgegeben werden, wobei sich durch den oberen und unteren Offset ein Bereich ausbildet; in einem dritten Schritt erhaltene Sensordaten herausgefiltert werden, wenn sich diese innerhalb des ausgebildeten Bereichs befinden; bei Erhalt einer Signatur außerhalb des ausgebildeten Bereichs in einem vierten Schritt der zumindest der obere Offset dahingehend verändert wird, dass um die erhaltene Signatur der ausgebildete Bereich angepasst wird.The invention relates to methods for obstacle detection, in which a sensor is used to detect a route in front of a vehicle and the sensor data thus obtained are processed by a computing unit, with an expected terrain level being determined in a first step based on the vehicle geometry; in a second step, an upper offset and a lower offset to the expected terrain level are specified, an area being formed by the upper and lower offsets; sensor data obtained in a third step are filtered out if they are within the formed area; upon receipt of a signature outside the formed area, in a fourth step the at least the upper offset is changed in such a way that the formed area is adjusted around the obtained signature.
Description
Die vorliegende Erfindung betrifft ein Verfahren zur Hinderniserkennung in einem Fahrzeug, wobei ein Hindernis als ein Objekt zu verstehen ist, welches von dem betreffenden Fahrzeug nicht überfahren werden kann. Ferner ist ein Computerprogrammprodukt umfasst.The present invention relates to a method for obstacle detection in a vehicle, whereby an obstacle is to be understood as an object which cannot be driven over by the vehicle in question. A computer program product is also included.
Aus dem Stand der Technik sind verschiedene Verfahren zur Hinderniserkennung bekannt. Beispielsweise betrifft
Ferner offenbart
Die Aufgabe der vorliegenden Erfindung besteht darin, ein verbessertes Verfahren zur Hinderniserkennung bereitzustellen, insbesondere bei Betrieb des Fahrzeugs auf unebenem Untergrund.The object of the present invention is to provide an improved method for obstacle detection, particularly when operating the vehicle on uneven ground.
Diese Aufgabe wird mit dem erfindungsgemäßen Verfahren zur Hinderniserkennung gelöst. Dabei wird mit einem Sensor ein vor einem Fahrzeug liegender Fahrweg erfasst. Die so erhaltenen Sensordaten werden durch eine Recheneinheit verarbeitet, wobei in einem ersten Schritt eine erwartete Geländeebene ermittelt wird.This task is solved with the obstacle detection method according to the invention. A sensor is used to record a route in front of a vehicle. The sensor data obtained in this way is processed by a computing unit, with an expected terrain level being determined in a first step.
Bei dem Fahrzeug kann es sich um jede Art von Fahrzeugen handeln, im Vordergrund stehen jedoch Off-Road-Fahrzeuge. Mitunter kann es sich um ein konventionell durch einen Bediener, ein teilautonom oder ein vollautonom betriebenes Fahrzeug handeln. Insbesondere handelt es sich bei dem Fahrzeug um Arbeitsmaschinen, beispielsweise Land-, Forst- oder Baumaschinen. Diese werden typischerweise in einem Arbeitsbetrieb auf einem unebenen Untergrund bzw. Fahrweg betrieben. Insbesondere handelt es sich bei dem Fahrweg um eine Straße, einen (Feld-) Weg oder eine Baustelle oder eine landwirtschaftliche Nutzfläche - mit anderen Worten um einen unbefestigten Untergrund. Häufig weist der Fahrweg dabei eine unebene Topografie auf. Diese kann sich aus einem nicht befestigten oder geebneten Untergrund, aufgrund von Bodenwellen, Schlaglöchern, Furchen, Bordsteinen, Hügeln oder Geröll ergeben. Bei dem Sensor handelt es sich um einen solchen, welcher eine Tiefeninformation bereitstellen, bspw. (3D-) Lidar, (3D-) Radar, ToF-Kamera, Stereokamera. Auch können die genannten Sensortypen miteinander kombiniert werden, um eine Objekterkennung zu verbessern. Je nach Sensortyp handelt es sich bei dem Sensor um eine Sende-/Empfangseinheit, da insbesondere bei einem Radar- oder Lidar-Sensor ein Signal ausgesendet und ein reflektiertes Signal empfangen wird. Die Recheneinheit kann als separate Recheneinheit ausgebildet oder mitunter in einem anderen Gerät integriert sein. Insbesondere kann die Recheneinheit in den Sensor bzw. die Sende-/Empfangseinheit integriert sein. Alternativ kann die Recheneinheit auch in einem anderen Steuergerät des Fahrzeugs eingebettet sein.The vehicle can be any type of vehicle, but the focus is on off-road vehicles. Sometimes it can be a vehicle operated conventionally by an operator, a semi-autonomous or a fully autonomous vehicle. In particular, the vehicle is work machines, for example agricultural, forestry or construction machines. These are typically operated in a work environment on an uneven surface or road. In particular, the route is a road, a (field) path or a construction site or an agricultural area - in other words, an unpaved surface. The route often has uneven topography. This can result from an unpaved or leveled surface, due to bumps, potholes, ruts, curbs, hills or rubble. The sensor is one that provides depth information, for example (3D) lidar, (3D) radar, ToF camera, stereo camera. The sensor types mentioned can also be combined with one another to improve object detection. Depending on the sensor type, the sensor is a transmitter/receiver unit, since, particularly with a radar or lidar sensor, a signal is sent out and a reflected signal is received. The computing unit can be designed as a separate computing unit or can sometimes be integrated into another device. In particular, the computing unit can be integrated into the sensor or the transmitting/receiving unit. Alternatively, the computing unit can also be embedded in another control unit of the vehicle.
Das Ermitteln der erwarteten Geländeebene beschreibt das Ermitteln einer Ebene bzw. Fläche, in welcher ein erwarteter Fahrweg liegt und erfolgt dabei beispielsweise anhand einer Extrapolation des gerade bzw. zuletzt befahrenen Fahrwegs, anhand der Fahrzeuggeometrie, einer Fahrzeugausrichtung, anhand von Positionsdaten und/oder Kartendaten. Insbesondere können Beschleunigungs- und/oder Neigungssensoren für die Bestimmung der erwarteten Geländeebene hinzugezogen werden. Darüber hinaus können kurzfristige Einflüsse, welche durch das Befahren eines unebenen Untergrunds verursacht werden, mittels der Beschleunigungs- und Neigungssensoren bei der Ermittlung der erwarteten Geländeebene kompensiert bzw. eliminiert werden. Insofern über Positions- und/oder Kartendaten Kenntnisse über Steigungen und Gefälle bereitgestellt werden, können diese Informationen für die Ermittlung der erwarteten Geländeebene berücksichtigt werden. Mitunter kann hier eine Datenschnittstelle vorgesehen werden, mittels welcher ein Datenaustausch mit einem Server oder einer Remotesteuerung erfolgt, um entsprechende Topografie- bzw. Kartendaten zu erhalten und bereitzustellen.Determining the expected terrain level describes the determination of a plane or area in which an expected route lies and is carried out, for example, on the basis of an extrapolation of the route currently or last traveled, on the basis of the vehicle geometry, a vehicle orientation, on the basis of position data and/or map data. In particular, acceleration and/or inclination sensors can be used to determine the expected terrain level. In addition, short-term influences caused by driving on uneven surfaces can be compensated for or eliminated using the acceleration and inclination sensors when determining the expected terrain level. To the extent that knowledge of inclines and slopes is provided via position and/or map data, this information can be taken into account to determine the expected terrain level. Sometimes a data interface can be provided here, by means of which data is exchanged with a server or a remote control in order to achieve the corresponding Obtain and provide topography or map data.
In einem zweiten Schritt des Verfahrens werden ein oberer Offset und ein unterer Offset zu der erwarteten Geländeebene vorgegeben, wobei sich durch den oberen und unteren Offset ein Bereich ausbildet. Der obere Offset und der untere Offset können dabei gleich groß sein, also den gleichen Wert aufweisen. Mit anderen Worten bilden der obere und untere Offset eine Grenze aus, welche den ausgebildeten Bereich definieren bzw. begrenzen. Beispielsweise kann der ausgebildete Bereich in der Länge durch das distale Ende des Erfassungsbereichs des Sensors übereinstimmen, also mit der distalen Länge der erwarteten Geländeebene und dem oberen oder unteren Offset. Zur räumlichen Zuordnung könnte dem oberen Offset ein positives Vorzeichen zugeordnet werden und dem unteren Offset ein negatives Vorzeichen. Dabei beziehen sich positives und negatives Vorzeichen auf die Ausrichtung in Bezug auf die erwartete Geländeebene. In einer seitlichen Betrachtung stellt der ausgebildete Bereich eine Fläche dar, tatsächlich wird jedoch ein Volumen im Raum vor dem Fahrzeug beschrieben. Dies resultiert daraus, dass der Betrachtungsbereich des Sensors sich vor dem Fahrzeug auch über ein seitliches Ausmaß erstreckt.In a second step of the method, an upper offset and a lower offset to the expected terrain level are specified, with an area being formed by the upper and lower offsets. The upper offset and the lower offset can be the same size, i.e. have the same value. In other words, the upper and lower offsets form a boundary which defines or limits the formed area. For example, the length of the formed region can match the distal end of the detection range of the sensor, i.e. the distal length of the expected terrain level and the upper or lower offset. For spatial assignment, a positive sign could be assigned to the upper offset and a negative sign to the lower offset. The positive and negative signs refer to the orientation in relation to the expected terrain level. When viewed from the side, the formed area represents a surface, but in fact a volume is described in the space in front of the vehicle. This results from the fact that the viewing area of the sensor also extends to the side in front of the vehicle.
In einem dritten Schritt werden erhaltene Sensordaten herausgefiltert, wenn sich diese innerhalb des ausgebildeten Bereichs befinden. Somit können einerseits unkritische Sensordaten unberücksichtigt bleiben, wodurch die zu verarbeitenden Daten deutlich reduziert werden können. Demzufolge wird weniger Rechenleistung für eine Verarbeitung von Daten verwendet, welche nicht benötigt werden. Alternativ dazu kann auch der Erfassungsbereich des Sensors dahingehend eingeschränkt werden, dass eine Erfassung ausschließlich außerhalb des ausgebildeten Bereichs erfolgt.In a third step, sensor data obtained is filtered out if it is within the formed area. On the one hand, this means that uncritical sensor data can be ignored, which means that the data to be processed can be significantly reduced. As a result, less computing power is used to process data that is not needed. Alternatively, the detection range of the sensor can also be limited so that detection only takes place outside the formed area.
Bei Erhalt einer Signatur außerhalb des ausgebildeten Bereichs wird in einem vierten Schritt der zumindest der obere Offset dahingehend verändert, dass um die erhaltene Signatur herum der ausgebildete Bereich angepasst wird. Eine Signatur beschreibt dabei eine Signalcharakteristik, welche von einem Objekt, insbesondere einem Hindernis, hervorgerufen wird. Folglich kann eine solche Signatur durch reflektierte Signale (Radar, Lidar) oder durch eine Bilderkennung bei Verwendung von bildgebenden Sensoren (Kamera) hervorgerufen werden. Die Veränderung des Offsets kann dabei entweder in Form einer Anpassung des Werts des Offsets für den gesamten ausgebildeten Bereich erfolgten oder distal begrenzt in unmittelbarer distaler Nähe zu dem Objekt. Auch kann der Offset in Form einer Anpassungskurve angepasst werden. Besonders vorteilhaft ist dabei eine Reduzierung des Offsets. Die beschriebene Anpassung erfolgt vorrangig in Bezug auf den oberen Offset, es können jedoch auch der obere und untere Offset angepasst werden. Dabei kann die Anpassung beider Offsets symmetrisch zur erwarteten Grundebene oder für den oberen und unteren Offset individuell erfolgen. Auch kann eine, mitunter temporäre, Deaktivierung des Offsets erfolgen.When a signature is received outside the formed area, in a fourth step the at least the upper offset is changed in such a way that the formed area is adjusted around the obtained signature. A signature describes a signal characteristic that is caused by an object, in particular an obstacle. Consequently, such a signature can be caused by reflected signals (radar, lidar) or by image recognition using imaging sensors (camera). The change in the offset can either take place in the form of an adjustment of the value of the offset for the entire formed area or in a distally limited manner in the immediate distal proximity to the object. The offset can also be adjusted in the form of an adjustment curve. A reduction in the offset is particularly advantageous. The adjustment described is primarily related to the upper offset, but the upper and lower offset can also be adjusted. Both offsets can be adjusted symmetrically to the expected base plane or individually for the upper and lower offsets. The offset can also be deactivated, sometimes temporarily.
Gemäß einer Weiterbildung des Verfahrens wird in einem fünften Schritt durch die Recheneinheit ein Signal in Reaktion auf die Signatur ausgegeben. Bei dem ausgegebenen Signal kann es sich um einen Hinweis auf einer Mensch-Maschine-Schnittstelle, bspw. ein Display, handeln. Alternativ oder ergänzend kann eine Anpassung von Fahrdynamikparametern des Fahrzeugs erfolgen, beispielsweise eine Fahrgeschwindigkeit. Auch können Betriebsparameter des Motors (Drehmoment, Drehzahl, Leistung), des Getriebes (Gangwechsel) oder von Differenzialsperren (Sperren/Entsperren) angepasst werden. Ferner können ein Fahrzeughalt oder ein Notstopp durch das Signal der Recheneinheit initiiert werden.According to a further development of the method, in a fifth step the computing unit outputs a signal in response to the signature. The output signal can be an indication on a human-machine interface, for example a display. Alternatively or additionally, driving dynamics parameters of the vehicle can be adjusted, for example a driving speed. Operating parameters of the engine (torque, speed, power), the transmission (gear changing) or differential locks (locking/unlocking) can also be adjusted. Furthermore, a vehicle stop or an emergency stop can be initiated by the signal from the computing unit.
Insofern eine Signatur erhalten wurde, können weitere Sensoren vorrangig den angepassten ausgebildeten Bereich erfassen, in welchem die Signatur erhalten wurde. Insbesondere könnte so eine Qualifizierung bzw. Bestätigung der erhaltenen Signatur anhand der verschiedenen Sensordaten erfolgen.To the extent that a signature has been received, further sensors can primarily detect the adapted trained area in which the signature was received. In particular, the signature received could be qualified or confirmed based on the various sensor data.
In einer Weiterbildung wird als Maximalwert zumindest für den oberen Offset ein Wert vorgegeben, der einer maximal zulässigen Hindernishöhe entspricht. Hierunter ist zu verstehen, dass das Fahrzeug Hindernisse unterhalb der maximal zulässigen Hindernishöhe überfahren kann, folglich ein Hindernis oberhalb einer maximal zulässigen Hindernishöhe eine Kollision und somit eine Beschädigung des Fahrzeugs zur Folge hätte. Auch könnte eine zu steile Steigung als Hindernis oberhalb einer maximal zulässigen Hindernishöhe zu fassen sein. Der obere Offset kann, ebenso wie der untere Offset, durch einen Bediener oder über die Datenschnittstelle vorgegeben werden. Auch können die Werte für den Offset auf einem Speicherelement des Fahrzeugs abgelegt sein.In a further development, a value which corresponds to a maximum permissible obstacle height is specified as the maximum value, at least for the upper offset. This means that the vehicle can drive over obstacles below the maximum permissible obstacle height, and consequently an obstacle above a maximum permissible obstacle height would result in a collision and thus damage to the vehicle. A gradient that is too steep could also be considered an obstacle above a maximum permissible obstacle height. The upper offset, like the lower offset, can be specified by an operator or via the data interface. The values for the offset can also be stored on a memory element of the vehicle.
Alternativ oder ergänzend sind der obere und/oder untere Offset über eine Entfernung veränderlich. Hierunter ist zu verstehen, dass nahe des Fahrzeugs ein abweichender Offset vorgesehen werden kann als in größerer Entfernung. Hierdurch kann eine frühe Erkennung von entfernten Objekten erfolgen, während eine präzise Erfassung in einem Nahbereich des Fahrzeugs erfolgt.Alternatively or additionally, the upper and/or lower offsets are variable over a distance. This means that a different offset can be provided close to the vehicle than at a greater distance. This allows early detection of distant objects, while precise detection takes place in a close area of the vehicle.
Weiter können der obere und/oder untere Offset in Abhängigkeit einer aktuellen Fahrzeuggeschwindigkeit oder einer Geschwindigkeitsvorgabe veränderlich sein. Hierunter ist zu verstehen, dass mitunter bei höheren Fahrzeuggeschwindigkeiten bereits kleinere Objekte nur erschwert überfahren werden können, welche bei geringerer Fahrzeuggeschwindigkeit mitunter problemlos passiert werden können. Auch kann es erforderlich sein, bei einer höheren Fahrzeuggeschwindigkeit bereits frühzeitig Objekte zu erkennen und mitunter während der Annäherung eine präzise Verarbeitung der Sensordaten bzw. erhaltenen Signaturen vorzunehmen. Ebenso wie eine aktuelle Fahrzeuggeschwindigkeit ist die zuvor beschriebene Vorgehensweise auch auf eine Geschwindigkeitsvorgabe anzuwenden. Dabei unterscheidet sich eine aktuelle Fahrzeuggeschwindigkeit von einer Fahrvorgabe dahingehend, dass mitunter aufgrund äußerer Einflüsse (keine ausreichende Motorleistung, Traktion, Anfahrvorgang) eine aktuelle Fahrzeuggeschwindigkeit von einer Geschwindigkeitsvorgabe abweicht.Furthermore, the upper and/or lower offset can be variable depending on a current vehicle speed or a speed specification. This means that it is sometimes difficult to drive over smaller objects at higher vehicle speeds, which can sometimes be passed without any problems at lower vehicle speeds. It may also be necessary to recognize objects at an early stage at higher vehicle speeds and sometimes to carry out precise processing of the sensor data or signatures obtained while approaching. Just like a current vehicle speed, the procedure described above can also be applied to a speed specification. A current vehicle speed differs from a driving target in that sometimes a current vehicle speed deviates from a speed target due to external influences (insufficient engine power, traction, starting process).
Weiterbildend können Topografiedaten aus weiteren Datenquellen der Recheneinheit zugeführt und mit den erhaltenen Sensordaten zusammengeführt werden. Hierunter ist zu verstehen, dass beispielsweise Topografiedaten zur Plausibilisierung der erhaltenen Sensordaten herangezogen werden können.In a further development, topography data from other data sources can be fed to the computing unit and merged with the sensor data received. This means that, for example, topography data can be used to check the plausibility of the sensor data obtained.
Gemäß einem weiteren Aspekt der vorliegenden Erfindung betrifft diese ein Computerprogrammprodukt, umfassend Befehle, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das erfindungsgemäße Verfahren auszuführen. Bei dem Computer kann es sich beispielsweise um die Recheneinheit handeln. Alternativ kann der Computer bzw. die Recheneinheit auch in den Sensor bzw. die Sende-/Empfangseinheit integriert sein. Ferner kann das Computerprogrammprodukt auf einem Smartphone, einem Tablet-PC oder über einen Rechner remote ausgeführt werden. Auch kann das Computerprogrammprodukt auf einem beliebigen anderen Steuergerät des Fahrzeugs ausgeführt werden, beispielsweise einem Getriebe- oder Motorsteuergerät oder auf einem Fahrzeugführungsrechner.According to a further aspect of the present invention, this relates to a computer program product comprising instructions which, when the program is executed by a computer, cause it to carry out the method according to the invention. The computer can be, for example, the computing unit. Alternatively, the computer or the computing unit can also be integrated into the sensor or the transmitter/receiver unit. Furthermore, the computer program product can be executed remotely on a smartphone, a tablet PC or via a computer. The computer program product can also be executed on any other control device of the vehicle, for example a transmission or engine control device or on a vehicle control computer.
Auch kann ein Maschinenlernverfahren angewendet werden, um die Objekterkennung und/oder die Anpassung des Offsets zu optimieren.A machine learning method can also be used to optimize object detection and/or the adjustment of the offset.
Die Erfindung wird nachfolgend anhand der einzigen
Ausgehend von dem aktuellen Fahrweg 4 wird eine erwartete Geländeebene 5 ermittelt, welche vorliegend den aktuellen Fahrweg 4 als Strichlinie fortsetzt. In einem Erwartungsabschnitt 6 weist der Fahrweg 4 eine unebene Topografie auf, welche durch Erhebungen und Vertiefungen geprägt ist. Der Erwartungsabschnitt liegt dabei vor dem Fahrzeug 1 und entspricht von seiner Erstreckung der distalen Länge des Erfassungsbereichs 3.Starting from the
Durch einen oberen Offset 7 und einen unteren Offset 8 wird ein Bereich 9 um die erwartete Geländeebene 5 ausgebildet, welcher schraffiert dargestellt ist. Der obere und untere Offset 7, 8 begrenzen somit in der hier dargestellten Seitenansicht eine Fläche um die erwartete Geländeebene 5. In einer perspektivischen Darstellung wäre ersichtlich, dass es sich bei dem ausgebildeten Bereich 9 hingegen nicht um eine Fläche, sondern um ein Volumen handelt, welches sich durch die erwartete Geländeebene 5 und den oberen und unteren Offset 7, 8 beschreiben lässt. Vorliegend sind ein oberer Offsetwert I und ein unterer Offsetwert II gleich groß, sodass der ausgebildete Bereich 9 symmetrisch um die erwartete Geländeebene 5 ist. Folglich entspricht eine Höhe III des ausgebildeten Bereichs 9 der Addition des oberen und unteren Offsetwerts I, II bzw. lässt sich durch die Gleichung (III = I + II) beschreiben.An upper offset 7 and a lower offset 8 form an
Die Erhebungen und Vertiefungen des Fahrwegs 4 in dem Erwartungsabschnitt 6 würden ohne das erfindungsgemäße Verfahren Sensordaten zu Signaturen erhalten werden, welche als unerwünschte Störgröße zu betrachten sind. Da diese in dem ausgebildeten Bereich 9 liegen, werden diese herausgefiltert bzw. nicht berücksichtigt. Diese herausgefilterten Sensordaten 10 sind als leere Kreise in der Figur dargestellt.Without the method according to the invention, the elevations and depressions of the
Sobald hingegen ein Objekt 11 aus dem ausgebildeten Bereich 9 herausragt, werden die Sensordaten erfasst bzw. eine Signatur des Objekts 11 wird erhalten. Dabei sind die berücksichtigten Sensordaten 12 als gefüllte Kreise dargestellt. Folglich wurde ein Objekt 11 erkannt, welches ein Hindernis für das Fahrzeug 1 darstellt, das mitunter nicht überfahren werden kann. Zur weiteren Qualifizierung der Sensordaten kann nun in einem Areal um das Objekt 11 bzw. um die berücksichtigten Sensordaten 12 der obere und/oder untere Offset 7, 8 angepasst werden, um ein genaueres Bild über das Objekt 11 zu erhalten. Vorliegend würde der obere Offset 7 verringert, sodass auch tiefer liegende Signaturen berücksichtigt werden. Diese ergänzten Sensordaten 13 sind als Kreise mit Schraffierung dargestellt. Exemplarisch wird in
Im Ergebnis würde aufgrund der erhaltenen Sensordaten 12, 13 ein Signal ausgegeben, dass sich vor dem Fahrzeug 1 ein nicht überfahrbares Hindernis befindet. Folglich könnte eine Warnung ausgegeben werden, ein Anhaltevorgang initiiert werden oder eine alternative Trajektorie bestimmt werden, um durch einen Lenkeingriff das Objekt 11 zu umfahren.As a result, based on the
Nicht gezeigt sind in der
BezugszeichenReference symbols
- 11
- Fahrzeugvehicle
- 22
- Sensorsensor
- 33
- ErfassungsbereichDetection area
- 44
- Fahrwegroute
- 55
- erwartete Geländeebeneexpected terrain level
- 66
- ErwartungsabschnittExpectations section
- 77
- oberer Offsetupper offset
- 88th
- unterer Offsetlower offset
- 99
- ausgebildeter Bereichtrained area
- 1010
- herausgefilterte Sensordatenfiltered out sensor data
- 1111
- Objektobject
- 1212
- berücksichtigte Sensordatensensor data taken into account
- 1313
- ergänzte Sensordaten supplemented sensor data
- II
- Offsetwert oberer OffsetOffset value upper offset
- IIII
- Offsetwert unterer OffsetOffset value lower offset
- IIIIII
- Höhe BereichHeight range
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- DE 102013200385 A1 [0002]DE 102013200385 A1 [0002]
- DE 102012203091 A1 [0003]DE 102012203091 A1 [0003]
Claims (8)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022208646.5A DE102022208646A1 (en) | 2022-08-22 | 2022-08-22 | Method for detecting obstacles on uneven surfaces |
PCT/EP2023/070280 WO2024041822A1 (en) | 2022-08-22 | 2023-07-21 | Method for detecting obstacles on uneven ground |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022208646.5A DE102022208646A1 (en) | 2022-08-22 | 2022-08-22 | Method for detecting obstacles on uneven surfaces |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102022208646A1 true DE102022208646A1 (en) | 2024-02-22 |
Family
ID=87517194
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102022208646.5A Pending DE102022208646A1 (en) | 2022-08-22 | 2022-08-22 | Method for detecting obstacles on uneven surfaces |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102022208646A1 (en) |
WO (1) | WO2024041822A1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102012203091A1 (en) | 2012-02-29 | 2013-08-29 | Robert Bosch Gmbh | Method for detecting objects in the vicinity of a motor vehicle |
DE102013200385A1 (en) | 2013-01-14 | 2014-07-17 | Robert Bosch Gmbh | Method and device for assisting a driver of a vehicle when driving on uneven terrain |
DE102018107754A1 (en) | 2017-04-06 | 2018-10-11 | GM Global Technology Operations LLC | OBJECT TRACKING |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11657532B2 (en) * | 2019-12-11 | 2023-05-23 | Nvidia Corporation | Surface profile estimation and bump detection for autonomous machine applications |
-
2022
- 2022-08-22 DE DE102022208646.5A patent/DE102022208646A1/en active Pending
-
2023
- 2023-07-21 WO PCT/EP2023/070280 patent/WO2024041822A1/en unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102012203091A1 (en) | 2012-02-29 | 2013-08-29 | Robert Bosch Gmbh | Method for detecting objects in the vicinity of a motor vehicle |
DE102013200385A1 (en) | 2013-01-14 | 2014-07-17 | Robert Bosch Gmbh | Method and device for assisting a driver of a vehicle when driving on uneven terrain |
DE102018107754A1 (en) | 2017-04-06 | 2018-10-11 | GM Global Technology Operations LLC | OBJECT TRACKING |
Non-Patent Citations (6)
Title |
---|
CASTELNOVI, M., Arkin, R., Collins, T. R.: Reactive speed control system based on terrain roughness detection. In: Proceedings of the 2005 IEEE International Conference on Robotics and Automation. IEEE, 2005. S. 891-896. doi: 10.1109/ROBOT.2005.1570230 |
CRABB, R., et al.: Real-time foreground segmentation via range and color imaging. In: 2008 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops. IEEE, 2008. S. 1-5. doi: 10.1109/CVPRW.2008.4563170 |
HADSELL, R., et al.: Deep belief net learning in a long-range vision system for autonomous off-road driving. In: 2008 IEEE/RSJ International Conference on Intelligent Robots and Systems. IEEE, 2008. S. 628-633. doi: 10.1109/IROS.2008.4651217 |
LARSON, J., Trivedi, M., Bruch, M.: Off-road terrain traversability analysis and hazard avoidance for UGVs. In: CALIFORNIA UNIV SAN DIEGO DEPT OF ELECTRICAL ENGINEERING, 2011. S. 1-8 [Version online abrufbar über https://apps.dtic.mil/sti/pdfs/ADA536652.pdf] |
MANDUCHI, R., et al.: Obstacle detection and terrain classification for autonomous off-road navigation. In: Autonomous robots, 2005, 18. Jg., S. 81-102. doi: 10.1023/B:AURO.0000047286.62481.1d |
MATTI, D., Ekenel, H. K., Thiran, J.-P.: Combining LiDAR space clustering and convolutional neural networks for pedestrian detection. In: 2017 14th IEEE International Conference on Advanced Video and Signal Based Surveillance (AVSS). IEEE, 2017. S. 1-6. doi: 10.1109/AVSS.2017.8078512 |
Also Published As
Publication number | Publication date |
---|---|
WO2024041822A1 (en) | 2024-02-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112017001351B4 (en) | DRIVING ASSISTANCE DEVICE | |
DE102013209575B4 (en) | METHOD OF CONTROLLING A VEHICLE | |
DE102016122819B9 (en) | Vehicle travel control device | |
DE10326190A1 (en) | Apparatus and method for determining a spatial orientation of a hanger or trailer | |
DE102017119013A1 (en) | Vehicle travel control device | |
DE102016003438A1 (en) | Driving assistance system of a vehicle and method for controlling the same | |
EP2507648B1 (en) | Method for adjusting the sensitivity of ultrasonic sensors | |
DE102008001648A1 (en) | Driver assistance method for moving a motor vehicle and driver assistance device | |
DE102006036921A1 (en) | Method for stabilizing a motor vehicle and vehicle dynamics control system | |
DE102017222017A1 (en) | Method and system for determining and providing a soil profile | |
DE102021103370A1 (en) | OBJECT DETECTION USING LOW-LEVEL CAMERA-RADAR FUSION | |
DE102013202915A1 (en) | Method for measuring parking space for parking assistance system of motor vehicle, involves determining free parking area within parking space depending on positions of two corners and detection of obstacles within two blind ranges | |
DE102014111012A1 (en) | A method for assisting a driver of a motor vehicle when parking out, driver assistance system and motor vehicle | |
DE112019001080T5 (en) | METHOD AND DEVICE FOR DETECTION AND TRACKING, OBJECT CLASSIFICATION AND TERRAIN INFERENCE | |
DE102004033078A1 (en) | Method and device for measuring a parking space for a parking assistance system of a motor vehicle | |
DE102017111931A1 (en) | Method for monitoring a ground area below a motor vehicle by means of an optical sensor device, sensor device, driver assistance system and motor vehicle | |
DE102018124979A1 (en) | Driver assistance system for determining a distance between two vehicles with a camera | |
DE102008025773A1 (en) | Local and movement conditions estimating method for observed object i.e. vehicle, involves determining distance, detecting shifting of portion of object, and estimating parameter of local and movement condition | |
DE102016200656A1 (en) | Method for evaluating an environment of a vehicle | |
DE102021100623B4 (en) | EXPENDITURE FOR A VERSATILE DRIVING FEELING | |
WO2019002482A1 (en) | Method and device for determining a quality of a surface in the surroundings of a vehicle | |
DE102016208833A1 (en) | Method and device for supporting a driving maneuver of a motor vehicle | |
DE102022208646A1 (en) | Method for detecting obstacles on uneven surfaces | |
DE102019102922A1 (en) | Method and device for multi-sensor data fusion for automated and autonomous vehicles | |
DE102018212002A1 (en) | VEHICLE CONTROL DEVICE AND METHOD |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication |