DE102022200750A1 - Ultrasonic transceiver arrangement for detecting and locating a surrounding object - Google Patents

Ultrasonic transceiver arrangement for detecting and locating a surrounding object Download PDF

Info

Publication number
DE102022200750A1
DE102022200750A1 DE102022200750.6A DE102022200750A DE102022200750A1 DE 102022200750 A1 DE102022200750 A1 DE 102022200750A1 DE 102022200750 A DE102022200750 A DE 102022200750A DE 102022200750 A1 DE102022200750 A1 DE 102022200750A1
Authority
DE
Germany
Prior art keywords
ultrasonic
sensors
matrix
evaluation unit
ultrasonic sensors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022200750.6A
Other languages
German (de)
Inventor
Laurent Hoeltgen
Fabian Duetsch
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102022200750.6A priority Critical patent/DE102022200750A1/en
Publication of DE102022200750A1 publication Critical patent/DE102022200750A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • G01S15/876Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Abstract

Es wird eine Ultraschallsendeempfangsanordnung zur Detektion und Lokalisierung eines Umgebungsobjektes eines Fortbewegungsmittels (10) vorgeschlagen. Die Ultraschallsendeempfangsanordnung umfasst eine Vielzahl Ultraschallsensoren (P) und eine elektronische Auswerteeinheit (3), wobei die Auswerteeinheit (3) eingerichtet ist, einen ersten Ultraschallsensor (P) der Vielzahl Ultraschallsensoren (P) zum Aussenden eines Sendesignals zu veranlassen und am Umgebungsobjekt entstandene Echos des Sendesignals mittels eines zweiten Ultraschallsensors (P) der Vielzahl Ultraschallsensoren (P) zu empfangen, dadurch gekennzeichnet, dass die Auswerteeinheit (3) weiter eingerichtet ist, eine abgespeicherte erste Matrix für die Detektion und Lokalisierung des Umgebungsobjektes auf das Echo anzuwenden, welche aus einer Vielzahl gespeicherter Matrizen ausgewählt worden ist und eine räumliche Beziehung darstellt zwischen dem ersten Ultraschallsensor (P) als sendender Ultraschallsensor (P) und dem zweiten Ultraschallsensor (P) als empfangendem Ultraschallsensor (P).An ultrasonic transmission/reception arrangement for detecting and locating an object in the surroundings of a means of transportation (10) is proposed. The ultrasonic transmission/reception arrangement comprises a large number of ultrasonic sensors (P) and an electronic evaluation unit (3), the evaluation unit (3) being set up to cause a first ultrasonic sensor (P) of the large number of ultrasonic sensors (P) to emit a transmission signal and to detect echoes of the transmission signal by means of a second ultrasonic sensor (P) of the plurality of ultrasonic sensors (P), characterized in that the evaluation unit (3) is further set up to apply a stored first matrix for the detection and localization of the surrounding object to the echo, which matrix consists of a plurality stored matrices has been selected and represents a spatial relationship between the first ultrasonic sensor (P) as transmitting ultrasonic sensor (P) and the second ultrasonic sensor (P) as receiving ultrasonic sensor (P).

Description

Stand der TechnikState of the art

Die vorliegende Erfindung betrifft eine Ultraschallsendeempfangsanordnung zur Detektion und Lokalisierung eines Umgebungsobjektes eines Fortbewegungsmittels. Insbesondere betrifft die vorliegende Erfindung eine vereinfachte Berechnungsvorschrift bzw. -methodik zur Verringerung der erforderlichen Prozessorleistung bzw. Verkürzung der Auswertedauer.The present invention relates to an ultrasonic transmission/reception arrangement for detecting and localizing an object in the surroundings of a means of transportation. In particular, the present invention relates to a simplified calculation rule or method for reducing the required processor power or shortening the evaluation time.

Im Stand der Technik sind ultraschallbasierte Sendeempfangsanordnungen zur Umfelddetektion hinlänglich bekannt.Ultrasound-based transceiver arrangements for environment detection are well known in the prior art.

Der am häufigsten anzutreffende Ansatz betrachtet die Lokalisierung von Punktobjekten mit Hilfe von Abstandsmessungen und ist als Laterationsproblem oder Punktlateration bekannt. Unter einem Punktobjekt versteht man jedes Objekt, das alle ausgesendeten Messsignale von einem einzelnen Punkt aus zurück an die Empfänger übermittelt. Nutzt man exakt drei Messungen, so spricht man von einer Trilateration. Bestimmte Ansätze sind entweder spezifisch für die Punktlateration ausgelegt oder können nur eine feste Anzahl an Messungen benutzen. Des Weiteren verlangen diese Verfahren meist, dass das Messsignal an exakt der gleichen Stelle wieder empfangen wird, von der ausgesendet wurde, oder dass das Messsignal vom Objekt selbst versendet wurde. Andere Verfahren gehen von anderen physikalischen Begebenheiten aus, da sie für sehr hohe Geschwindigkeiten und große Distanzen ausgelegt sind (z. B. GPS-Lokalisierung). In diesen Fällen benötigt man mathematische Modelle mit einer expliziten Abhängigkeit der Zeit. Im Automobilbereich funktionieren aktuell verwendete Verfahren oftmals nur in 2D, da die Sensoren meist in einer einzelnen Reihe angeordnet sind. Die Höhe wird dann über die Reflektionseigenschaften des Objekts geschätzt. Sind die Sensoren nicht mehr kollinear (d. h. in einer Reihe) angeordnet, so kann man die Objekthöhe deutlich präziser bestimmen. Des Weiteren ist eine Bestimmung des Objekttyps mit 2D Ansätzen nur bedingt möglich, da die räumliche Auflösung entlang der dritten Dimension fehlt.The most commonly encountered approach considers the location of point objects using distance measurements and is known as the lateration problem or point lateration. A point object is any object that transmits all measurement signals sent from a single point back to the receiver. If one uses exactly three measurements, one speaks of a trilateration. Certain approaches are either designed specifically for point lateration or can only use a fixed number of measurements. Furthermore, these methods usually require that the measurement signal is received again at exactly the same point from which it was sent, or that the measurement signal was sent by the object itself. Other methods are based on other physical events, since they are designed for very high speeds and large distances (e.g. GPS localization). In these cases, mathematical models with an explicit time dependency are required. In the automotive sector, the methods currently used often only work in 2D, since the sensors are usually arranged in a single row. The height is then estimated using the object's reflection properties. If the sensors are no longer arranged collinearly (i.e. in a row), the object height can be determined much more precisely. Furthermore, a determination of the object type with 2D approaches is only possible to a limited extent, since there is no spatial resolution along the third dimension.

Die Erfindung bestimmt räumliche Eigenschaften, wie Position und Winkel von Objekten im Umfeld eines Fahrzeugs, mit Hilfe von Distanzmessungen. Zusätzlich können Gütekriterien, wie z. B. Fehlermaße und Kovarianzmatrizen, berechnet werden. Die so gewonnenen Umgebungsdaten können z. B. in Fahrerassistenzsystemen oder in autonomen Fahrzeugen zur Wahrnehmung des Nahbereiches, u. a. zur Anfahrtsfreigabe und zum Navigieren von Kreuzungen und Fuß- und Radfahrerwegen genutzt werden.The invention determines spatial properties, such as the position and angle of objects in the vicinity of a vehicle, using distance measurements. In addition, quality criteria such as B. error measures and covariance matrices can be calculated. The environmental data obtained in this way can e.g. B. in driver assistance systems or in autonomous vehicles for the perception of the close range, e.g. be used for approach clearance and for navigating intersections and footpaths and cycle paths.

Es ist eine Aufgabe der vorliegenden Erfindung, die Bestimmung von Objektkoordinaten aus einer Abstandsmessung mit dem laufenden Betrieb verringerter Prozessorauslastung bzw. einfacheren Rechenschritten ausführen zu können.It is an object of the present invention to be able to carry out the determination of object coordinates from a distance measurement with the ongoing operation with reduced processor load or simpler calculation steps.

Offenbarung der ErfindungDisclosure of Invention

Die vorstehend genannte Aufgabe wird erfindungsgemäß durch eine Ultraschallsendeempfangsanordnung zur Detektion und Lokalisierung eines Umgebungsobjektes eines Fortbewegungsmittels gelöst. Die Ultraschallsendeempfangsanordnung kann beispielsweise an einem Stoßfänger des Fortbewegungsmittels angeordnete Ultraschallsendeempfänger zur Ultraschallsignalwandlung aufweisen. Zusätzlich können die von den Ultraschallsendeempfängern empfangenen Signale durch eine Auswerteeinheit (z.B. ein elektronisches Steuergerät) empfangen und weiterverarbeitet werden, um Objekte innerhalb der Echos der Ultraschallsendeempfänger zu identifizieren. Die Auswerteeinheit ist eingerichtet, einen ersten Ultraschallsensor der Vielzahl Ultraschallsensoren zum Aussenden eines Sendesignals zu veranlassen und am Umgebungsobjekt entstandene Echos des Sendesignals mittels eines zweiten Ultraschallsensors der Vielzahl Ultraschallsensoren zu empfangen. Der zweite Ultraschallsensor kann beispielsweise derselbe Sensor sein, welcher das Signal ausgesandt hat. Dies schließt nicht aus, dass weitere Ultraschallsendeempfänger bzw. Ultraschallempfänger eingerichtet sein können, die am Umgebungsobjekt entstandenen Echos des Sendesignals zu empfangen. Je nachdem, welche Ortsauflösung erforderlich ist, können beispielsweise mindestens drei Echos ausgewertet werden müssen, um eine Lokalisierung im dreidimensionalen Raum (Höhe und Richtung aus Sicht der Ultraschallsendeempfangsanordnung) bestimmen zu können. Die Auswerteeinheit ist eingerichtet, eine abgespeicherte erste Matrix für die Detektion und Lokalisierung des Umgebungsobjektes auf das empfangene Echo bzw. die empfangenen Echos anzuwenden. Die Matrix wird aus einer Vielzahl gespeicherter Matrizen ausgewählt und stellt eine räumliche Beziehung zwischen dem ersten (sendenden) Ultraschallsensor und dem zweiten Ultraschallsensor bzw. weiteren Ultraschallsensoren als empfangende Ultraschallsensoren dar. Durch die Verwendung einer vorab abgespeicherten Matrix kann die räumliche Beziehung ohne eine komplizierte Rechenoperation ermittelt und hiermit die Lokalisierung des Umgebungsobjektes durch vergleichsweise niederperformante Hardware erfolgen. Somit kann der Kostenaufwand und der Energieverbrauch eines erfindungsgemäßen Systems gesenkt werden.The above-mentioned object is achieved according to the invention by an ultrasonic transceiver arrangement for detecting and localizing an object in the vicinity of a means of transportation. The ultrasonic transceiver arrangement can have, for example, ultrasonic transceivers arranged on a bumper of the means of transportation for ultrasonic signal conversion. In addition, the signals received by the ultrasonic transceivers can be received and further processed by an evaluation unit (eg an electronic control unit) in order to identify objects within the echoes of the ultrasonic transceivers. The evaluation unit is set up to cause a first ultrasonic sensor of the plurality of ultrasonic sensors to emit a transmission signal and to receive echoes of the transmission signal that have arisen on the surrounding object by means of a second ultrasonic sensor of the plurality of ultrasonic sensors. The second ultrasonic sensor can, for example, be the same sensor that sent out the signal. This does not rule out the possibility that further ultrasound transceivers or ultrasound receivers can be set up to receive the echoes of the transmission signal that have arisen on the surrounding object. Depending on which spatial resolution is required, at least three echoes may have to be evaluated, for example, in order to be able to determine a localization in three-dimensional space (height and direction from the point of view of the ultrasonic transceiver arrangement). The evaluation unit is set up to apply a stored first matrix for the detection and localization of the surrounding object to the received echo or echoes. The matrix is selected from a variety of stored matrices and represents a spatial relationship between the first (transmitting) ultrasonic sensor and the second ultrasonic sensor or other ultrasonic sensors as receiving ultrasonic sensors. By using a pre-stored matrix, the spatial Relationship determined without a complicated arithmetic operation and hereby done the localization of the surrounding object by comparatively low-performance hardware. The cost and energy consumption of a system according to the invention can thus be reduced.

Die Unteransprüche zeigen bevorzugte Weiterbildungen der Erfindung.The dependent claims show preferred developments of the invention.

Die Vielzahl gespeicherter Matrizen kann eine jeweilige Matrix für eine jede Kombination aus sendenden Ultraschallsensoren aufweisen. Mitunter können aufgrund von Symmetrieüberlegungen obsolete Matrizen hierbei im Speicher erübrigt werden, da identische relative räumliche Beziehungen durch ein und dieselbe Matrix abgebildet werden können. Hierbei ist das Verfahren nicht auf indirekte Echos eingeschränkt. Indirekte Echos sind lediglich in geeigneter Weise (s. Gleichung 3) umzuwandeln.The plurality of stored matrices may include a respective matrix for each combination of transmitting ultrasonic sensors. Due to symmetry considerations, obsolete matrices can sometimes be superfluous in the memory, since identical relative spatial relationships can be mapped by one and the same matrix. The method is not limited to indirect echoes. Indirect echoes only need to be converted in a suitable way (see Equation 3).

Die Matrix kann in einem ROM (read only memory) der Auswerteeinheit abgespeichert sein oder informationstechnisch mit der Auswerteeinheit verknüpft sein. Mit anderen Worten ist die Matrix kein durch die Auswerteeinheit der Ultraschallsendeempfangsanordnung berechneter Datensatz, sondern wird der Auswerteeinheit fest vorgegeben. Hierbei bildet die Matrix räumliche Beziehungen der Ultraschallsensoren zueinander ab, welche beispielsweise bei einer Typisierung oder ab Werk ermittelt und als Matrix abgespeichert werden können. Dies verringert die Kosten für die Bereithaltung der Matrix.The matrix can be stored in a ROM (read only memory) of the evaluation unit or be linked to the evaluation unit in terms of information technology. In other words, the matrix is not a data set calculated by the evaluation unit of the ultrasound transceiver arrangement, but is permanently specified for the evaluation unit. Here, the matrix maps spatial relationships of the ultrasonic sensors to one another, which can be determined, for example, during typing or at the factory and stored as a matrix. This reduces the cost of maintaining the matrix.

Beispielsweise kann die Matrix eine 3xK-Matrix sein, wobei K für die empfangenen Echos bzw. die Anzahl der empfangenen Echos steht. Anders ausgedrückt kann die Matrix den Minimierer des Fehlers der Lokalisierung repräsentieren. Dieser hat das Ziel, den Fehler in der Lokalisierung für die gegebenen Daten zu minimieren. Die erfindungsgemäß einfache Lokalisierung kann auf diese Weise besonders exakt erfolgen, so dass die ermittelten Informationen besonders aufschlussreich bzw. wertvoll für die Lokalisierung der Umgebungsobjekte sind.For example, the matrix can be a 3xK matrix, where K stands for the received echoes or the number of received echoes. In other words, the matrix can represent the minimizer of the error in localization. The aim of this is to minimize the error in the localization for the given data. The localization, which is simple according to the invention, can be carried out particularly precisely in this way, so that the information ascertained is particularly revealing and/or valuable for localizing the objects in the surroundings.

Die Matrix kann beispielsweise aus der Position des ersten Sensors vermindert um den geometrischen Schwerpunkt der Vielzahl Sensoren bestimmt werden. In der Matrix sind somit alle Sensorpositionen enthalten, die in der Messung involviert waren. Dies kann Protokolle bzw. Messabläufe berücksichtigen, welche im Betrieb der Ultraschallsendeempfangsanordnung (z.B. in einem Fortbewegungsmittel) vorgesehen sind. Zusätzlich kann die sog. Pseudoinverse dieser Matrix abgespeichert werden. Dies kann ebenfalls rechentechnische Vorteile mit sich bringen. Die Positionen der einzelnen Sensoren bzw. Ultraschallsendeempfänger sind aus dieser pseudoinversen Matrix anschließend nicht mehr direkt ablesbar.The matrix can be determined, for example, from the position of the first sensor reduced by the geometric center of gravity of the multiplicity of sensors. The matrix therefore contains all sensor positions that were involved in the measurement. This can take into account protocols or measurement sequences which are provided during operation of the ultrasound transceiver arrangement (e.g. in a means of transportation). In addition, the so-called pseudo-inverse of this matrix can be saved. This can also bring computational advantages. The positions of the individual sensors or ultrasonic transceivers can then no longer be read directly from this pseudo-inverse matrix.

Die Ultraschallsendeempfangsanordnung kann insbesondere eine Vielzahl Sensoren aufweisen, welche im Betrieb in mindestens zwei zueinander im Wesentlichen parallel angeordneten Reihen aufweisen bzw. in entsprechenden Reihen angeordnet sind. Hierbei können die beiden Reihen auf unterschiedlichen Höhen gegenüber dem Boden, auf welchem das Fortbewegungsmittel steht, angeordnet sein. Durch diesen Abstand ist eine besonders gute Ortsauflösung bezüglich der Höhe eines lokalisierten Umgebungsobjektes möglich. Die Vielzahl Sensoren kann insbesondere unterschiedliche Höhen von 2 cm, 5 cm, 8 cm, 10 cm, 20 cm oder 30 cm aufweisen. Je größer der Abstand ist, desto besser ist die Ortsauflösung hinsichtlich der Höhe der lokalisierten Umgebungsobjekte.The ultrasonic transmission/reception arrangement can in particular have a multiplicity of sensors which, during operation, have at least two rows arranged essentially parallel to one another or are arranged in corresponding rows. In this case, the two rows can be arranged at different heights relative to the ground on which the means of transportation is standing. This distance enables a particularly good spatial resolution with regard to the height of a localized object in the surroundings. The large number of sensors can in particular have different heights of 2 cm, 5 cm, 8 cm, 10 cm, 20 cm or 30 cm. The greater the distance, the better the local resolution with regard to the height of the localized objects in the environment.

Die erfindungsgemäß vorgesehene Vielzahl Sensoren kann insbesondere eingerichtet sein, sämtlich in einem vorderen oder in einem hinteren Stoßfänger eines Fortbewegungsmittels angeordnet zu werden. Mit anderen Worten weisen die in der Vielzahl enthaltenen Sensoren im Wesentlichen in eine gemeinsame Richtung, bezüglich welcher sie eine größtmögliche Ortsauflösung bewirken können. Anders ausgedrückt wird für die Vielzahl in eine Richtung ausgerichteter Sensoren eine einzige erfindungsgemäße Matrix verwendet/abgespeichert, während für eine weitere, etwaig am Fortbewegungsmittel vorhandene Vielzahl Sensoren eine weitere Matrix abgespeichert wird. Jede Matrix repräsentiert somit die räumlichen Beziehungen zwischen der jeweiligen Vielzahl Sensoren, so dass eine unabhängige Bearbeitung der Umgebungsdetektion bezüglich unterschiedlicher Richtungen (auch Himmelsrichtungen) erfolgen kann. Zudem kann eine jeweilige Auswerteeinheit für eine jeweilige Vielzahl Sensoren vorgesehen sein, so dass gegebenenfalls unterschiedliche Steuergeräte für die erfindungsgemäße Auswertung am Fahrzeugheck bzw. an der Fahrzeugfront vorhandener Vielzahl Sensoren vorgesehen sein können. Dies ermöglicht die Rechenkapazität der einzelnen Prozessoren weiter zu reduzieren, da üblicherweise Kollisionen stets nur in Fahrtrichtung für den Fahrer des Fortbewegungsmittels relevant sind.The plurality of sensors provided according to the invention can in particular be set up so that they are all arranged in a front or in a rear bumper of a means of transportation. In other words, the sensors contained in the multiplicity essentially point in a common direction with respect to which they can bring about the greatest possible spatial resolution. In other words, a single matrix according to the invention is used/stored for the multiplicity of sensors aligned in one direction, while a further matrix is stored for a further multiplicity of sensors that may be present on the means of transport. Each matrix thus represents the spatial relationships between the respective plurality of sensors, so that the environment detection can be processed independently with regard to different directions (including cardinal points). In addition, a respective evaluation unit can be provided for a respective multiplicity of sensors, so that, if necessary, different control units can be provided for the inventive evaluation of the multiplicity of sensors present at the rear of the vehicle or at the front of the vehicle. This makes it possible to further reduce the computing capacity of the individual processors, since collisions are usually only relevant to the driver of the means of transport in the direction of travel.

In der Vielzahl Ultraschallsensoren können beispielsweise acht Ultraschallsensoren (beispielsweise zwei Reihen ä vier Ultraschallsensoren), bevorzugt zwölf Ultraschallsensoren (z.B. zwei Reihen ä sechs Ultraschallsensoren) und insbesondere bevorzugt sechzehn Ultraschallsensoren (z.B. zwei Reihen ä acht Ultraschallsensoren) vorgesehen sein. Selbstverständlich können die vorgenannten Ultraschallsensoren auch mehrere Reihen (drei oder gar vier Reihen) und insbesondere mehr einzelne Ultraschallsendeempfänger aufweisen, ohne den Gegenstand der vorliegenden Erfindung nicht mehr zu verwirklichen. Insbesondere werden mindestens vier Sensoren bzw. Ultraschallsendeempfänger für eine vollständige Lokalisierung eines Umgebungsobjektes verwendet. Eine höhere Anzahl von Sensoren erhöht die Redundanz und Ortsauflösung, jedoch auch den Hardware- und Auswerteaufwand.In the multiplicity of ultrasonic sensors, for example eight ultrasonic sensors (for example two rows of four ultrasonic sensors), preferably twelve ultrasonic sensors (for example two rows of six Ult Rapid sound sensors) and particularly preferably sixteen ultrasonic sensors (eg two rows of eight ultrasonic sensors) can be provided. Of course, the aforementioned ultrasonic sensors can also have a plurality of rows (three or even four rows) and in particular more individual ultrasonic transceivers, without no longer realizing the subject matter of the present invention. In particular, at least four sensors or ultrasonic transceivers are used for complete localization of a surrounding object. A higher number of sensors increases the redundancy and spatial resolution, but also the hardware and evaluation effort.

Die einzelnen Ultraschallsensoren einer Vielzahl Ultraschallsensoren bzw. Ultraschallsendeempfänger können jeweils mittels einer separaten Leitung (z.B. eine Zwei-Draht-Leitung), bevorzugt verdrillt, mit der Auswerteeinheit gekoppelt sein. Auf diese Weise ergibt sich eine Sterntopologie, wobei über die jeweilige Leitung Informationen und/oder Energie zum Betrieb der Ultraschallsensoren übertragen werden kann. Die Sterntopologie ist darüber hinaus besonders vorteilhaft bezüglich der Ausfallsicherheit, da eine unterbrochene Leitung stets nur einen einzelnen Ultraschallsensor lahmlegt.The individual ultrasonic sensors of a large number of ultrasonic sensors or ultrasonic transceivers can each be coupled to the evaluation unit by means of a separate line (e.g. a two-wire line), preferably twisted. This results in a star topology, with information and/or energy for operating the ultrasonic sensors being able to be transmitted via the respective line. The star topology is also particularly advantageous in terms of reliability, since a broken line always paralyzes only a single ultrasonic sensor.

Die Leitungen zwischen dem jeweiligen Ultraschallsensor und der jeweiligen Auswerteeinheit sind eingerichtet, ein jeweiliges Echo bzw. mittels des Echos ermittelte Informationen an die Auswerteeinheit zu übertragen. Mittels dieser empfangenen Echos kann anhand der jeweiligen Matrix bzw. Vielzahl von Matrizen die Detektion und Lokalisierung des Umgebungsobjektes vorgenommen werden. In erfindungsgemäßer Weise kann hierbei die Rechenleistung geringgehalten werden, da die räumlichen Beziehungen mittels der jeweiligen Matrix abgebildet sind.The lines between the respective ultrasonic sensor and the respective evaluation unit are set up to transmit a respective echo or information determined by means of the echo to the evaluation unit. These received echoes can be used to detect and localize the object in the surroundings using the respective matrix or plurality of matrices. In accordance with the invention, the computing power can be kept low because the spatial relationships are mapped using the respective matrix.

Die Rechenleistung der verwendeten Auswerteeinheit kann durch die erfindungsgemäße Verwendung der abgespeicherten Matrizen, bezogen auf eine Anzahl der Vielzahl Sensoren, sehr geringgehalten werden. Beispielsweise kann eine Rechenleistung von 160 MHz, insbesondere 120 MHz, bevorzugt 100 MHz, pro Ultraschallsensor als hinreichend angenommen werden, um die erfindungsgemäße Detektion und Lokalisierung von Umgebungsobjekten für herkömmliche Anwendungsfälle in Fortbewegungsmitteln vorzunehmen. Auf diese Weise kann Energie eingespart werden, was die Mobilität des erfindungsgemäß ausgestalteten Fortbewegungsmittels erhöht.The computing power of the evaluation unit used can be kept very low by the inventive use of the stored matrices, based on a number of the large number of sensors. For example, a computing power of 160 MHz, in particular 120 MHz, preferably 100 MHz, per ultrasonic sensor can be assumed to be sufficient to carry out the inventive detection and localization of surrounding objects for conventional applications in means of locomotion. In this way, energy can be saved, which increases the mobility of the means of transportation designed according to the invention.

Nachfolgend werden weitere Merkmale und Merkmalskombinationen der vorliegenden Erfindung ohne einschränkenden Charakter vorgestellt und anschließend anhand der beigefügten Figuren erläutert.Further features and feature combinations of the present invention are presented below without any restrictive character and then explained with reference to the accompanying figures.

Ein Kern der Erfindung umfasst die Bestimmung von Objektkoordinaten aus Abstandsmessungen. Der Vorteil des dargestellten Verfahrens ist, dass fast alle Berechnungen vorab ausgeführt werden können und im laufenden Betrieb nur sehr wenige Funktionsauswertungen notwendig sind. Hierdurch ist das Verfahren sogar mit stark eingeschränkten Rechenkapazitäten umsetzbar. Das Verfahren unterstützt beliebig vielen Messungen. Außerdem lassen sich Gütekriterien und Fehlerabschätzungen angeben, die die Zuverlässigkeit der Messungen widerspiegeln. Ebenso wie für die Positionsbestimmung können auch für die Berechnung der Gütekriterien fast alle Berechnungen vorab ausgeführt werden.A core of the invention includes the determination of object coordinates from distance measurements. The advantage of the method shown is that almost all calculations can be carried out in advance and only very few function evaluations are necessary during operation. As a result, the method can even be implemented with very limited computing capacities. The method supports any number of measurements. In addition, quality criteria and error estimates can be specified that reflect the reliability of the measurements. Just as for the position determination, almost all calculations for the calculation of the quality criteria can be carried out in advance.

Das Verfahren besteht aus einem mehrstufigen Prozess. Zuerst findet eine Vorverarbeitung der Daten statt. Im nächsten Schritt wird dann die Positionsbestimmung anhand der konvertierten Daten durchgeführt. Im letzten Schritt werden die Gütekriterien bestimmt.The procedure consists of a multi-stage process. First, the data is pre-processed. In the next step, the position is then determined using the converted data. In the last step, the quality criteria are determined.

Der nachfolgend beschriebene Algorithmus benötigt direkte Distanzmessungen, also Messungen wo Sender- und Empfängerposition übereinstimmen. Für jedes mögliche Tupel an Sensoren, die eine Messung durchführen können, müssen für den Algorithmus eine gewisse Anzahl an Daten abgespeichert oder im laufenden Betrieb berechnet werden. Sind nur indirekte Messungen vorhanden (also Messungen für die Sender- und Empfängerposition nicht übereinstimmen), dann müssen diese erst in direkte Messungen konvertiert werden. Bisherige Ansätze haben für diese Konvertierung auf virtuelle Sensoren zurückgegriffen. Solche Sensoren sind physisch nicht im System vorhanden, aber man kann ihre Position und den Abstand zum Objekt bestimmen. Wichtige Eigenschaften, wie zum Beispiel Blickrichtung und Öffnungswinkel des virtuellen Sensors, sind aber meist unbekannt und können nur geschätzt werden. Dies kann zu Ungenauigkeiten und Fehlern führen. Des Weiteren existieren bei einem System aus n real existierenden Sensoren 1 2 n ( n 1 )

Figure DE102022200750A1_0001
Möglichkeiten Paare zu bilden. Somit würden sich im schlimmsten Fall n + 1 2 n ( n 1 ) = 1 2 n ( n + 1 )
Figure DE102022200750A1_0002
mögliche reale und virtuelle Sensorpositionen für direkte Abstandsmessungen ergeben (anstatt von nur n). Würde man nur Kombinationen von exakt 3 Messungen betrachten, dann müsste man ( 1 2 n ( n + 1 ) 3 ) = 1 48 ( n 6 + 3 n 5 3 n 4 11 n 3 + 2 n 2 + 8 n )
Figure DE102022200750A1_0003
The algorithm described below requires direct distance measurements, i.e. measurements where the transmitter and receiver positions match. For each possible tuple of sensors that can perform a measurement, a certain amount of data must be stored for the algorithm or calculated on the fly. If only indirect measurements are available (i.e. measurements for the transmitter and receiver position do not match), then these must first be converted into direct measurements. Previous approaches have used virtual sensors for this conversion. Such sensors are not physically present in the system, but one can determine their position and distance to the object. However, important properties such as the viewing direction and opening angle of the virtual sensor are mostly unknown and can only be estimated. This can lead to inaccuracies and errors. In addition, there are actually existing sensors in a system of n 1 2 n ( n 1 )
Figure DE102022200750A1_0001
opportunities to form pairs. Thus, in the worst case n + 1 2 n ( n 1 ) = 1 2 n ( n + 1 )
Figure DE102022200750A1_0002
possible real and virtual sensor positions for direct distance measurements (instead of just n). If one were only to consider combinations of exactly 3 measurements, then one would have to ( 1 2 n ( n + 1 ) 3 ) = 1 48 ( n 6 + 3 n 5 3 n 4 11 n 3 + 2 n 2 + 8th n )
Figure DE102022200750A1_0003

Fälle untersuchen. Bei einem System bestehend aus n = 12 Sensoren, wären dies 76076 Kombinationen (anstatt von 220). Dies stellt erhebliche Anforderungen an den Speicherverbrauch.investigate cases. With a system consisting of n = 12 sensors, this would be 76076 combinations (instead of 220). This places significant demands on memory consumption.

Aus dem Grund benutzt ein Ausführungsbeispiel den folgenden Ansatz um indirekte Messungen in direkte Messungen zu konvertieren. Hier erfolgt die Konvertierung in eine direkte Abstandsmessung immer relativ zu einem realen Sensor. Betrachtet man weiterhin beispielhaft Kombinationen von drei Sensoren, dann ergeben sich lediglich ( n 3 ) = 1 6 ( n 3 3 n 2 + 2 n )

Figure DE102022200750A1_0004
Fälle. Für n = 12 wären dies 220 Fälle.For this reason, one embodiment uses the following approach to convert indirect measurements into direct measurements. Here the conversion into a direct distance measurement is always relative to a real sensor. If one also considers combinations of three sensors as an example, only ( n 3 ) = 1 6 ( n 3 3 n 2 + 2 n )
Figure DE102022200750A1_0004
Cases. For n = 12, this would be 220 cases.

Die Konvertierung muss translationsinvariant sein. Ohne Beschränkung der Allgemeinheit können wir also davon ausgehen, dass der Sender in den Koordinaten (0, 0, 0) und der Empfänger in den Koordinaten (±c, 0, 0) steht. Die Laufzeit, also der gemessene Abstand vom Sender zum Objekt und zurück zum Empfänger, beträgt 2a (a > c). Drückt man den Abstand vom Sender zum Objekt nun in Polarkoordinaten aus, so erhält man für den Radius den Ausdruck r ( θ ) = α ( 1 e 2 ) 1 ± cos ( θ )

Figure DE102022200750A1_0005
The conversion must be translation-invariant. So, without loss of generality, we can assume that the sender is in the coordinates (0, 0, 0) and the receiver is in the coordinates (±c, 0, 0). The transit time, i.e. the measured distance from the transmitter to the object and back to the receiver, is 2a (a > c). If you now express the distance from the transmitter to the object in polar coordinates, you get the expression for the radius right ( θ ) = a ( 1 e 2 ) 1 ± cos ( θ )
Figure DE102022200750A1_0005

Die Konstante e hängt nur vom Abstand zwischen den Sensorpositionen und dem gemessenen Abstand ab und ist gegeben durch e = c a

Figure DE102022200750A1_0006
The constant e depends only on the distance between the sensor positions and the measured distance and is given by e = c a
Figure DE102022200750A1_0006

Das Vorzeichen im Nenner hängt davon ab, ob der Empfänger links oder rechts vom Sender steht. Der Parameter θ gibt hierbei den Winkel zwischen der Sender-Empfänger Achse und der Geraden, die durch Sender und Objekt geht, an (siehe 1). Die Formel gilt auch, wenn Sender und Empfänger an der gleichen Stelle stehen. In dem Fall sind e = 0 und θ = 0 und somit r = a 2 .

Figure DE102022200750A1_0007
The sign in the denominator depends on whether the receiver is to the left or right of the sender. The parameter θ specifies the angle between the transmitter-receiver axis and the straight line that goes through the transmitter and the object (see 1 ). The formula also applies if the sender and receiver are in the same place. In that case e = 0 and θ = 0 and thus right = a 2 .
Figure DE102022200750A1_0007

Wir betrachten im Folgenden nur den Fall von direkten Abstandsmessungen. Sollten indirekte Abstandsmessungen vorliegen, so können diese mithilfe von Gleichung (3) in direkte Abstandsmessungen konvertiert werden. Für den Winkel θ reicht in den meisten Fällen eine grobe Schätzung. Bei einem fahrenden Auto könnte man zum Beispiel annehmen, dass sich das Objekt vor dem Fahrzeug befindet. In dem Fall wäre θ = π 2 .

Figure DE102022200750A1_0008
Für entfernte Objekte wäre sogar mit einem festen Winkel der Fehler sehr gering (siehe 2).In the following we only consider the case of direct distance measurements. If there are indirect distance measurements, they can be converted to direct distance measurements using equation (3). In most cases, a rough estimate is sufficient for the angle θ. For example, with a moving car, one might assume that the object is in front of the vehicle. In that case would be θ = π 2 .
Figure DE102022200750A1_0008
For distant objects, even with a fixed angle, the error would be very small (see 2 ).

Für die Positionskoordinaten O ∈ R3 eines Reflektionspunktes, gemessen mit m Sensoren mit Koordinaten Pi ∈ R3, i = 1, ..., m, gilt für die direkten Abstandsmessungen di ≥ 0 die Formel in Gleichung (5) O P i 2 = d i ,   i = 1, , m

Figure DE102022200750A1_0009
For the position coordinates O ∈ R 3 of a reflection point, measured with m sensors with coordinates P i ∈ R 3 , i = 1, ..., m, the formula in Equation (5) applies for the direct distance measurements d i ≥ 0 O P i 2 = i.e i , i = 1, ... , m
Figure DE102022200750A1_0009

Quadriert man beide Seiten von Gleichung (5) und zieht das arithmetische Mittel aller Gleichungen von jeder einzelnen Gleichung ab, so erhält man das lineare Gleichungssystem in Gleichung (6). 2 P i 1 m j = i m P j , O = ( P i 2 1 m j = 1 m P j 2 ) ( d i 2 1 m j = 1 m d j 2 ) ,   i

Figure DE102022200750A1_0010
If you square both sides of equation (5) and subtract the arithmetic mean of all equations from each individual equation, you get the linear system of equations in equation (6). 2 P i 1 m j = i m P j , O = ( P i 2 1 m j = 1 m P j 2 ) ( i.e i 2 1 m j = 1 m i.e j 2 ) , i
Figure DE102022200750A1_0010

Wir bezeichnen im Folgenden die Systemmatrix aus Gleichung (6) mit A und die rechte Seite des linearen Gleichungssystems mit b. Das lineare Gleichungssystem lässt sich dann schreiben als AO = b. Es ist bekannt, dass alle Lösungen O dieses Systems ausgedrückt werden können wie in Gleichung (7). O = A b + ( I A A ) ω

Figure DE102022200750A1_0011
In the following we denote the system matrix from equation (6) with A and the right-hand side of the linear system of equations with b. The linear system of equations can then be written as AO = b. It is known that all solutions O of this system can be expressed as in equation (7). O = A b + ( I A A ) ω
Figure DE102022200750A1_0011

Hierbei bezeichnet A die Moore-Penrose Pseudoinverse der Matrix A. Mit I bezeichnen wir die Einheitsmatrix im R3 und der Vektor ω ∈ R3 ist eine freie Variable die alle möglichen Lösungen parametrisiert. Die Matrix (I - AA) ∈ R3,3 beschreibt die orthogonale Projektion auf den Nullraum der Matrix A. Für eine beliebige Matrix Q ∈ Rk,l ist ihr Nullraum ker(Q) wie in Gleichung (8) definiert ker ( Q ) : = { x l | Q x = 0 k }

Figure DE102022200750A1_0012
Here A denotes the Moore-Penrose pseudo-inverse of the matrix A. With I we denote the identity matrix in R 3 and the vector ω ∈ R 3 is a free variable that parameterizes all possible solutions. The matrix (I - A A) ∈ R 3,3 describes the orthogonal projection onto the null space of the matrix A. For any matrix Q ∈ R k,l its null space ker(Q) is defined as in equation (8). ker ( Q ) : = { x l | Q x = 0 k }
Figure DE102022200750A1_0012

Die Systemmatrix A aus Gleichung (6) hängt nur von den Sensorpositionen ab. Ihre Moore-Penrose Pseudoinverse A sowie ihr Nullraum ker(A) können vorab für alle möglichen Kombinationen von Sensorpositionen abgespeichert werden. Pro Kombination müssen dann maximal 3m Zahlen für die Pseudoinverse und 9 Zahlen für den Nullraum hinterlegt werden (insgesamt also 3m + 9 Zahlen). Die Zahl m steht hier für die Anzahl an Sensoren, die bei der Messung involviert waren. Bei einem Sensorsystem mit M Sensoren werden demnach m = 0 M ( M m ) ( 3 m + 9 ) = 3 2 M 1 ( M + 6 )

Figure DE102022200750A1_0013
The system matrix A from equation (6) depends only on the sensor positions. Your Moore-Penrose pseudoinverse A as well as your null space ker(A) can be stored in advance for all possible combinations of sensor positions. A maximum of 3m numbers for the pseudo-inverse and 9 numbers for the zero space must then be stored per combination (so a total of 3m + 9 numbers). The number m stands for the number of sensors involved in the measurement. In a sensor system with M sensors are accordingly m = 0 M ( M m ) ( 3 m + 9 ) = 3 2 M 1 ( M + 6 )
Figure DE102022200750A1_0013

Zahlen abgespeichert, wenn man alle möglichen Sensorkombinationen berücksichtigt. Bei einem beispielhaften System bestehend aus 12 Sensoren und einer 32 Bit Darstellung für die Zahlen wären dies 110592 Zahlen. Hierfür würde man 432 kB an Speicher benötigen. Müsste man, wie zuvor erwähnt, auch auf virtuelle Sensoren zurückgreifen, dann bestünde das System aus insgesamt 78 Sensoren. In dem Fall wäre es unmöglich alle Kombinationen abzuspeichern, da dies mehr als 1025 kB an Speicher erfordert.Numbers saved considering all possible sensor combinations. In an exemplary system consisting of 12 sensors and a 32-bit representation for the numbers, this would be 110592 numbers. This would require 432 kB of memory. If, as previously mentioned, one had to use virtual sensors, then the system would consist of a total of 78 sensors. In that case it would be impossible to store all the combinations, since this requires more than 10-25 kB of memory.

Die Moore-Penrose Pseudoinverse lässt sich numerisch zum Beispiel über eine Singulärwertzerlegung bestimmen. Der Nullraum ker(A) kann unter anderem mit Hilfe des Gaußschen Eliminationsverfahrens berechnet werden.The Moore-Penrose pseudoinverse can be determined numerically, for example using a singular value decomposition. The null space ker(A) can be calculated using the Gaussian elimination method, among other things.

Der weitere Ablauf des Verfahrens hängt von der Größe des Nullraums ker(A) ab. Wir unterscheiden die folgenden Fälle.

  1. a) Der Nullraum lässt sich durch drei linear unabhängige Vektoren beschreiben.
The further course of the procedure depends on the size of the null space ker(A). We distinguish the following cases.
  1. a) The null space can be described by three linearly independent vectors.

Dieser Fall kann nur auftreten, wenn m = 0 ist, d. h. wenn es keine Messung gibt. In diesem Fall ist keine Positionsbestimmung möglich.

  • b) Der Nullraum lässt sich durch zwei linear abhängige Vektoren beschreiben.
This case can only occur when m = 0, ie when there is no measurement. In this case, no position determination is possible.
  • b) The null space can be described by two linearly dependent vectors.

Dieser Fall kann nur auftreten, wenn m = 1 ist, d. h. wenn es genau eine Messung gibt. In diesem Fall ist keine vollständige Positionsbestimmung möglich und das hier dargestellte Verfahren ist nicht anwendbar.

  • c) Der Nullraum lässt sich durch exakt einen vom Nullvektor verschiedenen Vektor beschreiben.
This case can only occur if m = 1, ie if there is exactly one measurement. In this case, a complete position determination is not possible and the method presented here is not applicable.
  • c) The null space can be described by exactly one vector different from the zero vector.

Dieser Fall tritt bei einer 3D Positionsbestimmung auf, wenn sich die m ≥ 3 Sensorpositionen in einer Ebene befinden. Bei einer 2D Positionsbestimmung tritt dieser Fall auf wenn die m ≥ 2 Sensoren auf einer Linie liegen. Der Nullraum der Matrix A ist in diesem Fall eindimensional und orthogonal zur Ebene/Linie, die durch die Sensorpositionen aufgespannt wird. Bezeichnet man den Vektor, der den Nullraum beschreibt, mit v, dann reduziert sich die Lösungsmenge aus Gleichung (7) auf die Parametrisierung in Gleichung (10). O = A b + θ v ,   θ

Figure DE102022200750A1_0014
This case occurs in a 3D position determination when the m ≥ 3 sensor positions are in one plane. In a 2D position determination, this case occurs when the m ≥ 2 sensors are on a line. In this case, the null space of the matrix A is one-dimensional and orthogonal to the plane/line spanned by the sensor positions. If the vector that describes the null space is denoted by v, then the solution set from Equation (7) is reduced to the parameterization in Equation (10). O = A b + θ v , θ
Figure DE102022200750A1_0014

Die Variable θ ist dabei zunächst ein freier Parameter. Mittelt man die quadrierten Gleichungen aus Gleichung (5), so erhält man die Darstellung in Gleichung (11). O 2 2 O , 1 m j = 1 m P j + 1 m j = 1 m P j 2 = 1 m j = 1 m d j 2

Figure DE102022200750A1_0015
The variable θ is initially a free parameter. If the squared equations from equation (5) are averaged, the representation in equation (11) is obtained. O 2 2 O , 1 m j = 1 m P j + 1 m j = 1 m P j 2 = 1 m j = 1 m i.e j 2
Figure DE102022200750A1_0015

Setzt man nun die Darstellung von Gleichung (10) in Gleichung (11) ein, so erhält man eine quadratische Gleichung pθ2+qθ+r = 0. Die Parameter p, q und r sind gegeben durch p = v 2 ,

Figure DE102022200750A1_0016
q = 2 A b , v 2 v , 1 m j = 1 m P j ,
Figure DE102022200750A1_0017
r = A b 2 2 A b , 1 m j = 1 m P j   + 1 m j = 1 m P j 2 1 m j = 1 m d j 2
Figure DE102022200750A1_0018
Substituting the representation of Equation (10) into Equation (11) gives a quadratic equation pθ 2 +qθ+r = 0. The parameters p, q and r are given by p = v 2 ,
Figure DE102022200750A1_0016
q = 2 A b , v 2 v , 1 m j = 1 m P j ,
Figure DE102022200750A1_0017
right = A b 2 2 A b , 1 m j = 1 m P j + 1 m j = 1 m P j 2 1 m j = 1 m i.e j 2
Figure DE102022200750A1_0018

Die Nullstellen des Polynoms erhält man nun mit Hilfe der Mitternachtsformel. θ + / = q ± q 2 4 p r 2 p

Figure DE102022200750A1_0019
The zeros of the polynomial can now be obtained using the midnight formula. θ + / = q ± q 2 4 p right 2 p
Figure DE102022200750A1_0019

Die beiden Lösungen sind symmetrisch bezüglich der Ebene/Linie, die durch die Sensorpositionen aufgespannt wird. Da sich das Objekt üblicherweise vor den Sensoren befindet, entfällt die Nichteindeutigkeit. Die Objektposition ist gegeben durch Ab + θLv, wobei θL die in Gleichung (15) gewählte Lösung ist. Der Rechenaufwand für die Bestimmung von θL sowie der Koeffizienten p, q und r ist minimal. Die meisten Größen, die in diesen Ausdrücken verwendet werden, benötigt man bereits um die rechte Seite b zu bestimmen. Der Vektor v kann zudem so gewählt werden, dass seine Länge 1 beträgt. In dem Fall entfällt die Berechnung von p.

  • d) Der Nullraum besteht ausschließlich aus dem Nullvektor
The two solutions are symmetrical with respect to the plane/line spanned by the sensor positions. Since the object is usually located in front of the sensors, there is no ambiguity. The object position is given by A b + θ L v where θ L is the solution chosen in equation (15). The calculation effort for the determination of θ L and the coefficients p, q and r is minimal. Most of the quantities used in these expressions are already needed to find the right-hand side b. The vector v can also be chosen such that its length is 1. In this case, the calculation of p is omitted.
  • d) The null space consists exclusively of the null vector

Dieser Fall tritt bei einer 3D Positionsbestimmung auf, wenn sich die m ≥ 4 Sensorpositionen nicht alle in einer Ebene befinden. Bei einer 2D Positionsbestimmung tritt dieser Fall auf, wenn die m ≥ 3 Sensoren nicht alle auf einer Linie liegen. Der Nullraum der Matrix A ist in diesem Fall der Nullvektor. Die Lösung aus Gleichung (7) reduziert sich daher auf die Matrix-Vektor Multiplikation O = Ab.This case occurs with a 3D position determination if the m ≥ 4 sensor positions are not all in one plane. This case occurs in a 2D position determination if the m ≥ 3 sensors are not all in one line. In this case, the null space of the matrix A is the zero vector. The solution of equation (7) therefore reduces to the matrix-vector multiplication O = A b.

Für ein gegebenes Verfahren f : Rm → R3 kann man die Zugehörige Kovarianzmatrix Cf ∈ R3,3 im Punkt p0 durch eine Approximation erster Ordnung berechnen: C ƒ = D [ ƒ ] ( p 0 ) C p D [ ƒ ] ( p 0 )

Figure DE102022200750A1_0020
For a given procedure f : R m → R 3 one can calculate the corresponding covariance matrix C f ∈ R 3,3 at the point p 0 by a first-order approximation: C ƒ = D [ ƒ ] ( p 0 ) C p D [ ƒ ] ( p 0 )
Figure DE102022200750A1_0020

Hierbei ist D[f](p0) ∈ R3,m die Jacobi Matrix des Verfahrens f im Punkt p0 und Cp ∈ Rm,m ist die Kovarianzmatrix der Eingabeparameter. Im hier beschriebenen Verfahren sind die Eingabeparameter die gemessenen Abstände. Lediglich die rechte Seite b sowie der Skalierungsparameter θ hängen von den Abstandsmessungen ab. Die Jacobi Matrix für den hier dargestellten Laterationsansatz ist wegen der Linearität der Ableitung demnach gegeben durch AD[b](d) + vD[θ](d). Es gilt weiterhin D [ b ] ( d ) = 2 ( δ i j d i 1 m d j ) i , j = 1 i , j = m ,

Figure DE102022200750A1_0021
D [ q ] ( d ) = 2 υ A D [ b ] ( d ) ,
Figure DE102022200750A1_0022
D [ r ] ( d ) = 2 ( A b 1 m j = 1 m P j ) A D [ b ] ( d ) 2 m d ,
Figure DE102022200750A1_0023
D [ θ ] ( d ) = D [ q ] ( d ) 2 p ± 2 q D [ q ] ( d ) 4 p D [ r ] ( d ) 2 p q 2 4 p r
Figure DE102022200750A1_0024
Here D[f](p 0 ) ∈ R 3,m is the Jacobian matrix of the method f at the point p 0 and C p ∈ R m,m is the covariance matrix of the input parameters. In the method described here, the input parameters are the measured distances. Only the right-hand side b and the scaling parameter θ depend on the distance measurements. Because of the linearity of the derivation, the Jacobi matrix for the lateration approach presented here is therefore given by A D[b](d) + vD[θ](d). It still applies D [ b ] ( i.e ) = 2 ( δ i j i.e i 1 m i.e j ) i , j = 1 i , j = m ,
Figure DE102022200750A1_0021
D [ q ] ( i.e ) = 2 υ A D [ b ] ( i.e ) ,
Figure DE102022200750A1_0022
D [ right ] ( i.e ) = 2 ( A b 1 m j = 1 m P j ) A D [ b ] ( i.e ) 2 m i.e ,
Figure DE102022200750A1_0023
D [ θ ] ( i.e ) = D [ q ] ( i.e ) 2 p ± 2 q D [ q ] ( i.e ) 4 p D [ right ] ( i.e ) 2 p q 2 4 p right
Figure DE102022200750A1_0024

Das Symbol δij ist 1 wenn i = j und sonst 0. Kennt man die Kovarianzmatrix der Abstandsmessungen, so kann man auch die Kovarianzmatrix der Lateration bestimmen.The symbol δ ij is 1 if i = j and 0 otherwise. Knowing the covariance matrix of the distance measurements, one can also determine the covariance matrix of the lateration.

Grundsätzlich kann angenommen werden, dass alle Messsensoren das gleiche Fehlerverhalten haben. Jede Abstandsmessung di wird mit einem Fehler gemessen, der maximal ±εi sein kann. Im überbestimmten Fall ergibt sich die Positionsbestimmung über eine einzelne Matrix-Vektor Multiplikation. Die gemessene Distanz di kann dann dargestellt werden als Summe der korrekten Distanz δi und des Fehlers ±εi (also di = δi ± ε). Im überbestimmten Fall gehen die gemessenen Distanzen nur an einer einzigen Stelle in unsere Gleichungen (6) ein. Hieraus ergibt sich in Approximation erster Ordnung des Fehlers die Darstellung in Gleichung (21). d i 2 1 m j = 1 m d j 2 δ i 2 1 m δ j 2 + 2 ( ± δ i ε i 1 m j = 1 m δ j ε j )

Figure DE102022200750A1_0025
In principle, it can be assumed that all measuring sensors have the same error behavior. Each distance measurement d i is measured with an error that can be at most ±ε i . In the overdetermined case, the position determination results from a single matrix-vector multiplication. The measured distance d i can then be represented as the sum of the correct distance δ i and the error ±ε i (i.e. d i = δ i ± ε). In the overdetermined case, the measured distances only enter our equations (6) at a single point. This results in the representation in Equation (21) in a first-order approximation of the error. i.e i 2 1 m j = 1 m i.e j 2 δ i 2 1 m δ j 2 + 2 ( ± δ i e i 1 m j = 1 m δ j e j )
Figure DE102022200750A1_0025

Im überbestimmten Fall ist die Lösung darstellbar als O = Ab. Nutzt man die Approximation aus Gleichung (21), so erhält man die folgende Darstellung für die Position des Reflexionspunktes. O = A b k ± A δ ε

Figure DE102022200750A1_0026
In the overdetermined case, the solution can be represented as O = A b. Using the approximation from equation (21), one obtains the following representation for the position of the reflection point. O = A b k ± A δ e
Figure DE102022200750A1_0026

Der Term Abk stellt hier die exakte Lösung dar. Der Term Aδε stellt den Fehler dar. Der Vektor δε ist definiert als δ ε : = 2 ( δ i ε i 1 m j = 1 m δ j ε j ) i = 1 i = m

Figure DE102022200750A1_0027
The term A b k represents the exact solution here. The term A δ ε represents the error. The vector δ ε is defined as δ e : = 2 ( δ i e i 1 m j = 1 m δ j e j ) i = 1 i = m
Figure DE102022200750A1_0027

Platziert man alle Fehler ±εi in einen Vektor ε ∈ Rm und nimmt man an, dass die Fehler einer stetigen Gleichverteilung folgen, so befindet sich dieser Vektor in einem m-Dimensionalen Hyperwürfel. Unter der Voraussetzung, dass alle Distanzen δi positiv sind, existieren lineare und S die den Vektor ε auf den Vektor δε abbilden. Die lineare Abbildung S stellt hierbei die Skalierung mit den δi dar. Die subtrahiert von jedem δiεi den Mittelwert aller δjεj. Die Berechnung des Fehlers kann somit ausgedrückt werden als 2ALSε. Die lineare Abbildung 2AL hängt nicht von den gemessenen Distanzen ab und kann vorab berechnet und abgespeichert werden. Die Abbildung S stellt lediglich eine spaltenweise Skalierung von AL dar und kann sehr effizient ausgeführt werden. Der Fehler kann also abgeschätzt werden in dem man das Abbild vom m-Dimensionalen Hyperwürfel unter ALS bestimmt. Im Allgemeinen wird das so erhaltene Gebiet ein konvexes Polygon sein. Die Form dieses Polygons kann vorab berechnet und abgespeichert werden, da seine Form nur von dem Fehlerverhalten der Sensoren und den an der Messung beteiligten Sensoren abhängt. Lediglich die Skalierung, welche sich aus den gemessenen Abständen ergibt, kann nicht vorberechnet werden. Geht man davon aus, dass |εi| << δi gilt, dann kann man zur Berechnung der Skalierung di anstatt von δi verwenden. Der rechnerische Aufwand ist insgesamt sehr gering. 4 stellt eine Fehlerabschätzung mit vier Abstandsmessungen dar.If one places all errors ±ε i in a vector ε ∈ R m and assumes that the errors follow a continuous uniform distribution, then this vector is in an m-dimensional hypercube. Provided that all distances δ i are positive, linear ones exist and S which map the vector ε to the vector δε. The linear mapping S represents the scaling with the δ i . The subtracts from each δ i ε i the mean of all δ j ε j . The calculation of the error can thus be expressed as 2A LSε. The linear mapping 2A L does not depend on the measured distances and can be pre-calculated and stored. The mapping S is just a column-by-column scaling of A L and can be done very efficiently. The error can thus be estimated by determining the image of the m-dimensional hypercube under A LS. In general, the region thus obtained will be a convex polygon. The shape of this polygon can be calculated and saved in advance, since its shape only depends on the error behavior of the sensors and the sensors involved in the measurement. Only the scaling, which results from the measured distances, cannot be pre-calculated. Assuming that |ε i | << δ i then one can use d i instead of δ i to calculate the scaling. The overall computational effort is very low. 4 represents an error estimate with four distance measurements.

Bei einer m-dimensionalen Messung mit n Sensoren besitzt die Matrix AL insgesamt mn Einträge. Dementsprechend muss man für jede mögliche Kombination an Sensoren mn Zahlen abspeichern. Geht man beispielsweise wieder von einem System von 12 Sensoren im 3D Raum aus, so wären dies maximal 3 k = 4 12 k ( 12 k ) = 71316

Figure DE102022200750A1_0028
In the case of an m-dimensional measurement with n sensors, the matrix A L has a total of mn entries. Accordingly, mn numbers must be stored for each possible combination of sensors. For example, if you assume a system of 12 sensors in 3D space, this would be a maximum 3 k = 4 12 k ( 12 k ) = 71316
Figure DE102022200750A1_0028

Zahlen, die abgespeichert werden müssten. Dies entspricht einem Speicherverbauch von ungefähr 2,2 MB, wenn alle Zahlen in 32 Bit Genauigkeit abgespeichert werden.Numbers that need to be saved. This corresponds to a memory consumption of about 2.2 MB if all numbers are saved with 32-bit precision.

Wenn die Messung nicht überbestimmt ist, wenn man also zum Beispiel nur 3 Messungen für eine 3D Positionsbestimmung zur Verfügung hat, ergibt sich ein komplexeres Fehlerbild aus überlagerten Kreisscheiben, welches nicht so einfach in geschlossener Form darstellbar ist.If the measurement is not overdetermined, for example if you only have 3 measurements for a 3D position determination, a more complex error pattern results from superimposed circular disks, which is not so easy to represent in a closed form.

Figurenlistecharacter list

Nachfolgend werden Ausführungsbeispiele der Erfindung unter Bezugnahme auf die begleitende Zeichnung im Detail beschrieben. In der Zeichnung:

  • 1 zeigt die geometrischen Zusammenhänge zwischen Sensoren und Objekt mittels einer indirekten Abstandsmessung für einen zweidimensionalen Ansatz;
  • 2 stellt den Fehler dar, der bei der Konvertierung einer indirekten Abstandsmessung in eine direkte Abstandsmessung unter Annahme eines festen Winkels von θ = π/2 auftritt;
  • 3 stellt direkte Abstandsmessungen in einem dreidimensionalen Ansatz dar; und
  • 4 zeigt eine Fehlerabschätzung mit 4 Abstandsmessungen. Die unskalierte Region kann vorab berechnet werden, da sie nur von den Sensoren abhängt. Die Skalierung ergibt sich aus den gemessenen Abständen.
Exemplary embodiments of the invention are described in detail below with reference to the accompanying drawings. In the drawing:
  • 1 shows the geometric relationships between sensors and object using an indirect distance measurement for a two-dimensional approach;
  • 2 represents the error involved in converting an indirect distance measurement to a direct distance measurement, assuming a fixed angle of θ = π/2;
  • 3 depicts direct distance measurements in a three-dimensional approach; and
  • 4 shows an error estimate with 4 distance measurements. The unscaled region can be precomputed since it only depends on the sensors. The scaling results from the measured distances.

Ausführungsformen der ErfindungEmbodiments of the invention

1 zeigt das Prinzip einer Abstandsmessung mit einem Sender P1 und einem Empfänger P2 an unterschiedlichen Positionen gegenüber einem Umgebungsobjekt O. Aus der gemessenen Laufzeit lässt sich eine Ellipse E herleiten, welche die möglichen Positionen des Objekts O beschreibt. Die Länge 2a entspricht der Laufzeit vom Sender P1 zum Objekt O und zurück zum Empfänger P2. Die Länge 2c entspricht dem Abstand zwischen dem Sender P1 und dem Empfänger P2. Der Winkel θ misst den Winkel zwischen den Halbgeraden P1-P2 und P1-O. 1 shows the principle of a distance measurement with a transmitter P 1 and a receiver P 2 at different positions in relation to a surrounding object O. An ellipse E, which describes the possible positions of the object O, can be derived from the measured transit time. The length 2a corresponds to the transit time from the transmitter P 1 to the object O and back to the receiver P 2 . The length 2c corresponds to the distance between the transmitter P 1 and the receiver P 2 . The angle θ measures the angle between the ray lines P 1 -P 2 and P 1 -O.

2 zeigt die Fehler bei der Konvertierung einer indirekten Abstandsmessung in eine direkte Abstandsmessung, wenn das Objekt O genau vor dem Sensor angeordnet ist (θ = π/2). Dargestellt ist der Fehler der Echodistanzumwandlung bzw. der berechnete Abstand vermindert um den tatsächlichen Abstand (korrekter Abstand). Die Objektposition ist hier durch ihre x- und y-Koordinate angegeben. Die Sensoren einer Vielzahl von Ultraschallsendeempfängern ist über eine Länge von 0,6 m erstreckt. Der Fehler fällt sehr schnell. Ab einem Abstand von 1 m beträgt er maximal noch 0,05 m, ab einem Abstand von 2 m nur noch 0,025 m. Diese Fehler können für praxisrelevante Anwendungen unproblematisch akzeptiert werden. 2 shows the errors in converting an indirect distance measurement to a direct distance measurement when the object O is placed directly in front of the sensor (θ = π/2). The error of the echo distance conversion or the calculated distance reduced by the actual distance (correct distance) is shown. The object position is given here by its x and y coordinates. The sensors of a large number of ultrasonic transceivers extend over a length of 0.6 m. The error falls very quickly. From a distance of 1 m, it is a maximum of 0.05 m, from a distance of 2 m only 0.025 m. These errors can be accepted without any problems for practical applications.

3 zeigt ein Punktmodell mit einem Objekt O und drei Abstandssensoren P1, P2, P3. Die gemessenen Abstände lauten d1, d2, d3. Aus den bekannten Sensorpositionen und den gemessenen Abständen soll die Position des Objektes O bestimmt werden. Hierzu wird die Verwendung der vordefinierten Matrix entsprechend den obigen Ausführungen verwendet, um die erforderliche Rechenleistung gering zu halten. 3 shows a point model with an object O and three distance sensors P 1 , P 2 , P 3 . The measured distances are d 1 , d 2 , d 3 . The position of the object O is to be determined from the known sensor positions and the measured distances. For this purpose, the predefined matrix is used in accordance with the above explanations in order to keep the computing power required low.

4 zeigt die Abschätzung eines Fehlers für die x- und y-Koordinate für den Fall einer Messung mit vier Sensoren (und entsprechend Objektabständen). Die Sensoren haben hierbei die Positionen (-0.3,0), (0.3,0), (0.3,0.3) und (-0.1,0.2). Die gemessenen Abstände lauten entsprechend 1,6 m, 1,75 m, 2,1 m und 1,75 m. Die unskalierte Region (5) kann vorab berechnet werden, da sie nur von den Sensoren abhängt. Die skalierte Region (6) ergibt sich aus den gemessenen Abständen. 4 shows the estimation of an error for the x and y coordinates in the case of a measurement with four sensors (and corresponding object distances). The sensors have the positions (-0.3.0), (0.3.0), (0.3.0.3) and (-0.1.0.2). The measured distances are 1.6m, 1.75m, 2.1m and 1.75m respectively. The unscaled region (5) can be calculated in advance as it only depends on the sensors. The scaled region (6) results from the measured distances.

5 zeigt ein schematisches Schaubild eines in einem Fortbewegungsmittel 10 angeordneten Ausführungsbeispiels für eine Ultraschallsendeempfangsanordnung. In einem vorderen und einem hinteren Stoßfänger sind Ultraschallsensoren 2 angeordnet und mit einem elektronischen Steuergerät als Auswerteeinheit 3 informationstechnisch und energetisch verbunden. Die mittels der Auswerteeinheit ausgeführten Rechenschritte entsprechen den obigen Ausführungen und sorgen in energieeffizienter Weise für eine informationstechnische Grundlage, um einem Anwender auf einem zentralen Informationsdisplay 4 Informationen zu Erstreckung und Position von Umgebungsobjekten des Fortbewegungsmittels 10 anzuzeigen. Selbstverständlich können die ermittelten Informationen zu Positionen und Erstreckungen der Umgebungsobjekte auch durch weitere Fahrerassistenzsysteme oder selbstfahrende Fortbewegungsmittel ohne das Erfordernis einer Interpretation durch einen Anwender verwendet werden. 5 FIG. 1 shows a schematic diagram of an exemplary embodiment of an ultrasonic transmission/reception arrangement arranged in a means of transportation 10. FIG. Ultrasonic sensors 2 are arranged in a front and a rear bumper and are connected to an electronic control unit as an evaluation unit 3 in terms of information technology and energy. The calculation steps performed by the evaluation unit correspond to the above explanations and provide an information technology basis in an energy-efficient manner in order to display information on the extension and position of surrounding objects of the means of transport 10 to a user on a central information display 4 . Of course, the determined information on the positions and extensions of the surrounding objects can also be used by other driver assistance systems or self-propelled means of transportation without the need for an interpretation by a user.

Claims (12)

Ultraschallsendeempfangsanordnung zur Detektion und Lokalisierung eines Umgebungsobjektes (O) eines Fortbewegungsmittels (10) umfassend: - eine Vielzahl Ultraschallsensoren (P) und - eine elektronische Auswerteeinheit (3), wobei - die Auswerteeinheit (3) eingerichtet ist, einen ersten Ultraschallsensor (P) der Vielzahl Ultraschallsensoren (P) zum Aussenden eines Sendesignals zu veranlassen und am Umgebungsobjekt (O) entstandene Echos des Sendesignals mittels eines zweiten Ultraschallsensors (P) der Vielzahl Ultraschallsensoren (P) zu empfangen, dadurch gekennzeichnet, dass die Auswerteeinheit (3) weiter eingerichtet ist, eine abgespeicherte erste Matrix für die Detektion und Lokalisierung des Umgebungsobjektes (O) auf das Echo anzuwenden, welche aus einer Vielzahl gespeicherter Matrizen ausgewählt worden ist und eine räumliche Beziehung darstellt zwischen dem ersten Ultraschallsensor (P) als sendender Ultraschallsensor (P) und dem zweiten Ultraschallsensor (P) als empfangendem Ultraschallsensor (P).Ultrasonic transceiver arrangement for detecting and locating a surrounding object (O) of a means of locomotion (10) comprising: - a plurality of ultrasonic sensors (P) and - an electronic evaluation unit (3), wherein - the evaluation unit (3) is set up to cause a first ultrasonic sensor (P) of the plurality of ultrasonic sensors (P) to emit a transmission signal and to receive echoes of the transmission signal produced on the surrounding object (O) by means of a second ultrasonic sensor (P) of the plurality of ultrasonic sensors (P), characterized in that the evaluation unit (3) is further set up to apply a stored first matrix for the detection and localization of the surrounding object (O) to the echo, which matrix is selected from a plurality of stored matrices has been selected and represents a spatial relationship between the first ultrasonic sensor (P) as a transmitting ultrasonic sensor (P) and the second ultrasonic sensor (P) as a receiving ultrasonic sensor (P). Ultraschallsendeempfangsanordnung nach Anspruch 1, wobei die Vielzahl gespeicherter Matrizen eine jeweilige Matrix für eine jede Kombination aus sendenden Ultraschallsensoren (P) umfasst.Ultrasonic transmit-receive arrangement claim 1 , wherein the plurality of stored matrices comprises a respective matrix for each combination of transmitting ultrasonic sensors (P). Ultraschallsendeempfangsanordnung nach Anspruch 1 oder 2, wobei die Matrix in einem ROM der Auswerteeinheit (3) abgespeichert ist.Ultrasonic transmit-receive arrangement claim 1 or 2 , wherein the matrix is stored in a ROM of the evaluation unit (3). Ultraschallsendeempfangsanordnung nach einem der vorstehenden Ansprüche, wobei die Matrix eine 3xK-Matrix ist und/oder den Minimierer des Fehlers der Lokalisierung repräsentiert.Ultrasonic transceiver arrangement according to one of the preceding claims, wherein the matrix is a 3xK matrix and/or represents the minimizer of the error of the localization. Ultraschallsendeempfangsanordnung nach einem der vorstehenden Ansprüche, wobei die Matrix aus der Position des ersten Ultraschallsensors (P) vermindert um den geometrischen Schwerpunkt der Vielzahl Ultraschallsensoren (P) bestimmt wird.Ultrasonic transmission/reception arrangement according to one of the preceding claims, in which the matrix is determined from the position of the first ultrasonic sensor (P) reduced by the geometric center of gravity of the plurality of ultrasonic sensors (P). Ultraschallsendeempfangsanordnung nach einem der vorstehenden Ansprüche, wobei die Vielzahl Ultraschallsensoren (P) eingerichtet ist, auf unterschiedlichen Höhen am Fortbewegungsmittel (10) angeordnet zu werden.Ultrasonic transceiver arrangement according to one of the preceding claims, wherein the plurality of ultrasonic sensors (P) are set up to be arranged at different heights on the means of locomotion (10). Ultraschallsendeempfangsanordnung nach einem der vorstehenden Ansprüche, wobei die Vielzahl Ultraschallsensoren (P) eingerichtet ist, sämtlich in einem vorderen oder hinteren Stoßfänger angeordnet zu werden.Ultrasonic transceiver arrangement according to one of the preceding claims, wherein the plurality of ultrasonic sensors (P) are arranged to be all arranged in a front or rear bumper. Ultraschallsendeempfangsanordnung nach einem der vorstehenden Ansprüche, wobei die Vielzahl Ultraschallsensoren (P) 8 Ultraschallsensoren, bevorzugt 12 Ultraschallsensoren (P), insbesondere bevorzugt 16 Ultraschallsensoren (P) aufweist.Ultrasonic transceiver arrangement according to one of the preceding claims, wherein the plurality of ultrasonic sensors (P) has 8 ultrasonic sensors, preferably 12 ultrasonic sensors (P), particularly preferably 16 ultrasonic sensors (P). Ultraschallsendeempfangsanordnung nach einem der vorstehenden Ansprüche, wobei jeder der Vielzahl Ultraschallsensoren (P) mittels einer jeweiligen separaten Leitung, insbesondere mittels einer, bevorzugt verdrillten, elektrischen Leitung informationstechnisch und energetisch mit der Auswerteeinheit (3) gekoppelt ist.Ultrasonic transmission/reception arrangement according to one of the preceding claims, wherein each of the plurality of ultrasonic sensors (P) is coupled in terms of information technology and energy to the evaluation unit (3) by means of a respective separate line, in particular by means of a preferably twisted electrical line. Ultraschallsendeempfangsanordnung nach einem der vorstehenden Ansprüche, wobei die Vielzahl Ultraschallsensoren (P) eingerichtet ist, eine Analog-Digitalwandlung empfangener Echos vorzunehmen.Ultrasonic transceiver arrangement according to one of the preceding claims, wherein the plurality of ultrasonic sensors (P) are set up to carry out analog-to-digital conversion of received echoes. Ultraschallsendeempfangsanordnung nach einem der vorstehenden Ansprüche, wobei die Auswerteeinheit (3) eingerichtet ist, Detektion und Lokalisierung eines Umgebungsobjektes (O) anhand der empfangenen Echos und der Vielzahl Matrizen vorzunehmen, wobei die Auswerteeinheit (3) insbesondere eingerichtet ist, ein jeweiliges Echo über eine jeweilige Leitung zu erhalten.Ultrasonic transceiver arrangement according to one of the preceding claims, wherein the evaluation unit (3) is set up to detect and localize a surrounding object (O) based on the received echoes and the plurality of matrices, wherein the evaluation unit (3) is set up in particular to receive a respective echo via a respective line. Ultraschallsendeempfangsanordnung nach einem der vorstehenden Ansprüche, wobei die Auswerteeinheit (3) eine Rechenleistung bezogen auf eine Anzahl der Vielzahl Ultraschallsensoren (P) aufweist, welche 160 MHz, insbesondere 120 MHz, bevorzugt 100 MHz nicht übersteigt.Ultrasonic transmission/reception arrangement according to one of the preceding claims, in which the evaluation unit (3) has a computing power, based on a number of the plurality of ultrasonic sensors (P), which does not exceed 160 MHz, in particular 120 MHz, preferably 100 MHz.
DE102022200750.6A 2022-01-24 2022-01-24 Ultrasonic transceiver arrangement for detecting and locating a surrounding object Pending DE102022200750A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022200750.6A DE102022200750A1 (en) 2022-01-24 2022-01-24 Ultrasonic transceiver arrangement for detecting and locating a surrounding object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022200750.6A DE102022200750A1 (en) 2022-01-24 2022-01-24 Ultrasonic transceiver arrangement for detecting and locating a surrounding object

Publications (1)

Publication Number Publication Date
DE102022200750A1 true DE102022200750A1 (en) 2023-07-27

Family

ID=87068645

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022200750.6A Pending DE102022200750A1 (en) 2022-01-24 2022-01-24 Ultrasonic transceiver arrangement for detecting and locating a surrounding object

Country Status (1)

Country Link
DE (1) DE102022200750A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019207688A1 (en) 2019-05-26 2020-11-26 Robert Bosch Gmbh Method and driver assistance system for classifying objects in the vicinity of a vehicle
DE102019215394A1 (en) 2019-10-08 2021-04-08 Robert Bosch Gmbh Method and driver assistance system for classifying objects in the vicinity of a vehicle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019207688A1 (en) 2019-05-26 2020-11-26 Robert Bosch Gmbh Method and driver assistance system for classifying objects in the vicinity of a vehicle
DE102019215394A1 (en) 2019-10-08 2021-04-08 Robert Bosch Gmbh Method and driver assistance system for classifying objects in the vicinity of a vehicle

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MEYER, Thomas H. ; ELAKSHER, Ahmed E.: Solving the Multilateration without Iteration. In: Geomatics, Vol. 1, 2021, S. 324-334. – ISSN 2673-7418

Similar Documents

Publication Publication Date Title
DE102018102884A1 (en) LIDAR RADAR RELATIVE POSE CALIBRATION
DE102018124108A1 (en) METHOD AND DEVICE FOR DETECTING ROAD LIMITATION
DE112018006161T5 (en) System and method for controlling a vehicle
EP3177498A1 (en) Method for generating a map of surroundings of an area of the surroundings of a motor vehicle, driver assistance system and motor vehicle
EP3430423B1 (en) Method for improving detection of at least one object in an environment of a motor vehicle by means of an indirect measurement using sensors, control device, driver assistance system, and motor vehicle
DE102015115786B4 (en) METHOD AND SYSTEM REALIZED ON A COMPUTER FOR PROCESSING A SEQUENCE OF IMAGES
DE102020128819A1 (en) SELF-CORRECTING VEHICLE LOCATION
DE112020004880T5 (en) Axial Deviation Estimator
DE102015115789B4 (en) METHOD AND SYSTEM REALIZED ON A COMPUTER FOR PROCESSING AN IMAGE
EP1205765A2 (en) Method of recognising conducting cables for low flying aircraft
DE102018215151A1 (en) Method and control unit for a radar sensor architecture
DE102022200750A1 (en) Ultrasonic transceiver arrangement for detecting and locating a surrounding object
DE112020005126T5 (en) movement warning device
DE102016105022A1 (en) Method for detecting at least one object in an environment of a motor vehicle by an indirect measurement with sensors, control device, driver assistance system and motor vehicle
DE102022120231A1 (en) Multi-level angle of arrival estimation in a vehicle radar system
DE102018218003A1 (en) Process, computer program and measuring system for the evaluation of movement information
DE102018217000A1 (en) Process, computer program and measuring system for the evaluation of movement information
DE102021125773A1 (en) METHOD OF SIMULTANEOUSLY ESTIMATING MOTION AND SHAPE OF A TARGET VEHICLE USING A PREDISTRIBUTION MODEL OF A TRACKLET
DE102019211327B4 (en) Device, vehicle and method for improved multi-radar sensor calibration
WO2011036013A1 (en) Method and device for determining the position of a watercraft
DE102019219247A1 (en) Process for environment detection, data processing unit
DE102019204408B4 (en) Method for determining the yaw rate of a target object based on sensor data, for example from a high-resolution radar
DE102021202641A1 (en) Method for determining a state of motion of a rigid body
DE102009020636B4 (en) Method for improved detection of line-type objects
DE102022210119A1 (en) Radar-based environment detection system for motor vehicles

Legal Events

Date Code Title Description
R163 Identified publications notified