DE102014118622A1 - Method for simulatively determining an interaction between a sensor of a motor vehicle and a virtual object in a virtual surrounding area of the motor vehicle and computing device - Google Patents

Method for simulatively determining an interaction between a sensor of a motor vehicle and a virtual object in a virtual surrounding area of the motor vehicle and computing device Download PDF

Info

Publication number
DE102014118622A1
DE102014118622A1 DE102014118622.2A DE102014118622A DE102014118622A1 DE 102014118622 A1 DE102014118622 A1 DE 102014118622A1 DE 102014118622 A DE102014118622 A DE 102014118622A DE 102014118622 A1 DE102014118622 A1 DE 102014118622A1
Authority
DE
Germany
Prior art keywords
sensor
sensor signal
determined
direction vector
motor vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102014118622.2A
Other languages
German (de)
Inventor
Frank Ehmann
Jürgen Wille
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to DE102014118622.2A priority Critical patent/DE102014118622A1/en
Publication of DE102014118622A1 publication Critical patent/DE102014118622A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4052Means for monitoring or calibrating by simulation of echoes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52004Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/15Vehicle, aircraft or watercraft design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum simulativen Bestimmen einer Interaktion zwischen einem Sensor (S) eines Kraftfahrzeugs (F) und einem virtuellen Objekt (O, O1, O2, O3) in einem virtuellen Umgebungsbereich des Kraftfahrzeugs (F) mittels einer Recheneinrichtung, bei welchem in dem virtuellen Umgebungsbereich anhand einer Richtcharakteristik des Sensors (S) ein von dem Sensor (S) ausgesendetes Sensorsignal und das von dem Objekt (O, O1, O2, O3) virtuell reflektierte Sensorsignal bestimmt werden, wobei in dem virtuellen Umgebungsbereich ein Bezugspunkt (B) bestimmt wird, welcher eine Position des Sensors (S) beschreibt, anhand der Richtcharakteristik des Sensors (S) eine den Bezugspunkt (B) zumindest bereichsweise umgebende Hülle (1) definiert wird, auf der Hülle (1) zumindest ein Aufpunkt (P, Pn, Pn+1, Pn+2, Pn+3) für einen Richtungsvektor (k), welcher das ausgesendete Sensorsignal beschreibt, definiert wird und anhand des Bezugspunkts (B) und des Aufpunkts (P, Pn, Pn+1, Pn+2, Pn+3) der Richtungsvektor (k) bestimmt wird.The invention relates to a method for simulatively determining an interaction between a sensor (S) of a motor vehicle (F) and a virtual object (O, O1, O2, O3) in a virtual surrounding area of the motor vehicle (F) by means of a computing device, in which a sensor signal emitted by the sensor (S) and the sensor signal virtually reflected by the object (O, O1, O2, O3) are determined on the virtual surrounding area on the basis of a directional characteristic of the sensor (S), wherein a reference point (B) is generated in the virtual surrounding area is determined, which describes a position of the sensor (S), based on the directional characteristic of the sensor (S) a reference point (B) at least partially surrounding shell (1) is defined on the shell (1) at least one Aufpunkt (P, Pn , Pn + 1, Pn + 2, Pn + 3) for a direction vector (k) which describes the transmitted sensor signal, and is defined by the reference point (B) and the point of view (P, Pn, Pn + 1, Pn + 2 . Pn + 3) the direction vector (k) is determined.

Description

Die vorliegende Erfindung betrifft ein Verfahren zum simulativen Bestimmen einer Interaktion zwischen einem Sensor eines Kraftfahrzeugs und einem virtuellen Objekt in einem virtuellen Umgebungsbereich des Kraftfahrzeugs mittels einer Recheneinrichtung, bei welchem in dem virtuellen Umgebungsbereich anhand einer Richtcharakteristik des Sensors ein von dem Sensor ausgesendetes Sensorsignal und das von dem Objekt virtuell reflektierte Sensorsignal bestimmt werden. Die Erfindung betrifft außerdem eine Recheneinrichtung. The present invention relates to a method for simulatively determining an interaction between a sensor of a motor vehicle and a virtual object in a virtual surrounding area of the motor vehicle by means of a computing device, in which in the virtual surrounding area based on a directional characteristic of the sensor emitted by the sensor sensor signal and of the object virtually reflected sensor signal can be determined. The invention also relates to a computing device.

Das Interesse richtet sich vorliegend insbesondere auf Sensoren für Kraftfahrzeuge, mit denen Objekte bzw. Hindernisse in dem Umgebungsbereich des Kraftfahrzeugs erfasst werden können. Solche Sensoren können beispielsweise Ultraschallsensoren, Laserscanner oder Radarsensoren sein. Die Sensoren können Teil eines Fahrerassistenzsystems sein, das den Fahrer beim Führen des Kraftfahrzeugs unterstützt. Solche Fahrerassistenzsysteme können beispielsweise eine Einparkhilfe, ein Totwinkel-Assistent oder ein Abstandsregeltempomat sein. Es ist eine besondere Herausforderung, bereits bei der Konzeption bzw. Entwicklung von Fahrerassistenzsystemen – wenn lediglich ein Fahrzeugmodell und Kenngrößen der Sensoren vorliegen – die Messeigenschaften der Sensoren zu ermitteln, ohne dass die Sensoren tatsächlich in ein Kraftfahrzeug eingebaut und Testfahrten durchgeführt werden müssen. In the present case, the interest is directed in particular to sensors for motor vehicles with which objects or obstacles in the surrounding area of the motor vehicle can be detected. Such sensors may be, for example, ultrasonic sensors, laser scanners or radar sensors. The sensors may be part of a driver assistance system that assists the driver in driving the motor vehicle. Such driver assistance systems can be, for example, a parking aid, a blind spot assistant or an adaptive cruise control. It is a particular challenge already during the design and development of driver assistance systems - if only one vehicle model and characteristics of the sensors are available - to determine the measuring properties of the sensors, without the sensors actually having to be installed in a motor vehicle and test drives performed.

Bei der Entwicklung der Sensoren bzw. der Fahrerassistenzsysteme werden entsprechende Simulationsprogramme genutzt, mit denen beispielsweise unterschiedliche Verkehrsszenarien untersucht werden können. Hierbei ist es bekannt, dass das zu fahrende Manöver simuliert wird. Dabei kann das Kraftfahrzeug entsprechend parametrisiert werden und die Sensoren, welche an dem Kraftfahrzeug angeordnet sind, können definiert werden. Ferner können die Position und die Orientierung von anderen Verkehrsteilnehmern, wie beispielsweise Fahrzeugen, Fahrrädern, Personen oder dergleichen, berücksichtigt werden. Auch die Ausgestaltung der Fahrbahn, wie beispielsweise die Breite, die Neigung und/oder das Vorhandensein eines Bordsteins, kann entsprechend rechentechnisch nachgebildet werden. Weiterhin können aktuell herrschende Umweltbedingungen, beispielsweise Tag, Nacht, Sonne, Regen oder dergleichen, die auf die Sensoren und die zu erfassenden Objekte wirken, innerhalb des verwendeten Simulationsprogramms definiert werden. Weiterhin ist es aus dem Stand der Technik bekannt, dass die Simulationsprogramme bzw. Fahrzeugmodellierungsprogramme beispielsweise mit einem HIL-Prüfstand (HIL – Hardware in the Loop) eingesetzt werden. In the development of the sensors or the driver assistance systems corresponding simulation programs are used with which, for example, different traffic scenarios can be examined. Here it is known that the maneuver to be driven is simulated. In this case, the motor vehicle can be parameterized accordingly and the sensors, which are arranged on the motor vehicle, can be defined. Further, the position and orientation of other road users, such as vehicles, bicycles, persons, or the like, may be taken into account. The design of the road, such as the width, inclination and / or the presence of a curb, can be simulated according to computer science. Furthermore, currently prevailing environmental conditions, such as day, night, sun, rain or the like, which act on the sensors and the objects to be detected, can be defined within the simulation program used. Furthermore, it is known from the prior art that the simulation programs or vehicle modeling programs are used, for example, with an HIL test stand (HIL - Hardware in the Loop).

Ein Verfahren zum Ermitteln eines Detektionsbereichs eines Sensors ist beispielsweise in der DE 103 14 129 A1 beschrieben. Hierbei wird der Detektionsbereich eines in einem Kraftfahrzeug eingebauten Sensors simuliert. Dabei werden Amplitudenwerte von empfangenen Signalen berechnet, die ein Ultraschallsensor als Reflexionen von Strahlung an einem Normprüfkörper empfangen würde, wenn sich der Normprüfkörper an verschiedenen Positionen im Strahlungsbereich des Ultraschallsensors befindet und dort von dem Ultraschallsensor abgestrahlt werden würde. Zudem wird festgestellt, für welche Positionen des Normprüfkörpers relativ zum Ultraschallsensor die jeweiligen Amplitudenwerte der empfangenen Signale oberhalb von definierten Schwellwerten liegen. Auf diesem Wege wird dann der Detektionsbereich des Ultraschallsensors ermittelt. A method for determining a detection range of a sensor is, for example, in DE 103 14 129 A1 described. Here, the detection range of a built-in motor vehicle sensor is simulated. In this case, amplitude values of received signals are calculated which an ultrasonic sensor would receive as reflections of radiation on a standard test body when the standard test body is located at different positions in the radiation area of the ultrasonic sensor and would be emitted there by the ultrasonic sensor. It is also determined for which positions of the standard test body relative to the ultrasonic sensor the respective amplitude values of the received signals are above defined threshold values. In this way, the detection range of the ultrasonic sensor is then determined.

Um beliebig gestaltete Objekte bzw. Hindernisse bereits in der Entwicklungsphase von Sensoren zuverlässig und genauer untersuchen zu können, schlägt die DE 10 2011 015 094 A1 vor, bei einem Verfahren zum simulativen Ermitteln von Messeigenschaften eines virtuell modellierten Sensors einen Bereich einer Oberfläche des Objekts durch die Recheneinrichtung in eine Vielzahl von Flächensegmenten zu unterteilen. Die Flächensegmente werden dann durch einen dreidimensionalen gewölbten Oberflächenbereich einer geometrischen Form mit einem bekannten Reflexionsfaktor modelliert bzw. angenähert. Anhand jedes der Flächensegmente kann dann ein an diesem Flächensegment auftretender Signalanteil des Sendesignals berechnet werden. Zum Bestimmen des Sendesignals kann eine Richtcharakteristik des Sensors herangezogen werden. Das Empfangssignal wird aus der Summe von an den jeweiligen Oberflächenbereichen reflektierten Signalanteilen berechnet. Dabei kann es auch vorgesehen sein, dass die Position des Objekts relativ zu dem Kraftfahrzeug vorgegeben wird, so dass das jeweilige Empfangssignal für unterschiedliche Positionen des Objekts ausgewertet und somit der Detektionsbereich des Sensors simulationstechnisch ermittelt werden kann. In order to be able to investigate reliably and more accurately any objects or obstacles already designed in the development phase of sensors, the DE 10 2011 015 094 A1 in a method for simulatively determining measurement properties of a virtually modeled sensor, dividing a region of a surface of the object by the computing device into a plurality of surface segments. The surface segments are then modeled by a three-dimensional curved surface area of a geometric shape with a known reflection factor. On the basis of each of the surface segments can then be calculated on this surface segment occurring signal component of the transmission signal. For determining the transmission signal, a directional characteristic of the sensor can be used. The received signal is calculated from the sum of signal components reflected at the respective surface areas. It can also be provided that the position of the object is predetermined relative to the motor vehicle, so that the respective received signal can be evaluated for different positions of the object and thus the detection range of the sensor can be determined by simulation technology.

Es ist Aufgabe der vorliegenden Erfindung, eine Lösung aufzuzeigen, wie die Interaktion zwischen einem Sensor und einem virtuellen Objekt in einem virtuellen Umgebungsbereich des Kraftfahrzeugs genauer und zuverlässiger bestimmt werden kann. It is an object of the present invention to provide a solution as to how the interaction between a sensor and a virtual object in a virtual surrounding area of the motor vehicle can be determined more accurately and reliably.

Diese Aufgabe wird erfindungsgemäß durch ein Verfahren sowie durch ein Rechensystem mit den Merkmalen gemäß den jeweiligen unabhängigen Patentansprüchen gelöst. Vorteilhafte Ausführungen der Erfindung sind Gegenstand der abhängigen Patentansprüche, der Beschreibung und der Figuren. This object is achieved by a method and by a computing system having the features according to the respective independent claims. Advantageous embodiments of the invention are the subject of the dependent claims, the description and the figures.

Ein erfindungsgemäßes Verfahren dient zum simulativen Bestimmen einer Interaktion zwischen einem Sensor eines Kraftfahrzeugs und einem virtuellen Objekt in einem virtuellen Umgebungsbereich des Kraftfahrzeugs mittels einer Recheneinrichtung. Dabei werden in dem virtuellen Umgebungsbereich anhand einer Richtcharakteristik des Sensors ein von dem Sensor ausgesendetes Sensorsignal und das an dem Objekt virtuell reflektierte Sensorsignal bestimmt. Zudem wird in dem virtuellen Umgebungsbereich des Kraftfahrzeugs ein Bezugspunkt bestimmt, welcher eine Position des Sensors beschreibt, anhand der Richtcharakteristik des Sensors wird eine den Bezugspunkt zumindest bereichsweise umgebende Hülle definiert. Ferner wird auf der Hülle zumindest ein Aufpunkt für einen Richtungsvektor, welcher das ausgesendete Sensorsignal beschreibt, definiert und anhand des Bezugspunkts und des Aufpunkts wird der Richtungsvektor bestimmt. An inventive method is used for simulatively determining an interaction between a sensor of a motor vehicle and a virtual object in a virtual environment of the motor vehicle by means of a computing device. In this case, a sensor signal emitted by the sensor and the sensor signal virtually reflected on the object are determined in the virtual environmental region on the basis of a directional characteristic of the sensor. In addition, in the virtual surrounding area of the motor vehicle, a reference point is determined which describes a position of the sensor, based on the directional characteristic of the sensor, a shell surrounding the reference point at least in regions is defined. Furthermore, at least one reference point for a direction vector which describes the emitted sensor signal is defined on the envelope, and the direction vector is determined on the basis of the reference point and the point of view.

Vorliegend soll die Interaktion zwischen dem Sensor des Kraftfahrzeugs und einem virtuellen Objekt simuliert werden. Das Objekt ist hierbei insbesondere virtuell modelliert. Das bedeutet, dass das Objekt mittels der Recheneinrichtung durch eine Simulation fiktiv gebildet wird. Vorliegend wird auch die Umgebung des Kraftfahrzeugs und/oder das Kraftfahrzeug selbst virtuell nachgebildet. So können beispielsweise unterschiedliche räumliche Anordnungen der Sensoren zu dem virtuellen Objekt untersucht werden. Ferner können beispielsweise unterschiedliche Abstände zwischen dem Sensor und dem virtuellen Objekt simuliert werden. Weiterhin ist es denkbar, dass verschiedene Fahrszenarien untersucht werden. Hier kann beispielsweise ein auf dem Markt erhältliches Simulationsprogramm verwendet werden. Beispielsweise kann das dynamische Fahrzeugmodellierungsprogramm „CarMaker“ der Firma IPG verwendet werden. In the present case, the interaction between the sensor of the motor vehicle and a virtual object is to be simulated. The object is in this case in particular virtually modeled. This means that the object is formed by means of the computing device by a simulation fictitious. In the present case, the surroundings of the motor vehicle and / or the motor vehicle itself are also virtually simulated. For example, different spatial arrangements of the sensors to the virtual object can be examined. Furthermore, for example, different distances between the sensor and the virtual object can be simulated. Furthermore, it is conceivable that different driving scenarios are examined. For example, a simulation program available on the market can be used here. For example, the dynamic vehicle modeling program "CarMaker" from IPG can be used.

Der Sensor dient insbesondere dazu, ein Objekt in einem Umgebungsbereich des Kraftfahrzeugs zu erfassen. Der Sensor kann auch dazu ausgebildet sein, einen Abstand zwischen dem Sensor und dem Objekt zu bestimmen. Ein solcher Sensor kann beispielsweise ein Ultraschallsensor, ein Laserscanner oder ein Radarsensor sein. Vorliegend wird das Sensorsignal bestimmt, welches von dem Sensor ausgesendet wird. Zum Bestimmen des ausgesendeten Sensorsignals wird die Richtcharakteristik des Sensors herangezogen. Die Richtcharakteristik beschreibt insbesondere mit welcher Intensität das Sensorsignal in Abhängigkeit von einem horizontalen Winkel und/oder einem vertikalen Winkel abgestrahlt wird. Die Richtcharakteristik kann auch die Intensität des Sensorsignals in Abhängigkeit von einem Raumwinkel beschreiben. Die Richtcharakteristik beschreibt insbesondere eine räumliche beziehungsweise dreidimensionale Intensitätsverteilung des Sensorsignals. Dabei kann auch nur ein Teil des von dem Sensor ausgesendeten Sensorsignals bestimmt werden. Anhand des virtuellen Objekts kann nun das von dem virtuellen Objekt virtuell reflektiertes Sensorsignal bestimmt werden. Hierbei ist es denkbar, dass nur ein Teil des von dem virtuellen Objekt virtuell reflektierten Sensorsignals bestimmt wird. Das virtuelle Objekt kann insbesondere einen Verkehrsteilnehmer oder ein Hindernis in dem virtuellen Umgebungsbereich des Kraftfahrzeugs darstellen. Das Objekt kann beispielsweise ein Kraftfahrzeug, ein Motorrad, ein Fahrrad, ein Fußgänger oder dergleichen darstellen. The sensor serves, in particular, to detect an object in an environmental region of the motor vehicle. The sensor may also be configured to determine a distance between the sensor and the object. Such a sensor may be, for example, an ultrasonic sensor, a laser scanner or a radar sensor. In the present case, the sensor signal which is emitted by the sensor is determined. For determining the emitted sensor signal, the directional characteristic of the sensor is used. The directional characteristic describes in particular with which intensity the sensor signal is radiated as a function of a horizontal angle and / or a vertical angle. The directional characteristic can also describe the intensity of the sensor signal as a function of a solid angle. In particular, the directional characteristic describes a spatial or three-dimensional intensity distribution of the sensor signal. In this case, only a part of the sensor signal emitted by the sensor can be determined. Based on the virtual object, the sensor signal virtually reflected by the virtual object can now be determined. It is conceivable that only a part of the sensor signal virtually reflected by the virtual object is determined. In particular, the virtual object may represent a road user or an obstacle in the virtual surrounding area of the motor vehicle. The object may be, for example, a motor vehicle, a motorcycle, a bicycle, a pedestrian or the like.

In dem virtuellen Umgebungsbereich des Kraftfahrzeugs wird ein Bezugspunkt definiert. Dieser Bezugspunkt kann beispielsweise die Position des Sensors bzw. einer Sendeeinrichtung des Sensors, welche das Sensorsignal aussendet, beschreiben. Darüber hinaus wird anhand der Richtcharakteristik des Sensors eine Hülle definiert, welche den Bezugspunkt zumindest bereichsweise umgibt. Die Hülle kann insbesondere die räumliche Erstreckung der Richtcharakteristik des Sensors beschreiben. Die Hülle kann also die Ausbreitung des Sensorsignals zu einem vorbestimmten Zeitpunkt räumlich abbilden. Dabei ist es auch denkbar, dass die Hülle die räumliche Erstreckung der Ausbreitung des Sensorsignals vereinfacht abbildet. Beispielsweise kann die Hülle die Form einer Halbkugel aufweisen. Auf der Hülle wird zumindest ein Aufpunkt definiert. Dabei kann es vorgesehen sein, dass eine Mehrzahl von Aufpunkten auf der Oberfläche der Hülle definiert werden. Hierzu kann beispielsweise die Hülle mit einem entsprechenden Netz in eine Mehrzahl von Aufpunkten eingeteilt werden. Ferner wird ein Richtungsvektor definiert, der sich ausgehend von dem Aufpunkt erstreckt. Dabei kann es auch vorgesehen sein, dass mehrere Richtungsvektoren zu mehreren Aufpunkten auf der Hülle bestimmt werden. Mit dem zumindest einen Richtungsvektor kann nun das ausgesendete Sensorsignal beschrieben werden. Der zumindest eine Richtungsvektor kann rechentechnisch schnell verarbeitet werden und somit kann beispielsweise eine Interaktion zwischen dem Sensor bzw. dem ausgesendeten Sensorsignal und dem virtuellen Objekt innerhalb einer geringen Rechenzeit bestimmt werden. In the virtual environment of the motor vehicle, a reference point is defined. This reference point can, for example, describe the position of the sensor or a transmitting device of the sensor which transmits the sensor signal. In addition, based on the directivity of the sensor, a shell is defined, which surrounds the reference point at least partially. In particular, the envelope may describe the spatial extent of the directional characteristic of the sensor. The envelope can thus spatially map the propagation of the sensor signal at a predetermined time. It is also conceivable that the shell images the spatial extent of the propagation of the sensor signal in a simplified manner. For example, the shell may have the shape of a hemisphere. On the shell at least one point of definition is defined. It can be provided that a plurality of Aufpunkte be defined on the surface of the shell. For this purpose, for example, the envelope can be divided with a corresponding network into a plurality of Aufpunkte. Furthermore, a direction vector is defined which extends from the point of view. It can also be provided that a plurality of directional vectors are determined at several points on the envelope. With the at least one direction vector, the emitted sensor signal can now be described. The at least one direction vector can be processed computationally fast and thus, for example, an interaction between the sensor or the emitted sensor signal and the virtual object can be determined within a short computing time.

Bevorzugt wird dem bestimmte Richtungsvektor ein Signalpegel des ausgesendeten Sensorsignals zugeordnet. Die Hülle kann die Richtcharakteristik des Sensorsignals insbesondere dreidimensional beschreiben. Die Hülle beschreibt beispielsweise eine dreidimensionale Signalpegelverteilung des ausgesendeten Sensorsignals. Dabei kann jedem der Aufpunkte ein Signalpegel zugeordnet sein. Der Richtungsvektor kann neben der Richtungsinformation des ausgesendeten Signals auch eine Information zu dem Signalpegel des ausgesendeten Signals bzw. des Signalanteils des ausgesendeten Signals umfassen. Dabei kann der Richtungsvektor in seiner Länge normiert sein und dem Richtungsvektor kann eine entsprechende Information, welche den Signalpegel beschreibt, zugeordnet sein. Weiterhin ist es denkbar, dass die Länge des Richtungsvektors den Signalpegel beschreibt. Mit dem Richtungsvektor kann somit einerseits eine Information bezüglich der Richtung des ausgesendeten Sensorsignals und andererseits eine Information bezüglich des Signalpegels ausgesendeten Sensorsignals bereitgestellt werden. Preferably, the determined direction vector is assigned a signal level of the transmitted sensor signal. The envelope may describe the directional characteristic of the sensor signal in particular in three dimensions. The envelope describes, for example, a three-dimensional signal level distribution of the transmitted sensor signal. In this case, each of the Aufpunkte can be assigned a signal level. In addition to the direction information of the transmitted signal, the direction vector can also contain information about the signal level of the transmitted signal or the signal component of the transmitted signal Include signals. In this case, the direction vector can be standardized in its length and the direction vector can be associated with a corresponding information which describes the signal level. Furthermore, it is conceivable that the length of the direction vector describes the signal level. Thus, with the direction vector, on the one hand, information relating to the direction of the transmitted sensor signal and, on the other hand, information relating to the signal level can be provided.

In einer weiteren Ausgestaltung wird der bestimmte Aufpunkt und/oder der bestimmte Richtungsvektor in eine Umgebungskarte eingetragen, welche den virtuellen Umgebungsbereich des Kraftfahrzeugs abbildet. Die Umgebungskarte kann den Umgebungsbereich des Kraftfahrzeugs insbesondere maßstabsgetreu abbilden. Die Umgebungskarte kann den Umgebungsbereich des Kraftfahrzeugs zweidimensional oder dreidimensional abbilden. In der Umgebungskarte kann das Kraftfahrzeug (Ego-Fahrzeug) sowie der Sensor, der an dem Kraftfahrzeug angeordnet ist, dargestellt sein. Zudem können weitere Sensoren des Kraftfahrzeugs in der Umgebungskarte dargestellt sein. Zudem ist in der Umgebungskarte insbesondere das virtuelle Objekt dargestellt. Mit Hilfe einer solchen Umgebungskarte kann der virtuelle Umgebungsbereich des Kraftfahrzeugs zuverlässig nachgebildet werden. In a further embodiment, the particular point of view and / or the specific direction vector is entered in an area map which depicts the virtual surrounding area of the motor vehicle. The environment map can map the surrounding area of the motor vehicle in particular to scale. The environment map can map the surrounding area of the motor vehicle two-dimensionally or three-dimensionally. In the environment map, the motor vehicle (ego vehicle) and the sensor, which is arranged on the motor vehicle, be represented. In addition, further sensors of the motor vehicle can be shown in the environment map. In addition, the virtual map is shown in the environment map in particular. With the help of such an environment map, the virtual environment of the motor vehicle can be reliably replicated.

In einer weiteren Ausführungsform umfasst das Verfahren eine Mehrzahl von zeitlich aufeinanderfolgenden Simulationsschritten, wobei die Umgebungskarte nach jedem der Simulationsschritte aktualisiert wird. Das Verfahren, bei welchem die Interaktion zwischen dem Sensor und dem virtuellen Objekt simuliert wird, kann in mehrere zeitlich aufeinanderfolgende Simulationsschritte eingeteilt sein. Dabei kann in jedem der Simulationsschritte die relative Lage des Sensors bezüglich des Objekts untersucht werden. Ebenso kann die Ausbreitung des ausgesendeten Sensorsignals und/oder die Ausbreitung des von dem Objekt virtuell reflektierten Sensorsignals untersucht werden. Somit können auch dynamische Prozesse simulationstechnisch nachgebildet werden, bei denen der Sensor und das Objekt relativ zueinander bewegt werden. Nach dem Abschluss jedes der Simulationsschritte kann die Umgebungskarte aktualisiert werden. Mit anderen Worten werden die in dem jeweiligen Simulationsschritt berechneten Ergebnisse in die Umgebungskarte übertragen. Auf diese Weise kann mit Hilfe der Umgebungskarte eine dynamische Simulation der Interaktion zwischen dem Sensor und dem virtuellen Objekt ermöglicht werden. In a further embodiment, the method comprises a plurality of temporally successive simulation steps, wherein the environment map is updated after each of the simulation steps. The method, in which the interaction between the sensor and the virtual object is simulated, can be divided into several temporally successive simulation steps. In this case, in each of the simulation steps, the relative position of the sensor with respect to the object can be examined. Likewise, the propagation of the emitted sensor signal and / or the propagation of the sensor signal virtually reflected by the object can be examined. Thus, even dynamic processes can be modeled simulation-wise, in which the sensor and the object are moved relative to each other. After completing each of the simulation steps, the environment map can be updated. In other words, the results calculated in the respective simulation step are transferred to the environment map. In this way a dynamic simulation of the interaction between the sensor and the virtual object can be made possible with the help of the environment map.

Bevorzugt wird nach jedem der Simulationsschritte eine Position des Aufpunkts und/oder eine Richtung des Richtungsvektors aktualisiert. Durch die Anpassung der Position des Aufpunkts und/oder die Anpassung der Orientierung des Richtungsvektors kann in den zeitlich aufeinanderfolgenden Simulationsschritten modelliert werden, dass sich das ausgesendete Sensorsignal im Laufe der Zeit ausbreitet. Weiterhin kann durch das Anpassen der Position des Aufpunkts und/oder der Richtung des Richtungsvektors eine Bewegung des Sensors relativ zu dem Objekt simuliert werden. Somit kann insbesondere die Ausbreitung des Sensorsignals in Abhängigkeit von der Zeit einfach und zuverlässig simulationstechnisch nachgebildet werden. Preferably, after each of the simulation steps, a position of the point of view and / or a direction of the direction vector is updated. By adjusting the position of the point of view and / or adjusting the orientation of the direction vector, it can be modeled in the temporally successive simulation steps that the emitted sensor signal propagates over time. Furthermore, by adjusting the position of the point of view and / or the direction of the direction vector, a movement of the sensor relative to the object can be simulated. Thus, in particular, the propagation of the sensor signal as a function of time can be reproduced simply and reliably by simulation.

Weiterhin ist es vorteilhaft, wenn anhand des Richtungsvektors und einer Position des Objekts in der Umgebungskarte ein Schnittpunkt und/oder ein Schnittwinkel zwischen dem Richtungsvektor und dem Objekt bestimmt wird. In der Umgebungskarte sind der Richtungsvektor, welcher die Ausbreitung des Sensorsignals beschreibt, und das Objekt dargestellt. Somit kann auf einfache Weise ein Schnittpunkt zwischen dem Richtungsvektor und dem Objekt bestimmt werden. Weiterhin kann der Schnittwinkel zwischen dem Richtungsvektor und dem Objekt bestimmt werden, wobei der Schnittwinkel insbesondere den räumlichen Winkel zwischen dem Richtungsvektor und einer vorbestimmten Fläche des Objekts beschreibt. Somit kann auf einfache Weise bestimmt werden, an welcher Stelle und/oder in welchem Winkel das ausgesendete Sensorsignal auf das virtuelle Objekt trifft. Furthermore, it is advantageous if, based on the direction vector and a position of the object in the environment map, an intersection point and / or an intersection angle between the direction vector and the object is determined. In the environment map, the direction vector describing the propagation of the sensor signal and the object are shown. Thus, an intersection between the direction vector and the object can be determined in a simple manner. Furthermore, the intersection angle between the direction vector and the object can be determined, wherein the intersection angle particularly describes the spatial angle between the direction vector and a predetermined surface of the object. It can thus be determined in a simple manner at which point and / or at which angle the emitted sensor signal hits the virtual object.

In einer bevorzugten Ausführungsform wird für das Objekt eine Mehrzahl von Zuordnungsvorschriften vorgegeben, welche jeweils eine Zuordnung zwischen dem auftreffenden ausgesendeten Sensorsignals und dem von dem Objekt virtuell reflektieren Sensorsignal beschreiben. Zu diesem Zweck kann beispielsweise eine Außenkontur des Objekts bestimmt werden. Diese Außenkontur kann beispielsweise aus einem CAD-Modell (CAD – Computer Aided Design) gewonnen werden. Diese Außenkontur definiert also insbesondere die äußeren Abmessungen des Objekts. Ferner kann eine Objekthülle bestimmt werden, welche die Außenkontur des Objekts zumindest bereichsweise umgibt. Diese Objekthülle kann insbesondere eine dreidimensionale Form aufweisen. Beispielsweise kann die Objekthülle quaderförmig ausgebildet sein. Auf der Objekthülle können eine Mehrzahl von Eintrittsauftreffstellen definiert werden, welche mögliche Schnittpunkte des Richtungsvektors mit der Objekthülle beschreiben. Für jedes Eintrittsauftreffstellen und die dazugehörigen Einfallswinkeln kann eine Zuordnungsvorschrift definiert werden. Die Zuordnungsvorschrift beschreibt den Zusammenhang zwischen einem Richtungsvektor, der an der Eintrittsauftreffstelle unter einem Einfallswinkel auf die Hülle auftrifft und einem Richtungsvektor des virtuell reflektierten Sensorsignals, der aus der Hülle an einer Austrittsauftreffstelle unter einem Austrittswinkel austritt. Die Zuordnungsvorschrift beschreibt einerseits die räumliche Anordnung der Objekthülle zu der Außenkontur des Objekts. Andererseits kann die jeweilige Zuordnungsvorschrift die Ausbreitung des ausgesendeten Sensorsignals von der Objekthülle zu der Außenkontur und/oder die Reflexion des ausgesendeten Signals an der Außenkontur und/oder eine Ausbreitung des virtuell reflektierten Sensorsignals von der Außenkontur zu der Hülle beschreiben. Dabei können die Reflexionseigenschaften der Außenkontur bzw. von Konturstellen der Außenkontur berücksichtigt werden. Weiterhin kann die Dämpfung, insbesondere die Freiraum-Luftdämpfung, des ausgesendeten Sensorsignals bzw. des virtuell reflektierten Sensorsignals innerhalb der Objekthülle berücksichtigt werden. Die jeweiligen Zuordnungsvorschriften können beispielsweise in einem sogenannten Pre-Processing vor dem eigentlichen Simulationsverfahren bestimmt werden. In a preferred embodiment, a plurality of assignment specifications is specified for the object, which respectively describe an association between the incident transmitted sensor signal and the sensor signal virtually reflected by the object. For this purpose, for example, an outer contour of the object can be determined. This outer contour can be obtained, for example, from a CAD model (CAD - Computer Aided Design). This outer contour thus defines in particular the outer dimensions of the object. Furthermore, an object envelope can be determined which at least partially surrounds the outer contour of the object. This object envelope may in particular have a three-dimensional shape. For example, the object envelope may be cuboid. On the object envelope, a plurality of entry impingement points can be defined which describe possible intersections of the direction vector with the object envelope. An assignment rule can be defined for each entry impact location and the associated angles of incidence. The assignment rule describes the relationship between a directional vector impinging on the envelope at the entrance impact site at an angle of incidence, and a directional vector of the virtually reflected sensor signal exiting the envelope at an exit impingement point at an exit angle. The assignment rule on the one hand describes the spatial arrangement of the object shell to the outer contour of the object. On the other hand, the respective assignment rule can describe the propagation of the emitted sensor signal from the object envelope to the outer contour and / or the reflection of the transmitted signal on the outer contour and / or a propagation of the virtually reflected sensor signal from the outer contour to the envelope. In this case, the reflection properties of the outer contour or contour points of the outer contour can be taken into account. Furthermore, the attenuation, in particular the free-space air damping, of the emitted sensor signal or of the virtually reflected sensor signal within the object envelope can be taken into account. The respective assignment rules can be determined, for example, in a so-called pre-processing before the actual simulation method.

Weiterhin ist es vorteilhaft, wenn in Abhängigkeit von dem bestimmten Schnittpunkt und/oder Schnittwinkel zwischen dem Richtungsvektor und dem Objekt eine Zuordnungsvorschrift aus der Mehrzahl von Zuordnungsvorschriften ausgewählt wird und in Richtungsvektor des virtuell reflektierten Sensorsignals anhand der ausgewählten Zuordnungsvorschrift bestimmt wird. Wenn der Schnittpunkt und/oder der Schnittwinkel zwischen dem Richtungsvektor und dem Objekt bzw. der Objekthülle bekannt ist, kann diejenige Zuordnungsvorschrift aus der Mehrzahl von Zuordnungsvorschriften ausgewählt werden, welche dieser Eintrittsauftreffstelle und dem Einfallswinkel zugeordnet ist. Anhand der Zuordnungsvorschrift kann dann das reflektierte Sensorsignal und insbesondere ein Richtungsvektor des reflektierten Sensorsignals bestimmt werden. Da die Zuordnungsvorschriften lediglich ausgewählt werden müssen, kann das reflektierte Sensorsignal bzw. der Richtungsvektor des reflektierten Sensorsignals innerhalb einer geringen Rechenzeit, beispielsweise einer Millisekunde, bestimmt werden. Somit kann das virtuell reflektierte Sensorsignal insbesondere in Echtzeit bestimmt werden. Furthermore, it is advantageous if, depending on the specific intersection point and / or intersection angle between the direction vector and the object, an assignment rule is selected from the plurality of assignment rules and determined in the direction vector of the virtually reflected sensor signal on the basis of the selected assignment rule. If the point of intersection and / or the intersection angle between the direction vector and the object or the object envelope is known, that assignment rule can be selected from the plurality of assignment rules which are assigned to this entry point and the angle of incidence. Based on the assignment rule then the reflected sensor signal and in particular a direction vector of the reflected sensor signal can be determined. Since the assignment rules only have to be selected, the reflected sensor signal or the direction vector of the reflected sensor signal can be determined within a short computing time, for example one millisecond. Thus, the virtually reflected sensor signal can be determined in particular in real time.

In einer weiteren Ausgestaltung wird ein Schnittpunkt und/oder ein Schnittwinkel zwischen dem Richtungsvektor des virtuell reflektierten Sensorsignals und dem Sensor bestimmt. Somit kann untersucht werden, ob das von dem Objekt virtuell reflektierte Sensorsignal wieder auf den Sensor trifft und von diesem gegebenenfalls erfasst werden kann. Es kann auch untersucht werden, ob das virtuell reflektierte Sensorsignal zunächst auf eine Fahrbahnoberfläche trifft und von dieser wiederum reflektiert wird. Auf diese Weise können Mehrfachreflexionen des Sensorsignals bei der Simulation berücksichtigt werden. Wenn beispielsweise mehrere Sensoren, die an dem Kraftfahrzeug angeordnet sind, untersucht werden, kann überprüft werden, welcher der Sensoren ein reflektiertes Sensorsignal empfängt bzw. welcher der Sensoren das reflektierte Sensorsignal zuerst empfängt. In a further refinement, an intersection and / or a cutting angle between the direction vector of the virtually reflected sensor signal and the sensor is determined. Thus, it can be examined whether the sensor signal virtually reflected by the object hits the sensor again and can be detected by it if necessary. It can also be investigated whether the virtually reflected sensor signal initially strikes a road surface and is reflected by it in turn. In this way, multiple reflections of the sensor signal can be taken into account in the simulation. If, for example, several sensors arranged on the motor vehicle are examined, it can be checked which of the sensors receives a reflected sensor signal or which of the sensors first receives the reflected sensor signal.

In einer weiteren Ausgestaltung wird der Aufpunkt aus der Umgebungskarte gelöscht, falls ein Abstand zwischen dem Aufpunkt und dem Objekt einen vorbestimmten Mindestabstand unterschreitet. In die Umgebungskarte können mehrere Aufpunkte eingetragen sein, welche die Position des Aufpunkts zu unterschiedlichen Zeitpunkten bzw. nach dem Durchführen unterschiedlicher Simulationsschritte beschreibt. Wenn der Abstand zwischen dem Aufpunkt und dem Objekt einen Mindestabstand unterschreitet, kann dieser Aufpunkt aus der Umgebungskarte gelöscht werden. Dabei können Parameter, welche diesem gelöschten Aufpunkt zugeordnet sind, weiterverarbeitet werden. Es kann auch vorgesehen sein, dass ein Aufpunkt aus der Umgebungskarte gelöscht wird, falls ein Abstand zwischen dem Aufpunkt und dem Sensor einen vorbestimmten Mindestabstand unterschreitet. Dies eignet sich insbesondere, wenn das von dem Objekt virtuell reflektierte Sensorsignal bzw. der Richtungsvektor des virtuell reflektierten Sensorsignals untersucht wird. In a further embodiment of the Aufpunkt from the map is deleted if a distance between the Aufpunkt and the object falls below a predetermined minimum distance. In the environment map several Aufpunkte can be entered, which describes the position of the point at different times or after performing different simulation steps. If the distance between the point of view and the object falls below a minimum distance, this point can be deleted from the area map. In this case, parameters which are assigned to this deleted Aufpunkt be further processed. It can also be provided that a reference point is deleted from the environment map, if a distance between the receptor point and the sensor falls below a predetermined minimum distance. This is particularly suitable if the sensor signal virtually reflected by the object or the direction vector of the virtually reflected sensor signal is examined.

In einer Ausführungsform wird das Verfahren mit einem virtuellen Sensor durchgeführt, wobei zusätzlich eine Interaktion des virtuell reflektierten Sensorsignals mit dem virtuellen Sensor simulativ ermittelt wird. In diesem Fall wird nicht nur das Objekt, sondern auch der Sensor simulationstechnisch nachgebildet. Zudem kann anhand des virtuell reflektierten Sensors eine Interaktion zwischen dem virtuell reflektierten Sensorsignal und dem virtuellen Sensor bestimmt werden. Insbesondere kann simulativ bestimmt werden, ob und wie das reflektierte Sensorsignal auf den virtuellen Sensor auftrifft. Dabei können Auftreffwinkel und/oder die Energie des reflektierten Sensorsignals beim Auftreffen auf den virtuellen Sensor bestimmt werden. In one embodiment, the method is carried out with a virtual sensor, wherein additionally an interaction of the virtually reflected sensor signal with the virtual sensor is determined simulatively. In this case, not only the object, but also the sensor simulation model is simulated. In addition, based on the virtually reflected sensor, an interaction between the virtually reflected sensor signal and the virtual sensor can be determined. In particular, it can be determined simulatively whether and how the reflected sensor signal impinges on the virtual sensor. In this case, the angle of incidence and / or the energy of the reflected sensor signal can be determined when hitting the virtual sensor.

In einer weiteren Ausgestaltung wird das Verfahren mit einem realen Sensor durchgeführt, wobei ein Signalgeber in Abhängigkeit von dem virtuell reflektierten Sensorsignal zur Ausgabe eines realen reflektierten Sensorsignals für den realen Sensor angesteuert wird. In diesem Fall wird also ein realer Sensor verwendet, der mechanische und/oder elektrische Komponenten aufweisen kann. Mit dem realen Sensor kann ein reales Sensorsignal ausgesendet werden. Dieses reale Sensorsignal kann als Trigger für den Signalgeber verwendet werden. Ferner wird ein entsprechender Signalgeber verwendet, mit dem ein reflektiertes Sensorsignal nachgebildet werden kann. Anhand des virtuell reflektierten Sensorsignals kann bestimmt werden, welches reflektierte Sensorsignal der reale Sensor bei dem Vorhandensein eines realen Objekts empfangen würde. Ferner kann bestimmt werden zu welchem Zeitpunkt nach dem Aussenden des realen Sensorsignals der reale Sensor ein reales reflektiertes Sensorsignal empfangen würde. Dieses reale reflektierte Sensorsignal kann nun mit dem Signalgeber nachgebildet werden. Wenn der reale Sensor beispielsweise ein Ultraschallsensor ist, kann der Signalgeber eine entsprechende Ultraschallquelle sein, mit der das reflektierte Ultraschallsignal erzeugt werden kann. Somit kann das Verfahren beispielsweise in einen sogenannten Hardware-in-the-Loop-Prüfstand eingebunden werden. In a further embodiment, the method is carried out with a real sensor, wherein a signal generator is driven in response to the virtually reflected sensor signal for outputting a real reflected sensor signal for the real sensor. In this case, therefore, a real sensor is used, which may have mechanical and / or electrical components. With the real sensor, a real sensor signal can be sent out. This real sensor signal can be used as a trigger for the signal generator. Furthermore, a corresponding signal generator is used with which a reflected sensor signal can be simulated. Based on the virtually reflected sensor signal, it can be determined which reflected sensor signal the real sensor would receive in the presence of a real object. Furthermore, it can be determined at what time after the transmission of the real sensor signal real sensor would receive a real reflected sensor signal. This real reflected sensor signal can now be simulated with the signal generator. For example, if the real sensor is an ultrasonic sensor, the transducer may be a corresponding ultrasonic source capable of producing the reflected ultrasonic signal. Thus, the method can be incorporated, for example, in a so-called hardware-in-the-loop test bench.

Eine erfindungsgemäße Recheneinrichtung ist zum Durchführen eines erfindungsgemäßen Verfahrens ausgebildet. Die Recheneinrichtung kann beispielsweise ein Computer sein. Die Recheneinrichtung kann auch ein Steuergerät des Kraftfahrzeugs sein. A computing device according to the invention is designed to carry out a method according to the invention. The computing device may be, for example, a computer. The computing device can also be a control device of the motor vehicle.

Die Erfindung betrifft auch ein, vorzugsweise auf einem Speichermedium gespeichertes, Computerprogrammprodukt, welches dazu ausgebildet ist, ein erfindungsgemäßes Verfahren durchzuführen, wenn es auf einer Recheneinrichtung, insbesondere einem Computer, ausgeführt wird. The invention also relates to a computer program product, preferably stored on a storage medium, which is designed to carry out a method according to the invention when it is executed on a computing device, in particular a computer.

Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten Ausführungsformen sowie deren Vorteile gelten entsprechend für die erfindungsgemäße Recheneinrichtung sowie für das erfindungsgemäße Computerprogrammprodukt. The preferred embodiments presented with reference to the method according to the invention and their advantages apply correspondingly to the computing device according to the invention and to the computer program product according to the invention.

Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Alle vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen. Es sind somit auch Ausführungen von der Erfindung als umfasst und offenbart anzusehen, die in den Figuren nicht explizit gezeigt und erläutert sind, jedoch durch separierte Merkmalskombinationen aus den erläuterten Ausführungen hervorgehen und erzeugbar sind. Es sind auch Ausführungen und Merkmalskombinationen als offenbart anzusehen, die somit nicht alle Merkmale eines ursprünglich formulierten unabhängigen Anspruchs aufweisen. Further features of the invention will become apparent from the claims, the figures and the description of the figures. All features and combinations of features mentioned above in the description and the features and feature combinations mentioned below in the description of the figures and / or shown alone in the figures can be used not only in the respectively indicated combination but also in other combinations or alone, without the scope of the invention to leave. Thus, embodiments of the invention are to be regarded as encompassed and disclosed, which are not explicitly shown and explained in the figures, however, emerge and can be produced by separated combinations of features from the embodiments explained. Embodiments and combinations of features are also to be regarded as disclosed, which thus do not have all the features of an originally formulated independent claim.

Die Erfindung wird nun anhand eines bevorzugten Ausführungsbeispiels sowie unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert. The invention will now be described with reference to a preferred embodiment and with reference to the accompanying drawings.

Dabei zeigen: Showing:

1 ein schematisches Ablaufdiagramm eines Verfahrens zum Bestimmen einer Interaktion zwischen einem Sensor und einem virtuellen Objekt gemäß dem Stand der Technik; 1 a schematic flow diagram of a method for determining an interaction between a sensor and a virtual object according to the prior art;

2 ein virtuelles Modell eines Sensors eines Kraftfahrzeugs, wobei eine Richtcharakteristik eines ausgesendeten Sensorsignals anhand einer Hülle und eines Richtungsvektors beschrieben wird. 2 a virtual model of a sensor of a motor vehicle, wherein a directional characteristic of a transmitted sensor signal is described using a shell and a direction vector.

3 eine schematische Darstellung eines Prüfstands des Sensors; 3 a schematic representation of a test bench of the sensor;

4 Umgebungskarten, welche den virtuellen Umgebungsbereich des Kraftfahrzeugs in zeitlich aufeinanderfolgenden Schritten darstellen; 4 Environment maps representing the virtual environment of the motor vehicle in successive steps;

5 die Umgebungskarte, welche das Kraftfahrzeug und drei Objekte in dem virtuellen Umgebungsbereich des Kraftfahrzeugs zeigt; und 5 the area map showing the motor vehicle and three objects in the virtual surrounding area of the motor vehicle; and

6 die Umgebungskarte, welche ein von dem Objekt reflektiertes Sensorsignal zeigt. 6 the environment map showing a sensor signal reflected from the object.

Vorliegend soll die Interaktion zwischen einem Sensor S und einem virtuellen Objekt O in einem virtuellen Umgebungsbereich eines Kraftfahrzeugs F simulativ bestimmt werden. Ein solcher Sensor S kann beispielsweise an dem Kraftfahrzeug F angeordnet sein. Der Sensor S ist insbesondere dazu ausgebildet, das Objekt O in dem Umgebungsbereich des Kraftfahrzeugs F zu erfassen. Ein solcher Sensor S kann beispielsweise ein Ultraschallsensor, ein Radarsensor oder ein Laserscanner sein. Vorliegend wird also in einem Simulationsverfahren das von dem Sensor S ausgesendete Sensorsignal und das von dem virtuellen Objekt O virtuell reflektierte Sensorsignal bestimmt. In the present case, the interaction between a sensor S and a virtual object O in a virtual surrounding area of a motor vehicle F is to be determined simulatively. Such a sensor S can be arranged, for example, on the motor vehicle F. The sensor S is in particular designed to detect the object O in the surrounding area of the motor vehicle F. Such a sensor S may be, for example, an ultrasonic sensor, a radar sensor or a laser scanner. In the present case, therefore, the sensor signal emitted by the sensor S and the sensor signal virtually reflected by the virtual object O are determined in a simulation method.

1 zeigt ein schematisches Ablaufdiagramm eines Verfahrens zum Bestimmen einer Interaktion zwischen dem Sensor S und dem Objekt O gemäß dem Stand der Technik. Ein derartiges Verfahren kann beispielsweise in einem Hardware-in-the-Loop-Prüfstand eingesetzt werden. In einem Schritt S1 wird das Verfahren gestartet. Hierbei wird insbesondere ein Simulationszyklus gestartet. In einem Schritt S2 werden die Ausgangssignale von Hardwarekomponenten eingelesen. Zudem werden die Ausgangssignale mit den Ausgangssignalen verglichen, die bei einem vorherigen Simulationszyklus bestimmt wurden. In einem Schritt S3 werden Fahrer- und Fahrzeugzustandsgrößen berechnet. Die Fahrerzustandsgrößen beschreiben insbesondere, die Zustandsgrößen, die von einem Fahrer des Kraftfahrzeugs F vorgegeben werden. Die Fahrer- und Fahrzeugzustandsgrößen werden anhand der Ausgangssignale bestimmt, die zu dem vorherigen Simulationszyklus bestimmt wurden. Anhand der Ergebnisse, die in dem Schritt S3 bestimmt wurden, werden in einem Schritt S4 Ausgangsgrößen anhand des von einem Benutzer erstellten Modells für den Sensor bestimmt. Anschließend werden in einem Schritt S5 die Einträge für die Hardwarekomponenten gesetzt. Die Hardwarekomponenten, die insbesondere die realen Sensoren und eine Steuereinrichtung bzw. ein Steuergerät des Kraftfahrzeugs umfassen können, agieren auf die Eingangssignale und setzen die entsprechenden Ausgangssignale für den nächsten Simulationsschritt (Schritt S6). Für den Fall, dass der Hardware-in-the-Loop-Prüfstand nicht eingesetzt wird, werden die Schritte S2 und S5 nicht durchgeführt. Schließlich wird das Verfahren in einem Schritt S7 beendet. 1 shows a schematic flow diagram of a method for determining an interaction between the sensor S and the object O according to the prior art. Such a method can be used for example in a hardware-in-the-loop test bench. In a step S1, the method is started. In particular, a simulation cycle is started. In a step S2, the output signals of hardware components are read. In addition, the output signals are compared with the output signals determined in a previous simulation cycle. In a step S3, driver and vehicle state variables are calculated. The driver state variables in particular describe the state variables that are specified by a driver of the motor vehicle F. The driver and vehicle state quantities are determined from the output signals determined for the previous simulation cycle. Based on the results determined in step S3, outputs are determined based on the user-created model for the sensor in step S4. Subsequently, in a step S5, the entries for the hardware components are set. The hardware components, which may in particular comprise the real sensors and a control device or a control unit of the motor vehicle, act on the input signals and set the corresponding output signals for the next simulation step (step S6). In the event that the hardware-in-the-loop test bench is not used, steps S2 and S5 are not performed. Finally, the process is ended in a step S7.

Bei Fahrzeugsimulationsprogrammen gemäß dem Stand der Technik findet in jedem Simulationsschritt eine Überprüfung statt, ob das Objekt O von dem Sensor S detektiert wird. Es wird dabei angenommen, dass während eines Simulationsschrittes das Sensorsignal sowohl ausgesendet wird als auch ein virtuell reflektierte Sensorsignal empfangen wird. Bei realen Anwendungen des Sensors S treten aber üblicherweise Mehrfachreflexionen des ausgesendeten Sensorsignals bzw. des reflektierten Sensorsignals auf. Dies ist beispielsweise der Fall, wenn der Sensor S als Ultraschallsensor ausgebildet ist und zur Parklückenvermessung eingesetzt wird. Um derartige Situationen bzw. Mehrfachreflexionen simulationstechnisch nachbilden zu können, wird ein Verfahren benötigt, das die Wellenausbreitung mit den Mehrfachreflexionen an Objekten O berücksichtigt. Ein solches Verfahren wird nachfolgend vorgestellt. In vehicle simulation programs according to the prior art, a check takes place in each simulation step as to whether the object O is detected by the sensor S. It is assumed that during a simulation step, the sensor signal is both transmitted and a virtually reflected sensor signal is received. In real applications of the sensor S, however, multiple reflections of the emitted sensor signal or of the reflected sensor signal usually occur. This is for example the case when the sensor S is designed as an ultrasonic sensor and is used for parking space measurement. In order to be able to simulate such situations or multiple reflections by simulation, a method is needed that takes into account the wave propagation with the multiple reflections on objects O. Such a method is presented below.

2 zeigt ein Modell des Sensors S, der beispielsweise ein Ultraschallsensor sein kann. In dem vorliegenden Ausführungsbeispiel wird die Richtcharakteristik des Sensors S durch eine Hülle 1 beschrieben. Die Hülle 1 ist vorliegend halbkugelförmig ausgebildet. Vorliegend ist ein Bezugspunkt B definiert, welche in dem vorliegenden Fall den Mittelpunkt der halbkugelförmigen Hülle 1 beschreibt. Der Bezugspunkt B kann beispielsweise die Position des Sensors S bzw. einer Sendeeinrichtung des Sensors S beschreiben. Zudem ist die Hülle 1 mit Hilfe eines entsprechenden Gitters in entsprechende Zellen 2 unterteilt. Dabei ist jeder der Zellen 2 ein Schallpegel bzw. Schalldruckpegel zugeordnet. Der Schwerpunkt der jeweiligen Zelle 2 bildet einen Aufpunkt P für einen Richtungsvektor k, welcher das von dem Sensor S ausgesendeten Sendesignal oder einen Teil davon beschreibt. Der Richtungsvektor k verläuft entlang der verlängerten Verbindungslinie zwischen dem Bezugspunkt B und dem Aufpunkt P. 2 shows a model of the sensor S, which may be, for example, an ultrasonic sensor. In the present embodiment, the directivity of the sensor S by a sheath 1 described. The case 1 is presently formed hemispherical. In the present case, a reference point B is defined, which in the present case is the center of the hemispherical shell 1 describes. The reference point B can for example describe the position of the sensor S or a transmitting device of the sensor S. In addition, the shell 1 with the help of a corresponding grid in corresponding cells 2 divided. Here is each of the cells 2 assigned a sound level or sound pressure level. The focus of each cell 2 forms a reference point P for a direction vector k, which describes the transmitted signal from the sensor S or a part thereof. The direction vector k runs along the extended connecting line between the reference point B and the point P.

3 zeigt eine schematische Darstellung eines Prüfstands 3, insbesondere eines Hardware-in-the-Loop-Prüfstands. Der Prüfstand 3 weist die Blöcke I bis VIII auf, welche durch einzelne Recheneinrichtungen gebildet sein können. Die Blöcke I bis VIII können auch durch eine einzige Recheneinrichtung gebildet sein. Der Prüfstand 3 weist einen ersten Block I auf, der mehrere Listeneinträge 4 aufweist. Jeder der Listeneinträge 4 beschreibt die Parameter für einen Sensor S. Vorliegend kann beispielsweise ein Kraftfahrzeug F simuliert werden, welches vier Sensoren S aufweist. Jeder der Listeneinträge 4 repräsentiert einen Parameterdatensatz bestehend aus einer fortlaufenden Nummerierung. Ferner ist im Parameterdatensatz der Aufpunkt P für jeden Sensor S hinterlegt. Weiterhin ist in dem Parameterdatensatz insbesondere der Richtungsvektor k, insbesondere ein normierter Richtungsvektor, für jeden Sensor S hinterlegt. Dabei kann der Parameterdatensatz eine Anzahl von maximalen Rechenschritten, die geometrischen Abmessungen der Hülle 1, insbesondre einen Radius der Hülle 1, eine maximale Länge der Richtungsvektoren k und entsprechende Parameter, welche den Schalldruckpegel beschreiben, umfassen. Ferner umfasst der Parameterdatensatz den zurückgelegten Weg des ausgesendeten Sensorsignals bzw. die Ausbreitung des Richtungsvektors k während eines Simulationsschritts. 3 shows a schematic representation of a test bench 3 , in particular a hardware-in-the-loop test bench. The test bench 3 has the blocks I to VIII, which may be formed by individual computing devices. The blocks I to VIII can also be formed by a single computing device. The test bench 3 has a first block I containing several list entries 4 having. Each of the list entries 4 describes the parameters for a sensor S. In the present case, for example, a motor vehicle F can be simulated, which has four sensors S. Each of the list entries 4 represents a parameter record consisting of a consecutive numbering. Furthermore, in the parameter data set, the point P is stored for each sensor S. Furthermore, the directional vector k, in particular a normalized direction vector, is stored for each sensor S in the parameter data set. In this case, the parameter data set a number of maximum calculation steps, the geometric dimensions of the shell 1 , in particular a radius of the shell 1 , a maximum length of the direction vectors k and corresponding parameters describing the sound pressure level include. Furthermore, the parameter data set comprises the path traveled by the transmitted sensor signal or the propagation of the direction vector k during a simulation step.

Dabei ist der normierte Richtungsvektor k in einem Sensorkoordinatensystem beschrieben. Dieser Parameterdatensatz wird bei dem Start einer Simulation in ein Fahrzeugsimulationsprogramm, beispielsweise in das Programm „CarMaker“ der Firma IPG, importiert. In einem Block II des Prüfstands 3 werden jedem der Simulationsschritte die Richtungsvektoren k in ein gegebenenfalls lokales Fahrzeugkoordinatensystem transformiert. In dem Block III wird das Sensorsignal von dem Sensor S ausgesendet. Hierbei liegt ein Pegel an einer Signalleitung 8 an. Beim Anliegen des Pegels an der Signalleitung 8 wird ein Trigger für den Block IV bereitgestellt. In this case, the normalized direction vector k is described in a sensor coordinate system. This parameter data record is imported at the start of a simulation in a vehicle simulation program, for example in the program "CarMaker" from the company IPG. In a block II of the test bench 3 For each of the simulation steps, the direction vectors k are transformed into an optionally local vehicle coordinate system. In block III, the sensor signal from the sensor S is emitted. This is a level on a signal line 8th at. When applying the level to the signal line 8th a trigger is provided for block IV.

In dem Block IV des Prüfstands werden die Aufpunkte P und die Richtungsvektoren k in eine Umgebungskarte 11 eingetragen. Die Umgebungskarte 11 beschreibt einen virtuellen Umgebungsbereich des Kraftfahrzeugs F, wobei in der Umgebungskarte 11 zusätzlich die Position des Kraftfahrzeugs F und die Position zumindest eines Objekts O eingetragen ist. 4 zeigt vier Umgebungskarten 11 für zeitlich aufeinanderfolgende Schritten. Für einen Zeitpunkt tn ist in einer ersten Umgebungskarte 11 das Kraftfahrzeug F sowie der an dem Kraftfahrzeug angeordnete Sensor S dargestellt. Ferner sind der Aufpunkt Pn und der Richtungsvektor k dargestellt. Zu einem weiteren Zeitpunkt tn+1 ist in einer zweiten Umgebungskarte 11 zudem der Aufpunkt Pn+1 eingetragen. Die dritte Umgebungskarte 11 zeigt zudem den Aufpunkt Pn+2 zu dem Zeitpunkt tn+2. Die vierte Umgebungskarte 11 zeigt den Aufpunkt Pn+3 zu dem Zeitpunkt tn+3. Die einzelnen Zeitpunkte tn bis tn+3 zeigen insbesondere Ergebnisse von einzelnen Simulationsschritten. Somit kann die Ausbreitung des von dem Sensor S ausgesendeten Sensorsignals durch die Aufpunkte Pn bis Pn+3 und den Richtungsvektor k in Abhängigkeit von der Zeit dargestellt werden. In the block IV of the test stand, the points of view P and the direction vectors k become an environment map 11 entered. The environment map 11 describes a virtual surrounding area of the motor vehicle F, wherein in the area map 11 additionally the position of the motor vehicle F and the position of at least one object O is registered. 4 shows four environment maps 11 for temporally consecutive steps. For a time t n is in a first environment map 11 the motor vehicle F and arranged on the motor vehicle sensor S shown. Furthermore, the point of view P n and the direction vector k are shown. At a further time t n + 1 is in a second environment map 11 In addition, the Aufpunkt P n + 1 registered. The third area map 11 also shows the point P n + 2 at the time t n + 2 . The fourth area map 11 shows the point of view P n + 3 at the time t n + 3 . The individual times t n to t n + 3 show in particular results of individual simulation steps. Thus, the propagation of the sensor signal sent by the sensor S can be represented by the points P n to P n + 3 and the direction vector k as a function of time.

5 zeigt die Umgebungskarte 11 in einer weiteren Ausführungsform. Hier befinden sich in dem virtuellen Umgebungsbereich des Kraftfahrzeugs F drei Objekte O1, O2 und O3. Vorliegend ist zu erkennen, dass sich der Richtungsvektor k mit dem ersten Objekt O1 in einem Schnittpunkt T1 und mit dem zweiten Objekt O2 in einem Schnittpunk T2 schneidet. Hierbei kann der jeweilige Schnittpunkt des Richtungsvektors k mit den Objekten O1 und O2 sowie der jeweilige Schnittwinkel zwischen dem Richtungsvektor k und den Objekten O1 und O2 bestimmt werden. Ferner werden ein Abstand d1 zwischen dem Aufpunkt Pn+1 und dem ersten Objekt O1 und ein Abstand d2 zwischen diesem Aufpunkt Pn+1 und dem zweiten Objekt O2 bestimmt. Hier wird untersucht, ob das Minimum der Abstände d1 und d2 kleiner als ein vorbestimmter Mindestabstand ε ist. 5 shows the map of the area 11 in a further embodiment. Here are located in the virtual environment of the motor vehicle F three objects O 1 , O 2 and O 3 . In the present case, it can be seen that the direction vector k intersects with the first object O 1 in an intersection point T 1 and with the second object O 2 in an intersection point T 2 . In this case, the respective intersection of the direction vector k with the objects O 1 and O 2 and the respective intersection angle between the direction vector k and the objects O 1 and O 2 can be determined. Furthermore, a distance d 1 between the point P n + 1 and the first object O 1 and a distance d 2 between this point P n + 1 and the second object O 2 are determined. Here it is examined whether the minimum of the distances d 1 and d 2 is smaller than a predetermined minimum distance ε.

6 zeigt die Umgebungskarte 11 in einer weiteren Ausführungsform. Hier befindet sich in dem Bereich des Kraftfahrzeugs F ein Objekt O. Vorliegend wurde das ausgesendete Sensorsignal von dem Objekt O reflektiert. In der Umgebungskarte 11 ist zudem ein Richtungsvektor r des reflektierten Sensorsignals dargestellt. Hierbei wird überprüft, ob sich der Richtungsvektor r des reflektierten Sensorsignals mit dem Kreis A in einem Schnittpunkt T3 schneidet, welcher den an dem Kraftfahrzeug F angeordneten Sensor S umgibt. Falls eine dreidimensionale Umgebungskarte 11 verwendet wird, kann anstelle des Kreises A eine Kugel vorgesehen sein. 6 shows the map of the area 11 in a further embodiment. Here is located in the area of the motor vehicle F an object O. In the present case, the emitted sensor signal from the object O was reflected. In the area map 11 In addition, a direction vector r of the reflected sensor signal is shown. In this case, it is checked whether the direction vector r of the reflected sensor signal intersects with the circle A at an intersection point T 3 , which surrounds the sensor S arranged on the motor vehicle F. If a three-dimensional map of the area 11 is used, instead of the circle A may be provided a ball.

In dem Block V des Prüfstands wird nun in einem Teilblock 5 überprüft, ob bei einer Anordnung gemäß 5 das Minimum des Abstands d1und des Abstands d2 kleiner oder gleich als der vorbestimmte Mindestabstand ε ist. Ferner wird in einem Teilblock 6 überprüft, ob bei einer Anordnung von 6 ein Abstand d3 zwischen dem Sensor S und dem Aufpunkt Pn+1 kleiner oder gleich als der Mindestabstand ε ist. In the block V of the test bench is now in a sub-block 5 checks if in an arrangement according to 5 the minimum of the distance d 1 and the distance d 2 is less than or equal to the predetermined minimum distance ε. Further, in a sub-block 6 Check if an arrangement of 6 a distance d 3 between the sensor S and the point P n + 1 is less than or equal to the minimum distance ε.

In einem Block VI wird bei dem Ausführungsbeispiel gemäß 5 der Aufpunkt Pn+1 aus der Umgebungskarte 11 gelöscht und zudem wird die Strahlnummer, die Nummer des Hindernisses, der Schnittpunkt T1, T2 und der Schnittwinkel mit den Objekten O1 und O2 sowie die maximale Strahllänge und interne Parameter übergeben. Zudem wird in dem Block VI anhand von Reflexionsdämpfungen unter Berücksichtigung von Materialeigenschaften, der Freiraum-Luftdämpfung und weiteren Dämpfungswerten die Reflexion an dem Objekt O1 berechnet. Hierbei kann für jeden der gelöschten Aufpunkte P von dem Bock VI an den Block IV die Strahlennummer, ein Zeitintervall, bis zu welchem ein neuer Aufpunkt P aktualisiert in die Umgebungskarte 11 aufgenommen wird, ein aktualisierter Aufpunkt P, der aktualisierte Richtungsvektor k und eine Information darüber, ob der aktuelle Aufpunkt P aus der Umgebungskarte 11 gelöscht werden kann, übertragen. In a block VI is in the embodiment according to 5 the point P n + 1 from the map 11 The beam number, the number of the obstacle, the intersection point T 1 , T 2 and the intersection angle with the objects O 1 and O 2 as well as the maximum beam length and internal parameters are transferred. In addition, the reflection at the object O 1 is calculated in the block VI on the basis of reflection attenuation taking into account material properties, the free-space air damping and further attenuation values. Here, for each of the deleted viewpoints P from the block VI to the block IV, the ray number, a time interval up to which a new point P is updated into the environment map 11 is an updated Aufpunkt P, the updated direction vector k and information about whether the current Aufpunkt P from the area map 11 can be deleted, transferred.

In den Blöcken VII und VIII wird bei dem Fall gemäß 6 der Aufpunkt Pn+1 aus der Umgebungskarte 11 entfernt. An den Block VII werden die Strahlennummern, die Nummer des Objekts O, die zurückgelegte Strecke des Sensors S, die zurückgelegte Gesamtstrecke, der Schnittpunkt T3 sowie der Schnittwinkel mit dem Sensor S und interne Parameter übergeben. Der Block VII berechnet ein nachgebildetes reflektiertes Sensorsignal, das mit einem Signalgeber 7 ausgesendet wird. Der Signalgeber 7 ist über eine Leitung 9 mit einer Spannungsversorgung verbunden. Zudem ist der Signalgeber 7 über eine Leitung 10 mit einem Masseanschluss verbunden. Mit diesem nachgebildeten reflektierten Sensorsignal kann ein realer Sensor beaufschlagt werden. Zudem werden in dem Block VII die Zeitpunkte, zu welchem das reflektierte Echo von einem Signalgeber 7 ausgesendet werden soll, bestimmt. Von dem Block VIII werden für den Sensor der Zeitpunkt zum Aussenden des nachgebildeten Signals sowie die Amplitude und die Phase des nachgebildeten Signals übergeben. Mit dem Bock VIII kann somit der Signalgeber 7 über die Signalleitung 8 angesteuert werden. Somit kann mit dem Signalgeber 7 das nachgebildete reflektierte Sensorsignal ausgegeben werden. In blocks VII and VIII, in the case of 6 the point P n + 1 from the map 11 away. The beam numbers, the number of the object O, the distance traveled by the sensor S, the total distance covered, the point of intersection T 3 and the intersection angle with the sensor S and internal parameters are transferred to the block VII. Block VII calculates a replicated reflected sensor signal associated with a signal generator 7 is sent out. The signal generator 7 is over a line 9 connected to a power supply. In addition, the signal generator 7 over a line 10 connected to a ground connection. With this simulated reflected sensor signal, a real sensor can be acted upon. In addition, in block VII, the times at which the reflected echo from a signal generator 7 is to be sent out, determined. From the block VIII the time for emitting the simulated signal as well as the amplitude and the phase of the simulated signal are transmitted to the sensor. With the Bock VIII can thus the signal generator 7 over the signal line 8th be controlled. Thus, with the signal generator 7 the replicated reflected sensor signal is output.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 10314129 A1 [0004] DE 10314129 A1 [0004]
  • DE 102011015094 A1 [0005] DE 102011015094 A1 [0005]

Claims (13)

Verfahren zum simulativen Bestimmen einer Interaktion zwischen einem Sensor (S) eines Kraftfahrzeugs (F) und einem virtuellen Objekt (O, O1, O2, O3) in einem virtuellen Umgebungsbereich des Kraftfahrzeugs (F) mittels einer Recheneinrichtung, bei welchem in dem virtuellen Umgebungsbereich anhand einer Richtcharakteristik des Sensors (S) ein von dem Sensor (S) ausgesendetes Sensorsignal und das von dem Objekt (O, O1, O2, O3) virtuell reflektierte Sensorsignal bestimmt werden, dadurch gekennzeichnet, dass in dem virtuellen Umgebungsbereich ein Bezugspunkt (B) bestimmt wird, welcher eine Position des Sensors (S) beschreibt, anhand der Richtcharakteristik des Sensors (S) eine den Bezugspunkt (B) zumindest bereichsweise umgebende Hülle (1) definiert wird, auf der Hülle (1) zumindest ein Aufpunkt (P, Pn, Pn+1, Pn+2, Pn+3) für einen Richtungsvektor (k), welcher das ausgesendete Sensorsignal beschreibt, definiert wird und anhand des Bezugspunkts (B) und des Aufpunkts (P, Pn, Pn+1, Pn+2, Pn+3) der Richtungsvektor (k) bestimmt wird. Method for simulatively determining an interaction between a sensor (S) of a motor vehicle (F) and a virtual object (O, O 1 , O 2 , O 3 ) in a virtual surrounding area of the motor vehicle (F) by means of a computing device, in which Virtual environment region on the basis of a directional characteristic of the sensor (S) from the sensor (S) emitted sensor signal and the object (O, O 1 , O 2 , O 3 ) virtually reflected sensor signal are determined, characterized in that in the virtual environment a reference point (B) is determined, which describes a position of the sensor (S), based on the directional characteristic of the sensor (S) at least partially surrounding the reference point (B) envelope ( 1 ) is defined on the envelope ( 1 ) is defined at least one reference point (P, P n , P n + 1 , P n + 2 , P n + 3 ) for a direction vector (k) which describes the emitted sensor signal, and from the reference point (B) and the point of view (P, P n , P n + 1 , P n + 2 , P n + 3 ) the direction vector (k) is determined. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass dem bestimmte Richtungsvektor (k) ein Signalpegel des ausgesendeten Sensorsignals zugeordnet wird. A method according to claim 1, characterized in that the particular directional vector (k) is assigned a signal level of the transmitted sensor signal. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der definierte Aufpunkt (P, Pn, Pn+1, Pn+2, Pn+3) und/oder der bestimmte Richtungsvektor (k) in eine Umgebungskarte (11) eingetragen wird, welche den virtuellen Umgebungsbereich des Kraftfahrzeugs (F) abbildet. Method according to claim 1 or 2, characterized in that the defined point of definition (P, P n , P n + 1 , P n + 2 , P n + 3 ) and / or the determined direction vector (k) in an environment map ( 11 ) is entered, which depicts the virtual environment of the motor vehicle (F). Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass das Verfahren eine Mehrzahl von zeitlich aufeinanderfolgenden Simulationsschritte umfasst und die Umgebungskarte (11) nach jedem der Simulationsschritte aktualisiert wird. Method according to claim 3, characterized in that the method comprises a plurality of temporally successive simulation steps and the environment map ( 11 ) is updated after each of the simulation steps. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass nach jedem der Simulationsschritte eine Position des Aufpunkts (P, Pn, Pn+1, Pn+2, Pn+3) und/oder eine Richtung des Richtungsvektor (k) aktualisiert wird. A method according to claim 4, characterized in that after each of the simulation steps, a position of the point (P, P n , P n + 1 , P n + 2 , P n + 3 ) and / or a direction of the direction vector (k) is updated , Verfahren nach einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, dass anhand des Richtungsvektors (k) und einer Position des Objekts (O, O1, O2, O3) in der Umgebungskarte (11) ein Schnittpunkt und/oder Schnittwinkel zwischen dem Richtungsvektor (k) und dem Objekt (O, O1, O2, O3) bestimmt wird. Method according to one of claims 3 to 5, characterized in that based on the direction vector (k) and a position of the object (O, O 1 , O 2 , O 3 ) in the area map ( 11 ) an intersection and / or intersection angle between the direction vector (k) and the object (O, O 1 , O 2 , O 3 ) is determined. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass für das Objekt (O) eine Mehrzahl von Zuordnungsvorschriften vorgegeben wird, welche jeweils eine Zuordnung zwischen dem auf das Objekt (O, O1, O2, O3) auftreffenden ausgesendeten Sensorsignal und dem von dem Objekt (O, O1, O2, O3) virtuell reflektierten Sensorsignal beschreiben. Method according to one of the preceding claims, characterized in that for the object (O) a plurality of assignment rules is specified, which in each case an assignment between the transmitted to the object (O, O 1 , O 2 , O 3 ) emitted sensor signal and the describe sensor signal virtually reflected by the object (O, O 1 , O 2 , O 3 ). Verfahren nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass in Abhängigkeit von dem bestimmten Schnittpunkt (T1, T2) und/oder Schnittwinkel zwischen dem Richtungsvektor (k) und dem Objekt (O, O1, O2, O3) eine Zuordnungsvorschrift aus der Mehrzahl von Zuordnungsvorschriften ausgewählt wird und ein Richtungsvektor (r) des virtuell reflektierten Sensorsignals anhand der ausgewählten Zuordnungsvorschrift bestimmt wird. Method according to claim 6 or 7, characterized in that a function of the determined intersection (T 1 , T 2 ) and / or intersection angle between the direction vector (k) and the object (O, O 1 , O 2 , O 3 ) Assignment rule is selected from the plurality of assignment rules and a direction vector (r) of the virtually reflected sensor signal is determined based on the selected assignment rule. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass ein Schnittpunkt (T1, T2) und/oder ein Schnittwinkel zwischen dem Richtungsvektor (r) des virtuell reflektierten Sensorsignals und dem Sensor (S) bestimmt wird. A method according to claim 8, characterized in that an intersection (T 1 , T 2 ) and / or an intersection angle between the direction vector (r) of the virtually reflected sensor signal and the sensor (S) is determined. Verfahren nach einem der Ansprüche 3 bis 9, dadurch gekennzeichnet, dass der Aufpunkt (P, Pn, Pn+1, Pn+2, Pn+3) aus der Umgebungskarte (11) gelöscht wird gelöscht, falls ein Abstand (d1, d2) zwischen dem Aufpunkt (P, Pn, Pn+1, Pn+2, Pn+3) und dem Objekt (O, O1, O2, O3) einen vorbestimmten Mindestabstand (ε) unterschreitet. Method according to one of claims 3 to 9, characterized in that the Aufpunktpunkt (P, P n , P n + 1 , P n + 2 , P n + 3 ) from the map of the environment ( 11 ) is cleared if a distance (d 1 , d 2 ) between the reference point (P, P n , P n + 1 , P n + 2 , P n + 3 ) and the object (O, O 1 , O 2 , O 3 ) falls below a predetermined minimum distance (ε). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Verfahren mit einem virtuellen Sensor durchgeführt wird, wobei zusätzlich eine Interaktion des virtuell reflektierten Sensorsignals mit dem virtuellen Sensor simulativ bestimmt wird. Method according to one of the preceding claims, characterized in that the method is carried out with a virtual sensor, wherein additionally an interaction of the virtually reflected sensor signal with the virtual sensor is determined simulatively. Verfahren nach einem der Anspruch 1 bis 10, dadurch gekennzeichnet, dass das Verfahren mit einem realen Sensor durchgeführt wird, wobei ein Signalgeber (7) in Abhängigkeit von dem virtuell reflektierten Sensorsignal zur Ausgabe einer Nachbildung eines realen reflektierten Sensorsignals angesteuert wird. Method according to one of claims 1 to 10, characterized in that the method is carried out with a real sensor, a signal transmitter ( 7 ) is driven in response to the virtually reflected sensor signal to output a replica of a real reflected sensor signal. Recheneinrichtung, welche zum Durchführen eines Verfahrens nach einem der vorhergehenden Ansprüche ausgelegt ist.  Computing device, which is designed for carrying out a method according to one of the preceding claims.
DE102014118622.2A 2014-12-15 2014-12-15 Method for simulatively determining an interaction between a sensor of a motor vehicle and a virtual object in a virtual surrounding area of the motor vehicle and computing device Pending DE102014118622A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102014118622.2A DE102014118622A1 (en) 2014-12-15 2014-12-15 Method for simulatively determining an interaction between a sensor of a motor vehicle and a virtual object in a virtual surrounding area of the motor vehicle and computing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014118622.2A DE102014118622A1 (en) 2014-12-15 2014-12-15 Method for simulatively determining an interaction between a sensor of a motor vehicle and a virtual object in a virtual surrounding area of the motor vehicle and computing device

Publications (1)

Publication Number Publication Date
DE102014118622A1 true DE102014118622A1 (en) 2016-06-16

Family

ID=56082203

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014118622.2A Pending DE102014118622A1 (en) 2014-12-15 2014-12-15 Method for simulatively determining an interaction between a sensor of a motor vehicle and a virtual object in a virtual surrounding area of the motor vehicle and computing device

Country Status (1)

Country Link
DE (1) DE102014118622A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018122282A1 (en) * 2016-12-29 2018-07-05 Avl List Gmbh Method and system for simulation-assisted determination of echo points, and emulation method and emulation apparatus
DE102018107838A1 (en) 2018-04-03 2019-10-10 Valeo Schalter Und Sensoren Gmbh Method for simulatively determining at least one measurement property of a virtual sensor, and computing system
DE102018129880A1 (en) 2018-11-27 2020-05-28 Valeo Schalter Und Sensoren Gmbh Method for the simulative determination of at least one measurement property of a virtual sensor and computing system
US11415668B2 (en) 2016-12-29 2022-08-16 Avl List Gmbh Switching device for a radar target emulator and radar target emulator having said type of switching device
US11561298B2 (en) 2017-10-06 2023-01-24 Avl List Gmbh Device and method for converting a radar signal, and test bench
US11604252B2 (en) 2016-12-29 2023-03-14 Avl List Gmbh Radar target emulator having a superimposition apparatus and method for superimposing signals

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4667199A (en) * 1984-01-31 1987-05-19 Rediffusion Simulation Limited Simulator
DE10311497B3 (en) * 2003-03-15 2004-10-07 Atlas Elektronik Gmbh Process for the synthetic generation of sonar data
DE10314129A1 (en) 2003-03-31 2004-10-14 Valeo Schalter Und Sensoren Gmbh Method and computer program for simulating the detection area of a sensor
DE102009008680A1 (en) * 2009-02-12 2010-08-19 Valeo Schalter Und Sensoren Gmbh Method for testing ultrasonic-based surrounding field identification systems of park assistance system of motor vehicle, involves interpreting received simulation ultrasonic signal as ultrasonic echo in ultrasonic sensor to be tested
DE102009053509A1 (en) * 2009-11-16 2011-05-19 Valeo Schalter Und Sensoren Gmbh Method for simulative determination of measuring characteristics of virtually modeled sensor at passenger car, involves moving passenger car relative to object during time interval between time points of transmitting and receiving signals
DE102011015094A1 (en) 2011-03-25 2012-09-27 Valeo Schalter Und Sensoren Gmbh Method for determining measuring properties of ultrasonic sensor of driver assistance system of motor car, involves computing reception signal as sum of signal components that are reflected from surface area of object

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4667199A (en) * 1984-01-31 1987-05-19 Rediffusion Simulation Limited Simulator
DE10311497B3 (en) * 2003-03-15 2004-10-07 Atlas Elektronik Gmbh Process for the synthetic generation of sonar data
DE10314129A1 (en) 2003-03-31 2004-10-14 Valeo Schalter Und Sensoren Gmbh Method and computer program for simulating the detection area of a sensor
DE102009008680A1 (en) * 2009-02-12 2010-08-19 Valeo Schalter Und Sensoren Gmbh Method for testing ultrasonic-based surrounding field identification systems of park assistance system of motor vehicle, involves interpreting received simulation ultrasonic signal as ultrasonic echo in ultrasonic sensor to be tested
DE102009053509A1 (en) * 2009-11-16 2011-05-19 Valeo Schalter Und Sensoren Gmbh Method for simulative determination of measuring characteristics of virtually modeled sensor at passenger car, involves moving passenger car relative to object during time interval between time points of transmitting and receiving signals
DE102011015094A1 (en) 2011-03-25 2012-09-27 Valeo Schalter Und Sensoren Gmbh Method for determining measuring properties of ultrasonic sensor of driver assistance system of motor car, involves computing reception signal as sum of signal components that are reflected from surface area of object

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018122282A1 (en) * 2016-12-29 2018-07-05 Avl List Gmbh Method and system for simulation-assisted determination of echo points, and emulation method and emulation apparatus
US11313947B2 (en) 2016-12-29 2022-04-26 Avl List Gmbh Method and system for simulation-assisted determination of echo points, and emulation method and emulation apparatus
US11415668B2 (en) 2016-12-29 2022-08-16 Avl List Gmbh Switching device for a radar target emulator and radar target emulator having said type of switching device
US11604252B2 (en) 2016-12-29 2023-03-14 Avl List Gmbh Radar target emulator having a superimposition apparatus and method for superimposing signals
US11561298B2 (en) 2017-10-06 2023-01-24 Avl List Gmbh Device and method for converting a radar signal, and test bench
DE102018107838A1 (en) 2018-04-03 2019-10-10 Valeo Schalter Und Sensoren Gmbh Method for simulatively determining at least one measurement property of a virtual sensor, and computing system
DE102018129880A1 (en) 2018-11-27 2020-05-28 Valeo Schalter Und Sensoren Gmbh Method for the simulative determination of at least one measurement property of a virtual sensor and computing system

Similar Documents

Publication Publication Date Title
EP3695244B1 (en) Method and device for creating an inverse sensor model and method for detecting obstacles
DE102014118622A1 (en) Method for simulatively determining an interaction between a sensor of a motor vehicle and a virtual object in a virtual surrounding area of the motor vehicle and computing device
EP2823331B1 (en) Method and device for detecting objects in the surroundings of a vehicle
DE102013212710A1 (en) Sensor product, simulator and method for simulating sensor measurements, merging sensor measurements, validating a sensor model and designing a driver assistance system
DE102018100469A1 (en) GENERATED SIMULATED SENSOR DATA FOR TRAINING AND VERIFYING RECOGNITION MODELS
DE102014118625A1 (en) Sensor arrangement for a test stand of a driver assistance system of a motor vehicle, test bench and associated method
DE102019214628A1 (en) Validation of surroundings detection using satellite images and SAR radar data
DE102019105363B4 (en) Procedure for a measuring system in the vehicle for the detection and classification of objects in the area around the vehicle using a deep learning procedure with a self-learning decision maker
EP1927866A1 (en) Method for grid-based processing of sensor signals
EP3430423B1 (en) Method for improving detection of at least one object in an environment of a motor vehicle by means of an indirect measurement using sensors, control device, driver assistance system, and motor vehicle
DE102019215903A1 (en) Method and device for generating training data for a recognition model for recognizing objects in sensor data of a sensor, in particular of a vehicle, method for training and method for actuation
DE102018118142A1 (en) DEVICE FOR INCREASING THE VISIBILITY OF LIDAR DETECTORS AND LIGHTS
EP3729044A1 (en) Method for analysing an automation system of an installation, emulator for at least partial virtual operation of an automation system of an installation, and system for analysing an automation system of an installation
DE102019114371A1 (en) ONLINE DIAGNOSTICS AND PROGNOSTICS FOR A VEHICLE PERCEPTION SYSTEM
DE102011015094B4 (en) Method for the simulative determination of measurement properties of a sensor of a motor vehicle and computing system
DE102018222672A1 (en) Determination of the orientation of objects with radar and other electromagnetic interrogation radiation
WO2019162317A1 (en) Method for generating sensor data for safety-critical automobile control devices
DE102020214596A1 (en) Method for generating training data for a recognition model for recognizing objects in sensor data of an environment sensor system of a vehicle, method for generating such a recognition model and method for controlling an actuator system of a vehicle
DE102014118624A1 (en) Method for simulatively determining an interaction between a sensor of a motor vehicle and a virtual object in a virtual surrounding area of the motor vehicle and computing device
DE102020101060B4 (en) Self-learning ultrasonic measuring system in the vehicle for the detection and classification of objects in the vehicle's surroundings with a multiplanar reformatter
DE102020215773A1 (en) Method and device for detecting objects in sensor data from an ultrasonic sensor system in a vehicle
DE102020100996A1 (en) Ultrasonic measuring system with a self-learning AI control of microbeamformers in the vehicle
DE102020101036B4 (en) Self-learning ultrasonic measuring system in the vehicle for the detection and classification of objects in the vehicle's surroundings with a volume renderer
DE102020212861A1 (en) Method for detecting and tracking an object using a sensor device
DE102019101127A1 (en) Process for processing data obtained by ultrasound

Legal Events

Date Code Title Description
R163 Identified publications notified
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0017500000

Ipc: G06F0030000000

R012 Request for examination validly filed