DE102017107396A1 - Test method and test device for driver assistance systems - Google Patents
Test method and test device for driver assistance systems Download PDFInfo
- Publication number
- DE102017107396A1 DE102017107396A1 DE102017107396.5A DE102017107396A DE102017107396A1 DE 102017107396 A1 DE102017107396 A1 DE 102017107396A1 DE 102017107396 A DE102017107396 A DE 102017107396A DE 102017107396 A1 DE102017107396 A1 DE 102017107396A1
- Authority
- DE
- Germany
- Prior art keywords
- test
- simulation
- environment
- virtual
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
- G09B9/006—Simulators for teaching or training purposes for locating or ranging of objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Test eines umfeldbasierten Assistenzsystems, wobei wenigstens ein virtuelles Testfahrzeug (7), das in eine Umfeldsimulation (15) eingebettet ist, simuliert wird. Weiterhin wird in einem Testgelände (1) einer Testperson (2) mit einer Sensorik (6) erfasst und aus deren Positionsdaten wird ein virtuelles Objekt (9) gebildet, wobei die Positionsdaten des virtuellen Objektes (9) in lagerichtiger Relation zur Darstellung des virtuellen Testfahrzeuges (7) synchronisiert werden, so dass diese aus Sicht der Testperson (2) lagerichtig zu dieser visualisiert werden können. Eine Positionsänderung der Testperson (2) im Testgelände (1) hat daher eine entsprechende Änderung der Position des virtuellen Objektes (9) der Testperson (2) in der Simulationsumgebung (8) zur Folge. The invention relates to a method for testing an environment-based assistance system, wherein at least one virtual test vehicle (7), which is embedded in an environment simulation (15), is simulated. Furthermore, in a test area (1) of a test person (2) with a sensor (6) is detected and their position data is a virtual object (9) is formed, wherein the position data of the virtual object (9) in positional relation to the representation of the virtual test vehicle (7) are synchronized so that they can be visualized from the perspective of the test person (2) in the correct position for this. A change in position of the test person (2) in the test area (1) therefore results in a corresponding change in the position of the virtual object (9) of the subject (2) in the simulation environment (8).
Description
Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung sowie ein Computerprogramm und ein Computerprogrammprodukt zum Testen umfeldbasierter Fahrerassistenzsysteme mit den Merkmalen gemäß der unabhängigen Patentansprüche.The present invention relates to a method and a device as well as a computer program and a computer program product for testing environment-based driver assistance systems having the features according to the independent patent claims.
Für die Entwicklung von Fahrerassistenzsystemen ist deren reproduzierbare Erprobung ein wichtiger Faktor. Beginnend bereits in der Konzeptphase der Entwicklung ist es von Vorteil, die Funktion und Wirkungsweise der Assistenzsysteme in Simulationen zu erproben. Hierbei werden z. B. einzelne Szenen oder eine Folge von Szenen aus der Realwelt in einer Simulation umgesetzt und das Verhalten der zu testenden Assistenzsysteme wird unter diesen Testbedingungen erprobt. Die simulative Erprobung ermöglicht dabei eine weitgehende Reproduzierbarkeit. Weiterhin werden Tests unter realen Verkehrsbedingungen oder der Bau von Prototypen minimiert und auf eine spätere seriennahe Testphase verschoben. Simulative Tests erlauben weiterhin eine Erprobung frei von Risiken für beteiligte Personen und/oder Fahrzeuge, was insbesondere bei Assistenzsystemen, welche Sicherheitsfunktionen beinhalten, die eine Fahrzeugkollision mit Objekten, Fahrzeugen oder Fußgängern vermeiden sollen, wichtig ist. Die Simulation nutzt dabei als Eingangsgröße Umfelddaten, welche zu den jeweiligen Szenen oder Szenenfolgen gehören. Diese können z. B. bei Testfahrten gemessen und aufgezeichnet oder synthetisch erzeugt werden, indem ein Datengenerator zu einer virtuellen Szene die zugehörigen Umfelddaten breitstellt.For the development of driver assistance systems, their reproducible testing is an important factor. Starting in the concept phase of development, it is advantageous to test the function and mode of operation of the assistance systems in simulations. This z. For example, individual scenes or a sequence of scenes from the real world are implemented in a simulation and the behavior of the assistance systems to be tested is tested under these test conditions. The simulative testing allows a high degree of reproducibility. Furthermore, tests under real traffic conditions or the construction of prototypes are minimized and postponed to a later near-series test phase. Simulative tests also allow testing free of risks for involved persons and / or vehicles, which is particularly important in assistance systems that include safety features designed to prevent vehicle collision with objects, vehicles or pedestrians. The simulation uses as an input variable environment data which belong to the respective scenes or scene sequences. These can be z. B. measured during test drives and recorded or generated synthetically by a data generator to a virtual scene broadens the associated environment data.
Verschiedene Simulationsverfahren sind dabei Stand der Technik. Einen beispielhaften Überblick gibt Neumann-Consel in „Virtual Test Drive Simulation von umfeldbasierten Fahrzeugfunktionen“ Diss. TU München 2013. Zum Test von Assistenzsystemen werden dabei Komponenten oder Simulationsmodelle in einen Regelkreis verschalten. Es werden Eingangssignale vorgegeben und die Reaktion der Komponente oder Modelle am Ausgang wird beobachtet und ggf. an ein nachfolgendes System weitergeleitet. Man unterscheidet begrifflich einzelne Simulationstypen in Abhängigkeit der Nutzung von Modellen, Komponenten, Fahrern oder vom Umfeld im jeweiligen Simulationsverfahren.Various simulation methods are state of the art. Neumann-Consel gives an exemplary overview in "Virtual Test Drive Simulation of Environment-Based Vehicle Functions" Diss. TU München 2013. To test assistance systems, components or simulation models are interconnected in a control loop. Input signals are specified and the reaction of the component or models at the output is monitored and, if necessary, forwarded to a subsequent system. Conceptually, a distinction is made between individual simulation types depending on the use of models, components, drivers or the environment in the respective simulation method.
Ein Test der grundsätzlichen Wirkungsweise einer Assistenzfunktion kann am Beginn einer Entwicklung mit einer SIL-Simulation (Software in the Loop) durchgeführt werden. Hier können die Algorithmen der Funktion erprobt werden, ohne auf die später genutzte Sensorik oder Aktuatorik zurückzugreifen. Zum Generieren der Eingangsdaten für die Algorithmen der Assistenzfunktion müssen die Signale der später im Fahrzeug vorhandenen Umfeldsensoren synthetisiert werden. Dies kann z. B. im Zusammenspiel mit einer Umfeldsimulation erfolgen, in welcher simulierte Verkehrsszenarien ablaufen und daraus Eingangsgrößen für die Simulation gebildet werden. In einem einfachen Beispiel könnte dies ein vorausfahrendes Fahrzeug mit seiner Lage und Bewegung z. B. zur Erprobung eines ACC-Algorithmus sein. Die Simulation benötigt zum Test der Algorithmen die Eingangsgrößen, welche aus der Umfeldsimulation abgeleitet werden. Diese kann mit Hilfe von Sensormodellen erfolgen, welche in der Simulation die später im Fahrzeug vorhandenen Sensoren ersetzen und deren Verhalten modellieren. Am Ausgang eines Sensormodells z. B. eines Modells für einen Radarsensor zur Abstandsregelung können Geschwindigkeit, Abstand und Relativlage von Objekten als Eingangsgrößen zur Simulation der Algorithmen der Assistenzsysteme zur Verfügung gestellt werden. In der Simulation erfolgt nun basierend auf den Eingangsdaten eine Reaktion des Assistenzsystems, z. B. die Vorgabe einer negativen Beschleunigung zur Erhöhung des Abstandes. Die Simulation kann hierfür ein Aktormodell und ein Fahrdynamikmodell enthalten. Im Aktormodell wird z. B. die Eingangsgröße der Beschleunigung in einen Bremsdruck umgesetzt und das folgende Fahrdynamikmodell erzeugt basierend auf dem Bremsdruckverlauf das Verhalten des Ego-Fahrzeugs, wobei dessen Bewegung in einem Regelkreis mit der Umfeldsimulation verschalten wird. Somit können alle Szenarien, welche durch die Umfeldsimulation vorgegeben werden, in ihrer Auswirkung auf das simulierte Fahrzeugverhalten beobachtet werden. Assistenzfunktionen können somit in einer Simulationsumgebung reproduzierbar erprobt, appliziert und validiert werden.A test of the basic mode of operation of an assistance function can be carried out at the beginning of a development with a SIL simulation (Software in the Loop). Here, the algorithms of the function can be tested without resorting to the later used sensors or actuators. In order to generate the input data for the algorithms of the assistance function, the signals of the environment sensors present later in the vehicle must be synthesized. This can be z. This can be done, for example, in conjunction with an environment simulation in which simulated traffic scenarios run and from which input variables for the simulation are formed. In a simple example, this could be a preceding vehicle with its location and movement z. B. for testing an ACC algorithm. To test the algorithms, the simulation requires the input variables derived from the environment simulation. This can be done with the help of sensor models, which replace the sensors later in the vehicle and model their behavior in the simulation. At the output of a sensor model z. B. a model for a radar sensor for distance control speed, distance and relative position of objects as input variables for the simulation of the algorithms of the assistance systems can be provided. In the simulation, a reaction of the assistance system is now based on the input data, z. B. the specification of a negative acceleration to increase the distance. The simulation may contain an actuator model and a vehicle dynamics model for this purpose. In the actuator model z. B. the input variable of the acceleration converted into a brake pressure and the following vehicle dynamics model generates based on the brake pressure curve, the behavior of the ego vehicle, wherein the movement is connected in a control loop with the environment simulation. Thus, all scenarios, which are given by the environment simulation, can be observed in their impact on the simulated vehicle behavior. Assistance functions can thus be reproducibly tested, applied and validated in a simulation environment.
Werden die Algorithmen der Assistenzfunktion auf einer Zielhardware z. B. einem später im Serienfahrzeug genutzten Steuergerät portiert und wird dieses anstelle des Algorithmus in eine echtzeitfähige Simulationsumgebung eingebettet, spricht man von einer HIL-Simulation (Hardware in the Loop). Auf diese Weise können auch reale Sensoren oder Aktoren in die Simulation einbezogen werden.Are the algorithms of the assistance function on a target hardware z. B. a later used in the production vehicle control unit ported and this is embedded instead of the algorithm in a real-time simulation environment, it is called an HIL simulation (hardware in the loop). In this way, real sensors or actuators can be included in the simulation.
Zur Erprobung der Wirkung der Assistenzsysteme auf den Fahrer z. B. zur Bewertung der Mensch-Maschine-Schnittstelle können in einer weiteren Simulationsart Testfahrten unter Laborbedingungen nachgestellt werden. Ein Testfahrer sitzt dabei in einem Fahrsimulator. Aus der Umfeldsimulation werden Szenen generiert, welche im Regelkreis mit dem Fahrsimulator, auf dem die Algorithmen des Assistenzsystems ablaufen, interagieren, wobei dem Fahrer z. B. die realen Ausgaben des MMI bereitgestellt werden. Zeitlich synchronisiert wird die Szene für den Fahrer visualisiert, so dass er entsprechend die simulierte Szene und die Reaktion der Fahrzeugkomponenten z. B. MMI im Zusammenspiel erleben kann. Diese Art der Simulation wird als DIL-Simulation bezeichnet (Driver in the Loop).To test the effect of the assistance systems on the driver z. B. for the evaluation of the human-machine interface test drives under laboratory conditions can be adjusted in a further simulation type. A test driver sits in a driving simulator. From the environment simulation scenes are generated, which interact in the control loop with the driving simulator on which run the algorithms of the assistance system, wherein the driver z. For example, the real expenses of the MMI can be provided. Synchronized in time, the scene is visualized for the driver, so that he accordingly the simulated scene and the reaction of the vehicle components z. B. Experience MMI in interaction can. This type of simulation is called DIL simulation (Driver in the Loop).
Eine realitätsnahe Simulation kann mit einer VIL-Simulation erfolgen. (Vehicle in the Loop) Hierbei fährt der Fahrer auf einer Teststrecke ein reales Fahrzeug. Dem Fahrer werden über eine optische Visualisierung, z. B. über eine VR-Brille Bilder einer Verkehrsszene oder auch nur einzelne Objekte daraus eingeblendet. Der Fahrer sieht damit virtuelle Verkehrsobjekte, welche gleichzeitig z. B. über Sensormodelle für das Fahrzeug eingekoppelt werden, so dass dieses trotz leerer Teststrecke auf die dem Fahrer visualisierten Objekte reagiert. Die Bewegung des realen Fahrzeuges und die Blickrichtung des Fahrers werden in der Visualisierung und der Umgebungssimulation berücksichtigt. Die virtuellen Objekte werden ggf. nach einem entsprechenden Szenario durch die Umfeldsimulation gesteuert. Ihre Visualisierung wird entsprechend der Fahrbewegung des Realfahrzeuges angepasst und die entsprechenden Sensordaten werden für das Realfahrzeug bereitgestellt. Der Fahrer ist damit in der Lage, die Funktion des Assistenzsystems anhand der Reaktion des Fahrzeuges, indem er sich befindet, wahrzunehmen. Die Simulation wird durch die Fahrbewegung des Fahrers beeinflusst. Das zu testende Assistenzsystem muss sich dabei im Fahrzeug befinden, wobei der umliegende Verkehr simuliert wird.A realistic simulation can be done with a VIL simulation. (Vehicle in the Loop) Here, the driver drives a real vehicle on a test track. The driver is an optical visualization, z. B. via a VR glasses images of a traffic scene or even individual objects appear from it. The driver thus sees virtual transport objects, which at the same time z. B. are coupled via sensor models for the vehicle, so that this reacts despite empty test track on the driver visualized objects. The movement of the real vehicle and the driver's line of sight are taken into account in the visualization and the environmental simulation. The virtual objects are possibly controlled by the environment simulation according to a corresponding scenario. Your visualization is adjusted according to the driving movement of the real vehicle and the corresponding sensor data are provided for the real vehicle. The driver is thus able to perceive the function of the assistance system based on the reaction of the vehicle in which he is located. The simulation is influenced by the driving movement of the driver. The assistance system to be tested must be in the vehicle while the surrounding traffic is simulated.
Vorbekannt ist weiterhin aus der
Weiterhin vorbekannt ist aus der
Aus der
Es ist Aufgabe der vorliegenden Erfindung, ein Verfahren und eine Vorrichtung zu schaffen, welche das Testen eines umfeldbasierten Fahrerassistenzsystems bereits in seiner Entwicklungsphase flexibler, effektiver und sicherer gestaltet. Dabei soll gefahrfrei insbesondere eine Fußgängerperspektive realitätsnah wahrnehmbar sein.It is an object of the present invention to provide a method and a device which makes the testing of an environment-based driver assistance system more flexible, effective and secure already in its development phase. It should be danger-free in particular a pedestrian perspective realistically perceptible.
Diese Aufgabe wird mittels eines Verfahrens gemäß dem Patentanspruch 1 sowie mit einer Vorrichtung gemäß Anspruch 7 sowie einem Computerprogramm und einem Computerprogrammprodukt gemäß der Ansprüche 9 und 10 gelöst. Vorteilhafte Weiterbildungen sind in den Unteransprüchen und den Ausführungsbeispielen beschrieben.This object is achieved by means of a method according to
Das erfindungsgemäße Verfahren dient zum Test eines umfeldbasierten Assistenzsystems. Diese umfeldbasierten Assistenzsysteme werden durch Informationen aus der Umwelt stimuliert, indem sie über Sensoren Umfeldinformationen aufnehmen. Die Assistenzsysteme interagieren dabei mit einem Fahrzeug und/oder Fahrer, wobei sie in einem einfachen Fall z. B. einen Warnhinweis auf eine bevorstehende Kollision anzeigen. Die umfeldbasierten Assistenzsysteme können Aktoren ansteuern, Fahrzeugfunktionen beeinflussen oder auch komplexe Steueraktionen ausführen, wie z. B. ein Fahrzeug teil- oder gänzlich autonom führen. Für das erfindungsgemäße Verfahren ist das Assistenzsystem dabei in eine Simulationsumgebung eingebettet. Es kann als Software oder Hardware in the loop simulierter Algorithmus ablaufen. Das Testverfahren weist dafür eine Umfeldsimulation auf, in welcher wenigstens ein virtuelles Testfahrzeug simuliert wird. Die Umfeldsimulation kann dabei einen Verkehrsraum aufweisen, der weitere virtuelle Objekte, wie Straßen, Markierungen, Hindernisse usw. aufweist. Zusätzlich können in der Umfeldsimulation weitere Objekte der Verkehrsinfrastruktur wie z. B. Ampeln als virtuelle Objekte dargestellt werden. Die Darstellung kann mit einer erweiterten Funktion zur Interaktion einer Testperson mit den virtuellen Objekten verbunden sein. Eine virtuelle Ampel kann durch die Testperson betätigt werden und es kann deren Anzeige für die Testperson visualisiert werden. Die zu simulierende Bewegung des virtuellen Testfahrzeugs wird im Ausgangspunkt der Simulation durch eine geplante, vordefinierte Bewegungstrajektorie beschrieben. Dies kann in einem einfachen Fall eine Geradeausfahrt mit einer konstanten Geschwindigkeit sein. Das zu testende Assistenzsystem beeinflusst das Verhalten des virtuellen Testfahrzeuges. Die zu testende Funktion des Assistenzsystems ist dabei in einem Algorithmus verwirklicht, der in der Simulationsumgebung ausgeführt/simuliert wird. Hierfür werden dem Algorithmus Daten aus der Umfeldsimulation bereitgestellt, welche das Ausgangsverhalten des Algorithmus und somit dessen Einfluss auf die geplante, vordefinierte Bewegungstrajektorie des virtuellen Testfahrzeuges oder alternativ eine andere Fahrzeugfunktion beeinflussen. Wird ein Assistenzsystem getestet, welches vorzugsweise Richtung und/oder Geschwindigkeit des virtuellen Testfahrzeuges beeinflusst, so entsteht aus der geplanten Bewegungstrajektorie und dem Eingriff des Assistenzsystems z. B. auf Lenkung und/oder Bremse eine aus der Überlagerung dieser Einflüsse auf das virtuelle Testfahrzeug entstehende, resultierende Bewegungstrajektorie, welcher dieses in der Simulation folgt. Das virtuelle Testfahrzeug und weitere Objekte der Umfeldsimulation werden in einem Testgelände wenigstens einer Testperson visualisiert. Dies kann z. B. durch eine Umfeldprojektion oder durch eine VR-Brille erfolgen. Es wird dabei wenigstens die Position der Testperson innerhalb des Testgeländes mit einer Sensorik erfasst. Diese Sensorik kann aus einer oder mehreren Kameras, Radarsensoren, optischen Sensoren oder anderen bildgebenden Sensoren bestehen. Zur Positionsermittlung können mehrere ggf. unterschiedliche Sensoren genutzt werden, die z. B. über eine Triangulation der Entfernungsmessung zur Positionsbestimmung ausgewertet werden. Weiterhin kann eine Größen- und/oder Geschwindigkeitserfassung erfolgen. Die Testperson kann alternativ oder zusätzlich eine Positionsmarkierung tragen, welche durch die Sensorik angepeilt wird. Es ist alternativ möglich, dass die Sensorik zur Positionsbestimmung von der Person selbst getragen wird und diese ihre Positionsdaten zur Weiterverarbeitung in der Simulationsumgebung an diese übermittelt. Aus den Positionsdaten der Testperson wird in der Simulationsumgebung ein virtuelles Objekt der Testperson gebildet. Somit wird die Testperson durch ihr virtuelles Objekt in der Simulationsumgebung „sichtbar“. Die Position des virtuellen Objektes wird dabei in lagerichtige Relation zur Darstellung des virtuellen Testfahrzeuges synchronisiert, so dass die durch die Visualisierung erzeugte Wahrnehmung aus Sicht der Testperson lagerichtig synchronisiert zur Lage des virtuellen Objekts der Testperson in der Simulation erfolgt. Die Synchronisation erfolgt derart, dass die Relativlage des virtuellen Objektes der Testperson zu den virtuellen Objekten der Umfeldsimulation und zum virtuellen Testfahrzeug dem entspricht, was der Testperson in der Visualisierung dargestellt wird. Die Lageorientierung der virtuellen Simulationsumgebung und der Darstellung im Testgelände werden somit in Übereinstimmung gebracht. Weiterhin erfolgen die Simulation, Positionserfassung und Übertragung in die Simulationsumgebung sowie die Visualisierung für die Testperson zeitlich synchronisiert. Positionsänderungen der Testperson im Testgelände haben daher eine entsprechende gleichzeitige Änderung der Position des virtuellen Objektes der Testperson in der Simulationsumgebung zur Folge. Die Position und ggf. weitere die Testperson beschreibende Merkmale wie Ausdehnung, Bewegungsrichtung und Geschwindigkeit werden als Eigenschaften des virtuellen Objektes der Testperson an die Simulationsumgebung übergeben und sind Eingangsgrößen für die zu testende Funktion. In Abhängigkeit von den Eigenschaften des virtuellen Objektes können diese hinsichtlich ihrer Erfassungsgüte in der Abbildung variieren. So kann z. B. eine Positionsungenauigkeit bei einem sich schnell bewegenden Objekt mit abgebildet werden, so dass ein virtuelles Objekt oder das aus einem realen Objekt z. B. der Testperson gebildete virtuelle Objekt mit einer Positionsunschärfe in der Simulationsumgebung abgebildet wird. Eine rennende Testperson wird so z. B. ungenauer abgebildet als eine sich langsam bewegende.The method according to the invention serves to test an environment-based assistance system. These environment-based assistance systems are stimulated by environmental information by capturing environmental information via sensors. The assistance systems interact with a vehicle and / or driver, wherein in a simple case z. B. indicate a warning of an imminent collision. The environment-based assistance systems can control actuators, influence vehicle functions or even carry out complex control actions, such B. lead a vehicle partially or fully autonomous. For the method according to the invention, the assistance system is embedded in a simulation environment. It can run as software or hardware in the loop simulated algorithm. For this purpose, the test method has an environment simulation in which at least one virtual test vehicle is simulated. The environment simulation can have a traffic space which has further virtual objects, such as roads, markings, obstacles, etc. In addition, additional objects of the transport infrastructure, such B. Traffic lights are represented as virtual objects. The presentation may be associated with an advanced feature for interacting with a subject with the virtual objects. A virtual traffic light can be actuated by the test person and their display can be visualized for the test person. The simulation of the virtual test vehicle to be simulated is described in the starting point of the simulation by a planned, predefined movement trajectory. In a simple case, this can be a straight-ahead travel at a constant speed. The assistance system to be tested influences the behavior of the virtual test vehicle. The function to be tested The assistance system is implemented in an algorithm that is executed / simulated in the simulation environment. For this purpose, the algorithm provides data from the surrounding simulation, which influence the output behavior of the algorithm and thus its influence on the planned, predefined movement trajectory of the virtual test vehicle or alternatively another vehicle function. If an assistance system is tested which preferably influences the direction and / or speed of the virtual test vehicle, the result is the planned movement trajectory and the intervention of the assistance system z. B. steering and / or brake resulting from the superposition of these influences on the virtual test vehicle resulting movement trajectory, which this follows in the simulation. The virtual test vehicle and other objects of the environment simulation are visualized in a test area of at least one test person. This can be z. B. by an environment projection or by a VR glasses done. At least the position of the test person within the test area is detected with a sensor system. This sensor system can consist of one or more cameras, radar sensors, optical sensors or other imaging sensors. For determining the position of several possibly different sensors can be used, the z. B. be evaluated via a triangulation of the distance measurement for position determination. Furthermore, a size and / or speed detection can take place. The subject may alternatively or additionally wear a position marker targeted by the sensor. It is alternatively possible for the sensor for position determination to be carried by the person himself and to transmit this position data to the simulation environment for further processing. From the position data of the test person, a virtual object of the test person is formed in the simulation environment. Thus, the subject becomes "visible" through their virtual object in the simulation environment. The position of the virtual object is synchronized in position-correct relation to the representation of the virtual test vehicle, so that the perception generated by the visualization from the point of view of the test person is in the correct position synchronized to the position of the virtual object of the test person in the simulation. The synchronization takes place in such a way that the relative position of the virtual object of the test person to the virtual objects of the surrounding simulation and to the virtual test vehicle corresponds to what the test person is presented in the visualization. The orientation of the virtual simulation environment and the presentation in the test area are thus brought into agreement. Furthermore, the simulation, position detection and transmission into the simulation environment as well as the visualization for the test person synchronized in time. Position changes of the test person in the test area therefore result in a corresponding simultaneous change of the position of the virtual object of the test person in the simulation environment. The position and possibly further features describing the subject, such as extent, direction of movement and speed, are transferred to the simulation environment as properties of the virtual object of the subject and are input variables for the function to be tested. Depending on the properties of the virtual object, these can vary in terms of their coverage quality in the figure. So z. B. a position inaccuracy in a fast-moving object to be imaged, so that a virtual object or from a real object z. B. the test person formed virtual object is imaged with a position blur in the simulation environment. A running test person is z. B. imaged less accurate than a slowly moving.
Der die Funktion abbildende Algorithmus wird durch die Position oder weiterführend durch die Änderung der Position des in der Simulationsumgebung erzeugten virtuellen Objektes der Testperson hinsichtlich seines simulierten Ausgangsverhaltens beeinflusst. Gleichzeitig erfolgt für die Testperson eine zur Simulation lagerichtige Visualisierung der Umfeldsimulation und wenigstens des virtuellen Testfahrzeuges. Es wird die Bewegung des Testfahrzeuges aus der Überlagerung der Einflüsse des Assistenzsystems auf die geplanten vordefinierten Bewegungstrajektorien durch die resultierende Bewegungstrajektorie des virtuellen Testfahrzeuges abgebildet und fusioniert mit den Daten der Umfeldsimulation der Testperson lagerichtig zur Simulation visualisiert.The algorithm mapping the function is influenced by the position or further by the change of the position of the virtual object of the test person generated in the simulation environment with regard to its simulated output behavior. At the same time, a visualization of the surroundings simulation, and at least of the virtual test vehicle, takes place for the test person in the correct position for simulation. The movement of the test vehicle from the superimposition of the influences of the assistance system on the planned predefined movement trajectories is mapped by the resulting movement trajectory of the virtual test vehicle and fused to the data of the environment simulation of the test person in the correct position for simulation visualization.
In einer vorteilhaften Ausführung des Testverfahrens entspricht die geplante vordefinierte Bewegungstrajektorie des virtuellen Testfahrzeuges einem definierten Testszenario zur Bewertung von umfeldbasierten Assistenzsystemen. Typische Testszenarien können dabei in einer Art Datenbank abgelegt sein. Diese kann in einem einfachen Fall einfache zu fahrende Bahnkurven enthalten oder komplexe Verkehrsszenarien mit weiteren Objekten. Das Testszenario ist dabei so aufbereitet, dass es Eingangsdaten für die Umfeldsimulation und die Simulation des virtuellen Testfahrzeuges generiert, welche weiterhin für die Testperson visualisierbar sind.In an advantageous embodiment of the test method, the planned predefined movement trajectory of the virtual test vehicle corresponds to a defined test scenario for evaluating environment-based assistance systems. Typical test scenarios can be stored in a kind of database. In a simple case, this can contain simple trajectories or complex traffic scenarios with other objects. The test scenario is prepared in such a way that it generates input data for the environment simulation and the simulation of the virtual test vehicle, which can still be visualized for the test person.
Erfindungsgemäß vorteilhaft erfolgt die Positionserfassung der Testperson im Testgelände durch eine Sensorik. Die Position wird in einem definierten Koordinatensystem des Testgeländes ermittelt oder relativ zu definierten Fixpunkten im Testgelände beschrieben. Die Positionsbeschreibung ist dabei in die Simulationsumgebung übertragbar. Es erfolgt eine lagerichtige Synchronisation zwischen Simulationsumgebung und Testgelände. Die Position der Testperson wird auf eine entsprechende Position des virtuellen Objektes der Testperson abgebildet und es erfolgt eine dazu synchronisierte lagerichtige Visualisierung des virtuellen Testfahrzeuges und der Umfeldsimulation. Die Visualisierung für die Testperson erfolgt lagerichtig synchronisiert, so als würde sich die Testperson an der entsprechenden Stelle im virtuellen Testszenario befinden.According to the invention, the position detection of the test person in the test area is advantageously carried out by a sensor system. The position is determined in a defined coordinate system of the test area or described relative to defined fixed points in the test area. The position description can be transferred to the simulation environment. There is a correct position synchronization between simulation environment and test area. The position of the Subject is mapped to a corresponding position of the virtual object of the test person and there is a synchronized positionally correct visualization of the virtual test vehicle and the environment simulation. The visualization for the test subject is synchronized in the correct position, as if the test subject were in the appropriate place in the virtual test scenario.
Erfindungsgemäß vorteilhaft wird in einer bevorzugten Ausführung der Erfindung eine ortsfeste bildgebende oder den Abstand messende Sensorik genutzt, welche wenigstens die Position der Testperson ermittelt. Für eine weitergehende Verarbeitung wird zu den Positionsdaten ein virtuelles Objekt in der Simulationsumgebung erzeugt, das mindestens durch seine Position im Testgelände gekennzeichnet ist. Das virtuelle Objekt der Testperson kann weitere Parameter aufweisen, die dessen Größe und/oder Geschwindigkeit und/oder Bewegungsrichtung kennzeichnen. In einem weiteren Verarbeitungsschritt wird das virtuelle Objekt der Testperson lagerichtig in die Simulationsumgebung eingefügt.According to the invention, in a preferred embodiment of the invention, a fixed imaging or distance-measuring sensor is used which determines at least the position of the subject. For further processing, a virtual object is generated for the position data in the simulation environment, which is characterized at least by its position in the test area. The virtual object of the subject may have further parameters that characterize its size and / or speed and / or direction of movement. In a further processing step, the virtual object of the test person is inserted in the correct position in the simulation environment.
In einer weiteren Ausgestaltung der Erfindung werden zusätzlich zur Position der Testperson weitere reale Objekte im Testgelände erfasst und als virtuelle Objekte in die Simulation eingefügt. Es ist damit möglich, z. B. auf einer Teststrecke mit einer vorgegebenen Spurmarkierung die Simulation des virtuellen Testfahrzeugs anzupassen, indem die Fahrspurmarkierungen als virtuelle Objekte dem virtuellen Testfahrzeug bereitgestellt werden. Das virtuelle Fahrzeug kann somit entsprechend der Spurlage simuliert und lagerichtig zur Spurlage des Testgeländes der Testperson z. B. mittels Augmented Reality visualisiert werden.In a further embodiment of the invention, in addition to the position of the test subject, further real objects are detected in the test area and inserted into the simulation as virtual objects. It is thus possible, for. B. on a test track with a predetermined lane marking to adapt the simulation of the virtual test vehicle by the lane markers are provided as virtual objects the virtual test vehicle. The virtual vehicle can thus be simulated according to the tracking and in the correct position for tracking the test area of the subject z. B. visualized by means of augmented reality.
Weiterhin ist es möglich, weitere Elemente einer realen Verkehrsinfrastruktur z. B. eine Fußgängerampel zu erfassen. Diese wird gleichfalls als virtuelles Objekt in die Simulationsumgebung lagerichtig eingebunden. Hierbei können weitere Eigenschaften der Verkehrsinfrastruktur als virtuelles Objekt übergeben werden z. B. kann für eine Fußgängerampel deren Lichtsignal erfasst werden, so dass ein virtuelles Testfahrzeug auf das virtuelle Objekt der realen Verkehrsinfrastruktur in der Simulation reagieren kann. Des Weiteren ist es möglich, zusätzliche Sensorquellen z. B. von Smart-Devices an die Simulationsumgebung anzubinden. Diese stellen der Simulationsumgebung zusätzliche Informationen zur Verfügung, deren Güte durch die Testperson beeinflusst werden kann. Ein Beispiel wäre ein Smart-Phone, welches seine Positions- und Bewegungsdaten an die Simulationsumgebung überträgt. Durch starke Beanspruchung des Smartphones durch die Testperson könnte z. B. die Sendefrequenz der Informationen reduziert werden. Durch zusätzliches Bewegen des Smartphones kann die Genauigkeit der Positions- und Bewegungsinformationen beeinflusst werden. Mit Hilfe der Testumgebung soll der Einfluss auf die zu testende Funktion durch die Verwendung dieser zusätzlichen Sensorquellen untersucht und bewertet werden. Eine alternative Sensorquelle, welche als zusätzliche Sensorik in die Simulationsumgebung eingebunden werden könnte, sind Sensoren der Verkehrsinfrastruktur wie z. B. eine Kamera, welche z. B. an einer Ampel angeordnet ist und die Daten erkannter Fußgängerobjekte an die Fahrzeuge überträgt.Furthermore, it is possible to further elements of a real transport infrastructure z. B. to detect a pedestrian light. This is likewise integrated as a virtual object in the simulation environment in the correct position. In this case, further properties of the traffic infrastructure can be transferred as a virtual object z. B. can be detected for a pedestrian traffic light whose light signal, so that a virtual test vehicle can respond to the virtual object of the real transport infrastructure in the simulation. Furthermore, it is possible to use additional sensor sources z. B. connect smart devices to the simulation environment. These provide the simulation environment with additional information whose quality can be influenced by the test person. An example would be a smart phone, which transmits its position and movement data to the simulation environment. By heavy use of the smartphone by the test person could z. B. the transmission frequency of the information can be reduced. Additional movement of the smartphone can affect the accuracy of the position and motion information. The purpose of the test environment is to investigate and evaluate the influence on the function to be tested by using these additional sensor sources. An alternative sensor source, which could be integrated as additional sensors in the simulation environment, are sensors of the transport infrastructure such. B. a camera, which z. B. is located at a traffic light and transmits the data of detected pedestrian objects to the vehicles.
In einer vorteilhaften Ausgestaltung wird eine Vorrichtung zum Test eines umfeldbasierten Assistenzsystems geschaffen, indem in einem Testgelände eine Sensorik zur Erfassung der Position wenigstens einer Testperson angeordnet ist. Weiterhin ist eine Vorrichtung zur Visualisierung vorhanden, durch welche der Testperson im Testgelände eine virtuell generierte Umfeldsimulation anzeigbar ist. Die Umfeldsimulation ist dabei von einem Standort der Testperson darstellbar und an eine sich ändernde Position der Testperson in der Umfeldsimulation anpassbar. Der Simulationsumgebung für die Umfeldsimulation werden seitens der Sensorik erfasste Positionsdaten einer Testperson als Eingangsgrößen zugeführt, wobei ein Objektgenerator vorhanden ist, durch den ein virtuelles Objekt der Testperson erzeugbar und der Umfeldsimulation hinzufügbar ist. Durch die Vorrichtung zur Visualisierung sind simulierte, virtuelle Objekte aus einer Umfeldsimulation in lagerichtiger Zuordnung zur Position der Testperson anzeigbar. Eine durch wenigstens eine Recheneinheit gebildete Simulationsumgebung erzeugt das wenigstens eine virtuelle Testfahrzeug und die Objekte der Umgebungssimulation, wobei deren Verhalten entsprechend eines vorgegebenen Verkehrsszenarios simuliert wird, wobei eine Datenkopplung zwischen der Sensorik zur Positionserfassung der Testperson im Testgelände und der Simulationsumgebung zur Übertragung wenigstens der Positionsdaten der Testperson vorhanden ist und weiterhin ein Ausgabesignal zur Darstellung der Umgebungssimulation und des virtuellen Testfahrzeuges vorhanden ist, welche der Vorrichtung zur Visualisierung im Testgelände anliegt, so dass die durch die Simulationsumgebung erzeugten, virtuellen Objekte lagerichtig zur Position der Testperson für diese visualisierbar sind.In an advantageous embodiment, a device for testing an environment-based assistance system is provided by a sensor system for detecting the position of at least one subject is arranged in a test area. Furthermore, a device for visualization is available, through which the test person in the test area a virtually generated environment simulation can be displayed. The environment simulation can be represented by a location of the test person and adapted to a changing position of the subject in the environment simulation. The simulation environment for the environment simulation, sensor data recorded position data of a test person are supplied as input variables, wherein an object generator is present, through which a virtual object of the test person generated and the environment simulation is added. By the device for visualization simulated, virtual objects from an environment simulation in the correct position assignment to the position of the test person can be displayed. A simulation environment formed by at least one computing unit generates the at least one virtual test vehicle and the objects of the environment simulation, whose behavior is simulated according to a predetermined traffic scenario, wherein a data coupling between the sensor for position detection of the test person in the test area and the simulation environment for transmitting at least the position data of the A test person is present and further an output signal for displaying the environmental simulation and the virtual test vehicle is present, which is applied to the device for visualization in the test area, so that the generated by the simulation environment, virtual objects are in the correct position for the position of the subject for this visualized.
Weitere vorteilhafte Ausführungen sind der folgenden detaillierten Beschreibung zu entnehmen.Further advantageous embodiments can be found in the following detailed description.
Hierbei zeigen:
- -
1 eine schematische Darstellung eines Testgeländes und - -
2 eine schematische Darstellung des Testverfahrens bzw. der Testvorrichtung.
- -
1 a schematic representation of a test area and - -
2 a schematic representation of the test method or the test device.
Das in
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- DE 10256612 B3 [0008]DE 10256612 B3 [0008]
- DE 102006044086 B4 [0009]DE 102006044086 B4 [0009]
- DE 102014015871 A1 [0010]DE 102014015871 A1 [0010]
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017107396.5A DE102017107396B4 (en) | 2017-04-06 | 2017-04-06 | Test procedure and test device for driver assistance systems |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017107396.5A DE102017107396B4 (en) | 2017-04-06 | 2017-04-06 | Test procedure and test device for driver assistance systems |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102017107396A1 true DE102017107396A1 (en) | 2018-10-11 |
DE102017107396B4 DE102017107396B4 (en) | 2021-03-25 |
Family
ID=63588008
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102017107396.5A Active DE102017107396B4 (en) | 2017-04-06 | 2017-04-06 | Test procedure and test device for driver assistance systems |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102017107396B4 (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109413415A (en) * | 2018-12-12 | 2019-03-01 | 清华大学苏州汽车研究院(吴江) | A kind of camera controller test macro and test method |
CN110021209A (en) * | 2019-04-30 | 2019-07-16 | 东莞市易联交互信息科技有限责任公司 | A kind of emulation test system based on driving simulator |
CN111460683A (en) * | 2020-04-20 | 2020-07-28 | 同济大学 | Pedestrian in-loop simulation system and testing method thereof |
CN111858708A (en) * | 2020-07-13 | 2020-10-30 | 北京交通大学 | Virtual-real interaction test synchronization method for moving objects in vehicle-road cooperative environment |
CN111859618A (en) * | 2020-06-16 | 2020-10-30 | 长安大学 | Multi-end in-loop virtual-real combined traffic comprehensive scene simulation test system and method |
CN112581633A (en) * | 2020-12-24 | 2021-03-30 | 北京亮道智能汽车技术有限公司 | In-loop virtual simulation test method and system for vehicle with automatic driving function |
CN112965399A (en) * | 2021-03-24 | 2021-06-15 | 中国人民解放军63653部队 | Semi-physical simulation test method and device for engineering mechanical equipment |
CN113705000A (en) * | 2021-08-27 | 2021-11-26 | 西安交通大学 | Automatic driving education trolley testing method and system based on simulation scene |
DE102020210962A1 (en) | 2020-08-31 | 2022-03-03 | Zf Friedrichshafen Ag | Computer-implemented method and computer system for generating input parameters for a simulation |
CN114839465A (en) * | 2022-05-10 | 2022-08-02 | 中国第一汽车股份有限公司 | Complete vehicle electric balance test system and method |
US11415484B2 (en) | 2019-07-11 | 2022-08-16 | Horiba Instruments Incorporated | Apparatus and method for testing automated vehicles via movable target body or electronic target simulator |
AT525369A4 (en) * | 2021-11-09 | 2023-03-15 | Avl List Gmbh | Test environment for urban human-machine interaction |
DE102022200497A1 (en) | 2022-01-18 | 2023-07-20 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method, computing unit and computer program for mapping driver behavior in a vehicle simulation |
CN116465647A (en) * | 2023-04-18 | 2023-07-21 | 日照朝力信息科技有限公司 | Automobile performance testing method and system based on virtual reality technology |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10047082A1 (en) * | 1999-10-07 | 2001-05-17 | Volkswagen Ag | Simulation system for developing an automatic system to regulate motor vehicle distances has sensors to observe traffic by looking ahead and actuators to react to information from the sensors for slowing down or accelerating. |
DE10256612B3 (en) | 2002-12-03 | 2004-07-08 | Daimlerchrysler Ag | Automobile driver training method using training vehicle with virtual imaging of dangerous driving situations |
DE102004017755A1 (en) * | 2004-04-10 | 2005-10-27 | Müller, Lisa | Satellite navigation method for a handheld terminal, in which geographical position data is output to a terminal display such that the terminal itself is shown moving in a virtual representation of the actual environment |
DE102004057947A1 (en) * | 2004-11-30 | 2006-06-08 | Audi Ag | Driver assistance system performance testing method for motor vehicle, involves providing sensor signal in dependence of simulated virtual traffic condition to electronic control unit that sets system into operation if necessary |
DE102007053501A1 (en) * | 2007-06-11 | 2009-01-02 | Audi Ag | Method for developing and / or testing at least one safety and / or driver assistance system for a motor vehicle and simulation environment |
DE102006044086B4 (en) | 2006-09-20 | 2013-05-29 | Audi Ag | System and method for the simulation of traffic situations, in particular accident-critical dangerous situations, as well as a driving simulator |
DE102014015871A1 (en) | 2014-10-25 | 2016-04-28 | Audi Ag | A display system for a motor vehicle, motor vehicle with a display system and method of operating a display system |
-
2017
- 2017-04-06 DE DE102017107396.5A patent/DE102017107396B4/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10047082A1 (en) * | 1999-10-07 | 2001-05-17 | Volkswagen Ag | Simulation system for developing an automatic system to regulate motor vehicle distances has sensors to observe traffic by looking ahead and actuators to react to information from the sensors for slowing down or accelerating. |
DE10256612B3 (en) | 2002-12-03 | 2004-07-08 | Daimlerchrysler Ag | Automobile driver training method using training vehicle with virtual imaging of dangerous driving situations |
DE102004017755A1 (en) * | 2004-04-10 | 2005-10-27 | Müller, Lisa | Satellite navigation method for a handheld terminal, in which geographical position data is output to a terminal display such that the terminal itself is shown moving in a virtual representation of the actual environment |
DE102004057947A1 (en) * | 2004-11-30 | 2006-06-08 | Audi Ag | Driver assistance system performance testing method for motor vehicle, involves providing sensor signal in dependence of simulated virtual traffic condition to electronic control unit that sets system into operation if necessary |
DE102006044086B4 (en) | 2006-09-20 | 2013-05-29 | Audi Ag | System and method for the simulation of traffic situations, in particular accident-critical dangerous situations, as well as a driving simulator |
DE102007053501A1 (en) * | 2007-06-11 | 2009-01-02 | Audi Ag | Method for developing and / or testing at least one safety and / or driver assistance system for a motor vehicle and simulation environment |
DE102014015871A1 (en) | 2014-10-25 | 2016-04-28 | Audi Ag | A display system for a motor vehicle, motor vehicle with a display system and method of operating a display system |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109413415A (en) * | 2018-12-12 | 2019-03-01 | 清华大学苏州汽车研究院(吴江) | A kind of camera controller test macro and test method |
CN109413415B (en) * | 2018-12-12 | 2024-03-29 | 清华大学苏州汽车研究院(吴江) | Camera controller testing system and testing method |
CN110021209A (en) * | 2019-04-30 | 2019-07-16 | 东莞市易联交互信息科技有限责任公司 | A kind of emulation test system based on driving simulator |
US11415484B2 (en) | 2019-07-11 | 2022-08-16 | Horiba Instruments Incorporated | Apparatus and method for testing automated vehicles via movable target body or electronic target simulator |
CN111460683A (en) * | 2020-04-20 | 2020-07-28 | 同济大学 | Pedestrian in-loop simulation system and testing method thereof |
CN111460683B (en) * | 2020-04-20 | 2024-06-04 | 同济大学 | Pedestrian on-loop simulation system and testing method thereof |
CN111859618A (en) * | 2020-06-16 | 2020-10-30 | 长安大学 | Multi-end in-loop virtual-real combined traffic comprehensive scene simulation test system and method |
CN111859618B (en) * | 2020-06-16 | 2024-03-29 | 长安大学 | Virtual-real combined traffic comprehensive scene simulation test system and method for multi-terminal ring |
CN111858708A (en) * | 2020-07-13 | 2020-10-30 | 北京交通大学 | Virtual-real interaction test synchronization method for moving objects in vehicle-road cooperative environment |
CN111858708B (en) * | 2020-07-13 | 2023-12-12 | 北京交通大学 | Method for synchronizing virtual-real interaction test of moving object under cooperative vehicle-road environment |
DE102020210962A1 (en) | 2020-08-31 | 2022-03-03 | Zf Friedrichshafen Ag | Computer-implemented method and computer system for generating input parameters for a simulation |
DE102020210962B4 (en) | 2020-08-31 | 2022-03-10 | Zf Friedrichshafen Ag | Computer-implemented method and computer system for generating input parameters for a simulation |
CN112581633A (en) * | 2020-12-24 | 2021-03-30 | 北京亮道智能汽车技术有限公司 | In-loop virtual simulation test method and system for vehicle with automatic driving function |
CN112965399A (en) * | 2021-03-24 | 2021-06-15 | 中国人民解放军63653部队 | Semi-physical simulation test method and device for engineering mechanical equipment |
CN113705000A (en) * | 2021-08-27 | 2021-11-26 | 西安交通大学 | Automatic driving education trolley testing method and system based on simulation scene |
CN113705000B (en) * | 2021-08-27 | 2024-05-10 | 西安交通大学 | Automatic driving education trolley test method and system based on simulation scene |
AT525369A4 (en) * | 2021-11-09 | 2023-03-15 | Avl List Gmbh | Test environment for urban human-machine interaction |
AT525369B1 (en) * | 2021-11-09 | 2023-03-15 | Avl List Gmbh | Test environment for urban human-machine interaction |
DE102022200497A1 (en) | 2022-01-18 | 2023-07-20 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method, computing unit and computer program for mapping driver behavior in a vehicle simulation |
CN114839465A (en) * | 2022-05-10 | 2022-08-02 | 中国第一汽车股份有限公司 | Complete vehicle electric balance test system and method |
CN116465647B (en) * | 2023-04-18 | 2024-03-26 | 日照朝力信息科技有限公司 | Automobile performance testing method and system based on virtual reality technology |
CN116465647A (en) * | 2023-04-18 | 2023-07-21 | 日照朝力信息科技有限公司 | Automobile performance testing method and system based on virtual reality technology |
Also Published As
Publication number | Publication date |
---|---|
DE102017107396B4 (en) | 2021-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102017107396B4 (en) | Test procedure and test device for driver assistance systems | |
DE102010006828B4 (en) | Method for the automatic creation of a model of the surroundings of a vehicle as well as driver assistance system and vehicle | |
EP3438901A1 (en) | Test drive scenario database system for realistic virtual test drive scenarios | |
DE102004057947B4 (en) | Method for functional testing of a driver assistance system integrated on the vehicle side | |
DE112017003916T5 (en) | Head-up display device, display control method and control program | |
EP3164756B1 (en) | Locating an hmd in a vehicle | |
DE102014206623A1 (en) | Localization of a head-mounted display (HMD) in the vehicle | |
WO2012152475A1 (en) | Method and device for calibrating a projection device of a vehicle | |
DE102012200731A1 (en) | Method and device for visualizing the environment of a vehicle | |
EP3392111A1 (en) | Method and device for determining a visual deflection of a driver of a vehicle | |
DE102019206021A1 (en) | Method for detecting the functionality of an environmental sensor, control unit and vehicle | |
DE102010003850A1 (en) | Method for adjusting position of marked object for marking object on display unit of vehicle, involves determining position of marked object corresponding to surrounding information | |
DE102015206546A1 (en) | Road marking recognition device | |
DE102018201509A1 (en) | Method and device for operating a display system with data glasses | |
DE102017111468A1 (en) | A vehicle system and method for determining whether a vehicle occupant has sensed an off-vehicle object | |
DE102014008152A1 (en) | Method and device for augmented presentation of at least one additional information in at least one image of an environment | |
WO2019042778A1 (en) | Augmented reality glasses, method for determining a pose of augmented reality glasses, and motor vehicle suitable for using the augmented reality glasses or the method | |
DE102014207398A1 (en) | Object association for contact-analogue display on an HMD | |
WO2019057452A1 (en) | Method, device and computer-readable storage medium with instructions for controlling a display of an augmented-reality head-up display device for a motor vehicle | |
DE102020211970A1 (en) | Method for controlling a vehicle | |
DE102018215186A1 (en) | Concept for monitoring and planning a movement of a means of transportation | |
DE102016220581A1 (en) | METHOD AND DEVICE FOR DETERMINING A ENVIRONMENTAL MODEL | |
DE102016114693A1 (en) | A method for assisting a driver of a motor vehicle when driving the motor vehicle, driver assistance system and motor vehicle | |
DE102020212412B3 (en) | Method for operating a head-up display device and a head-up display device | |
DE102014214507A1 (en) | Method for creating an environment model of a vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |