DE102018111390A1 - A method for rapid estimation of perspective occlusion in a simulation of an imaging sensor - Google Patents
A method for rapid estimation of perspective occlusion in a simulation of an imaging sensor Download PDFInfo
- Publication number
- DE102018111390A1 DE102018111390A1 DE102018111390.0A DE102018111390A DE102018111390A1 DE 102018111390 A1 DE102018111390 A1 DE 102018111390A1 DE 102018111390 A DE102018111390 A DE 102018111390A DE 102018111390 A1 DE102018111390 A1 DE 102018111390A1
- Authority
- DE
- Germany
- Prior art keywords
- sensor
- virtual
- virtual object
- image
- projection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
- G01S7/4052—Means for monitoring or calibrating by simulation of echoes
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
- G09B9/54—Simulation of radar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
- G01S13/72—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
- G01S13/723—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
- G01S13/726—Multiple target tracking
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9323—Alternative operation using light waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9324—Alternative operation using ultrasonic waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
- G01S7/4004—Means for monitoring or calibrating of parts of a radar system
- G01S7/4039—Means for monitoring or calibrating of parts of a radar system of sensor or antenna obstruction, e.g. dirt- or ice-coating
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Geometry (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Electromagnetism (AREA)
- Computer Hardware Design (AREA)
- Processing Or Creating Images (AREA)
Abstract
Verfahren zur Simulation eines Sensorsystems mit einem bildgebenden Sensor und einer Bildverarbeitungseinheit. Eine virtuelle Testumgebung umfasst den Sensor und eine Vielzahl virtueller Objekte, von denen eine Anzahl durch die Bildverarbeitungseinheit erkennbar ist. Wenn ein erstes virtuelles Objekt und ein durch die Bildverarbeitungseinheit erkennbares zweites virtuelles Objekt durch ein Sensorsichtfeld des Sensors erfasst sind, wird eine Projektionsebene aufgespannt. Ein mit dem ersten virtuellen Objekt ortsgleicher erster geometrischer Körper, dessen Abmessungen zumindest näherungsweise mit den Abmessungen des ersten virtuellen Objekts übereinstimmen, und ein mit dem zweiten virtuellen Objekt ortsgleicher zweiter geometrischer Körper, dessen Abmessungen zumindest näherungsweise mit den Abmessungen des zweiten virtuellen Objekts übereinstimmen, werden in einer Zentralprojektion mit den Ortskoordinaten des Sensors als Augpunkt auf die Projektionsebene projiziert. Wenn eine Schnittmenge der Abbilder des ersten geometrischen Körpers und des zweiten geometrischen Körpers existiert, der euklidische Abstand zwischen Sensor und erstem virtuellem Objekt geringer als der euklidische Abstand zwischen Sensor und zweitem virtuellem Objekt ist und die Größe der Schnittmenge einen vordefinierten Schwellwert überschreitet, wird das zweite virtuelle Objekt als perspektivisch verdeckt angenommen. Andernfalls wird das zweite virtuelle Objekt als perspektivisch nicht verdeckt angenommen. Method for simulating a sensor system with an imaging sensor and an image processing unit. A virtual test environment includes the sensor and a plurality of virtual objects, a number of which is recognizable by the image processing unit. When a first virtual object and a second virtual object recognizable by the image processing unit are detected by a sensor field of view of the sensor, a projection plane is spanned. A first geometric body resembling the first virtual object, the dimensions of which at least approximately coincide with the dimensions of the first virtual object, and a second geometric body having the same size as the second virtual object whose dimensions at least approximately coincide with the dimensions of the second virtual object projected in a central projection with the spatial coordinates of the sensor as an eye point on the projection plane. If an intersection of the images of the first geometric body and the second geometric body exists, the Euclidean distance between the sensor and the first virtual object is less than the Euclidean distance between the sensor and the second virtual object and the size of the intersection exceeds a predefined threshold, the second virtual object assumed to be hidden in perspective. Otherwise, the second virtual object is assumed to be unobstructed in perspective.
Description
Die Erfindung betrifft Sensorsimulation und virtuelles Testen.The invention relates to sensor simulation and virtual testing.
In der Entwicklung sicherheitskritischer eingebetteter Systeme ist es bekannt, diese Systeme in einer virtuellen Testumgebung auf korrekte Funktion zu überprüfen. In einem als Hardware in the Loop (HIL) bekannten Verfahren ist ein Prototyp eines eingebetteten Systems mit einem Simulationsrechner verbunden, der eine größtenteils virtuelle Testumgebung bereitstellt und das eingebettete Systems in harter Echtzeit mit mittels der virtuellen Testumgebung erzeugten Eingangsdaten versorgt. Umgekehrt kann der Simulationsrechner Steuersignale des eingebetteten Systems auslesen und diese bei der Berechnung des Zustands der virtuellen Testumgebung im jeweils nächsten Simulationszeitschritt berücksichtigen. In früheren Entwicklungsstadien ist es auch bekannt, statt eines prototypischen eingebetteten Systems nur dessen Software oder deren Programmlogik in eine virtuelle Testumgebung einzubinden. Solche vollständig virtuellen Testverfahren sind als Software in the Loop (SIL) oder Model in the Loop (MIL) bekannt und müssen nicht zwangsläufig in Echtzeit ablaufen. In der Automobilindustrie ist weiterhin ein Vehicle in the Loop (VIL) genanntes Verfahren bekannt, bei dem ein Prototyp des eingebetteten Systems in einem physischen Testfahrzeug verbaut auf einer Teststrecke oder einem Rollenprüfstand getestet wird, wobei das eingebettete System in harter Echtzeit mit mittels einer virtuellen Testumgebung erzeugten synthetischen Sensordaten versorgt wird.In the development of safety-critical embedded systems, it is known to check these systems for correct functioning in a virtual test environment. In a method known as Hardware in the Loop (HIL), an embedded system prototype is connected to a simulation computer that provides a largely virtual test environment and provides the embedded system with hard real-time input data generated by the virtual test environment. Conversely, the simulation computer can read control signals of the embedded system and take them into account in the calculation of the state of the virtual test environment in the respective next simulation time step. In earlier stages of development, it is also known to integrate only its software or its program logic in a virtual test environment instead of a prototypical embedded system. Such fully virtual test methods are known as Software in the Loop (SIL) or Model in the Loop (MIL) and do not necessarily have to be performed in real time. Also known in the automotive industry is a method called Vehicle in the Loop (VIL) in which a prototype of the embedded system is tested in a physical test vehicle mounted on a test track or chassis dynamometer, the embedded system in hard real-time using a virtual test environment supplied synthetic sensor data is supplied.
Einige eingebettete Systeme werten Sensordaten aus, die von Sensorsystemen mit bildgebenden Sensoren zugeliefert werden. Besondere Bedeutung haben derartige eingebettete Systeme in der Automobilindustrie im Zusammenhang fortgeschrittener Fahrassistenzsysteme (ADAS, Advanced Driving Assistance Systems) und des hochautomatisierten Fahrens (HAF). Unter bildgebenden Sensoren werden alle Sensoren verstanden, aus deren Sensordaten ein Bild der Umgebung des Sensors reproduzierbar ist, insbesondere RADAR-, LIDAR- und Ultraschallsensoren und weiterhin die optischen Sensoren von Kamerasystemen zur passiven Bilderfassung im sichtbaren oder nicht sichtbaren Lichtspektrum. Derartige Sensorsysteme können neben dem Sensor selbst auch eine Bildverarbeitungseinheit zur Auswertung der von dem Sensor zugelieferten Bilddaten umfassen. Die Bildverarbeitungseinheit kann als autonomes eingebettetes System ausgestaltet sein oder in das zu prüfende eingebettete System integriert sein.Some embedded systems evaluate sensor data that is supplied by sensor systems with imaging sensors. Of particular importance are such embedded systems in the automotive industry in the context of Advanced Driving Assistance Systems (ADAS) and Highly Automated Driving (HAF). Imaging sensors are understood to mean all sensors from whose sensor data an image of the environment of the sensor is reproducible, in particular RADAR, LIDAR and ultrasound sensors and also the optical sensors of camera systems for passive image acquisition in the visible or non-visible light spectrum. Such sensor systems may include not only the sensor itself but also an image processing unit for evaluating the image data supplied by the sensor. The image processing unit can be designed as an autonomous embedded system or integrated into the embedded system to be tested.
Wenn eine virtuelle Testumgebung für die Prüfung eines eingebetteten Systems vorgesehen ist, das Eingangsdaten von einem Sensorsystem mit einem bildgebenden Sensor erwartet, muss die virtuelle Testumgebung eine Simulation des Sensorsystems umfassen. In einigen Anwendungsfällen, beispielsweise wenn die Bildverarbeitungseinheit kein Prüfling bzw. kein Teil des Prüflings ist, ist es zur Einsparung von Rechenaufwand sinnvoll, auf eine detaillierte Simulation des Sensors zu verzichten. Statt aus der virtuellen Testumgebung Bilddaten des Sensors zu berechnen, wird dem simulierten Sensor ein Sensorsichtfeld zugeordnet, beispielsweise ein vom Sensor ausgehendes kegelförmiges Sichtfeld mit begrenzter Reichweite, und aus einer Vielzahl von der virtuellen Testumgebung umfasster virtueller Objekte wird eine Anzahl virtueller Objekte als durch das Sensorsystem erkennbare virtuelle Objekte bestimmt. Wenn die Sensorsimulation beispielsweise für die Simulation einer Verkehrsschilderkennung vorgesehen ist, können alle der virtuellen Testumgebung zufügbaren virtuellen Verkehrsschilder als durch das Sensorsystem erkennbare virtuelle Objekte bestimmt werden. In einem Simulationslauf in der virtuellen Testumgebung würden dann in einer beispielhaften Anwendung alle virtuellen Verkehrsschilder, die von dem Sensorsichtfeld erfasst sind, in eine vorläufige Liste erkannter virtueller Objekte aufgenommen werden, während alle übrigen von dem Sensorsichtfeld erfassten virtuellen Objekte, beispielsweise Personen, Bäume, Gebäude, Fahrzeuge und Ampeln, von dem simulierten Sensorsystem grundsätzlich nicht erkannt werden, d.h. grundsätzlich nicht in die vorläufige Liste erkannter virtueller Objekte aufgenommen werden. If a virtual test environment is envisioned for testing an embedded system that expects input data from a sensor system with an imaging sensor, the virtual test environment must include a simulation of the sensor system. In some applications, for example, if the image processing unit is not a test piece or no part of the test object, it makes sense to save on computational effort to dispense with a detailed simulation of the sensor. Instead of computing image data from the sensor from the virtual test environment, a sensor field of view is associated with the simulated sensor, such as a limited range conical field of view from the sensor, and a plurality of virtual objects included in the virtual test environment become a number of virtual objects than by the sensor system identifiable virtual objects. If the sensor simulation is intended, for example, for the simulation of a traffic sign recognition, all the virtual traffic signs that can be added to the virtual test environment can be determined as virtual objects recognizable by the sensor system. In one simulation run in the virtual test environment, in one example application, all virtual road signs captured by the sensor field of view would then be included in a preliminary list of detected virtual objects, while all other virtual objects captured by the sensor field of view, such as persons, trees, buildings , Vehicles and traffic lights, are basically not recognized by the simulated sensor system, ie basically not included in the preliminary list of detected virtual objects.
In der vorliegenden Beschreibung der Erfindung ist demnach mit einer Simulation eines Sensorsystems bevorzugt eine Simulation anhand eines einfachen Sensorsystemmodells gemeint, das lediglich das Verhalten des Sensorsystems oberflächlich imitiert, aber allenfalls in geringem Umfang physikalische oder technische Abläufe eines physischen Sensorsystems simuliert und insbesondere keine Berechnung synthetischer Bilddaten, die beispielsweise die von einem echten bildgebenden Sensor erzeugten Bilddaten nachbilden, umfasst. Derartige einfache Sensorsystemmodelle sind auch als Ground-Truth-Sensoren bekannt. Ein Vorteil dieser ist der geringe Rechenaufwand, der zu ihrer Ausführung nötig ist. Dadurch eignen sich Ground-Truth-Sensoren besonders zur Anwendung auf virtuelle Tests, die in harter Echtzeit durchgeführt werden, beispielsweise auf Hardware-in-the-Loop-Verfahren.In the present description of the invention, a simulation of a sensor system therefore preferably means a simulation based on a simple sensor system model which only superficially imitates the behavior of the sensor system, but at most simulates to a limited extent physical or technical processes of a physical sensor system and in particular no calculation of synthetic image data which, for example, emulate the image data generated by a real imaging sensor. Such simple sensor system models are also known as ground truth sensors. One advantage of this is the low computational effort that is necessary for their execution. This makes ground-truth sensors particularly suitable for use in virtual tests that are performed in hard real-time, such as hardware-in-the-loop techniques.
Ein grundsätzliches Problem bei der Implementierung von Ground-Truth-Sensoren ist die Berücksichtigung einer perspektivischen Verdeckung von durch das Sensorsystem erkennbaren virtuellen Objekten. Wie vorhergehend beschrieben bewertet ein Ground-Truth-Sensor zunächst alle virtuellen Objekte als erkannt, die von dem Sensorsichtfeld erfasst und als durch das Sensorsystem erkennbare Objekte bestimmt sind. Um das Sensorsystem realistisch zu simulieren, muss aber nachträglich geprüft werden, ob ein als erkannt gewertetes virtuelles Objekt für den Sensor tatsächlich sichtbar ist oder ob das virtuelle Objekt aus Sicht des Sensors zumindest teilweise durch ein anderes virtuelles Objekt verdeckt ist. Wenn das der Fall ist und die perspektivische Verdeckung ein gewisses Maß überschreitet, muss das virtuelle Objekt aus der vorläufigen Liste erkannter virtueller Objekte entfernt werden.A fundamental problem with the implementation of ground truth sensors is the consideration of a perspective concealment of virtual objects detectable by the sensor system. As previously described, a ground truth sensor first evaluates as all detected virtual objects detected by the sensor field of view and determined as objects recognizable by the sensor system. To make the sensor system realistic However, it must be subsequently verified whether a virtual object deemed to be recognized is actually visible to the sensor or whether the virtual object is at least partially concealed by another virtual object from the perspective of the sensor. If this is the case and the perspective occlusion exceeds a certain extent, the virtual object must be removed from the preliminary list of detected virtual objects.
Aus dem Fachgebiet der Computergraphik sind zahlreiche Verfahren zur Erkennung perspektivisch verdeckter Flächen bekannt. Eine Auswahl ist beispielsweise in der Präsentation „Visibility and Hidden Surface Removal“ von Torsten Möller offenbart (Teil der Vorlesung „CMPT 361: Introduction to Computer Graphics“ der Simon Fräser University, Kanada, abrufbar im Internet). Einige davon beinhalten auch die Projektion einer dreidimensionalen Szene auf eine Projektionsebene. Ziel dieser bekannten Verfahren ist aber die Berechnung eines realistischen Bildes, und ihr hoher Rechenaufwand macht sie für Echtzeitanwendungen problematisch, zumal nach der Berechnung eines Sensorbildes gemäß einem der bekannten Verfahren noch evaluiert werden müsste, ob eine ermittelte perspektivische Verdeckung noch eine Erkennung des verdeckten Objekts durch das simulierte Sensorsystem zulassen würde.From the field of computer graphics, numerous methods for detecting perspective hidden surfaces are known. A selection is, for example, disclosed in the presentation "Visibility and Hidden Surface Removal" by Torsten Möller (part of the lecture "CMPT 361: Introduction to Computer Graphics" by Simon Fraser University, Canada, available on the Internet). Some of them also involve the projection of a three-dimensional scene onto a projection plane. The aim of these known methods, however, is the calculation of a realistic image, and their high computational complexity makes them problematic for real-time applications, especially after the calculation of a sensor image according to one of the known methods would still be evaluated whether a detected perspective occlusion nor a recognition of the hidden object by would allow the simulated sensor system.
Der Artikel „Fast Collision Detection Based on Projection Parallel Algorithm“ von Xue-Ii Shen und Tao Li (2nd International Conference on Future Computer und Communication, IEEE, 2010) beschreibt ein Verfahren zur Kollisionserkennung zweier Körper in einem dreidimensionalen Raum durch Projektion auf drei orthogonale Projektionsebenen und Durchführung einer Kollisionserkennung auf jeder Projektionsebene.Xue-Ii Shen and Tao Li (2nd International Conference on Future Computer and Communication, IEEE, 2010) describe a method for collision detection of two bodies in a three-dimensional space by projection onto three orthogonal spaces Projection levels and collision detection on each projection level.
Die
Vor diesem Hintergrund ist die Aufgabe der Erfindung, die Erkennung einer perspektivischen Verdeckung in einer Simulation eines Sensorsystems mit einem bildgebenden Sensor in einer virtuellen Testumgebung zu beschleunigen.Against this background, the object of the invention is to accelerate the detection of a perspective occlusion in a simulation of a sensor system with an imaging sensor in a virtual test environment.
Zur Lösung der Aufgabe wird ein nachfolgend beschriebenes Verfahren zur Simulation eines Sensorsystems vorgeschlagen. Das simulierte Sensorsystem umfasst dabei einen bildgebenden Sensor und eine Bildverarbeitungseinheit zur Erkennung von Objekten in dem von dem Sensor ausgegebenen Sensorbild. Die Simulation des Sensorsystems selbst ist bevorzugt ein Ground-Truth-Sensor und umfasst den bildgebenden Sensor und die Bildverarbeitungseinheit nur implizit.To solve the problem, a method described below for simulating a sensor system is proposed. The simulated sensor system comprises an imaging sensor and an image processing unit for detecting objects in the sensor image output by the sensor. The simulation of the sensor system itself is preferably a ground truth sensor and includes the imaging sensor and the image processing unit only implicitly.
Zur Anwendung des Verfahrens wird eine virtuelle Testumgebung eingesetzt, die eine Vielzahl virtueller Objekte umfasst und in der dem Sensor und jedem virtuellen Objekt jeweils Ortskoordinaten zugeordnet werden. For the application of the method, a virtual test environment is used, which comprises a plurality of virtual objects and in which the sensor and each virtual object are each assigned location coordinates.
Dem Sensor wird in der virtuellen Testumgebung ein Sensorsichtfeld zugeordnet, und eine Anzahl von Objekten aus der Vielzahl virtueller Objekte wird als durch das Sensorsystem erkennbare virtuelle Objekte bestimmt.The sensor is assigned a sensor field of view in the virtual test environment, and a number of objects of the plurality of virtual objects are determined as virtual objects detectable by the sensor system.
Auf der virtuellen Testumgebung wird ein Simulationslauf gestartet, in dessen Verlauf dem Sensor oder mindestens einem virtuellen Objekt zyklisch neue Ortskoordinaten in der virtuellen Testumgebung zugeordnet werden, und es wird zyklisch überprüft, ob zumindest ein virtuelles Objekt durch das Sensorsichtfeld erfasst ist.In the virtual test environment, a simulation run is started, in the course of which the sensor or at least one virtual object is cyclically assigned new location coordinates in the virtual test environment, and it is cyclically checked whether at least one virtual object is detected by the sensor field of view.
Wenn zumindest ein erstes virtuelles Objekt und ein zweites virtuelles Objekt durch das Sensorsichtfeld erfasst sind und das zweite virtuelle Objekt durch das Sensorsystem erkennbar ist, wird auf die nachfolgend beschriebene Weise eine Abschätzung der perspektivischen Verdeckung des zweiten Objekts durch das erste Objekt durchgeführt. Dazu wird in der virtuellen Testumgebung zunächst eine Projektionsebene aufgespannt, deren räumliche Orientierung so gewählt ist, dass sie für eine Zentralprojektion des ersten Objekts und des zweiten Objekts geeignet ist, wenn die Ortskoordinaten des Sensors als Augpunkt der Zentralprojektion verwendet werden. Eine Zentralprojektion ist als Projektion mit vom Augpunkt ausgehendem fächerförmigem Strahlengang zu verstehen, die auf der Projektionsebene ein Bild der projizierten Punkte erzeugt, wie sie ein am Augpunkt stehender Beobachter, konkret der Sensor, wahrnehmen würde.When at least a first virtual object and a second virtual object are detected by the sensor field of view and the second virtual object is recognizable by the sensor system, an estimation of the perspective obscuration of the second object by the first object is performed in the manner described below. For this purpose, in the virtual test environment, first a projection plane is spanned whose spatial orientation is selected such that it is suitable for a central projection of the first object and the second object if the spatial coordinates of the sensor are used as the eye point of the central projection. A central projection is to be understood as a projection with a fan-shaped beam path emanating from the eye point, which generates an image of the projected points on the projection plane, as would be perceived by an observer standing at the point of view, specifically the sensor.
Auf die Projektionsebene wird eine zumindest teilweise Zentralprojektion eines mit dem ersten Objekt ortsgleichen geometrischen Körpers mit den Ortskoordinaten des Sensors als Augpunkt durchgeführt, wobei die Abmessungen des unskalierten ersten geometrischen Körpers vollständig oder zumindest näherungsweise mit den Abmessungen des ersten Objekts übereinstimmen. Es ist unerheblich, ob der erste geometrische Körper in der virtuellen Testumgebung nativ vorhanden ist oder zur Durchführung der Zentralprojektion nach Bedarf erzeugt wird. Bei vollständiger Übereinstimmung der Abmessungen des ersten geometrischen Körpers und des ersten Objekts kann der erste geometrische Körper auch mit dem ersten Objekt identisch sein, also nur implizit in der virtuellen Testumgebung vorhanden sein. Bevorzugt ist der erste geometrische Körper ein Hüllkörper oder ein skalierter Hüllkörper des ersten Objekts. Unter einem Hüllkörper eines Objekts ist ein das Objekt vollständig umfassender geometrischer Körper mit gegenüber dem umfassten Objekt vereinfachter Geometrie zu verstehen, insbesondere ein Polyeder mit wenigen Vertices oder ein auf einfache Weise analytisch beschreibbarer Körper, beispielsweise eine Kugel oder ein Zylinder.An at least partial central projection of a geometrical body which is the same as the first object with the spatial coordinates of the sensor as eye point is performed on the projection plane, the dimensions of the unscaled first geometric body completely or at least approximately coinciding with the dimensions of the first object. It does not matter if the first geometric body is natively present in the virtual test environment or is generated to perform central projection as needed. If the dimensions of the first geometric body and the first object are completely identical, the first geometric body can also be identical to the first object, ie only implicitly be present in the virtual test environment. The first geometric body is preferably an enveloping body or a scaled enveloping body of the first object. An enveloping body of an object is to be understood as meaning a geometrical body completely encompassing the object with a simplified geometry relative to the encompassed object, in particular a polyhedron with few vertices or a body which can be analytically described in a simple manner, for example a sphere or a cylinder.
Wie viele Vertices ein Hüllkörper höchstens umfassen sollte bzw. wie einfach dessen Geometrie sein sollte, ist vom Anwendungsfall abhängig und kaum allgemeingültig festlegbar. Sofern das Verfahren zur Ausführung in Echtzeit vorgesehen ist, sollte die Geometrie der geometrischen Körper grundsätzlich derart gewählt sein, dass ein vollständiger Durchlauf einer Softwareimplementierung des Verfahrens innerhalb einer durch den Anwendungsfall vorgegebenen Zeitspanne, insbesondere innerhalb eines Simulationszeitschritts, so sicher gewährleistet ist, dass innerhalb eines vollständigen Simulationslaufs keine Übertretung der vorgegebenen Zeitspanne durch die Softwareimplementierung zu erwarten ist. Welche Geometrien der geometrischen Körper bzw. welche Anzahl von Vertices vertretbar sind, ist insbesondere von der Implementierung des Verfahrens, der Komplexität der virtuellen Testumgebung und der Simulation und von der Hardwareausstattung des das Verfahren durchführenden Computersystems abhängig.How many vertices an enveloping body should at most include, or how simple its geometry should be, depends on the application and is hardly universally determinable. If the method is provided for real-time execution, the geometry of the geometric bodies should in principle be selected such that a complete run of a software implementation of the method within a period of time specified by the application, in particular within a simulation time step, is so assured that within one complete simulation run, no violation of the predetermined time span by the software implementation is to be expected. Which geometries of the geometric bodies or which number of vertices are acceptable depends in particular on the implementation of the method, the complexity of the virtual test environment and the simulation, and on the hardware configuration of the computer system performing the method.
Unter einer teilweisen Zentralprojektion bzw. einer teilweise durchgeführten Zentralprojektion eines Objekts ist zu verstehen, dass nur eine unvollständige Auswahl von Punkten des Objekts in einer Zentralprojektion auf die Projektionsebene projiziert wird. In einigen Ausführungsformen wird aus den projizierten Punkten eine Menge auf der Projektionsebene gebildet, die näherungsweise mit einem aus einer vollständig durchgeführten Zentralprojektion des Objekts resultierenden Abbild übereinstimmt.A partial central projection or a partially performed central projection of an object means that only an incomplete selection of points of the object in a central projection is projected onto the projection plane. In some embodiments, from the projected points, an amount is formed on the projection plane that approximates an image resulting from a complete central projection of the object.
Auf zur Durchführung der Zentralprojektion des ersten geometrischen Körpers analoge Weise wird eine zumindest teilweise Zentralprojektion eines mit dem zweiten Objekt ortsgleichen zweiten geometrischen Körpers auf die Projektionsebene mit den Ortskoordinaten des Sensors als Augpunkt durchgeführt, wobei die Abmessungen des unskalierten zweiten geometrischen Körpers vollständig oder zumindest näherungsweise mit den Abmessungen des zweiten Objekts übereinstimmen.In an analogous manner for carrying out the central projection of the first geometric body, an at least partial central projection of a second geometric body which is the same with the second object is carried out on the projection plane with the spatial coordinates of the sensor as an eye point, the dimensions of the unscaled second geometric body being completely or at least approximately match the dimensions of the second object.
Die Projektion des ersten geometrischen Körpers erzeugt ein erstes Abbild auf der Projektionsebene, die Projektion des zweiten geometrischen Körpers erzeugt ein zweites Abbild auf der Projektionsebene. Nachfolgend wird geprüft, ob eine Schnittmenge des ersten Abbilds und des zweiten Abbilds existiert. In dem Fall, dass erstens eine Schnittmenge existiert, zweitens der euklidische Abstand zwischen Sensor und erstem Objekt geringer als der euklidische Abstand zwischen Sensor und zweitem Objekt ist und drittens die Größe der Schnittmenge in Relation zur Größe des zweiten Abbilds einen vordefinierten Schwellwert überschreitet, wird das zweite Objekt als geometrisch verdeckt gewertet, d.h. es wird davon ausgegangen, dass die Bildverarbeitungseinheit das zweite Objekt nicht erkennt, auch dann nicht, wenn das zweite Objekt aus Sicht des Sensors teilweise sichtbar ist, weil der Grad der perspektivischen Verdeckung für eine Erkennung des zweiten Objekts durch die Bildverarbeitungseinheit zu hoch ist. Eine Ermittlung der euklidischen Abstände erfolgt bevorzugt anhand der Ortskoordinaten des Sensors, des ersten Objekts und des zweiten Objekts.The projection of the first geometric body produces a first image on the projection plane, the projection of the second geometric body produces a second image on the projection plane. Subsequently, it is checked whether an intersection of the first image and the second image exists. Secondly, in the case where there exists an intersection, secondly the Euclidean distance between sensor and first object is less than the Euclidean distance between sensor and second object and thirdly the size of the intersection in relation to the size of the second image exceeds a predefined threshold value second object scored as geometrically obscured, ie it is assumed that the image processing unit does not recognize the second object, even if the second object is partially visible from the sensor's point of view, because the degree of perspective occlusion is too high for recognition of the second object by the image processing unit. A determination of the Euclidean distances is preferably based on the location coordinates of the sensor, the first object and the second object.
Ein euklidischer Abstand zwischen dem Sensor und einem Objekt kann anhand der Ortskoordinaten des Sensors und eines festgelegten Punktes des Objekts ermittelt werden, beispielsweise anhand des dem Sensor nächstliegenden Punktes des Objekts oder der Ortskoordinaten des Objekts.A Euclidean distance between the sensor and an object can be determined on the basis of the spatial coordinates of the sensor and a defined point of the object, for example based on the point of the object closest to the sensor or the spatial coordinates of the object.
In dem Fall, dass mindestens eine der vorgenannten Bedingungen nicht erfüllt ist, dass also entweder keine Schnittmenge existiert oder der euklidische Abstand zwischen Sensor und erstem Objekt größer oder gleich dem euklidischen Abstand zwischen Sensor und zweitem Objekt ist oder die Größe der Schnittmenge in Relation zur Größe des zweiten Abbilds den vordefinierten Schwellwert nicht überschreitet, wird das zweite Objekt als perspektivisch nicht verdeckt gewertet, d.h. es wird davon ausgegangen, dass die Bildverarbeitungseinheit das zweite Objekt erkennt, auch dann, wenn das zweite Objekt teilweise durch das erste Objekt perspektivisch verdeckt ist, weil der Grad der perspektivischen Verdeckung für eine Erkennung des zweiten Objekts durch die Bildverarbeitungseinheit hinreichend niedrig ist.In the event that at least one of the aforementioned conditions is not met, that is either no intersection exists or the Euclidean distance between the sensor and the first object is greater than or equal to the Euclidean distance between the sensor and the second object or the size of the intersection in relation to the size of the second image does not exceed the predefined threshold value, the second object is evaluated as being perspectively unobscured, ie it is assumed that the image processing unit recognizes the second object even if the second object is partly hidden in perspective by the first object because the degree of perspective occlusion for recognition of the second object by the image processing unit is sufficiently low.
Die vorhergehend beschriebene Abschätzung einer perspektivischen Verdeckung kann bei Bedarf mehrfach auf jeweils unterschiedliche virtuelle Objekte durchgeführt werden, wenn neben dem ersten Objekt und dem zweiten Objekt weitere virtuelle Objekte durch das Sensorsichtfeld erfasst sind. Zur Auswertung durch den Prüfling oder durch das die virtuelle Testumgebung betreibende Computersystem wird ein Signal des Sensorsystems erzeugt, dem die Information entnehmbar ist, dass alle durch das Sensorsichtfeld erfassten und durch das Sensorsystem erkennbaren virtuellen Objekte, die als perspektivisch nicht verdeckt gewertet sind, von der Bildverarbeitungseinheit erkannt wurden und alle durch das Sensorsichtfeld erfassten und durch das Sensorsystem erkennbaren virtuellen Objekte, die als perspektivisch verdeckt gewertet sind, von der Bildverarbeitungseinheit nicht erkannt wurden.If necessary, the previously described estimation of a perspective occlusion can be performed multiple times on respectively different virtual objects if, in addition to the first object and the second object, further virtual objects are detected by the sensor field of view. For evaluation by the device under test or by the virtual test environment operating computer system, a signal of the sensor system is generated to which the information is removable, that all detected by the sensor field of view and detectable by the sensor system virtual objects that are not considered to be hidden from the perspective of the Image processing unit were detected and all detected by the sensor field of view and recognizable by the sensor system virtual objects that perspective are hidden, were not recognized by the image processing unit.
In einem möglichen Anwendungsfall bildet das Signal ein mögliches Signal eines realen Sensorsystems nach, insbesondere eines in Serie produzierten oder prototypischen Sensorsystems. In einem anderen möglichen Anwendungsfall bildet das Signal kein mögliches Signal eines realen Sensorsystems nach und wird beispielsweise zur Ansteuerung eines Prüfstands verwendet, der eingerichtet ist, einem realen bildgebenden Sensor die Existenz von Objekten innerhalb seines Sensorsichtfelds vorzutäuschen.In one possible application, the signal simulates a possible signal of a real sensor system, in particular a series-produced or prototype sensor system. In another possible application, the signal does not simulate a possible signal from a real sensor system and is used, for example, to drive a test bench that is set up to simulate the existence of objects within its sensor field of view to a real imaging sensor.
Ein Vorteil der Erfindung ist, dass sie eine schnelle und verlässliche Abschätzung der Erkennbarkeit eines virtuellen Objekts für ein bildverarbeitendes Sensorsystem ermöglicht, ohne dabei auf rechenaufwendige Verfahren aus der Computergraphik, beispielsweise Raytracing oder Z-Buffering, zurückzugreifen. Dadurch verringert das Verfahren auch den Hardwareaufwand für eine Simulation eines entsprechenden Sensorsystems, weil es ohne Anwendung eines Graphikprozessors (GPU, Graphics Processing Unit) durchführbar ist. Untersuchungen der Anmelderin haben ergeben, dass eine Softwareimplementierung eines erfindungsgemäßen Verfahrens verlässlich innerhalb einer Millisekunde durchlaufen kann. Das bedeutet, dass die Erfindung sich zur Anwendung auf ein Hardware-in-the-Loop-Verfahren eignet und das erfindungsgemäße Verfahren im Sinne eines Hardware-in-the-Loop-Verfahrens echtzeittauglich ist.An advantage of the invention is that it enables a fast and reliable estimation of the visibility of a virtual object for an image processing sensor system, without resorting to computationally expensive methods from computer graphics, for example ray tracing or Z-buffering. As a result, the method also reduces the hardware expenditure for a simulation of a corresponding sensor system because it can be carried out without the use of a graphics processor (GPU). Investigations by the Applicant have shown that a software implementation of a method according to the invention can reliably run through within a millisecond. This means that the invention is suitable for application to a hardware-in-the-loop method and the method according to the invention is real-time capable in the sense of a hardware-in-the-loop method.
Vorteilhaft ist der Sensor in der virtuellen Testumgebung an einem virtuellen Automaten aufgehängt, wobei das Signal des Sensorsystems von einem zur Ansteuerung des virtuellen Automaten eingerichteten Steuersystem oder von einer zur Ansteuerung des virtuellen Automaten eingerichteten Steuersoftware überwacht wird. Das Steuersystem kann insbesondere ein Prüfling sein, beispielsweise ein prototypisches eingebettetes System zur Steuerung eines physischen Automaten, das anhand eines Sensorbildes Entscheidungen über die Steuerung des Automaten trifft. Entsprechend kann die Steuersoftware insbesondere eine prototypische, für die Installation auf einem Steuersystem zur Steuerung eines physischen Automaten vorgesehene Steuersoftware sein, oder eine in der Entwicklung befindliche Programmlogik, die für die spätere Aufbereitung zur Installation auf einem entsprechenden Steuersystem vorgesehen ist. Der virtuelle Automat ist besonders bevorzugt ein virtuelles automatisiertes Vehikel, wobei unter einem Vehikel ein beliebiges zur Fortbewegung aus eigener Kraft eingerichtetes technisches System zu verstehen ist. Unter einer Aufhängung des Sensors an einem virtuellen Automaten ist insbesondere zu verstehen, dass die Ortskoordinaten des Sensors und die räumliche Orientierung des Sensorsichtfelds durch die Ortskoordinaten und/oder die räumliche Orientierung und/oder einen Zustand des virtuellen Automaten eindeutig vorgegeben sind.Advantageously, the sensor is suspended in the virtual test environment on a virtual machine, wherein the signal of the sensor system is monitored by a control system set up to control the virtual machine or by a control software set up to control the virtual machine. In particular, the control system may be a device under test, for example a prototype embedded system for controlling a physical machine, which makes decisions about the control of the machine on the basis of a sensor image. Accordingly, the control software may be, in particular, a prototypical control software intended for installation on a control system for controlling a physical machine or a program logic under development intended for later preparation for installation on a corresponding control system. The virtual vending machine is particularly preferably a virtual automated vehicle, wherein a vehicle is to be understood as meaning any technical system set up to move on its own power. A suspension of the sensor on a virtual machine is to be understood in particular that the location coordinates of the sensor and the spatial orientation of the sensor field of view by the location coordinates and / or the spatial orientation and / or state of the virtual machine are clearly specified.
Zur weiteren Reduktion des Rechenaufwands ist es vorteilhaft, keine vollständige Projektion eines geometrischen Körpers auf die Projektionsebene durchzuführen, sondern nur eine Auswahl von Punkten des geometrischen Körpers auf die Projektionsebene zu projizieren und aus der von den Abbildem der ausgewählten Punkte gebildeten Punktwolke eine zweidimensionale Menge auf der Projektionsebene zu bilden, die näherungsweise dem Abbild des vollständig projizierten geometrischen Körpers entspricht und bevorzugt alle Punkte der Punktwolke umfasst, beispielsweise durch Bildung der konvexen Hülle der Punktwolke. Zur Projektion eines polyedrischen geometrischen Körpers wäre es beispielsweise möglich, alle Vertices oder eine Auswahl von Vertices des geometrischen Körpers zu projizieren. Besonders vorteilhaft werden ausschließlich Punkte eines geometrischen Körpers projiziert, deren Abbilder Elemente der konvexen Hülle des aus einer vollständigen Projektion des geometrischen Körpers resultierenden Abbilds sind. Ein numerisches Verfahren zur Ermittlung einer solchen Auswahl von Punkten ist in der Beschreibung der
Die konvexe Hülle einer Menge von Punkten ist die kleinste konvexe Menge, die alle Punkte aus der Menge von Punkten umfasst. Eine Menge heißt konvex, wenn jede zwischen zwei Punkten der Menge gezogene Verbindungsgerade vollständig in der Menge enthalten ist. Ein Körper heißt konvex, wenn eine mit dem Körper deckungsgleiche Menge von Raumpunkten konvex ist.The convex hull of a set of points is the smallest convex set that includes all points from the set of points. A set is called convex if every connecting line drawn between two points of the set is completely contained in the set. A body is called convex if a set of spatial points congruent with the body is convex.
Zur Prüfung der Existenz einer Schnittmenge und zur Ermittlung der Größe der Schnittmenge in Relation zur Größe des zweiten Abbilds kann in einer Ausgestaltung der Erfindung ein bekanntes numerisches Verfahren zur Ausmessung von Flächen angewandt werden. Beispielsweise kann die Projektionsebene in hinreichend kleine Felder unterteilt werden, beispielsweise in Quadrate, Dreiecke oder Sechsecke. Die Erkennung der Existenz einer Schnittmenge und der Größenvergleich zum zweiten Abbild kann dann durch Zählung der Felder erfolgen, die zumindest teilweise sowohl innerhalb des ersten Abbilds als auch innerhalb des zweiten Abbilds bzw. die zumindest teilweise innerhalb des zweiten Abbilds liegen, und durch Vergleich der ermittelten Felderanzahlen.In order to test the existence of an intersection and to determine the size of the intersection in relation to the size of the second image, a known numerical method for the measurement of areas can be used in one embodiment of the invention. For example, the projection plane can be subdivided into sufficiently small fields, for example in squares, triangles or hexagons. The detection of the existence of an intersection and the size comparison to the second image can then take place by counting the fields that lie at least partially both within the first image and within the second image or at least partially within the second image, and by comparing the determined fields numbers.
Vorteilhaft wird auf eine Ausmessung von Flächen aber verzichtet, indem der Schwellwert für die Größe der Schnittmenge gleich null gesetzt ist und die Prüfung der Existenz einer Schnittmenge anhand einer Kollisionserkennung des ersten Abbilds und des zweiten Abbilds auf der Projektionsebene durchgeführt wird. In diesem letztgenannten Ausführungsbeispiel genügt also der bloße Nachweis der Existenz einer Schnittmenge des ersten Abbilds und des zweiten Abbilds, um den zweiten virtuellen Körper als verdeckt zu werten, gesetzt den Fall, der euklidische Abstand des ersten virtuellen Objekts zum Sensor ist geringer als der euklidische Abstand des zweiten virtuellen Objekts zum Sensor. Die Größe der Schnittmenge ist unerheblich. Das Verfahren wird dadurch erheblich beschleunigt, weil der bloße Nachweis der Existenz oder Nichtexistenz einer Schnittmenge bei entsprechend geschickter Implementierung des Verfahrens weniger Rechenschritte in Anspruch nimmt als die Ausmessung einer Fläche.Advantageously, however, a measurement of areas is dispensed with by setting the threshold value for the size of the intersection to zero and carrying out the check of the existence of an intersection on the basis of collision detection of the first image and of the second image on the projection plane. In this latter Thus, the mere proof of the existence of an intersection of the first image and the second image in order to evaluate the second virtual body as obscured sets the case, the Euclidean distance of the first virtual object to the sensor is less than the Euclidean distance of the second virtual one Object to the sensor. The size of the intersection is insignificant. The method is considerably accelerated because the mere verification of the existence or nonexistence of an intersection with correspondingly clever implementation of the method requires fewer calculation steps than the measurement of an area.
Zur Kollisionserkennung des ersten Abbilds und des zweiten Abbilds ist die Anwendung eines Gilbert-Johnson-Keerthi-Algorithmus, nachfolgend GJK-Algorithmus, vorteilhaft, wie er beispielsweise in dem Fachartikel „The Gilbert-Johnson-Keerthi Distance Algorithm“ von Patrick Lindemann (geschrieben für das Media Informatics Proseminar on „Algorithms on Media Informatics“, 2009) beschrieben ist.For collision detection of the first image and the second image, the application of a Gilbert-Johnson-Keerthi algorithm, hereinafter GJK algorithm, advantageous, as for example in the article "The Gilbert Johnson Keerthi Distance Algorithm" by Patrick Lindemann (written for the Media Informatics Proseminar on "Algorithms on Media Informatics", 2009).
Das erste und das zweite Abbild kollidieren genau dann, wenn ihre Minkowski-Differenz den Ursprung eines auf der Projektionsebene definierten kartesischen Koordinatensystems umfasst. Der GJK-Algorithmus sieht vor, die Minkowski-Differenz des ersten Abbilds und des zweiten Abbilds zu bilden und durch wiederholte Definition eines Dreiecks in der Minkowski-Differenz, wobei sich das Dreieck in jedem Iterationsschritt mehr dem Ursprung annähert, zu überprüfen, ob die Minkowski-Differenz den Ursprung umfasst. Der GJK-Algorithmus ist ausschließlich auf konvexe Mengen anwendbar.The first and the second image collide if and only if their Minkowski difference comprises the origin of a Cartesian coordinate system defined on the projection plane. The GJK algorithm proposes to construct the Minkowski difference of the first image and the second image, and to check whether the Minkowski is repeated by defining a triangle in the Minkowski difference, with the triangle approximating the origin in each iteration step Difference includes the origin. The GJK algorithm is applicable only to convex sets.
Für einen schnellen Durchlauf des GJK-Algorithmus ist es vorteilhaft, wenn das erste Abbild und das zweite Abbild konvexe geschlossene Polygonzüge mit wenigen Vertices sind, sodass das erste Abbild und das zweite Abbild - und in der Folge deren Minkowski-Differenz - jeweils in eine kleine Anzahl von Dreiecken unterteilbar sind. Das kann dadurch sichergestellt werden, dass die geometrischen Körper als konvexe Polyeder mit wenigen Vertices ausgestaltet sind, wobei insbesondere vor der Durchführung der Projektion eines geometrischen Körpers eine Auswahl von Vertices des geometrischen Körper ermittelt wird, deren Abbilder Elemente der konvexen Hülle des Abbilds des geometrischen Körpers sind. Dabei wird jeweils nur die Auswahl von Vertices projiziert.For a fast pass of the GJK algorithm, it is advantageous if the first image and the second image are convex closed polygons with few vertices, so that the first image and the second image - and consequently their Minkowski difference - each into a small Number of triangles are divisible. This can be ensured by configuring the geometric bodies as convex polyhedra having few vertices, wherein, in particular, before performing the projection of a geometric body, a selection of vertices of the geometric body is determined whose images are elements of the convex hull of the image of the geometric body are. Only the selection of vertices is projected.
Mittels einer Kollisionserkennung, beispielsweise des GJK-Algorithmus, ist die Existenz bzw. Nichtexistenz einer Schnittmenge des ersten Abbilds und des zweiten Abbilds nachweisbar. Eine Kollisionserkennung liefert aber im allgemeinen keine Information über die Größe einer existierenden Schnittmenge. Wenn, wie in den vorhergehend beschriebenen Ausführungsformen der Erfindung, der Schwellwert für die Größe der Schnittmenge gleich null gesetzt ist und für die Prüfung der Existenz einer Schnittmenge eine Kollisionserkennung angewandt wird, bewirkt jede perspektivische Verdeckung des zweiten Objekts durch das erste Objekt eine Bewertung des zweiten Objekts als perspektivisch verdeckt, unabhängig von dem Grad der perspektivischen Verdeckung.By means of collision detection, for example of the GJK algorithm, the existence or non-existence of an intersection of the first image and the second image can be detected. However, collision detection generally does not provide information about the size of an existing intersection. If, as in the previously described embodiments of the invention, the threshold for the size of the intersection is set equal to zero and collision detection is used for the existence of an intersection check, each perspective obscuration of the second object by the first object results in an evaluation of the second Object as perspective concealed, regardless of the degree of perspective occlusion.
In einigen Fällen entspricht das nicht dem Verhalten realer bildverarbeitender Sensorsysteme. Im allgemeinen ist damit zu rechnen, dass ein reales Sensorsystem, das zur Identifikation von Objekten in einem Sensorbild eingerichtet ist, ein für das Sensorsystem erkennbares, aber perspektivisch verdecktes Objekt erkennt, sofern der Grad der perspektivischen Verdeckung einen gewissen Toleranzwert nicht überschreitet, und dass das Sensorsystem das perspektivisch verdeckte Objekt nicht erkennt, wenn der Grad der perspektivischen Verdeckung den Toleranzwert überschreitet.In some cases this does not match the behavior of real image processing sensor systems. In general, it is to be expected that a real sensor system, which is set up for the identification of objects in a sensor image, detects an object that is recognizable but perspectively concealed for the sensor system, provided that the degree of perspective concealment does not exceed a certain tolerance value, and that Sensor system does not recognize the perspective hidden object when the degree of perspective occlusion exceeds the tolerance value.
Um dieses Verhalten bei Anwendung einer Kollisionserkennung nachzubilden, ist in einer Ausgestaltung der Erfindung vorgesehen, einen Toleranzwert für eine perspektivische Verdeckung eines für das Sensorsystem erkennbaren Objekts festzulegen, aus dem Toleranzwert einen Skalierungsfaktor zu berechnen und vor der Durchführung der Projektion zumindest den ersten geometrischen Körper oder den zweiten geometrischen Körper um den Skalierungsfaktor kleiner zu skalieren oder vor der Durchführung der Kollisionserkennung zumindest das erste Abbild oder das zweite Abbild um den Skalierungsfaktor kleiner zu skalieren. In der Beschreibung der
Im allgemeinen, insbesondere bei entsprechend geschickter Programmierung des Projektionsvorgangs oder der Kollisionserkennung, ist es nicht grundsätzlich notwendig, den Projektionsvorgang abzuschließen. Zwecks einer weiteren Beschleunigung des erfindungsgemäßen Verfahrens ist es in einer besonders vorteilhaften Ausgestaltung vorgesehen, schon während eines laufenden Projektionsvorgangs des ersten geometrischen Körpers oder des zweiten geometrischen Körpers, insbesondere wobei die Projektionen des ersten geometrischen Körpers und des zweiten geometrischen Körpers parallel durchgeführt werden, eine Kollisionserkennung anhand der Abbilder der bereits auf die Projektionsebene projizierten Punkte des ersten geometrischen Körpers und des zweiten geometrischen Körpers durchzuführen und die noch nicht abgeschlossenen Projektionen abzubrechen, wenn anhand der Abbilder der bereits projizierten Punkte eine Kollision erkannt wird oder eine Kollision ausgeschlossen wird.In general, especially with appropriately skilled programming of the projection process or the collision detection, it is not always necessary to complete the projection process. For a further acceleration of the method according to the invention, it is provided in a particularly advantageous embodiment, already during a current projection operation of the first geometric body or the second geometric body, in particular wherein the projections of the first geometric body and the second geometric body are performed in parallel, a collision detection perform on the basis of the images of the already projected on the projection plane points of the first geometric body and the second geometric body and abort the incomplete projections when based on the images of the already projected points a collision is detected or a collision is excluded.
Die beanspruchte Erfindung umfasst auch ein zur Durchführung eines erfindungsgemäßen Verfahrens eingerichtetes Computersystem sowie ein Computerprogrammprodukt zur Einrichtung eines Computersystems zur Durchführung eines erfindungsgemäßen Verfahrens. The claimed invention also encompasses a computer system configured to carry out a method according to the invention and a computer program product for setting up a computer system for carrying out a method according to the invention.
Nachfolgend wird anhand der Figuren ein vorteilhaftes Ausführungsbeispiel beschrieben, das die Erfindung näher erläutert. Es zeigen
-
1 ein zur Durchführung eines erfindungsgemäßen Verfahrens eingerichtetes Computersystem; -
2 eine auf dem Computersystem hinterlegte virtuelle Testumgebung; -
3 einen beispielhaften Projektionsvorgang eines ersten geometrischen Körpers und eines zweiten geometrischen Körpers; -
4 ein Verfahren zur Auswahl eines zur Projektion vorgesehenen Punktes eines geometrischen Körpers; -
5 ein erstes Beispiel für einen Abbruch eines Projektionsvorgangs nach Ausschluss einer Kollision; -
6 ein zweites Beispiel für einen Abbruch eines Projektionsvorgangs nach Erkennung einer Kollision; und -
7 beispielhafte Skalierungen des ersten oder des zweiten geometrischen Körpers.
-
1 a computer system configured to carry out a method according to the invention; -
2 a virtual test environment stored on the computer system; -
3 an exemplary projection process of a first geometric body and a second geometric body; -
4 a method for selecting a point of projection of a geometric body; -
5 a first example of a termination of a projection process after exclusion of a collision; -
6 a second example of a termination of a projection process after detection of a collision; and -
7 exemplary scalings of the first or the second geometric body.
Die Abbildung der
Das Computersystem
Der Radarprüfstand
Die Abbildung der
Ein Sensor
Die genaue Ausgestaltung des Signals des Sensorsystems kann je nach Anwendungsfall unterschiedlich sein. Das Signal kann weitere Informationen über die aufgelisteten Objekte tragen, beispielsweise deren absolute oder zum Sensor S relative Ortskoordinaten. Das Signal kann beispielsweise ein mögliches Signal eines echten Sensorsystems nachbilden und über eine Schnittstelleneinheit
In dem vorliegend beschriebenen Ausführungsbeispiel sind alle virtuellen Objekte
Jedem Objekt
Der Radarprüfstand
Die nachfolgend beschriebenen Figuren stellen ein erfindungsgemäßes Verfahren zur Abschätzung einer perspektivischen Verdeckung dar.The figures described below represent a method according to the invention for estimating a perspective occlusion.
Die Abbildung der
Dazu wird eine Projektionsebene
Auf gleiche Weise wird auf der Projektionsebene
Mittels eines
Die Abbildung der
Die Abbildung der
Zunächst wird eine parallel zur Projektionsebene
- - Die Suchebene
SP liegt orthogonal zur ProjektionsebeneP , und - - die Suchebene
SP liegt parallel zur SuchrichtungSD1 .
- - The search level
SP is orthogonal to the projection planeP , and - - the search level
SP lies parallel to the search directionSD1 ,
Der Suchalgorithmus umfasst die folgenden Schritte:
- 1) Suche einen ersten Punkt
P1 des zweiten Hüllquaders, der bezogen auf die SuchrichtungSD1 am weitesten außen liegt. Der erste PunktP1 lässt sich gleichbedeutend auch als der Punkt definieren, auf dem eine Fläche, deren Normalenvektor parallel zur SuchrichtungSD1 liegt, aufliegen würde, sodass die Fläche nur einen einzigen Schnittpunkt mit dem zweiten HüllquaderB2 umfasst und nach einer beliebig kleinen Verschiebung in SuchrichtungSD1 keinen Schnittpunkt mit dem zweiten HüllquaderB2 mehr aufweisen würde. - 2) Ermittle den Verbindungsvektor
V vom Augpunkt, d.h. den Ortskoordinaten des SensorsS , zum ersten PunktP1 . - 3) Bilde eine neue Suchrichtung
SD2 , die parallel zur SuchebeneSP und orthogonal zum VerbindungsvektorV liegt und deren Skalarprodukt mit der alten SuchrichtungSD1 positiv ist, um einen zweiten PunktP2 zu suchen, der bezogen auf die neue SuchrichtungSD2 am weitesten außen liegt. - 4) Wiederhole die Schritte 1) bis 3), bis der Abstand zwischen dem im aktuellen Iterationsschritt gefundenen Punkt und dem im vorhergehenden Iterationsschritt gefundenen Punkt einen Toleranzwert unterschreitet.
- 1) Search for a first point
P1 of the second Hüllquaders, based on the search directionSD1 outermost. The first pointP1 can be synonymously defined as the point on which a surface whose normal vector is parallel to the search directionSD1 is lying, so that the surface only a single point of intersection with the second HüllquaderB2 includes and after any small shift in the search directionSD1 no intersection with the second envelope cuboidB2 would have more. - 2) Determine the connection vector
V from the eye point, ie the location coordinates of the sensorS , to the first pointP1 , - 3) Create a new search direction
SD2 parallel to the search planeSP and orthogonal to the connection vectorV and its scalar product with the old search directionSD1 is positive to a second pointP2 to search, related to the new search directionSD2 outermost. - 4) Repeat steps 1) to 3) until the distance between the point found in the current iteration step and the point found in the previous iteration step falls below a tolerance value.
In dem in der
Durch mehrfache Ausführung des Suchalgorithmus mit unterschiedlichen Initialsuchrichtungen wird eine Auswahl von Punkten
Sofern die Auswahl von Punkten
Die Bestimmung einer Auswahl von Punkten zur Projektion wird für den ersten Hüllquader
Die Abbildung der
Zur Ermittlung der ersten Initialsuchrichtung
Der erste Punkt
Unmittelbar nach Projektion des zweiten Punktes
Die Abbildung der
Die Verfahrensschritte sind wie folgt:
- 1.1) Definiere eine erste Initialsuchrichtung
SD1-A durch Projektion des Vektors, der sich durch Subtraktion der Ortskoordinaten des ersten virtuellen ObjektsO1 von den Ortskoordinaten des zweiten virtuellen ObjektsO2 ergibt, auf die ProjektionsebeneP , und definiere eine der ersten InitialsuchrichtungSD1-A entgegengesetzte InitialsuchrichtungSD1-B . - 1.2) Wähle anhand der ersten Initialsuchrichtung
SD1-A einen ersten PunktP1-A des ersten HüllkörpersB1 aus und projiziere ihn auf die ProjektionsebeneP , um ein AbbildI1-A des ersten PunktesP1-A des ersten HüllkörpersB1 zu erzeugen. Wähle anhand der entgegengesetzten InitialsuchrichtungSD1-B einen ersten PunktP1-B des zweiten HüllkörpersB2 aus und projiziere ihn auf die ProjektionsebeneP , um ein AbbildI1-B des ersten PunktesP1-B des zweiten HüllkörpersB2 zu erzeugen - 1.3) Bilde eine erste Differenz
D1 der AbbilderI1-A undI1-B in dem lokalen Koordinatensystem CS. - 2.1) Definiere eine zweite Initialsuchrichtung
SD2-A , die ausgehend von der ersten DifferenzD1 in Richtung des Ursprungs des lokalen Koordinatensystems CS zeigt, wähle anhand der zweiten InitialsuchrichtungSD2-A einen zweiten PunktP2-A des ersten HüllkörpersB1 aus und projiziere ihn auf die ProjektionsebeneP , um ein AbbildI2-A des PunktesP2-A zu erzeugen. - 2.2) Wähle anhand einer der zweiten Initialsuchrichtung
SD2-A entgegengesetzten InitialsuchrichtungSD2-B einen zweiten PunktP2-B des zweiten HüllkörpersB2 aus und projiziere ihn auf die ProjektionsebeneP , um ein AbbildI2-B des PunktesP2-B zu erzeugen. - 2.3) Bilde eine zweite Differenz
D2 der zuletzt erzeugten AbbilderI2-A und I2-B im lokalen Koordinatensystem CS. - 3.1) Definiere eine dritte Initialsuchrichtung
SD3-A , die senkrecht zur Verbindungslinie der ersten DifferenzD1 und der zweiten Differenz liegt und in Richtung des Ursprungs des lokalen KoordinatensystemsCS zeigt, wähle anhand der dritten InitialsuchrichtungSD3-A einen dritten PunktP3 -A des ersten HüllkörpersB1 aus und projiziere ihn auf die ProjektionsebeneP , um ein AbbildI3-A des dritten PunktesP3-A des ersten HüllkörpersB1 zu erzeugen. - 3.2) Wähle anhand einer der dritten Suchrichtung
SD3-A entgegengesetzten SuchrichtungSD3-B einen dritten PunktP3-B des zweiten HüllkörpersB2 aus und projiziere ihn auf die ProjektionsebeneP , um ein AbbildI3-B des PunktesP3-B zu erzeugen. - 3.3) Bilde eine dritte Differenz
D3 der zuletzt erzeugten AbbilderI3-A undI3-B im lokalen KoordinatensystemCS . - 4) Wenn das aus der ersten Differenz
D1 , der zweiten DifferenzD2 und der dritten DifferenzD3 aufgespannte Simplex der Minkowski-Differenz Σ den Ursprung des lokalen KoordinatensystemsCS umfasst, brich den Projektionsvorgang ab und werte das zweite virtuelle ObjektO2 als perspektivisch verdeckt. - 5.1) Wenn das Simplex den Ursprung des lokalen Koordinatensystems
CS nicht umfasst, verwirf den am weitesten vom Ursprung entfernten Eckpunkt des Simplex und definiere eine neue Initialsuchrichtung, die senkrecht zur Verbindungslinie der beiden verbleibenden Eckpunkte liegt und in Richtung des Ursprungs des lokalen KoordinatensystemsCS zeigt. Wähle anhand der neuen Suchrichtung einen Punkt des ersten HüllkörpersB1 aus und projiziere ihn auf die ProjektionsebeneP , um ein Abbild des Punktes zu erzeugen. - 5.2) Wähle anhand einer der neuen Initialsuchrichtung entgegengesetzten Suchrichtung einen Punkt des zweiten Hüllkörpers
B2 aus und projiziere ihn auf die ProjektionsebeneP , um ein Abbild des Punktes zu erzeugen. - 5.3) Bilde die Differenz der zwei zuletzt erzeugten Abbilder im lokalen Koordinatensystem
CS und verwende die Differenz als neuen Eckpunkt, um zusammen mit den zwei verbleibenden Eckpunkten ein neues Simplex aufzuspannen. - 6) Wiederhole die Schritte
5.1 bis5.3 , bis entweder das aktuelle Simplex den Ursprung des lokalen Koordinatensystems CS umfasst (AbbruchkriteriumA ) oder das Skalarprodukt der aktuellen für die Auswahl eines Punktes des ersten HüllkörpersB1 verwendeten Initialsuchrichtung und des anhand der aktuellen Initialsuchrichtung gesetzten Eckpunkts negativ ist (AbbruchkriteriumB ).
- 1.1) Define a first initial search direction
SD1-A by projection of the vector obtained by subtracting the location coordinates of the first virtual objectO1 from the location coordinates of the second virtual objectO2 reveals on the projection levelP , and define one of the first initial search directionSD1-A opposite initial search directionSD1-B , - 1.2) Choose from the first initial search direction
SD1-A a first pointP1-A of the first envelopeB1 and project it onto the projection planeP to an imageI1-A the first pointP1-A of the first envelopeB1 to create. Choose by the opposite initial search directionSD1-B a first pointP1-B of the second envelopeB2 and project it onto the projection planeP to an imageI1-B the first pointP1-B of the second envelopeB2 to create - 1.3) Make a first difference
D1 the imagesI1-A andI1-B in the local coordinate system CS. - 2.1) Define a second initial search direction
SD2-A , starting from the first differenceD1 in the direction of the origin of the local coordinate system CS, select from the second initial search directionSD2-A a second pointP2-A of the first envelopeB1 and project it onto the projection planeP to an imageI2-A of the pointP2-A to create. - 2.2) Choose from one of the second initial search direction
SD2-A opposite initial search directionSD2-B a second pointP2-B of the second envelopeB2 and project it onto the projection planeP to an imageI2-B of the pointP2-B to create. - 2.3) Make a second difference
D2 the last generated imagesI2-A and I2-B in the local coordinate system CS. - 3.1) Define a third initial search direction
SD3-A perpendicular to the connecting line of the first differenceD1 and the second difference lies and towards the origin of the local coordinate systemCS shows, choose from the third initial search directionSD3-A a third pointP3 -A of the first envelopeB1 and project it onto the projection planeP to an imageI3-A of the third pointP3-A of the first envelopeB1 to create. - 3.2) Choose from one of the third search directions
SD3-A opposite search directionSD3-B a third pointP3-B of the second envelopeB2 and project it onto the projection planeP to an imageI3-B of the pointP3-B to create. - 3.3) Make a third difference
D3 the last generated imagesI3-A andI3-B in the local coordinate systemCS , - 4) If that's from the first difference
D1 , the second differenceD2 and the third differenceD3 spanned simplex of the Minkowski difference Σ the origin of the local coordinate systemCS includes, cancel the projection process and evaluate the second virtual objectO2 as hidden in perspective. - 5.1) If the simplex is the origin of the local coordinate system
CS does not include, discards the most distant vertex of the simplex and define a new initial seek direction that is perpendicular to the connecting line of the two remaining vertices and toward the origin of the local coordinate systemCS shows. Choose a point from the first envelope using the new search directionB1 and project it onto the projection planeP to create an image of the point. - 5.2) Select a point of the second envelope using a search direction opposite to the new initial search direction
B2 and project it onto the projection planeP to create an image of the point. - 5.3) Compute the difference of the two most recently generated images in the local coordinate system
CS and use the difference as a new vertex to span a new simplex along with the two remaining vertices. - 6) Repeat the steps
5.1 to5.3 until either the current simplex comprises the origin of the local coordinate system CS (abort criterionA ) or the scalar product of the current one for the selection of a point of the first envelopeB1 The initial search direction used and the vertex set using the current initial search direction are negative (abort criterionB ).
Wenn Abbruchkriterium A eintritt, wird das zweite virtuelle Objekt
Anhand des GJK-Algorithmus ist zwar die Existenz einer Schnittmenge zweier Mengen nachweisbar, aber nicht die Größe der Schnittmenge messbar. Demzufolge führt eine beliebig kleine perspektivische Verdeckung des zweiten Hüllkörpers
Um dieses realistische Verhalten nachzubilden, ist ein Toleranzwert
Für den ersten Hüllkörper
Für Toleranzwerte im Bereich von
Dabei sind L der euklidische Abstand zwischen Projektionsebene
Die Abbildung der
Bei einem Toleranzwert T = 0,25 bleibt der erste Hüllkörper
Bei einem Toleranzwert von T = 0,5 bleibt der erste Hüllkörper
Bei einem Toleranzwert von T = 1 ergibt sich für den ersten Hüllkörper
Das in der
Im Falle stark voneinander abweichender Abmessungen der virtuellen Objekte
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- EP 0620409 B1 [0009]EP 0620409 B1 [0009]
Claims (14)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018111390.0A DE102018111390A1 (en) | 2018-05-14 | 2018-05-14 | A method for rapid estimation of perspective occlusion in a simulation of an imaging sensor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018111390.0A DE102018111390A1 (en) | 2018-05-14 | 2018-05-14 | A method for rapid estimation of perspective occlusion in a simulation of an imaging sensor |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102018111390A1 true DE102018111390A1 (en) | 2019-11-14 |
Family
ID=68336726
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102018111390.0A Pending DE102018111390A1 (en) | 2018-05-14 | 2018-05-14 | A method for rapid estimation of perspective occlusion in a simulation of an imaging sensor |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102018111390A1 (en) |
-
2018
- 2018-05-14 DE DE102018111390.0A patent/DE102018111390A1/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3570063B1 (en) | Method for quick estimation of a perspective concealment in a simulation of an imaging sensor | |
DE102020112314A1 (en) | VERIFICATION OF VEHICLE IMAGES | |
DE102018128289B4 (en) | METHOD AND DEVICE FOR AUTONOMOUS SYSTEM PERFORMANCE AND CLASSIFICATION | |
WO2019179946A1 (en) | Generation of synthetic radar signals | |
DE102018121018A1 (en) | EXPAND REAL SENSOR RECORDINGS WITH SIMULATED SENSOR DATA BACKGROUND | |
DE102015214338A1 (en) | Determining an arrangement information for a vehicle | |
DE102014208009A1 (en) | Capture static and dynamic objects | |
DE102011107458A1 (en) | Method for evaluating an object recognition device of a motor vehicle | |
AT519538B1 (en) | Method and system for the simulation-based determination of echo points as well as methods for emulation and emulation device | |
DE102010013943A1 (en) | Method and device for a functional test of an object recognition device of a motor vehicle | |
DE102020124236A1 (en) | REUSABLE GHOST IMAGE IN THE VEHICLE RADAR SYSTEM | |
DE102020127107A1 (en) | METHOD AND DEVICE FOR DETERMINING A CONFIGURATION FOR AN AUTONOMOUS VEHICLE | |
DE202022106107U1 (en) | System for testing level 3 automated driving systems (ADS) | |
DE102019130096A1 (en) | Method for determining radar information, simulation method, classification method, computer program and calculation system | |
WO2019162317A1 (en) | Method for generating sensor data for safety-critical automobile control devices | |
DE102018111390A1 (en) | A method for rapid estimation of perspective occlusion in a simulation of an imaging sensor | |
DE102017201796A1 (en) | Control device for determining a self-motion of a motor vehicle and motor vehicle and method for providing the control device | |
DE102019220069A1 (en) | More reliable classification of radar data from dynamic scenarios | |
DE102020206641B4 (en) | Method and device for providing a high-resolution digital map | |
DE102008055932A1 (en) | Man-made sensor e.g. environment sensor, performance model-based simulation method for car, involves modifying parameters of polygons and reference points, and generating sensor data by environment including parameter-modified polygons | |
DE102021212632A1 (en) | Testing of the environment sensors and/or environment perception of a vehicle | |
EP4107654A1 (en) | Method and device for generating combined scenarios | |
DE102020212921A1 (en) | Method, computer program and device for evaluating a usability of simulation data | |
DE102019116919A1 (en) | Method for the rapid assessment of the visibility of a virtual object using a sensor system | |
DE102021204790A1 (en) | Quantitative evaluation of models to describe real scenarios |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R081 | Change of applicant/patentee |
Owner name: DSPACE GMBH, DE Free format text: FORMER OWNER: DSPACE DIGITAL SIGNAL PROCESSING AND CONTROL ENGINEERING GMBH, 33102 PADERBORN, DE |
|
R012 | Request for examination validly filed |