WO2014183953A1 - Arrangement and method for sensor fusion and production method for developing a fusion model - Google Patents

Arrangement and method for sensor fusion and production method for developing a fusion model Download PDF

Info

Publication number
WO2014183953A1
WO2014183953A1 PCT/EP2014/057867 EP2014057867W WO2014183953A1 WO 2014183953 A1 WO2014183953 A1 WO 2014183953A1 EP 2014057867 W EP2014057867 W EP 2014057867W WO 2014183953 A1 WO2014183953 A1 WO 2014183953A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor data
environment
model
fusion model
representation
Prior art date
Application number
PCT/EP2014/057867
Other languages
German (de)
French (fr)
Inventor
Wendelin Feiten
Michael Fiegert
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Publication of WO2014183953A1 publication Critical patent/WO2014183953A1/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/15Vehicle, aircraft or watercraft design
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures

Definitions

  • model and “representation” must be defined differently.
  • data structures are referred to as models which largely largely accurately model aspects of a real environment and can therefore be used as reliable input and / or specification for algorithms for sensor fusion as well as for their training.
  • models are usually created by experts with great care and a lot of time.
  • representation is intended to denote those estimated assumptions and opinions that software, such as a sensor fusion algorithm, itself must form over an environment, such a representation being the result of a computer program flow and must be compared to the models previously mentioned necessarily remain both in their level of detail and in their reliability.
  • an environment model denotes a largely exact model of a real environment, which an expert has created, for example, by exact manual measurement of a test environment and subsequent construction of a finely resolved polygon model.
  • an environment representation denotes an internal representation of an environment, which is represented by a
  • a vehicle model refers to a largely exact model of a vehicle, for example in the form of a high-resolution 3D model or blueprint.
  • a vehicle representation denotes estimated states of the vehicle, for example, whether or not there is a skid.
  • a driver model designates a largely exact model of a driver, for example in the form of an animated humanoid 3D model, which shows realistic head, eye and eyelid movements.
  • a driver's representation denotes estimated states of the driver, for example, whether he is tired or not.
  • the environment will be an environment of a vehicle.
  • the environment can also be the vehicle itself or its driver.
  • the term environment model should therefore also include the special cases vehicle model and driver model below.
  • the term environmental representation should also include the special cases of vehicle representation and driver representation below.
  • the algorithms described below can also use an environment model, a vehicle model and / or a driver model and an environment representation, a vehicle representation and / or a driver representation side by side, which then exist in separate modules and work together in a suitable manner.
  • An essential step in the design of driver assistance systems is the derivation of internal representations of the environment, the vehicle and the driver from the measured values of one or more sensors, referred to below as a fusion algorithm.
  • a fusion algorithm In a vehicle today several driver assistance applications are integrated. The determination of the fusion algorithm as well as the implementation of the actual application due to the environment representation used are conventionally in the hands of the respective developer.
  • the concrete merger algorithm is left to the experience and the tact of the respective developer and is usually developed by hand.
  • a crucial element of this development is the way in which sensor data can be used to deduce the environmental representation, ie the inverse sensor model.
  • the manual design or manual parameterization of this inverse sensor model again requires expertise on all other systems, models and representations used.
  • the respective developer must therefore know exactly the characteristics of the sensors used and the environmental representation type. He also needs expert knowledge about the techniques of insecure closure. If a new type of sensor is to be integrated into the system, the entire fusion algorithm must be reopened. Then the fusion algorithm has to be re-formulated taking into account the new sensor type. Here, too, the developer must again know exactly the peculiarities of this new type of sensor.
  • driver assistance systems it is customary in the design of driver assistance systems to design the fusion algorithm by hand and then experimentally or in simulation to check how well the resulting environmental representation meets the requirements of the driver assistance application.
  • an inference engine in which a computer program is executed which is set up to make changes in the environmental representation which fuse the real sensor data or virtual sensor data with the environmental representation, using a fusion model that is modularly separated from the inference engine.
  • a fusion model is stored, which is for use by the
  • the object is achieved according to the invention by a method for sensor fusion
  • an inference machine computer-based on the basis of a modularly separated from the inference engine fusion model makes changes in the environmental representation, which merge the real sensor data or virtual sensor data with the environmental representation.
  • the object is achieved by a production method for creating a fusion model, in which computer-based simulations of virtual measurements in an environment model based on a sensor model are carried out, and virtual sensor data that at least partially maps an environment model,
  • a fusion model specifies at least one calculation rule, at least one data structure, at least one function and / or at least one algorithm which receives the virtual sensor data as input and prescribes as output corresponding changes in an environment representation with a predetermined environment representation type
  • the fusion model is created by computer-aided machine learning
  • Computer-based inference machine based on the fusion model (8) and the real sensor data or virtual sensor data makes changes in the environment representation, which merge the real sensor data or virtual sensor data with the environmental representation,
  • the environment representation is compared with the target environment representation, resulting in an error minimized in solving the continuous optimization problem.
  • a computer program is stored, which executes one of the methods, when it is processed in a microprocessor.
  • the computer program is executed in a microprocessor and executes one of the methods.
  • At least one calculation rule, at least one data structure, at least one function and / or at least one algorithm is understood as a fusion model, which allows (s) to determine suitable changes in an environmental representation on the basis of sensor data.
  • the environment representation here is an internal estimate of the environment perceived by a driver assistance application.
  • the fusion model is an arithmetic rule that translates the sensor data into the environmental representation-in other words, a conversion rule that specifies how the sensor data is to be interpreted with respect to an environmental representation type (eg, grid map or object list), and according to which the sensor data can be converted into the environment representation.
  • the inference engine can be implemented as a microprocessor, software program or virtual machine.
  • the modular separation is thus a functional or logical separation.
  • a spatial separation can be provided by the location of the fusion model is separated from the inference engine.
  • the functional separation of the sensor model makes it possible to provide a designer of driver assistance functions with a design library with a large number of highly sophisticated fusion models, without the developer having to have complete expertise on the respective algorithms.
  • the environmental representation type 2D lattice map, 3D lattice or cube map, polygon model, object lists (list of object center points or rectangle envelopes with size specification), or simple lists of states ,
  • the modular division of the sensor fusion into a fusion model and inference engine reduces dependencies on the development of driver assistance systems and thus enables a more flexible division of labor. Furthermore, an effort in design and test cycles is reduced. Modularization means that development tasks can be more widely shared among suppliers.
  • Another advantage is the ability to progressively develop driver assistance systems through the increased modularity created. Instead of equipping each application with its own sensors as usual, existing sensors and inference machines for sensor fusion can be reused by appropriately modifying their fusion models. The additional cost of a new driver assistance application is then based solely on the optionally additionally installed sensors and the costs for new soft- ware.
  • the inference engine as well as other required computation units, simulators, etc. may be hardware and / or soft- be implemented technically.
  • it can be designed as a device or as part of a device, for example as a computer or as a microprocessor or as a control computer of a vehicle.
  • the respective unit may be designed as a computer program product, as a function, as a routine, as part of a program code or as an executable object.
  • the computer-readable data carrier is, for example, a memory card, a USB stick, a CD-ROM, a DVD or even a data carrier of a server, from which a file with the computer program in a network is provided or delivered. This can be done, for example, in a wireless communication network by transmitting the appropriate file.
  • the inference engine is a graph based generic probabilistic
  • the fusion model includes one
  • the factor diagram of the fusion model maps each of these random variables into a variable node
  • the factor graph contains factor nodes connecting the variable nodes and describing conditional probabilities between the variable nodes.
  • the error is determined by means of an error function, which takes into account the requirements of a driver assistance function.
  • a production method results, wherein the environment model models an environment of a vehicle, a vehicle with states and / or a driver of a vehicle, and
  • the sensor model is a 2D or 3D camera, an ultrasonic sensor, a 2D or 3D laser scanner, a 2D or 3D radar, a lidar, a wheel rotation sensor, an inertial sensor, an acceleration sensor, a rotation rate sensor, a temperature sensor, a Humidity sensor, a position sensor for determining at least one parameter of the driving dynamics of a vehicle, a seat occupancy sensor or a distance sensor modeled, and wherein the predetermined environment representation type is a 2D or 3D grid map, an object list or a list of states.
  • the fusion model is selected and parameterized by solving a mixed discrete-continuous optimization problem from a set of fusion models.
  • Inference apparatus is,
  • the fusion model includes a factor graph in which both the environmental representation and the real sensor data or the virtual sensor data contain random variables
  • the factor graph of the fusion model maps each of these random variables into a variable node, and wherein the factor graph contains factor nodes connecting the variable nodes and describing conditional probabilities between the variable nodes,
  • Factor can be determined by the discrete part of the optimization problem, whereby the fusion model is selected from the set of possible factor graphs, and in the continuous parameter, the factor nodes are determined by the continuous part of the optimization problem, thereby parameterizing the fusion model.
  • a production method results in which the environment representation type (7) is a 2D or 3D lattice map,
  • the random variables express an uncertainty of information, in particular an occupancy probability for the respective cell or the respective cube.
  • FIG. 1 shows an architecture of a driver assistance system
  • FIG. 2 shows a machine learning method for a fusion model
  • FIG. 3 shows an arrangement or a method for sensor fusion.
  • 1 shows an architecture of a driver assistance system and in particular the construction of an environmental representation 6 of real sensor data 4.
  • a sensor 1 performs a real measurement 3 in a real environment 2 and generates the real sensor data 4.
  • For the translation of the real sensor data 4 in the Environment representation 6 is basically always a sensor data fusion 5 required. Because from the second measurement, a temporal merger must already be made. Multiple sensors at different locations require a local fusion of the real sensor data 4.
  • different sensor types such as ultrasound and camera, must be fused by the sensor data fusion 5 with particular regard to their properties.
  • the embodiment described here can be understood as a design process and design system for driver assistance systems.
  • the generic architecture of a driver assistance system shown in FIG. 1 is therefore not limited to a formalization of the design process, but is also suitable as a system architecture for sensor fusion and for implementing a driver assistance application 9, which controls a vehicle behavior 100.
  • Sensor data fusion 5 plays a central role in this architecture. It is responsible for deriving the environmental representation 6 from the sequence of the real sensor data 4 of different sensors 1, ie, as defined above, an internal representation of the surroundings, of the vehicle condition and / or of the condition of the driver.
  • the entries in the environment representation 6 are therefore from observations, ie the real sensor data 4.
  • an environment representation type 7, ie the type of environmental representation 6, is predefined by the developer.
  • the environment representation type 7 can be, for example, an occupancy grid map or an object list, it can define parameters of the vehicle state or it can generate a large amount of information. rather pretend conditions for the driver ("tired”, "awake”,
  • the state-dependent entries in the environmental representation 6 are modified, depending on what the sensors 1 measure. For example, the occupancy probability in a cell of an occupancy lattice map may be increased if the sensor 1 measures a distance to an obstacle at a corresponding distance.
  • the entries in the environment representation 6, e.g. An occupancy probability usually expresses an uncertainty of the information. Therefore, they usually correspond to one of the known uncertainty calculus, in particular from the fuzzy theory, the Dempster-Shafer calculus or the probability calculus. Usually, probability calculus is used and the entries are random variables. For reasons of efficiency, a parametric probability density distribution is often used as the basis, but it is also possible to choose a sample-based representation, as is customary in the field of autonomous robots.
  • the calculation rule according to which the entries in the environmental representation 6 are modified on the basis of the real sensor data 4 is entered in FIG. 1 as a fusion model 8.
  • An example of the driver assistance application 9 is a
  • the driver assistance application 9 for automatic parking needs as environment representation 6 a map of the environment in which a parking space can be identified and then a path can be planned into this parking space.
  • the environmental representation type 7 of this card will typically be an occupancy lattice card.
  • the plane in which the vehicle is located is usually divided into square cells of the same size, for which it is recorded whether this cell is occupied or not.
  • the edge length of a cell is usually between 0.05 m undl.Om, but can also be smaller or bigger.
  • Such a grid map is an example of an environmental representation 6 of the environment.
  • the environmental representation 6 should basically be static over a period of time, i. in it the parts of the real environment 2 are to be modeled, which do not change over a certain time. The measurement actually depends on the real environment 2. In deriving the environment representation 6, this is often taken synonymously in the literature to the information in the environment representation 6, ie the map of the environment.
  • FIG. 2 shows a separate and explicit modeling of the sensor properties with a sensor model 10, the environmental properties with an environment model 20, the environment representation type 7 and the environment representation 6 itself.
  • the required expertise about the sensor hardware becomes the expertise decoupled across application areas.
  • the sensor model 10, a not-shown vehicle model and the environment model 20 in this case allow the simulation of virtual measurements 30, resulting in virtual sensor data 40.
  • the above-mentioned decoupling is achieved by physically modeling the sensor hardware in the sensor model 10 in such a way that the virtual measurements 30 for the sensor can be simulated by means of a suitable simulation and due to the correspondingly detailed environment model 20.
  • the virtual sensor data 40 are subject to the same random fluctuations as the real sensor data determined in experiments (see FIG.
  • the sensor model 10 thus contains the physical properties of the sensor. Which these are, of course, depends on the respective sensor types.
  • the environment model 20 contains those physical properties of the environment needed to simulate or derive the ground truth of the internal environment representation: For each sensor model 10 to be used, the environment model 20 must include the corresponding physical properties of the environment.
  • these properties include the geometry and textures (optical reflection properties) of the objects.
  • environment models 20 can be found in the areas of computer animation for movies, computer games, architectural simulation, etc. In these environment models 20, there are currently. also simulated properties of the transmission medium (fog, rain, snow, ...) as well as properties of lighting.
  • the environmental model 20 For the simulation of an ultrasonic sensor, an approximation of the geometry together with the acoustic reflection properties is sufficient as the environmental model 20.
  • the objects in the environment model 20 are modeled so that sections with rays can be calculated, or that the reflection of waves on the surfaces can be calculated. For this purpose the normals on the surfaces are needed.
  • the vehicle model describes where the sensors are relative to the vehicle.
  • the geometric relationships are relevant here. But it can also be electrical conditions relevant if, for example, loud Sensor model 10 fluctuations in the supply voltage can lead to increased noise in the measured values.
  • the supply voltage (possibly as a random variable) is part of the vehicle model.
  • the sensor simulation creates the same virtual sensor data 40 from the sensor model 10 and the environment model 20 as would the real sensors in a real use environment.
  • the simulation can process random variables as input values, and also the virtual sensor data 40 are random variables, and their probability density distribution is also simulated.
  • the simulation can be carried out at very different accuracy levels, with the higher the rule
  • a very simple simulation is based on the fact that for a discrete, often very small number of rays emanating from the sensor, the intersections of these rays are formed with objects in the environment. For this purpose, the intersection points of rays with objects must be able to be formed in the environment model 20. This simulation neglects the reflec- tion of acoustic waves on surfaces and thus provides more measured values than the physical sensor.
  • the normal vectors on the surfaces at the intersections are also taken into account. This makes it possible to judge whether a sound wave is reflected towards a receiver (this can also be the transmitter) and thus an echo is measured, or whether no echo is measured.
  • Another simulation method is markedly more strongly influenced by the environmental representation type 7 of the environmental representation 6. Specifically, here the volume of the internal environment decomposed into grid cells and the course of the pressure distribution over time simulated. This method (depending on the resolution, ie size of the grid cells and time intervals) simulates the echoes of very jagged obstacles, and also simulates echoes that reach a receiver via several reflectors, so-called multi-path echoes.
  • the ultrasonic sensor emits a cone-shaped signal.
  • An echo can be described by a circle segment (2D) or a spherical shell section (3D) within this cone whose radius corresponds to the measured distance. Accordingly, a likelihood of an obstacle is increased in all cells cut by the circle segment and lowered in all cells passed on the way there from the beam.
  • the sensor model 10 By agreeing formats, the sensor model 10, the environment model 20, and the vehicle model may come from different suppliers and still fit together. Similar de facto standards already exist in the area of CAD (eg the STEP format). In the context of the embodiments, standards are needed in which the probability density functions can also be described.
  • the sensor model 10 can come from the sensor manufacturer.
  • the environment model 20 may be from a company that specializes in 3D modeling.
  • the simulator can come from a company specializing in simulation. In the future, the vehicle model will be contributed by the system integrator.
  • the models and the simulator are usually used by the system integrator, ie an automobile manufacturer or designer.
  • the various contributions of physical sensor hardware and sensor signal conditioning (sensor model 10) on the Level of system integration separate from the influences from the deployment environment (environment model 20). In this case, the system integrator no longer needs expertise on the sensor hardware, since this is detected in the sensor model 10.
  • the forward sensor model relevant for the given application is developed.
  • FIG. 2 shows on the one hand a section of the driver assistance system in which the physical sensors 1 and the real environment 2 from FIG. 1 are replaced by corresponding models, and in which the real measurements 3 from FIG. 1 are replaced by virtual measurements 30.
  • the section extends to the environmental representation 6, which in this case is derived from the virtual sensor data 40.
  • a desired perceived environmental representation is shown, the target environmental representation 60. This is of the same environmental representation type 7 as the environmental representation 6.
  • a direct derivation 70 it is possible within a direct derivation 70 to decide which information from the environment model 20 is to be estimated in the environment representation 6. For example, an image of the parking space is needed for automatic parking, that is, the parking space present in a certain area. static obstacles. In this environment representation 6 moving objects should not be registered, especially when they leave the parking space again. So the goal is an occupancy grid map in which every cell that corresponds to a static object is marked with a high probability of being occupied, and every cell that does not correspond to a static object is marked with a high probability as free. These probabilities may be weighted according to the requirements of the application, eg parking.
  • the correct estimate of the occupied cells takes precedence over the proper estimation of the free cells in the immediate vicinity of the occupied cells.
  • a planned path into the parking space is likely to be mobile, while it may happen that a physically physically possible path into the parking space is not found because of the inaccurate environment representation 6.
  • the occupancy state of occupancy grid map cells associated with interior points of static objects in environment model 20 may be specified as "unknown” (regardless of how this state is associated with a specific probabilistic model of "busy” or “free” in FIG Individual case is coded).
  • Embodiment for the machine learning of the fusion model 8 explained.
  • the fusion model 8 is now judged according to how exactly the environmental representation 6 created from the virtual sensor data 40 by means of this fusion model 8 agrees with the target environmental representation 60.
  • this error function can also be matched to the requirements of the driver assistance function. So it may be z. For example, if a cell in the environment representation 6 contains a higher rating for "free” than in the target environment representation 60, and vice versa, a higher rating for "occupied” in the
  • Environmental representation 6 is rated with a lower error value.
  • this is preferably incrementally calculated, that is, p (m t ⁇ m t _ 1 , z t , x t ). This probability is to be determined by the role of the sensor data fusion 5 shown in FIG.
  • the sensor data fusion 5 is in this case of a
  • Inferenzmaschine 80 carried out using the fusion model 8. A detailed explanation of these relationships will be given in the context of FIG. 3 as well as in the context of the factor graphs described below.
  • an increase or decrease in the occupancy probability of cell ⁇ and l n loa p ( - m ⁇ e is a general a-priori occupancy probability (without knowledge of the vehicle condition or a measurement, ie only dependent on the environment ).
  • the exact interpretation of the fusion model 8 is how the term loa - ⁇ consists of the virtual
  • sors for example, opening angle of an ultrasonic lobe
  • the measured value matches the distance between cell and sensor
  • Sensor is (for example, opening angle of the ultrasonic lobe) and the measured value is smaller than the distance between the cell and sensor, or
  • the parameters l o cc , lfree and d ⁇ can also be found by an optimization algorithm that optimizes the quality of the environment representation 6 produced in the simulation. This is a continuous optimization in this case. m istsproblem, which is solved in Figure 2 by a fusion model - optimization 50.
  • Developer support can also be extended to selecting a suitable class of fusion model 8, with the choice of class as a discrete variable. This extends the problem to a mixed discrete-continuous optimization problem. Significant progress has recently been made in solving these problems.
  • a fusion model 8 which is configured by discrete and / or continuous parameters for a specific sensor data fusion task, consists in a factor graph, as described in the document "Factor graph", available on the Internet on July 11, 2013 at http : //en.wikipedia.org/wiki/Factor_graph.
  • random variables that characterize the current state of the environmental representation are considered as variable nodes of a graph.
  • Random variables that correspond to the real sensor data or the virtual sensor data 40 understood as a variable node.
  • the variable nodes are associated with factor nodes that describe the conditional probabilities between these random variables. These conditional probabilities may belong to different parametric classes of distributions, e.g. to exponential distributions.
  • Factor graphs as a fusion model 8, it is possible to determine the state of the environmental representation 6 from real sensor data or the virtual sensor data 40.
  • these algorithms provide an example of a generic one
  • the fusion model 8 consists of a factor graph whose structure can be described by discrete parameters (variable nodes and factor nodes by type and connection structure), while the parameters for defining the factor nodes - also part of the fusion model 8 - are usually continuous parameters, eg Mean and covariance in a normal distribution.
  • Factor graphs will be finding an expression of the fusion model 8, here by defining the factor graph, a task of mixed discrete-continuous optimization with the discrete and continuous parameters as variables.
  • This type of problem has long been the subject of active and highly successful research under the name MINLP (Mixed Integer and Non Linear Programming).
  • MINLP Mated Integer and Non Linear Programming
  • ant-algorithms were also given as solutions to the MINLP problem. The latter are among others from the document "ant algorithm", available on the Internet on 11.07.13 under
  • Nonlinear optimization principles are based on NLP-based "branch and bound” methods and many others that are also suitable.
  • An overview can be found in the document P. Bonami, M. Kilinc, and J. Linderoth: “Algorithms and Software for Convex Mixed Integer Nonlinear Programs", in Jon Lee and Sven Leyffer editors, Mixed Integer Nonlinear Pro- gramming, The IMA Volumes in Mathematics and Applications, Volume 154, 2012, pages 1-39.
  • FIG. 3 shows an exemplary embodiment of an arrangement 105 and a method for sensor fusion.
  • an interface 104 for example a connection to a vehicle bus system, a USB, WLAN, Ethernet or Bluetooth port, real sensor data 4 or virtual sensor data 40 are received.
  • a memory 106 for example a hard disk, a flash memory or a RAM module, an environment representation 6 is stored, which corresponds to a predetermined environment representation type.
  • an inference engine 80 for example a suitably programmed microprocessor, a computer program is executed, which is set up to make changes in the environmental representation 6, which include the real sensor data 4 or virtual sensor data 40, using a fusion model 8 that is modularly different from the inference engine 80 merge with the environmental representation 6.
  • the modular separation means that the fusion model 8 can be exchanged or changed without having to adapt the inference engine 80, which would go beyond the mere provision of the new fusion model 8.
  • the fusion model 8 may optionally be stored in memory 106 as shown in FIG. 3 or on a computer-readable medium located in inference engine 80 itself, such as an SD card, USB stick, RAM, or microchip .
  • the inference engine 80 can also be implemented as a software program or virtual machine, which in turn are then processed, for example, in a microprocessor represented in FIG. 3 by the arrangement 105.
  • the modular separation is thus a functional or logical separation.
  • a spatial separation may optionally be provided by the storage location of the fusion model 8 is separated from the inference engine.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Geometry (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Stored Programmes (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

A calculation rule which, by means of sensor data (4, 40), permits suitable modifications to be determined in an environment representation (6), i.e., in the internal evaluation of the environment perceived by a driver-assist application, is introduced as a fusion model (8). The fusion model (8) is thus, for example, a calculation rule which indicates how the sensor data (4, 40) are to be interpreted in relation to an environment representation type (for example, a grid chart or object list) and according to which the sensor data (4, 40) can be converted into the environment representation (6). The actual modifications in the environment representation (6), however, are made by a modularly separate inference engine (80) which interprets the fusion model (8) for that purpose. The modular separation of the sensor fusion into fusion model (8) and inference engine (80) reduces dependencies during the development of driver-assist systems and thus enables the work to be divided more flexibly. In addition, expenditure and effort during design and test cycles are reduced. As a result of modularization, design tasks can be divided between suppliers to a greater extent. Furthermore, the fusion model (8) can now be developed by machine leaning in that it can be formulated as a factor graph, for example, and parameterized by solving a mixed discrete-continuous optimization problem.

Description

Beschreibung description
Anordnung und Verfahren zur Sensorfusion sowie Herstellungsverfahren zur Erstellung eines Fusionsmodells Arrangement and method for sensor fusion and manufacturing method for creating a fusion model
Für die folgenden Ausführungen müssen die Begriffe "Modell" und "Repräsentation" unterschiedlich definiert werden. Als Modell werden im Folgenden Datenstrukturen bezeichnet, welche Aspekte einer realen Umgebung weitgehend exakt modellieren und daher als zuverlässige Eingabe und/oder Vorgabe für Algorithmen zur Sensorfusion sowie zu deren Training verwendet werden können. Derartige Modelle werden in der Regel von Experten mit großer Sorgfalt und hohem Zeitaufwand erstellt. Abweichend davon soll der Begriff „Repräsentation" diejenigen geschätzten Annahmen und Meinungen bezeichnen, welche sich eine Software, beispielsweise ein Algorithmus zur Sensorfusion, selbst über eine Umgebung bilden muss. Eine derartige Repräsentation ist folglich Arbeitsergebnis eines Computerpro- grammablaufs und muss gegenüber den zuvor genannten Modellen notwendigerweise sowohl in ihrem Detaillierungsgrad als auch in ihrer Zuverlässigkeit zurückbleiben. For the following explanations, the terms "model" and "representation" must be defined differently. In the following, data structures are referred to as models which largely largely accurately model aspects of a real environment and can therefore be used as reliable input and / or specification for algorithms for sensor fusion as well as for their training. Such models are usually created by experts with great care and a lot of time. Deviating from this, the term "representation" is intended to denote those estimated assumptions and opinions that software, such as a sensor fusion algorithm, itself must form over an environment, such a representation being the result of a computer program flow and must be compared to the models previously mentioned necessarily remain both in their level of detail and in their reliability.
Entsprechend bezeichnet im Folgenden ein Umgebungsmodell ein weitgehend exaktes Modell einer realen Umgebung, welches ein Experte beispielsweise durch exakte manuelle Vermessung einer Testumgebung und anschließende Konstruktion eines fein aufgelösten Polygonmodells erstellt hat. Demgegenüber bezeichnet im Folgenden eine Umgebungsrepräsentation eine interne Reprä- sentation einer Umgebung, welche beispielsweise durch einenAccordingly, in the following an environment model denotes a largely exact model of a real environment, which an expert has created, for example, by exact manual measurement of a test environment and subsequent construction of a finely resolved polygon model. In contrast, in the following, an environment representation denotes an internal representation of an environment, which is represented by a
Algorithmus zur Sensorfusion als Gitterkarte erzeugt wird und notwendigerweise sowohl in ihrem Detaillierungsgrad als auch in ihrer Zuverlässigkeit gegenüber dem Umgebungsmodell zurückbleiben muss. Die Begriffe Umgebungsrepräsentation und interne Umgebungsrepräsentation sind hierbei synonym zu verstehen. Die Begriffe Messwerte, Sensordaten und Sensorsignale werden ebenfalls synonym verwendet. Analog hierzu bezeichnet im Folgenden ein Fahrzeugmodell ein weitgehend exaktes Modell eines Fahrzeugs, beispielsweise in Form eines hochauflösenden 3D-Modells oder Bauplans. Demgegenüber bezeichnet im Folgenden eine Fahrzeugrepräsentation geschätzte Zustände des Fahrzeugs, beispielsweise ob ein Schleudern vorliegt oder nicht. Algorithm for sensor fusion as a grid map is generated and necessarily must remain both in their level of detail and in their reliability compared to the environment model. The terms environment representation and internal environment representation are to be understood as synonymous. The terms measured values, sensor data and sensor signals are also used synonymously. Analogously, in the following a vehicle model refers to a largely exact model of a vehicle, for example in the form of a high-resolution 3D model or blueprint. On the other hand, in the following, a vehicle representation denotes estimated states of the vehicle, for example, whether or not there is a skid.
Weiterhin bezeichnet im Folgenden ein Fahrermodell ein weitgehend exaktes Modell eines Fahrers, beispielsweise in Form eines animierten humanoiden 3D-Modells, welches realistische Kopf, Augen- und Lidbewegungen zeigt. Demgegenüber bezeichnet im Folgenden eine Fahrerrepräsentation geschätzte bzw. vermutete Zustände des Fahrers, beispielsweise ob er ermüdet ist oder nicht . Furthermore, in the following, a driver model designates a largely exact model of a driver, for example in the form of an animated humanoid 3D model, which shows realistic head, eye and eyelid movements. On the other hand, in the following, a driver's representation denotes estimated states of the driver, for example, whether he is tired or not.
Häufig wird es sich bei der Umgebung um eine Umgebung eines Fahrzeugs handeln. Als Sonderfall kann es sich bei der Umgebung jedoch auch um das Fahrzeug selbst bzw. um dessen Fahrer handeln. Sofern nicht genauer bezeichnet, soll der Begriff Umgebungsmodell daher im Folgenden auch die Sonderfälle Fahrzeugmodell und Fahrermodell beinhalten. Ebenso soll der Begriff Umgebungsrepräsentation, sofern nicht genauer bezeichnet, im Folgenden auch die Sonderfälle Fahrzeugrepräsentation und Fahrerrepräsentation beinhalten. Often the environment will be an environment of a vehicle. As a special case, however, the environment can also be the vehicle itself or its driver. Unless specified otherwise, the term environment model should therefore also include the special cases vehicle model and driver model below. Similarly, unless otherwise specified, the term environmental representation should also include the special cases of vehicle representation and driver representation below.
Die im Folgenden beschriebenen Algorithmen können jedoch auch ein Umgebungsmodell, ein Fahrzeugmodell und/oder ein Fahrermodell sowie eine Umgebungsrepräsentation, eine Fahrzeugrepräsentation und/oder eine Fahrerrepräsentation nebeneinander verwenden, wobei diese dann in getrennten Modulen vorliegen und in geeigneter Weise gemeinsam zusammenwirken. However, the algorithms described below can also use an environment model, a vehicle model and / or a driver model and an environment representation, a vehicle representation and / or a driver representation side by side, which then exist in separate modules and work together in a suitable manner.
Ein wesentlicher Schritt im Entwurf von Fahrerassistenzsystemen ist die Herleitung von internen Repräsentationen der Um- gebung, des Fahrzeugs und des Fahrers aus den Messwerten von einem oder mehreren Sensoren, im Folgenden als Fusionsalgorithmus bezeichnet. In einem Fahrzeug werden heutzutage mehrere Fahrerassistenzapplikationen integriert. Die Festlegung des Fusionsalgorithmus sowie die Im lementierung der eigentlichen Applikation auf Grund der verwendeten Umgebungsrepräsentation liegen herkömmlicherweise in der Hand des jeweiligen Entwicklers. An essential step in the design of driver assistance systems is the derivation of internal representations of the environment, the vehicle and the driver from the measured values of one or more sensors, referred to below as a fusion algorithm. In a vehicle today several driver assistance applications are integrated. The determination of the fusion algorithm as well as the implementation of the actual application due to the environment representation used are conventionally in the hands of the respective developer.
Der konkrete Fusionsalgorithmus bleibt dabei der Erfahrung und dem Fingerspitzengefühl des jeweiligen Entwicklers überlassen und wird in der Regel von Hand entwickelt. Ein entscheidendes Element dieser Entwicklung ist die Art und Weise, wie aus Sensordaten auf die Umgebungsrepräsentation geschlossen werden kann, also das inverse Sensormodell. Der manuelle Entwurf bzw. das manuelle Parametrieren dieses inversen Sensormodells erfordert allerdings wieder Expertise über sämtliche anderen verwendeten Systeme, Modelle und Repräsentatio- nen. Der jeweilige Entwickler muss daher die Eigenheiten der eingesetzten Sensoren und des Umgebungsrepräsentations-Typs genau kennen. Ferner benötigt er Expertenwissen über die Techniken des Schließens unter Unsicherheit. Wenn ein neuer Sensortyp in das System integriert werden soll, muss der gesamte Fusionsalgorithmus wieder aufgeschnürt werden. Dann muss der Fusionsalgorithmus wieder unter Berücksichtigung des neuen Sensortyps neu formuliert werden. Auch hierzu muss der Entwickler wieder die Eigenheiten dieses neu- en Sensortyps genau kennen. The concrete merger algorithm is left to the experience and the tact of the respective developer and is usually developed by hand. A crucial element of this development is the way in which sensor data can be used to deduce the environmental representation, ie the inverse sensor model. However, the manual design or manual parameterization of this inverse sensor model again requires expertise on all other systems, models and representations used. The respective developer must therefore know exactly the characteristics of the sensors used and the environmental representation type. He also needs expert knowledge about the techniques of insecure closure. If a new type of sensor is to be integrated into the system, the entire fusion algorithm must be reopened. Then the fusion algorithm has to be re-formulated taking into account the new sensor type. Here, too, the developer must again know exactly the peculiarities of this new type of sensor.
Nach gegenwärtigem Stand ist es im Entwurf von Fahrerassistenzsystemen somit üblich, den Fusionsalgorithmus von Hand zu entwerfen und anschließend experimentell bzw. in Simulation zu überprüfen, wie gut die resultierende Umgebungsrepräsentation den Ansprüchen der Fahrerassistenzapplikation genügt. According to the current state of the art, it is customary in the design of driver assistance systems to design the fusion algorithm by hand and then experimentally or in simulation to check how well the resulting environmental representation meets the requirements of the driver assistance application.
Es stellt sich die Aufgabe, eine Anordnung und ein Verfahren zur Sensorfusion sowie ein Herstellungsverfahren zur Erstel- lung eines Fusionsmodells anzugeben, welche eine Wiederverwendbarkeit der entsprechenden Anordnungen und Verfahren erhöhen und/oder Entwicklungsarbeiten im Bereich der Sensorfusion vereinfachen. Diese Aufgabe wird erfindungsgemäß durch eine Anordnung zur Sensorfusion gelöst, It is an object of the invention to provide an arrangement and a method for sensor fusion and a production method for producing a fusion model which increase the reusability of the corresponding arrangements and methods and / or simplify development work in the field of sensor fusion. This object is achieved by an arrangement for sensor fusion,
umfassend eine Schnittstelle zum Empfang realer Sensorda- ten oder virtueller Sensordaten,  comprising an interface for receiving real sensor data or virtual sensor data,
umfassend einen Speicher, auf welchem eine Umgebungsrepräsentation gespeichert ist, welche einem vorgegebenen Umge- bungsrepräsentations -Typ entspricht ,  comprising a memory, on which an environment representation is stored, which corresponds to a predetermined environment representation type,
gekennzeichnet durch marked by
- eine Inferenzmaschine , in welcher ein Computerprogramm abgearbeitet wird, welches eingerichtet ist, anhand eines modular von der Inferenzmaschine getrennten Fusionsmodells Änderungen in der Umgebungsrepräsentation vorzunehmen, welche die realen Sensordaten oder virtuellen Sensordaten mit der Umgebungsrepräsentation fusionieren. an inference engine in which a computer program is executed which is set up to make changes in the environmental representation which fuse the real sensor data or virtual sensor data with the environmental representation, using a fusion model that is modularly separated from the inference engine.
Auf dem computerlesbaren Datenträger ist ein Fusionsmodell gespeichert, welches für eine Verwendung durch die On the computer-readable medium, a fusion model is stored, which is for use by the
Inferenzmaschine der Anordnung eingerichtet ist. Inferenzmaschine the arrangement is established.
Weiterhin wird die Aufgabe erfindungsgemäß durch ein Verfahren zur Sensorfusion gelöst, Furthermore, the object is achieved according to the invention by a method for sensor fusion,
bei dem reale Sensordaten oder virtuelle Sensordaten empfangen werden,  where real sensor data or virtual sensor data is received,
- bei dem auf eine Umgebungsrepräsentation zugegriffen wird, welche einem vorgegebenen Umgebungsrepräsentations-Typ entspricht , in which an environment representation corresponding to a given environmental representation type is accessed,
dadurch gekennzeichnet, dass characterized in that
eine Inferenzmaschine rechnergestützt anhand eines modular von der Inferenzmaschine getrennten Fusionsmodells Änderungen in der Umgebungsrepräsentation vornimmt, welche die realen Sensordaten oder virtuellen Sensordaten mit der Umgebungsrepräsentation fusionieren . Außerdem wird die Aufgabe erfindungsgemäß durch ein Herstellungsverfahren zur Erstellung eines Fusionsmodells gelöst, bei dem rechnergestützt anhand eines Sensormodells virtuelle Messungen in einem Umgebungsmodell simuliert und an- hand der virtuellen Messungen virtuelle Sensordaten erzeugt werden, die ein Umgebungsmodell zumindest teilweise abbilden, an inference machine computer-based on the basis of a modularly separated from the inference engine fusion model makes changes in the environmental representation, which merge the real sensor data or virtual sensor data with the environmental representation. In addition, according to the invention, the object is achieved by a production method for creating a fusion model, in which computer-based simulations of virtual measurements in an environment model based on a sensor model are carried out, and virtual sensor data that at least partially maps an environment model,
bei dem ein Fusionsmodell mindestens eine Rechenregel, mindestens eine Datenstruktur, mindestens eine Funktion und/oder mindestens einen Algorithmus angibt, welche die virtuellen Sensordaten als Eingabe erhält und als Ausgabe entsprechende Änderungen in einer Umgebungsrepräsentation mit einem vorgegeben Umgebungsrepräsentations -Typ vor- schreibt,  in which a fusion model specifies at least one calculation rule, at least one data structure, at least one function and / or at least one algorithm which receives the virtual sensor data as input and prescribes as output corresponding changes in an environment representation with a predetermined environment representation type,
bei dem das Fusionsmodell durch rechnergestütztes maschinelles Lernen erstellt wird, wobei  in which the fusion model is created by computer-aided machine learning, wherein
eine Ziel -Umgebungsrepräsentation aus dem Umgebungsmodell und dem Umgebungsrepräsentations -Typ hergeleitet wird, welche ein Trainingsziel für das maschinelle Lernen vorgibt,  deriving a target environment representation from the environment model and the environment representation type that specifies a machine learning training goal,
das Fusionsmodell durch Lösung eines kontinuierlichen the fusion model by solving a continuous
Optimierungsproblems parametriert wird, Optimization problem is parametrized,
eine von dem Fusionsmodell modular getrennte  one modularly separate from the fusion model
Inferenzmaschine rechnergestützt anhand des Fusionsmodells (8) und der realen Sensordaten oder virtuellen Sensordaten Änderungen in der Umgebungsrepräsentation vornimmt, welche die realen Sensordaten oder virtuellen Sensordaten mit der Umgebungsrepräsentation fusionie- ren,  Computer-based inference machine based on the fusion model (8) and the real sensor data or virtual sensor data makes changes in the environment representation, which merge the real sensor data or virtual sensor data with the environmental representation,
die Umgebungsrepräsentation mit der Ziel- Umgebungsrepräsentation verglichen wird, woraus sich ein Fehler ergibt, welcher bei der Lösung des kontinuierlichen Optimierungsproblems minimiert wird.  the environment representation is compared with the target environment representation, resulting in an error minimized in solving the continuous optimization problem.
Auf dem computerlesbaren Datenträger ist ein Computerprogramm gespeichert, welches eines der Verfahren ausführt, wenn es in einem Mikroprozessor abgearbeitet wird. Das Computerprogramm wird in einem Mikroprozessor abgearbeitet und führt dabei eines der Verfahren aus. Die im Folgenden ausgeführten Vorteile und Erläuterungen müssen nicht notwendigerweise die Gegenstände der unabhängigen Patentansprüche betreffen. Vielmehr kann es sich hierbei auch um Vorteile oder Aspekte handeln, welche lediglich einzelne Ausführungsformen, Varianten oder Weiterbildungen betreffen. On the computer-readable medium, a computer program is stored, which executes one of the methods, when it is processed in a microprocessor. The computer program is executed in a microprocessor and executes one of the methods. The advantages and explanations given below do not necessarily relate to the subject matters of the independent patent claims. Rather, these may also be advantages or aspects which relate only to individual embodiments, variants or developments.
Als Fusionsmodell wird mindestens eine Rechenregel, mindestens eine Datenstruktur, mindestens eine Funktion und/oder mindestens ein Algorithmus verstanden, welche (r) es erlaubt, anhand Sensordaten geeignete Änderungen in einer Umgebungsrepräsentation zu ermitteln. Wie eingangs definiert ist die Umgebungsrepräsentation hierbei eine interne, durch eine Fahrerassistenzapplikation wahrgenommene Schätzung der Umgebung. Es handelt sich bei dem Fusionsmodell somit beispielsweise um eine Rechenregel, welche die Sensordaten in die Umgebungsrepräsentation übersetzt - mit anderen Worten eine Umrechnungsvorschrift, welche angibt, wie die Sensordaten in Bezug auf einen Umgebungsrepräsentations-Typ (beispielsweise Gitterkarte oder Objektliste) zu interpretieren sind, und nach der die Sensordaten in die Umgebungsrepräsentation umgerechnet werden können . At least one calculation rule, at least one data structure, at least one function and / or at least one algorithm is understood as a fusion model, which allows (s) to determine suitable changes in an environmental representation on the basis of sensor data. As defined above, the environment representation here is an internal estimate of the environment perceived by a driver assistance application. Thus, for example, the fusion model is an arithmetic rule that translates the sensor data into the environmental representation-in other words, a conversion rule that specifies how the sensor data is to be interpreted with respect to an environmental representation type (eg, grid map or object list), and according to which the sensor data can be converted into the environment representation.
Die tatsächlichen Änderungen in der Umgebungsrepräsentation werden nicht von dem Fusionsmodell, sondern von der The actual changes in the environmental representation are not from the fusion model, but from the
Inferenzmaschine vorgenommen, welche hierzu das Fusionsmodell interpretiert. Folglich besteht zumindest funktional eine mo- dulare Trennung zwischen der Inferenzmaschine und dem Fusionsmodell. Die modulare Trennung bedeutet hierbei, dass das Fusionsmodell austauschbar, trainierbar oder veränderbar ist, ohne dass hierbei eine Anpassung der Inferenzmaschine zu erfolgen hätte, welche über die bloße Bereitstellung des neuen Fusionsmodells hinausgehen würde. Folglich kann das Fusionsmodell außerhalb oder innerhalb der Inferenzmaschine angeordnet sein. Ferner kann die Inferenzmaschine als Mikroprozes - sor, Softwareprogramm oder virtuelle Maschine implementiert werden. Es handelt sich bei der modularen Trennung somit um eine funktionale bzw. logische Trennung. Ergänzend kann optional auch eine räumliche Trennung vorgesehen werden, indem der Speicherort des Fusionsmodells von der Inferenzmaschine separiert wird. Inferenzmaschine made which interprets the fusion model. Consequently, at least functionally there is a modular separation between the inference engine and the fusion model. The modular separation here means that the fusion model is interchangeable, trainable or changeable, without an adaptation of the inference engine would have to take place, which would go beyond the mere provision of the new fusion model. Thus, the fusion model may be located outside or inside the inference engine. Furthermore, the inference engine can be implemented as a microprocessor, software program or virtual machine. The modular separation is thus a functional or logical separation. In addition, optionally a spatial separation can be provided by the location of the fusion model is separated from the inference engine.
Die funktionale Trennung des Sensormodells ermöglicht es, ei- nem Entwickler von Fahrerassistenzfunktionen eine Entwurfs - bibliothek mit einer Vielzahl hochentwickelter Fusionsmodelle zur Verfügung zu stellen, ohne dass der Entwickler selbst eine vollständige Expertise über die jeweiligen Algorithmen besitzen muss. The functional separation of the sensor model makes it possible to provide a designer of driver assistance functions with a design library with a large number of highly sophisticated fusion models, without the developer having to have complete expertise on the respective algorithms.
Bei dem Herstellungsverfahren für das Fusionsmodell wird als Umgebungsrepräsentations-Typ beispielsweise einer der folgenden vorgegeben: 2D-Gitterkarte, 3D-Gitter- oder Würfelkarte, Polygonmodell, Objektlisten (Liste der Mittelpunkte von Ob- jekten oder von Rechteckhüllen mit Größenangabe) oder einfache Listen von Zuständen. For example, in the manufacturing method for the fusion model, one of the following is given as the environmental representation type: 2D lattice map, 3D lattice or cube map, polygon model, object lists (list of object center points or rectangle envelopes with size specification), or simple lists of states ,
Die modulare Aufteilung der Sensorfusion in Fusionsmodell und Inferenzmaschine verringert Abhängigkeiten bei der Entwick- lung von Fahrerassistenzsystemen und ermöglicht somit eine flexiblere Arbeitsteilung. Ferner wird ein Aufwand bei Entwurfs- und Testzyklen reduziert. Durch die Modularisierung können die Entwicklungsaufgaben stärker unter den Lieferanten aufgeteilt werden. The modular division of the sensor fusion into a fusion model and inference engine reduces dependencies on the development of driver assistance systems and thus enables a more flexible division of labor. Furthermore, an effort in design and test cycles is reduced. Modularization means that development tasks can be more widely shared among suppliers.
Ein weiterer Vorteil liegt in der Möglichkeit, Fahrerassistenzsysteme durch die geschaffene erhöhte Modularität schrittweise weiter zu entwickeln. Statt wie herkömmlich jede Applikation mit eigenen Sensoren auszustatten, können beste- hende Sensoren und Inferenzmaschinen zur Sensorfusion wiederverwendet werden, indem deren Fusionsmodelle geeignet modifiziert werden. Der Mehrpreis einer neuen Fahrerassistenzapplikation orientiert sich dann nur noch an den gegebenenfalls zusätzlich verbauten Sensoren und den Kosten für neue Soft- wäre. Another advantage is the ability to progressively develop driver assistance systems through the increased modularity created. Instead of equipping each application with its own sensors as usual, existing sensors and inference machines for sensor fusion can be reused by appropriately modifying their fusion models. The additional cost of a new driver assistance application is then based solely on the optionally additionally installed sensors and the costs for new soft- ware.
Die Inferenzmaschine sowie weitere benötigte Recheneinheiten, Simulatoren etc. können hardwaretechnisch und/oder auch soft- waretechnisch implementiert werden. Bei einer hardwaretechnischen Implementierung kann sie als Vorrichtung oder als Teil einer Vorrichtung, zum Beispiel als Computer oder als Mikroprozessor oder als Steuerrechner eines Fahrzeuges ausgebildet sein. Bei einer softwaretechnischen Implementierung kann die jeweilige Einheit als Computerprogrammprodukt, als eine Funktion, als eine Routine, als Teil eines Programmcodes oder als ausführbares Objekt ausgebildet sein. Bei dem computerlesbaren Datenträger handelt es sich beispielsweise um eine Speicherkarte, einen USB-Stick, eine CD- ROM, eine DVD oder auch um einen Datenträger eines Servers, von welchem eine Datei mit dem Computerprogramm in einem Netzwerk bereitgestellt oder geliefert wird. Dies kann zum Beispiel in einem drahtlosen Kommunikationsnetzwerk durch die Übertragung der entsprechenden Datei erfolgen. The inference engine as well as other required computation units, simulators, etc. may be hardware and / or soft- be implemented technically. In a hardware implementation, it can be designed as a device or as part of a device, for example as a computer or as a microprocessor or as a control computer of a vehicle. In a software implementation, the respective unit may be designed as a computer program product, as a function, as a routine, as part of a program code or as an executable object. The computer-readable data carrier is, for example, a memory card, a USB stick, a CD-ROM, a DVD or even a data carrier of a server, from which a file with the computer program in a network is provided or delivered. This can be done, for example, in a wireless communication network by transmitting the appropriate file.
Gemäß einer Ausführungsform ist die Inferenzmaschine ein graphenbasierter generischer probabilistischer In one embodiment, the inference engine is a graph based generic probabilistic
Inferenzapparat . Das Fusionsmodell beinhaltet einen Inference apparatus. The fusion model includes one
Faktorgraphen . Factor graphs.
Weiterhin existiert eine Weiterbildung, Furthermore, there is a further development
bei der sowohl die Umgebungsrepräsentation auch die virtu- eilen Sensordaten Zufallsvariable enthalten,  in which both the environment representation and the virtual sensor data contain random variables,
bei der der Faktorgraph des Fusionsmodells jede dieser Zufallsvariablen in einem Variablenknoten abbildet, und bei der der Faktorgraph Faktorknoten enthält, welche die Variablenknoten verbinden und bedingte Wahrscheinlichkei - ten zwischen den Variablenknoten beschreiben.  where the factor diagram of the fusion model maps each of these random variables into a variable node, and where the factor graph contains factor nodes connecting the variable nodes and describing conditional probabilities between the variable nodes.
Gemäß einer Ausführungsform ergibt sich ein Herstellungsverfahren, According to one embodiment, a production method results,
bei dem der Fehler anhand einer Fehlerfunktion ermittelt wird, welche Anforderungen einer Fahrerassistenzfunktion berücksichtigt .  in which the error is determined by means of an error function, which takes into account the requirements of a driver assistance function.
In einer Weiterbildung ergibt sich ein Herstellungsverfahren, bei dem das Umgebungsmodell eine Umgebung eines Fahrzeugs, ein Fahrzeug mit Zuständen und/oder einen Fahrer eines Fahrzeugs modelliert, und In a further development, a production method results, wherein the environment model models an environment of a vehicle, a vehicle with states and / or a driver of a vehicle, and
bei dem das Sensormodell eine 2D- oder 3D-Kamera, einen Ultraschallsensor, einen 2D- oder 3D-Laserscanner, ein 2D- oder 3D-Radar, ein Lidar, einen Raddrehungssensor, einen Inertialsensor, einen Beschleunigungssensor, einen Drehratensensor, einen Temperatursensor, einen Luftfeuchtesensor, einen Positionssensor zur Bestimmung zumindest eines Parameters der Fahrdynamik eines Fahrzeuges, einen Sitzbelegungssensor oder einen Entfernungssensor modelliert, und bei dem der vorgegebene Umgebungsrepräsentations-Typ eine 2D- oder 3D-Gitterkarte, eine Objektliste oder eine Liste von Zuständen ist.  wherein the sensor model is a 2D or 3D camera, an ultrasonic sensor, a 2D or 3D laser scanner, a 2D or 3D radar, a lidar, a wheel rotation sensor, an inertial sensor, an acceleration sensor, a rotation rate sensor, a temperature sensor, a Humidity sensor, a position sensor for determining at least one parameter of the driving dynamics of a vehicle, a seat occupancy sensor or a distance sensor modeled, and wherein the predetermined environment representation type is a 2D or 3D grid map, an object list or a list of states.
Gemäß einer Ausführungsform ergibt sich ein Herstellungsverfahren, According to one embodiment, a production method results,
bei dem das Fusionsmodell durch Lösung eines gemischt diskret-kontinuierlichen Optimierungsproblems aus einer Menge von Fusionsmodellen ausgewählt und parametriert wird.  where the fusion model is selected and parameterized by solving a mixed discrete-continuous optimization problem from a set of fusion models.
In einer Weiterbildung ergibt sich ein Herstellungsverfahren, bei dem die Inferenzmaschine ein probabilistischer In a further development, a production method results in which the inference engine is a probabilistic one
Inferenzapparat ist,  Inference apparatus is,
bei dem das Fusionsmodell einen Faktorgraphen beinhaltet, bei dem sowohl die Umgebungsrepräsentation als auch die realen Sensordaten oder die virtuellen Sensordaten Zufallsvariable enthalten,  wherein the fusion model includes a factor graph in which both the environmental representation and the real sensor data or the virtual sensor data contain random variables,
bei dem der Faktorgraph des Fusionsmodells jede dieser Zufallsvariablen in einem Variablenknoten abbildet, und bei dem der Faktorgraph Faktorknoten enthält, welche die Variablenknoten verbinden und bedingte Wahrscheinlichkeiten zwischen den Variablenknoten beschreiben,  wherein the factor graph of the fusion model maps each of these random variables into a variable node, and wherein the factor graph contains factor nodes connecting the variable nodes and describing conditional probabilities between the variable nodes,
bei dem die Faktorknoten und die Verbindungen jedes  where the factor nodes and the links each
Faktorknotens durch den diskreten Teil des Optimierungs - Problems bestimmt werden, wodurch das Fusionsmodell aus der Menge möglicher Faktorgraphen ausgewählt wird, und bei dem kontinuierliche Parameter der Faktorknoten durch den kontinuierlichen Teil des Optimierungsproblems bestimmt werden, wodurch das Fusionsmodell parametriert wird . Factor can be determined by the discrete part of the optimization problem, whereby the fusion model is selected from the set of possible factor graphs, and in the continuous parameter, the factor nodes are determined by the continuous part of the optimization problem, thereby parameterizing the fusion model.
Gemäß einer Ausführungsform ergibt sich ein Herstellungsverfahren, According to one embodiment, a production method results,
bei dem das gemischt diskret-kontinuierliche Optimierungs - problem gelöst wird mithilfe  using the mixed discrete-continuous optimization problem solved
- von genetischen Algorithmen,  - of genetic algorithms,
von Ameisen-Algorithmen, oder  from ant algorithms, or
einer nichtlinearen Optimierung, insbesondere mittels eines Branch-and-Bound-Algorithmus . In einer Weiterbildung ergibt sich ein Herstellungsverfahren, bei dem der Umgebungsrepräsentations-Typ ( 7 ) eine 2D- oder 3D-Gitterkarte ist,  a non-linear optimization, in particular by means of a branch-and-bound algorithm. In a further development, a production method results in which the environment representation type (7) is a 2D or 3D lattice map,
bei dem die Zufallsvariablen in der Umgebungsrepräsentation (6) jeweils für Zellen oder Würfel eingetragen und ak- tualisiert werden, und  in which the random variables in the environment representation (6) are entered and updated for cells or cubes, respectively, and
bei dem die Zufallsvariablen eine Unsicherheit einer Information ausdrücken, insbesondere eine Belegungswahrscheinlichkeit für die jeweilige Zelle oder den jeweiligen Würfel .  in which the random variables express an uncertainty of information, in particular an occupancy probability for the respective cell or the respective cube.
Im Folgenden werden Ausführungsbeispiele der Erfindung anhand von Figuren näher erläutert. In den Figuren sind gleiche oder funktionsgleiche Elemente mit denselben Bezugszeichen versehen, sofern nichts anderes angegeben ist. Es zeigen: In the following, embodiments of the invention will be explained in more detail with reference to figures. In the figures, identical or functionally identical elements are provided with the same reference numerals, unless stated otherwise. Show it:
Figur 1 eine Architektur eines Fahrerassistenzsystems, FIG. 1 shows an architecture of a driver assistance system,
Figur 2 ein maschinelles Lernverfahren für ein Fusionsmodell, FIG. 2 shows a machine learning method for a fusion model,
Figur 3 eine Anordnung bzw. ein Verfahren zur Sensorfusion. Figur 1 zeigt eine Architektur eines Fahrerassistenzsystems und insbesondere den Aufbau einer Umgebungsrepräsentation 6 aus realen Sensordaten 4. Ein Sensor 1 führt eine reale Messung 3 in einer realen Umgebung 2 durch und erzeugt hierbei die realen Sensordaten 4. Für die Übersetzung der realen Sensordaten 4 in die Umgebungsrepräsentation 6 ist im Grunde immer eine Sensordatenfusion 5 erforderlich. Denn ab der zweiten Messung muss bereits eine zeitliche Fusion vorgenommen werden. Mehrere Sensoren an unterschiedlichen Orten erfordern eine örtliche Fusion der realen Sensordaten 4. Weiterhin müssen auch unterschiedliche Sensortypen, etwa Ultraschall und Kamera, unter besonderer Berücksichtigung ihrer Eigenschaften durch die Sensordatenfusion 5 fusioniert werden. Ohne Einschränkung der Allgemeinheit kann das hier beschriebene Ausführungsbeispiel als Entwurfsprozess und Entwurfssystem für Fahrerassistenzsysteme verstanden werden. Die in Figur 1 gezeigte generische Architektur eines Fahrerassistenzsystems ist also nicht auf eine Formalisierung des Entwurfs- prozesses beschränkt, sondern eignet sich auch als Systemarchitektur zur Sensorfusion sowie zur Implementierung einer Fahrerassistenz -Anwendung 9, welche ein Fahrzeugverhalten 100 steuert . Bei dieser Architektur kommt der Sensordatenfusion 5 eine zentrale Rolle zu. Sie ist dafür verantwortlich, aus der Folge der realen Sensordaten 4 verschiedener Sensoren 1 die Umgebungsrepräsentation 6, d.h. wie eingangs definiert eine interne Repräsentation der Umgebung, des Fahrzeugzustandes und/oder des Zustandes des Fahrers herzuleiten. Die Einträge in der Umgebungsrepräsentation 6 stammen folglich aus Beobachtungen, d.h. den realen Sensordaten 4. FIG. 3 shows an arrangement or a method for sensor fusion. 1 shows an architecture of a driver assistance system and in particular the construction of an environmental representation 6 of real sensor data 4. A sensor 1 performs a real measurement 3 in a real environment 2 and generates the real sensor data 4. For the translation of the real sensor data 4 in the Environment representation 6 is basically always a sensor data fusion 5 required. Because from the second measurement, a temporal merger must already be made. Multiple sensors at different locations require a local fusion of the real sensor data 4. Furthermore, different sensor types, such as ultrasound and camera, must be fused by the sensor data fusion 5 with particular regard to their properties. Without limiting the generality, the embodiment described here can be understood as a design process and design system for driver assistance systems. The generic architecture of a driver assistance system shown in FIG. 1 is therefore not limited to a formalization of the design process, but is also suitable as a system architecture for sensor fusion and for implementing a driver assistance application 9, which controls a vehicle behavior 100. Sensor data fusion 5 plays a central role in this architecture. It is responsible for deriving the environmental representation 6 from the sequence of the real sensor data 4 of different sensors 1, ie, as defined above, an internal representation of the surroundings, of the vehicle condition and / or of the condition of the driver. The entries in the environment representation 6 are therefore from observations, ie the real sensor data 4.
Meist wird dabei ein Umgebungsrepräsentations -Typ 7 , d.h. der Typ der Umgebungsrepräsentation 6, vom Entwickler vorab festgelegt. Der Umgebungsrepräsentations -Typ 7 kann z.B. eine Belegungsgitterkarte sein oder eine Objektliste, er kann Parameter des Fahrzeugzustandes festlegen oder eine Menge mögli- eher Zustände für den Fahrer vorgeben ("müde", "wach", In most cases, an environment representation type 7, ie the type of environmental representation 6, is predefined by the developer. The environment representation type 7 can be, for example, an occupancy grid map or an object list, it can define parameters of the vehicle state or it can generate a large amount of information. rather pretend conditions for the driver ("tired", "awake",
"gleichmütig", "angespannt", ...) . "equanimous", "tense", ...).
Die zustandsabhängigen Einträge in der Umgebungsrepräsentati - on 6 werden modifiziert, je nachdem, was die Sensoren 1 messen. Z.B. kann die Belegungswahrscheinlichkeit in einer Zelle einer Belegungsgitterkarte erhöht werden, wenn der Sensor 1 einen Abstand zu einem Hindernis in entsprechendem Abstand misst. Die Einträge in der Umgebungsrepräsentation 6, wie z.B. eine Belegungswahrscheinlichkeit, drücken in der Regel eine Unsicherheit der Information aus. Daher entsprechen sie meist einem der bekannten Unsicherheitskalküle, insbesondere aus der Fuzzy-Theorie, dem Dempster-Shafer-Kalkül oder der Wahrscheinlichkeitsrechnung. Meistens wird Wahrscheinlich- keitsrechnung verwendet, und die Einträge sind Zufallsvariable. Aus Effizienzgründen wird oft eine parametrische Wahrscheinlichkeitsdichteverteilung zugrunde gelegt, es kann aber auch eine stichprobenbasierte Darstellung gewählt werden, wie es im Gebiet der autonomen Roboter üblich ist. The state-dependent entries in the environmental representation 6 are modified, depending on what the sensors 1 measure. For example, For example, the occupancy probability in a cell of an occupancy lattice map may be increased if the sensor 1 measures a distance to an obstacle at a corresponding distance. The entries in the environment representation 6, e.g. An occupancy probability usually expresses an uncertainty of the information. Therefore, they usually correspond to one of the known uncertainty calculus, in particular from the fuzzy theory, the Dempster-Shafer calculus or the probability calculus. Mostly, probability calculus is used and the entries are random variables. For reasons of efficiency, a parametric probability density distribution is often used as the basis, but it is also possible to choose a sample-based representation, as is customary in the field of autonomous robots.
Die Rechenregel, nach der die Einträge in der Umgebungsrepräsentation 6 aufgrund der realen Sensordaten 4 modifiziert werden, ist in Figur 1 als Fusionsmodell 8 eingetragen. Ein Beispiel für die Fahrerassistenz -Anwendung 9 ist eineThe calculation rule according to which the entries in the environmental representation 6 are modified on the basis of the real sensor data 4 is entered in FIG. 1 as a fusion model 8. An example of the driver assistance application 9 is a
Fahrerassistenzfunktion zum automatischen Einparken. Dieses Beispiel ist angelehnt an die Darstellungen in Thrun, Burgard und Fox: "Probabilistic Robotics", MIT Press 2005, Kap. 6. Die Fahrerassistenz -Anwendung 9 zum automatischen Einparken braucht als Umgebungsrepräsentation 6 eine Karte der Umgebung, in der eine Parklücke identifiziert werden kann und dann eine Bahn in diese Parklücke hinein geplant werden kann. Der Umgebungsrepräsentations -Typ 7 dieser Karte wird in der Regel eine Belegungsgitterkarte sein. Dazu wird die Ebene, in der sich das Fahrzeug befindet, meistens in quadratische, gleich große Zellen aufgeteilt, für die festgehalten wird, ob diese Zelle belegt ist oder nicht. Die Kantenlänge einer Zelle liegt meist zwischen 0.05 m undl.Om, kann aber auch kleiner oder größer sein. Eine solche Gitterkarte ist ein Beispiel für eine Umgebungsrepräsentation 6 der Umgebung. Driver assistance function for automatic parking. This example is based on the representations in Thrun, Burgard and Fox: "Probabilistic Robotics", MIT Press 2005, chap. 6. The driver assistance application 9 for automatic parking needs as environment representation 6 a map of the environment in which a parking space can be identified and then a path can be planned into this parking space. The environmental representation type 7 of this card will typically be an occupancy lattice card. For this purpose, the plane in which the vehicle is located is usually divided into square cells of the same size, for which it is recorded whether this cell is occupied or not. The edge length of a cell is usually between 0.05 m undl.Om, but can also be smaller or bigger. Such a grid map is an example of an environmental representation 6 of the environment.
Die Umgebungsrepräsentation 6 soll also grundsätzlich über einen gewissen Zeitraum hinweg statisch sein, d.h. in ihr sollen die Teile der realen Umgebung 2 modelliert sein, die sich über eine gewisse Zeit hinweg nicht ändern. Die Messung hängt eigentlich ab von der realen Umgebung 2. Bei der Herleitung der Umgebungsrepräsentation 6 , wird dies in der Lite- ratur häufig synonym genommen zu der Information in der Umgebungsrepräsentation 6 , also der Karte der Umgebung. Thus, the environmental representation 6 should basically be static over a period of time, i. in it the parts of the real environment 2 are to be modeled, which do not change over a certain time. The measurement actually depends on the real environment 2. In deriving the environment representation 6, this is often taken synonymously in the literature to the information in the environment representation 6, ie the map of the environment.
Figur 2 zeigt eine separate und explizite Modellierung der Sensoreigenschaften mit einem Sensormodell 10, der Umgebungs- eigenschaften mit einem Umgebungsmodell 20, des Umgebungsrep- räsentations-Typ 7 und der Umgebungsrepräsentation 6 selbst. Dabei wird im Entwurfsprozess die erforderliche Expertise über die Sensorhardware von der Expertise über Anwendungsbereiche entkoppelt. FIG. 2 shows a separate and explicit modeling of the sensor properties with a sensor model 10, the environmental properties with an environment model 20, the environment representation type 7 and the environment representation 6 itself. In the design process, the required expertise about the sensor hardware becomes the expertise decoupled across application areas.
Das Sensormodell 10, ein nicht gezeigtes Fahrzeugmodell und das Umgebungsmodell 20 ermöglichen hierbei die Simulation virtueller Messungen 30, woraus virtuelle Sensordaten 40 resultieren. Die zuvor angesprochene Entkopplung geschieht da- durch, dass im Sensormodell 10 zum Einen die Sensorhardware so ausführlich physikalisch modelliert wird, dass mittels einer geeigneten Simulation und aufgrund des entsprechend ausführlichen Umgebungsmodells 20 die virtuellen Messungen 30 für den Sensor simuliert werden können. Dabei wird nicht etwa ein deterministischer, also immer gleicher Messwert ermittelt, sondern die virtuellen Sensordaten 40 unterliegen den gleichen zufälligen Schwankungen wie die in Experimenten ermittelten realen Sensordaten (vgl. Figur 1) . Das Sensormodell 10 enthält folglich die physikalischen Eigenschaften des Sen- sors . Welche das sind, hängt natürlich von den jeweiligen Sensortypen ab. Das Umgebungsmodell 20 enthält diejenigen physikalischen Eigenschaften der Umgebung, die zur Simulation bzw. Herleitung der "ground truth" der internen Umgebungsrepräsentation benötigt werden: Für jedes Sensormodell 10, das verwendet werden soll, müssen im Umgebungsmodell 20 die entsprechenden physikalischen Eigenschaften der Umgebung enthalten sein. The sensor model 10, a not-shown vehicle model and the environment model 20 in this case allow the simulation of virtual measurements 30, resulting in virtual sensor data 40. The above-mentioned decoupling is achieved by physically modeling the sensor hardware in the sensor model 10 in such a way that the virtual measurements 30 for the sensor can be simulated by means of a suitable simulation and due to the correspondingly detailed environment model 20. In this case, not a deterministic, ie always the same measured value is determined, but the virtual sensor data 40 are subject to the same random fluctuations as the real sensor data determined in experiments (see FIG. The sensor model 10 thus contains the physical properties of the sensor. Which these are, of course, depends on the respective sensor types. The environment model 20 contains those physical properties of the environment needed to simulate or derive the ground truth of the internal environment representation: For each sensor model 10 to be used, the environment model 20 must include the corresponding physical properties of the environment.
Für eine Videokamera als Sensor umfassen diese Eigenschaften die Geometrie und die Texturen (optischen Reflexionseigen- schatten) der Objekte. Zahlreiche sehr weit entwickelte Beispiele für solche Umgebungsmodelle 20 finden sich in den Bereichen Computeranimation für Filme, Computerspiele, Architektursimulation, etc. Bei diesen Umgebungsmodellen 20 werden z.T. auch Eigenschaften des Übertragungsmediums mit simuliert (Nebel, Regen, Schnee, ...) sowie Eigenschaften der Beleuchtung . For a video camera as a sensor, these properties include the geometry and textures (optical reflection properties) of the objects. Numerous very well-developed examples of such environment models 20 can be found in the areas of computer animation for movies, computer games, architectural simulation, etc. In these environment models 20, there are currently. also simulated properties of the transmission medium (fog, rain, snow, ...) as well as properties of lighting.
Für die Simulation eines Ultraschallsensors reicht als Umgebungsmodell 20 eine Approximation der Geometrie zusammen mit den akustischen Reflexionseigenschaften. Je nach Simulationsprinzip werden die Objekte im Umgebungsmodell 20 so modelliert, dass Schnitte mit Strahlen berechnet werden können, oder dass die Reflektion von Wellen an den Oberflächen berechnet werden kann. Dazu werden dann auch die Normalen auf den Oberflächen benötigt. For the simulation of an ultrasonic sensor, an approximation of the geometry together with the acoustic reflection properties is sufficient as the environmental model 20. Depending on the simulation principle, the objects in the environment model 20 are modeled so that sections with rays can be calculated, or that the reflection of waves on the surfaces can be calculated. For this purpose the normals on the surfaces are needed.
Die Formate, in denen zum Einen das Sensormodell 10 und zum Anderen das Umgebungsmodell 20 aufgestellt sind, müssen zu den entsprechenden Simulatoren passen. Hierzu empfiehlt sich eine Standardisierung, die allerdings einen gewissen Freiraum lassen sollte. Aussichtsreichster Kandidat dafür ist auch hier eine probabilistische Formulierung, d.h. die entsprechenden Parameter werden als Zufallsvariable aufgefasst. In diesem Kontext beschreibt das Fahrzeugmodell, wo sich die Sensoren relativ zum Fahrzeug befinden. In erster Linie sind hier die geometrischen Verhältnisse relevant . Es können aber auch elektrische Verhältnisse relevant werden, wenn z.B. laut Sensormodell 10 Schwankungen in der Versorgungsspannung zu erhöhtem Rauschen bei den Messwerten führen können. In diesem Fall ist auch die Versorgungsspannung (ggf. als Zufallsvariable) Teil des Fahrzeugmodells. The formats in which, on the one hand, the sensor model 10 and, on the other hand, the environment model 20 are set up, must match the corresponding simulators. For this purpose, a standardization is recommended, but should leave a certain amount of space. Most promising candidate for this is also a probabilistic formulation, ie the corresponding parameters are considered as random variables. In this context, the vehicle model describes where the sensors are relative to the vehicle. First and foremost, the geometric relationships are relevant here. But it can also be electrical conditions relevant if, for example, loud Sensor model 10 fluctuations in the supply voltage can lead to increased noise in the measured values. In this case, the supply voltage (possibly as a random variable) is part of the vehicle model.
Die Sensorsimulation erstellt aus dem Sensormodell 10 und dem Umgebungsmodell 20 die gleichen virtuellen Sensordaten 40, wie sie auch die echten Sensoren in einer realen Einsatzumgebung erzeugen würden. Die Simulation kann als Eingangswerte Zufallsvariable verarbeiten, und auch die virtuellen Sensordaten 40 sind Zufallsvariable, und ihre Wahrscheinlichkeits - dichteverteilung wird mit simuliert. The sensor simulation creates the same virtual sensor data 40 from the sensor model 10 and the environment model 20 as would the real sensors in a real use environment. The simulation can process random variables as input values, and also the virtual sensor data 40 are random variables, and their probability density distribution is also simulated.
Die Simulation kann dabei auf sehr unterschiedlichen Genauig- keitsstufen erfolgen, wobei in der Regel ein umso höhererThe simulation can be carried out at very different accuracy levels, with the higher the rule
Speicherplatz- und Rechenzeitbedarf entsteht, je genauer die Simulation ist. Space requirements and computing time requirements arise, the more accurate the simulation is.
Eine sehr einfache Simulation beruht darauf, dass für eine diskrete, oft sehr kleine Zahl von vom Sensor ausgehenden Strahlen die Schnittpunkte dieser Strahlen mit Objekten in der Umgebung gebildet werden. Dazu müssen also im Umgebungs- modell 20 die Schnittpunkte von Strahlen mit Objekten gebildet werden können. Diese Simulation vernachlässigt die Ref- lektion von akustischen Wellen an Flächen und liefert somit mehr Messwerte als der physikalische Sensor. A very simple simulation is based on the fact that for a discrete, often very small number of rays emanating from the sensor, the intersections of these rays are formed with objects in the environment. For this purpose, the intersection points of rays with objects must be able to be formed in the environment model 20. This simulation neglects the reflec- tion of acoustic waves on surfaces and thus provides more measured values than the physical sensor.
In einer anderen Simulationsmethode werden zusätzlich zu den Schnittpunkten der Strahlen mit den Oberflächen auch die Normalenvektoren auf den Oberflächen an den Schnittpunkte berücksichtigt. Dadurch kann man beurteilen, ob eine Schallwelle zu einem Empfänger hin reflektiert wird (dies kann auch der Sender sein) und somit ein Echo gemessen wird, oder ob kein Echo gemessen wird. In another simulation method, in addition to the intersection of the rays with the surfaces, the normal vectors on the surfaces at the intersections are also taken into account. This makes it possible to judge whether a sound wave is reflected towards a receiver (this can also be the transmitter) and thus an echo is measured, or whether no echo is measured.
Eine weitere Simulationsmethode wird deutlich stärker vom Um- gebungsrepräsentations -Typ 7 der Umgebungsrepräsentation 6 geprägt. Konkret wird hier das Volumen der internen Umge- bungsrepräsentation in Gitterzellen zerlegt und der Verlauf der Druckverteilung über die Zeit simuliert. Dieses Verfahren (je nach Auflösung, d.h. Größe der Gitterzellen und Zeitintervalle) simuliert die Echos von sehr zerklüfteten Hinder- nissen, und simuliert auch Echos die über mehrere Reflektoren zu einem Empfänger gelangen, so genannte Multi-Path Echos. Another simulation method is markedly more strongly influenced by the environmental representation type 7 of the environmental representation 6. Specifically, here the volume of the internal environment decomposed into grid cells and the course of the pressure distribution over time simulated. This method (depending on the resolution, ie size of the grid cells and time intervals) simulates the echoes of very jagged obstacles, and also simulates echoes that reach a receiver via several reflectors, so-called multi-path echoes.
Beispielsweise sendet der Ultraschallsensor ein kegelförmiges Signal aus. Ein Echo kann durch ein Kreissegment (2D) bzw. einen Kugelschalenabschnitt (3D) innerhalb dieses Kegels beschrieben werden, dessen Radius der gemessenen Entfernung entspricht. Entsprechend wird eine Wahrscheinlichkeit eines Hindernisses in allen Zellen erhöht, die von dem Kreissegment geschnitten werden, und in allen Zellen erniedrigt, die auf dem Weg dorthin vom Strahl passiert wurden. For example, the ultrasonic sensor emits a cone-shaped signal. An echo can be described by a circle segment (2D) or a spherical shell section (3D) within this cone whose radius corresponds to the measured distance. Accordingly, a likelihood of an obstacle is increased in all cells cut by the circle segment and lowered in all cells passed on the way there from the beam.
Durch die Vereinbarung von Formaten können das Sensormodell 10, das Umgebungsmodell 20 und das Fahrzeugmodell von verschiedenen Lieferanten stammen und dennoch zusammenpassen. Ähnliche de facto Standards existieren bereits im Bereich CAD (z.B. das STEP Format) . Im Kontext der Ausführungsbeispiele werden Standards benötigt, in denen auch die Wahrscheinlichkeitsdichtefunktionen beschrieben werden können. Bei der expliziten Trennung der Modellierung kann das Sensormodell 10 vom Sensorhersteller stammen. Das Umgebungsmodell 20 kann von einer Firma stammen, die sich auf die 3D Modellierung spezialisiert hat. Der Simulator kann wiederum von einer Firma stammen, die sich auf Simulation spezialisiert hat. Das Fahrzeugmodell steuert in Zukunft der Systemintegrator bei. Verwendet werden die Modelle und der Simulator normalerweise vom Systemintegrator, also einem Automobilhersteller oder -designer. Durch die getrennte Modellierung (im Sensormodell 10) und physikalische Simulation (im Umgebungsmodell 20) lassen sich die verschiedenen Beiträge von physikalischer Sensorhardware und von Sensorsignalkonditionierung (Sensormodell 10) auf der Ebene der Systemintegration trennen von den Einflüssen aus der Einsatzumgebung (Umgebungsmodell 20) . Dabei braucht der Systemintegrator keine Expertise mehr über die Sensorhardware, da diese im Sensormodell 10 erfasst ist. Durch die Si- mulation des Gesamtsystems (Sensormodell 10 + Fahrzeugmodel 15 + Umgebungsmodell 20) wird so das für die gegebene Applikation relevante Vorwärtssensormodell entwickelt. By agreeing formats, the sensor model 10, the environment model 20, and the vehicle model may come from different suppliers and still fit together. Similar de facto standards already exist in the area of CAD (eg the STEP format). In the context of the embodiments, standards are needed in which the probability density functions can also be described. In the case of the explicit separation of the modeling, the sensor model 10 can come from the sensor manufacturer. The environment model 20 may be from a company that specializes in 3D modeling. The simulator can come from a company specializing in simulation. In the future, the vehicle model will be contributed by the system integrator. The models and the simulator are usually used by the system integrator, ie an automobile manufacturer or designer. Due to the separate modeling (in the sensor model 10) and physical simulation (in the environment model 20), the various contributions of physical sensor hardware and sensor signal conditioning (sensor model 10) on the Level of system integration separate from the influences from the deployment environment (environment model 20). In this case, the system integrator no longer needs expertise on the sensor hardware, since this is detected in the sensor model 10. By simulating the overall system (sensor model 10 + vehicle model 15 + environment model 20), the forward sensor model relevant for the given application is developed.
Davon unbenommen bleibt die Möglichkeit, das simulierte Vor- wärtssensormodell an echten Daten zu validieren bzw. Parameter in diesem Modell zu schätzen. The possibility of validating the simulated forward sensor model on real data or estimating parameters in this model remains unaffected.
Im Folgenden wird, nach wie vor im Kontext der Figur 2, ein Ausführungsbeispiel für die Ableitung einer Ziel- Umgebungsrepräsentation 60 zur Vorbereitung eines maschinellen Lernens des Fusionsmodells 8 erläutert. In the following, an exemplary embodiment for the derivation of a target environmental representation 60 for preparing a machine learning of the fusion model 8 will be explained, still in the context of FIG.
Um den Entwurf des Fusionsmodells 8 zu unterstützen, wird wie in Figur 2 gezeigt aus vielen Gründen eine Simulation aller wesentlichen Aspekte aller Module im System durchgeführt. In Figur 2 ist einerseits ein Ausschnitt aus dem Fahrerassistenzsystem gezeigt, bei dem die physikalischen Sensoren 1 und die reale Umgebung 2 aus Figur 1 durch entsprechende Modelle ersetzt sind, und in dem die realen Messungen 3 aus Figur 1 durch virtuelle Messungen 30 ersetzt sind. Der Ausschnitt reicht bis zur Umgebungsrepräsentation 6, die in diesem Fall also aus den virtuellen Sensordaten 40 hergeleitet wird. Zusätzlich ist in Figur 2 eine gewünschte wahrgenommene Umgebungsrepräsentation gezeigt, die Ziel-Umgebungsrepräsentation 60. Diese ist vom gleichen Umgebungsrepräsentations -Typ 7 wie die Umgebungsrepräsentation 6. In order to support the design of the fusion model 8, a simulation of all essential aspects of all the modules in the system is performed as shown in FIG. 2 for many reasons. FIG. 2 shows on the one hand a section of the driver assistance system in which the physical sensors 1 and the real environment 2 from FIG. 1 are replaced by corresponding models, and in which the real measurements 3 from FIG. 1 are replaced by virtual measurements 30. The section extends to the environmental representation 6, which in this case is derived from the virtual sensor data 40. In addition, in FIG. 2, a desired perceived environmental representation is shown, the target environmental representation 60. This is of the same environmental representation type 7 as the environmental representation 6.
Auf Grundlage der beabsichtigten Fahrerassistenzfunktion ist es möglich, im Rahmen einer direkten Herleitung 70 zu ent- scheiden, welche Informationen aus dem Umgebungsmodell 20 in der Umgebungsrepräsentation 6 geschätzt werden sollen. Für ein automatisches Einparken wird z.B. ein Abbild der Parklücke benötigt, also der in einem bestimmten Bereich vorhande- nen statischen Hindernisse. In diese Umgebungsrepräsentation 6 sollen bewegte Objekte nicht eingetragen werden, insbesondere, wenn sie die Parklücke wieder verlassen. Ziel ist also eine Belegungsgitterkarte, in der jede Zelle, die einem sta- tischen Objekt entspricht, mit hoher Wahrscheinlichkeit als belegt gekennzeichnet ist, und jede Zelle, die nicht einem statischen Objekt entspricht, mit hoher Wahrscheinlichkeit als frei gekennzeichnet ist. Diese Wahrscheinlichkeiten können nach den Erfordernissen der Applikation, z.B. des Einparkens, gewichtet sein. So kann verlangt werden, dass die richtige Schätzung der belegten Zellen vor der richtigen Schätzung der freien Zellen in unmittelbarer Umgebung der belegten Zellen Vorrang hat. Dies führt dazu, dass ein geplanter Weg in die Parklücke mit hoher Wahrscheinlichkeit auch fahrbar ist, während es vorkommen kann, dass ein an sich physikalisch möglicher Weg in die Parklücke wegen der ungenauen Umgebungsrepräsentation 6 nicht gefunden wird. On the basis of the intended driver assistance function, it is possible within a direct derivation 70 to decide which information from the environment model 20 is to be estimated in the environment representation 6. For example, an image of the parking space is needed for automatic parking, that is, the parking space present in a certain area. static obstacles. In this environment representation 6 moving objects should not be registered, especially when they leave the parking space again. So the goal is an occupancy grid map in which every cell that corresponds to a static object is marked with a high probability of being occupied, and every cell that does not correspond to a static object is marked with a high probability as free. These probabilities may be weighted according to the requirements of the application, eg parking. Thus, it may be required that the correct estimate of the occupied cells takes precedence over the proper estimation of the free cells in the immediate vicinity of the occupied cells. As a result, a planned path into the parking space is likely to be mobile, while it may happen that a physically physically possible path into the parking space is not found because of the inaccurate environment representation 6.
Ebenso werden Eigenheiten der Sensoren berücksichtigt. So können Sensoren von Fahrerassistenzsystemen in der Regel nicht das Innere von Gegenständen abbilden. Daher kann der Belegungszustand von Zellen der Belegungsgitterkarte, die zu inneren Punkten der statischen Objekte im Umgebungsmodell 20 gehören, als "unbekannt" spezifiziert werden (unabhängig davon, wie dieser Zustand im Zusammenhang mit einem spezifischen probabilistischen Modell von "belegt" oder "frei" im Einzelfall kodiert ist) . Likewise, peculiarities of the sensors are taken into account. As a result, sensors of driver assistance systems generally can not image the interior of objects. Therefore, the occupancy state of occupancy grid map cells associated with interior points of static objects in environment model 20 may be specified as "unknown" (regardless of how this state is associated with a specific probabilistic model of "busy" or "free" in FIG Individual case is coded).
Sämtliche dieser Aspekte werden berücksichtigt, um die Ziel- Umgebungsrepräsentation 60 im Rahmen der direkten Herleitung 70 entsprechend auszugestalten. Im Folgenden wird, nach wie vor im Kontext der Figur 2, einAll of these aspects are taken into account in order to design the target environment representation 60 as part of the direct derivation 70. In the following, still in the context of Figure 2, a
Ausführungsbeispiel für das maschinelle Lernen des Fusionsmodells 8 erläutert. Das Fusionsmodell 8 wird nun danach beurteilt, wie genau die mittels dieses Fusionsmodells 8 aus den virtuellen Sensordaten 40 erstellte Umgebungsrepräsentation 6 mit der Ziel- Umgebungsrepräsentation 60 übereinstimmt. Dabei kann wie oben angedeutet diese Fehlerfunktion auch auf die Anforderungen der Fahrerassistenzfunktion abgestimmt sein. So kann es z. B. als sehr großer Fehler bewertet werden, wenn eine Zelle in der Umgebungsrepräsentation 6 eine höhere Bewertung für "frei" enthält als in der Ziel -Umgebungsrepräsentation 60, während umgekehrt eine höhere Bewertung für "belegt" in derEmbodiment for the machine learning of the fusion model 8 explained. The fusion model 8 is now judged according to how exactly the environmental representation 6 created from the virtual sensor data 40 by means of this fusion model 8 agrees with the target environmental representation 60. In this case, as indicated above, this error function can also be matched to the requirements of the driver assistance function. So it may be z. For example, if a cell in the environment representation 6 contains a higher rating for "free" than in the target environment representation 60, and vice versa, a higher rating for "occupied" in the
Umgebungsrepräsentation 6 mit einem geringeren Fehlerwert bewertet wird. Environmental representation 6 is rated with a lower error value.
Ohne Einschränkung der Allgemeinheit wird im Folgenden anhand eines Beispiels aus Thrun, Burgard und Fox: "Probabilistic Robotics", MIT Press 2005, S. 294 ff, ein vergleichsweise einfacher Ansatz illustriert und für ein maschinelles Lernens des Fusionsmodells 8 adaptiert. Ziel ist es, die Umgebungsrepräsentation 6 aus dem (hier zur Vereinfachung als bekannt angenommenen) Fahrzeugzustand und den virtuellen Sensordaten 40 zu schätzen, genauer gesagt aus einer Folge von Fahrzeugzuständen x1:t und einer Folge von Sensordaten z1:t . Gesucht ist also die Belegungswahrschein- lichkeit p(m|z1:t, x1:t) . In der Praxis wird hier wegen Begrenzungen bei Speicherplatz und Rechenzeit bevorzugt inkrementell gerechnet, also p(mt\mt_1,zt,xt) . Diese Wahrscheinlichkeit zu ermitteln ist die Rolle der in Figur 2 gezeigten Sensordatenfusion 5. Without restricting generality, a comparatively simple approach is illustrated below and adapted for machine learning of the fusion model 8 using an example from Thrun, Burgard and Fox: "Probabilistic Robotics", MIT Press 2005, p. 294 ff. The aim is to estimate the environmental representation 6 from the vehicle state (assumed to be known here for simplicity) and the virtual sensor data 40, more precisely from a sequence of vehicle states x 1: t and a sequence of sensor data z 1: t . We are looking for the occupancy probability p (m | z 1: t , x 1: t ). In practice, because of limitations in memory space and computing time, this is preferably incrementally calculated, that is, p (m t \ m t _ 1 , z t , x t ). This probability is to be determined by the role of the sensor data fusion 5 shown in FIG.
Die Sensordatenfusion 5 wird hierbei von einer The sensor data fusion 5 is in this case of a
Inferenzmaschine 80 unter Rückgriff auf das Fusionsmodell 8 durchgeführt. Eine eingehende Erläuterung dieser Zusammenhänge erfolgt im Kontext der Figur 3 sowie im Kontext der weiter unten beschriebenen Faktorgraphen. Inferenzmaschine 80 carried out using the fusion model 8. A detailed explanation of these relationships will be given in the context of FIG. 3 as well as in the context of the factor graphs described below.
Wie in Thrun, Burgard und Fox: "Probabilistic Robotics", MIT Press 2005, S. 294 ff beschrieben, wird jeder Gitterzelle der Belegungsgitterkarte eine binäre (d.h. zweiwertige) Zufallsvariable zugewiesen, mit den beiden Werten free und occ , für "frei" und "belegt". Für jede Zelle muss gelten p(free) + p(occ) = 1 , daher muss nur eine Zahl gespeichert werden, z.B. p(occ) . Wenn p(occ) = 1 ist, dann ist die entsprechende Zelle sicher belegt, und wenn p(occ) = 0 ist, dann ist diese Zelle sicher frei. Im folgenden Beispiel gilt 0 < p(occ) < 1 , was in der Praxis völlig ausreicht. Es wird weiterhin angenommen, dass diese Belegungswahrscheinlichkeit für eine Zelle unabhängig ist von der Belegungswahrscheinlichkeit anderer Zellen (was nicht mit der Wirklichkeit übereinstimmt) . Damit kann dann jede Zelle für sich genommen aktualisiert werden. As described in Thrun, Burgard and Fox: "Probabilistic Robotics", MIT Press 2005, p. 294 et seq Assignment grid map assigned a binary (ie bivalent) random variable, with the two values free and occ, for "free" and "occupied". Each cell must have p (free) + p (occ) = 1, so only one number needs to be stored, eg p (occ). If p (occ) = 1, then the corresponding cell is safely occupied, and if p (occ) = 0, then that cell is certainly free. In the following example, 0 <p (occ) <1, which is quite sufficient in practice. It is further assumed that this occupancy probability for a cell is independent of the occupancy probability of other cells (which does not agree with reality). This will allow each cell to be updated on its own.
Selbst die Aktualisierung einer einzelnen Zelle kann noch auf sehr unterschiedliche Art erfolgen. Thrun, Burgard und Fox: "Probabilistic Robotics", MIT Press 2005, S. 94 gibt mit einem binären Bayes-Filter mit statischem Zustand ein einfaches Beispiel, welches hierzu verwendet werden kann. Aufgrund von Vorteilen bei der numerischen Berechnung (insbesondere bei Näherung an die Intervallgrenzen 0 und 1), wird in der Zelle nicht p(occ) eingetragen, sondern der Quotient l(occ): = Even updating a single cell can still be done in very different ways. Thrun, Burgard and Fox: "Probabilistic Robotics", MIT Press 2005, p. 94 provides a simple example using a Bayesian static state filter that can be used for this purpose. Due to advantages in the numerical calculation (in particular when approximating to the interval limits 0 and 1), not p (occ) is entered in the cell, but the quotient l (occ): =
loa —-, die „log odds ratio" bzw. das logarithmische Quo- l-p(occ) loa -, the "log odds ratio" or the logarithmic quo-p (occ)
tenverhältnis . Da dies für jede Zelle ein anderer Wert sein wird, wird als Zufallsvariable die Belegungswahrscheinlichkeit ni; der Zelle i gewählt. ten ratio. Since this will be a different value for each cell, the probability of occupancy ni as a random variable; cell i selected.
Damit wird der neue Wert einer Zelle berechnet als lti = lt-1:i + log , genannt das inverse Sensor-
Figure imgf000022_0001
This computes the new value of a cell as l ti = l t - 1: i + log, called the inverse sensor
Figure imgf000022_0001
modell, eine Vergrößerung oder Verringerung der Belegungs- wahrscheinlichkeit der Zelle ί beschreibt und ln = loa p(-m^ ei- ne generelle a-priori -Belegungswahrscheinlichkeit ist (ohne Kenntnis des Fahrzeugzustands oder einer Messung, also nur abhängig von der Umgebung) . In diesem Beispiel besteht die genaue Auslegung des Fusions- modells 8 darin, wie der Term loa — aus den virtuellen model, an increase or decrease in the occupancy probability of cell ί and l n = loa p ( - m ^ e is a general a-priori occupancy probability (without knowledge of the vehicle condition or a measurement, ie only dependent on the environment ). In this example, the exact interpretation of the fusion model 8 is how the term loa - consists of the virtual
^ l-p(mi\zt,xt) ^ lp (mi \ z t , x t )
Sensordaten 40 zu interpretieren ist. In einem einfachen Fall werden dafür verschiedene Konstanten gewählt, wobei diese Wahl eher einem empirischen Ansatz entspricht als einer formal strengen Herleitung. Damit ist das Fusionsmodell 8 gegeben durch  Sensor data 40 is to be interpreted. In a simple case, different constants are chosen, and this choice corresponds more to an empirical approach than to a formally strict derivation. Thus, the fusion model 8 is given by
• log iocc f wenn die Zelle im Sichtbereich des Sen-
Figure imgf000023_0001
• log i occ f if the cell is within the field of view of the sensor
Figure imgf000023_0001
sors liegt (z.B. Öffnungswinkel einer Ultraschallkeule) und der Messwert zu dem Abstand zwischen Zelle und Sensor passt,  sors (for example, opening angle of an ultrasonic lobe) and the measured value matches the distance between cell and sensor,
• reei wenn die Zelle im Sichtbereich des• if the cell is in the field of vision of the cell
Figure imgf000023_0002
Figure imgf000023_0002
Sensors liegt (z.B. Öffnungswinkel der Ultraschallkeule) und der Messwert kleiner als der Abstand zwischen Zelle und Sensor ist, oder  Sensor is (for example, opening angle of the ultrasonic lobe) and the measured value is smaller than the distance between the cell and sensor, or
• lo swahrscheinlich-
Figure imgf000023_0003
• lo probably-
Figure imgf000023_0003
keit ändert sich nicht.  It does not change.
Zur Bestimmung der numerischen Werte von lo cc und lfree sind also genaue Kenntnisse des Sensors erforderlich. Zur Bestimmung von l0 sind sowohl Kenntnisse der Umgebung als auch des Ver- wendungszwecks der Karte erforderlich. In order to determine the numerical values of l o cc and lf ree , precise knowledge of the sensor is required. In order to determine I 0 , knowledge of the environment as well as of the intended use of the card is required.
Diese Kenntnisse sind aber in der vorgeschlagenen Entwicklungsumgebung bereits in die Sensormodelle 10, die Umgebungsmodelle 20 und die Simulationsalgorithmen eingeflossen, eben- so wie in die direkte Herleitung 70 der Ziel- Umgebungsrepräsentation 60. However, in the proposed development environment, this knowledge has already been incorporated in the sensor models 10, the environment models 20 and the simulation algorithms, as well as in the direct derivation 70 of the target environment representation 60.
Daher können die Parameter lo cc , lfree und Ό auch durch einen Optimierungsalgorithmus gefunden werden, der die Qualität der in der Simulation entstandenen Umgebungsrepräsentation 6 optimiert. Dies ist in diesem Fall ein kontinuierliches Opti- mierungsproblem, welches in Figur 2 durch eine Fusionsmodell - Optimierung 50 gelöst wird. Therefore, the parameters l o cc , lfree and d Ό can also be found by an optimization algorithm that optimizes the quality of the environment representation 6 produced in the simulation. This is a continuous optimization in this case. mierungsproblem, which is solved in Figure 2 by a fusion model - optimization 50.
Die Unterstützung der Entwickler lässt sich auch auf die Aus- wähl einer geeigneten Klasse des Fusionsmodells 8 erweitern, wobei die Wahl der Klasse als diskrete Variable aufgefasst werden kann. Damit erweitert sich das Problem zum gemischt diskret -kontinuierlichen Optimierungsproblem. Bei der Lösung dieser Probleme sind in letzter Zeit erhebliche Fortschritte erzielt worden. Developer support can also be extended to selecting a suitable class of fusion model 8, with the choice of class as a discrete variable. This extends the problem to a mixed discrete-continuous optimization problem. Significant progress has recently been made in solving these problems.
Eine mögliche Ausführung eines Fusionsmodells 8, welches durch diskrete und/oder kontinuierliche Parameter für eine spezifische Sensordatenfusionsaufgäbe konfiguriert wird, be- steht in einem Faktorgraph, wie er in dem Dokument "Factor graph" beschrieben ist, erhältlich im Internet am 11.07.13 unter http://en.wikipedia.org/wiki/Factor_graph. In diesem Formalismus werden Zufallsvariable, die den momentanen Zustand der Umgebungsrepräsentation charakterisieren, aufge- fasst als Variablenknoten eines Graphen. Ebenso werden dieOne possible implementation of a fusion model 8, which is configured by discrete and / or continuous parameters for a specific sensor data fusion task, consists in a factor graph, as described in the document "Factor graph", available on the Internet on July 11, 2013 at http : //en.wikipedia.org/wiki/Factor_graph. In this formalism, random variables that characterize the current state of the environmental representation are considered as variable nodes of a graph. Likewise, the
Zufallsvariablen, die den realen Sensordaten oder den virtuellen Sensordaten 40 entsprechen, als Variablenknoten aufgefasst. Die Variablenknoten sind verbunden mit Faktorknoten, die die bedingten Wahrscheinlichkeiten zwischen diesen Zu- fallsvariablen beschreiben. Diese bedingten Wahrscheinlichkeiten können zu verschiedenen parametrischen Klassen von Verteilungen gehören, z.B. zu Exponentialverteilungen . Random variables that correspond to the real sensor data or the virtual sensor data 40, understood as a variable node. The variable nodes are associated with factor nodes that describe the conditional probabilities between these random variables. These conditional probabilities may belong to different parametric classes of distributions, e.g. to exponential distributions.
Für viele praktische Einsatzfälle existieren effiziente Algo- rithmen zur Implementierung der Inferenzmaschine 80, welche die Wahrscheinlichkeiten der Variablenknoten im Faktorgraphen ermitteln. Eine entsprechende Implementierung dieser Algorithmen findet sich beispielsweise in dem Softwarepaket GTSAM des Georgia Institute of Technology, dokumentiert in dem Do- kument "The Borg Lab", erhältlich im Internet am 11.07.13 unter https://collab.cc.gatech.edu/borg/. Eine weitere Implementierung ist G20 der Universität Freiburg bzw. des OpenSLAM Konsortiums, dokumentiert in dem Dokument "g2o: A General Framework for Graph Optimization" , erhältlich im Internet am 11.07.13 unter http://openslam.org/g2o.html. For many practical applications there are efficient algorithms for implementing the inference engine 80, which determine the probabilities of the variable nodes in the factor graph. A corresponding implementation of these algorithms can be found for example in the GTSAM software package of the Georgia Institute of Technology, documented in the document "The Borg Lab", available on the Internet on 11.07.13 at https://collab.cc.gatech.edu/ borg /. Another implementation is G20 of the University of Freiburg or of the OpenSLAM consortium, documented in the document "g2o: A General Framework for Graph Optimization ", available on the Internet on 11.07.13 at http://openslam.org/g2o.html.
Mit der Inferenzmaschine 80 in Verbindung mit dem With the inference engine 80 in conjunction with the
Faktorgraphen als Fusionsmodell 8 ist es möglich, den Zustand der Umgebungsrepräsentation 6 aus realen Sensordaten oder den virtuellen Sensordaten 40 zu ermitteln. Insofern stellen diese Algorithmen ein Beispiel für einen generischen Factor graphs as a fusion model 8, it is possible to determine the state of the environmental representation 6 from real sensor data or the virtual sensor data 40. In this respect, these algorithms provide an example of a generic one
Inferenzapparat dar. Das Fusionsmodell 8 besteht aus einem Faktorgraphen, dessen Struktur durch diskrete Parameter beschreibbar ist (Variablenknoten und Faktorknoten nach Typ und Verbindungsstruktur) , während die Parameter zur näheren Festlegung der Faktorknoten - ebenfalls Teil des Fusionsmodells 8 - in der Regel kontinuierliche Parameter sind, z.B. Mittelwert und Kovarianz in einer Normalverteilung. The fusion model 8 consists of a factor graph whose structure can be described by discrete parameters (variable nodes and factor nodes by type and connection structure), while the parameters for defining the factor nodes - also part of the fusion model 8 - are usually continuous parameters, eg Mean and covariance in a normal distribution.
Durch diese Charakterisierung des entsprechenden Through this characterization of the corresponding
Faktorgraphen wird das Auffinden einer Ausprägung des Fusionsmodells 8, hier durch Definition des Faktorgraphen, eine Aufgabe der gemischt diskret-kontinuierlichen Optimierung mit den diskreten und kontinuierlichen Parametern als Variablen. Diese Art von Problemen ist unter der Bezeichnung MINLP (Mixed Integer and Non Linear Programming) seit längerem Gegenstand einer aktiven und sehr erfolgreichen Forschung. Als Lösungen für die MINLP Problem wurden neben den seit längerem bekannten Genetischen Algorithmen (als ein Beispiel für sto- chastische Optimierung) auch Ameisen-Algorithmen angegeben. Letztere sind unter anderem aus dem Dokument "Ameisenalgorithmus", erhältlich im Internet am 11.07.13 unter Factor graphs will be finding an expression of the fusion model 8, here by defining the factor graph, a task of mixed discrete-continuous optimization with the discrete and continuous parameters as variables. This type of problem has long been the subject of active and highly successful research under the name MINLP (Mixed Integer and Non Linear Programming). In addition to the well-known genetic algorithms (as an example of stochastic optimization), ant-algorithms were also given as solutions to the MINLP problem. The latter are among others from the document "ant algorithm", available on the Internet on 11.07.13 under
http://de.wikipedia.org/wiki/Ameisenalgorithmus, bekannt. http://en.wikipedia.org/wiki/Ameisenalgorithmus, known.
Auf Prinzipien der nichtlinearen Optimierung bauen NLP basierte "Branch and Bound" -Verfahren und viele weitere, welche sich ebenfalls eignen. Ein Überblick findet sich in dem Doku- ment P. Bonami, M. Kilinc, und J. Linderoth: "Algorithms and Software for Convex Mixed Integer Nonlinear Programs", in Jon Lee and Sven Leyffer, editors, Mixed Integer Nonlinear Pro- gramming, The IMA Volumes in Mathematics and its Applications, Volume 154, 2012, Seiten 1-39. Nonlinear optimization principles are based on NLP-based "branch and bound" methods and many others that are also suitable. An overview can be found in the document P. Bonami, M. Kilinc, and J. Linderoth: "Algorithms and Software for Convex Mixed Integer Nonlinear Programs", in Jon Lee and Sven Leyffer editors, Mixed Integer Nonlinear Pro- gramming, The IMA Volumes in Mathematics and Applications, Volume 154, 2012, pages 1-39.
Ein Überblick über weitere hier anwendbare Verfahren des Ma- schinellen Lernens wie z.B. Bayessche Netze findet sich in D. Koller und N. Friedman: " Probabilistic Graphical Models: An overview of other methods of machine learning applicable here, such as Bayesian networks can be found in D. Koller and N. Friedman: "Probabilistic Graphical Models:
Principles and Techniques", MIT Press, 2009, Seiten 134-141. Principles and Techniques ", MIT Press, 2009, pages 134-141.
Figur 3 zeigt ein Ausführungsbeispiel für eine Anordnung 105 und ein Verfahren zur Sensorfusion. Über eine Schnittstelle 104, beispielsweise eine Anbindung zu einem Fahrzeug- Bussystem, ein USB-, WLAN- , Ethernet- oder Bluetooth- Port , werden reale Sensordaten 4 oder virtuelle Sensordaten 40 empfangen. In einem Speicher 106, beispielsweise eine Festplat- te, ein Flash-Speicher oder ein RAM-Baustein, ist eine Umgebungsrepräsentation 6 gespeichert ist, welche einem vorgegebenen Umgebungsrepräsentations-Typ entspricht. FIG. 3 shows an exemplary embodiment of an arrangement 105 and a method for sensor fusion. Via an interface 104, for example a connection to a vehicle bus system, a USB, WLAN, Ethernet or Bluetooth port, real sensor data 4 or virtual sensor data 40 are received. In a memory 106, for example a hard disk, a flash memory or a RAM module, an environment representation 6 is stored, which corresponds to a predetermined environment representation type.
In einer Inferenzmaschine 80, beispielsweise ein in geeigne- ter Weise programmierter Mikroprozessor, wird ein Computerprogramm abgearbeitet, welches eingerichtet ist, anhand eines modular von der Inferenzmaschine 80 getrennten Fusionsmodells 8 Änderungen in der Umgebungsrepräsentation 6 vorzunehmen, welche die realen Sensordaten 4 oder virtuellen Sensordaten 40 mit der Umgebungsrepräsentation 6 fusionieren. In an inference engine 80, for example a suitably programmed microprocessor, a computer program is executed, which is set up to make changes in the environmental representation 6, which include the real sensor data 4 or virtual sensor data 40, using a fusion model 8 that is modularly different from the inference engine 80 merge with the environmental representation 6.
Die modulare Trennung bedeutet hierbei, dass das Fusionsmodell 8 austauschbar oder veränderbar ist, ohne dass hierbei eine Anpassung der Inferenzmaschine 80 zu erfolgen hätte, welche über die bloße Bereitstellung des neuen Fusionsmodells 8 hinausgehen würde. Folglich kann das Fusionsmodell 8 wahlweise wie in Figur 3 gezeigt im Speicher 106 oder auf einem computerlesbaren Datenträger, welcher in der Inferenzmaschine 80 selbst angeordnet ist, gespeichert sein, beispielsweise auf einer SD-Karte, einem USB-Stick, einem RAM-Baustein oder Mikrochip . Ferner kann die Inferenzmaschine 80 auch als Softwareprogramm oder virtuelle Maschine implementiert werden, welche ihrerseits dann beispielsweise in einem in Figur 3 durch die Anordnung 105 repräsentierten Mikroprozessor abgearbeitet wer- den . In this case, the modular separation means that the fusion model 8 can be exchanged or changed without having to adapt the inference engine 80, which would go beyond the mere provision of the new fusion model 8. Thus, the fusion model 8 may optionally be stored in memory 106 as shown in FIG. 3 or on a computer-readable medium located in inference engine 80 itself, such as an SD card, USB stick, RAM, or microchip , Furthermore, the inference engine 80 can also be implemented as a software program or virtual machine, which in turn are then processed, for example, in a microprocessor represented in FIG. 3 by the arrangement 105.
Es handelt sich bei der modularen Trennung somit um eine funktionale bzw. logische Trennung. Ergänzend kann optional auch eine räumliche Trennung vorgesehen werden, indem der Speicherort des Fusionsmodells 8 von der Inferenzmaschine separiert wird. The modular separation is thus a functional or logical separation. In addition, a spatial separation may optionally be provided by the storage location of the fusion model 8 is separated from the inference engine.
Die beschriebenen Ausführungsbeispiele, Ausführungsformen, Varianten und Weiterbildungen lassen sich frei miteinander kombinieren. Insbesondere können beliebige Teilaspekte der Ausführungsbeispiele im Kontext von Figur 1 und 2 in das im Kontext der Figur 3 beschriebene Ausführungsbeispiel aufgenommen werden. The described embodiments, embodiments, variants and developments can be combined freely with each other. In particular, arbitrary sub-aspects of the exemplary embodiments can be included in the context of FIG. 1 and FIG. 2 in the exemplary embodiment described in the context of FIG.

Claims

Patentansprüche claims
1. Anordnung zur Sensorfusion, 1. arrangement for sensor fusion,
umfassend eine Schnittstelle (104) zum Empfang realer Sen- sordaten (4) oder virtueller Sensordaten (40),  comprising an interface (104) for receiving real sensor data (4) or virtual sensor data (40),
umfassend einen Speicher (106), auf welchem eine Umgebungsrepräsentation (6) gespeichert ist, welche einem vorgegebenen Umgebungsrepräsentations-Typ ( 7 ) entspricht, gekennzeichnet durch  comprising a memory (106) on which is stored an environmental representation (6) corresponding to a given environmental representation type (7), characterized by
- eine Inferenzmaschine (80), in welcher ein Computerprogramm abgearbeitet wird, welches eingerichtet ist, anhand eines modular von der Inferenzmaschine (80) getrennten Fusionsmodells (8) Änderungen in der Umgebungsrepräsentation (6) vorzunehmen, welche die realen Sensordaten (4) oder virtuellen Sensordaten (40) mit der Umgebungsrepräsentation (6) fusionieren. an inference engine (80) in which a computer program is executed, which is set up to make changes in the environmental representation (6) using a fusion model (8) that is modularly separated from the inference engine (80), which the real sensor data (4) or virtual Sensor data (40) with the environment representation (6) merge.
2. Anordnung nach Anspruch 1 , 2. Arrangement according to claim 1,
bei der das Fusionsmodell (8) mindestens eine Rechenregel, mindestens eine Datenstruktur, mindestens eine Funktion und/oder mindestens einen Algorithmus angibt, welche die realen Sensordaten (4) oder die virtuellen Sensordaten (40) als Eingabe erhält und als Ausgabe entsprechende Änderungen in der Umgebungsrepräsentation (6) vorschreibt.  in which the fusion model (8) specifies at least one calculation rule, at least one data structure, at least one function and / or at least one algorithm which receives the real sensor data (4) or the virtual sensor data (40) as input and corresponding changes in the output Environment representation (6) dictates.
3. Anordnung nach Anspruch 2 , 3. Arrangement according to claim 2,
bei der die Inferenzmaschine (80) ein graphenbasierter ge- nerischer probabilistischer Inferenzapparat ist, und bei der das Fusionsmodell (8) einen Faktorgraphen beinhal- tet.  wherein the inference engine (80) is a graph-based generic probabilistic inference apparatus, and wherein the fusion model (8) includes a factor graph.
4. Anordnung nach Anspruch 3 , 4. Arrangement according to claim 3,
bei der sowohl die Umgebungsrepräsentation (6) als auch die virtuellen Sensordaten (40) Zufallsvariable enthalten, - bei der der Faktorgraph des Fusionsmodells (8) jede dieser Zufallsvariablen in einem Variablenknoten abbildet, und bei der der Faktorgraph Faktorknoten enthält, welche die Variablenknoten verbinden und bedingte Wahrscheinlichkeiten zwischen den Variablenknoten beschreiben. in which both the environment representation (6) and the virtual sensor data (40) contain random variables, - in which the factor graph of the fusion model (8) maps each of these random variables in a variable node, and where the factor graph contains factor nodes connecting the variable nodes and describing conditional probabilities between the variable nodes.
5. Computerlesbarer Datenträger, 5. Computer-readable data medium,
auf dem ein Fusionsmodell (8) gespeichert ist, welches für eine Verwendung durch die Inferenzmaschine (80) der Anordnung nach einem der Ansprüche 1 bis 4 eingerichtet ist.  on which is stored a fusion model (8) adapted for use by the inference engine (80) of the arrangement according to any one of claims 1 to 4.
6. Computerlesbarer Datenträger nach Anspruch 5, 6. Computer-readable data carrier according to claim 5,
bei dem das Fusionsmodell (8) einen Faktorgraphen beinhaltet ,  where the fusion model (8) contains a factor graph,
bei dem sowohl die Umgebungsrepräsentation (6) als auch die virtuellen Sensordaten (40) Zufallsvariable enthalten, bei dem der Faktorgraph jede dieser Zufallsvariablen in einem Variablenknoten abbildet, und  wherein both the environment representation (6) and the virtual sensor data (40) contain random variables in which the factor graph maps each of these random variables into a variable node, and
bei der der Faktorgraph Faktorknoten enthält, welche die Variablenknoten verbinden und bedingte Wahrscheinlichkeiten zwischen den Variablenknoten beschreiben.  where the factor graph contains factor nodes connecting the variable nodes and describing conditional probabilities between the variable nodes.
7 . Verfahren zur Sensorfusion, 7. Method of sensor fusion,
bei dem reale Sensordaten (4) oder virtuelle Sensordaten (40) empfangen werden,  in which real sensor data (4) or virtual sensor data (40) are received,
bei dem auf eine Umgebungsrepräsentation (6) zugegriffen wird, welche einem vorgegebenen Umgebungsrepräsentations - Typ ( 7 ) entspricht,  in which an environment representation (6) is used that corresponds to a given environment representation type (7),
dadurch gekennzeichnet, dass characterized in that
eine Inferenzmaschine (80) rechnergestützt anhand eines modular von der Inferenzmaschine (80) getrennten Fusionsmodells (8) Änderungen in der Umgebungsrepräsentation (6) vornimmt, welche die realen Sensordaten (4) oder virtuellen Sensordaten (40) mit der Umgebungsrepräsentation (6) fusionieren .  an inference engine (80) computer-based on a modular basis of the inference engine (80) fusion model (8) makes changes in the environment representation (6), the real sensor data (4) or virtual sensor data (40) with the environmental representation (6) merge.
8. Verfahren nach Anspruch 7 , 8. The method according to claim 7,
bei dem das Fusionsmodell (8) mindestens eine Rechenregel, mindestens eine Datenstruktur, mindestens eine Funktion und/oder mindestens einen Algorithmus angibt, welche die realen Sensordaten (4) oder die virtuellen Sensordaten (40) als Eingabe erhält und als Ausgabe entsprechende Änderungen in der Umgebungsrepräsentation (6) vorschreibt. in which the fusion model (8) specifies at least one calculation rule, at least one data structure, at least one function and / or at least one algorithm, which the real sensor data (4) or the virtual sensor data (40) receives as input and as output prescribes appropriate changes in the environment representation (6).
. Verfahren nach Anspruch 8, , Method according to claim 8,
bei der die Inferenzmaschine (80) ein graphenbasierter ge- nerischer probabilistischer Inferenzapparat ist, und bei der das Fusionsmodell (8) einen Faktorgraphen beinhaltet .  wherein the inference engine (80) is a graph-based generic probabilistic inference apparatus, and wherein the fusion model (8) includes a factor graph.
0. Verfahren nach Anspruch 9, 0. Method according to claim 9,
bei dem sowohl die Umgebungsrepräsentation (6) als auch die realen Sensordaten (4) oder virtuellen Sensordaten (40) Zufallsvariable enthalten,  wherein both the environmental representation (6) and the real sensor data (4) or virtual sensor data (40) contain random variables,
bei dem der Faktorgraph des Fusionsmodells (8) jede dieser Zufallsvariablen in einem Variablenknoten abbildet, und bei dem der Faktorgraph Faktorknoten enthält, welche die Variablenknoten verbinden und bedingte Wahrscheinlichkeiten zwischen den Variablenknoten beschreiben.  wherein the factor graph of the fusion model (8) maps each of these random variables into a variable node, and wherein the factor graph contains factor nodes connecting the variable nodes and describing conditional probabilities between the variable nodes.
1. Herstellungsverfahren zur Erstellung eines Fusionsmodells (8) , 1. Manufacturing method for creating a fusion model (8),
bei dem rechnergestützt anhand eines Sensormodells (10) virtuelle Messungen (30) in einem Umgebungsmodell (20) simuliert und anhand der virtuellen Messungen (30) virtuelle Sensordaten (40) erzeugt werden, die ein Umgebungsmodell (20) zumindest teilweise abbilden,  in which virtual measurements (30) in an environment model (20) are simulated on the basis of a sensor model (10) and virtual sensor data (40) are generated based on the virtual measurements (30), which at least partially map an environment model (20),
bei dem ein Fusionsmodell (8) mindestens eine Rechenregel, mindestens eine Datenstruktur, mindestens eine Funktion und/oder mindestens einen Algorithmus angibt, welche die virtuellen Sensordaten (40) als Eingabe erhält und als Ausgabe entsprechende Änderungen in einer Umgebungsreprä- sentation (6) mit einem vorgegeben Umgebungsrepräsentati- ons-Typ ( 7 ) vorschreibt,  in which a fusion model (8) specifies at least one calculation rule, at least one data structure, at least one function and / or at least one algorithm which receives the virtual sensor data (40) as input and changes corresponding to output in an environment representation (6) prescribes a given environment representation type (7),
bei dem das Fusionsmodell (8) durch rechnergestütztes maschinelles Lernen erstellt wird, wobei  in which the fusion model (8) is created by computer-aided machine learning, wherein
eine Ziel -Umgebungsrepräsentation (60) aus dem Umgebungsmodell (20) und dem Umgebungsrepräsentations -Typ ( 7 ) hergeleitet wird, welche ein Trainingsziel für das maschinelle Lernen vorgibt, a target environment representation (60) from the environment model (20) and the environmental representation type (7) which specifies a training target for machine learning,
das Fusionsmodell (8) durch Lösung eines kontinuierlichen Optimierungsproblems parametriert wird,  the fusion model (8) is parameterized by solving a continuous optimization problem,
- eine von dem Fusionsmodell (8) modular getrennte  - one of the fusion model (8) modularly separate
Inferenzmaschine (80) rechnergestützt anhand des Fusionsmodells (8) und der realen Sensordaten (4) oder virtuellen Sensordaten (40) Änderungen in der Umgebungsrepräsentation (6) vornimmt, welche die realen Sensorda- ten (4) oder virtuellen Sensordaten (40) mit der Umgebungsrepräsentation (6) fusionieren,  Inferenzmaschine (80) computer-based on the basis of the fusion model (8) and the real sensor data (4) or virtual sensor data (40) makes changes in the environment representation (6), the real sensor data (4) or virtual sensor data (40) with the Environment representation (6) merge,
die Umgebungsrepräsentation (6) mit der Ziel- Umgebungsrepräsentation (60) verglichen wird, woraus sich ein Fehler ergibt, welcher bei der Lösung des kon- tinuierlichen Optimierungsproblems minimiert wird.  the environment representation (6) is compared with the target environmental representation (60), resulting in an error which is minimized in the solution of the continuous optimization problem.
12. Herstellungsverfahren nach Anspruch 11, 12. Production method according to claim 11,
bei dem das Fusionsmodell (8) mindestens eine Rechenregel, mindestens eine Datenstruktur, mindestens eine Funktion und/oder mindestens einen Algorithmus angibt, welche die realen Sensordaten (4) oder die virtuellen Sensordaten (40) als Eingabe erhält und als Ausgabe entsprechende Änderungen in der Umgebungsrepräsentation (6) vorschreibt. 13. Herstellungsverfahren nach Anspruch 11 oder 12,  in which the fusion model (8) specifies at least one calculation rule, at least one data structure, at least one function and / or at least one algorithm which receives the real sensor data (4) or the virtual sensor data (40) as input and corresponding changes in the output Environment representation (6) dictates. 13. A manufacturing method according to claim 11 or 12,
bei dem der Fehler anhand einer Fehlerfunktion ermittelt wird, welche Anforderungen einer Fahrerassistenzfunktion berücksichtigt . 14. Herstellungsverfahren nach einem der Ansprüche 11 bis 13, bei dem das Umgebungsmodell (20) eine Umgebung eines Fahrzeugs, ein Fahrzeug mit Zuständen und/oder einen Fahrer eines Fahrzeugs modelliert, und  in which the error is determined by means of an error function, which takes into account the requirements of a driver assistance function. 14. A manufacturing method according to any one of claims 11 to 13, wherein the environment model (20) models an environment of a vehicle, a vehicle with conditions and / or a driver of a vehicle, and
bei dem das Sensormodell (10) eine 2D- oder 3D-Kamera, ei- nen Ultraschallsensor, einen 2D- oder 3D-Laserscanner, ein in which the sensor model (10) a 2D or 3D camera, an ultrasonic sensor, a 2D or 3D laser scanner, a
2D- oder 3D-Radar, ein Lidar, einen Raddrehungssensor, einen Inertialsensor, einen Beschleunigungssensor, einen Drehratensensor, einen Temperatursensor, einen Luftfeuch- tesensor, einen Positionssensor zur Bestimmung zumindest eines Parameters der Fahrdynamik eines Fahrzeuges, einen Sitzbelegungssensor oder einen Entfernungssensor modelliert, und 2D or 3D radar, a lidar, a wheel rotation sensor, an inertial sensor, an acceleration sensor, a rotation rate sensor, a temperature sensor, an air humidifier tesensor, a position sensor for determining at least one parameter of the driving dynamics of a vehicle, a seat occupancy sensor or a distance sensor modeled, and
bei dem der vorgegebene Umgebungsrepräsentations-Typ (7) eine 2D- oder 3D-Gitterkarte , eine Objektliste oder eine Liste von Zuständen ist.  wherein the predetermined environment representation type (7) is a 2D or 3D grid map, an object list, or a list of states.
5. Herstellungsverfahren nach einem der Ansprüche 11 bis 14, bei dem das Fusionsmodell (8) durch Lösung eines gemischt diskret -kontinuierlichen Optimierungsproblems aus einer Menge von Fusionsmodellen (8) ausgewählt und parametriert wird . 5. A manufacturing method according to any one of claims 11 to 14, wherein the fusion model (8) is selected and parameterized by solving a mixed discrete-continuous optimization problem from a set of fusion models (8).
6. Herstellungsverfahren nach Anspruch 15, 6. Production method according to claim 15,
bei dem die Inferenzmaschine (80) ein probabilistischer Inferenzapparat ist,  wherein the inference engine (80) is a probabilistic inference apparatus,
bei dem das Fusionsmodell (8) einen Faktorgraphen beinhaltet ,  where the fusion model (8) contains a factor graph,
bei dem sowohl die Umgebungsrepräsentation (6) als auch die realen Sensordaten (4) oder die virtuellen Sensordaten (40) Zufallsvariable enthalten,  in which both the environmental representation (6) and the real sensor data (4) or the virtual sensor data (40) contain random variables,
bei dem der Faktorgraph des Fusionsmodells (8) jede dieser Zufallsvariablen in einem Variablenknoten abbildet, und bei dem der Faktorgraph Faktorknoten enthält, welche die Variablenknoten verbinden und bedingte Wahrscheinlichkeiten zwischen den Variablenknoten beschreiben,  wherein the factor graph of the fusion model (8) maps each of these random variables into a variable node, and wherein the factor graph contains factor nodes connecting the variable nodes and describing conditional probabilities between the variable nodes,
bei dem die Faktorknoten und die Verbindungen jedes  where the factor nodes and the links each
Faktorknotens durch den diskreten Teil des Optimierungs - Problems bestimmt werden, wodurch das Fusionsmodell aus der Menge möglicher Faktorgraphen ausgewählt wird, und bei dem kontinuierliche Parameter der Faktorknoten durch den kontinuierlichen Teil des Optimierungsproblems bestimmt werden, wodurch das Fusionsmodell (8) parametriert wird .  Factor are determined by the discrete part of the optimization problem, whereby the fusion model is selected from the set of possible factor graphs and in which continuous parameter the factor node is determined by the continuous part of the optimization problem, thereby parameterizing the fusion model (8).
17. Herstellungsverfahren nach Anspruch 16, bei dem das gemischt diskret-kontinuierlichen Optimierungsproblem gelöst wird mithilfe 17. Manufacturing method according to claim 16, where the mixed discrete-continuous optimization problem is solved by using
von genetischen Algorithmen,  of genetic algorithms,
von Ameisen-Algorithmen, oder  from ant algorithms, or
- einer nichtlinearen Optimierung, insbesondere mittels eines Branch-and-Bound-Algorithmus .  a non-linear optimization, in particular by means of a branch-and-bound algorithm.
18. Herstellungsverfahren nach Anspruch 16 oder 17, 18. A manufacturing method according to claim 16 or 17,
bei dem der Umgebungsrepräsentations-Typ (7) eine 2D- oder 3D-Gitterkarte ist,  wherein the environment representation type (7) is a 2D or 3D grid map,
bei dem die Zufallsvariablen in der Umgebungsrepräsentation (6) jeweils für Zellen oder Würfel eingetragen und aktualisiert werden, und  in which the random variables in the environment representation (6) are respectively entered and updated for cells or cubes, and
bei dem die Zufallsvariablen eine Unsicherheit einer In- formation ausdrücken, insbesondere eine Belegungswahrscheinlichkeit für die jeweilige Zelle oder den jeweiligen Würfel .  in which the random variables express an uncertainty of an information, in particular an occupancy probability for the respective cell or the respective cube.
19. Computerlesbarer Datenträger, 19. computer-readable data carrier,
- auf dem ein Computerprogramm gespeichert ist, welches das Verfahren nach einem der Ansprüche 7 bis 10 oder das Herstellungsverfahren nach einem der Ansprüche 11 bis 18 ausführt, wenn es in einem Mikroprozessor abgearbeitet wird. 20. Computerprogramm, - On which a computer program is stored, which carries out the method according to one of claims 7 to 10 or the manufacturing method according to one of claims 11 to 18, when it is processed in a microprocessor. 20. computer program,
welches in einem Mikroprozessor abgearbeitet wird und dabei das Verfahren nach einem der Ansprüche 7 bis 10 oder das Herstellungsverfahren nach einem der Ansprüche 11 bis 18 ausführt.  which is processed in a microprocessor and thereby carries out the method according to one of claims 7 to 10 or the manufacturing method according to one of claims 11 to 18.
PCT/EP2014/057867 2013-05-16 2014-04-17 Arrangement and method for sensor fusion and production method for developing a fusion model WO2014183953A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
DE102013209148.6 2013-05-16
DE102013209148 2013-05-16
DE102013213807.5 2013-07-15
DE201310213807 DE102013213807A1 (en) 2013-05-16 2013-07-15 Arrangement and method for sensor fusion and manufacturing method for creating a fusion model

Publications (1)

Publication Number Publication Date
WO2014183953A1 true WO2014183953A1 (en) 2014-11-20

Family

ID=51831426

Family Applications (5)

Application Number Title Priority Date Filing Date
PCT/EP2014/057619 WO2014183949A1 (en) 2013-05-16 2014-04-15 Device and method for a driver assistance system of a vehicle
PCT/EP2014/057611 WO2014183948A2 (en) 2013-05-16 2014-04-15 Sensor product, simulator and method for simulating sensor measurements, for merging sensor measurements, for validating a sensor model and for designing a driver assistance system
PCT/EP2014/057585 WO2014183944A1 (en) 2013-05-16 2014-04-15 Design system and method of designing a driver-assist system
PCT/EP2014/057600 WO2014183945A1 (en) 2013-05-16 2014-04-15 Design system and method of designing a driver-assist system
PCT/EP2014/057867 WO2014183953A1 (en) 2013-05-16 2014-04-17 Arrangement and method for sensor fusion and production method for developing a fusion model

Family Applications Before (4)

Application Number Title Priority Date Filing Date
PCT/EP2014/057619 WO2014183949A1 (en) 2013-05-16 2014-04-15 Device and method for a driver assistance system of a vehicle
PCT/EP2014/057611 WO2014183948A2 (en) 2013-05-16 2014-04-15 Sensor product, simulator and method for simulating sensor measurements, for merging sensor measurements, for validating a sensor model and for designing a driver assistance system
PCT/EP2014/057585 WO2014183944A1 (en) 2013-05-16 2014-04-15 Design system and method of designing a driver-assist system
PCT/EP2014/057600 WO2014183945A1 (en) 2013-05-16 2014-04-15 Design system and method of designing a driver-assist system

Country Status (2)

Country Link
DE (5) DE102013212710A1 (en)
WO (5) WO2014183949A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109634426A (en) * 2018-12-20 2019-04-16 南京钟山虚拟现实技术研究院有限公司 High-freedom degree experiment class three-dimensional emulation mode and system based on Unity3D
CN112930290A (en) * 2018-11-02 2021-06-08 雷诺股份公司 Method for formulating control instructions for a motor vehicle

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014209340A1 (en) * 2014-05-16 2015-11-19 Siemens Aktiengesellschaft Arrangement and method for sensor fusion
DE102015010270B4 (en) 2015-08-08 2021-10-28 Audi Ag Method for operating driver assistance systems in a motor vehicle and motor vehicle
US10229363B2 (en) 2015-10-19 2019-03-12 Ford Global Technologies, Llc Probabilistic inference using weighted-integrals-and-sums-by-hashing for object tracking
DE102016202317A1 (en) * 2016-02-16 2017-08-17 Continental Teves Ag & Co. Ohg METHOD FOR CONTROLLING VEHICLE FUNCTIONS THROUGH A DRIVER ASSISTANCE SYSTEM, DRIVER ASSISTANCE SYSTEM AND VEHICLE
DE102016205392A1 (en) * 2016-03-31 2017-10-05 Siemens Aktiengesellschaft Method and system for validating an obstacle detection system
CN107310550B (en) * 2016-04-27 2019-09-17 腾讯科技(深圳)有限公司 Road vehicles travel control method and device
EP3260999B1 (en) * 2016-06-24 2021-08-04 Sick Ag System for simulating sensors
JP2019530609A (en) * 2016-09-29 2019-10-24 ザ・チャールズ・スターク・ドレイパー・ラボラトリー・インコーポレイテッド Modular architecture autonomous vehicle
US10377375B2 (en) 2016-09-29 2019-08-13 The Charles Stark Draper Laboratory, Inc. Autonomous vehicle: modular architecture
US10599150B2 (en) 2016-09-29 2020-03-24 The Charles Stark Kraper Laboratory, Inc. Autonomous vehicle: object-level fusion
US10101745B1 (en) 2017-04-26 2018-10-16 The Charles Stark Draper Laboratory, Inc. Enhancing autonomous vehicle perception with off-vehicle collected data
DE102017208692B4 (en) 2017-05-23 2023-02-02 Audi Ag Method for providing training data for a functional test of a recognition device and database system
DE102017116016A1 (en) * 2017-07-17 2019-01-17 Valeo Schalter Und Sensoren Gmbh A motor vehicle sensor device having a plurality of sensor units and a neural network for generating an integrated representation of an environment
DE102017116017A1 (en) * 2017-07-17 2019-01-17 Valeo Schalter Und Sensoren Gmbh An automotive sensor device having a plurality of sensor units and a plurality of neural networks for generating a combined representation of an environment
DE102018205804A1 (en) * 2018-04-17 2019-10-17 Conti Temic Microelectronic Gmbh ECU testing device for testing, securing and developing functions
DE102018206326B4 (en) * 2018-04-24 2020-01-09 Zf Friedrichshafen Ag Method for expanding a database of a Bayesian network
DE102018123735A1 (en) * 2018-09-26 2020-03-26 HELLA GmbH & Co. KGaA Method and device for improving object detection of a radar device
DE102018123779A1 (en) * 2018-09-26 2020-03-26 HELLA GmbH & Co. KGaA Method and device for improving object detection of a radar device
US11249184B2 (en) 2019-05-07 2022-02-15 The Charles Stark Draper Laboratory, Inc. Autonomous collision avoidance through physical layer tracking
DE102019210448A1 (en) * 2019-07-16 2021-01-21 Audi Ag Method for determining an installation position of an environment-monitoring environment sensor of a motor vehicle, computing device, computer program and electronically readable data carrier
DE102019124504A1 (en) * 2019-09-12 2021-04-01 Bayerische Motoren Werke Aktiengesellschaft Method and device for simulating and evaluating a sensor system for a vehicle as well as method and device for designing a sensor system for environment detection for a vehicle
DE102020130748A1 (en) 2020-11-20 2022-05-25 Bayerische Motoren Werke Aktiengesellschaft Method, system and a computer program for generating a virtual environment of a vehicle
DE102020215657A1 (en) 2020-12-10 2022-06-15 Robert Bosch Gesellschaft mit beschränkter Haftung Method and system for testing a control unit of a vehicle
DE102022209080A1 (en) 2022-09-01 2024-03-07 Robert Bosch Gesellschaft mit beschränkter Haftung Method for calibrating a sensor, computing unit and sensor system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3931879B2 (en) 2003-11-28 2007-06-20 株式会社デンソー Sensor fusion system and vehicle control apparatus using the same
DE102005008714A1 (en) 2005-02-25 2006-09-07 Robert Bosch Gmbh Method and system for providing sensor data
DE102005036953A1 (en) 2005-08-05 2007-02-08 Robert Bosch Gmbh Method for generating environmental hypotheses for driver assistance functions
EP2107503A1 (en) * 2008-03-31 2009-10-07 Harman Becker Automotive Systems GmbH Method and device for generating a real time environment model for vehicles
US8739049B2 (en) * 2010-05-24 2014-05-27 GM Global Technology Operations LLC Vehicle system modeling systems and methods
DE102011086342A1 (en) * 2011-11-15 2013-05-16 Robert Bosch Gmbh DEVICE AND METHOD FOR OPERATING A VEHICLE

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
B. SCHICK ET AL: "Simulationsmethoden zur Evaluierung und Verifizierung von Funktion, Güte und Sicherheit von Fahrerassistenzsystemen im durchgängigen MIL-, SIL-, und HIL-Prozess", 3. TAGUNG AKTIVE SICHERHEIT DURCH FAHRERASSISTENZ, 31 December 2008 (2008-12-31), München, pages 1 - 14, XP055072518 *
KAWASAKI N ET AL: "Standard platform for sensor fusion on advanced driver assistance system using bayesian network", INTELLIGENT VEHICLES SYMPOSIUM, 2004 IEEE PARMA, ITALY JUNE 14-17, 2004, PISCATAWAY, NJ, USA,IEEE, 14 June 2004 (2004-06-14), pages 250 - 255, XP010727477, ISBN: 978-0-7803-8310-4, DOI: 10.1109/IVS.2004.1336390 *
MICHAEL AEBERHARD ET AL: "Object existence probability fusion using dempster-shafer theory in a high-level sensor data fusion architecture", INTELLIGENT VEHICLES SYMPOSIUM (IV), 2011 IEEE, IEEE, 5 June 2011 (2011-06-05), pages 770 - 775, XP031998940, ISBN: 978-1-4577-0890-9, DOI: 10.1109/IVS.2011.5940430 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112930290A (en) * 2018-11-02 2021-06-08 雷诺股份公司 Method for formulating control instructions for a motor vehicle
CN109634426A (en) * 2018-12-20 2019-04-16 南京钟山虚拟现实技术研究院有限公司 High-freedom degree experiment class three-dimensional emulation mode and system based on Unity3D
CN109634426B (en) * 2018-12-20 2020-08-14 南京钟山虚拟现实技术研究院有限公司 High-freedom experimental three-dimensional virtual simulation method and system based on Unity3D

Also Published As

Publication number Publication date
WO2014183948A2 (en) 2014-11-20
DE102013213807A1 (en) 2014-11-20
WO2014183945A1 (en) 2014-11-20
DE102013212710A1 (en) 2014-11-20
WO2014183949A1 (en) 2014-11-20
DE102013215032A1 (en) 2014-11-20
DE102013215115A1 (en) 2014-11-20
WO2014183944A1 (en) 2014-11-20
DE102013218678A1 (en) 2014-11-20

Similar Documents

Publication Publication Date Title
WO2014183953A1 (en) Arrangement and method for sensor fusion and production method for developing a fusion model
EP3695244B1 (en) Method and device for creating an inverse sensor model and method for detecting obstacles
DE102019121140A1 (en) SENSOR FUSION
DE112018004000T5 (en) MONITORING A VEHICLE OPERATION RISK USING SENSOR UNITS
DE102019102205A1 (en) SYSTEM AND METHOD FOR THE END TO END VALIDATION OF AUTONOMOUS VEHICLES
DE102016113903A1 (en) Vehicle route determination
DE112018006161T5 (en) System and method for controlling a vehicle
DE112019000340T5 (en) EPISTEMIC AND ALLEATORY DEEP PLASTICITY BASED ON SOUND FEEDBACK
DE112020003841T5 (en) IMPROVED MACHINE LEARNING FOR TECHNICAL SYSTEMS
DE102019119162A1 (en) POSEN ESTIMATE
DE102018100487A1 (en) OBJECT TRACKING THROUGH UNDUE MONITORING
DE102007053501A1 (en) Method for developing and / or testing at least one safety and / or driver assistance system for a motor vehicle and simulation environment
DE102022101233A1 (en) TRAFFIC SIMULATION AND ROAD NETWORK MODELING FOR AUTONOMOUS VEHICLES
DE102020128978A1 (en) TRAINING DEEP NEURAL NETWORKS WITH SYNTHETIC IMAGES
DE102022108656A1 (en) NEURAL QUANTILE NETWORK
DE102017201796A1 (en) Control device for determining a self-motion of a motor vehicle and motor vehicle and method for providing the control device
DE102022127647A1 (en) CALIBRATING PARAMETERS WITHIN A VIRTUAL ENVIRONMENT USING REINFORCEMENT LEARNING
WO2023099066A1 (en) Simulation for validating an automating driving function for a vehicle
DE102022115322A1 (en) CALIBRATION FOR A DISTRIBUTED SYSTEM
DE102022121602A1 (en) OBJECT MOTION PATH PREDICTION
EP4412882A1 (en) Method for planning a trajectory of a driving maneuver of a motor vehicle, computer program product, computer-readable storage medium, and vehicle
DE102017221634A1 (en) Motor vehicle with a vehicle guidance system, method for operating a vehicle guidance system and computer program
DE102014209340A1 (en) Arrangement and method for sensor fusion
DE102020127253A1 (en) QUANTIFYING PHOTOREALISM IN SIMULATED DATA WITH GAN
DE102016109596A1 (en) Computer-aided design of mechatronic systems for describing text-based system specifications

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14721251

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14721251

Country of ref document: EP

Kind code of ref document: A1