EP1776602A1 - Method and device for operating a sensor system - Google Patents

Method and device for operating a sensor system

Info

Publication number
EP1776602A1
EP1776602A1 EP05768003A EP05768003A EP1776602A1 EP 1776602 A1 EP1776602 A1 EP 1776602A1 EP 05768003 A EP05768003 A EP 05768003A EP 05768003 A EP05768003 A EP 05768003A EP 1776602 A1 EP1776602 A1 EP 1776602A1
Authority
EP
European Patent Office
Prior art keywords
sensor
data
detection
processing unit
sensors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
EP05768003A
Other languages
German (de)
French (fr)
Inventor
Albrecht Klotz
Jan Sparbert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of EP1776602A1 publication Critical patent/EP1776602A1/en
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9321Velocity regulation, e.g. cruise control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9322Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using additional data, e.g. driver condition, road state or weather data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles

Definitions

  • the invention relates to a method and an apparatus for operating a sensor system, which preferably comprises at least two sensors which are different from each other.
  • DE 101 33 945 A1 shows a method and a device for operating a sensor system.
  • sensors of the sensor system which are preferably embodied in different sensor technologies (radar, video, ultrasound, etc.) communicate with a processing unit (sensor data fusion unit or information platform).
  • the sensors transmit sensor data, i. Results of the measurement process of the sensors, the processing unit, which are further processed there and forwarded to at least one, preferably several functionalities.
  • data exchange also takes place from the processing unit to the sensors. This confirmation data will become
  • identification data are exchanged, in particular sent from the processing unit to at least one sensor.
  • the transmission of information from the processing unit to the sensor device which is an indication of at least one area to be detected (in particular space area) and / or at least one operating mode to be activated represent affected sensor device, an improvement of the detection performance and the detection quality of the sensor device involved is achieved.
  • Operating mode and detection scope is optimized for the task to be performed. This also increases the quality of the information provided by the processing unit (information platform).
  • Spectrum of information users such as functions such as automatic emergency braking systems, adaptive cruise control systems, etc., can serve very different requirements.
  • the information between the sensors is transmitted via a central processing unit (information platform), which additionally assumes the sensor control on the basis of a situation detection and description contained in the processing unit or supplied to the processing unit.
  • a central processing unit information platform
  • the information transmitted by the processing unit to the sensors is displayed independently of the sensor. In the sensor, this information is then converted into sensor-specific data.
  • the information transmitted by the processing unit to the sensors is at least one of the following information: for essential operating states an indication of the particular spatial detection range (windowing), for example a limitation of the spatial detection range or a windowing of the object data based on at least one criterion, such as e.g. Speed, position, angle, etc .; an indication representing at least one region of interest to be observed, which is preferably substantially smaller than the above-mentioned fenestration;
  • Prioritization and / or identification information for these detection areas Prioritization and / or identification information for these detection areas; a tracking list with identity markers of objects to be observed; Information regarding the congestion of objects (eg, location of entry into the detection and / or detection area, speed, size, type, etc.) potentially re-detected by the sensor and resulting from predictions of object change;
  • the processing unit transmits to the sensors control data for setting a sensor mode.
  • sensor-specific and sensor-unspecific options for changing the information content of the information provided by the sensor. Such possibilities are, for example, the sensor cycle time, the quality threshold of the information to be supplied, the type of information, the technological methodology of gathering information, a prioritization between various information items
  • FIG. 1 shows an overview image of a sensor system with a processing unit (information platform) controlling the sensor system.
  • FIGS. 2 to 4 schematically show the effect of the procedure according to the invention, while in FIG.
  • Description of exemplary embodiments 1 shows an overview image of a sensor system which sends sensor signals to a processing unit and receives information for controlling the sensors.
  • the sensor system comprises several, at least two sensors (Sl to SN).
  • the sensors are sensors for detecting the surroundings of a vehicle, for example ultrasound sensors, radar sensors,
  • Video sensors etc. These sensors are connected via preferably bi-directional communication links 10 - 18 with a processing unit (information platform, IP).
  • the communication systems are a bus system, such as CAN, which interconnects the sensors and the processing unit for mutual data exchange.
  • the processing unit is part of a control unit SE.
  • the processing device is realized by one or more software modules that run on one or more microcomputers of the control unit SE.
  • the information platform data are other sensor systems 20 - 24 via corresponding communication links 26 -.
  • the information platform supplied, for example, to the information platform to supply operating variables such as the airspeed, which are not detected by the sensor system Sl to SN. These operating variables serve the information platform, if necessary, to be taken into account in the formation of information and / or control variables for the sensor system S1 to SN. Furthermore, the information platform determines quantities for different (at least two) functionalities, which are indicated in FIG. 1 by Fl to FN. These functionalities relate to functions such as automatic emergency braking, an adaptive cruise control, a parking aid, a lane departure warning, etc.
  • the data transmitted from the information platform to the functionalities is the preferred one Embodiment example of the sensor data fused object data, which are then evaluated by the functionalities according to their function.
  • the functions F1 to FN control actuators for example warning elements, brake systems, etc., which is indicated by the example of the function F1 in FIG.
  • the data connection between the information platform and the various functions also takes place via a bus system, for example a CAN bus system, in a preferred embodiment.
  • the data exchange is bi-directional, for example data relating to the activation state of the function being transmitted by the functions to the information platform become.
  • a sensor system consisting of two sensors, which detect object data from the surroundings of a motor vehicle.
  • the preferred application example includes two different sensors and two functions different in their requirements from the processing unit (information platform).
  • the sensors used are a monovideo camera and at least one radar sensor, preferably with a common (overlapping) or adjacent detection areas.
  • various functions of the motor vehicle which function as a function of the detected objects and their characteristics, such as an automatic emergency braking system and an adaptive cruise control are controlled. Object data outside these limits are discarded.
  • At least one of the sensors will be
  • Detection range e.g. by specifying a maximum range and / or maximum angles.
  • the information platform determines these values depending on which function is to be supported. with active adaptive cruise control a comparatively long range with small angles specified, while with active parking aid the values for the
  • Detection range can be set opposite. '- 7
  • the combination of a monovideo sensor with a radar sensor improves in particular the plausibility of the detected objects.
  • the plausibility check takes place by means of the information platform.
  • Radar sensor for example, speed, angle and / or distance to the detected object supplied to the information platform.
  • This list of detection areas is transmitted to the video sensor.
  • the data include, for example, coordinates of an excellent point (eg center or Center of gravity) and the extent of the detection area and / or the speed of the point.
  • an identification number and possibly a priority classification of the detection areas is transmitted.
  • the video sensor receives this list and works the areas contained in the list in the specified Priority order.
  • the video sensor or its evaluation unit analyzes the recorded image in the transmitted detection areas for object recognition.
  • all sensors work with the same coordinate system, or a transformation takes place from the coordinate system of the radar sensor to that of the video sensor, and vice versa, preferably in the information platform. If the image analysis of the video sensor results in one or more objects in the transmitted region (s), the data or information, if appropriate together with the identification number, is transmitted to the information platform where the object (or the objects detected) determined by the radar sensor is made plausible. Detects the video sensor in the transmitted region (s).
  • Detection area no object it can be assumed that the detected by the radar sensor object is a decoy.
  • Objects recognized after the plausibility check are further processed by the information platform, e.g. transmits the object data or information derived therefrom to the connected functions.
  • the above-outlined plausibility check preferably takes place in the information platform, but can also be part of the software of the video sensor.
  • the video sensor uses known approaches.
  • the information platform can control the video sensor so that the plausibility of the radar objects is faster, for example, that the processing in the video sensor is aborted after a few relevant image areas and / or the plausibility is weakened.
  • the latter takes place, for example, in that only location information is used for the object for plausibility checking, while the speed information for the plausibility check is dispensed with.
  • the corresponding signals for controlling the sensor are sent from the information platform to the sensor depending on the operating condition (e.g., emergency brake function active or not).
  • Another possibility for accelerating the plausibility of the object detection of the radar sensor by the video sensor is by preconditioning the Reached video objects. This is preferably carried out by deriving on the basis of the object data determined by the radar sensor, such as location, speed, direction of movement, etc., the location of the presumed arrival of the object in the detection area of the sensor, around which location an image area to be examined is formed in turn transmitted to the video sensor.
  • sensors are used which, on the one hand, detect information (for example, width, curvature, etc.) about the traffic lane, lane or roadway (roadway sensors) and, on the other hand, detect objects (object-detecting sensors).
  • information for example, width, curvature, etc.
  • objects object-detecting sensors
  • a mode control is performed by the information platform turning off at least a part of the lane detection when a driving condition is reached in which this part is not required (eg curb detection is required in the city, not on highways, so here this part is turned off can be).
  • a driving condition e.g curb detection is required in the city, not on highways, so here this part is turned off can be.
  • the information platform transmits from the information platform to the sensor information representing the expected lane marking.
  • the sensor or its evaluation adapts. This saves resources.
  • a road type may be transmitted (highway, winding road, etc.) to adapt the model to the vehicle edge detection, so that the quality of the estimation of the parameters is improved.
  • FIG. 2 shows the windowing of the object data to be detected (definition of the detection area).
  • FIG. 3 shows the specification of one or more detection regions (ROI), while FIG. 4 shows the preconditioning of detected objects.
  • 100 denotes the own vehicle on which the sensors are mounted. 2 and 3, a first environmental sensor 102 and its detection region 104 are shown. In FIG. 4, a second environmental sensor 106 with a wider detection range 108, but with a smaller range, is shown in addition to the sensor 102 and its detection region 104. According to FIG. 2, a windowing of the object data or a restriction of the detection area for resource reduction is undertaken.
  • the information communicated to the sensor by the information platform includes data representing a boundary of the sensing range of the sensor, such as minimum and / or maximum values from the detection range delimiting coordinates, speed values that limit the width of the detection range, and / or road parameters that determine the width of the detection range Specify detection area (two-lane road, four-lane road, etc.).
  • the sensor receives this data and forms from it the adapted detection range 110 shown in FIG. 2.
  • Detection range to the respective active function for example, parking aid or vehicle speed controller
  • the driving ritual e.g., street type
  • data is transmitted to the sensor or sensors by the information platform with respect to at least one detection area to be considered particularly.
  • These data are derived from the data of a detected object of another sensor, for example a radar sensor, and consist, for example, of the coordinates for the center point (resp.
  • a unique identification number is linked to each detection area or its data. By limiting it to a few areas of interest, the resources in the sensor, preferably in the video sensor, can be reduced and thus the most important information can be generated in a very short time. This is of particular interest in zeilcritical functions, for example in the case of automatic emergency braking, in which object detection and plausibility must be carried out very quickly.
  • the identification numbers are assigned by the information platform and passed on to the sensor.
  • the results determined by the sensor are sent back to the information platform with the identification number, so that the information platform can monitor the processing on the basis of the numbers, since the sensor is checked for plausibility of the detected object or with own object recognition a corresponding information under this identification number to the Information platform sends back. Only when the processing is done, the identification number is re-assigned by the information platform. On the basis of this feedback, the information platform also recognizes an overload in the processing in the sensor if the processing of the task has not been confirmed within a predetermined time period. In the event of an overload, the information platform indicates this to the active function and / or assigns prioritization values to the sensor or adapts existing ones by waiving specified tasks, eg as outlined above, or by performing them only to a limited extent.
  • a tracking list of the object data with object identification number is generated by at least one of the sensors or the information platform.
  • the data for the windowing and / or the generation of the detection areas are made by the information platform and transmitted to the at least one other sensor.
  • FIG. 3 shows the solution outlined above.
  • the vehicle 100 has a sensor system 102, which has at least one sensor with the detection area 104. Plotted are the detection regions (ROI) 112, 114, 116, which are characterized by quantities such as: midpoint (eg 112a, 114a, 116a, optionally with variance values and (not shown) velocity optionally with variance values, where the variance values are the uncertainty of the ROIs express).
  • the detection areas shown which are formed on the basis of detected objects of another sensor of the sensor system, are evaluated by the evaluation unit of the relevant sensor particularly frequently or exclusively on the sensor
  • Presence and / or properties of objects in these areas Presence and / or properties of objects in these areas.
  • a third option for attention control of the sensor system is the preconditioning of at least one of the sensors. At least one of the sensors of the sensor system transmits object data to the information platform, which the
  • Information platform in data for another sensor with other coverage area implements, which in particular represent the location of the expected intrusion of the object in the detection range of the sensor.
  • the data transmitted by the information platform to this sensor relate in the preferred exemplary embodiment to the location at which the penetration of the object into the detection range of the sensor is to be expected and, optionally, the speed and / or direction of movement of the object. This is done in the preferred embodiment in the context of the transmission of data to a special detection area (ROI).
  • the sensor is then the Trackinginitialmaschine or the angle assignment, for example, with regard to be optimally adjusted to the newly erende to deteku 'object on the basis of this information.
  • the vehicle 100 has a sensor system with at least two sensors 102 and 106.
  • the detection range of the sensor 102 is designated 104, while the sensor 106 has a wider detection range 108 with a shorter range. This is a typical one
  • Case constellation when using a radar sensor 102 and a video camera 106.
  • the detected by the radar sensor 102 object is designated 118.
  • the information platform therefore determines a particular detection area 120, which is communicated to the sensor 106 and which represents the location of the suspected penetration of the object into the detection area.
  • the sensor then observes this detection area preferably (or together with the other notified detection areas exclusively) and can therefore already before
  • prioritization data are transmitted with the detection area data, which predetermine the sequence or frequency of the processing of the areas for the sensor.
  • the cycle time is extended again. In some operating situations it makes sense to receive incomplete information earlier. This is the case, for example, if the affected sensor only serves to check the plausibility of already detected objects. In this case, in one embodiment, it may be sufficient to provide information already if the sensor-internal plausibility check for an object is not yet completely completed, but an object has been detected, or if the object states are only partially known. A corresponding control information is transmitted from the information platform to the sensor concerned.
  • the prioritization between track detection and object detection of a video sensor can be shifted, for example, when in cities, the track detection has a lower priority over the object detection.
  • the object detection is performed more frequently than the track detection.
  • Corresponding information about the operating state is supplied to the information platform (for example, from the connected functions), which in turn transmits corresponding data to the sensor (s) concerned.
  • FIG. 5 outlines a flowchart which illustrates the mode of operation of the information platform using the example of the formation and transmission of detection area scales.
  • the sketched program is run through at predetermined time intervals.
  • object data is received by a first sensor, for example by a radar sensor.
  • These object data include data relating to detected objects such as location of the object (for example angular relationships or coordinates), the relative velocity or absolute velocity of the object, the distance to the object, its direction of movement, etc.
  • the corresponding data becomes a list transmitted.
  • step 202 on the basis of the detected Object data detection areas (ROI) formed. For example, the location of the detected object is evaluated with variant values and in this way a detection area is spanned. If the reference systems of the individual sensors and / or the information platform are different, the data must of course be transformed into the corresponding reference systems.
  • ROI Object data detection areas
  • Another possibility is to use not only the center of the detected object as the basis for the calculation of the detection area, but also the speed of the object, wherein at greater speed of the object, a larger detection area is staked, which also in an embodiment according to the direction of movement of the object is adjusted so that it is greater in the direction of movement than to the side or to the rear.
  • step 204 identification numbers are assigned to the individual detection areas. Further, in one embodiment at step 206, each one
  • Detection area provided with priority values.
  • the highest priority detection area is to be treated, representing an object closest to the vehicle.
  • the data to the detection areas to another sensor, such as the video sensor, transmitted, the object of the object detection in the particular
  • the processing reports back to the information platform, if necessary, with a time stamp, as does the result, for example, whether an object detected by the radar sensor could be made plausible or not.
  • the information is passed on to the following functionalities, in the other case discarded.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

The invention relates to a method and a device for operating a sensor system, a processing unit being connected to at least one sensor of the sensor system via communication links. The invention is characterised in that the processing unit transmits data to at least one of the sensors, said data representing at least one recording and/or detection area of the sensor and/or control data for controlling the sensor mode.

Description

Verfahren und Vorrichtung zum Betreiben eines SensorsystemsMethod and device for operating a sensor system
Stand der TechnikState of the art
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Betreiben eines Sensorsystems, welches vorzugsweise wenigstens zwei Sensoren umfasst, die voneinander verschieden sind.The invention relates to a method and an apparatus for operating a sensor system, which preferably comprises at least two sensors which are different from each other.
Die DE 101 33 945 Al zeigt ein Verfahren und eine Vorrichtung zum Betreiben eines Sensorsystems. Dabei kommunizieren Sensoren des Sensorsystems, welche vorzugsweise in verschiedenen Sensortechnologien (Radar, Video, Ultraschall, etc.) ausgeführt sind, mit einer Verarbeitungseinheit (Sensordatenfusionseinheit oder Informationsplattform). - Die Sensoren übermitteln Sensordaten, d.h. Ergebnisse des Messvorgangs der Sensoren, zur Verarbeitungseinheit, die dort weiterverarbeitet und an wenigstens eine, vorzugsweise mehrere Funktionalitäten weitergeleitet werden. Ferner findet auch ein Datenaustausch von der Verarbeitungseinheit zu den Sensoren statt. Diese Rückmeldedaten werden zurDE 101 33 945 A1 shows a method and a device for operating a sensor system. In this case, sensors of the sensor system, which are preferably embodied in different sensor technologies (radar, video, ultrasound, etc.) communicate with a processing unit (sensor data fusion unit or information platform). The sensors transmit sensor data, i. Results of the measurement process of the sensors, the processing unit, which are further processed there and forwarded to at least one, preferably several functionalities. Furthermore, data exchange also takes place from the processing unit to the sensors. This confirmation data will become
Λufrnerksamkeitssteuerung und/oder Präkonditionierung der einzelnen Sensoren verwendet. Beispielsweise werden zur Identifizierung von detektierten Objekten Identifikationsdaten ausgetauscht, insbesondere von der Verarbeitungseinheit zu wenigstens einem Sensor gesendet.Λrnrensivity control and / or preconditioning of the individual sensors used. For example, to identify detected objects, identification data are exchanged, in particular sent from the processing unit to at least one sensor.
Vorteile der ErfindungAdvantages of the invention
Die Übertragung von Informationen von der Verarbeitungseinheit zur Sensoreinrichtung, welche eine Angabe wenigstens eines zu delektierenden Bereichs (insbesondere Raumbereichs) und/oder wenigstens eines einzuschaltenden Betriebsmodus der betrofifenen Sensoreinrichtung repräsentieren, wird eine Verbesserung der Detektionsleistung und der Detektionsqualität der beteiligten Sensoreinrichtung erreicht. Betriebsmodus und Detektionsumfang wird auf die abzuarbeitende Aufgabe optimiert. Damit steigt auch die Qualität der Informationen, die von der Verarbeitungseinheit (Informationsplattform) weitergegeben werden.The transmission of information from the processing unit to the sensor device, which is an indication of at least one area to be detected (in particular space area) and / or at least one operating mode to be activated represent affected sensor device, an improvement of the detection performance and the detection quality of the sensor device involved is achieved. Operating mode and detection scope is optimized for the task to be performed. This also increases the quality of the information provided by the processing unit (information platform).
Besonders vorteilhaft ist, dass eine optimale Nutzung der Ressourcen der Sensoren und eine Beeinflussung der sensorinternen Informationsgewinmingsprozesse erreicht wird.It is particularly advantageous that an optimal use of the resources of the sensors and influencing the sensor internal information Gewinmingsprozesse is achieved.
Von besonderer Bedeutung ist, dass die Informationsplattform ein deutlich verbreitertesOf particular importance is that the information platform is much broader
Spektrum an Informationsnutzern, beispielsweise Funktionen wie automatische Notbremssysteme, adaptive Fahrgeschwindigkeitsregelsysteme, etc. , mit sehr unterschiedlichen Anforderungen bedienen kann.Spectrum of information users, such as functions such as automatic emergency braking systems, adaptive cruise control systems, etc., can serve very different requirements.
Wie oben beschrieben wird eine gezielte Vermittlung von Informationen zwischen den vorhandenen Sensoren und eine situationsabhängige Sensorsteuerung bereitgestellt. Die Informationen zwischen den Sensoren werden dabei wie im Stand der Technik über eine zentrale Verarbeitungseinheit (Informationsplattform) übertragen, die zusätzlich die Sensorsteuerung auf der Basis einer in der Verarbeitungseinheit enthaltenen oder der Verarbeitungseinheit zugeführten Situationserfassung und - beschreibung übernimmt. In vorteilhafter Weise sind die von der Verarbeitungseinheit zu den Sensoren übertragenen Informationen sensorunabhängig abgebildet. Im Sensor werden diese Informationen dann in sensorspezifische Daten umgesetzt.As described above, a targeted switching of information between the existing sensors and a situation-dependent sensor control is provided. As in the prior art, the information between the sensors is transmitted via a central processing unit (information platform), which additionally assumes the sensor control on the basis of a situation detection and description contained in the processing unit or supplied to the processing unit. Advantageously, the information transmitted by the processing unit to the sensors is displayed independently of the sensor. In the sensor, this information is then converted into sensor-specific data.
Die von der Verarbeitungseinheit an die Sensoren übermittelten Informationen sind dabei wenigstens eine der folgenden Informationen: für wesentliche Betriebszustände eine Angabe des insbesondere räumlichen Erfassungsbereichs (Fensterung), beispielsweise eine Einschränkung des räumlichen Erfassungsbereichs bzw. eine Fensterung der Objektdaten anhand wenigstens eines Kriteriums wie z.B. Geschwindigkeit, Position, Winkelablage, etc.; eine Angabe, welchen wenigstens einen besonders zu beobachteten Detektionsbereich (Region of Interest) repräsentiert, der vorzugsweise wesentlich kleiner als die oben erwähnte Fensterung ist;The information transmitted by the processing unit to the sensors is at least one of the following information: for essential operating states an indication of the particular spatial detection range (windowing), for example a limitation of the spatial detection range or a windowing of the object data based on at least one criterion, such as e.g. Speed, position, angle, etc .; an indication representing at least one region of interest to be observed, which is preferably substantially smaller than the above-mentioned fenestration;
Priorisierungs- und/ oder Identifikationsangeben für diese Detektionsbereiche; - eine Trackingliste mit Identitätsmarkern von besonders zu beobachtenden Objekten; Informationen bezüglich des Zuslandes von Objekten (z.B. Ort des Eintreffens in den Erfassungs- und/oder Detektionsbereichs, Geschwindigkeit, Größe, Art, etc.), die potenziell neu vom Sensor detektiert werden und aus Vorhersagen der Objektveränderung herrühren;Prioritization and / or identification information for these detection areas; a tracking list with identity markers of objects to be observed; Information regarding the congestion of objects (eg, location of entry into the detection and / or detection area, speed, size, type, etc.) potentially re-detected by the sensor and resulting from predictions of object change;
Durch diese Maßnahmen wird eine gezielte Steuerung des Sensors und damit ein optimierter Einsatz der Sensorressourcen erreicht.Through these measures, a targeted control of the sensor and thus an optimized use of the sensor resources is achieved.
Ergänzend oder alternativ hierzu übermittelt die Verarbeitungseinheit an die Sensoren Steuerdaten für die Einstellung eines Sensormodus. Darunter werden sensorspezifϊsche und sensorunspezifische Möglichkeiten zur Veränderung des Informationsgehaltes der vom Sensor gelieferten Informationen verstanden. Derartige Möglichkeiten sind beispielsweise die Sensorzykluszeit, die Qualitätsschwelle der zu liefernden Informationen, die Art der Informationen, die technologische Methodik der Informationsgewinnung, eine Priorisierung zwischen verschiedenen Informationen einesAdditionally or alternatively, the processing unit transmits to the sensors control data for setting a sensor mode. These are sensor-specific and sensor-unspecific options for changing the information content of the information provided by the sensor. Such possibilities are, for example, the sensor cycle time, the quality threshold of the information to be supplied, the type of information, the technological methodology of gathering information, a prioritization between various information items
Sensors, etc. Auch dies trägt zu einer Verbesserung der Detektionsleistung und einer angepassten Detektionsqualität der Sensoren bei durch eine optimale Nutzung der Sensorressourcen und der Beeinflussung der sensorinternen Informationsgewinnungsprozesse.Sensors, etc. This also contributes to an improvement of the detection performance and an adapted detection quality of the sensors by an optimal use of the sensor resources and influencing the sensor-internal information acquisition processes.
Weitere Vorteile ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen bzw. aus den abhängigen Patenansprüchen.Further advantages will become apparent from the following description of exemplary embodiments or from the dependent claims.
Zeichnungdrawing
Die Erfindung wird nachstehend anhand der in der Zeichnung dargestellten Ausführungsformen näher erläutert. Figur 1 zeigt dabei ein Übersichtsbild eines Sensorsystems mit einer das Sensorsystem steuernden Verarbeitungseinheit (Informationsplattform). In den Figuren 2 bis 4 sind schematisch die Wirkung der erfindungsgemäßen Vorgehensweise dargestellt, während in Figur 5 anhand einesThe invention will be explained in more detail below with reference to the embodiments shown in the drawing. FIG. 1 shows an overview image of a sensor system with a processing unit (information platform) controlling the sensor system. FIGS. 2 to 4 schematically show the effect of the procedure according to the invention, while in FIG
Ablaufdiagramms ein Beispiel für eine konkrete Ausführung eines in der Verarbeitungseinheit ablaufenden Programms zur Sensorsteuerung dargestellt ist.Flowchart is an example of a concrete execution of running in the processing unit program for sensor control is shown.
Beschreibung von Ausführungsbeispielen In Figur 1 ist ein Übersichtsbild eines Sensorsystems dargestellt, welches an eine Verarbeitungseinheit Sensorsignale schickt und von dieser Informationen zur Steuerung der Sensoren empfangt. Das Sensorsystem umfasst dabei mehrere, wenigstens zwei Sensoren (Sl bis SN). Im bevorzugten Ausfuhrungsbeispiel sind die Sensoren Sensoren zur Umfelderfassung eines Fahrzeugs, z.B. Ultraschallsensoren, Radarsensoren,Description of exemplary embodiments 1 shows an overview image of a sensor system which sends sensor signals to a processing unit and receives information for controlling the sensors. The sensor system comprises several, at least two sensors (Sl to SN). In the preferred exemplary embodiment, the sensors are sensors for detecting the surroundings of a vehicle, for example ultrasound sensors, radar sensors,
Videosensoren, etc. Diese Sensoren sind über vorzugsweise bidirektionale Kommunikationsverbindungen 10 - 18 mit einer Verarbeitungseinheit (Informationsplattform, IP) verbunden. Im bevorzugten Ausführungsbeispiel handelt es sich bei den Kommunikationssystemen um ein Bussystem, beispielsweise CAN, welches die Sensoren und die Verarbeitungseinheit zum gegenseitigen Datenaustausch miteinander verbindet. Im bevorzugten Ausführungsbeispiel ist die Verarbeitungseinheit Teil einer Steuereinheit SE. Dabei wird die Verarbeitungseinrichtung durch ein oder mehrere Softwaremodule realisiert, die auf einem oder mehreren Mikrocomputern der Steuereinheit SE ablaufen. In einer Ausführung werden der Informationsplattform Daten anderen Sensorsysteme 20 - 24 über entsprechende Kommunikationsverbindungen 26 -Video sensors, etc. These sensors are connected via preferably bi-directional communication links 10 - 18 with a processing unit (information platform, IP). In the preferred embodiment, the communication systems are a bus system, such as CAN, which interconnects the sensors and the processing unit for mutual data exchange. In the preferred embodiment, the processing unit is part of a control unit SE. In this case, the processing device is realized by one or more software modules that run on one or more microcomputers of the control unit SE. In one embodiment, the information platform data are other sensor systems 20 - 24 via corresponding communication links 26 -.
30 zugeführt, z.B. um der Informationsplattform Betriebsgrößen wie z.B. die Eigengeschwindigkeit zuzuführen, die nicht vom Sensorsystem Sl bis SN erfasst werden. Diese Betriebsgrößen dienen der Informationsplattform ggf. dazu, bei der Bildung von Informations- und/oder Steuergrößen für das Sensorsystem Sl bis SN berücksichtigt zu werden. Ferner ermittelt die Informationsplattform Größen für verschiedene (wenigstens zwei) Funktionalitäten, welche in Figur 1 mit Fl bis FN angedeutet sind. Diese Funktionalitäten betreffen Funktionen wie eine automatische Notbremsung, ein adaptiver Fahrgeschwindigkeitsregler, eine Einparkhilfe, ein Spurverlassenswarner, etc. Da das gezeigte System vorzugsweise im Rahmen der Objekterkennung für die beispielhaft genannten Funktionalitäten verwendet wird, sind die von der Informationsplattform an die Funktionalitäten übermittelten Daten im bevorzugten Λusführungsbeispiel aus den Sensordaten fusionierte Objektdaten, die von den Funktionalitäten dann entsprechend ihrer Funktion ausgewertet werden. Die Funktionen Fl bis FN steuern Aktuatoren, beispielsweise Wamelemente, Bremssysteme, etc. an, was am Beispiel der Funktion Fl in Figur 1 angedeutet ist. Die Datenverbindung zwischen der Informationsplattform und den verschiedenen Funktionen findet im bevorzugten Λusführungsbeispiel ebenfalls über ein Bussystem, beispielsweise ein CAN - Bussystem, statt Darüber hinaus ist der Datenaustausch in einem bevorzugten Λusführungsbeispiel bidirektional, wobei von den Funktionen zur mformationsplattform beispielsweise Daten hinsichtlich des Aktivierungszustandes der Funktion übermittelt werden. In einer bevorzugten Anwendung wird ein aus zwei Sensoren bestehendes Sensorsystem eingesetzt, welche Objektdaten aus der Umgebung eines Kraftfahrzeugs erfassen. Das bevorzugte Anwendungsbeispiel enthält zwei unterschiedliche Sensoren und zwei in ihren Anforderungen gegenüber der Verarbeitungseinheit (Informationsplattform) unterschiedliche Funktionen. Im bevorzugten Ausführungsbeispiel werden als Sensoren eine Monovideokamera und wenigstens ein Radarsensor verwendet, vorzugsweise mit einem gemeinsamen (überlappenden) oder aneinander angrenzenden Erfassungsbereichen. Auf der Basis der von diesen Sensoren ermittelten Daten werden verschiedene, in Abhängigkeit von den erfassten Objekten und deren Charakteristiken arbeitenden Funktionen des Kraftfahrzeugs wie ein automatisches Notbremssystem und ein adaptiver Fahrgeschwindigkeitsregler gesteuert. Objektdaten außerhalb dieser Grenzen werden verworfen.30 supplied, for example, to the information platform to supply operating variables such as the airspeed, which are not detected by the sensor system Sl to SN. These operating variables serve the information platform, if necessary, to be taken into account in the formation of information and / or control variables for the sensor system S1 to SN. Furthermore, the information platform determines quantities for different (at least two) functionalities, which are indicated in FIG. 1 by Fl to FN. These functionalities relate to functions such as automatic emergency braking, an adaptive cruise control, a parking aid, a lane departure warning, etc. Since the system shown is preferably used in the context of object recognition for the exemplified functionalities, the data transmitted from the information platform to the functionalities is the preferred one Embodiment example of the sensor data fused object data, which are then evaluated by the functionalities according to their function. The functions F1 to FN control actuators, for example warning elements, brake systems, etc., which is indicated by the example of the function F1 in FIG. The data connection between the information platform and the various functions also takes place via a bus system, for example a CAN bus system, in a preferred embodiment. In a preferred embodiment, the data exchange is bi-directional, for example data relating to the activation state of the function being transmitted by the functions to the information platform become. In a preferred application, a sensor system consisting of two sensors is used, which detect object data from the surroundings of a motor vehicle. The preferred application example includes two different sensors and two functions different in their requirements from the processing unit (information platform). In the preferred embodiment, the sensors used are a monovideo camera and at least one radar sensor, preferably with a common (overlapping) or adjacent detection areas. On the basis of the data determined by these sensors, various functions of the motor vehicle, which function as a function of the detected objects and their characteristics, such as an automatic emergency braking system and an adaptive cruise control are controlled. Object data outside these limits are discarded.
Zunächst wird in einem Ausführungsbeispiel wenigstens einem der Sensoren seinFirst, in one embodiment, at least one of the sensors will be
Erfassungsbereich vorgegebenen, z.B. durch Vorgabe von einer maximalen Reichweite und/oder maximalen Winkeln. Die Informationsplattform legt diese Werte in Abhängigkeit davon fest, welche Funktion zu unterstützen ist So wird z.B. bei aktivem adaptivem Fahrgeschwindigkeitsregler eine vergleichsweise große Reichweite mit kleinen Winkeln vorgegeben, während bei aktiver Einparkhilfe die Werte für denDetection range, e.g. by specifying a maximum range and / or maximum angles. The information platform determines these values depending on which function is to be supported. with active adaptive cruise control a comparatively long range with small angles specified, while with active parking aid the values for the
Erfassungsbereich entgegengesetzt vorgegeben werden. '-7 Detection range can be set opposite. '- 7
Die Kombination eines Monovideosensors mit einem Radarsensor verbessert insbesondere die Plausibilisierung der erfassten Objekte. Die Plausibilisierung findet mittels der Informationsplattform statt. Zu diesem Zweck werden die Detektionsdaten desThe combination of a monovideo sensor with a radar sensor improves in particular the plausibility of the detected objects. The plausibility check takes place by means of the information platform. For this purpose, the detection data of the
Radarsensors (beispielsweise Geschwindigkeit, Winkel und/ oder Abstand zu dem erfassten Objekt) der Informationsplattform zugeführt. Diese bildet aus den Objektdaten des Radarsensors eine Liste von Detektionsbereichen (Region of Interest, ROI), die gegebenenfalls mit unterschiedlichen Prioritätswerten versehen sind.. Diese Liste der Detektionsbereiche wird an den Videosensor übermittelt Die Daten umfassen dabei beispielsweise Koordinaten eines ausgezeichneten Punktes (z.B. Mittelpunkt oder Schwerpunkt) und die Ausdehnung des Detektionsbereichs und / oder der Geschwindigkeit des Punkts. Ferner wird eine Identifikationsnummer und gegebenenfalls eine Prioritäteneinstufung der Detektionsbereiche übermittelt. Der Videosensor empfängt diese Liste und arbeitet die in der Liste enthaltenen Bereiche in der vorgegebenen Prioritätsreihenfolge ab. Im bevorzugten Ausführungsbeispiel analysiert der Videosensor bzw. seine Auswerteeinheit das aufgenommene Bild in den übermittelten Detektionsbereiche zur Objekterkennung. Je nach Ausfuhrung arbeiteten dabei alle Sensoren mit demselben Koordinatensystem oder ein findet eine Transformation von dem Koordinatensystem des Radarsensors zu dem des Videosensors und umgekehrt vorzugsweise in der Informationsplattform statt. Ergibt die Bildanalyse des Videosensors in dem oder den übermittelten Bereichen ein bzw. mehrere Objekte, so werden die Daten bzw. die Information gegebenenfalls zusammen mit der Identifikationsnummer an die Informationsplattform übermittelt und dort das vom Radarsensor ermittelte Objekt (bzw. die ermittelten Objekte) plausibilisiert. Erkennt der Videosensor in dem übermitteltenRadar sensor (for example, speed, angle and / or distance to the detected object) supplied to the information platform. This forms from the object data of the radar sensor a list of detection regions (region of interest, ROI), which are optionally provided with different priority values. This list of detection areas is transmitted to the video sensor. The data include, for example, coordinates of an excellent point (eg center or Center of gravity) and the extent of the detection area and / or the speed of the point. Furthermore, an identification number and possibly a priority classification of the detection areas is transmitted. The video sensor receives this list and works the areas contained in the list in the specified Priority order. In the preferred embodiment, the video sensor or its evaluation unit analyzes the recorded image in the transmitted detection areas for object recognition. Depending on the execution, all sensors work with the same coordinate system, or a transformation takes place from the coordinate system of the radar sensor to that of the video sensor, and vice versa, preferably in the information platform. If the image analysis of the video sensor results in one or more objects in the transmitted region (s), the data or information, if appropriate together with the identification number, is transmitted to the information platform where the object (or the objects detected) determined by the radar sensor is made plausible. Detects the video sensor in the transmitted
Detektionsbereich kein Objekt, so ist davon auszugehen, dass das vom Radarsensor erfasste Objekt ein Scheinziel ist. Nach der Plausibilisierung gefestigt erkannte Objekte werden von der Informationsplattform weiterverarbeitet, z.B. die Objektdaten oder daraus abgeleitete Informationen an die angeschlossenen Funktionen übermittelt.Detection area no object, it can be assumed that the detected by the radar sensor object is a decoy. Objects recognized after the plausibility check are further processed by the information platform, e.g. transmits the object data or information derived therefrom to the connected functions.
Die oben skizzierte Plausibilisierung findet vorzugsweise in der Informationsplattform statt, kann aber auch Bestandteil der Software des Videosensors sein. Zur Objekterfassung verwendet der Videosensor bekannte Vorgehensweisen.The above-outlined plausibility check preferably takes place in the information platform, but can also be part of the software of the video sensor. For object detection, the video sensor uses known approaches.
Ferner kann im Rahmen einer Modussteuerung des Videosensors Erkennungsschwellen zur Ermittlung eines Objekts in den Fällen abgesenkt-werden, in denen der Detektionsbereich vorgegeben ist. Dies vor dem Hintergrund, dass in der Erwartung einer Beobachtung eine schnellere und gezieltere Detektion erreichbar ist. Im Rahmen von zeitkritischen Funktionen kann in einer Ausführung die Informationsplattform den Videosensor so steuern, dass die Plausibilisierung der Radarobjekte schneller erfolgt, beispielsweise dadurch, dass die Abarbeitung im Videosensors nach wenigen relevanten Bildbereichen abgebrochen wird und / oder die Plausibilisierung abgeschwächt wird. Letzteres erfolgt beispielsweise dadurch, dass nur eine Ortsinformation für das Objekt zur Plausibilisierung verwendet wird, während auf die Geschwindigkeitsinformation zur Plausibilisierung verzichtet wird. Die entsprechenden Signale zur Steuerung des Sensor werden von der Informationsplattform an den Sensor in Abhängigkeit des Betriebszustandes (z.B. Notbremsfunktion aktiv oder nicht) gesendet.Furthermore, in the context of a mode control of the video sensor, detection thresholds for determining an object can be lowered in cases in which the detection range is predetermined. This against the background that in the expectation of an observation a faster and more targeted detection is achievable. In the context of time-critical functions, in one embodiment, the information platform can control the video sensor so that the plausibility of the radar objects is faster, for example, that the processing in the video sensor is aborted after a few relevant image areas and / or the plausibility is weakened. The latter takes place, for example, in that only location information is used for the object for plausibility checking, while the speed information for the plausibility check is dispensed with. The corresponding signals for controlling the sensor are sent from the information platform to the sensor depending on the operating condition (e.g., emergency brake function active or not).
Eine weitere Möglichkeit zur Beschleunigung der Plausibilisierung der Objekterkennung des Radarsensors durch den Videosensor wird durch eine Präkonditionierung der Videoobjekte erreicht. Diese erfolgt vorzugsweise dadurch, dass auf der Basis der vom Radarsensor ermittelten Objektdaten wie z.B. Ort, Geschwindigkeit, Bewegungsrichtung, etc. der Ort des vermuteten Eintreffens des Objekts in den Detektionsbereich des Sensors abgeleitet wird, um diesen Ort ein zu untersuchender Bildbereich gebildet wird, der wiederum an den Videosensor übermittelt wird.Another possibility for accelerating the plausibility of the object detection of the radar sensor by the video sensor is by preconditioning the Reached video objects. This is preferably carried out by deriving on the basis of the object data determined by the radar sensor, such as location, speed, direction of movement, etc., the location of the presumed arrival of the object in the detection area of the sensor, around which location an image area to be examined is formed in turn transmitted to the video sensor.
Im einem Λusfuhrungsbeispiel werden Sensoren eingesetzt, die zum einen Informationen (z.B. Breite, Krümmung, etc.) über die Fahrspur, den Fahrstreifen bzw. die Fahrbahn (Fahrbahnsensoren) erfassen, zum anderen Objekte detektieren (objektdetektierende Sensoren). Derartige Sensoren sind je nach Ausführung getrennt oder es werden beideIn one exemplary embodiment, sensors are used which, on the one hand, detect information (for example, width, curvature, etc.) about the traffic lane, lane or roadway (roadway sensors) and, on the other hand, detect objects (object-detecting sensors). Such sensors are separated depending on the design or both
Funktionen von einem Sensor wahrgenommen (z.B. einem Videosensor). Bei den Fahrbahnsensoren wird eine Modussteuerung vorgenommen, indem die Informationsplattform zumindest einen Teil der Fahrstreifendeteklion ausschaltet, wenn eine Fahrbedingung erreicht ist, in der dieser Teil nicht erforderlich ist (z.B. Randsteinerkennung ist in der Stadt erforderlich, auf Autobahnen nicht, so dass hier dieser Teil abgeschaltet werden kann). Übertragen werden hier von der Informationsplattform zum Sensor eine Information, die die erwartete Fahrstreifenmarkierung repräsentiert. Abhängig von dieser Information passt sich der Sensor bzw. seine Auswertung an. Dadurch werden Ressourcen gespart. Ferner oder alternativ kann ein Straßentyp übertragen werden (Autobahn, kurvenreiche Straße, etc.) zur Anpassung des Modells zur Fahrbahήrand- bzw. -Streifenerkennung, so dass die Qualität der Schätzung der Parameter verbessert wird.Functions sensed by a sensor (e.g., a video sensor). In the lane sensors, a mode control is performed by the information platform turning off at least a part of the lane detection when a driving condition is reached in which this part is not required (eg curb detection is required in the city, not on highways, so here this part is turned off can be). Here are transmitted from the information platform to the sensor information representing the expected lane marking. Depending on this information, the sensor or its evaluation adapts. This saves resources. Further or alternatively, a road type may be transmitted (highway, winding road, etc.) to adapt the model to the vehicle edge detection, so that the quality of the estimation of the parameters is improved.
Die objekterkennenden Sensoren werden entsprechend der obigen Schilderung mit zusätzlichen Informationen von der Informationsplattform versorgt. Dies wird anhand der in den Figuren 2 bis 4 dargestellten Wirkungsweise verdeutlicht. Figur 2 zeigt die Fensterung der zu erfassenden Objektdaten (Festlegen des Erfassungsbereichs). Figur 3 zeigt die Vorgabe von einem oder mehreren Detektionsbereichen (ROI), während in Figur 4 die Präkonditionierung erfasster Objekte dargestellt ist.The object-recognizing sensors are supplied with additional information from the information platform in accordance with the above description. This will be clarified by means of the mode of action shown in FIGS. 2 to 4. FIG. 2 shows the windowing of the object data to be detected (definition of the detection area). FIG. 3 shows the specification of one or more detection regions (ROI), while FIG. 4 shows the preconditioning of detected objects.
In allen drei Figuren ist mit 100 das eigene Fahrzeug bezeichnet, an dem die Sensoren angebracht sind. In Figur 2 und 3 ist ein erster Umfeldsensor 102 und sein Erfassungsbereich 104 dargestellt In Figur 4 wird neben dem Sensor 102 und seinem Erfassungsbereich 104 ein zweiter Umfeldsensor 106 mit einem breiteren Erfassungsbereich 108, der jedoch eine geringere Reichweite aufweist, dargestellt. Gemäß Figur 2 wird eine Fensterung der Objektdaten bzw. eine Einschränkung des Erfassungsbereichs zur Ressourcenreduzierung vorgenommen. Die von der Informalionsplattform an den Sensor übermittelte Information enthält Daten, die eine Begrenzung des Erfassungsbereichs des Sensors repäsentieren, beispielsweise Minimal- und /oder Maximalwerte von den erfassungsbereichsbegrenzenden Koordinaten, Geschwindigkeitswerten, die die Weite des Detektionsbereichs einschränken und / oder Straßenparameter, die die Breite des Erfassungsbereichs festlegen (zweispurige Straße, vierspurige Straße, etc.). Der Sensor empfangt diese Daten und bildet daraus den in Figur 2 dargestellten angepassten Erfassungsbereich 110. Dadurch wird eine Anpassung desIn all three figures, 100 denotes the own vehicle on which the sensors are mounted. 2 and 3, a first environmental sensor 102 and its detection region 104 are shown. In FIG. 4, a second environmental sensor 106 with a wider detection range 108, but with a smaller range, is shown in addition to the sensor 102 and its detection region 104. According to FIG. 2, a windowing of the object data or a restriction of the detection area for resource reduction is undertaken. The information communicated to the sensor by the information platform includes data representing a boundary of the sensing range of the sensor, such as minimum and / or maximum values from the detection range delimiting coordinates, speed values that limit the width of the detection range, and / or road parameters that determine the width of the detection range Specify detection area (two-lane road, four-lane road, etc.). The sensor receives this data and forms from it the adapted detection range 110 shown in FIG. 2. As a result, an adaptation of the
Erfassungsbereichs an die jeweils aktive Funktion (z.B. Einparkhilfe oder Fahrgeschwindigkeitsregler) und/oder eine Anpassung an die Fahrsitualion (z.B. Straßenart) erreicht und somit die Detektionsqualität der Sensorik bei Optimierung der Ressourcen verbessert.Detection range to the respective active function (for example, parking aid or vehicle speed controller) and / or adaptation to the driving ritual (e.g., street type) achieved and thus improves the detection quality of the sensor while optimizing the resources.
Ergänzend zur Vorgabe eines Erfassungsbereich oder alternativ dazu werden von der Informationsplattfoπn Daten bezüglich wenigstens eines besonders zu betrachtenden Detektionsbereichs an den oder die Sensoren übermittelt. Diese Daten werden abgeleitet aus den Daten eines erfassten Objekts eines anderen Sensors, beispielsweise eines Radarsensors, und bestehen zum Beispiel aus den Koordinaten für den Mittelpunkt (bzw.In addition to specifying a detection range or alternatively, data is transmitted to the sensor or sensors by the information platform with respect to at least one detection area to be considered particularly. These data are derived from the data of a detected object of another sensor, for example a radar sensor, and consist, for example, of the coordinates for the center point (resp.
Schwerpunkt oder eines ausgezeichneten Punktes) dieses Detektionsbereichs und der Geschwindigkeit der Veränderung dieses Punktes samt jeweiligen Varianzwerten. Mit jedem Detektionsbereich bzw. seinen Daten ist eine eindeutige Identifikationsnummer verknüpft Durch die Beschränkung auf wenige Interessensgebiete können die Ressourcen im Sensor, vorzugsweise im Videosensor, reduziert werden und somit in sehr kurzer Zeit die wichtigsten Informationen generiert werden. Dies ist vor allem von Interesse bei zeilkritischen Funktionen, beispielsweise bei einer automalischen Notbremsung, bei der die Objektdetektion und Plausibilisierung sehr schnell erfolgen muss. Die Identifikationsnummern werden von der Informationsplattform vergeben und an den Sensor weitergegeben. Die von Sensor ermittelten Ergebnisse (z.B. „Objekt vorhanden" und/oder Objektdaten und/oder Fehlmeldung) werden mit der Identifikationsnummer an die Informationsplattform zurückgesendet. Anhand der Nummern kann also die Informationsplattform die Abarbeitung überwachen, da der Sensor bei Plausibilisierung des erkannten Objekts bzw. bei eigener Objekterkennung eine entsprechende Information unter dieser Identifikationsnummer an die Informationsplattform zurückschickt. Erst wenn die Abarbeitung erfolgt ist, wird die Identifikationsnummer von der Informationsplattform neu vergeben. Anhand dieser Rückmeldung erkennt die Informationsplattform auch eine Überlast in der Verarbeitung im Sensor, wenn innerhalb einer vorgegebenen Zeitperiode die Abarbeitung der Aufgabe nicht zurückgemeldet wurden. Im Falle der Überlast zeigt die Informationsplattform diese der aktiven Funktion an und/oder vergibt Priorisierungswerte an den Sensor bzw. passt vorhandene an, indem auf vorgegebene Aufgaben, z.B. wie oben skizziert, verzichtet wird oder diese nur noch eingeschränkt durchgeführt werden.Center of gravity or point) of this detection range and the rate of change of that point along with their respective variance values. A unique identification number is linked to each detection area or its data. By limiting it to a few areas of interest, the resources in the sensor, preferably in the video sensor, can be reduced and thus the most important information can be generated in a very short time. This is of particular interest in zeilcritical functions, for example in the case of automatic emergency braking, in which object detection and plausibility must be carried out very quickly. The identification numbers are assigned by the information platform and passed on to the sensor. The results determined by the sensor (eg "object present" and / or object data and / or false report) are sent back to the information platform with the identification number, so that the information platform can monitor the processing on the basis of the numbers, since the sensor is checked for plausibility of the detected object or with own object recognition a corresponding information under this identification number to the Information platform sends back. Only when the processing is done, the identification number is re-assigned by the information platform. On the basis of this feedback, the information platform also recognizes an overload in the processing in the sensor if the processing of the task has not been confirmed within a predetermined time period. In the event of an overload, the information platform indicates this to the active function and / or assigns prioritization values to the sensor or adapts existing ones by waiving specified tasks, eg as outlined above, or by performing them only to a limited extent.
Alternativ zur Angabe von besonderen Detektionsbereichen wird von wenigstens einem der Sensoren bzw. der Informationsplattform eine Trackingliste der Objektdaten mit Objektidentifikationsnummeπi erzeugt. Aufgrund dieser Trackingliste werden von der Informationsplattform die Daten für die Fensterung und/oder die Generierung der Detektionsbereiche vorgenommen und an den wenigstens einen anderen Sensor übertragen.As an alternative to specifying special detection areas, a tracking list of the object data with object identification number is generated by at least one of the sensors or the information platform. On the basis of this tracking list, the data for the windowing and / or the generation of the detection areas are made by the information platform and transmitted to the at least one other sensor.
In Figur 3 ist die oben skizzierte Lösung dargestellt. Das Fahrzeug 100 verfügt über ein Sensorsystem 102, welches über wenigstens einen Sensor mit dem Detektionsbereich 104 verfügt. Eingezeichnet sind die Detektionsbereiche (ROI) 112, 114, 116, welche gekennzeichnet sind durch Größen wie: Mittelpunkt (zum Beispiel 112a, 114a, 116a, optional mit Varianzenwerten und (nicht eingezeichnet) Geschwindigkeit optional mit Varianzenwerten, wobei die Varianzenwerte die Unsicherheit der ROIs ausdrücken). Die gezeigten Detektionsbereiche, die auf der Basis von erfassten Objekten eines anderen Sensors des Sensorsyslems gebildet werden, werden von der Λuswerteeinheit des betroffenen Sensors besonders häufig oder ausschließlich ausgewertet auf dasFIG. 3 shows the solution outlined above. The vehicle 100 has a sensor system 102, which has at least one sensor with the detection area 104. Plotted are the detection regions (ROI) 112, 114, 116, which are characterized by quantities such as: midpoint (eg 112a, 114a, 116a, optionally with variance values and (not shown) velocity optionally with variance values, where the variance values are the uncertainty of the ROIs express). The detection areas shown, which are formed on the basis of detected objects of another sensor of the sensor system, are evaluated by the evaluation unit of the relevant sensor particularly frequently or exclusively on the sensor
Vorhandensein und/oder die Eigenschaften von Objekten in diesen Bereichen.Presence and / or properties of objects in these areas.
Eine dritte Option zur Aufmerksamkeitssteuerung des Sensorsystems ist die Präkonditionierung wenigstens eines der Sensoren. Wenigstens einer der Sensoren des Sensorsystems übermittelt an die Informationsplattform dabei Objektdaten, die dieA third option for attention control of the sensor system is the preconditioning of at least one of the sensors. At least one of the sensors of the sensor system transmits object data to the information platform, which the
Informationsplattform in Daten für einem anderen Sensor mit anderem Erfassungsbereich umsetzt, welche insbesondere den Ort des erwarteten Eindringens des Objektes in den Erfassungsbereich des Sensors repräsentieren. Die von der Informationsplattform an diesen Sensor übermittelte Daten betreffen im bevorzugten Ausfuhrungsbeispiel den Ort, an dem das Eindringen des Objekts in den Erfassungsbereich des Sensors zu erwarten ist und gegebenenfalls ergänzend die Geschwindigkeit und/oder Bewegungsrichtung des Objekts. Dies erfolgt im bevorzugten Ausfuhrungsbeispiel im Rahmen der Übermittlung der Daten zu einem besonderen Detektionsbereich (ROI). Der Sensor wird dann auf der Basis dieser Information beispielsweise hinsichtlich der Trackinginitialisierung oder der Winkelzuordnung, sich optimal auf das neu zu deteku'erende Objekt einstellen können.Information platform in data for another sensor with other coverage area implements, which in particular represent the location of the expected intrusion of the object in the detection range of the sensor. The data transmitted by the information platform to this sensor relate in the preferred exemplary embodiment to the location at which the penetration of the object into the detection range of the sensor is to be expected and, optionally, the speed and / or direction of movement of the object. This is done in the preferred embodiment in the context of the transmission of data to a special detection area (ROI). The sensor is then the Trackinginitialisierung or the angle assignment, for example, with regard to be optimally adjusted to the newly erende to deteku 'object on the basis of this information.
Dieses Beispiel ist näher anhand Figur 4 dargestellt. Das Fahrzeug 100 weist ein Sensorsystem mit wenigstens zwei Sensoren 102 und 106 auf. Der Erfassungsbereich des Sensors 102 ist mit 104 bezeichnet, während der Sensor 106 einen breiteren Erfassungsbereich 108 mit kürzerer Reichweite aufweist. Dies ist eine typischeThis example is shown in more detail with reference to FIG. The vehicle 100 has a sensor system with at least two sensors 102 and 106. The detection range of the sensor 102 is designated 104, while the sensor 106 has a wider detection range 108 with a shorter range. This is a typical one
Fallkonstellation bei der Verwendung eines Radarsensors 102 und einer Videokamera 106. Das vom Radarsensor 102 erfasste Objekt ist mit 118 bezeichnet. Aus den Objektdaten (Ort, Geschwindigkeit, Richtung) , die vom Sensor 102 an die Informationsplattform übermittelt werden, lässt sich errechnet, ob und gegebenenfalls an welchem Ort ein Erreichen des Erfassungsbereichs 108 des Sensors 106 durch das Objekt wahrscheinlich ist. Die Informationsplattform ermittelt daher einen besonderen Detektionsbereich 120, der dem Sensor 106 mitgeteilt wird und der den Ort den vermuteten Eindringens des Objekt in den Erfassungsbereich repräsentiert. Der Sensor beobachtet dann diesen Detektionsbereich bevorzugt (oder zusammen mit den anderen mitgeteilten Detektionsbereichen ausschließlich) und kann sich daher bereits vorCase constellation when using a radar sensor 102 and a video camera 106. The detected by the radar sensor 102 object is designated 118. From the object data (location, speed, direction), which are transmitted from the sensor 102 to the information platform, it is possible to calculate whether and, if appropriate, at which location a reaching of the detection area 108 of the sensor 106 by the object is probable. The information platform therefore determines a particular detection area 120, which is communicated to the sensor 106 and which represents the location of the suspected penetration of the object into the detection area. The sensor then observes this detection area preferably (or together with the other notified detection areas exclusively) and can therefore already before
Auftreten des neu zu detektierenden Objekts auf dieses entsprechend einstellen.Set occurrence of the newly detected object accordingly.
Ergänzend hierzu werden mit den Deteklionsbereichsdaten Priorisierungsdaten übermittelt, die dem Sensor die Reihenfolge oder Häufigkeit der Abarbeitung der Bereiche vorgeben.In addition to this, prioritization data are transmitted with the detection area data, which predetermine the sequence or frequency of the processing of the areas for the sensor.
Neben der Übermittlung von Detektionsbereichsdaten von der Informationsplattform zum " Sensor werden im Gegenzug Informationen vom Sensor an die Informationsplatiform übermittelt werden, welche den Status der Abarbeitung der übermittelten besonderen Detektionsbereiche repräsentieren. Dies erfolgt durch die Angabe der abgearbeitetenIn addition to the transmission of detection area data from the information platform to the sensor, in turn, information from the sensor is transmitted to the information plat form, which represents the status of the processing of the transmitted special detection areas
Identifikationsnummern der Detektionsbereiche und gegebenenfalls mittels eines Zeitstempels der Abarbeitung zur Ermittlung eines Zeitverzugs.Identification numbers of the detection areas and optionally by means of a timestamp of the processing for determining a time delay.
Neben oder anstelle der Übermittlung von Daten bezüglich der zu detektierenden Detektionsbereiche findet ferner eine Steuerung des Arbeitsmodus einzelner Sensoren statt, beispielsweise eine Steuerung der Zykluszeit, der Verarbeitungstiefe, der Priorisierung zur Generierung unterschiedlicher Informationsanteile, etc.. Diese Modussteuerung ist abhängig vom Betriebszustand insbesondere der angeschlossenen Funktionalitäten. Ist zum Beispiel eine automatische Notbremsfunktion aktiv, so wird dies der Informationsplattform mitgeteilt, die eine Verringerung der Zykluszeit an dieIn addition to or instead of the transmission of data with respect to the detection areas to be detected, there is also a control of the operating mode of individual sensors instead, for example a control of the cycle time, the processing depth, the prioritization for the generation of different information shares, etc. This mode control is dependent on the operating state, in particular of the connected functionalities. If, for example, an automatic emergency braking function is active, this is communicated to the information platform, which reduces the cycle time to the
Sensoren übermittelt. Ist die automatische Notbremsfiinktion deaktiviert, so wird die Zykluszeit wieder verlängert. In einigen Betriebssituationen ist es sinnvoll, unvollständige Informationen früher zu erhalten. Dies ist beispielsweise dann der Fall, wenn der betroffene Sensor nur zur Plausibilisierung bereits detektierter Objekte dient. In diesem Fall kann in einer Ausführung es ausreichen, bereits dann eine Information zurückzumelden, wenn die sensorinterne Plausibilisierung für ein Objekt noch nicht vollständig abgeschlossen ist, aber ein Objekt erkannt wurde, oder wenn die Objektzustände nur teilweise bekannt sind. Eine entsprechende Steuerinformation wird von der Informationsplattform an den betroffenen Sensor übermittelt.Sensors transmitted. If the automatic emergency brake function is deactivated, the cycle time is extended again. In some operating situations it makes sense to receive incomplete information earlier. This is the case, for example, if the affected sensor only serves to check the plausibility of already detected objects. In this case, in one embodiment, it may be sufficient to provide information already if the sensor-internal plausibility check for an object is not yet completely completed, but an object has been detected, or if the object states are only partially known. A corresponding control information is transmitted from the information platform to the sensor concerned.
Weiterhin ist es möglich, die Arbeitsbereiche des Sensors zu priorisieren. So kann beispielsweise die Priorisierung zwischen Spurdetektion und Objektdetektion eines Videosensors verschoben werden, beispielsweise dann, wenn in Städten die Spurdetektion eine niedrigere Priorisierung gegenüber der Objektdetektion hat. In diesem Fall wird beispielsweise die Objektdetektion häufiger durchgeführt als die Spurdetektion.Furthermore, it is possible to prioritize the work areas of the sensor. Thus, for example, the prioritization between track detection and object detection of a video sensor can be shifted, for example, when in cities, the track detection has a lower priority over the object detection. In this case, for example, the object detection is performed more frequently than the track detection.
Dadurch wird eine optimalerer Ressourcenaύsnützung erreicht. Eine entsprechende Information über den Betriebszustand wird der Informationsplattform zugeführt (z.B. von den angeschlossenen Funktionen), die dann wiederum entsprechende Daten an den oder die betroffenen Sensoren übermittelt.This achieves optimal resource utilization. Corresponding information about the operating state is supplied to the information platform (for example, from the connected functions), which in turn transmits corresponding data to the sensor (s) concerned.
In Figur 5 ist ein Λblaufdiagramm skizziert, welches am Beispiel der Bildung und Übermittlung von Detektionsbereichsdalen die Funktionsweise der Informationsplattform verdeutlicht. Das skizzierte Programm wird in vorgegebenen Zeitintervallen durchlaufen. In einem ersten Schritt 200 werden von einem ersten Sensor, beispielsweise von einem Radarsensor, Objektdaten empfangen. Diese Objektdaten umfassen Daten bezüglich detektierter Objekte wie Ort des Objekts (beispielsweise Winkelbeziehungen oder Koordinaten), die Relativgeschwindigkeit oder Absolutgeschwindigkeit des Objekts, der Abstand zu dem Objekt, seine Bewegungsrichtung, etc.. Im bevorzugten Ausfuhrungsbeispiel werden für verschiedene delektierte Objekte die entsprechenden Daten als Liste übermittelt. Daraufhin werden im Schritt 202 auf der Basis der erfassten Objektdaten Detektionsbereiche (ROI) gebildet. Beispielsweise wird der Ort des detektierten Objektes mit Variantenwerten bewertet und auf diese Weise ein Detektionsbereich aufgespannt. Sind die Bezugssysteme der einzelnen Sensoren und / oder der Informationsplattform unterschiedlich, so müssen die Daten selbstverständlich in die entsprechenden Bezugssysteme transformiert werden.FIG. 5 outlines a flowchart which illustrates the mode of operation of the information platform using the example of the formation and transmission of detection area scales. The sketched program is run through at predetermined time intervals. In a first step 200, object data is received by a first sensor, for example by a radar sensor. These object data include data relating to detected objects such as location of the object (for example angular relationships or coordinates), the relative velocity or absolute velocity of the object, the distance to the object, its direction of movement, etc. In the preferred embodiment, for various objects detected, the corresponding data becomes a list transmitted. Thereupon, in step 202, on the basis of the detected Object data detection areas (ROI) formed. For example, the location of the detected object is evaluated with variant values and in this way a detection area is spanned. If the reference systems of the individual sensors and / or the information platform are different, the data must of course be transformed into the corresponding reference systems.
Eine andere Möglichkeit ist, nicht nur den Mittelpunkt des detektierten Objektes als Basis für die Berechnung des Detektionsbereichs heranzuziehen, sondern auch die Geschwindigkeit des Objektes, wobei bei größerer Geschwindigkeit des Objektes ein größerer Detektionsbereich abzustecken ist, der zudem in einer Ausführung entsprechend der Bewegungsrichtung des Objekt derart angepasst wird, dass er in Bewegungsrichtung größer ist als zur Seite oder nach hinten.Another possibility is to use not only the center of the detected object as the basis for the calculation of the detection area, but also the speed of the object, wherein at greater speed of the object, a larger detection area is staked, which also in an embodiment according to the direction of movement of the object is adjusted so that it is greater in the direction of movement than to the side or to the rear.
Danach werden im Schritt 204 Identifikationsnummern den einzelnen Detektionsbereichen zugeordnet. Femer wird in einer Ausführung im Schritt 206 jederThereafter, in step 204, identification numbers are assigned to the individual detection areas. Further, in one embodiment at step 206, each one
Detektionsbereich mit Prioritätswerten versehen. Im bevorzugten Ausführungsbeispiel ist der Detektionsbereich mit höchster Priorität zu behandeln, der ein Objekt repräsentiert, welches dem Fahrzeug am nächsten steht. Im darauffolgenden Schritt 208 werden die Daten zu den Detektionsbereichen an einen anderen Sensor, beispielsweise den Videosensor, übertragen, der die Aufgabe der Objektdetektion in den besonderenDetection area provided with priority values. In the preferred embodiment, the highest priority detection area is to be treated, representing an object closest to the vehicle. In the next step 208, the data to the detection areas to another sensor, such as the video sensor, transmitted, the object of the object detection in the particular
Detektionsbereichen ausführt. DieΑbarbeitung meldet der Videosensorik gegebenenfalls mit einem Zeitstempel an die Informationsplattform zurück, ebenso das Ergebnis, beispielsweise ob ein vom Radarsensor detektiertes Objekt plausibilisiert werden konnte oder nicht. Im ersteren Fall wird die Information an die nachfolgenden Funktionalitäten weitergegeben, im anderen Fall verworfen. Performs detection areas. The processing reports back to the information platform, if necessary, with a time stamp, as does the result, for example, whether an object detected by the radar sensor could be made plausible or not. In the former case, the information is passed on to the following functionalities, in the other case discarded.

Claims

Ansprüche claims
1. Verfahren zum Betreiben eines Sensorsystems, wobei eine Verarbeitungseinheit über wenigstens eine Kommunikationsverbindung Daten von wenigstens einem der Sensoren erhält und Daten an wenigstens einen der Sensoren sendet, dadurch gekennzeichnet, dass die Verarbeitungseinheit an wenigstens einen der Sensoren desA method of operating a sensor system, wherein a processing unit receives data from at least one of the sensors via at least one communication link and sends data to at least one of the sensors, characterized in that the processing unit connects to at least one of the sensors of the
Sensorsystems Daten, die wenigstens einen Erfassungs- und/oder Detektionsbereich des Sensors repräsentieren, und / oder Steuerdaten zur Steuerung des Modus des Sensors übermittelt.Sensor system data representing at least one detection and / or detection range of the sensor, and / or transmitted control data for controlling the mode of the sensor.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die an die2. The method according to claim 1, characterized in that the to the
Verarbeitungseinheit übermittelten Sensordaten zur Charakterisierung eines detektierten Objekts repräsentieren.Represent processing unit transmitted sensor data for characterizing a detected object.
3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die von der Verarbeitungseinheit an den Sensor übermittelten Daten die Größe und/oder Ausrichtung des Erfassungsbereichs des Sensors und / oder wenigstens einen bevorzugten Detektionsbereich innerhalb des Erfassungsbereichs repräsentieren.3. The method according to any one of the preceding claims, characterized in that the data transmitted by the processing unit to the sensor data representing the size and / or orientation of the detection range of the sensor and / or at least one preferred detection range within the detection range.
4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Detektionsbereiche wenigstens durch ihren Mittelpunkt charakterisiert sind.4. The method according to any one of the preceding claims, characterized in that the detection areas are characterized at least by its center.
5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mit den Daten des Detektionsbereichs Identifikationsnummern und / oder Priorisierungsdaten übermittelt werden. 5. The method according to any one of the preceding claims, characterized in that the data of the detection area identification numbers and / or prioritization data are transmitted.
6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Verarbeitungseinheit Informationen bezüglich des Betriebszustandes des Fahrzeugs erhält und an wenigstens einen Sensor Steuerdaten übermittelt, die den Sensor an die Betriebssituation des Fahrzeugs anpassen.6. The method according to any one of the preceding claims, characterized in that the processing unit receives information relating to the operating state of the vehicle and transmitted to at least one sensor control data, which adapt the sensor to the operating situation of the vehicle.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die erhaltenen Informationen die erwartete Fahrstreifenmarkierung repräsentieren und/oder den Straßentyp (Autobahn, Stadt, kurvenreichen Straße, etc.) repräsentiert.7. The method according to claim 6, characterized in that the information obtained represent the expected lane marking and / or the type of road (highway, city, winding road, etc.).
8. Verfahren nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass die Steuerdaten eine Veränderung der Zykluszeit des Sensors, eine Anpassung der Erkennungsschwellen, eine Anpassung des Modells zur Fahrbahnranderkennung, eine Abschaltung von Teilfunktionen, etc. umfassen.8. The method of claim 6 or 7, characterized in that the control data include a change in the cycle time of the sensor, an adaptation of the detection thresholds, an adaptation of the model for lane boundary detection, a shutdown of sub-functions, etc.
9. Vorrichtung zum Betreiben eines Sensorsystems, mit einer Verarbeitungseinheit, welche wenigstens eine Kommunikationsverbindung an wenigstens einen Sensor des Sensorsystems angebunden ist, dadurch gekennzeichnet, dass die Verarbeitungseinheit Mittel umfasst, welche an wenigstens einen Sensor des Sensorsystems Daten übermitteln, die wenigstens einen Erfassungs- und/oder9. An apparatus for operating a sensor system, comprising a processing unit, which is connected to at least one sensor sensor of the sensor system, characterized in that the processing unit comprises means for transmitting data to at least one sensor of the sensor system, the at least one detection and /or
Detektronsbereich des Sensors und / oder Steuerdaten zur Steuerung des Modus des Sensors repräsentieren. Detektronsbereich the sensor and / or control data for controlling the mode of the sensor represent.
EP05768003A 2004-08-07 2005-06-14 Method and device for operating a sensor system Ceased EP1776602A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102004038494A DE102004038494A1 (en) 2004-08-07 2004-08-07 Method and device for operating a sensor system
PCT/EP2005/052728 WO2006015894A1 (en) 2004-08-07 2005-06-14 Method and device for operating a sensor system

Publications (1)

Publication Number Publication Date
EP1776602A1 true EP1776602A1 (en) 2007-04-25

Family

ID=35206616

Family Applications (1)

Application Number Title Priority Date Filing Date
EP05768003A Ceased EP1776602A1 (en) 2004-08-07 2005-06-14 Method and device for operating a sensor system

Country Status (5)

Country Link
US (1) US8193920B2 (en)
EP (1) EP1776602A1 (en)
JP (1) JP4814234B2 (en)
DE (1) DE102004038494A1 (en)
WO (1) WO2006015894A1 (en)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004038494A1 (en) 2004-08-07 2006-03-16 Robert Bosch Gmbh Method and device for operating a sensor system
US20100007728A1 (en) * 2006-10-13 2010-01-14 Continental Teves Ag & Co., Ohg System for Determining Objects
DE102006052779A1 (en) * 2006-11-09 2008-05-15 Bayerische Motoren Werke Ag Method for generating an overall image of the surroundings of a motor vehicle
DE102007002197A1 (en) * 2007-01-16 2008-07-17 Siemens Ag Common controller for different driver assistance systems
DE102007018470A1 (en) * 2007-04-19 2008-10-23 Robert Bosch Gmbh Driver assistance system and method for object plausibility
FI120605B (en) * 2008-02-28 2009-12-15 Elsi Technologies Oy A method and system for detecting events
AT10236U3 (en) 2008-07-10 2009-09-15 Avl List Gmbh MEASURING ARRANGEMENT AND METHOD FOR DETECTING MEASUREMENT DATA
US8473171B2 (en) * 2008-10-09 2013-06-25 GM Global Technology Operations LLC Apparatus and method for optimizing a vehicle collision preparation response
DE102009009896B4 (en) 2009-02-20 2011-02-10 Eads Deutschland Gmbh Method and device for detecting target objects
DE102009021785B4 (en) * 2009-05-18 2014-10-09 Airbus Defence and Space GmbH Method for object recognition
ATE545045T1 (en) 2009-12-17 2012-02-15 Sick Ag OPTOELECTRONIC SENSOR
AU2011207141B2 (en) * 2010-01-22 2013-10-03 Erema Engineering Recycling Maschinen Und Anlagen Gesellschaft M.B.H. Method for preparing and detoxifying
DE102010063984A1 (en) * 2010-02-11 2011-08-11 Continental Teves AG & Co. OHG, 60488 Vehicle sensor node
DE102010015731A1 (en) * 2010-04-21 2011-10-27 Audi Ag Method for controlling a headlamp system of a motor vehicle and motor vehicle
EP2586020B1 (en) 2010-06-23 2018-05-09 Continental Teves AG & Co. oHG Method and system for information validation
FR2973847B1 (en) 2011-04-11 2015-10-30 Pellenc Sa AIR FLOW GENERATOR PROPELLER, ESPECIALLY FOR PORTABLE BLOWER.
DE102012104742A1 (en) * 2012-06-01 2013-12-05 Continental Safety Engineering International Gmbh Method and device for object detection
JP2014006114A (en) * 2012-06-22 2014-01-16 Denso Corp Radar system and program
US9720412B1 (en) 2012-09-27 2017-08-01 Waymo Llc Modifying the behavior of an autonomous vehicle using context based parameter switching
DE102013201545A1 (en) * 2013-01-30 2014-07-31 Bayerische Motoren Werke Aktiengesellschaft Create an environment model for a vehicle
JP6212880B2 (en) * 2013-03-04 2017-10-18 株式会社デンソー Target recognition device
US9696420B2 (en) * 2013-04-09 2017-07-04 Ford Global Technologies, Llc Active park assist object detection
DE102013219095A1 (en) * 2013-09-23 2015-03-26 Hella Kgaa Hueck & Co. Method for controlling a light distribution of a headlight and headlights therefor
US9387867B2 (en) * 2013-12-19 2016-07-12 Thales Canada Inc Fusion sensor arrangement for guideway mounted vehicle and method of using the same
KR101727162B1 (en) * 2014-02-27 2017-04-14 한국전자통신연구원 Apparatus and method for providing vessel traffic service
DE102014107305A1 (en) * 2014-05-23 2015-11-26 Valeo Schalter Und Sensoren Gmbh Parking assistance device for a motor vehicle
KR101621857B1 (en) 2014-06-26 2016-05-17 주식회사 사람과기술 Intelligent jamming prevention system of vehicle for school children and operation method
DE102014009869A1 (en) * 2014-07-03 2016-01-21 Audi Ag Method for operating a radar sensor in a motor vehicle and motor vehicle
US10634778B2 (en) * 2014-10-21 2020-04-28 Texas Instruments Incorporated Camera assisted tracking of objects in a radar system
DE102015011022B4 (en) * 2015-08-22 2019-11-28 Audi Ag Method for operating radar sensors in a motor vehicle and motor vehicle
US11255663B2 (en) 2016-03-04 2022-02-22 May Patents Ltd. Method and apparatus for cooperative usage of multiple distance meters
US20170307743A1 (en) * 2016-04-22 2017-10-26 Delphi Technologies, Inc. Prioritized Sensor Data Processing Using Map Information For Automated Vehicles
DE102017205495A1 (en) * 2017-03-31 2018-10-04 Conti Temic Microelectronic Gmbh Device and method for focusing sensors in the driving dynamic limit range for a motor vehicle
JP2019020351A (en) * 2017-07-21 2019-02-07 株式会社Soken Target recognition device, vehicle control device equipped with target recognition device, and target recognition method
KR102390208B1 (en) * 2017-10-17 2022-04-25 삼성전자주식회사 Method and apparatus for delivering multimedia data
US10848718B2 (en) 2018-03-08 2020-11-24 Aptiv Technologies Limited Vehicle sensor configuration based on map data
DE102018107360A1 (en) * 2018-03-28 2019-10-02 Connaught Electronics Ltd. Method for sending sensor information to functional units, control device, control device arrangement, driver assistance system and motor vehicle
US11994581B2 (en) * 2018-06-29 2024-05-28 Sony Semiconductor Solutions Corporation Information processing device and information processing method, imaging device, computer program, information processing system, and moving body device
JP7374098B2 (en) * 2018-08-09 2023-11-06 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, computer program, information processing system, and mobile device
WO2020100569A1 (en) * 2018-11-14 2020-05-22 ソニー株式会社 Control device, control method, and sensor control system
DE102018130916A1 (en) * 2018-12-05 2020-06-10 Valeo Schalter Und Sensoren Gmbh Method for the prioritized transmission of recorded information from a sensor of a motor vehicle to a control unit of the motor vehicle, sensor, driver assistance system and motor vehicle
EP3751294B8 (en) * 2019-06-14 2023-09-13 Rohde & Schwarz GmbH & Co. KG Device and method for synchronization of sensors
DE102019123855A1 (en) * 2019-09-05 2021-03-11 Valeo Schalter Und Sensoren Gmbh Distance warning and electronic vehicle system
CN112578781B (en) * 2019-09-29 2022-12-30 华为技术有限公司 Data processing method, device, chip system and medium
JP2023046417A (en) * 2020-02-27 2023-04-05 ソニーセミコンダクタソリューションズ株式会社 Object recognition system and object recognition method
WO2021181841A1 (en) * 2020-03-11 2021-09-16 パナソニックIpマネジメント株式会社 Distance measuring device
CN113715753A (en) * 2020-05-25 2021-11-30 华为技术有限公司 Method and system for processing vehicle sensor data

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10254806A1 (en) * 2002-11-22 2004-06-17 Robert Bosch Gmbh Motor vehicle data processing method in which data or information derived from at least two sources are combined to provide a prediction relating to the type of road being traveled on or the course of the road
WO2004055547A1 (en) * 2002-12-13 2004-07-01 Robert Bosch Gmbh Method and device for object detection

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04355390A (en) * 1991-06-03 1992-12-09 Nissan Motor Co Ltd Distance measuring apparatus
JP3123303B2 (en) * 1992-07-21 2001-01-09 日産自動車株式会社 Vehicle image processing device
JP3302848B2 (en) * 1994-11-17 2002-07-15 本田技研工業株式会社 In-vehicle radar device
JP3600314B2 (en) * 1995-05-19 2004-12-15 本田技研工業株式会社 External environment recognition device for vehicles
JPH09231379A (en) * 1996-02-28 1997-09-05 Hitachi Ltd Device for recognizing traveling lane by picture processing
JPH09264954A (en) 1996-03-29 1997-10-07 Fujitsu Ten Ltd Image processing system using radar
JPH1090406A (en) 1996-09-13 1998-04-10 Omron Corp Alarm device
JPH10244891A (en) * 1997-03-07 1998-09-14 Nissan Motor Co Ltd Parking auxiliary device
GB2328819A (en) 1997-08-30 1999-03-03 Ford Motor Co Antenna cluster for vehicle collision warning system
US6289332B2 (en) * 1999-02-26 2001-09-11 Freightliner Corporation Integrated message display system for a vehicle
JP4563531B2 (en) * 1999-10-13 2010-10-13 富士重工業株式会社 Vehicle driving support device
JP3891537B2 (en) 2000-05-09 2007-03-14 株式会社ホンダエレシス Vehicle side monitoring device
JP3671825B2 (en) * 2000-09-22 2005-07-13 日産自動車株式会社 Inter-vehicle distance estimation device
DE10114470A1 (en) * 2001-03-24 2002-09-26 Bosch Gmbh Robert Motor vehicle lane maintenance and speed regulation device has steering controller switched to standby state by independent main switch, activated by same switch-on signal as speed regulator
GB0115433D0 (en) * 2001-06-23 2001-08-15 Lucas Industries Ltd An object location system for a road vehicle
EP1321776B1 (en) * 2001-12-18 2005-08-24 Hitachi, Ltd. Monopulse radar system with adjustment of beam width
JP2003248055A (en) 2001-12-18 2003-09-05 Hitachi Ltd Monopulse radar system
JP3891011B2 (en) * 2002-03-12 2007-03-07 株式会社デンソー Cruise control device, program
JP2004117071A (en) * 2002-09-24 2004-04-15 Fuji Heavy Ind Ltd Vehicle surroundings monitoring apparatus and traveling control system incorporating the same
DE102004038494A1 (en) 2004-08-07 2006-03-16 Robert Bosch Gmbh Method and device for operating a sensor system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10254806A1 (en) * 2002-11-22 2004-06-17 Robert Bosch Gmbh Motor vehicle data processing method in which data or information derived from at least two sources are combined to provide a prediction relating to the type of road being traveled on or the course of the road
WO2004055547A1 (en) * 2002-12-13 2004-07-01 Robert Bosch Gmbh Method and device for object detection

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of WO2006015894A1 *

Also Published As

Publication number Publication date
JP4814234B2 (en) 2011-11-16
WO2006015894A1 (en) 2006-02-16
US8193920B2 (en) 2012-06-05
US20100007476A1 (en) 2010-01-14
DE102004038494A1 (en) 2006-03-16
JP2008509413A (en) 2008-03-27

Similar Documents

Publication Publication Date Title
WO2006015894A1 (en) Method and device for operating a sensor system
DE102017114495B4 (en) AUTONOMOUS DRIVING SYSTEM
EP2242674B1 (en) Method and assistance system for detecting objects in the surrounding area of a vehicle
DE102019104974A1 (en) Method and system for determining a driving maneuver
DE102018218220A1 (en) Control device for a vehicle
EP4025470A1 (en) Lateral control of a vehicle by means of environment data detected from other vehicles
DE102018220724A1 (en) Vehicle and control procedures of the same
WO2013007536A2 (en) Method and communication system for data reception in wireless vehicle-to-surroundings communication
WO2006037687A1 (en) Driver assisting method and device
DE102010049091A1 (en) Method for operating at least one sensor of a vehicle and vehicle with at least one sensor
DE102016218934A1 (en) Method for data exchange and data fusion of environmental data
DE102018133457B4 (en) Method and system for providing environmental data
WO2003105108A1 (en) Method and device for driver information and to react to leaving the lane
DE102012207864A1 (en) Method for reducing a risk of stowage
DE102008063033B4 (en) Device and method for detecting collisions with increased functional safety
DE102004057060A1 (en) Drive assistance device for detecting vehicle, has unit for detecting lane and for localizing of objects in surroundings of motor vehicle, and unit operable by evaluating device and for displaying of warning signals
DE102018121312A1 (en) Method for partially automated operation of a vehicle and driver assistance system
DE102010003375B4 (en) Environment evaluation system in a vehicle with sensor means for detecting objects in the vicinity of the vehicle
DE102013002284B4 (en) Procedure for the active collision protection of a non-motorized road user
WO2019223833A1 (en) Control of a motor vehicle
DE10238215A1 (en) Method and device for driver information or for reacting when leaving the lane
DE102019206870A1 (en) Method for determining a hazard caused by a road user and for initiating monitoring of the road user and control device
DE102020213588A1 (en) Method and device for operating an automated vehicle
DE102018215136B4 (en) Method for selecting an image section of a sensor
DE102019218078A1 (en) Determination of a situation in the environment of a motor vehicle

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20070307

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): DE FR GB

17Q First examination report despatched

Effective date: 20070620

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

DAX Request for extension of the european patent (deleted)
RBV Designated contracting states (corrected)

Designated state(s): DE FR GB

APBK Appeal reference recorded

Free format text: ORIGINAL CODE: EPIDOSNREFNE

APBN Date of receipt of notice of appeal recorded

Free format text: ORIGINAL CODE: EPIDOSNNOA2E

APBR Date of receipt of statement of grounds of appeal recorded

Free format text: ORIGINAL CODE: EPIDOSNNOA3E

APAF Appeal reference modified

Free format text: ORIGINAL CODE: EPIDOSCREFNE

APBT Appeal procedure closed

Free format text: ORIGINAL CODE: EPIDOSNNOA9E

REG Reference to a national code

Ref country code: DE

Ref legal event code: R003

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: ROBERT BOSCH GMBH

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN REFUSED

18R Application refused

Effective date: 20190726