DE102004038494A1 - Verfahren und Vorrichtung zum Betreiben eines Sensorsystems - Google Patents

Verfahren und Vorrichtung zum Betreiben eines Sensorsystems Download PDF

Info

Publication number
DE102004038494A1
DE102004038494A1 DE102004038494A DE102004038494A DE102004038494A1 DE 102004038494 A1 DE102004038494 A1 DE 102004038494A1 DE 102004038494 A DE102004038494 A DE 102004038494A DE 102004038494 A DE102004038494 A DE 102004038494A DE 102004038494 A1 DE102004038494 A1 DE 102004038494A1
Authority
DE
Germany
Prior art keywords
sensor
data
detection
processing unit
sensors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102004038494A
Other languages
English (en)
Inventor
Albrecht Klotz
Jan Sparbert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102004038494A priority Critical patent/DE102004038494A1/de
Priority to US11/658,616 priority patent/US8193920B2/en
Priority to JP2007525271A priority patent/JP4814234B2/ja
Priority to EP05768003A priority patent/EP1776602A1/de
Priority to PCT/EP2005/052728 priority patent/WO2006015894A1/de
Publication of DE102004038494A1 publication Critical patent/DE102004038494A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9321Velocity regulation, e.g. cruise control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9322Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using additional data, e.g. driver condition, road state or weather data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Es wird ein Verfahren und eine Vorrichtung zum Betreiben eines Sensorsystems vorgeschlagen, wobei eine Verarbeitungseinheit mit wenigstens einem Sensor des Sensorsystems über Kommunikationsverbindungen in Verbindung steht und die Verarbeitungseinheit an wenigstens einen der Sensorenn Daten übermittelt, welche die wenigstens einen Erfassungs- und/oder Detektionsbereich des Sensors und/oder Steuerdaten zur Steuerung des Modus des Sensors repräsentieren.

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Betreiben eines Sensorsystems, welches vorzugsweise wenigstens zwei Sensoren umfasst, die voneinander verschieden sind.
  • Die DE 101 33 945 A1 zeigt ein Verfahren und eine Vorrichtung zum Betreiben eines Sensorsystems. Dabei kommunizieren Sensoren des Sensorsystems, welche vorzugsweise in verschiedenen Sensortechnologien (Radar, Video, Ultraschall, etc.) ausgeführt sind, mit einer Verarbeitungseinheit (Sensordatenfusionseinheit oder Informationsplattform). Die Sensoren übermitteln Sensordaten, d.h. Ergebnisse des Messvorgangs der Sensoren, zur Verarbeitungseinheit, die dort weiterverarbeitet und an wenigstens eine, vorzugsweise mehrere Funktionalitäten weitergeleitet werden. Ferner findet auch ein Datenaustausch von der Verarbeitungseinheit zu den Sensoren statt. Diese Rückmeldedaten werden zur Aufmerksamkeitssteuerung und/oder Präkonditionierung der einzelnen Sensoren verwendet. Beispielsweise werden zur Identifizierung von detektierten Objekten Identifikationsdaten ausgetauscht, insbesondere von der Verarbeitungseinheit zu wenigstens einem Sensor gesendet.
  • Vorteile der Erfindung
  • Die Übertragung von Informationen von der Verarbeitungseinheit zur Sensoreinrichtung, welche eine Angabe wenigstens eines zu detektierenden Bereichs (insbesondere Raumbereichs) und/oder wenigstens eines einzuschaltenden Betriebsmodus der betroffenen Sensoreinrichtung repräsentieren, wird eine Verbesserung der Detektionsleistung und der Detektionsqualität der beteiligten Sensoreinrichtung erreicht. Betriebsmodus und Detektionsumfang wird auf die abzuarbeitende Aufgabe optimiert. Damit steigt auch die Qualität der Informationen, die von der Verarbeitungseinheit (Informationsplattform) weitergegeben werden.
  • Besonders vorteilhaft ist, dass eine optimale Nutzung der Ressourcen der Sensoren und eine Beeinflussung der sensorinternen Informationsgewinnungsprozesse erreicht wird.
  • Von besonderer Bedeutung ist, dass die Informationsplattform ein deutlich verbreitertes Spektrum an Informationsnutzern, beispielsweise Funktionen wie automatische Notbremssysteme, adaptive Fahrgeschwindigkeitsregelsysteme, etc., mit sehr unterschiedlichen Anforderungen bedienen kann.
  • Wie oben beschrieben wird eine gezielte Vermittlung von Informationen zwischen den vorhandenen Sensoren und eine situationsabhängige Sensorsteuerung bereitgestellt. Die Informationen zwischen den Sensoren werden dabei wie im Stand der Technik über eine zentrale Verarbeitungseinheit (Informationsplattform) übertragen, die zusätzlich die Sensorsteuerung auf der Basis einer in der Verarbeitungseinheit enthaltenen oder der Verarbeitungseinheit zugeführten Situationserfassung und – beschreibung übernimmt. In vorteilhafter Weise sind die von der Verarbeitungseinheit zu den Sensoren übertragenen Informationen sensorunabhängig abgebildet. Im Sensor werden diese Informationen dann in sensorspezifische Daten umgesetzt.
  • Die von der Verarbeitungseinheit an die Sensoren übermittelten Informationen sind dabei wenigstens eine der folgenden Informationen:
    • – für wesentliche Betriebszustände eine Angabe des insbesondere räumlichen Erfassungsbereichs (Fensterung), beispielsweise eine Einschränkung des räumlichen Erfassungsbereichs bzw. eine Fensterung der Objektdaten anhand wenigstens eines Kriteriums wie z.B. Geschwindigkeit, Position, Winkelablage, etc.;
    • – eine Angabe, welchen wenigstens einen besonders zu beobachteten Detektionsbereich (Region of Interest) repräsentiert, der vorzugsweise wesentlich kleiner als die oben erwähnte Fensterung ist;
    • – Priorisierungs- und/ oder Identifikationsangeben für diese Detektionsbereiche;
    • – eine Trackingliste mit Identitätsmarkern von besonders zu beobachtenden Objekten;
    • – Informationen bezüglich des Zustandes von Objekten (z.B. Ort des Eintreffens in den Erfassungs- und/oder Detektionsbereichs, Geschwindigkeit, Größe, Art, etc.), die potenziell neu vom Sensor detektiert werden und aus Vorhersagen der Objektveränderung herrühren;
  • Durch diese Maßnahmen wird eine gezielte Steuerung des Sensors und damit ein optimierter Einsatz der Sensorressourcen erreicht.
  • Ergänzend oder alternativ hierzu übermittelt die Verarbeitungseinheit an die Sensoren Steuerdaten für die Einstellung eines Sensormodus. Darunter werden sensorspezifische und sensorunspezifische Möglichkeiten zur Veränderung des Informationsgehaltes der vom Sensor gelieferten Informationen verstanden. Derartige Möglichkeiten sind beispielsweise die Sensorzykluszeit, die Qualitätsschwelle der zu liefernden Informationen, die Art der Informationen, die technologische Methodik der Informationsgewinnung, eine Priorisierung zwischen verschiedenen Informationen eines Sensors, etc. Auch dies trägt zu einer Verbesserung der Detektionsleistung und einer angepassten Detektionsqualität der Sensoren bei durch eine optimale Nutzung der Sensorressourcen und der Beeinflussung der sensorinternen Informationsgewinnungsprozesse.
  • Weitere Vorteile ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen bzw. aus den abhängigen Patenansprüchen.
  • Zeichnung
  • Die Erfindung wird nachstehend anhand der in der Zeichnung dargestellten Ausführungsformen näher erläutert. 1 zeigt dabei ein Übersichtsbild eines Sensorsystems mit einer das Sensorsystem steuernden Verarbeitungseinheit (Informationsplattform). In den 2 bis 4 sind schematisch die Wirkung der erfindungsgemäßen Vorgehensweise dargestellt, während in 5 anhand eines Ablaufdiagramms ein Beispiel für eine konkrete Ausführung eines in der Verarbeitungseinheit ablaufenden Programms zur Sensorsteuerung dargestellt ist.
  • Beschreibung von Ausführungsbeispielen
  • In 1 ist ein Übersichtsbild eines Sensorsystems dargestellt, welches an eine Verarbeitungseinheit Sensorsignale schickt und von dieser Informationen zur Steuerung der Sensoren empfängt. Das Sensorsystem umfasst dabei mehrere, wenigstens zwei Sensoren (S1 bis SN). Im bevorzugten Ausführungsbeispiel sind die Sensoren Sensoren zur Umfelderfassung eines Fahrzeugs, z.B. Ultraschallsensoren, Radarsensoren, Videosensoren, etc. Diese Sensoren sind über vorzugsweise bidirektionale Kommunikationsverbindungen 10-18 mit einer Verarbeitungseinheit (Informationsplattform, IP) verbunden. Im bevorzugten Ausführungsbeispiel handelt es sich bei den Kommunikationssystemen um ein Bussystem, beispielsweise CAN, welches die Sensoren und die Verarbeitungseinheit zum gegenseitigen Datenaustausch miteinander verbindet. Im bevorzugten Ausführungsbeispiel ist die Verarbeitungseinheit Teil einer Steuereinheit SE. Dabei wird die Verarbeitungseinrichtung durch ein oder mehrere Softwaremodule realisiert, die auf einem oder mehreren Mikrocomputern der Steuereinheit SE ablaufen. In einer Ausführung werden der Informationsplattform Daten anderen Sensorsysteme 20-24 über entsprechende Kommunikationsverbindungen 26-30 zugeführt, z.B. um der Informationsplattform Betriebsgrößen wie z.B. die Eigengeschwindigkeit zuzuführen, die nicht vom Sensorsystem S1 bis SN erfasst werden. Diese Betriebsgrößen dienen der Informationsplattform ggf. dazu, bei der Bildung von Informations- und/oder Steuergrößen für das Sensorsystem S1 bis SN berücksichtigt zu werden. Ferner ermittelt die Informationsplattform Größen für verschiedene (wenigstens zwei) Funktionalitäten, welche in 1 mit F1 bis FN angedeutet sind. Diese Funktionalitäten betreffen Funktionen wie eine automatische Notbremsung, ein adaptiver Fahrgeschwindigkeitsregler, eine Einparkhilfe, ein Spurverlassenswarner, etc. Da das gezeigte System vorzugsweise im Rahmen der Objekterkennung für die beispielhaft genannten Funktionalitäten verwendet wird, sind die von der Informationsplattform an die Funktionalitäten übermittelten Daten im bevorzugten Ausführungsbeispiel aus den Sensordaten fusionierte Objektdaten, die von den Funktionalitäten dann entsprechend ihrer Funktion ausgewertet werden. Die Funktionen F1 bis FN steuern Aktuatoren, beispielsweise Warnelemente, Bremssysteme, etc. an, was am Beispiel der Funktion F1 in 1 angedeutet ist. Die Datenverbindung zwischen der Informationsplattform und den verschiedenen Funktionen findet im bevorzugten Ausführungsbeispiel ebenfalls über ein Bussystem, beispielsweise ein CAN – Bussystem, statt. Darüber hinaus ist der Datenaustausch in einem bevorzugten Ausführungsbeispiel bidirektional, wobei von den Funktionen zur Informationsplattform beispielsweise Daten hinsichtlich des Aktivierungszustandes der Funktion übermittelt werden.
  • In einer bevorzugten Anwendung wird ein aus zwei Sensoren bestehendes Sensorsystem eingesetzt, welche Objektdaten aus der Umgebung eines Kraftfahrzeugs erfassen. Das bevorzugte Anwendungsbeispiel enthält zwei unterschiedliche Sensoren und zwei in ihren Anforderungen gegenüber der Verarbeitungseinheit (Informationsplattform) unterschiedliche Funktionen. Im bevorzugten Ausführungsbeispiel werden als Sensoren eine Monovideokamera und wenigstens ein Radarsensor verwendet, vorzugsweise mit einem gemeinsamen (überlappenden) oder aneinander angrenzenden Erfassungsbereichen. Auf der Basis der von diesen Sensoren ermittelten Daten werden verschiedene, in Abhängigkeit von den erfassten Objekten und deren Charakteristiken arbeitenden Funktionen des Kraftfahrzeugs wie ein automatisches Notbremssystem und ein adaptiver Fahrgeschwindigkeitsregler gesteuert. Objektdaten außerhalb dieser Grenzen werden verworfen.
  • Zunächst wird in einem Ausführungsbeispiel wenigstens einem der Sensoren sein Erfassungsbereich vorgegebenen, z.B. durch Vorgabe von einer maximalen Reichweite und/oder maximalen Winkeln. Die Informationsplattform legt diese Werte in Abhängigkeit davon fest, welche Funktion zu unterstützen ist. So wird z.B. bei aktivem adaptivem Fahrgeschwindigkeitsregler eine vergleichsweise große Reichweite mit kleinen Winkeln vorgegeben, während bei aktiver Einparkhilfe die Werte für den Erfassungsbereich entgegengesetzt vorgegeben werden.
  • Die Kombination eines Monovideosensors mit einem Radarsensor verbessert insbesondere die Plausibilisierung der erfassten Objekte. Die Plausibilisierung findet mittels der Informationsplattform statt. Zu diesem Zweck werden die Detektionsdaten des Radarsensors (beispielsweise Geschwindigkeit, Winkel und/oder Abstand zu dem erfassten Objekt) der Informationsplattform zugeführt. Diese bildet aus den Objektdaten des Radarsensors eine Liste von Detektionsbereichen (Region of Interest, ROI), die gegebenenfalls mit unterschiedlichen Prioritätswerten versehen sind. Diese Liste der Detektionsbereiche wird an den Videosensor übermittelt. Die Daten umfassen dabei beispielsweise Koordinaten eines ausgezeichneten Punktes (z.B. Mittelpunkt oder Schwerpunkt) und die Ausdehnung des Detektionsbereichs und/oder der Geschwindigkeit des Punkts. Ferner wird eine Identifikationsnummer und gegebenenfalls eine Prioritäteneinstufung der Detektionsbereiche übermittelt. Der Videosensor empfängt diese Liste und arbeitet die in der Liste enthaltenen Bereiche in der vorgegebenen Prioritätsreihenfolge ab. Im bevorzugten Ausführungsbeispiel analysiert der Videosensor bzw. seine Auswerteeinheit das aufgenommene Bild in den übermittelten Detektionsbereiche zur Objekterkennung. Je nach Ausführung arbeiteten dabei alle Sensoren mit demselben Koordinatensystem oder ein findet eine Transformation von dem Koordinatensystem des Radarsensors zu dem des Videosensors und umgekehrt vorzugsweise in der Informationsplattform statt. Ergibt die Bildanalyse des Videosensors in dem oder den übermittelten Bereichen ein bzw. mehrere Objekte, so werden die Daten bzw. die Information gegebenenfalls zusammen mit der Identifikationsnummer an die Informationsplattform übermittelt und dort das vom Radarsensor ermittelte Objekt (bzw. die ermittelten Objekte) plausibilisiert. Erkennt der Videosensor in dem übermittelten Detektionsbereich kein Objekt, so ist davon auszugehen, dass das vom Radarsensor erfasste Objekt ein Scheinziel ist. Nach der Plausibilisierung gefestigt erkannte Objekte werden von der Informationsplattform weiterverarbeitet, z.B. die Objektdaten oder daraus abgeleitete Informationen an die angeschlossenen Funktionen übermittelt.
  • Die oben skizzierte Plausibilisierung findet vorzugsweise in der Informationsplattform statt, kann aber auch Bestandteil der Software des Videosensors sein. Zur Objekterfassung verwendet der Videosensor bekannte Vorgehensweisen.
  • Ferner kann im Rahmen einer Modussteuerung des Videosensors Erkennungsschwellen zur Ermittlung eines Objekts in den Fällen abgesenkt werden, in denen der Detektionsbereich vorgegeben ist. Dies vor dem Hintergrund, dass in der Erwartung einer Beobachtung eine schnellere und gezieltere Detektion erreichbar ist. Im Rahmen von zeitkritischen Funktionen kann in einer Ausführung die Informationsplattform den Videosensor so steuern, dass die Plausibilisierung der Radarobjekte schneller erfolgt, beispielsweise dadurch, dass die Abarbeitung im Videosensors nach wenigen relevanten Bildbereichen abgebrochen wird und/oder die Plausibilisierung abgeschwächt wird. Letzteres erfolgt beispielsweise dadurch, dass nur eine Ortsinformation für das Objekt zur Plausibilisierung verwendet wird, während auf die Geschwindigkeitsinformation zur Plausibilisierung verzichtet wird. Die entsprechenden Signale zur Steuerung des Sensor werden von der Informationsplattform an den Sensor in Abhängigkeit des Betriebszustandes (z.B. Notbremsfunktion aktiv oder nicht) gesendet.
  • Eine weitere Möglichkeit zur Beschleunigung der Plausibilisierung der Objekterkennung des Radarsensors durch den Videosensor wird durch eine Präkonditionierung der Videoobjekte erreicht. Diese erfolgt vorzugsweise dadurch, dass auf der Basis der vom Radarsensor ermittelten Objektdaten wie z.B. Ort, Geschwindigkeit, Bewegungsrichtung, etc. der Ort des vermuteten Eintreffens des Objekts in den Detektionsbereich des Sensors abgeleitet wird, um diesen Ort ein zu untersuchender Bildbereich gebildet wird, der wiederum an den Videosensor übermittelt wird.
  • Im einem Ausführungsbeispiel werden Sensoren eingesetzt, die zum einen Informationen (z.B. Breite, Krummung, etc.) über die Fahrspur, den Fahrstreifen bzw. die Fahrbahn (Fahrbahnsensoren) erfassen, zum anderen Objekte detektieren (objektdetektierende Sensoren). Derartige Sensoren sind je nach Ausführung getrennt oder es werden beide Funktionen von einem Sensor wahrgenommen (z.B. einem Videosensor). Bei den Fahrbahnsensoren wird eine Modussteuerung vorgenommen, indem die Informationsplattform zumindest einen Teil der Fahrstreifendetektion ausschaltet, wenn eine Fahrbedingung erreicht ist, in der dieser Teil nicht erforderlich ist (z.B. Randsteinerkennung ist in der Stadt erforderlich, auf Autobahnen nicht, so dass hier dieser Teil abgeschaltet werden kann). Übertragen werden hier von der Informationsplattform zum Sensor eine Information, die die erwartete Fahrstreifenmarkierung repräsentiert. Abhängig von dieser Information passt sich der Sensor bzw. seine Auswertung an. Dadurch werden Ressourcen gespart. Ferner oder alternativ kann ein Straßentyp übertragen werden (Autobahn, kurvenreiche Straße, etc.) zur Anpassung des Modells zur Fahrbahnrand- bzw. -streifenerkennung, so dass die Qualität der Schätzung der Parameter verbessert wird.
  • Die objekterkennenden Sensoren werden entsprechend der obigen Schilderung mit zusätzlichen Informationen von der Informationsplattform versorgt. Dies wird anhand der in den 2 bis 4 dargestellten Wirkungsweise verdeutlicht. 2 zeigt die Fensterung der zu erfassenden Objektdaten (Festlegen des Erfassungsbereichs). 3 zeigt die Vorgabe von einem oder mehreren Detektionsbereichen (ROI), während in 4 die Präkonditionierung erfasster Objekte dargestellt ist.
  • In allen drei Figuren ist mit 100 das eigene Fahrzeug bezeichnet, an dem die Sensoren angebracht sind. In 2 und 3 ist ein erster Umfeldsensor 102 und sein Erfassungsbereich 104 dargestellt. In 4 wird neben dem Sensor 102 und seinem Erfassungsbereich 104 ein zweiter Umfeldsensor 106 mit einem breiteren Erfassungsbereich 108, der jedoch eine geringere Reichweite aufweist, dargestellt.
  • Gemäß 2 wird eine Fensterung der Objektdaten bzw. eine Einschränkung des Erfassungsbereichs zur Ressourcenreduzierung vorgenommen. Die von der Informationsplattform an den Sensor übermittelte Information enthält Daten, die eine Begrenzung des Erfassungsbereichs des Sensors repäsentieren, beispielsweise Minimal- und/oder Maximalwerte von den erfassungsbereichsbegrenzenden Koordinaten, Geschwindigkeitswerten, die die Weite des Detektionsbereichs einschränken und/oder Straßenparameter, die die Breite des Erfassungsbereichs festlegen (zweispurige Straße, vierspurige Straße, etc.). Der Sensor empfängt diese Daten und bildet daraus den in 2 dargestellten angepassten Erfassungsbereich 110. Dadurch wird eine Anpassung des Erfassungsbereichs an die jeweils aktive Funktion (z.B. Einparkhilfe oder Fahrgeschwindigkeitsregler) und/oder eine Anpassung an die Fahrsituation (z.B. Straßenart) erreicht und somit die Detektionsqualität der Sensorik bei Optimierung der Ressourcen verbessert.
  • Ergänzend zur Vorgabe eines Erfassungsbereich oder alternativ dazu werden von der Informationsplattform Daten bezüglich wenigstens eines besonders zu betrachtenden Detektionsbereichs an den oder die Sensoren übermittelt. Diese Daten werden abgeleitet aus den Daten eines erfassten Objekts eines anderen Sensors, beispielsweise eines Radarsensors, und bestehen zum Beispiel aus den Koordinaten für den Mittelpunkt (bzw. Schwerpunkt oder eines ausgezeichneten Punktes) dieses Detektionsbereichs und der Geschwindigkeit der Veränderung dieses Punktes samt jeweiligen Varianzwerten. Mit jedem Detektionsbereich bzw. seinen Daten ist eine eindeutige Identifikationsnummer verknüpft. Durch die Beschränkung auf wenige Interessensgebiete können die Ressourcen im Sensor, vorzugsweise im Videosensor, reduziert werden und somit in sehr kurzer Zeit die wichtigsten Informationen generiert werden. Dies ist vor allem von Interesse bei zeitkritischen Funktionen, beispielsweise bei einer automatischen Notbremsung, bei der die Objektdetektion und Plausibilisierung sehr schnell erfolgen muss. Die Identifikationsnummern werden von der Informationsplattform vergeben und an den Sensor weitergegeben. Die von Sensor ermittelten Ergebnisse (z.B. „Objekt vorhanden" und/oder Objektdaten und/oder Fehlmeldung) werden mit der Identifikationsnummer an die Informationsplattform zurückgesendet. Anhand der Nummern kann also die Informationsplattform die Abarbeitung überwachen, da der Sensor bei Plausibilisierung des erkannten Objekts bzw. bei eigener Objekterkennung eine entsprechende Information unter dieser Identifikationsnummer an die Informationsplattform zurückschickt. Erst wenn die Abarbeitung erfolgt ist, wird die Identifikationsnummer von der Informationsplattform neu vergeben. Anhand dieser Rückmeldung erkennt die Informationsplattform auch eine Überlast in der Verarbeitung im Sensor, wenn innerhalb einer vorgegebenen Zeitperiode die Abarbeitung der Aufgabe nicht zurückgemeldet wurden. Im Falle der Überlast zeigt die Informationsplattform diese der aktiven Funktion an und/oder vergibt Priorisierungswerte an den Sensor bzw. passt vorhandene an, indem auf vorgegebene Aufgaben, z.B. wie oben skizziert, verzichtet wird oder diese nur noch eingeschränkt durchgeführt werden.
  • Alternativ zur Angabe von besonderen Detektionsbereichen wird von wenigstens einem der Sensoren bzw. der Informationsplattform eine Trackingliste der Objektdaten mit Objektidentifikationsnummern erzeugt. Aufgrund dieser Trackingliste werden von der Informationsplattform die Daten für die Fensterung und/oder die Generierung der Detektionsbereiche vorgenommen und an den wenigstens einen anderen Sensor übertragen.
  • In 3 ist die oben skizzierte Lösung dargestellt. Das Fahrzeug 100 verfügt über ein Sensorsystem 102, welches über wenigstens einen Sensor mit dem Detektionsbereich 104 verfügt. Eingezeichnet sind die Detektionsbereiche (ROI) 112, 114, 116, welche gekennzeichnet sind durch Größen wie: Mittelpunkt (zum Beispiel 112a, 114a, 116a, optional mit Varianzenwerten und (nicht eingezeichnet) Geschwindigkeit optional mit Varianzenwerten, wobei die Varianzenwerte die Unsicherheit der ROIs ausdrücken). Die gezeigten Detektionsbereiche, die auf der Basis von erfassten Objekten eines anderen Sensors des Sensorsystems gebildet werden, werden von der Auswerteeinheit des betroffenen Sensors besonders häufig oder ausschließlich ausgewertet auf das Vorhandensein und/oder die Eigenschaften von Objekten in diesen Bereichen.
  • Eine dritte Option zur Aufmerksamkeitssteuerung des Sensorsystems ist die Präkonditionierung wenigstens eines der Sensoren. Wenigstens einer der Sensoren des Sensorsystems übermittelt an die Informationsplattform dabei Objektdaten, die die Informationsplattform in Daten für einem anderen Sensor mit anderem Erfassungsbereich umsetzt, welche insbesondere den Ort des erwarteten Eindringens des Objektes in den Erfassungsbereich des Sensors repräsentieren. Die von der Informationsplattform an diesen Sensor übermittelte Daten betreffen im bevorzugten Ausführungsbeispiel den Ort, an dem das Eindringen des Objekts in den Erfassungsbereich des Sensors zu erwarten ist und gegebenenfalls ergänzend die Geschwindigkeit und/oder Bewegungsrichtung des Objekts. Dies erfolgt im bevorzugten Ausführungsbeispiel im Rahmen der Übermittlung der Daten zu einem besonderen Detektionsbereich (ROI). Der Sensor wird dann auf der Basis dieser Information beispielsweise hinsichtlich der Trackinginitialisierung oder der Winkelzuordnung, sich optimal auf das neu zu detektierende Objekt einstellen können.
  • Dieses Beispiel ist näher anhand 4 dargestellt. Das Fahrzeug 100 weist ein Sensorsystem mit wenigstens zwei Sensoren 102 und 106 auf. Der Erfassungsbereich des Sensors 102 ist mit 104 bezeichnet, während der Sensor 106 einen breiteren Erfassungsbereich 108 mit kürzerer Reichweite aufweist. Dies ist eine typische Fallkonstellation bei der Verwendung eines Radarsensors 102 und einer Videokamera 106. Das vom Radarsensor 102 erfasste Objekt ist mit 118 bezeichnet. Aus den Objektdaten (Ort, Geschwindigkeit, Richtung), die vom Sensor 102 an die Informationsplattform übermittelt werden, lässt sich errechnet, ob und gegebenenfalls an welchem Ort ein Erreichen des Erfassungsbereichs 108 des Sensors 106 durch das Objekt wahrscheinlich ist. Die Informationsplattform ermittelt daher einen besonderen Detektionsbereich 120, der dem Sensor 106 mitgeteilt wird und der den Ort den vermuteten Eindringens des Objekt in den Erfassungsbereich repräsentiert. Der Sensor beobachtet dann diesen Detektionsbereich bevorzugt (oder zusammen mit den anderen mitgeteilten Detektionsbereichen ausschließlich) und kann sich daher bereits vor Auftreten des neu zu detektierenden Objekts auf dieses entsprechend einstellen.
  • Ergänzend hierzu werden mit den Detektionsbereichsdaten Priorisierungsdaten übermittelt, die dem Sensor die Reihenfolge oder Häufigkeit der Abarbeitung der Bereiche vorgeben.
  • Neben der Übermittlung von Detektionsbereichsdaten von der Informationsplattform zum Sensor werden im Gegenzug Informationen vom Sensor an die Informationsplattform übermittelt werden, welche den Status der Abarbeitung der übermittelten besonderen Detektionsbereiche repräsentieren. Dies erfolgt durch die Angabe der abgearbeiteten Identifikationsnummern der Detektionsbereiche und gegebenenfalls mittels eines Zeitstempels der Abarbeitung zur Ermittlung eines Zeitverzugs.
  • Neben oder anstelle der Übermittlung von Daten bezüglich der zu detektierenden Detektionsbereiche findet ferner eine Steuerung des Arbeitsmodus einzelner Sensoren statt, beispielsweise eine Steuerung der Zykluszeit, der Verarbeitungstiefe, der Priorisierung zur Generierung unterschiedlicher Informationsanteile, etc. Diese Modussteuerung ist abhängig vom Betriebszustand insbesondere der angeschlossenen Funktionalitäten. Ist zum Beispiel eine automatische Notbremsfunktion aktiv, so wird dies der Informationsplattform mitgeteilt, die eine Verringerung der Zykluszeit an die Sensoren übermittelt. Ist die automatische Notbremsfunktion deaktiviert, so wird die Zykluszeit wieder verlängert. In einigen Betriebssituationen ist es sinnvoll, unvollständige Informationen früher zu erhalten. Dies ist beispielsweise dann der Fall, wenn der betroffene Sensor nur zur Plausibilisierung bereits detektierter Objekte dient. In diesem Fall kann in einer Ausführung es ausreichen, bereits dann eine Information zurückzumelden, wenn die sensorinterne Plausibilisierung für ein Objekt noch nicht vollständig abgeschlossen ist, aber ein Objekt erkannt wurde, oder wenn die Objektzustände nur teilweise bekannt sind. Eine entsprechende Steuerinformation wird von der Informationsplattform an den betroffenen Sensor übermittelt.
  • Weiterhin ist es möglich, die Arbeitsbereiche des Sensors zu priorisieren. So kann beispielsweise die Priorisierung zwischen Spurdetektion und Objektdetektion eines Videosensors verschoben werden, beispielsweise dann, wenn in Städten die Spurdetektion eine niedrigere Priorisierung gegenüber der Objektdetektion hat. In diesem Fall wird beispielsweise die Objektdetektion häufiger durchgeführt als die Spurdetektion. Dadurch wird eine optimalerer Ressourcenausnützung erreicht. Eine entsprechende Information über den Betriebszustand wird der Informationsplattform zugeführt (z.B. von den angeschlossenen Funktionen), die dann wiederum entsprechende Daten an den oder die betroffenen Sensoren übermittelt.
  • In 5 ist ein Ablaufdiagramm skizziert, welches am Beispiel der Bildung und Übermittlung von Detektionsbereichsdaten die Funktionsweise der Informationsplattform verdeutlicht. Das skizzierte Programm wird in vorgegebenen Zeitintervallen durchlaufen. In einem ersten Schritt 200 werden von einem ersten Sensor, beispielsweise von einem Radarsensor, Objektdaten empfangen. Diese Objektdaten umfassen Daten bezüglich detektierter Objekte wie Ort des Objekts (beispielsweise Winkelbeziehungen oder Koordinaten), die Relativgeschwindigkeit oder Absolutgeschwindigkeit des Objekts, der Abstand zu dem Objekt, seine Bewegungsrichtung, etc. Im bevorzugten Ausführungsbeispiel werden für verschiedene detektierte Objekte die entsprechenden Daten als Liste übermittelt. Daraufhin werden im Schritt 202 auf der Basis der erfassten Objektdaten Detektionsbereiche (ROI) gebildet. Beispielsweise wird der Ort des detektierten Objektes mit Variantenwerten bewertet und auf diese Weise ein Detektionsbereich aufgespannt. Sind die Bezugssysteme der einzelnen Sensoren und/oder der Informationsplattform unterschiedlich, so müssen die Daten selbstverständlich in die entsprechenden Bezugssysteme transformiert werden.
  • Eine andere Möglichkeit ist, nicht nur den Mittelpunkt des detektierten Objektes als Basis für die Berechnung des Detektionsbereichs heranzuziehen, sondern auch die Geschwindigkeit des Objektes, wobei bei größerer Geschwindigkeit des Objektes ein größerer Detektionsbereich abzustecken ist, der zudem in einer Ausführung entsprechend der Bewegungsrichtung des Objekt derart angepasst wird, dass er in Bewegungsrichtung größer ist als zur Seite oder nach hinten.
  • Danach werden im Schritt 204 Identifikationsnummern den einzelnen Detektionsbereichen zugeordnet. Ferner wird in einer Ausführung im Schritt 206 jeder Detektionsbereich mit Prioritätswerten versehen. Im bevorzugten Ausführungsbeispiel ist der Detektionsbereich mit höchster Priorität zu behandeln, der ein Objekt repräsentiert, welches dem Fahrzeug am nächsten steht. Im darauf folgenden Schritt 208 werden die Daten zu den Detektionsbereichen an einen anderen Sensor, beispielsweise den Videosensor, übertragen, der die Aufgabe der Objektdetektion in den besonderen Detektionsbereichen ausführt. Die Abarbeitung meldet der Videosensorik gegebenenfalls mit einem Zeitstempel an die Informationsplattform zurück, ebenso das Ergebnis, beispielsweise ob ein vom Radarsensor detektiertes Objekt plausibilisiert werden konnte oder nicht. Im ersteren Fall wird die Information an die nachfolgenden Funktionalitäten weitergegeben, im anderen Fall verworfen.

Claims (9)

  1. Verfahren zum Betreiben eines Sensorsystems, wobei eine Verarbeitungseinheit über wenigstens eine Kommunikationsverbindung Daten von wenigstens einem der Sensoren Sensordaten erhält und Daten an wenigstens einen der Sensoren sendet, dadurch gekennzeichnet, dass die Verarbeitungseinheit an wenigstens einen der Sensoren des Sensorsystems Daten, die wenigstens einen Erfassungs- und/oder Detektionsbereich des Sensors repräsentieren, und/oder Steuerdaten zur Steuerung des Modus des Sensors übermittelt.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die an die Verarbeitungseinheit übermittelten Sensordaten zur Charakterisierung eines detektierten Objekts repräsentieren.
  3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die von der Verarbeitungseinheit an den Sensor übermittelten Daten die Größe und/oder Ausrichtung des Erfassungsbereichs des Sensors und/oder wenigstens einen bevorzugten Detektionsbereich innerhalb des Erfassungsbereichs repräsentieren.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Detektionsbereiche wenigstens durch ihren Mittelpunkt charakterisiert sind.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mit den Daten des Detektionsbereichs Identifikationsnummern und/oder Priorisierungsdaten übermittelt werden.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Verarbeitungseinheit Informationen bezüglich des Betriebszustandes des Fahrzeugs erhält und an wenigstens einen Sensor Steuerdaten übermittelt, die den Sensor an die Betriebssituation des Fahrzeugs anpassen.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die erhaltenen Informationen die erwartete Fahrstreifenmarkierung repräsentieren und/oder den Straßentyp (Autobahn, Stadt, kurvenreichen Straße, etc.) repräsentiert.
  8. Verfahren nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass die Steuerdaten eine Veränderung der Zykluszeit des Sensors, eine Anpassung der Erkennungsschwellen, eine Anpassung des Modells zur Fahrbahnranderkennung, eine Abschaltung von Teilfunktionen, etc. umfassen.
  9. Vorrichtung zum Betreiben eines Sensorsystems, mit einer Verarbeitungseinheit, welche wenigstens eine Kommunikationsverbindung an wenigstens einen Sensor des Sensorsystems angebunden ist, dadurch gekennzeichnet, dass die Verarbeitungseinheit Mittel umfasst, welche an wenigstens einen Sensor des Sensorsystems Daten übermitteln, die wenigstens einen Erfassungs- und/oder Detektionsbereich des Sensors und/oder Steuerdaten zur Steuerung des Modus des Sensors repräsentieren.
DE102004038494A 2004-08-07 2004-08-07 Verfahren und Vorrichtung zum Betreiben eines Sensorsystems Withdrawn DE102004038494A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102004038494A DE102004038494A1 (de) 2004-08-07 2004-08-07 Verfahren und Vorrichtung zum Betreiben eines Sensorsystems
US11/658,616 US8193920B2 (en) 2004-08-07 2005-06-14 Method and device for operating a sensor system
JP2007525271A JP4814234B2 (ja) 2004-08-07 2005-06-14 センサシステムの作動方法および作動装置
EP05768003A EP1776602A1 (de) 2004-08-07 2005-06-14 Verfahren und vorrichtung zum betreiben eines sensorsystems
PCT/EP2005/052728 WO2006015894A1 (de) 2004-08-07 2005-06-14 Verfahren und vorrichtung zum betreiben eines sensorsystems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102004038494A DE102004038494A1 (de) 2004-08-07 2004-08-07 Verfahren und Vorrichtung zum Betreiben eines Sensorsystems

Publications (1)

Publication Number Publication Date
DE102004038494A1 true DE102004038494A1 (de) 2006-03-16

Family

ID=35206616

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102004038494A Withdrawn DE102004038494A1 (de) 2004-08-07 2004-08-07 Verfahren und Vorrichtung zum Betreiben eines Sensorsystems

Country Status (5)

Country Link
US (1) US8193920B2 (de)
EP (1) EP1776602A1 (de)
JP (1) JP4814234B2 (de)
DE (1) DE102004038494A1 (de)
WO (1) WO2006015894A1 (de)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008087092A1 (de) * 2007-01-16 2008-07-24 Continental Automotive Gmbh Gemeinsamer kontroller für verschiedene fahrerassistenzsysteme
DE102009009896A1 (de) * 2009-02-20 2010-09-09 Eads Deutschland Gmbh Verfahren und System zur Erfassung von Zielobjekten
US9096228B2 (en) 2010-06-23 2015-08-04 Continental Teves Ag & Co. Ohg Method and system for accelerated object recognition and/or accelerated object attribute recognition and use of said method
DE102009043385B4 (de) * 2008-10-09 2015-12-24 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Vorrichtung und Verfahren zum Optimieren einer Fahrzeugkollisions-Vorbereitungsreaktion
DE102014009869A1 (de) * 2014-07-03 2016-01-21 Audi Ag Verfahren zum Betrieb eines Radarsensors in einem Kraftfahrzeug und Kraftfahrzeug
DE102015011022A1 (de) * 2015-08-22 2017-02-23 Audi Ag Verfahren zum Betrieb von Radarsensoren in einem Kraftfahrzeug und Kraftfahrzeug
DE102017205495A1 (de) * 2017-03-31 2018-10-04 Conti Temic Microelectronic Gmbh Vorrichtung und Verfahren zum Fokussieren von Sensoren im fahrdynamischen Grenzbereich für ein Kraftfahrzeug
DE102018107360A1 (de) * 2018-03-28 2019-10-02 Connaught Electronics Ltd. Verfahren zum Senden von Sensorinformationen an Funktionseinheiten, Steuerungseinrichtung, Steuerungseinrichtungsanordnung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102018130916A1 (de) * 2018-12-05 2020-06-10 Valeo Schalter Und Sensoren Gmbh Verfahren zum priorisierten Übertragen von erfassten Informationen eines Sensors eines Kraftfahrzeugs an eine Steuereinheit des Kraftfahrzeugs, Sensor, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102019123855A1 (de) * 2019-09-05 2021-03-11 Valeo Schalter Und Sensoren Gmbh Abstandswarnung und elektronisches Fahrzeugsystem

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004038494A1 (de) 2004-08-07 2006-03-16 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Sensorsystems
EP2095351B1 (de) * 2006-10-13 2014-06-25 Continental Teves AG & Co. oHG System zur bestimmung von objekten
DE102006052779A1 (de) * 2006-11-09 2008-05-15 Bayerische Motoren Werke Ag Verfahren zur Erzeugung eines Gesamtbilds der Umgebung eines Kraftfahrzeugs
DE102007018470A1 (de) * 2007-04-19 2008-10-23 Robert Bosch Gmbh Fahrerassistenzsystem und Verfahren zur Objektplausibilisierung
FI120605B (fi) * 2008-02-28 2009-12-15 Elsi Technologies Oy Menetelmä ja järjestelmä tapahtumien havaitsemiseen
AT10236U3 (de) 2008-07-10 2009-09-15 Avl List Gmbh Messanordnung und verfahren zur erfassung von messdaten
DE102009021785B4 (de) * 2009-05-18 2014-10-09 Airbus Defence and Space GmbH Verfahren zur Objekterkennung
ATE545045T1 (de) 2009-12-17 2012-02-15 Sick Ag Optoelektronischer sensor
CA2787401C (en) * 2010-01-22 2017-07-18 Erema Engineering Recycling Maschinen Und Anlagen Gesellschaft M.B.H. Method for preparing and detoxifying a thermoplastic material
DE102010063984A1 (de) * 2010-02-11 2011-08-11 Continental Teves AG & Co. OHG, 60488 Fahrzeug-Sensor-Knoten
DE102010015731A1 (de) * 2010-04-21 2011-10-27 Audi Ag Verfahren zur Steuerung eines Scheinwerfersystems eines Kraftfahrzeugs und Kraftfahrzeug
FR2973847B1 (fr) 2011-04-11 2015-10-30 Pellenc Sa Helice de generateur de flux d'air pulse, en particulier pour souffleur portatif.
DE102012104742A1 (de) * 2012-06-01 2013-12-05 Continental Safety Engineering International Gmbh Verfahren und Vorrichtung zur Objektdetektion
JP2014006114A (ja) * 2012-06-22 2014-01-16 Denso Corp レーダ装置、及び、プログラム
US9720412B1 (en) 2012-09-27 2017-08-01 Waymo Llc Modifying the behavior of an autonomous vehicle using context based parameter switching
DE102013201545A1 (de) * 2013-01-30 2014-07-31 Bayerische Motoren Werke Aktiengesellschaft Erstellen eines Umfeldmodells für ein Fahrzeug
JP6212880B2 (ja) 2013-03-04 2017-10-18 株式会社デンソー 物標認識装置
US9696420B2 (en) * 2013-04-09 2017-07-04 Ford Global Technologies, Llc Active park assist object detection
DE102013219095A1 (de) * 2013-09-23 2015-03-26 Hella Kgaa Hueck & Co. Verfahren zur Steuerung einer Lichtverteilung eines Scheinwerfers und Scheinwerfer hierfür
US9387867B2 (en) * 2013-12-19 2016-07-12 Thales Canada Inc Fusion sensor arrangement for guideway mounted vehicle and method of using the same
KR101727162B1 (ko) * 2014-02-27 2017-04-14 한국전자통신연구원 관제 서비스 제공 장치 및 그 방법
DE102014107305A1 (de) * 2014-05-23 2015-11-26 Valeo Schalter Und Sensoren Gmbh Parkassistenzvorrichtung für ein Kraftfahrzeug
KR101621857B1 (ko) 2014-06-26 2016-05-17 주식회사 사람과기술 어린이 통학용 차량을 위한 지능형 문끼임 방지 시스템 및 동작방법
US10634778B2 (en) * 2014-10-21 2020-04-28 Texas Instruments Incorporated Camera assisted tracking of objects in a radar system
US11255663B2 (en) 2016-03-04 2022-02-22 May Patents Ltd. Method and apparatus for cooperative usage of multiple distance meters
US20170307743A1 (en) * 2016-04-22 2017-10-26 Delphi Technologies, Inc. Prioritized Sensor Data Processing Using Map Information For Automated Vehicles
JP2019020351A (ja) * 2017-07-21 2019-02-07 株式会社Soken 物標認識装置、物標認識装置を備えた車両制御装置、及び物標認識方法
KR102390208B1 (ko) * 2017-10-17 2022-04-25 삼성전자주식회사 멀티미디어 데이터를 전송하는 방법 및 장치
US10848718B2 (en) 2018-03-08 2020-11-24 Aptiv Technologies Limited Vehicle sensor configuration based on map data
KR20210022570A (ko) * 2018-06-29 2021-03-03 소니 세미컨덕터 솔루션즈 가부시키가이샤 정보 처리 장치 및 정보 처리 방법, 촬상 장치, 컴퓨터 프로그램, 정보 처리 시스템, 그리고 이동체 장치
CN112534297A (zh) * 2018-08-09 2021-03-19 索尼半导体解决方案公司 信息处理设备和信息处理方法、计算机程序、信息处理系统以及移动设备
US20210389448A1 (en) * 2018-11-14 2021-12-16 Sony Group Corporation Control device, control method and sensor control system
EP3751294B8 (de) * 2019-06-14 2023-09-13 Rohde & Schwarz GmbH & Co. KG Vorrichtung und verfahren zur synchronisation von sensoren
CN112578781B (zh) * 2019-09-29 2022-12-30 华为技术有限公司 数据处理方法、装置、芯片系统及介质
JP2023046417A (ja) * 2020-02-27 2023-04-05 ソニーセミコンダクタソリューションズ株式会社 物体認識システム、および物体認識方法
EP4119975A4 (de) * 2020-03-11 2023-08-09 Panasonic Intellectual Property Management Co., Ltd. Entfernungsmessvorrichtung
CN113715753A (zh) * 2020-05-25 2021-11-30 华为技术有限公司 车辆传感器数据的处理方法和系统

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04355390A (ja) * 1991-06-03 1992-12-09 Nissan Motor Co Ltd 距離計測装置
JP3123303B2 (ja) 1992-07-21 2001-01-09 日産自動車株式会社 車両用画像処理装置
JP3302848B2 (ja) * 1994-11-17 2002-07-15 本田技研工業株式会社 車載レーダー装置
JP3600314B2 (ja) * 1995-05-19 2004-12-15 本田技研工業株式会社 車両の外部環境認識装置
JPH09231379A (ja) * 1996-02-28 1997-09-05 Hitachi Ltd 画像処理による走行車線認識装置
JPH09264954A (ja) * 1996-03-29 1997-10-07 Fujitsu Ten Ltd レーダを用いた画像処理システム
JPH1090406A (ja) * 1996-09-13 1998-04-10 Omron Corp 警報装置
JPH10244891A (ja) * 1997-03-07 1998-09-14 Nissan Motor Co Ltd 駐車補助装置
GB2328819A (en) * 1997-08-30 1999-03-03 Ford Motor Co Antenna cluster for vehicle collision warning system
US6289332B2 (en) * 1999-02-26 2001-09-11 Freightliner Corporation Integrated message display system for a vehicle
JP4563531B2 (ja) 1999-10-13 2010-10-13 富士重工業株式会社 車両用運転支援装置
JP3891537B2 (ja) * 2000-05-09 2007-03-14 株式会社ホンダエレシス 車両側面監視装置
JP3671825B2 (ja) * 2000-09-22 2005-07-13 日産自動車株式会社 車間距離推定装置
DE10114470A1 (de) * 2001-03-24 2002-09-26 Bosch Gmbh Robert Spurhalte- und Fahgeschwindigkeitsregeleinrichtung für Kraftfahrzeuge
GB0115433D0 (en) * 2001-06-23 2001-08-15 Lucas Industries Ltd An object location system for a road vehicle
DE60205711T2 (de) * 2001-12-18 2006-05-18 Hitachi, Ltd. Monopuls Radar mit Einstellung der Strahlaufweitung
JP2003248055A (ja) * 2001-12-18 2003-09-05 Hitachi Ltd モノパルスレーダシステム
JP3891011B2 (ja) * 2002-03-12 2007-03-07 株式会社デンソー クルーズ制御装置、プログラム
JP2004117071A (ja) * 2002-09-24 2004-04-15 Fuji Heavy Ind Ltd 車外監視装置、及び、この車外監視装置を備えた走行制御装置
DE10254806B4 (de) * 2002-11-22 2008-07-24 Robert Bosch Gmbh Verfahren zur Informationsverarbeitung
DE10258287A1 (de) * 2002-12-13 2004-06-24 Robert Bosch Gmbh Verfahren und Einrichtung zur Objektdetekrierung
DE102004038494A1 (de) 2004-08-07 2006-03-16 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Sensorsystems

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008087092A1 (de) * 2007-01-16 2008-07-24 Continental Automotive Gmbh Gemeinsamer kontroller für verschiedene fahrerassistenzsysteme
DE102009043385B4 (de) * 2008-10-09 2015-12-24 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Vorrichtung und Verfahren zum Optimieren einer Fahrzeugkollisions-Vorbereitungsreaktion
DE102009009896A1 (de) * 2009-02-20 2010-09-09 Eads Deutschland Gmbh Verfahren und System zur Erfassung von Zielobjekten
DE102009009896B4 (de) * 2009-02-20 2011-02-10 Eads Deutschland Gmbh Verfahren und Vorrichtung zur Erfassung von Zielobjekten
US8712098B2 (en) 2009-02-20 2014-04-29 Eads Deutschland Gmbh Method and system for detecting target objects
US9096228B2 (en) 2010-06-23 2015-08-04 Continental Teves Ag & Co. Ohg Method and system for accelerated object recognition and/or accelerated object attribute recognition and use of said method
DE102014009869A1 (de) * 2014-07-03 2016-01-21 Audi Ag Verfahren zum Betrieb eines Radarsensors in einem Kraftfahrzeug und Kraftfahrzeug
DE102015011022A1 (de) * 2015-08-22 2017-02-23 Audi Ag Verfahren zum Betrieb von Radarsensoren in einem Kraftfahrzeug und Kraftfahrzeug
DE102015011022B4 (de) * 2015-08-22 2019-11-28 Audi Ag Verfahren zum Betrieb von Radarsensoren in einem Kraftfahrzeug und Kraftfahrzeug
DE102017205495A1 (de) * 2017-03-31 2018-10-04 Conti Temic Microelectronic Gmbh Vorrichtung und Verfahren zum Fokussieren von Sensoren im fahrdynamischen Grenzbereich für ein Kraftfahrzeug
DE102018107360A1 (de) * 2018-03-28 2019-10-02 Connaught Electronics Ltd. Verfahren zum Senden von Sensorinformationen an Funktionseinheiten, Steuerungseinrichtung, Steuerungseinrichtungsanordnung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102018130916A1 (de) * 2018-12-05 2020-06-10 Valeo Schalter Und Sensoren Gmbh Verfahren zum priorisierten Übertragen von erfassten Informationen eines Sensors eines Kraftfahrzeugs an eine Steuereinheit des Kraftfahrzeugs, Sensor, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102019123855A1 (de) * 2019-09-05 2021-03-11 Valeo Schalter Und Sensoren Gmbh Abstandswarnung und elektronisches Fahrzeugsystem

Also Published As

Publication number Publication date
US8193920B2 (en) 2012-06-05
US20100007476A1 (en) 2010-01-14
EP1776602A1 (de) 2007-04-25
WO2006015894A1 (de) 2006-02-16
JP4814234B2 (ja) 2011-11-16
JP2008509413A (ja) 2008-03-27

Similar Documents

Publication Publication Date Title
DE102004038494A1 (de) Verfahren und Vorrichtung zum Betreiben eines Sensorsystems
DE102017114495B4 (de) Autonomes fahrsystem
EP2242674B1 (de) Verfahren und assistenzsystem zum erfassen von objekten im umfeld eines fahrzeugs
DE102018218220A1 (de) Steuergerät für ein Fahrzeug
DE102016009763A1 (de) Steuerungssystem und Steuerungsverfahren zum Bestimmen einer Trajektorie und zum Erzeugen von zugehörigen Signalen oder Steuerbefehlen
DE102015110446A1 (de) Fahrzeugradar mit Strahlanpassung
DE102016219455A1 (de) Kraftfahrzeug, Verfahren und aktive Infrastruktur zur Überprüfung einer Umfelderfassung eines Kraftfahrzeugs
DE102018220724A1 (de) Fahrzeug und Steuerverfahren desselben
WO2008145543A1 (de) Verfahren und vorrichtung zur erkennung von verkehrsrelevanten informationen
EP2867093B1 (de) Verfahren und system zur informationsnutzung
DE102018101105A1 (de) Diagnose für eine kamera und reinigungssprühvorrichtung
DE102016218934A1 (de) Verfahren zum Datenaustausch und Datenfusionierung von Umfelddaten
DE102018133457B4 (de) Verfahren und System zum Bereitstellen von Umgebungsdaten
DE102019108610A1 (de) Verbesserung des fahrzeugverhaltens unter verwendung von informationen aus anderen fahrzeugleuchten
DE112016007501T5 (de) Regel-/steuervorrichtung und regel-/steuerverfahren
WO2003105108A1 (de) Verfahren und vorrichtung zur fahrerinformation bzw. zur reaktion bei verlassen der fahrspur
DE102008063033B4 (de) Vorrichtung und Verfahren zur Erkennung von Kollisionen mit erhöhter funktionaler Sicherheit
DE102010003375B4 (de) Umfeldbewertungssystem in einem Fahrzeug mit Sensormitteln zur Erfassung von Objekten im Umfeld des Fahrzeuges
DE102019104974A1 (de) Verfahren sowie System zum Bestimmen eines Fahrmanövers
DE102019201484A1 (de) Wiederverwertung von Umfeldmodellen automatisierter Fahrzeuge
DE102020127206A1 (de) Prozess und system zur gemeinsamen nutzung von sensoren für einen autonomen fahrspurwechsel
DE102017216505A1 (de) Verfahren zur Optimierung der automatisierten Spurführung von Fahrzeugen
EP3802257A1 (de) Steuerung eines kraftfahrzeugs
DE10238215A1 (de) Verfahren und Vorrichtung zur Fahrerinformation bzw. zur Reaktion bei Verlassen der Fahrspur
DE102019212604A1 (de) Verfahren und Steuergerät zum Bestimmen eines Auswertealgorithmus aus einer Mehrzahl von verfügbaren Auswertealgorithmen zur Verarbeitung von Sensordaten eines Fahrzeugsensors eines Fahrzeugs

Legal Events

Date Code Title Description
8139 Disposal/non-payment of the annual fee