DE102011085060A1 - Vorrichtung und Verfahren zum Detektieren von Objekten in einem Strom von Sensordaten - Google Patents

Vorrichtung und Verfahren zum Detektieren von Objekten in einem Strom von Sensordaten Download PDF

Info

Publication number
DE102011085060A1
DE102011085060A1 DE102011085060A DE102011085060A DE102011085060A1 DE 102011085060 A1 DE102011085060 A1 DE 102011085060A1 DE 102011085060 A DE102011085060 A DE 102011085060A DE 102011085060 A DE102011085060 A DE 102011085060A DE 102011085060 A1 DE102011085060 A1 DE 102011085060A1
Authority
DE
Germany
Prior art keywords
sensor
sensor data
vehicle
data
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102011085060A
Other languages
English (en)
Inventor
Stefan Nordbruch
Thomas Kropf
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102011085060A priority Critical patent/DE102011085060A1/de
Priority to PCT/EP2012/066647 priority patent/WO2013060505A1/de
Priority to EP12759389.5A priority patent/EP2771843A1/de
Priority to CN201280052083.8A priority patent/CN103890784A/zh
Priority to US14/353,209 priority patent/US20140350852A1/en
Publication of DE102011085060A1 publication Critical patent/DE102011085060A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
    • G06V30/2504Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

Die Erfindung betrifft eine Vorrichtung (101) zum Detektieren von Objekten (103a, 103b, 103c, 103d, 103e) in einem Strom von Sensordaten (105), wobei die Sensordaten (105) mittels eines Umfeldsensors (403) eines Fahrzeugs gebildet werden und einem mittels des Umfeldsensors (403) sensorisch erfassten Fahrzeugumfeld entsprechen, umfassend: – eine Positionsbestimmungseinrichtung (107) zum Bestimmen einer Fahrzeugposition, – einen Ermittler (109) zum Ermitteln, welches Objekt in Fahrtrichtung nach der bestimmten Fahrzeugposition an einer Fahrstrecke des Fahrzeugs angeordnet ist, und – einen Filter (111) zum Filtern der Sensordaten (105) entsprechend dem ermittelten Objekt, um das Objekt in den Sensordaten (105) zu detektieren. Die Erfindung betrifft ferner ein entsprechendes Verfahren, ein entsprechendes System sowie ein Fahrzeugsystem und ein Computerprogramm.

Description

  • Die Erfindung betrifft eine Vorrichtung und ein Verfahren zum Detektieren von Objekten in einem Strom von Sensordaten. Die Erfindung betrifft ferner ein entsprechendes System zum Detektieren von Objekten in einem Strom von Sensordaten sowie ein Fahrzeugsystem. Die Erfindung betrifft ferner ein Computerprogramm.
  • Stand der Technik
  • Die Offenlegungsschrift US 2007/0154067 A1 zeigt ein Bildanalyseverfahren, um Verkehrszeichen in Bildern zu erkennen. Das Ergebnis der Analyse, also die erkannten Verkehrszeichen zusammen mit einer zugeordneten Position, wird in eine Datenbank geschrieben.
  • Offenbarung der Erfindung
  • Die der Erfindung zugrunde liegende Aufgabe kann darin gesehen werden, eine verbesserte Vorrichtung und ein verbessertes Verfahren zum Detektieren von Objekten in einem Strom von Sensordaten anzugeben.
  • Die der Erfindung zugrunde liegende Aufgabe kann ferner darin gesehen werden, ein entsprechendes System zum Detektieren von Objekten in einem Strom von Sensordaten anzugeben.
  • Die der Erfindung zugrunde liegende Aufgabe kann auch darin gesehen werden, ein entsprechendes Fahrzeugsystem bereitzustellen.
  • Des Weiteren kann die der Erfindung zugrundeliegende Aufgabe auch darin gesehen werden, ein entsprechendes Computerprogramm bereitzustellen.
  • Diese Aufgaben werden mittels des jeweiligen Gegenstands nach den unabhängigen Ansprüchen gelöst. Vorteilhafte Ausgestaltungen sind Gegenstand von jeweils abhängigen Unteransprüchen.
  • Nach einem Aspekt wird eine Vorrichtung zum Detektieren von Objekten in einem Strom von Sensordaten bereitgestellt. Hierbei werden die Sensordaten mittels eines Umfeldsensors eines Fahrzeugs gebildet und entsprechen einem mittels des Umfeldsensors sensorisch erfassten Fahrzeugumfeld.
  • Die Vorrichtung umfasst eine Positionsbestimmungseinrichtung zum Bestimmen einer Fahrzeugposition. Ferner ist ein Ermittler vorgesehen, welcher ermitteln kann, welches Objekt in Fahrtrichtung nach der bestimmten Fahrzeugposition des Fahrzeugs an einer Fahrstrecke des Fahrzeugs angeordnet ist. Des Weiteren umfasst die Vorrichtung einen Filter zum Filtern der Sensordaten entsprechend dem ermittelten Objekt, um das Objekt in den Sensordaten zu detektieren.
  • Gemäß einem anderen Aspekt wird ein Verfahren zum Detektieren von Objekten in einem Strom von Sensordaten bereitgestellt. Die Sensordaten werden mittels eines Umfeldsensors eines Fahrzeugs gebildet und entsprechen einem mittels des Umfeldsensors sensorisch erfassten Fahrzeugumfelds. Ferner wird eine Fahrzeugposition bestimmt. Es wird des Weiteren ermittelt, welches Objekt in Fahrtrichtung nach der bestimmten Fahrzeugposition des Fahrzeugs an einer Fahrstrecke des Fahrzeugs angeordnet ist. Anschließend werden die Sensordaten entsprechend dem ermittelten Objekt gefiltert, um das Objekt in den Sensordaten zu detektieren.
  • Gemäß einem anderen Aspekt wird ein System zum Detektieren von Objekten in einem Strom von Sensordaten bereitgestellt. Die Sensordaten werden mittels eines Umfeldsensors eines Fahrzeugs gebildet und entsprechen einem mittels des Umfeldsensors sensorisch erfassten Fahrzeugumfeld. Das System umfasst die Vorrichtung zum Detektieren von Objekten in einem Strom von Sensordaten und einen Server, welcher eine Datenbank umfasst. In der Datenbank sind Objektdaten mit zugeordneten Positionsdaten gespeichert, wobei die Objektdaten Objekten entsprechen.
  • Nach noch einem Aspekt wird ein Fahrzeugsystem bereitgestellt, welches einen Umfeldsensor zum sensorischen Erfassen eines Fahrzeugumfelds umfasst und die Vorrichtung zum Detektieren von Objekten in einem Strom von Sensordaten oder das System zum Detektieren von Objekten in einem Strom von Sensordaten.
  • Nach noch einem weiteren Aspekt wird ein Computerprogramm bereitgestellt, welches Programmcode zur Ausführung des Verfahrens zum Detektieren von Objekten in einem Strom von Sensordaten umfasst, wenn das Computerprogramm auf einem Computer ausgeführt wird.
  • Die Erfindung umfasst also insbesondere den Gedanken, ein Fahrzeugumfeld mittels eines Umfeldsensors sensorisch zu erfassen und entsprechende Sensordaten zu bilden. Da das sensorische Erfassen in der Regel fortlaufend bzw. kontinuierlich durchgeführt wird, wird insofern ein Strom von Sensordaten gebildet. Es wird eine Fahrzeugposition bestimmt. Zum Bestimmen der Fahrzeugposition kann insbesondere ein Navigationssystem vorgesehen sein. Vorzugsweise ist zum Bestimmen der Fahrzeugposition ein global positioning system (GPS)-Sensor vorgesehen.
  • Es wird anschließend ermittelt, welches Objekt an einer Fahrstrecke des Fahrzeugs in Fahrtrichtung nach der bestimmten Fahrzeugposition angeordnet ist. Das heißt also insbesondere, dass ermittelt wird, was für ein Objekt bzw. was für ein Objekttyp in Fahrtrichtung nach der bestimmten Fahrzeugposition angeordnet ist. Das heißt also insbesondere, dass nach dem Ermitteln bekannt ist, welches Objekt in Fahrtrichtung nach der bestimmten Fahrzeugposition erscheinen wird bzw. auf welches Objekt sich das Fahrzeug in Fahrtrichtung hinbewegt. Insbesondere kann vorgesehen sein, dass ermittelt wird, welches das räumlich nächste Objekt bezogen auf die bestimmte Fahrzeugposition in Fahrtrichtung des Fahrzeugs ist. Vorzugsweise kann ermittelt werden, welche Objekte, insbesondere die räumlich nächsten Objekte, relativ zur bestimmten Fahrzeugposition in Fahrtrichtung angeordnet sind. Basierend auf dem ermittelten Objekt, insbesondere auf der Kenntnis, um was für ein Objekt es sich handelt, werden dann die Sensordaten entsprechend gefiltert, um das Objekt in den Sensordaten zu detektieren bzw. zu erkennen.
  • Dadurch, dass nach der Ermittlung bekannt ist, welches Objekt sich in Fahrtrichtung nach der bestimmten Fahrzeugposition befindet, kann eine Filterung der Sensordaten, um das Objekt in den Sensordaten zu detektieren bzw. zu erkennen, viel effizienter und mit einer erheblich höheren Trefferquote im Vergleich zum Stand der Technik durchgeführt werden. Die entsprechende Objektdetektion wird insofern in vorteilhafter Weise vorparametrisiert, insofern bekannt ist, nach welchem Objekt in den Sensordaten gesucht werden muss. Die entsprechende Objektdetektionsanalyse wird also durch bekannte Daten, hier entsprechend dem ermittelten Objekt, getriggert.
  • Sensordaten im Sinne der vorliegenden Erfindung umfassen insbesondere Informationen über das Fahrzeugumfeld. Solche Informationen können beispielsweise physische Objekte betreffen. Ein physisches Objekt kann beispielsweise ein Verkehrszeichen, eine Signalanlage oder ein Begrenzungspfosten der Straße sein. Insbesondere umfassen die Sensordaten physische Merkmale bzw. Eigenschaften der Straße wie beispielsweise eine Straßenbreite, eine Fahrbahnbreite, Kurvenradien und/oder Abfahrten. Allgemein umfassen die Sensordaten Abmessungen und/oder Positionen der physischen Objekte, insbesondere der relativen Positionen zueinander. Das heißt also beispielsweise, dass eine Breite, eine Höhe und/oder eine Länge des physischen Objekts erfasst werden. Insbesondere sind bei stationären physischen Objekten auch die jeweilige Position und Abmessungen in den Sensordaten gespeichert. Sensordaten können insbesondere auch Informationen über aktuelle Gegebenheiten umfassen, wie beispielsweise, dass sich an der entsprechenden Position eine Baustelle mit veränderten Straßeneigenschaften befindet. Sensordaten können insbesondere auch Fahrbahnspurdaten umfassen, welche beispielsweise die Information über eine Fahrbahnlinienfarbe umfassen. Sensordaten im Sinne der vorliegenden Erfindung umfassen insbesondere Bilder und/oder Videos. Den Sensordaten ist insbesondere eine entsprechende Position zugeordnet. Vorzugsweise wird eine Fahrzeugposition zum Zeitpunkt des sensorischen Erfassens des Fahrzeugumfelds bestimmt, so dass die bestimmte Fahrzeugposition dem erfassten Fahrzeugumfeld und damit den entsprechenden Sensordaten zugeordnet werden kann.
  • Kern der vorliegenden Erfindung ist also insbesondere, dass in den Sensordaten nach den physischen Objekten gesucht wird. Es wird also insbesondere eine Detektionsanalyse hinsichtlich der physischen Objekte in den Sensordaten durchgeführt, so dass erkannte Objekte in vorteilhafter Weise klassifiziert werden können. Das heißt also insbesondere, dass ein erkanntes Objekt beispielsweise als ein Verkehrszeichen, eine Signalanlage, ein Hinweisschild, ein Begrenzungspfosten, eine Baustelle, eine Brücke, eine Infrastruktur, ein Gebäude, ein Baum oder als eine Schranke eines Bahnübergangs klassifiziert werden kann.
  • Gemäß einer Ausführungsform kann der Umfeldsensor ein Videosensor, ein Radarsensor, ein Ultraschallsensor oder ein Lidarsensor sein. Vorzugsweise kann der Umfeldsensor von einem Umfeldsensorsystem zum sensorischen Erfassen des Fahrzeugumfelds umfasst sein. Das Umfeldsensorsystem kann noch weitere Umfeldsensoren aufweisen, welche vorzugsweise gleich oder unterschiedlich gebildet sein können. Insbesondere kann das Umfeldsensorsystem eine Videokamera, vorzugsweise eine 3D-Videokamera, ein Umfeldkamerasystem zum bildlichen Erfassen eines 360°-Umfelds des Fahrzeugs, einen Flugzeitsensor und/oder einen Fotomischdetektor, auf Englisch auch „photonic mixing device“ (PMD)-Sensor genannt, umfassen. Ein PMD-Sensor kann insbesondere als ein Bildsensor in einer TOF-Kamera verwendet werden, wobei TOF für „time of flight“ steht, und auf Lichtlaufzeitverfahren basiert. Bei der Videokamera kann es sich insbesondere um eine Stereo-Videokamera handeln. Vorzugsweise kann vorgesehen sein, dass die Sensordaten eines jeweiligen Sensors miteinander fusioniert werden, so dass in den fusionierten Sensordaten nach Objekten gesucht wird und dann klassifiziert werden.
  • Nach einer Ausführungsform umfasst der Ermittler einen Abfrager zum Abfragen einer Datenbank basierend auf der bestimmten Fahrzeugposition. In der Datenbank sind Objektdaten, welche Objekten entsprechen, gespeichert, wobei den Objektdaten Positionsdaten zugeordnet sind. Das heißt also insbesondere, dass die Datenbank abgefragt wird, wobei die Abfrage insbesondere basierend auf der bestimmten Fahrzeugposition durchgeführt wird. Das heißt also insbesondere, dass die Fahrzeugposition an die Datenbank gesendet wird, so dass diese dann entsprechend Objektdaten zurücksenden kann, wobei die zurückgesendeten Objektdaten Objekten bzw. einem Objekt entsprechen, welches bzw. welche in Fahrtrichtung nach der bestimmten Fahrzeugposition an der Fahrstrecke angeordnet sind bzw. ist. Der Datenbank wird insofern die Frage gestellt, welches Objekt in Fahrtrichtung nach der bestimmten Fahrzeugposition angeordnet ist. Insbesondere wird abgefragt, was das nächste Objekt relativ zu der bestimmten Fahrzeugposition ist. Die Datenbank antwortet dann entsprechend und sendet die Daten zurück an den Abfrager.
  • In einer weiteren Ausführungsform kann vorgesehen sein, dass der Abfrager eingerichtet ist, die dem detektierten Objekt entsprechenden Sensordaten an die Datenbank zu senden. Das heißt also insbesondere, dass die dem detektierten Objekt entsprechenden Sensordaten an die Datenbank gesendet werden. Dadurch ist beispielsweise in vorteilhafter Weise eine Aktualisierung der Datenbank ermöglicht. Es wird also insbesondere nach der Detektionsanalyse die Datenbank entsprechend aktualisiert.
  • Gemäß einer Ausführungsform ist die Datenbank extern von dem Fahrzeug angeordnet. Mit extern ist insbesondere ein Bereich außerhalb des Fahrzeugs bezeichnet.
  • In einer anderen Ausführungsform kann vorgesehen sein, dass die Datenbank intern in dem Fahrzeug angeordnet ist. Mit intern ist insbesondere ein Bereich im und/oder an dem Fahrzeug bezeichnet.
  • Gemäß einer Ausführungsform kann vorgesehen sein, dass eine Kommunikation zwischen dem Ermittler und der externen Datenbank bzw. einem externen Server umfassend die externe Datenbank beispielsweise mittels eines C2I-Verfahrens durchgeführt wird. Hier steht die Abkürzung „C2I“ für den englischen Ausdruck „car to infrastructure“. Ein C2I-Kommunikationsverfahren bezeichnet insofern ein Kommunikationsverfahren von einem Fahrzeug zu einer Infrastruktur bzw. zu einem physischen Objekt, was kein Fahrzeug ist, wie beispielsweise eine Signalanlage oder eine Basisstation. Vorzugsweise kann eine Kommunikation auch mittels eines Mobilfunkkommunikationsverfahrens durchgeführt werden. Insbesondere kann es sich bei einem solchen Mobilfunkkommunikationsverfahren um das „long-term-evolution“ (LTE)-Kommunikationsverfahren handeln.
  • In einer weiteren Ausführungsform kann vorgesehen sein, dass eine Kommunikation zwischen dem Ermittler und der Datenbank bzw. dem Server umfassend die Datenbank, unabhängig davon, ob es sich um eine interne oder externe Datenbank handelt, mittels drahtloser Kommunikationsverfahren durchgeführt wird. Beispielsweise kann das WLAN-Kommunikationsverfahren und/oder bluetooth für eine Kommunikation zwischen dem Ermittler und der Datenbank verwendet werden.
  • In einer anderen Ausführungsform kann bei einer internen Datenbank vorgesehen sein, dass diese mittels eines Speichermediums, insbesondere einer CD-ROM oder eines USB-Sticks, auf welchem die entsprechenden Objektdaten gespeichert sind, aktualisiert wird.
  • In einer weiteren Ausführungsform können auch mehrere Datenbanken vorgesehen sein. Das heißt also insbesondere, dass mehrere Datenbanken abgefragt werden können, um zu ermitteln, welches Objekt in Fahrtrichtung nach der Fahrzeugposition an der Fahrstrecke angeordnet ist. Die mehreren Datenbanken können insbesondere als interne oder externe Datenbanken gebildet sein. Vorzugsweise können sowohl interne als auch externe Datenbanken gebildet sein. Dadurch wird in vorteilhafter Weise eine Redundanz geschaffen, da bei Ausfall einer Datenbank zumindest noch eine weitere Datenbank zwecks Abfrage zur Verfügung steht.
  • Gemäß einer weiteren Ausführungsform ist eine Zeitbestimmungseinrichtung zum Bestimmen eines Zeitpunkts vorgesehen, zu dem das ermittelte Objekt mittels des Umfeldsensors erfassbar ist, wobei der Filter eingerichtet ist, die Sensordaten entsprechend dem Zeitpunkt zu filtern. Das heißt also insbesondere, dass ein Zeitpunkt bestimmt wird, zu dem das ermittelte Objekt mittels des Umfeldsensors erfassbar ist, wobei die Sensordaten entsprechend dem Zeitpunkt gefiltert werden. Es wird also insbesondere erfasst, wann das Objekt in Sensorreichweite gelangt, so dass das Objekt mittels des Sensors erfasst werden kann. Wenn beispielsweise ermittelt wurde, dass sich das Objekt in einer Entfernung von beispielsweise drei Kilometern relativ zu der bestimmten Fahrzeugposition befindet, so kann dann basierend auf der Fahrzeuggeschwindigkeit berechnet werden, wann das Objekt in die Sensorreichweite gelangt. Hierfür ist insbesondere die Sensorreichweite bekannt. Dadurch wird in vorteilhafter Weise eine noch effizientere und effektivere Filterung der Sensordaten ermöglicht, insofern nun bekannt ist, wann das Objekt kommt. Es muss also nicht mehr in vorteilhafter Weise in Sensordaten nach dem Objekt gesucht werden, in welchen sich das Objekt gar nicht befinden kann, da es noch gar nicht mittels des Umfeldsensors erfassbar ist. Ein entsprechender Rechenaufwand wird so in vorteilhafter Weise erheblich vermindert.
  • In einer anderen Ausführungsform kann vorgesehen sein, dass eine weitere Positionsbestimmungseinrichtung zum Bestimmen einer relativen Position des ermittelten Objekts in Bezug zu dem Umfeldsensor vorgesehen ist, wobei der Filter eingerichtet ist, die Sensordaten entsprechend der relativen Position zu bestimmen. Das heißt also insbesondere, dass eine relative Position des ermittelten Objekts in Bezug zu dem Umfeldsensor bestimmt wird. Die Sensordaten werden insbesondere entsprechend der relativen Position gefiltert. Es wird also beispielsweise bestimmt, ob sich das Objekt relativ zu dem Umfeldsensor oben, unten, links oder rechts befindet. Mit relativ zu dem Umfeldsensor ist insbesondere relativ zu einer Sensorachse gemeint. Somit kann eine Filterung der Sensordaten in vorteilhafter Weise besonders effizient und effektiv durchgeführt werden, insofern bekannt ist, wo sich das Objekt befinden wird. So kann sich beispielsweise das Objekt relativ zu dem Umfeldsensor rechts oberhalb befinden. In einem entsprechenden Sensorbild, welches mittels der Sensordaten gebildet werden kann, befindet sich also das Objekt in einem rechten oberen Bereich. Eine entsprechende Suche nach dem Objekt kann sich insofern in vorteilhafter Weise nur auf diesen rechten oberen Bereich konzentrieren. Die anderen Bereiche des Sensorbilds, also die entsprechenden Sensordaten, müssen nicht mehr nach dem Objekt durchsucht werden. Ein entsprechender Berechnungsaufwand kann somit in vorteilhafter Weise erheblich reduziert werden.
  • Nach einer weiteren Ausführungsform kann vorgesehen sein, dass die Objekte, welche an der Fahrstrecke angeordnet sind, selber sowohl ihre Position und vorzugsweise auch ihren entsprechenden Objekttyp aussenden, insbesondere an den Ermittler senden, so dass dieser in vorteilhafter Weise Kenntnis darüber erlangt, welche Objekte sich wo an der Fahrstrecke befinden.
  • Gemäß einer anderen Ausführungsform kann vorgesehen sein, dass die Filterung der Sensordaten extern von dem Fahrzeug durchgeführt wird. Das heißt also insbesondere, dass die Berechnung bezüglich der Objektdetektion extern durchgeführt wird. Ein entsprechendes Ergebnis kann dann dem Fahrzeug mitgeteilt werden bzw. an das Fahrzeug gesendet werden. Dadurch also, dass die Berechnung extern durchgeführt wird, muss das Fahrzeug nicht über einen entsprechend leistungsmäßig hoch ausgelegten Computer verfügen. Eine Kommunikation zwischen dem Fahrzeug und einem entsprechenden externen Computer bzw. Server kann insbesondere mittels einer der vorgenannten Kommunikationsverfahren durchgeführt werden. Vorzugsweise kann eine interne Berechnung bezüglich der Objektdetektion in dem Fahrzeug durchgeführt werden. Vorzugsweise kann eine Kombination von interner und externer Berechnung vorgesehen sein. Das heißt also insbesondere, dass eine Filterung sowohl intern als auch extern durchgeführt wird. Dadurch können insbesondere in vorteilhafter Weise entsprechende Ergebnisse miteinander verglichen werden, so dass bei einer Abweichung mögliche Fehler erkannt werden können, so dass beispielsweise eine nochmalige Berechnung durchgeführt werden kann.
  • Die Erfindung wird im Folgenden anhand von bevorzugten Ausführungsbeispielen näher erläutert. Hierbei zeigen:
  • 1 eine Vorrichtung zum Detektieren von Objekten in einem Strom von Sensordaten;
  • 2 ein Ablaufdiagramm eines Verfahrens zum Detektieren von Objekten in einem Strom von Sensordaten;
  • 3 ein System zum Detektieren von Objekten in einem Strom von Sensordaten;
  • 4 ein Fahrzeugsystem;
  • 5 zwei Sensorbilder;
  • 6 mehrere Sensorbilder und
  • 7 zwei Sensorbilder.
  • Im Folgenden werden für gleiche Merkmale gleiche Bezugszeichen verwendet.
  • 1 zeigt eine Vorrichtung 101 zum Detektieren von Objekten 103a, 103b, 103c, 103d und 103e in einem Strom, insbesondere einem zeitlichen Strom, von Sensordaten 105. Hierbei werden die Sensordaten 105 mittels eines nicht gezeigten Umfeldsensors eines nicht gezeigten Fahrzeugs gebildet und entsprechen einem mittels des Umfeldsensors sensorisch erfassten Fahrzeugumfeld.
  • Die Vorrichtung 101 umfasst ferner eine Positionsbestimmungseinrichtung 107, mittels welcher eine Fahrzeugposition bestimmt werden kann. Die Vorrichtung 101 umfasst des Weiteren einen Ermittler 109, welcher ermitteln kann, welches Objekt in Fahrtrichtung nach der bestimmten Fahrzeugposition an einer Fahrstrecke des Fahrzeugs angeordnet ist. Ferner ist ein Filter 111 gebildet, welcher die Sensordaten 105 entsprechend dem ermittelten Objekt filtert, um das Objekt in den Sensordaten 105 zu detektieren.
  • Das heißt also insbesondere, dass der Ermittler 109 ermittelt, welche Objekte genau bzw. was für Objekte sich in den Sensordaten 105 befinden. Dadurch also, dass bekannt ist, welche Objekte in den Sensordaten enthalten sind, kann eine entsprechende Filterung effizienter und effektiver durchgeführt werden. Insbesondere kann eine entsprechende Filterung erheblich schneller durchgeführt werden.
  • 2 zeigt ein Ablaufdiagramm eines Verfahrens zum Detektieren von Objekten in einem Strom von Sensordaten. Gemäß einem Schritt 201 werden die Sensordaten mittels eines Umfeldsensors eines Fahrzeugs gebildet, welche einem mittels des Umfeldsensors sensorisch erfassten Fahrzeugumfeld entsprechen. In einem Schritt 203 wird eine Fahrzeugposition bestimmt. Gemäß einem Schritt 205 wird ermittelt, welches Objekt in Fahrtrichtung nach der bestimmten Fahrzeugposition an einer Fahrstrecke des Fahrzeugs angeordnet ist. In einem Schritt 207 werden die Sensordaten entsprechend dem ermittelten Objekt gefiltert, um das Objekt in den Sensordaten zu detektieren.
  • 3 zeigt ein System 301 zum Detektieren von Objekten in einem Strom von Sensordaten. Das System 301 umfasst die Vorrichtung 101 gemäß 1. Ferner umfasst das System 301 einen Server 303 mit einer Datenbank 305. In der Datenbank 305 sind Objektdaten gespeichert, welche Objekten entsprechen. Ferner sind den Objektdaten Positionsdaten zugeordnet. Die Vorrichtung 101 kann insofern in vorteilhafter Weise die Datenbank 305 basierend auf der bestimmten Fahrzeugposition abfragen, um Kenntnis darüber zu erlangen, welches Objekt als nächstes in Fahrtrichtung nach der bestimmten Fahrzeugposition kommt. Die Vorrichtung 101 stellt insofern insbesondere eine entsprechende Anfrage an die Datenbank 305.
  • 4 zeigt ein Fahrzeugsystem 401. Das Fahrzeugsystem 401 umfasst einen Umfeldsensor 403 sowie die Vorrichtung 101 gemäß 1. In einer nicht gezeigten Ausführungsform kann vorgesehen sein, dass das Fahrzeugsystem 401 anstelle der Vorrichtung 101 das System 301 gemäß 3 umfasst.
  • 5 zeigt zwei Sensorbilder 501a und 501b. Hierbei entsprechen die Sensorbilder 501a und 501b einem Videobild, welches mittels einer Videokamera durch eine Frontscheibe eines Fahrzeugs aufgenommen wurde. In einem rechten oberen Bereich in den Sensorbildern 501a und 501b ist ein Verkehrszeichen 503 zu erkennen, welches anzeigt, dass die zulässige Höchstgeschwindigkeit auf diesem Streckenabschnitt 80 km pro Stunde beträgt.
  • Gemäß dem linken Sensorbild 501a umfasst ein Suchbereich 505 zur Detektion des Verkehrszeichens 503 das gesamte Sensorbild 501a. Das heißt also insbesondere, dass in den gesamten Sensordaten, welche das Sensorbild 501a bilden, nach dem Verkehrszeichen 503 gesucht werden muss. Ein entsprechender Berechnungsaufwand ist erheblich. Ferner ist eine solche Berechnung auch sehr zeitaufwändig. Allerdings ist es in der Regel notwendig, den Suchbereich 505 auf das gesamte Sensorbild 501 auszudehnen, da keine spezifischen Informationen betreffend des Verkehrszeichens 503 bzw. allgemein betreffend der zu erkennenden physischen Objekte vorliegen. Das heißt also insbesondere, dass nicht bekannt ist, was das nächste Objekt ist, wann das nächste Objekt kommt und wo sich das nächste Objekt befinden wird.
  • Diese Informationen, das heißt also was das nächste Objekt ist und insbesondere wann das nächste Objekt kommt und vorzugsweise wo sich das nächste Objekt befinden wird, können beispielsweise aus einer Datenbank abgefragt werden. Wenn diese Informationen bekannt sind, wobei insbesondere vorgesehen sein kann, dass es bereits ausreichend ist, dass nur bekannt ist, was das nächste Objekt ist, so kann der Suchbereich 505 verkleinert werden. Dies ist im rechten Sensorbild 501b gezeigt. Die entsprechenden Sensordaten, welche das Sensorbild 501b bilden, müssen somit nicht mehr komplett durchsucht werden, es reicht aus, nur einen kleinen Teil der Sensordaten zu durchsuchen. Ein entsprechender Berechnungsaufwand ist insofern im Vergleich zum rechten Sensorbild 501a in vorteilhafter Weise erheblich reduziert und kann erheblich schneller durchgeführt werden.
  • 6 zeigt schematisch mehrere zeitlich hintereinander aufgenommene Sensorbilder 601, 603, 605, 607. Da mittels einer Datenbankabfrage bekannt ist, was das nächste Objekt ist, wann das nächste Objekt kommt und wo sich das nächste Objekt befinden wird, wobei es lediglich insbesondere ausreichend sein kann zu wissen, was das nächste Objekt ist, kann ein entsprechender Suchbereich 609 verkleinert werden. Insbesondere wenn bekannt ist, wann das nächste Objekt kommt, kann lediglich vorgesehen sein, dass Sensorbild 607 entsprechend dem Suchbereich 609 zu durchsuchen. Die zeitlich vorherigen Sensorbilder 601, 603 und 605 müssen nicht durchsucht werden, da hier ausgeschlossen werden kann, dass sich in diesen Sensorbildern das gesuchte Objekt befindet.
  • 7 zeigt zwei weitere Sensorbilder 701 und 703. Ein zu detektierendes bzw. zu erkennendes Verkehrszeichen ist hier mittels des Bezugszeichens 705 symbolisch gekennzeichnet. Bei dem Verkehrszeichen 705 handelt es sich um ein Verkehrszeichen, welches anzeigt, dass eine zulässige Höchstgeschwindigkeit auf dem Streckenabschnitt 50 km/h beträgt. Ein entsprechender Suchbereich für das Sensorbild 701 ist mittels des Bezugszeichens 707 gekennzeichnet. Ein entsprechender Suchbereich für das Sensorbild 703 ist mittels des Bezugszeichens 709 gekennzeichnet.
  • Wie 7 deutlich zeigt, ist der Suchbereich 709 größer als der Suchbereich 707. Das heißt also insbesondere, dass ein größerer Bereich in dem Sensorbild 703 durchsucht wird im Vergleich zu dem Sensorbild 701, um das Verkehrszeichen 705 in den entsprechenden Sensordaten zu detektieren.
  • Dadurch, dass ein Suchbereich vergrößert wird, ist insofern in vorteilhafter Weise ein Sicherheitspuffer geschaffen, welcher insbesondere Ungenauigkeiten berücksichtigen kann. Bei solchen Ungenauigkeiten kann es sich beispielsweise um ungenaue Sensordaten handeln, welche aus einer mangelnden Qualität eines Sensors resultieren. Somit kann insofern insbesondere in vorteilhafter Weise bei einer entsprechenden Filterung auch eine Sensorqualität bzw. Sensorgüte berücksichtigt werden. Das heißt insbesondere, dass bei einem Sensor mit einem geringen Gütefaktor, welche also insbesondere Sensordaten mit geringer Güte bzw. in einer geringen Qualität liefert, der Suchbereich automatisch vergrößert wird im Vergleich zu einem Sensor mit einem hohen Gütefaktor, welcher also insbesondere Sensordaten mit hoher Güte bzw. in einer hohen Qualität liefert.
  • In einer weiteren nicht gezeigten Ausführungsform kann vorgesehen sein, dass in der Datenbank charakteristische Merkmale der physischen Objekte gespeichert sind, die in vorteilhafter Weise eine Analyse des Suchbereichs nach dem Objekt erleichtern können. Beispielsweise kann es sich bei solchen charakteristischen Merkmalen um eine Farbe und/oder eine Größenangabe des Objekts handeln.
  • In einer weiteren nicht gezeigten Ausführungsform sind in der Datenbank Zusatzdaten über die Objekte gespeichert, die in vorteilhafter Weise eine Analyse des Suchbereichs nach dem Objekt erleichtern können. Diese Zusatzdaten können beispielsweise die Information umfassen, dass das Objekt verdreckt ist oder dass das Objekt teilweise zerstört ist.
  • In einer anderen nicht gezeigten Ausführungsform sind in der Datenbank für die Objekte und die entsprechenden Objektdaten Qualitätsangaben integriert. Das heißt also insbesondere, dass die Datenbank die Information abgespeichert hat, wie gut die Objektdaten sind. Das heißt also insbesondere, dass die Information abgespeichert ist, mittels welchen Sensors die Objektdaten aufgenommen wurden. Ein schlechter Sensor kann beispielsweise ein Sensor eines Smartphones sein, ein guter Sensor kann beispielsweise ein Sensor einer Stereokamera sein.
  • Die vorgenannten Ausführungen betreffend der Sensorbilder sollen sich nicht nur auf Sensorbilder einer Videokamera beschränken, sondern sind allgemein für weitere Sensoren gültig. Die vorgenannten Ausführungen sind allgemeingültig für beliebige Umfeldsensoren, welche ein Umfeld sensorisch erfassen können.
  • Vorzugsweise werden die dem detektierten Objekt entsprechenden Sensordaten an die Datenbank gesendet, so dass vorzugsweise diese in vorteilhafter Weise sich entsprechend aktualisieren kann. Insbesondere wenn die gesendeten Sensordaten eine höhere Qualität aufweisen als die abgespeicherten Objektdaten, ist eine Aktualisierung sehr sinnvoll. Eine höhere Qualität kann beispielsweise bedeuten, dass die Sensordaten mittels eines besseren, insbesondere höher auflösenden, Sensors aufgenommen wurden als die Objektdaten. Insbesondere kann vorgesehen sein, dass mittels der gesendeten Sensordaten eine Aktualisierung der Zusatzdaten durchgeführt wird. Beispielsweise können die abgespeicherten Zusatzdaten die Information umfassen, dass das Objekt verdreckt und/oder beschädigt ist. Gemäß den Sensordaten, welche in der Regel aktueller sind als die abgespeicherten Zusatzdaten, ist das Objekt aber nicht verdreckt bzw. nicht beschädigt. Die Datenbank kann nun diese aktuellere Information zu den entsprechenden Objektdaten abspeichern. Beispielsweise können die abgespeicherten Zusatzdaten die Information umfassen, dass das Objekt sauber und/oder unbeschädigt ist. Gemäß den Sensordaten, ist das Objekt aber verdreckt bzw. beschädigt. Die Datenbank kann insofern in vorteilhafter Weise aktualisiert werden.
  • In einer weiteren Ausführungsform kann vorgesehen sein, dass eine erste Analyse, auch Kurzanalyse genannt, in den Sensordaten nach den zu suchenden Objekten durchgeführt wird. Bei der Kurzanalyse kann insbesondere das gesamte Bild durchsucht werden. Bei den Objekten kann es sich beispielsweise um Verkehrszeichen oder insbesondere speziell um Geschwindigkeitszeichen handeln. Mittels der Kurzanalyse wird also am Beispiel „Verkehrszeichen-Geschwindigkeit“ grob das Sensorbild nach entsprechenden charakteristischen Merkmalen der Geschwindigkeitsverkehrszeichen, hier beispielsweise ein roter Ring, durchgeführt. Es wird in diesem Schritt aber noch keine Detailanalyse durchgeführt um beispielsweise zu erkennen, dass das mögliche Verkehrszeichen anzeigt, dass die zulässige Höchstgeschwindigkeit 70 km/h oder 100 km/h beträgt.
  • Diese Detailanalyse auf den entsprechenden Suchbereich wird durchgeführt, wenn gemäß der Erfindung ein entsprechender Suchbereich festgelegt werden kann, da gemäß einer Datenbankabfrage das zu suchende Objekt bekannt ist und insbesondere wann und/oder vorzugsweise wo das zu suchende Objekt in den Sensordaten erscheinen wird. Ferner kann eine entsprechende Detailanalyse auch durchgeführt werden, wenn gemäß der Kurzanalyse das Objekt im Suchbereich gefunden wurde.
  • In einer anderen nicht gezeigten Ausführungsform kann vorgesehen sein, dass ein entsprechender Suchbereich ein- oder zwei- oder mehrdimensional sein kann.
  • Zusammenfassend umfasst also die Erfindung insbesondere den Gedanken, eine Objektdetektionsanalyse durch bekannte Daten aus einer Datenbank zu triggern. Das heißt also insbesondere, dass die Objektdetektion vorparametrisiert wird. Insbesondere wird also ermittelt, was das nächste Objekt ist und/oder wann das nächste Objekt kommt und/oder wo sich das nächste Objekt befinden wird. Insbesondere mittels einer Datenbankabfrage kann ermittelt werden, was das nächste Objekt relativ zu einer momentanen Fahrzeugposition in Fahrtrichtung sein wird. Insbesondere mittels der Information, wann das nächste Objekt kommt und insbesondere mittels der Information, wo sich das nächste Objekt befinden wird, kann ein entsprechender Suchbereich in den Sensordaten bzw. den Sensorbildern festgelegt werden. Insbesondere können hierfür Objektpositionsdaten und/oder Routendaten und/oder Straßendaten, beispielsweise ein Straßenverlauf wie insbesondere ein gerade oder kurviger Verlauf, und/oder eine momentane Fahrzeugposition und/oder eine momentane Geschwindigkeit und/oder eine Sensoraufnahmefrequenz verwendet werden, um zu berechnen, wann und wo das Objekt in den Sensordaten erscheinen wird. Vorzugsweise können noch weitere Daten für die Berechnung zusätzlich integriert werden.
  • Mittels der Erfindung ist es also in vorteilhafter Weise ermöglicht, dass eine Detektionsrate erheblich gesteigert werden kann, da insbesondere eine Rechenleistung durch die Vorparametrisierung und somit der Kenntnis, welches Objekt sich wann und wo befindet, optimal verwendet werden kann. Ferner ist auch eine Reduktion von Kosten in vorteilhafter Weise ermöglicht.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2007/0154067 A1 [0002]

Claims (13)

  1. Vorrichtung (101) zum Detektieren von Objekten (103a, 103b, 103c, 103d, 103e) in einem Strom von Sensordaten (105), wobei die Sensordaten (105) mittels eines Umfeldsensors (403) eines Fahrzeugs gebildet werden und einem mittels des Umfeldsensors (403) sensorisch erfassten Fahrzeugumfeld entsprechen, umfassend: – eine Positionsbestimmungseinrichtung (107) zum Bestimmen einer Fahrzeugposition, – einen Ermittler (109) zum Ermitteln, welches Objekt in Fahrtrichtung nach der bestimmten Fahrzeugposition an einer Fahrstrecke des Fahrzeugs angeordnet ist, und – einen Filter (111) zum Filtern der Sensordaten (105) entsprechend dem ermittelten Objekt, um das Objekt in den Sensordaten (105) zu detektieren.
  2. Vorrichtung (101) nach Anspruch 1, wobei der Ermittler (109) einen Abfrager zum Abfragen einer Datenbank (305) basierend auf der bestimmten Fahrzeugposition umfasst, in der Objekte entsprechende Objektdaten mit zugeordneten Positionsdaten gespeichert sind.
  3. Vorrichtung nach Anspruch 2, wobei der Abfrager eingerichtet ist, die dem detektierten Objekt entsprechenden Sensordaten an die Datenbank zu senden.
  4. Vorrichtung (101) nach einem der vorherigen Ansprüche, wobei eine Zeitbestimmungseinrichtung zum Bestimmen eines Zeitpunkts vorgesehen ist, zu dem das ermittelte Objekt mittels des Umfeldsensors (403) erfassbar ist, wobei der Filter (111) eingerichtet ist, die Sensordaten (105) entsprechend dem Zeitpunkt zu filtern.
  5. Vorrichtung (101) nach einem der vorherigen Ansprüche, wobei eine weitere Positionsbestimmungseinrichtung zum Bestimmen einer relativen Position des ermittelten Objekts in Bezug zu dem Umfeldsensor (403) vorgesehen ist und der Filter (111) eingerichtet ist, die Sensordaten (105) entsprechend der relativen Position zu filtern.
  6. Verfahren zum Detektieren von Objekten (103a, 103b, 103c, 103d, 103e) in einem Strom von Sensordaten (105), wobei die Sensordaten (105) mittels eines Umfeldsensors (403) eines Fahrzeugs gebildet werden und einem mittels des Umfeldsensors (403) sensorisch erfassten Fahrzeugumfeld entsprechen, umfassend ferner die folgenden Schritte: – Bestimmen (203) einer Fahrzeugposition, – Ermitteln (205), welches Objekt in Fahrtrichtung nach der bestimmten Fahrzeugposition an einer Fahrstrecke des Fahrzeugs angeordnet ist, – Filtern (207) der Sensordaten (105) entsprechend dem ermittelten Objekt, um das Objekt in den Sensordaten (105) zu detektieren.
  7. Verfahren nach Anspruch 6, wobei der Schritt des Ermittelns ein Abfragen einer Datenbank (305) basierend auf der bestimmten Fahrzeugposition umfasst, in der Objekte entsprechende Objektdaten mit zugeordneten Positionsdaten gespeichert sind.
  8. Verfahren nach Anspruch 7, wobei die dem detektierten Objekt entsprechenden Sensordaten an die Datenbank gesendet werden.
  9. Verfahren nach einem der Ansprüche 6 bis 8, wobei ein Zeitpunkt bestimmt wird, zu dem das ermittelte Objekt mittels des Umfeldsensors (403) erfassbar ist, und die Sensordaten (105) entsprechend dem Zeitpunkt gefiltert werden.
  10. Verfahren nach einem der Ansprüche 6 bis 9, wobei eine relative Position des ermittelten Objekts in Bezug zu dem Umfeldsensor (403) bestimmt wird und die Sensordaten (105) entsprechend der relativen Position gefiltert werden.
  11. System (301) zum Detektieren von Objekten (103a, 103b, 103c, 103d, 103e) in einem Strom von Sensordaten (105), wobei die Sensordaten (105) mittels eines Umfeldsensors (403) eines Fahrzeugs gebildet werden und einem mittels des Umfeldsensors (403) sensorisch erfassten Fahrzeugumfeld entsprechen, umfassend eine Vorrichtung nach einem der Ansprüche 1 bis 5 und einen Server (303) umfassend eine Datenbank (305), in der Objekte entsprechende Objektdaten mit zugeordneten Positionsdaten gespeichert sind.
  12. Fahrzeugsystem (401), umfassend einen Umfeldsensor (403) zum sensorischen Erfassen eines Fahrzeugumfelds und eine Vorrichtung nach einem der Ansprüche 1 bis 5 oder das System (301) nach Anspruch 11.
  13. Computerprogramm, umfassend Programmcode zur Ausführung des Verfahrens nach einem der Ansprüche 6 bis 10, wenn das Computerprogramm auf einem Computer ausgeführt wird.
DE102011085060A 2011-10-24 2011-10-24 Vorrichtung und Verfahren zum Detektieren von Objekten in einem Strom von Sensordaten Pending DE102011085060A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102011085060A DE102011085060A1 (de) 2011-10-24 2011-10-24 Vorrichtung und Verfahren zum Detektieren von Objekten in einem Strom von Sensordaten
PCT/EP2012/066647 WO2013060505A1 (de) 2011-10-24 2012-08-28 Vorrichtung und verfahren zum detektieren von objekten in einem strom von sensordaten
EP12759389.5A EP2771843A1 (de) 2011-10-24 2012-08-28 Vorrichtung und verfahren zum detektieren von objekten in einem strom von sensordaten
CN201280052083.8A CN103890784A (zh) 2011-10-24 2012-08-28 用于在传感器数据的流中探测对象的设备和方法
US14/353,209 US20140350852A1 (en) 2011-10-24 2012-08-28 Device and method for detecting objects in a stream of sensor data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011085060A DE102011085060A1 (de) 2011-10-24 2011-10-24 Vorrichtung und Verfahren zum Detektieren von Objekten in einem Strom von Sensordaten

Publications (1)

Publication Number Publication Date
DE102011085060A1 true DE102011085060A1 (de) 2013-04-25

Family

ID=46851948

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011085060A Pending DE102011085060A1 (de) 2011-10-24 2011-10-24 Vorrichtung und Verfahren zum Detektieren von Objekten in einem Strom von Sensordaten

Country Status (5)

Country Link
US (1) US20140350852A1 (de)
EP (1) EP2771843A1 (de)
CN (1) CN103890784A (de)
DE (1) DE102011085060A1 (de)
WO (1) WO2013060505A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106133751A (zh) * 2014-03-20 2016-11-16 罗伯特·博世有限公司 用于运行车辆的方法和设备

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10024667B2 (en) * 2014-08-01 2018-07-17 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable earpiece for providing social and environmental awareness
DE102014221888A1 (de) * 2014-10-28 2016-04-28 Robert Bosch Gmbh Verfahren und Vorrichtung zur Lokalisierung eines Fahrzeugs in seinem Umfeld
DE102015210015A1 (de) * 2015-06-01 2016-12-01 Robert Bosch Gmbh Verfahren und Vorrichtung zur Positionsbestimmung eines Fahrzeugs
DE102016205867A1 (de) * 2016-04-08 2017-10-12 Robert Bosch Gmbh Verfahren zur Bestimmung einer Pose eines wenigstens teilautomatisiert fahrenden Fahrzeugs mittels verschiedener Landmarkentypen
EP3563365A4 (de) * 2017-01-02 2020-08-12 Visteon Global Technologies, Inc. Verwendung von fahrzeugsensorinformationen zum abrufen von daten
DE102018219984B3 (de) * 2018-11-22 2020-03-26 Volkswagen Aktiengesellschaft Verfahren und System zum Unterstützen eines automatisiert fahrenden Fahrzeugs
JP7044694B2 (ja) * 2018-12-27 2022-03-30 ヤンマーパワーテクノロジー株式会社 作業車両用の障害物検知システム
DE102020211483A1 (de) * 2020-09-14 2022-03-17 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Testen eines Sensorsystems eines Kraftfahrzeugs

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070154067A1 (en) 1998-10-23 2007-07-05 Facet Technology Corp. Method and apparatus for identifying objects depicted in a videostream

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070154067A1 (en) 1998-10-23 2007-07-05 Facet Technology Corp. Method and apparatus for identifying objects depicted in a videostream

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106133751A (zh) * 2014-03-20 2016-11-16 罗伯特·博世有限公司 用于运行车辆的方法和设备

Also Published As

Publication number Publication date
WO2013060505A1 (de) 2013-05-02
EP2771843A1 (de) 2014-09-03
US20140350852A1 (en) 2014-11-27
CN103890784A (zh) 2014-06-25

Similar Documents

Publication Publication Date Title
DE102011085060A1 (de) Vorrichtung und Verfahren zum Detektieren von Objekten in einem Strom von Sensordaten
EP3688742B1 (de) System zur erzeugung und/oder aktualisierung eines digitalen modells einer digitalen karte
DE112020002175T5 (de) Systeme und verfahren zur fahrzeugnavigation
EP3155603B1 (de) Verfahren zur ermittlung von positionsdaten zur nutzung beim betrieb eines fahrzeugsystems eines kraftfahrzeugs und positionsdatenermittlungs- und -verteilungssystem
EP2850607B1 (de) Verfahren und system zur erstellung eines aktuellen situationsabbilds
DE102017203838A1 (de) Verfahren und System zur Umfelderfassung
DE112018002143T5 (de) Systeme und verfahren zur kompression von fahrspurdaten
EP3292423B1 (de) Diagnoseverfahren für einen sichtsensor eines fahrzeugs und fahrzeug mit einem sichtsensor
EP2936470B1 (de) Verfahren und system zum lernen von verkehrsereignissen sowie verwendung des systems
DE102014220681A1 (de) Verkehrssignalvorhersage
DE102011081614A1 (de) Verfahren und Vorrichtung zur Analysierung eines von einem Fahrzeug zu befahrenden Streckenabschnitts
EP3436782B1 (de) Aktualisierung einer elektronischen landkarte
EP3616181A1 (de) Verfahren zum automatischen erstellen und aktualisieren eines datensatzes für ein autonomes fahrzeug
EP2764505B1 (de) Anzeigeverfahren und anzeigesystem für ein fahrzeug
DE102008023970A1 (de) Verfahren und Vorrichtung zur Erkennung von verkehrsrelevanten Informationen
DE102014009627A1 (de) Verfahren zur Meldung einer freien Parklücke für ein Fahrzeug
DE102015218964A1 (de) Verfahren und System zum Ermitteln von Verkehrsteilnehmern mit Interaktionspotential
DE102011082379A1 (de) Verfahren zum Erfassen von Navigationsdaten
DE102014008429A1 (de) Verfahren und Vorrichtung zur Ermittlung freier Abstellplätze auf LKW-Parkplätzen und Mitteilung an LKW-Fahrer
DE112020005275T5 (de) Systeme und verfahren zur selektiven verzögerung eines fahrzeugs
EP3769042A1 (de) System zur erzeugung von konfidenzwerten im backend
DE102018218436A1 (de) Fahrzeugparkassistenz
DE102022128968A1 (de) Systeme und verfahren zum sammeln von bildern zur fahrzeugnavigation
DE112014002958T5 (de) Verwalten von Sensorerkennung in einem Fahrerassistenzsystem eines Fahrzeugs
DE102017214293B4 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zum Verarbeiten von Daten in einem Kraftfahrzeug für einen Versand an ein Backend

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000