DE102016118902A1 - Kollisionsvermeidung mit durch Kartendaten erweiterten auditorischen Daten - Google Patents

Kollisionsvermeidung mit durch Kartendaten erweiterten auditorischen Daten Download PDF

Info

Publication number
DE102016118902A1
DE102016118902A1 DE102016118902.2A DE102016118902A DE102016118902A1 DE 102016118902 A1 DE102016118902 A1 DE 102016118902A1 DE 102016118902 A DE102016118902 A DE 102016118902A DE 102016118902 A1 DE102016118902 A1 DE 102016118902A1
Authority
DE
Germany
Prior art keywords
vehicle
sound
location
microphones
predicted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016118902.2A
Other languages
English (en)
Inventor
Brielle Reiff
Madeline Jane Goh
Nithika Sivashankar
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102016118902A1 publication Critical patent/DE102016118902A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/025Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
    • B62D15/0265Automatic obstacle avoidance by steering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/28Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves by co-ordinating position lines of different shape, e.g. hyperbolic, circular, elliptical or radial
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0965Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages responding to signals from another vehicle, e.g. emergency vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/326Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only for microphones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/10Transducer, e.g. piezoelectric elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/20Data confidence level
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9316Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles combined with communication equipment with other vehicles or with base stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9322Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using additional data, e.g. driver condition, road state or weather data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Emergency Management (AREA)
  • Traffic Control Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Navigation (AREA)

Abstract

Eine Steuerung für ein autonomes Fahrzeug empfängt Tonsignale aus einem oder mehreren Mikrofonen und identifiziert Töne. Die Steuerung identifiziert ferner einen geschätzten Ort des Tonursprungs und der Tonart, d.h. ob der Ton ein Fahrzeug ist und/oder die Art von Fahrzeug. Von der Steuerung werden Kartendaten ausgewertet und versucht, eine Landmarke innerhalb einer Toleranz von dem geschätzten Ort zu identifizieren. Wenn eine Landmarke entsprechend dem geschätzten Ort und der geschätzten Art des Tonursprungs gefunden wird, dann wird die Gewissheit erhöht, dass die Quelle des Tons an diesem Ort liegt und diese Art von Tonquelle ist. Kollisionsvermeidung wird dann hinsichtlich des Ortes des Tonursprungs und seiner Art mit der durch die Verwendung der Kartendaten verstärkten Gewissheit durchgeführt. Kollisionsvermeidung kann automatisches Betätigen von Brems-, Lenk- und Gaspedalaktoren umfassen, um den Ort des Tonursprungs zu vermeiden.

Description

  • HINTERGRUND
  • ERFINDUNGSGEBIET
  • Die vorliegende Erfindung betrifft die Durchführung von Hindernisvermeidung in autonomen Fahrzeugen.
  • HINTERGRUND DER ERFINDUNG
  • Autonome Fahrzeuge sind mit Sensoren ausgerüstet, die ihre Umgebung erkennen. Durch einen Algorithmus wird die Ausgabe der Sensoren ausgewertet und werden Hindernisse gekennzeichnet. Ein Navigationssystem kann dann das Fahrzeug steuern, bremsen und/oder beschleunigen, um die gekennzeichneten Hindernisse zu vermeiden sowie ein gewünschtes Ziel zu erreichen. Sensoren können sowohl Abbildungssystem-, z.B. Videokameras, wie auch RADAR- oder LIDAR-Sensoren umfassen.
  • Die hier offenbarten Systeme und Verfahren bieten einen verbesserten Ansatz zum Erkennen von Hindernissen.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Damit die Vorteile der Erfindung leicht zu verstehen sind, wird eine ausführlichere Beschreibung der oben kurz beschriebenen Erfindung durch Bezugnahme auf in den beiliegenden Zeichnungen dargestellte bestimmte Ausführungsformen erteilt. Mit dem Verständnis, dass diese Zeichnungen nur typische Ausführungsformen der Erfindung zeigen und daher nicht als ihren Schutzumfang begrenzend zu betrachten sind, wird die Erfindung mit zusätzlicher Genauigkeit und Ausführlichkeit durch Verwendung der beiliegenden Zeichnungen beschrieben und erläutert, in denen:
  • 1 ein schematisches Blockschaltbild eines Systems zum Umsetzen von Ausführungsformen der Erfindung ist;
  • 2 ein schematisches Blockschaltbild einer zum Umsetzen von Verfahren gemäß Ausführungsformen der Erfindung geeigneten beispielhaften Rechenvorrichtung ist;
  • 3A und 3B Hinderniserkennung unter Verwendung von Auditorischen- und Kartendaten darstellende Diagramme sind; und
  • 4 ein Verfahrensflussdiagramm eines Verfahrens zum Durchführen von Kollisionsvermeidung basierend auf sowohl Auditorischen- als auch Kartendaten gemäß einer Ausführungsform der vorliegenden Erfindung ist.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Es versteht sich, dass die Komponenten der vorliegenden Erfindung wie allgemein in den hiesigen Figuren beschrieben und dargestellt in einer großen Vielzahl unterschiedlicher Anordnungen angeordnet und ausgelegt sein könnten. So soll die folgende ausführlichere Beschreibung der Ausführungsformen der Erfindung, sowie sie in den Figuren dargestellt sind, den Schutzumfang der beanspruchten Erfindung nicht begrenzen, sondern ist nur für gewisse Beispiele gegenwärtig in Betracht gezogener Ausführungsformen gemäß der Erfindung repräsentativ. Die gegenwärtig beschriebenen Ausführungsformen werden am besten durch Bezugnahme auf die Zeichnungen verständlich, worin gleiche Teile insgesamt durch gleiche Ziffern bezeichnet sind.
  • Ausführungsformen gemäß der vorliegenden Erfindung können als eine Einrichtung, ein Verfahren oder ein Computerprogrammprodukt ausgeführt sein. Dementsprechend kann die vorliegende Erfindung die Form einer vollständigen Hardwareausführungsform, einer vollständigen Softwareausführungsform (einschließlich von Firmware, residenter Software, Mikrocode usw.) oder einer Software und Hardwareaspekte vereinigenden Ausführungsform annehmen, die alle allgemein hier als ein "Modul" oder "System" bezeichnet sein können. Ferner kann die vorliegende Erfindung die Form eines in jedem beliebigen fassbaren Ausdrucksmedium mit in dem Medium verkörperten computerlesbaren Programmcode verkörperten Computerprogrammprodukts annehmen.
  • Es kann jede Kombination eines oder mehrerer computernutzbarer oder computerlesbarer Medien benutzt werden. Zum Beispiel kann ein computerlesbares Medium ein oder mehrere einer tragbaren Computerdiskette, einer Festplatte, einer Direktzugriffsspeicher-(RAM – Random Access Memory)Vorrichtung, einer Nurlesespeicher-(ROM – Read-Only Memory)Vorrichtung, einer löschbaren programmierbaren Nurlesespeicher-(EPRON oder Flash-Speicher-)Vorrichtung, einer tragbaren Disketten-Nurlesespeicher-(CDROM – Compact Disc Read-Only Memory)Vorrichtung, einer optischen Speichervorrichtung und einer Magnetspeichervorrichtung umfassen. In ausgewählten Ausführungsformen kann ein computerlesbares Medium jedes nichtflüchtige Medium umfassen, das das Programm zur Verwendung durch oder in Verbindung mit dem/der Anweisungsausführungssystemeinrichtung oder -vorrichtung enthalten, speichern, übermitteln, ausbreiten oder transportieren kann, umfassen.
  • Computerprogrammcode zum Ausführen von Operationen der vorliegenden Erfindung kann in jeder beliebigen Kombination von einer oder mehreren Programmiersprachen geschrieben sein, einschließlich einer objektorientierten Programmiersprache wie beispielsweise Java, Smalltalk, C++ oder dergleichen und herkömmlichen verfahrenstechnischen Programmiersprachen wie beispielsweise der Programmiersprache "C" oder ähnlichen Programmiersprachen geschrieben sein. Der Programmcode kann vollständig auf einem Computersystem als alleinstehendes Softwarepaket, auf einer freistehenden Hardwareeinheit, teilweise auf einem etwas vom Computer beabstandeten entfernten Computer oder auf einem entfernten Computer oder Server ausgeführt werden. In dem letzteren Szenario kann der entfernte Computer durch eine beliebige Art von Netz mit dem Computer verbunden sein, einschließlich eines Ortsnetzes (LAN – Local Area Network) oder eines Fernverkehrsnetzes (WAN – Wide Area Network) verbunden sein oder die Verbindung kann mit einem externen Computer hergestellt sein (zum Beispiel durch das Internet mit einem Internet-Dienstanbieter).
  • Die vorliegende Erfindung wird unten unter Bezugnahme auf Flussdiagrammdarstellungen und/oder Blockschaltbilder von Verfahren, Einrichtungen (Systemen) und Computerprogrammprodukten gemäß Ausführungsformen der Erfindung beschrieben. Es versteht sich, dass jeder Block der Flussdiagrammdarstellungen und/oder Blockdiagramme und Kombinationen von Blöcken in den Flussdiagrammdarstellungen und/oder Blockdiagrammen durch Computerprogrammanweisungen oder -code umgesetzt werden können. Diese Computerprogrammanweisungen können für einen Prozessor eines Universalrechners, Sonderrechners oder sonstigen programmierbaren Datenverarbeitungsgeräten zum Erzeugen einer Maschine bereitgestellt werden, so dass die Anweisungen, die über den Prozessor des Rechners oder sonstiges programmierbares Datenverarbeitungsgerät ausgeführt werden, Mittel zum Umsetzen der in dem Flussdiagramm und/oder Blockschaltbildblock oder -blöcken angegebenen Funktionen/Handlungen erzeugen.
  • Diese Computerprogrammanweisungen können auch in einem nichtflüchtigen computerlesbaren Medium gespeichert sein, das einen Computer oder sonstiges programmierbares Datenverarbeitungsgerät anweisen kann, auf eine bestimmte Weise zu funktionieren, so dass die in dem computerlesbaren Medium gespeicherten Anweisungen ein Herstellungserzeugnis mit Anweisungsmittel erzeugen, die die in dem Flussdiagramm und/oder Blockschaltbildblock oder -blöcken angegebene Funktion/Handlung umsetzen.
  • Die Computerprogrammanweisungen können auch in einen Computer oder sonstiges programmierbares Datenverarbeitungsgerät eingeladen werden, um die Durchführung einer Reihe von Betriebsschritten auf dem Computer oder sonstigem programmierbaren Gerät zum Erzeugen eines computerimplementierten Verfahrens zu veranlassen, so dass die Anweisungen, die auf dem Computer oder sonstigem programmierbaren Gerät ausgeführt werden, Verfahren zum Umsetzen der in dem Flussdiagramm und/oder Blockschaltbildblock oder -blöcken angegebenen Funktionen/Handlungen bereitstellen.
  • Bezugnehmend auf 1 kann eine Steuerung 102 in einem Fahrzeug untergebracht sein. Das Fahrzeug kann jedes beliebige in der Technik bekannte Fahrzeug umfassen. Das Fahrzeug kann alle der Strukturen und Merkmale jedes beliebigen in der Technik bekannten Fahrzeugs einschließlich von Rädern, einem an die Räder angekoppelten Antriebsstrang, einen an den Antriebsstrang angekoppelten Motor, ein Lenksystem, ein Bremssystem und sonstige Systeme aufweisen, die in der Technik als in einem Fahrzeug enthalten bekannt sind.
  • Wie ausführlicher hier besprochen kann die Steuerung 102 autonome Navigation und Kollisionsvermeidung durchführen. Insbesondere können Auditorische- und Kartendaten ausgewertet werden, um mögliche Hindernisse zu kennzeichnen.
  • Die Steuerung 102 kann eine im Fahrzeug untergebrachte oder sonstwie der Steuerung 102 zugängliche Datenbank 104 umfassen oder darauf zugreifen. Die Datenbank 104 kann Daten ausreichend zum Ermöglichen der Kennzeichnung eines Hindernisses unter Verwendung von Kartendaten umfassen. Zum Beispiel können Tondaten 106 durch eine oder mehrere Arten von Fahrzeugen oder sonstige mögliche Hindernisse erzeugte Töne beschreibende Daten enthalten. Zum Beispiel können Tondaten 106 Proben der durch ein oder mehrere Arten von Fahrzeugen, Tieren (z.B. Hundebellen), sprechenden Personen und dergleichen erzeugten Töne umfassen. Alternativ können Tondaten 106 solche Töne beschreibende Daten enthalten, wie beispielsweise ein Spektrum solcher Töne oder sonstige, aus einer Aufzeichnung solcher Töne abgeleitete Daten enthalten.
  • Die Datenbank 104 kann ferner Kartendaten 108 enthalten. Die Kartendaten 108 können Karten im Gebiet des Fahrzeugs umfassen, wie beispielsweise der Stadt, des Staats oder des Landes, in dem sich das Fahrzeug befindet. Die Karten können Straßen, Landmarken, Geschäfte, öffentliche Gebäude usw. beschreibende Daten enthalten. Insbesondere können die Kartendaten 108 die Standorte von Notfahrzeugstationen (Feuerwachen, Krankenhäuser mit Ambulanzdienst, Polizeiwachen usw.) umfassen.
  • In einigen Ausführungsformen kann die Steuerung 102 sich periodisch mit einem Netz 110 wie beispielsweise dem Internet oder sonstigem Netz verbinden. Die Steuerung 102 kann einige oder alle der in der Datenbank 104 gespeicherten Daten von einem oder mehreren Servern 112 abrufen, die eine solche Informationen speichernde Datenbank 114 hosten oder darauf zugreifen. Zum Beispiel können Tonsignaturen oder Proben von Tönen eines oder mehrerer Fahrzeuge oder sonstiger möglicher Hindernisse aus der Datenbank 114 abgerufen werden. Gleicherweise können aktuelle Kartendaten 108 periodisch als eine Datenbank 114 abgerufen werden.
  • Die Steuerung 102 kann einen oder mehrere Bildströme aus einer oder mehreren Abbildungsvorrichtungen 116 empfangen. Zum Beispiel kann eine oder mehrere Kameras am Fahrzeug befestigt und Ausgangsbildströme durch die Steuerung 102 empfangen werden.
  • Die Steuerung 102 kann ferner Tonsignale aus einem oder mehreren Mikrofonen 118 empfangen. Das eine oder die mehreren Mikrofone 118 können eine Gruppe von zueinander versetzten Mikrofonen sein, so dass die Unterschiede in Größe und Ankunftszeit eines Tons zum Bestimmen eines oder beider der Richtung einer Quelle des Tons und der Entfernung des Tons benutzt werden können. Das eine oder die mehreren Mikrofone können Richtmikrofone sein, die für aus einer bestimmten Richtung kommende Töne empfindlicher sind. Die Mikrofone 118 und die zum Ableiten eines oder beider der Entfernung und Richtung einer Tonquelle benutzten Schaltungen oder Algorithmen können jeden beliebigen, in der SONAR-Technik oder jedem sonstigen in der Technik bekannten Ansatz zum Kennzeichnen des Standorts einer Tonquelle entsprechen.
  • Die Steuerung kann ein Kollisionsvermeidungsmodul 120 ausführen, das die Bildströme und Tonsignale empfängt und mögliche Hindernisse kennzeichnet und Maßnahmen unternimmt, sie zu vermeiden. In den hier offenbarten Ausführungsformen werden nur Bild- und auditorische Daten zum Durchführen von Kollisionsvermeidung benutzt. Es können jedoch auch andere Sensoren zum Erkennen von Hindernissen benutzt werden, wie beispielsweise RADAR, LIDAR, SONAR und dergleichen.
  • Das Kollisionsvermeidungsmodul 120 kann ein Hindernisvermeidungsmodul 122a umfassen, das den einen oder die mehreren Bildströme auswertet und mögliche Hindernisse einschließlich von Personen, Tieren, Fahrzeugen, Gebäuden, Bordkanten und sonstigen Gegenständen und Strukturen kennzeichnet. Insbesondere kann das Hinderniskennzeichnungsmodul 122a Fahrzeugbilder in dem einen oder den mehreren Bildströmen kennzeichnen. Das Hinderniskennzeichnungsmodul 122a kann ein Tonverarbeitungsmodul 124 umfassen, das mögliche Hindernisse unter Verwendung der Tonsignale in Verbindung mit Kartendaten 108 und möglicherweise den Tondaten 106 kennzeichnet. Das Verfahren, mit dem Auditorische- und Kartendaten zum Kennzeichnen möglicher Hindernisse benutzt werden, wird ausführlicher unten beschrieben.
  • Das Kollisionsvermeidungsmodul 120 kann ferner ein Kollisionsvorhersagemodul 122b umfassen, das vorhersagt, welche Hindernisbilder möglicherweise mit dem Fahrzeug zusammenstoßen, basierend auf seiner gegenwärtigen Laufbahn oder dem gegenwärtig beabsichtigten Weg. Ein Entscheidungsmodul 122c kann eine Entscheidung treffen, anzuhalten, zu beschleunigen, abzudrehen usw., um Hindernisse zu vermeiden. Die Art und Weise, auf die das Kollisionsvorhersagemodul 122b mögliche Zusammenstöße vorhersagt und die Art und Weise, auf die das Entscheidungsmodul 122c Handlung unternimmt, mögliche Zusammenstöße zu vermeiden, kann jedem in der Technik autonomer Fahrzeuge bekannten Verfahren oder System entsprechen.
  • Das Entscheidungsmodul 122c kann die Laufbahn des Fahrzeugs durch Betätigung eines oder mehrerer, die Richtung und Geschwindigkeit des Fahrzeugs steuernder Aktoren 126 steuern. Zum Beispiel können die Aktoren 126 einen Lenkaktor 128a, Beschleunigungsaktoren 128b und einen Bremsaktor 128c umfassen. Die Anordnung der Aktoren 128a128c kann jeder, in der Technik autonomer Fahrzeuge bekannten Ausführung solcher Aktoren entsprechen.
  • 2 ist ein eine beispielhafte Rechenvorrichtung 200 darstellendes Blockschaltbild. Die Rechenvorrichtung 200 kann zum Durchführen verschiedener Verfahren benutzt werden, wie beispielsweise den hier besprochenen. Die Steuerung 102 kann einige oder alle der Merkmale der Rechenvorrichtung 200 aufweisen.
  • Die Rechenvorrichtung 200 kann einen oder mehrere Prozessor(en) 202, eine oder mehrere Speichervorrichtung(en) 204, eine oder mehrere Schnittstelle(n), eine oder mehrere Massenspeichervorrichtung(en) 208, eine oder mehrere Eingangs-/Ausgangs-(E/A-)Vorrichtung(en) 210 und eine Anzeigevorrichtung 230, von denen alle an einen Bus 212 angekoppelt sind, aufweisen. Prozessor(en) 202 können einen oder mehrere Prozessoren oder Steuerungen umfassen, die in Speichervorrichtung(en) 204 und/oder Massenspeichervorrichtung(en) 208 gespeicherte Anweisungen ausführen. Prozessor(en) 202 können verschiedene Arten von computerlesbaren Medien wie beispielsweise Cache-Speicher umfassen.
  • Speichervorrichtung(en) 204 umfassen verschiedene computerlesbare Medien wie beispielsweise flüchtigen Speicher (z.B. Direktzugriffsspeicher (RAM – Random Access Memory) 214) und/oder nichtflüchtige Speicher (z.B. Nurlesespeicher (ROM – Read-Only Memory) 216). Speichervorrichtung(en) 204 können auch wiederbeschreibbaren ROM wie beispielsweise Flash-Speicher umfassen.
  • Massenspeichervorrichtung(en) 208 umfassen verschiedene computerlesbare Medien wie beispielsweise Magnetbänder, Magnetplatten, optische Platten, Festkörperspeicher (z.B. Flash-Speicher) und so fort. Wie in 2 gezeigt, ist ein bestimmtes Massenspeichergerät ein Festplattenlaufwerk 224. Verschiedene Laufwerkte können ebenfalls in Massenspeichervorrichtung(en) 208 enthalten sein, um Auslesen aus und/oder Einschreiben in die verschiedenen computerlesbaren Medien zu ermöglichen. Massenspeichervorrichtung(en) 208 umfassen Wechseldatenträger 226 und/oder nichtherausnehmbare Medien.
  • E/A-Vorrichtung(en) 210 umfassen verschiedene Vorrichtungen, die die Eingabe oder das Abrufen von Daten und/oder sonstigen Informationen von Rechenvorrichtung 200 erlauben. Beispielhafte E/A-Vorrichtung(en) 210 umfassen Cursor-Steuervorrichtungen, Tastaturen, Tastfelder, Mikrofone, Monitore oder sonstige Anzeigevorrichtungen, Lautsprecher, Drucker, Netzschnittstellenkarten, Modems, Linsen, CCD oder sonstige Bilderfassungsvorrichtungen und dergleichen.
  • Die Anzeigevorrichtung 230 umfasst jede Art von zum Anzeigen von Informationen zu einem oder mehreren Benutzern der Rechenvorrichtung 200 fähige Art von Vorrichtung. Beispiele der Anzeigevorrichtung 230 umfassen einen Monitor, Anzeigeendgerät, Videoprojektionsgerät und dergleichen.
  • Schnittstelle(n)206 umfassen verschiedene Schnittstellen, die der Rechenvorrichtung 200 erlauben, mit anderen Systemen, Vorrichtungen oder Rechenumgebungen zusammenzuwirken. Beispielhafte Schnittstelle(n) 206 umfassen eine beliebige Anzahl verschiedener Netzschnittstellen 220 wie beispielsweise Schnittstellen zu Ortsnetzen (LAN – Local Area Networks), Fernverkehrsnetzen (WAN – Wide Area Networks), drahtlosen Netzen und dem Internet. Andere Schnittstelle(n) umfassen Benutzeroberfläche 218 und Peripherievorrichtungsschnittstelle 222. Die Schnittstelle(n) 206 können auch eine oder mehrere Peripherieschnittstellen wie beispielsweise Schnittstellen für Drucker, Zeigevorrichtungen (Mäuse, Standmaus usw.), Tastaturen und dergleichen umfassen.
  • Bus 212 erlaubt Prozessor(en) 202, Speichervorrichtung(en) 204, Schnittstelle(n) 206, Massenspeichervorrichtung(en) 208, E/A-Vorrichtung(en) 210 und Anzeigevorrichtung 230, miteinander wie auch mit anderen, an den Bus 212 angekoppelten Vorrichtungen oder Komponenten zu kommunizieren. Bus 212 stellt eine oder mehrere von mehreren Arten von Busstrukturen dar wie beispielsweise einen Systembus, PCI-Bus, IEEE 1394-Bus, USB-Bus und so weiter.
  • Für Erläuterungszwecke sind Programme und andere ausführbare Programmkomponenten hier als diskrete Blöcke dargestellt, obwohl es sich versteht, dass solche Programme und Komponenten zu verschiedenen Zeiten in verschiedenen Speicherkomponenten der Rechenvorrichtung 200 resident sein können und durch Prozessor(en) 202 ausgeführt werden. Alternativ können die hier beschriebenen Systeme und Verfahren in Hardware oder in einer Kombination von Hardware, Software und/oder Firmware ausgeführt sein. Zum Beispiel kann eine oder mehrere anwendungsspezifische integrierte Schaltung (ASIC – Application Specific Integrated Circuit) programmiert sein, ein oder mehrere der hier beschriebenen Systeme und Verfahren auszuführen.
  • Uns nunmehr den 3A und 3B zuwendend, kann in vielen Fällen ein die Steuerung 102 aufnehmendes Fahrzeug (hiernach das Fahrzeug 300) durch einen verdeckenden Gegenstand 304 wie beispielsweise Gebäude, Baum, Schild usw. daran gehindert werden, einen möglichen Gegenstand wie beispielsweise ein anderes Fahrzeug 302 sichtbar zu erkennen. Dementsprechend könnten die Abbildungsvorrichtungen 116 nicht wirkungsvoll sein, solche Hindernisse zu erkennen. Das Fahrzeug 300 könnte jedoch nahe genug sein, durch das andere Fahrzeug 302 oder sonstiges Hindernis erzeugten Ton zu erkennen. Obwohl die hier offenbarten Verfahren besonders nützlich sind, wo es einen verdeckenden Gegenstand 304 gibt, könnte die Erkennung von Hindernissen wie hier beschrieben durchgeführt werden, wo Bilddaten verfügbar sind und könnte beispielsweise den Standort eines Hindernisses bestätigen, das auch für Abbildungsvorrichtungen 116 sichtbar ist.
  • Von dem anderen Fahrzeug 302 oder sonstigen Hindernis wie in 3A gezeigt erkannte hörbare Signale können wie in 3B gezeigt mit Kartendaten verglichen werden. Zum Beispiel kann der Standort 306 des Fahrzeugs 300 auf der Karte unter Verwendung eines an dem Fahrzeug 300 befestigten GPS-(Global Positioning System)Empfängers identifiziert werden und Landmarken im Gebiet des Standorts 306 können als Kartendaten identifiziert werden. Die Identität und Position des verdeckenden Gegenstands 304 können ebenfalls identifiziert werden. Eine dem Fahrzeug 302 oder sonstigem Hindernis entsprechende Landmarke 308 kann aus den Kartendaten als entsprechend einem oder beiden von Richtung und Abstand von einer Tonquelle wie erkannt unter Verwendung des einen oder der mehreren Mikrofone 118 ausgewählt werden. Zum Beispiel kann eine Richtung oder Position zu einer Tonquelle wie unter Verwendung des einen oder der mehreren Mikrofone 118 erkannt eine damit verbundene Ungewissheit oder Toleranz aufweisen. Die der Tonquelle entsprechende Landmarke 308 kann deshalb ausgewählt werden, weil die Landmarke 308 innerhalb dieser Toleranz von der Richtung und/oder Position der Tonquelle wie aus den Tonsignalen von den Mikrofonen 118 bestimmt positioniert ist.
  • Zum Beispiel kann, wenn bestimmt wird, dass die einer Tonquelle entsprechende Landmarke 308 eine Parkgarage ist, angenommen werden, dass ein Fahrzeug aus der Parkgarage ausfährt und Maßnahmen können unternommen werden, es zu vermeiden. Auf gleiche Weise kann, wo die Landmarke 308 eine Notfahrzeugstation ist und der erkannte Ton eine Sirene ist, angenommen werden, dass ein Notfahrzeug die Station verlässt und Maßnahmen unternommen werden, zur Seite zu fahren oder sonstwie Maßnahmen unternommen werden, es zu vermeiden. Wenn das Fahrzeug 300 auf einer ersten Straße fährt und die Landmarke 308 eine zweite Straße ist, die sich mit der ersten Straße kreuzt, kann angenommen werden, dass ein Fahrzeug auf der zweiten Straße dabei sein könnte, auf die erste Straße zu fahren.
  • 4 zeigt ein Verfahren 400, das durch die Steuerung durch Verarbeiten von Tonsignalen aus einem oder mehreren Mikrofonen 118 ausgeführt werden kann.
  • Das Verfahren 400 kann Erkennen 402 eines Tons und Bestimmen 404 einer oder mehrerer möglicher Quellen des Tons umfassen. Zum Beispiel kann eine Wellenform oder ein Spektrum des Tons mit denen von einer oder mehreren Quellen in den Tondaten 106 verglichen werden. Infrage kommende Tonquellen 404 können identifiziert werden, die Ähnlichkeit mit dem einen Schwellwertzustand überschreitenden erkannten Ton aufweisen. Infrage kommende Tonquellen können als ein Fahrzeug, eine Person, ein Tier oder eine sonstige tonerzeugende Instanz geschätzt werden, für die Tondaten 106 gespeichert sind.
  • Einige oder alle der übrigen Schritte des Verfahrens 400 können für alle erkannten Töne 402 oder nur für Töne entsprechend Fahrzeugen oder sonstigen möglichen Hindernissen ausgeführt werden. Wenn dementsprechend im Schritt 404 der Ton als nicht einem Fahrzeug oder sonstigem möglichen Hindernis entsprechend festgestellt wird, dann können die übrigen Schritte des Verfahrens 400 weggelassen werden.
  • Das Verfahren 400 kann eines oder beide von Schätzen 406 einer Entfernung von dem Ursprung des Tons und Schätzen 408 einer Richtung des Ursprungs des Tons umfassen. In einigen Fällen können durch Bestimmen von Unterschieden in einer Ankunftszeit des Tons bei versetzten Mikrofonen 108 sowohl die Entfernung vom Ursprung als auch dessen Richtung gleichzeitig bestimmt werden, d.h. es wird eine Ortschätzung abgeleitet. In anderen Ausführungsformen werden getrennte Mikrofone 118 oder Verarbeitungsschritte zum Schätzen 406, 408 der Entfernung und Richtung zum Ursprung des Tons benutzt.
  • Das Verfahren 400 kann Abrufen 410 von Kartendaten in einem Gebiet mit dem geschätzten Ort des Tonursprungs wie in Schritten 406 und 408 bestimmt umfassen. Und Auswerten 412, ob die Kartendaten eine Landmarke entsprechend dem Ort und infrage kommenden Ursprung des Tonursprungs umfassen. Zum Beispiel kann ein dem Ort des Tonursprungs an der nächstgelegenen Landmarke gekennzeichnet werden 412. Zum Beispiel, wo die infrage kommende Tonquelle in Schritt 404 als ein Fahrzeug bestimmt wird und eine Parkgarage sich innerhalb einer angegebenen Toleranz von dem in Schritten 406 und 408 bestimmten Ort befindet, dann kann bestimmt werden, dass die Parkgarage die Landmarke entsprechend dem in Schritt 402 erkannten Ton ist. Wie oben bemerkt kann die Toleranz ein Gebiet oder Bereich von Winkeln und Entfernungen entsprechend der Ungewissheit bei der Bestimmung des Orts, der Richtung bzw. der Entfernung des Tonursprungs sein. In einem anderen Szenario, befindet sich eine Notfahrzeugstation innerhalb der Toleranz vom Tonursprung und die infrage kommende Tonquelle ist ein Notfahrzeug, dann kann im Schritt 412 bestimmt werden, dass das der im Schritt 402 erkannten Ton entsprechenden Landmarke die Notfahrzeugstation ist.
  • Wenn eine entsprechende Landmarke im Schritt 412 erkannt wird, dann kann das Verfahren 400 Erhöhen 414 eines Gewissheits- oder Vertrauenswertes umfassen, der anzeigt, dass sich ein Fahrzeug an den in Schritten 406, 408 bestimmten Standort befindet. Zum Beispiel kann ein Kollisionsvermeidungsalgorithmus mögliche Hindernisse identifizieren. Ein Hindernis kann einen damit verbundenen Vertrauenswert aufweisen, der die Wahrscheinlichkeit anzeigt, dass ein Artefakt in einem Bild oder in Tonsignalen erkannt tatsächlich einem Fahrzeug entspricht. Es können nur diejenigen Hindernisse zur Kollisionsvermeidung in Betracht gezogen werden, die einen höheren Vertrauenswert als ein Schwellwert aufweisen.
  • Alternativ kann Erhöhen 414 der Gewissheit verfügbare Wahlmöglichkeiten zum Vermeiden des Fahrzeugs am Tonursprung steigern. Wenn zum Beispiel ein Fahrzeug erkannt wird, aber eine geringe Gewissheit betreffs seines Standorts besteht, kann ein Kollisionsvermeidungsmodul 120 das Fahrzeug verlangsamen, um eine mögliche Kollision in einem weiten Bereich möglicher Standorte zu vermeiden. Wenn jedoch der Standort des Fahrzeugs am Tonursprung mit hoher Gewissheit erkannt ist (d.h. wie im Schritt 414 erhöht), dann muss das Kollisionsvermeidungsmodul 120 nur Geschwindigkeit und Richtung einstellen, um diesen bekannten Standort zusammen mit jeglichen anderen identifizierten Hindernissen zu vermeiden.
  • Das Verfahren 400 kann ferner Erhöhen 416 der Gewissheit betreffs der infrage kommenden Quelle des Tons basierend auf der im Schritt 412 identifizierten Landmarke umfassen. Wenn zum Beispiel die infrage kommende Quelle des Tons ein Notfahrzeug ist und die im Schritt 412 bestimmte Landmarke als eine Notfahrzeugstation bestimmt ist, dann kann die Zuversicht, dass die Quelle des Tons in der Tat ein Notfahrzeug war, erhöht werden 416. Das Kollisionsvermeidungsmodul 120 kann daher Schritte unternehmen, zur Seite zu fahren oder sonstwie das Notfahrzeug zu vermeiden.
  • In beiderlei Ergebnissen von Schritt 412 wird Kollisionsvermeidung hinsichtlich erkannter Hindernisse durchgeführt 418. Wie oben bemerkt kann Steigern 414, 416 der Gewissheit betreffs des Orts und Ursprungs eines Tons durch das Kollisionsvermeidungsmodul 120 zum Vermeiden von Kollisionen benutzt werden. Die Quelle des im Schritt 402 erkannten Tons wird jedoch während Kollisionsvermeidung 418 nicht unbedingt außer Acht gelassen, sondern stattdessen können dessen mögliche Orte größer sein. Dies ist besonders wahr, wo die im Schritt 404 bestimmte infrage kommende Tonquelle ein Fahrzeug oder eine Person ist.
  • Die vorliegende Erfindung kann in anderen bestimmten Formen ausgeführt sein, ohne ihren Sinn und wesentliche Eigenschaften zu verlassen. Die beschriebenen Ausführungsformen sind in jeder Hinsicht nur als beispielhaft und nicht als einschränkend zu betrachten. Der Schutzumfang der Erfindung wird daher durch die beiliegenden Ansprüche angezeigt, anstatt durch die vorangehende Beschreibung. Alle Änderungen, die in die Bedeutung und den Bereich von Gleichwertigkeit der Ansprüche fallen, sind in ihrem Schutzumfang aufzunehmen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • IEEE 1394-Bus [0034]

Claims (20)

  1. Steuerung für ein autonomes Fahrzeug umfassend: eine oder mehrere Verarbeitungsvorrichtungen, programmiert zum: Empfangen eines oder mehrerer Tonströme von einem oder mehreren Mikrofonen; Abrufen von Kartendaten in einem Gebiet um das autonome Fahrzeug; und wenn beide des einen oder der mehreren Tonströme und Kartendaten eine hohe Wahrscheinlichkeit eines anderen Fahrzeugs in der Nähe des autonomen Fahrzeugs anzeigen, Aufrufen von Hindernisvermeidung hinsichtlich eines wahrscheinlichen Orts des anderen Fahrzeugs.
  2. Steuerung nach Anspruch 1, wobei das eine oder die mehreren Verarbeitungsvorrichtungen ferner programmiert sind zum Aufrufen von Hindernisvermeidung hinsichtlich des wahrscheinlichen Orts des Fahrzeugs durch Betätigen wenigstens eines eines Lenkaktoren, Beschleunigungsaktoren und Bremsaktoren des autonomen Fahrzeugs mit Wirksamkeit zum Vermeiden des wahrscheinlichen Ortes des anderen Fahrzeugs.
  3. Steuerung nach Anspruch 1 oder 2, wobei das eine oder die mehreren Verarbeitungsvorrichtungen ferner programmiert sind zum: Erkennen in dem einen oder den mehreren Tonströmen eines wahrscheinlichen vom Fahrzeug stammenden Tons; Identifizieren eines ersten vorhergesagten Ortes des wahrscheinlichen vom Fahrzeug stammenden Tons; und Auswählen des wahrscheinlichen Ortes des anderen Fahrzeugs ausgewählt aus einem Gebiet in der Nähe des ersten vorhergesagten Ortes unter Verwendung der Kartendaten.
  4. Steuerung nach Anspruch 3, wobei: das eine oder die mehreren Mikrofone eine Gruppe von Mikrofonen sind und das eine oder die mehreren Tonströme eine Vielzahl von Tonströmen aus der Gruppe von Mikrofonen sind; die eine oder die mehreren Verarbeitungsvorrichtungen ferner programmiert sind zum Identifizieren des ersten vorhergesagten Ortes des wahrscheinlichen vom Fahrzeug stammenden Tons durch Vergleichen wenigstens eines von Ankunftszeit und Stärke des wahrscheinlichen vom Fahrzeug stammenden Tons in der Vielzahl von Tonströmen.
  5. Steuerung nach Anspruch 3 oder 4, wobei das eine oder die mehreren Mikrofone Richtmikrofone sind.
  6. Steuerung nach einem der Ansprüche 3 bis 5, wobei das eine oder die mehreren Verarbeitungsvorrichtungen ferner programmiert sind zum: Kennzeichnen von Landmarken in dem Gebiet in der Nähe des ersten vorhergesagten Ortes; Kennzeichnen aus den Kartendaten einer fahrzeugspezifischen Landmarke unter der Landmarke in dem Gebiet in der Nähe des ersten vorhergesagten Ortes; und Auswählen der fahrzeugspezifischen Landmarke als der wahrscheinliche Ort des anderen Fahrzeugs.
  7. Steuerung nach Anspruch 6, wobei die fahrzeugspezifische Landmarke wenigstens eine eines Parkplatzes und einer Notfahrzeugstation ist.
  8. Steuerung nach Anspruch 7, wobei das eine oder die mehreren Verarbeitungsvorrichtungen ferner programmiert sind zum: Kennzeichnen einer vorhergesagten Fahrzeugart aus dem wahrscheinlichen vom Fahrzeug stammenden Ton; wenn die vorhergesagte Fahrzeugart der fahrzeugspezifischen Landmarke entspricht, Bestätigen der vorhergesagten Fahrzeugart.
  9. Steuerung nach Anspruch 8, wobei die eine oder die mehreren Verarbeitungsvorrichtungen ferner programmiert sind zum: wenn die vorhergesagte Fahrzeugart der fahrzeugspezifischen Landmarke entspricht und die fahrzeugspezifische Landmarke eine Notfahrzeugstation ist, Aufrufen von zur Seite Fahren und Anhalten des autonomen Fahrzeugs.
  10. Steuerung nach einem der Ansprüche 1 bis 9, wobei der wahrscheinliche Ort des anderen Fahrzeugs nicht in einer Sichtlinie eines Abbildungssystems des autonomen Fahrzeugs liegt.
  11. Autonomes Fahrzeug, umfassend: ein Fahrzeug mit einem Motor und selektiv an den Motor angekoppelten Rädern; wenigstens eines von Lenkaktoren, Gaspedalaktoren und Bremsaktoren; ein oder mehrere Mikrofone; eine betriebsfähig an das eine oder die mehreren Mikrofone und den wenigstens einen des Lenkaktoren, des Gaspedalaktoren und des Bremsaktoren angekoppelte Steuerung, wobei die Steuerung eine oder mehrere Verarbeitungsvorrichtungen, programmiert zum: Empfangen eines oder mehrerer Tonströme aus dem einen oder den mehreren Mikrofonen; Abrufen von Kartendaten in einem Gebiet um das autonome Fahrzeug umfasst; und wenn beide des einen oder der mehreren Tonströme und Kartendaten eine hohe Wahrscheinlichkeit eines anderen Fahrzeugs in der Nähe des autonomen Fahrzeugs anzeigen, Aufrufen von Hindernisvermeidung hinsichtlich eines wahrscheinlichen Ortes des anderen Fahrzeugs.
  12. Autonomes Fahrzeug nach Anspruch 11, wobei das eine oder die mehreren Verarbeitungsvorrichtungen ferner programmiert sind zum Aufrufen von Hindernisvermeidung hinsichtlich des wahrscheinlichen Ortes des anderen Fahrzeugs durch Betätigen wenigstens eines eines Lenkaktoren, Gaspedalaktoren und Bremsaktoren des autonomen Fahrzeugs mit Wirkung zum Vermeiden des wahrscheinlichen Ortes des anderen Fahrzeugs.
  13. Autonomes Fahrzeug nach Anspruch 11 oder 12, wobei die eine oder die mehreren Verarbeitungsvorrichtungen ferner programmiert sind zum: Erkennen in dem einen oder den mehreren Tonströmen eines wahrscheinlichen vom Fahrzeug stammenden Tones; Identifizieren eines ersten vorhergesagten Ortes des wahrscheinlichen vom Fahrzeug stammenden Tones; und Auswählen des wahrscheinlichen Ortes des ausgewählten Fahrzeugs aus einem Gebiet in der Nähe des ersten vorhergesagten Ortes unter Verwendung der Kartendaten.
  14. Autonomes Fahrzeug nach Anspruch 13, wobei: das eine oder die mehreren Mikrofone eine Gruppe von Mikrofonen sind und der eine oder die mehreren Tonströme eine Vielzahl von Tonströmen aus der Gruppe von Mikrofonen sind; die eine oder mehreren Verarbeitungsvorrichtungen ferner programmiert sind zum Identifizieren des ersten vorhergesagten Ortes des wahrscheinlichen vom Fahrzeug stammenden Tons durch Vergleichen wenigstens eines von Ankunftszeit und Stärke des wahrscheinlichen vom Fahrzeug stammenden Tons in der Vielzahl von Tonströmen.
  15. Autonomes Fahrzeug nach Anspruch 13 oder 14, wobei das eine oder die mehreren Mikrofone Richtmikrofone sind.
  16. Autonomes Fahrzeug nach einem der Ansprüche 13 bis 15, wobei die eine oder mehreren Verarbeitungsvorrichtungen ferner programmiert sind zum: Identifizieren von Landmarken in dem Gebiet in der Nähe des ersten vorhergesagten Ortes; Identifizieren aus den Kartendaten einer fahrzeugspezifischen Landmarke unter den Landmarken in dem Gebiet in der Nähe des ersten vorhergesagten Ortes; und Auswählen der fahrzeugspezifischen Landmarke als der wahrscheinliche Ort des anderen Fahrzeugs.
  17. Autonomes Fahrzeug nach Anspruch 16, wobei die fahrzeugspezifische Landmarke wenigstens eines eines Parkplatzes und einer Notfahrzeugstation ist.
  18. Autonomes Fahrzeug nach Anspruch 17, wobei die eine oder mehreren Verarbeitungsvorrichtungen ferner programmiert sind zum: Identifizieren einer vorhergesagten Fahrzeugart aus dem wahrscheinlichen vom Fahrzeug stammenden Ton; wenn die vorhergesagte Fahrzeugart der fahrzeugspezifischen Landmarke entspricht, Bestätigen der vorhergesagten Fahrzeugart.
  19. Autonomes Fahrzeug nach Anspruch 18, wobei die eine oder mehreren Verarbeitungsvorrichtungen ferner programmiert sind zum: wenn die vorhergesagte Fahrzeugart der fahrzeugspezifischen Landmarke entspricht und die fahrzeugspezifische Landmarke eine Notfahrzeugstation ist, Aufrufen von zur Seite Fahren und Anhalten des autonomen Fahrzeugs.
  20. Autonomes Fahrzeug nach einem der Ansprüche 11 bis 19, wobei der wahrscheinliche Ort des anderen Fahrzeugs nicht in einer Sichtlinie eines Abbildungssystems des autonomen Fahrzeugs liegt.
DE102016118902.2A 2015-10-06 2016-10-05 Kollisionsvermeidung mit durch Kartendaten erweiterten auditorischen Daten Pending DE102016118902A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/876,269 US9937922B2 (en) 2015-10-06 2015-10-06 Collision avoidance using auditory data augmented with map data
US14/876,269 2015-10-06

Publications (1)

Publication Number Publication Date
DE102016118902A1 true DE102016118902A1 (de) 2017-04-06

Family

ID=57571233

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016118902.2A Pending DE102016118902A1 (de) 2015-10-06 2016-10-05 Kollisionsvermeidung mit durch Kartendaten erweiterten auditorischen Daten

Country Status (6)

Country Link
US (2) US9937922B2 (de)
CN (1) CN106560365B (de)
DE (1) DE102016118902A1 (de)
GB (1) GB2545053A (de)
MX (1) MX2016013080A (de)
RU (1) RU2016138295A (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020173692A1 (de) * 2019-02-27 2020-09-03 Zf Friedrichshafen Ag VERFAHREN, STEUERGERÄT FÜR EIN AUTOMATISIERT BETREIBBARES STRAßENFAHRZEUG, COMPUTERPROGRAMMPRODUKT ZUM ERKENNEN VON OBJEKTEN IM STRAßENVERKEHR UND AUTOMATISIERT BETREIBBARES STRAßENFAHRZEUG FÜR MOBILITÄTSDIENSTLEISTUNGEN
US11295757B2 (en) 2020-01-24 2022-04-05 Motional Ad Llc Detection and classification of siren signals and localization of siren signal sources
US11364910B1 (en) 2021-08-26 2022-06-21 Motional Ad Llc Emergency vehicle detection system and method
US11567510B2 (en) 2019-01-24 2023-01-31 Motional Ad Llc Using classified sounds and localized sound sources to operate an autonomous vehicle

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2014239979B2 (en) 2013-03-15 2017-06-22 Aurora Operations, Inc. Methods, systems, and apparatus for multi-sensory stereo vision for robotics
US10338225B2 (en) 2015-12-15 2019-07-02 Uber Technologies, Inc. Dynamic LIDAR sensor controller
US9996080B2 (en) * 2016-02-26 2018-06-12 Ford Global Technologies, Llc Collision avoidance using auditory data
US10281923B2 (en) 2016-03-03 2019-05-07 Uber Technologies, Inc. Planar-beam, light detection and ranging system
US20170329332A1 (en) * 2016-05-10 2017-11-16 Uber Technologies, Inc. Control system to adjust operation of an autonomous vehicle based on a probability of interference by a dynamic object
US9952317B2 (en) * 2016-05-27 2018-04-24 Uber Technologies, Inc. Vehicle sensor calibration system
US10479376B2 (en) 2017-03-23 2019-11-19 Uatc, Llc Dynamic sensor selection for self-driving vehicles
US10746858B2 (en) 2017-08-17 2020-08-18 Uatc, Llc Calibration for an autonomous vehicle LIDAR module
US10775488B2 (en) 2017-08-17 2020-09-15 Uatc, Llc Calibration for an autonomous vehicle LIDAR module
US10569784B2 (en) 2017-09-28 2020-02-25 Waymo Llc Detecting and responding to propulsion and steering system errors for autonomous vehicles
SE541252C2 (en) 2017-10-10 2019-05-14 Kai Elodie Abiakle Method for stopping a vehicle
WO2019118713A1 (en) * 2017-12-15 2019-06-20 Walmart Apollo, Llc System for determining the location of an autonomous vehicle when a location system is offline
US10914820B2 (en) 2018-01-31 2021-02-09 Uatc, Llc Sensor assembly for vehicles
CN110329260A (zh) * 2018-03-28 2019-10-15 比亚迪股份有限公司 车辆行驶控制方法、系统和辅助驾驶控制器
US20180224860A1 (en) * 2018-04-02 2018-08-09 GM Global Technology Operations LLC Autonomous vehicle movement around stationary vehicles
CN112136165B (zh) * 2018-05-25 2023-10-27 索尼公司 路车间通信的道路侧设备和车辆侧设备以及路车间通信系统
US10976748B2 (en) * 2018-08-22 2021-04-13 Waymo Llc Detecting and responding to sounds for autonomous vehicles
US10800409B2 (en) * 2018-09-04 2020-10-13 Caterpillar Paving Products Inc. Systems and methods for operating a mobile machine using detected sounds
JP7147513B2 (ja) * 2018-11-29 2022-10-05 トヨタ自動車株式会社 情報提供システム、サーバ、車載装置及び情報提供方法
US11257242B2 (en) * 2018-12-31 2022-02-22 Wipro Limited Method and device for determining operation of an autonomous device
JP7120077B2 (ja) * 2019-02-27 2022-08-17 トヨタ自動車株式会社 運転支援システム
JP7133155B2 (ja) * 2019-03-04 2022-09-08 トヨタ自動車株式会社 運転支援システム
CN110040134B (zh) * 2019-03-13 2020-06-16 重庆邮电大学 考虑环境因素的车辆碰撞时间计算方法
JP7147648B2 (ja) * 2019-03-20 2022-10-05 トヨタ自動車株式会社 運転支援装置
US11209831B2 (en) 2019-05-03 2021-12-28 Ford Global Technologies, Llc Object sound detection
US11433886B2 (en) * 2019-06-24 2022-09-06 GM Global Technology Operations LLC System, vehicle and method for adapting a driving condition of a vehicle upon detecting an event in an environment of the vehicle
GB201910864D0 (en) * 2019-07-30 2019-09-11 Blackberry Ltd Processing data for driving automation system
US11328592B2 (en) * 2019-08-14 2022-05-10 Toyota Motor North America, Inc. Systems and methods for roadway obstruction detection
US11393489B2 (en) * 2019-12-02 2022-07-19 Here Global B.V. Method, apparatus, and computer program product for road noise mapping
US11788859B2 (en) 2019-12-02 2023-10-17 Here Global B.V. Method, apparatus, and computer program product for road noise mapping
US11851049B1 (en) * 2020-02-28 2023-12-26 Zoox, Inc. System to detect impacts
US11483649B2 (en) 2020-08-21 2022-10-25 Waymo Llc External microphone arrays for sound source localization
CN112298173B (zh) * 2020-11-06 2021-12-21 吉林大学 一种面向智能驾驶的车辆安全行驶控制系统及控制方法
GB2611559A (en) * 2021-10-08 2023-04-12 Virtual Vehicle Res Gmbh Method and device to detect traffic hazards based on sound events

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5170352A (en) * 1990-05-07 1992-12-08 Fmc Corporation Multi-purpose autonomous vehicle with path plotting
JPH0592767U (ja) 1992-05-18 1993-12-17 株式会社豊田中央研究所 接近車両認識装置
JPH06231388A (ja) * 1993-01-29 1994-08-19 Sadayoshi Iwabuchi 車搭載用の緊急車両有無通知装置
US5878147A (en) * 1996-12-31 1999-03-02 Etymotic Research, Inc. Directional microphone assembly
US6084973A (en) * 1997-12-22 2000-07-04 Audio Technica U.S., Inc. Digital and analog directional microphone
US6529831B1 (en) * 2000-06-21 2003-03-04 International Business Machines Corporation Emergency vehicle locator and proximity warning system
US7116792B1 (en) * 2000-07-05 2006-10-03 Gn Resound North America Corporation Directional microphone system
US7602413B2 (en) * 2002-10-18 2009-10-13 Sony Corporation Information processing system and method, information processing apparatus, image-capturing device and method, recording medium, and program
US7209831B2 (en) * 2003-12-29 2007-04-24 United States Of America As Represented By The Secretary Of The Navy GPS collision avoidance apparatus
US7840308B2 (en) * 2004-09-10 2010-11-23 Honda Motor Co., Ltd. Robot device control based on environment and position of a movable robot
US8350720B2 (en) * 2006-06-21 2013-01-08 Dave Thomas Method and apparatus for object recognition and warning system of a primary vehicle for nearby vehicles
JP5040237B2 (ja) * 2006-09-29 2012-10-03 株式会社デンソー 車両走行判定装置
JP4967927B2 (ja) 2007-08-27 2012-07-04 日産自動車株式会社 車両用聴覚モニタ装置
DE102007058542A1 (de) 2007-12-06 2009-06-10 Robert Bosch Gmbh Fahrerassistenzsystem zur Überwachung der Fahrsicherheit und korrespondierendes Verfahren zur Erfassung und Bewertung einer Fahrzeugbewegung
DE102008003205A1 (de) * 2008-01-04 2009-07-09 Wabco Gmbh Vorrichtung, Verfahren und Computerprogramm zur Kollisionsvermeidung oder zur Verminderung der Kollisionsschwere infolge einer Kollision für Fahrzeuge, insbesondere Nutzfahrzeuge
US7791499B2 (en) * 2008-01-15 2010-09-07 Qnx Software Systems Co. Dynamic siren detection and notification system
JP5303998B2 (ja) 2008-04-03 2013-10-02 日産自動車株式会社 車外情報提供装置及び車外情報提供方法
EP2224425B1 (de) * 2009-02-26 2012-02-08 Honda Research Institute Europe GmbH Audiosignalverarbeitungssystem und autonomer Roboter mit dem System
JP4703788B2 (ja) * 2009-07-02 2011-06-15 パナソニック株式会社 車両位置検出装置及び車両位置検出方法
US8532863B2 (en) * 2009-09-28 2013-09-10 Sri International Audio based robot control and navigation
JP2011232292A (ja) 2010-04-30 2011-11-17 Toyota Motor Corp 車外音検出装置
US8976040B2 (en) * 2012-02-16 2015-03-10 Bianca RAY AVALANI Intelligent driver assist system based on multimodal sensor fusion
US8571743B1 (en) * 2012-04-09 2013-10-29 Google Inc. Control of vehicles based on auditory signals
US8521352B1 (en) * 2012-05-07 2013-08-27 Google Inc. Controlling a vehicle having inadequate map data
EP2858059B1 (de) 2012-05-25 2023-09-13 Toyota Jidosha Kabushiki Kaisha Vorrichtung zur erkennung sich nähernder fahrzeuge sowie fahrassistenzsystem
US8676427B1 (en) * 2012-10-11 2014-03-18 Google Inc. Controlling autonomous vehicle using audio data
GB2511748B (en) * 2013-03-11 2015-08-12 Jaguar Land Rover Ltd Emergency braking system for a vehicle
JP2014211756A (ja) * 2013-04-18 2014-11-13 トヨタ自動車株式会社 運転支援装置
KR101526668B1 (ko) * 2013-06-10 2015-06-05 현대자동차주식회사 차량의 접촉사고 감지 장치 및 그 방법
GB2521415B (en) * 2013-12-19 2020-03-04 Here Global Bv An apparatus, method and computer program for controlling a vehicle
US20150283703A1 (en) * 2014-04-03 2015-10-08 Brain Corporation Apparatus and methods for remotely controlling robotic devices
US9766625B2 (en) * 2014-07-25 2017-09-19 Here Global B.V. Personalized driving of autonomously driven vehicles
US9528838B2 (en) * 2014-12-09 2016-12-27 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle detection of and response to intersection priority
US9478139B2 (en) * 2014-12-25 2016-10-25 Automotive Research & Testing Center Driving safety system and barrier screening method thereof
US20160217689A1 (en) * 2015-01-26 2016-07-28 Autoliv Asp, Inc. Supplemental automotive safety method and system
US9718468B2 (en) * 2015-10-13 2017-08-01 Verizon Patent And Licensing Inc. Collision prediction system
JP6303217B2 (ja) * 2015-10-28 2018-04-04 本田技研工業株式会社 車両制御装置、車両制御方法、および車両制御プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
IEEE 1394-Bus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11567510B2 (en) 2019-01-24 2023-01-31 Motional Ad Llc Using classified sounds and localized sound sources to operate an autonomous vehicle
WO2020173692A1 (de) * 2019-02-27 2020-09-03 Zf Friedrichshafen Ag VERFAHREN, STEUERGERÄT FÜR EIN AUTOMATISIERT BETREIBBARES STRAßENFAHRZEUG, COMPUTERPROGRAMMPRODUKT ZUM ERKENNEN VON OBJEKTEN IM STRAßENVERKEHR UND AUTOMATISIERT BETREIBBARES STRAßENFAHRZEUG FÜR MOBILITÄTSDIENSTLEISTUNGEN
US11295757B2 (en) 2020-01-24 2022-04-05 Motional Ad Llc Detection and classification of siren signals and localization of siren signal sources
US11804239B2 (en) 2020-01-24 2023-10-31 Motional Ad Llc Detection and classification of siren signals and localization of siren signal sources
US11364910B1 (en) 2021-08-26 2022-06-21 Motional Ad Llc Emergency vehicle detection system and method

Also Published As

Publication number Publication date
GB2545053A (en) 2017-06-07
CN106560365A (zh) 2017-04-12
US20180186369A1 (en) 2018-07-05
US9937922B2 (en) 2018-04-10
RU2016138295A (ru) 2018-03-28
US20170096138A1 (en) 2017-04-06
MX2016013080A (es) 2017-04-27
GB201616938D0 (en) 2016-11-16
CN106560365B (zh) 2021-06-22

Similar Documents

Publication Publication Date Title
DE102016118902A1 (de) Kollisionsvermeidung mit durch Kartendaten erweiterten auditorischen Daten
DE102017112992A1 (de) Trainingsalgorithmus zur kollisionsvermeidung unter verwenden von auditiven daten
DE102017103123A1 (de) Fahrzeugfahrbahnplatzierung
DE102018100469A1 (de) Generierten von simulierten sensordaten zum trainieren und überprüfen von erkennungsmodellen
DE102017125963A1 (de) Objektverfolgung mit sensorfusion innerhalb eines probabalistischen rahmens
DE102017103374A1 (de) Kollisionsvermeidung mithilfe von akustischen daten
EP2951804B1 (de) Erstellen eines umfeldmodells für ein fahrzeug
DE102016120218A1 (de) Kollisionsvermeidung unter verwendung akustischer daten
DE102015120683A1 (de) Fahrzeugfahrgastidentifizierung
DE102019125707A1 (de) Verfahren und Vorrichtung zur computerunterstützten oder autonomen Fahr-Verkehrsschilderkennung
DE102019115455A1 (de) Fokus-basiertes markieren von sensordaten
DE102014217681B4 (de) Sirenensignalquellenerfassung, -Erkennung und -Lokalisation
DE112016007237T5 (de) Ein system und verfahren zum identifizieren von unbelegten parkpositionen
DE102011117585A1 (de) Systeme und Verfahren zum Verfolgen von Objekten
DE102016118833A1 (de) Selbsterkennung autonomer Fahrzeuge in spiegelnden oder reflektierenden Oberflächen
DE102012021403A1 (de) Verfahren zum Identifizieren eines von einer Sensoreinrichtung erfassten Fahrzeugs
DE102018215753A1 (de) Vorrichtung und Verfahren zum Ermitteln einer Trajektorie eines Fahrzeugs
DE112017007793T5 (de) Anomalieerkennung im innenraum eines autonomen fahrzeugs
DE102016003261A1 (de) Verfahren zur Selbstlokalisierung eines Fahrzeugs in einer Fahrzeugumgebung
DE102020122086A1 (de) Messen von vertrauen in tiefen neuronalen netzwerken
DE102021104044A1 (de) Neuronales netzwerk zur positionsbestimmung und objektdetektion
DE102022205746A1 (de) Ultraschallsystem und -verfahren zur Abstimmung eines Maschinenlernklassifika-tors mit Verwendung in einem Maschinenlernalgorithmus
EP3637311A1 (de) Vorrichtung und verfahren zum ermitteln von höheninformationen eines objekts in einer umgebung eines fahrzeugs
DE102017223621A1 (de) Verfahren und Steuereinheit zur Steuerung einer Funktion eines zumindest teilweise automatisiert fahrenden Fahrzeugs
DE102020119954A1 (de) Verfahren zum Erzeugen einer Belegungsgitterkarte für zumindest ein statisches Objekt, Computerprogrammprodukt, computerlesbares Speichermedium sowie Assistenzsystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed