DE102016118902A1 - Kollisionsvermeidung mit durch Kartendaten erweiterten auditorischen Daten - Google Patents
Kollisionsvermeidung mit durch Kartendaten erweiterten auditorischen Daten Download PDFInfo
- Publication number
- DE102016118902A1 DE102016118902A1 DE102016118902.2A DE102016118902A DE102016118902A1 DE 102016118902 A1 DE102016118902 A1 DE 102016118902A1 DE 102016118902 A DE102016118902 A DE 102016118902A DE 102016118902 A1 DE102016118902 A1 DE 102016118902A1
- Authority
- DE
- Germany
- Prior art keywords
- vehicle
- sound
- location
- microphones
- predicted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 claims description 6
- 230000001133 acceleration Effects 0.000 claims description 2
- 230000003190 augmentative effect Effects 0.000 abstract 1
- 238000000034 method Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 10
- 238000004590 computer program Methods 0.000 description 8
- 230000005236 sound signal Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 241000699666 Mus <mouse, genus> Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000029305 taxis Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/04—Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/18—Conjoint control of vehicle sub-units of different type or different function including control of braking systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/20—Conjoint control of vehicle sub-units of different type or different function including control of steering systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D15/00—Steering not otherwise provided for
- B62D15/02—Steering position indicators ; Steering position determination; Steering aids
- B62D15/025—Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
- B62D15/0265—Automatic obstacle avoidance by steering
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/18—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
- G01S5/28—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves by co-ordinating position lines of different shape, e.g. hyperbolic, circular, elliptical or radial
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0965—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages responding to signals from another vehicle, e.g. emergency vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/326—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only for microphones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/10—Transducer, e.g. piezoelectric elements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/54—Audio sensitive means, e.g. ultrasound
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/20—Data confidence level
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/50—External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2710/00—Output or target parameters relating to a particular sub-units
- B60W2710/18—Braking system
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2710/00—Output or target parameters relating to a particular sub-units
- B60W2710/20—Steering systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2720/00—Output or target parameters relating to overall vehicle dynamics
- B60W2720/10—Longitudinal speed
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9316—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles combined with communication equipment with other vehicles or with base stations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9322—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using additional data, e.g. driver condition, road state or weather data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2499/00—Aspects covered by H04R or H04S not otherwise provided for in their subgroups
- H04R2499/10—General applications
- H04R2499/13—Acoustic transducers and sound field adaptation in vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Aviation & Aerospace Engineering (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- Signal Processing (AREA)
- Electromagnetism (AREA)
- Business, Economics & Management (AREA)
- Human Computer Interaction (AREA)
- Emergency Management (AREA)
- Traffic Control Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Navigation (AREA)
Abstract
Eine Steuerung für ein autonomes Fahrzeug empfängt Tonsignale aus einem oder mehreren Mikrofonen und identifiziert Töne. Die Steuerung identifiziert ferner einen geschätzten Ort des Tonursprungs und der Tonart, d.h. ob der Ton ein Fahrzeug ist und/oder die Art von Fahrzeug. Von der Steuerung werden Kartendaten ausgewertet und versucht, eine Landmarke innerhalb einer Toleranz von dem geschätzten Ort zu identifizieren. Wenn eine Landmarke entsprechend dem geschätzten Ort und der geschätzten Art des Tonursprungs gefunden wird, dann wird die Gewissheit erhöht, dass die Quelle des Tons an diesem Ort liegt und diese Art von Tonquelle ist. Kollisionsvermeidung wird dann hinsichtlich des Ortes des Tonursprungs und seiner Art mit der durch die Verwendung der Kartendaten verstärkten Gewissheit durchgeführt. Kollisionsvermeidung kann automatisches Betätigen von Brems-, Lenk- und Gaspedalaktoren umfassen, um den Ort des Tonursprungs zu vermeiden.
Description
- HINTERGRUND
- ERFINDUNGSGEBIET
- Die vorliegende Erfindung betrifft die Durchführung von Hindernisvermeidung in autonomen Fahrzeugen.
- HINTERGRUND DER ERFINDUNG
- Autonome Fahrzeuge sind mit Sensoren ausgerüstet, die ihre Umgebung erkennen. Durch einen Algorithmus wird die Ausgabe der Sensoren ausgewertet und werden Hindernisse gekennzeichnet. Ein Navigationssystem kann dann das Fahrzeug steuern, bremsen und/oder beschleunigen, um die gekennzeichneten Hindernisse zu vermeiden sowie ein gewünschtes Ziel zu erreichen. Sensoren können sowohl Abbildungssystem-, z.B. Videokameras, wie auch RADAR- oder LIDAR-Sensoren umfassen.
- Die hier offenbarten Systeme und Verfahren bieten einen verbesserten Ansatz zum Erkennen von Hindernissen.
- KURZE BESCHREIBUNG DER ZEICHNUNGEN
- Damit die Vorteile der Erfindung leicht zu verstehen sind, wird eine ausführlichere Beschreibung der oben kurz beschriebenen Erfindung durch Bezugnahme auf in den beiliegenden Zeichnungen dargestellte bestimmte Ausführungsformen erteilt. Mit dem Verständnis, dass diese Zeichnungen nur typische Ausführungsformen der Erfindung zeigen und daher nicht als ihren Schutzumfang begrenzend zu betrachten sind, wird die Erfindung mit zusätzlicher Genauigkeit und Ausführlichkeit durch Verwendung der beiliegenden Zeichnungen beschrieben und erläutert, in denen:
-
1 ein schematisches Blockschaltbild eines Systems zum Umsetzen von Ausführungsformen der Erfindung ist; -
2 ein schematisches Blockschaltbild einer zum Umsetzen von Verfahren gemäß Ausführungsformen der Erfindung geeigneten beispielhaften Rechenvorrichtung ist; -
3A und3B Hinderniserkennung unter Verwendung von Auditorischen- und Kartendaten darstellende Diagramme sind; und -
4 ein Verfahrensflussdiagramm eines Verfahrens zum Durchführen von Kollisionsvermeidung basierend auf sowohl Auditorischen- als auch Kartendaten gemäß einer Ausführungsform der vorliegenden Erfindung ist. - AUSFÜHRLICHE BESCHREIBUNG
- Es versteht sich, dass die Komponenten der vorliegenden Erfindung wie allgemein in den hiesigen Figuren beschrieben und dargestellt in einer großen Vielzahl unterschiedlicher Anordnungen angeordnet und ausgelegt sein könnten. So soll die folgende ausführlichere Beschreibung der Ausführungsformen der Erfindung, sowie sie in den Figuren dargestellt sind, den Schutzumfang der beanspruchten Erfindung nicht begrenzen, sondern ist nur für gewisse Beispiele gegenwärtig in Betracht gezogener Ausführungsformen gemäß der Erfindung repräsentativ. Die gegenwärtig beschriebenen Ausführungsformen werden am besten durch Bezugnahme auf die Zeichnungen verständlich, worin gleiche Teile insgesamt durch gleiche Ziffern bezeichnet sind.
- Ausführungsformen gemäß der vorliegenden Erfindung können als eine Einrichtung, ein Verfahren oder ein Computerprogrammprodukt ausgeführt sein. Dementsprechend kann die vorliegende Erfindung die Form einer vollständigen Hardwareausführungsform, einer vollständigen Softwareausführungsform (einschließlich von Firmware, residenter Software, Mikrocode usw.) oder einer Software und Hardwareaspekte vereinigenden Ausführungsform annehmen, die alle allgemein hier als ein "Modul" oder "System" bezeichnet sein können. Ferner kann die vorliegende Erfindung die Form eines in jedem beliebigen fassbaren Ausdrucksmedium mit in dem Medium verkörperten computerlesbaren Programmcode verkörperten Computerprogrammprodukts annehmen.
- Es kann jede Kombination eines oder mehrerer computernutzbarer oder computerlesbarer Medien benutzt werden. Zum Beispiel kann ein computerlesbares Medium ein oder mehrere einer tragbaren Computerdiskette, einer Festplatte, einer Direktzugriffsspeicher-(RAM – Random Access Memory)Vorrichtung, einer Nurlesespeicher-(ROM – Read-Only Memory)Vorrichtung, einer löschbaren programmierbaren Nurlesespeicher-(EPRON oder Flash-Speicher-)Vorrichtung, einer tragbaren Disketten-Nurlesespeicher-(CDROM – Compact Disc Read-Only Memory)Vorrichtung, einer optischen Speichervorrichtung und einer Magnetspeichervorrichtung umfassen. In ausgewählten Ausführungsformen kann ein computerlesbares Medium jedes nichtflüchtige Medium umfassen, das das Programm zur Verwendung durch oder in Verbindung mit dem/der Anweisungsausführungssystemeinrichtung oder -vorrichtung enthalten, speichern, übermitteln, ausbreiten oder transportieren kann, umfassen.
- Computerprogrammcode zum Ausführen von Operationen der vorliegenden Erfindung kann in jeder beliebigen Kombination von einer oder mehreren Programmiersprachen geschrieben sein, einschließlich einer objektorientierten Programmiersprache wie beispielsweise Java, Smalltalk, C++ oder dergleichen und herkömmlichen verfahrenstechnischen Programmiersprachen wie beispielsweise der Programmiersprache "C" oder ähnlichen Programmiersprachen geschrieben sein. Der Programmcode kann vollständig auf einem Computersystem als alleinstehendes Softwarepaket, auf einer freistehenden Hardwareeinheit, teilweise auf einem etwas vom Computer beabstandeten entfernten Computer oder auf einem entfernten Computer oder Server ausgeführt werden. In dem letzteren Szenario kann der entfernte Computer durch eine beliebige Art von Netz mit dem Computer verbunden sein, einschließlich eines Ortsnetzes (LAN – Local Area Network) oder eines Fernverkehrsnetzes (WAN – Wide Area Network) verbunden sein oder die Verbindung kann mit einem externen Computer hergestellt sein (zum Beispiel durch das Internet mit einem Internet-Dienstanbieter).
- Die vorliegende Erfindung wird unten unter Bezugnahme auf Flussdiagrammdarstellungen und/oder Blockschaltbilder von Verfahren, Einrichtungen (Systemen) und Computerprogrammprodukten gemäß Ausführungsformen der Erfindung beschrieben. Es versteht sich, dass jeder Block der Flussdiagrammdarstellungen und/oder Blockdiagramme und Kombinationen von Blöcken in den Flussdiagrammdarstellungen und/oder Blockdiagrammen durch Computerprogrammanweisungen oder -code umgesetzt werden können. Diese Computerprogrammanweisungen können für einen Prozessor eines Universalrechners, Sonderrechners oder sonstigen programmierbaren Datenverarbeitungsgeräten zum Erzeugen einer Maschine bereitgestellt werden, so dass die Anweisungen, die über den Prozessor des Rechners oder sonstiges programmierbares Datenverarbeitungsgerät ausgeführt werden, Mittel zum Umsetzen der in dem Flussdiagramm und/oder Blockschaltbildblock oder -blöcken angegebenen Funktionen/Handlungen erzeugen.
- Diese Computerprogrammanweisungen können auch in einem nichtflüchtigen computerlesbaren Medium gespeichert sein, das einen Computer oder sonstiges programmierbares Datenverarbeitungsgerät anweisen kann, auf eine bestimmte Weise zu funktionieren, so dass die in dem computerlesbaren Medium gespeicherten Anweisungen ein Herstellungserzeugnis mit Anweisungsmittel erzeugen, die die in dem Flussdiagramm und/oder Blockschaltbildblock oder -blöcken angegebene Funktion/Handlung umsetzen.
- Die Computerprogrammanweisungen können auch in einen Computer oder sonstiges programmierbares Datenverarbeitungsgerät eingeladen werden, um die Durchführung einer Reihe von Betriebsschritten auf dem Computer oder sonstigem programmierbaren Gerät zum Erzeugen eines computerimplementierten Verfahrens zu veranlassen, so dass die Anweisungen, die auf dem Computer oder sonstigem programmierbaren Gerät ausgeführt werden, Verfahren zum Umsetzen der in dem Flussdiagramm und/oder Blockschaltbildblock oder -blöcken angegebenen Funktionen/Handlungen bereitstellen.
- Bezugnehmend auf
1 kann eine Steuerung102 in einem Fahrzeug untergebracht sein. Das Fahrzeug kann jedes beliebige in der Technik bekannte Fahrzeug umfassen. Das Fahrzeug kann alle der Strukturen und Merkmale jedes beliebigen in der Technik bekannten Fahrzeugs einschließlich von Rädern, einem an die Räder angekoppelten Antriebsstrang, einen an den Antriebsstrang angekoppelten Motor, ein Lenksystem, ein Bremssystem und sonstige Systeme aufweisen, die in der Technik als in einem Fahrzeug enthalten bekannt sind. - Wie ausführlicher hier besprochen kann die Steuerung
102 autonome Navigation und Kollisionsvermeidung durchführen. Insbesondere können Auditorische- und Kartendaten ausgewertet werden, um mögliche Hindernisse zu kennzeichnen. - Die Steuerung
102 kann eine im Fahrzeug untergebrachte oder sonstwie der Steuerung102 zugängliche Datenbank104 umfassen oder darauf zugreifen. Die Datenbank104 kann Daten ausreichend zum Ermöglichen der Kennzeichnung eines Hindernisses unter Verwendung von Kartendaten umfassen. Zum Beispiel können Tondaten106 durch eine oder mehrere Arten von Fahrzeugen oder sonstige mögliche Hindernisse erzeugte Töne beschreibende Daten enthalten. Zum Beispiel können Tondaten106 Proben der durch ein oder mehrere Arten von Fahrzeugen, Tieren (z.B. Hundebellen), sprechenden Personen und dergleichen erzeugten Töne umfassen. Alternativ können Tondaten106 solche Töne beschreibende Daten enthalten, wie beispielsweise ein Spektrum solcher Töne oder sonstige, aus einer Aufzeichnung solcher Töne abgeleitete Daten enthalten. - Die Datenbank
104 kann ferner Kartendaten108 enthalten. Die Kartendaten108 können Karten im Gebiet des Fahrzeugs umfassen, wie beispielsweise der Stadt, des Staats oder des Landes, in dem sich das Fahrzeug befindet. Die Karten können Straßen, Landmarken, Geschäfte, öffentliche Gebäude usw. beschreibende Daten enthalten. Insbesondere können die Kartendaten108 die Standorte von Notfahrzeugstationen (Feuerwachen, Krankenhäuser mit Ambulanzdienst, Polizeiwachen usw.) umfassen. - In einigen Ausführungsformen kann die Steuerung
102 sich periodisch mit einem Netz110 wie beispielsweise dem Internet oder sonstigem Netz verbinden. Die Steuerung102 kann einige oder alle der in der Datenbank104 gespeicherten Daten von einem oder mehreren Servern112 abrufen, die eine solche Informationen speichernde Datenbank114 hosten oder darauf zugreifen. Zum Beispiel können Tonsignaturen oder Proben von Tönen eines oder mehrerer Fahrzeuge oder sonstiger möglicher Hindernisse aus der Datenbank114 abgerufen werden. Gleicherweise können aktuelle Kartendaten108 periodisch als eine Datenbank114 abgerufen werden. - Die Steuerung
102 kann einen oder mehrere Bildströme aus einer oder mehreren Abbildungsvorrichtungen116 empfangen. Zum Beispiel kann eine oder mehrere Kameras am Fahrzeug befestigt und Ausgangsbildströme durch die Steuerung102 empfangen werden. - Die Steuerung
102 kann ferner Tonsignale aus einem oder mehreren Mikrofonen118 empfangen. Das eine oder die mehreren Mikrofone118 können eine Gruppe von zueinander versetzten Mikrofonen sein, so dass die Unterschiede in Größe und Ankunftszeit eines Tons zum Bestimmen eines oder beider der Richtung einer Quelle des Tons und der Entfernung des Tons benutzt werden können. Das eine oder die mehreren Mikrofone können Richtmikrofone sein, die für aus einer bestimmten Richtung kommende Töne empfindlicher sind. Die Mikrofone118 und die zum Ableiten eines oder beider der Entfernung und Richtung einer Tonquelle benutzten Schaltungen oder Algorithmen können jeden beliebigen, in der SONAR-Technik oder jedem sonstigen in der Technik bekannten Ansatz zum Kennzeichnen des Standorts einer Tonquelle entsprechen. - Die Steuerung kann ein Kollisionsvermeidungsmodul
120 ausführen, das die Bildströme und Tonsignale empfängt und mögliche Hindernisse kennzeichnet und Maßnahmen unternimmt, sie zu vermeiden. In den hier offenbarten Ausführungsformen werden nur Bild- und auditorische Daten zum Durchführen von Kollisionsvermeidung benutzt. Es können jedoch auch andere Sensoren zum Erkennen von Hindernissen benutzt werden, wie beispielsweise RADAR, LIDAR, SONAR und dergleichen. - Das Kollisionsvermeidungsmodul
120 kann ein Hindernisvermeidungsmodul122a umfassen, das den einen oder die mehreren Bildströme auswertet und mögliche Hindernisse einschließlich von Personen, Tieren, Fahrzeugen, Gebäuden, Bordkanten und sonstigen Gegenständen und Strukturen kennzeichnet. Insbesondere kann das Hinderniskennzeichnungsmodul122a Fahrzeugbilder in dem einen oder den mehreren Bildströmen kennzeichnen. Das Hinderniskennzeichnungsmodul122a kann ein Tonverarbeitungsmodul124 umfassen, das mögliche Hindernisse unter Verwendung der Tonsignale in Verbindung mit Kartendaten108 und möglicherweise den Tondaten106 kennzeichnet. Das Verfahren, mit dem Auditorische- und Kartendaten zum Kennzeichnen möglicher Hindernisse benutzt werden, wird ausführlicher unten beschrieben. - Das Kollisionsvermeidungsmodul
120 kann ferner ein Kollisionsvorhersagemodul122b umfassen, das vorhersagt, welche Hindernisbilder möglicherweise mit dem Fahrzeug zusammenstoßen, basierend auf seiner gegenwärtigen Laufbahn oder dem gegenwärtig beabsichtigten Weg. Ein Entscheidungsmodul122c kann eine Entscheidung treffen, anzuhalten, zu beschleunigen, abzudrehen usw., um Hindernisse zu vermeiden. Die Art und Weise, auf die das Kollisionsvorhersagemodul122b mögliche Zusammenstöße vorhersagt und die Art und Weise, auf die das Entscheidungsmodul122c Handlung unternimmt, mögliche Zusammenstöße zu vermeiden, kann jedem in der Technik autonomer Fahrzeuge bekannten Verfahren oder System entsprechen. - Das Entscheidungsmodul
122c kann die Laufbahn des Fahrzeugs durch Betätigung eines oder mehrerer, die Richtung und Geschwindigkeit des Fahrzeugs steuernder Aktoren126 steuern. Zum Beispiel können die Aktoren126 einen Lenkaktor128a , Beschleunigungsaktoren128b und einen Bremsaktor128c umfassen. Die Anordnung der Aktoren128a –128c kann jeder, in der Technik autonomer Fahrzeuge bekannten Ausführung solcher Aktoren entsprechen. -
2 ist ein eine beispielhafte Rechenvorrichtung200 darstellendes Blockschaltbild. Die Rechenvorrichtung200 kann zum Durchführen verschiedener Verfahren benutzt werden, wie beispielsweise den hier besprochenen. Die Steuerung102 kann einige oder alle der Merkmale der Rechenvorrichtung200 aufweisen. - Die Rechenvorrichtung
200 kann einen oder mehrere Prozessor(en)202 , eine oder mehrere Speichervorrichtung(en)204 , eine oder mehrere Schnittstelle(n), eine oder mehrere Massenspeichervorrichtung(en)208 , eine oder mehrere Eingangs-/Ausgangs-(E/A-)Vorrichtung(en)210 und eine Anzeigevorrichtung230 , von denen alle an einen Bus212 angekoppelt sind, aufweisen. Prozessor(en)202 können einen oder mehrere Prozessoren oder Steuerungen umfassen, die in Speichervorrichtung(en)204 und/oder Massenspeichervorrichtung(en)208 gespeicherte Anweisungen ausführen. Prozessor(en)202 können verschiedene Arten von computerlesbaren Medien wie beispielsweise Cache-Speicher umfassen. - Speichervorrichtung(en)
204 umfassen verschiedene computerlesbare Medien wie beispielsweise flüchtigen Speicher (z.B. Direktzugriffsspeicher (RAM – Random Access Memory)214 ) und/oder nichtflüchtige Speicher (z.B. Nurlesespeicher (ROM – Read-Only Memory)216 ). Speichervorrichtung(en)204 können auch wiederbeschreibbaren ROM wie beispielsweise Flash-Speicher umfassen. - Massenspeichervorrichtung(en)
208 umfassen verschiedene computerlesbare Medien wie beispielsweise Magnetbänder, Magnetplatten, optische Platten, Festkörperspeicher (z.B. Flash-Speicher) und so fort. Wie in2 gezeigt, ist ein bestimmtes Massenspeichergerät ein Festplattenlaufwerk224 . Verschiedene Laufwerkte können ebenfalls in Massenspeichervorrichtung(en)208 enthalten sein, um Auslesen aus und/oder Einschreiben in die verschiedenen computerlesbaren Medien zu ermöglichen. Massenspeichervorrichtung(en)208 umfassen Wechseldatenträger226 und/oder nichtherausnehmbare Medien. - E/A-Vorrichtung(en)
210 umfassen verschiedene Vorrichtungen, die die Eingabe oder das Abrufen von Daten und/oder sonstigen Informationen von Rechenvorrichtung200 erlauben. Beispielhafte E/A-Vorrichtung(en)210 umfassen Cursor-Steuervorrichtungen, Tastaturen, Tastfelder, Mikrofone, Monitore oder sonstige Anzeigevorrichtungen, Lautsprecher, Drucker, Netzschnittstellenkarten, Modems, Linsen, CCD oder sonstige Bilderfassungsvorrichtungen und dergleichen. - Die Anzeigevorrichtung
230 umfasst jede Art von zum Anzeigen von Informationen zu einem oder mehreren Benutzern der Rechenvorrichtung200 fähige Art von Vorrichtung. Beispiele der Anzeigevorrichtung230 umfassen einen Monitor, Anzeigeendgerät, Videoprojektionsgerät und dergleichen. - Schnittstelle(n)
206 umfassen verschiedene Schnittstellen, die der Rechenvorrichtung200 erlauben, mit anderen Systemen, Vorrichtungen oder Rechenumgebungen zusammenzuwirken. Beispielhafte Schnittstelle(n)206 umfassen eine beliebige Anzahl verschiedener Netzschnittstellen220 wie beispielsweise Schnittstellen zu Ortsnetzen (LAN – Local Area Networks), Fernverkehrsnetzen (WAN – Wide Area Networks), drahtlosen Netzen und dem Internet. Andere Schnittstelle(n) umfassen Benutzeroberfläche218 und Peripherievorrichtungsschnittstelle222 . Die Schnittstelle(n)206 können auch eine oder mehrere Peripherieschnittstellen wie beispielsweise Schnittstellen für Drucker, Zeigevorrichtungen (Mäuse, Standmaus usw.), Tastaturen und dergleichen umfassen. - Bus
212 erlaubt Prozessor(en)202 , Speichervorrichtung(en)204 , Schnittstelle(n)206 , Massenspeichervorrichtung(en)208 , E/A-Vorrichtung(en)210 und Anzeigevorrichtung230 , miteinander wie auch mit anderen, an den Bus212 angekoppelten Vorrichtungen oder Komponenten zu kommunizieren. Bus212 stellt eine oder mehrere von mehreren Arten von Busstrukturen dar wie beispielsweise einen Systembus, PCI-Bus, IEEE 1394-Bus, USB-Bus und so weiter. - Für Erläuterungszwecke sind Programme und andere ausführbare Programmkomponenten hier als diskrete Blöcke dargestellt, obwohl es sich versteht, dass solche Programme und Komponenten zu verschiedenen Zeiten in verschiedenen Speicherkomponenten der Rechenvorrichtung
200 resident sein können und durch Prozessor(en)202 ausgeführt werden. Alternativ können die hier beschriebenen Systeme und Verfahren in Hardware oder in einer Kombination von Hardware, Software und/oder Firmware ausgeführt sein. Zum Beispiel kann eine oder mehrere anwendungsspezifische integrierte Schaltung (ASIC – Application Specific Integrated Circuit) programmiert sein, ein oder mehrere der hier beschriebenen Systeme und Verfahren auszuführen. - Uns nunmehr den
3A und3B zuwendend, kann in vielen Fällen ein die Steuerung102 aufnehmendes Fahrzeug (hiernach das Fahrzeug300 ) durch einen verdeckenden Gegenstand304 wie beispielsweise Gebäude, Baum, Schild usw. daran gehindert werden, einen möglichen Gegenstand wie beispielsweise ein anderes Fahrzeug302 sichtbar zu erkennen. Dementsprechend könnten die Abbildungsvorrichtungen116 nicht wirkungsvoll sein, solche Hindernisse zu erkennen. Das Fahrzeug300 könnte jedoch nahe genug sein, durch das andere Fahrzeug302 oder sonstiges Hindernis erzeugten Ton zu erkennen. Obwohl die hier offenbarten Verfahren besonders nützlich sind, wo es einen verdeckenden Gegenstand304 gibt, könnte die Erkennung von Hindernissen wie hier beschrieben durchgeführt werden, wo Bilddaten verfügbar sind und könnte beispielsweise den Standort eines Hindernisses bestätigen, das auch für Abbildungsvorrichtungen116 sichtbar ist. - Von dem anderen Fahrzeug
302 oder sonstigen Hindernis wie in3A gezeigt erkannte hörbare Signale können wie in3B gezeigt mit Kartendaten verglichen werden. Zum Beispiel kann der Standort306 des Fahrzeugs300 auf der Karte unter Verwendung eines an dem Fahrzeug300 befestigten GPS-(Global Positioning System)Empfängers identifiziert werden und Landmarken im Gebiet des Standorts306 können als Kartendaten identifiziert werden. Die Identität und Position des verdeckenden Gegenstands304 können ebenfalls identifiziert werden. Eine dem Fahrzeug302 oder sonstigem Hindernis entsprechende Landmarke308 kann aus den Kartendaten als entsprechend einem oder beiden von Richtung und Abstand von einer Tonquelle wie erkannt unter Verwendung des einen oder der mehreren Mikrofone118 ausgewählt werden. Zum Beispiel kann eine Richtung oder Position zu einer Tonquelle wie unter Verwendung des einen oder der mehreren Mikrofone118 erkannt eine damit verbundene Ungewissheit oder Toleranz aufweisen. Die der Tonquelle entsprechende Landmarke308 kann deshalb ausgewählt werden, weil die Landmarke308 innerhalb dieser Toleranz von der Richtung und/oder Position der Tonquelle wie aus den Tonsignalen von den Mikrofonen118 bestimmt positioniert ist. - Zum Beispiel kann, wenn bestimmt wird, dass die einer Tonquelle entsprechende Landmarke
308 eine Parkgarage ist, angenommen werden, dass ein Fahrzeug aus der Parkgarage ausfährt und Maßnahmen können unternommen werden, es zu vermeiden. Auf gleiche Weise kann, wo die Landmarke308 eine Notfahrzeugstation ist und der erkannte Ton eine Sirene ist, angenommen werden, dass ein Notfahrzeug die Station verlässt und Maßnahmen unternommen werden, zur Seite zu fahren oder sonstwie Maßnahmen unternommen werden, es zu vermeiden. Wenn das Fahrzeug300 auf einer ersten Straße fährt und die Landmarke308 eine zweite Straße ist, die sich mit der ersten Straße kreuzt, kann angenommen werden, dass ein Fahrzeug auf der zweiten Straße dabei sein könnte, auf die erste Straße zu fahren. -
4 zeigt ein Verfahren400 , das durch die Steuerung durch Verarbeiten von Tonsignalen aus einem oder mehreren Mikrofonen118 ausgeführt werden kann. - Das Verfahren
400 kann Erkennen402 eines Tons und Bestimmen404 einer oder mehrerer möglicher Quellen des Tons umfassen. Zum Beispiel kann eine Wellenform oder ein Spektrum des Tons mit denen von einer oder mehreren Quellen in den Tondaten106 verglichen werden. Infrage kommende Tonquellen404 können identifiziert werden, die Ähnlichkeit mit dem einen Schwellwertzustand überschreitenden erkannten Ton aufweisen. Infrage kommende Tonquellen können als ein Fahrzeug, eine Person, ein Tier oder eine sonstige tonerzeugende Instanz geschätzt werden, für die Tondaten106 gespeichert sind. - Einige oder alle der übrigen Schritte des Verfahrens
400 können für alle erkannten Töne402 oder nur für Töne entsprechend Fahrzeugen oder sonstigen möglichen Hindernissen ausgeführt werden. Wenn dementsprechend im Schritt404 der Ton als nicht einem Fahrzeug oder sonstigem möglichen Hindernis entsprechend festgestellt wird, dann können die übrigen Schritte des Verfahrens400 weggelassen werden. - Das Verfahren
400 kann eines oder beide von Schätzen406 einer Entfernung von dem Ursprung des Tons und Schätzen408 einer Richtung des Ursprungs des Tons umfassen. In einigen Fällen können durch Bestimmen von Unterschieden in einer Ankunftszeit des Tons bei versetzten Mikrofonen108 sowohl die Entfernung vom Ursprung als auch dessen Richtung gleichzeitig bestimmt werden, d.h. es wird eine Ortschätzung abgeleitet. In anderen Ausführungsformen werden getrennte Mikrofone118 oder Verarbeitungsschritte zum Schätzen406 ,408 der Entfernung und Richtung zum Ursprung des Tons benutzt. - Das Verfahren
400 kann Abrufen410 von Kartendaten in einem Gebiet mit dem geschätzten Ort des Tonursprungs wie in Schritten406 und408 bestimmt umfassen. Und Auswerten412 , ob die Kartendaten eine Landmarke entsprechend dem Ort und infrage kommenden Ursprung des Tonursprungs umfassen. Zum Beispiel kann ein dem Ort des Tonursprungs an der nächstgelegenen Landmarke gekennzeichnet werden412 . Zum Beispiel, wo die infrage kommende Tonquelle in Schritt404 als ein Fahrzeug bestimmt wird und eine Parkgarage sich innerhalb einer angegebenen Toleranz von dem in Schritten406 und408 bestimmten Ort befindet, dann kann bestimmt werden, dass die Parkgarage die Landmarke entsprechend dem in Schritt402 erkannten Ton ist. Wie oben bemerkt kann die Toleranz ein Gebiet oder Bereich von Winkeln und Entfernungen entsprechend der Ungewissheit bei der Bestimmung des Orts, der Richtung bzw. der Entfernung des Tonursprungs sein. In einem anderen Szenario, befindet sich eine Notfahrzeugstation innerhalb der Toleranz vom Tonursprung und die infrage kommende Tonquelle ist ein Notfahrzeug, dann kann im Schritt412 bestimmt werden, dass das der im Schritt402 erkannten Ton entsprechenden Landmarke die Notfahrzeugstation ist. - Wenn eine entsprechende Landmarke im Schritt
412 erkannt wird, dann kann das Verfahren400 Erhöhen414 eines Gewissheits- oder Vertrauenswertes umfassen, der anzeigt, dass sich ein Fahrzeug an den in Schritten406 ,408 bestimmten Standort befindet. Zum Beispiel kann ein Kollisionsvermeidungsalgorithmus mögliche Hindernisse identifizieren. Ein Hindernis kann einen damit verbundenen Vertrauenswert aufweisen, der die Wahrscheinlichkeit anzeigt, dass ein Artefakt in einem Bild oder in Tonsignalen erkannt tatsächlich einem Fahrzeug entspricht. Es können nur diejenigen Hindernisse zur Kollisionsvermeidung in Betracht gezogen werden, die einen höheren Vertrauenswert als ein Schwellwert aufweisen. - Alternativ kann Erhöhen
414 der Gewissheit verfügbare Wahlmöglichkeiten zum Vermeiden des Fahrzeugs am Tonursprung steigern. Wenn zum Beispiel ein Fahrzeug erkannt wird, aber eine geringe Gewissheit betreffs seines Standorts besteht, kann ein Kollisionsvermeidungsmodul120 das Fahrzeug verlangsamen, um eine mögliche Kollision in einem weiten Bereich möglicher Standorte zu vermeiden. Wenn jedoch der Standort des Fahrzeugs am Tonursprung mit hoher Gewissheit erkannt ist (d.h. wie im Schritt414 erhöht), dann muss das Kollisionsvermeidungsmodul120 nur Geschwindigkeit und Richtung einstellen, um diesen bekannten Standort zusammen mit jeglichen anderen identifizierten Hindernissen zu vermeiden. - Das Verfahren
400 kann ferner Erhöhen416 der Gewissheit betreffs der infrage kommenden Quelle des Tons basierend auf der im Schritt412 identifizierten Landmarke umfassen. Wenn zum Beispiel die infrage kommende Quelle des Tons ein Notfahrzeug ist und die im Schritt412 bestimmte Landmarke als eine Notfahrzeugstation bestimmt ist, dann kann die Zuversicht, dass die Quelle des Tons in der Tat ein Notfahrzeug war, erhöht werden416 . Das Kollisionsvermeidungsmodul120 kann daher Schritte unternehmen, zur Seite zu fahren oder sonstwie das Notfahrzeug zu vermeiden. - In beiderlei Ergebnissen von Schritt
412 wird Kollisionsvermeidung hinsichtlich erkannter Hindernisse durchgeführt418 . Wie oben bemerkt kann Steigern414 ,416 der Gewissheit betreffs des Orts und Ursprungs eines Tons durch das Kollisionsvermeidungsmodul120 zum Vermeiden von Kollisionen benutzt werden. Die Quelle des im Schritt402 erkannten Tons wird jedoch während Kollisionsvermeidung418 nicht unbedingt außer Acht gelassen, sondern stattdessen können dessen mögliche Orte größer sein. Dies ist besonders wahr, wo die im Schritt404 bestimmte infrage kommende Tonquelle ein Fahrzeug oder eine Person ist. - Die vorliegende Erfindung kann in anderen bestimmten Formen ausgeführt sein, ohne ihren Sinn und wesentliche Eigenschaften zu verlassen. Die beschriebenen Ausführungsformen sind in jeder Hinsicht nur als beispielhaft und nicht als einschränkend zu betrachten. Der Schutzumfang der Erfindung wird daher durch die beiliegenden Ansprüche angezeigt, anstatt durch die vorangehende Beschreibung. Alle Änderungen, die in die Bedeutung und den Bereich von Gleichwertigkeit der Ansprüche fallen, sind in ihrem Schutzumfang aufzunehmen.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Nicht-Patentliteratur
-
- IEEE 1394-Bus [0034]
Claims (20)
- Steuerung für ein autonomes Fahrzeug umfassend: eine oder mehrere Verarbeitungsvorrichtungen, programmiert zum: Empfangen eines oder mehrerer Tonströme von einem oder mehreren Mikrofonen; Abrufen von Kartendaten in einem Gebiet um das autonome Fahrzeug; und wenn beide des einen oder der mehreren Tonströme und Kartendaten eine hohe Wahrscheinlichkeit eines anderen Fahrzeugs in der Nähe des autonomen Fahrzeugs anzeigen, Aufrufen von Hindernisvermeidung hinsichtlich eines wahrscheinlichen Orts des anderen Fahrzeugs.
- Steuerung nach Anspruch 1, wobei das eine oder die mehreren Verarbeitungsvorrichtungen ferner programmiert sind zum Aufrufen von Hindernisvermeidung hinsichtlich des wahrscheinlichen Orts des Fahrzeugs durch Betätigen wenigstens eines eines Lenkaktoren, Beschleunigungsaktoren und Bremsaktoren des autonomen Fahrzeugs mit Wirksamkeit zum Vermeiden des wahrscheinlichen Ortes des anderen Fahrzeugs.
- Steuerung nach Anspruch 1 oder 2, wobei das eine oder die mehreren Verarbeitungsvorrichtungen ferner programmiert sind zum: Erkennen in dem einen oder den mehreren Tonströmen eines wahrscheinlichen vom Fahrzeug stammenden Tons; Identifizieren eines ersten vorhergesagten Ortes des wahrscheinlichen vom Fahrzeug stammenden Tons; und Auswählen des wahrscheinlichen Ortes des anderen Fahrzeugs ausgewählt aus einem Gebiet in der Nähe des ersten vorhergesagten Ortes unter Verwendung der Kartendaten.
- Steuerung nach Anspruch 3, wobei: das eine oder die mehreren Mikrofone eine Gruppe von Mikrofonen sind und das eine oder die mehreren Tonströme eine Vielzahl von Tonströmen aus der Gruppe von Mikrofonen sind; die eine oder die mehreren Verarbeitungsvorrichtungen ferner programmiert sind zum Identifizieren des ersten vorhergesagten Ortes des wahrscheinlichen vom Fahrzeug stammenden Tons durch Vergleichen wenigstens eines von Ankunftszeit und Stärke des wahrscheinlichen vom Fahrzeug stammenden Tons in der Vielzahl von Tonströmen.
- Steuerung nach Anspruch 3 oder 4, wobei das eine oder die mehreren Mikrofone Richtmikrofone sind.
- Steuerung nach einem der Ansprüche 3 bis 5, wobei das eine oder die mehreren Verarbeitungsvorrichtungen ferner programmiert sind zum: Kennzeichnen von Landmarken in dem Gebiet in der Nähe des ersten vorhergesagten Ortes; Kennzeichnen aus den Kartendaten einer fahrzeugspezifischen Landmarke unter der Landmarke in dem Gebiet in der Nähe des ersten vorhergesagten Ortes; und Auswählen der fahrzeugspezifischen Landmarke als der wahrscheinliche Ort des anderen Fahrzeugs.
- Steuerung nach Anspruch 6, wobei die fahrzeugspezifische Landmarke wenigstens eine eines Parkplatzes und einer Notfahrzeugstation ist.
- Steuerung nach Anspruch 7, wobei das eine oder die mehreren Verarbeitungsvorrichtungen ferner programmiert sind zum: Kennzeichnen einer vorhergesagten Fahrzeugart aus dem wahrscheinlichen vom Fahrzeug stammenden Ton; wenn die vorhergesagte Fahrzeugart der fahrzeugspezifischen Landmarke entspricht, Bestätigen der vorhergesagten Fahrzeugart.
- Steuerung nach Anspruch 8, wobei die eine oder die mehreren Verarbeitungsvorrichtungen ferner programmiert sind zum: wenn die vorhergesagte Fahrzeugart der fahrzeugspezifischen Landmarke entspricht und die fahrzeugspezifische Landmarke eine Notfahrzeugstation ist, Aufrufen von zur Seite Fahren und Anhalten des autonomen Fahrzeugs.
- Steuerung nach einem der Ansprüche 1 bis 9, wobei der wahrscheinliche Ort des anderen Fahrzeugs nicht in einer Sichtlinie eines Abbildungssystems des autonomen Fahrzeugs liegt.
- Autonomes Fahrzeug, umfassend: ein Fahrzeug mit einem Motor und selektiv an den Motor angekoppelten Rädern; wenigstens eines von Lenkaktoren, Gaspedalaktoren und Bremsaktoren; ein oder mehrere Mikrofone; eine betriebsfähig an das eine oder die mehreren Mikrofone und den wenigstens einen des Lenkaktoren, des Gaspedalaktoren und des Bremsaktoren angekoppelte Steuerung, wobei die Steuerung eine oder mehrere Verarbeitungsvorrichtungen, programmiert zum: Empfangen eines oder mehrerer Tonströme aus dem einen oder den mehreren Mikrofonen; Abrufen von Kartendaten in einem Gebiet um das autonome Fahrzeug umfasst; und wenn beide des einen oder der mehreren Tonströme und Kartendaten eine hohe Wahrscheinlichkeit eines anderen Fahrzeugs in der Nähe des autonomen Fahrzeugs anzeigen, Aufrufen von Hindernisvermeidung hinsichtlich eines wahrscheinlichen Ortes des anderen Fahrzeugs.
- Autonomes Fahrzeug nach Anspruch 11, wobei das eine oder die mehreren Verarbeitungsvorrichtungen ferner programmiert sind zum Aufrufen von Hindernisvermeidung hinsichtlich des wahrscheinlichen Ortes des anderen Fahrzeugs durch Betätigen wenigstens eines eines Lenkaktoren, Gaspedalaktoren und Bremsaktoren des autonomen Fahrzeugs mit Wirkung zum Vermeiden des wahrscheinlichen Ortes des anderen Fahrzeugs.
- Autonomes Fahrzeug nach Anspruch 11 oder 12, wobei die eine oder die mehreren Verarbeitungsvorrichtungen ferner programmiert sind zum: Erkennen in dem einen oder den mehreren Tonströmen eines wahrscheinlichen vom Fahrzeug stammenden Tones; Identifizieren eines ersten vorhergesagten Ortes des wahrscheinlichen vom Fahrzeug stammenden Tones; und Auswählen des wahrscheinlichen Ortes des ausgewählten Fahrzeugs aus einem Gebiet in der Nähe des ersten vorhergesagten Ortes unter Verwendung der Kartendaten.
- Autonomes Fahrzeug nach Anspruch 13, wobei: das eine oder die mehreren Mikrofone eine Gruppe von Mikrofonen sind und der eine oder die mehreren Tonströme eine Vielzahl von Tonströmen aus der Gruppe von Mikrofonen sind; die eine oder mehreren Verarbeitungsvorrichtungen ferner programmiert sind zum Identifizieren des ersten vorhergesagten Ortes des wahrscheinlichen vom Fahrzeug stammenden Tons durch Vergleichen wenigstens eines von Ankunftszeit und Stärke des wahrscheinlichen vom Fahrzeug stammenden Tons in der Vielzahl von Tonströmen.
- Autonomes Fahrzeug nach Anspruch 13 oder 14, wobei das eine oder die mehreren Mikrofone Richtmikrofone sind.
- Autonomes Fahrzeug nach einem der Ansprüche 13 bis 15, wobei die eine oder mehreren Verarbeitungsvorrichtungen ferner programmiert sind zum: Identifizieren von Landmarken in dem Gebiet in der Nähe des ersten vorhergesagten Ortes; Identifizieren aus den Kartendaten einer fahrzeugspezifischen Landmarke unter den Landmarken in dem Gebiet in der Nähe des ersten vorhergesagten Ortes; und Auswählen der fahrzeugspezifischen Landmarke als der wahrscheinliche Ort des anderen Fahrzeugs.
- Autonomes Fahrzeug nach Anspruch 16, wobei die fahrzeugspezifische Landmarke wenigstens eines eines Parkplatzes und einer Notfahrzeugstation ist.
- Autonomes Fahrzeug nach Anspruch 17, wobei die eine oder mehreren Verarbeitungsvorrichtungen ferner programmiert sind zum: Identifizieren einer vorhergesagten Fahrzeugart aus dem wahrscheinlichen vom Fahrzeug stammenden Ton; wenn die vorhergesagte Fahrzeugart der fahrzeugspezifischen Landmarke entspricht, Bestätigen der vorhergesagten Fahrzeugart.
- Autonomes Fahrzeug nach Anspruch 18, wobei die eine oder mehreren Verarbeitungsvorrichtungen ferner programmiert sind zum: wenn die vorhergesagte Fahrzeugart der fahrzeugspezifischen Landmarke entspricht und die fahrzeugspezifische Landmarke eine Notfahrzeugstation ist, Aufrufen von zur Seite Fahren und Anhalten des autonomen Fahrzeugs.
- Autonomes Fahrzeug nach einem der Ansprüche 11 bis 19, wobei der wahrscheinliche Ort des anderen Fahrzeugs nicht in einer Sichtlinie eines Abbildungssystems des autonomen Fahrzeugs liegt.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/876,269 US9937922B2 (en) | 2015-10-06 | 2015-10-06 | Collision avoidance using auditory data augmented with map data |
US14/876,269 | 2015-10-06 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102016118902A1 true DE102016118902A1 (de) | 2017-04-06 |
Family
ID=57571233
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102016118902.2A Pending DE102016118902A1 (de) | 2015-10-06 | 2016-10-05 | Kollisionsvermeidung mit durch Kartendaten erweiterten auditorischen Daten |
Country Status (6)
Country | Link |
---|---|
US (2) | US9937922B2 (de) |
CN (1) | CN106560365B (de) |
DE (1) | DE102016118902A1 (de) |
GB (1) | GB2545053A (de) |
MX (1) | MX2016013080A (de) |
RU (1) | RU2016138295A (de) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020173692A1 (de) * | 2019-02-27 | 2020-09-03 | Zf Friedrichshafen Ag | VERFAHREN, STEUERGERÄT FÜR EIN AUTOMATISIERT BETREIBBARES STRAßENFAHRZEUG, COMPUTERPROGRAMMPRODUKT ZUM ERKENNEN VON OBJEKTEN IM STRAßENVERKEHR UND AUTOMATISIERT BETREIBBARES STRAßENFAHRZEUG FÜR MOBILITÄTSDIENSTLEISTUNGEN |
US11295757B2 (en) | 2020-01-24 | 2022-04-05 | Motional Ad Llc | Detection and classification of siren signals and localization of siren signal sources |
US11364910B1 (en) | 2021-08-26 | 2022-06-21 | Motional Ad Llc | Emergency vehicle detection system and method |
US11567510B2 (en) | 2019-01-24 | 2023-01-31 | Motional Ad Llc | Using classified sounds and localized sound sources to operate an autonomous vehicle |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2014239979B2 (en) | 2013-03-15 | 2017-06-22 | Aurora Operations, Inc. | Methods, systems, and apparatus for multi-sensory stereo vision for robotics |
US10338225B2 (en) | 2015-12-15 | 2019-07-02 | Uber Technologies, Inc. | Dynamic LIDAR sensor controller |
US9996080B2 (en) * | 2016-02-26 | 2018-06-12 | Ford Global Technologies, Llc | Collision avoidance using auditory data |
US10281923B2 (en) | 2016-03-03 | 2019-05-07 | Uber Technologies, Inc. | Planar-beam, light detection and ranging system |
US20170329332A1 (en) * | 2016-05-10 | 2017-11-16 | Uber Technologies, Inc. | Control system to adjust operation of an autonomous vehicle based on a probability of interference by a dynamic object |
US9952317B2 (en) * | 2016-05-27 | 2018-04-24 | Uber Technologies, Inc. | Vehicle sensor calibration system |
US10479376B2 (en) | 2017-03-23 | 2019-11-19 | Uatc, Llc | Dynamic sensor selection for self-driving vehicles |
US10746858B2 (en) | 2017-08-17 | 2020-08-18 | Uatc, Llc | Calibration for an autonomous vehicle LIDAR module |
US10775488B2 (en) | 2017-08-17 | 2020-09-15 | Uatc, Llc | Calibration for an autonomous vehicle LIDAR module |
US10569784B2 (en) | 2017-09-28 | 2020-02-25 | Waymo Llc | Detecting and responding to propulsion and steering system errors for autonomous vehicles |
SE541252C2 (en) | 2017-10-10 | 2019-05-14 | Kai Elodie Abiakle | Method for stopping a vehicle |
WO2019118713A1 (en) * | 2017-12-15 | 2019-06-20 | Walmart Apollo, Llc | System for determining the location of an autonomous vehicle when a location system is offline |
US10914820B2 (en) | 2018-01-31 | 2021-02-09 | Uatc, Llc | Sensor assembly for vehicles |
CN110329260A (zh) * | 2018-03-28 | 2019-10-15 | 比亚迪股份有限公司 | 车辆行驶控制方法、系统和辅助驾驶控制器 |
US20180224860A1 (en) * | 2018-04-02 | 2018-08-09 | GM Global Technology Operations LLC | Autonomous vehicle movement around stationary vehicles |
CN112136165B (zh) * | 2018-05-25 | 2023-10-27 | 索尼公司 | 路车间通信的道路侧设备和车辆侧设备以及路车间通信系统 |
US10976748B2 (en) * | 2018-08-22 | 2021-04-13 | Waymo Llc | Detecting and responding to sounds for autonomous vehicles |
US10800409B2 (en) * | 2018-09-04 | 2020-10-13 | Caterpillar Paving Products Inc. | Systems and methods for operating a mobile machine using detected sounds |
JP7147513B2 (ja) * | 2018-11-29 | 2022-10-05 | トヨタ自動車株式会社 | 情報提供システム、サーバ、車載装置及び情報提供方法 |
US11257242B2 (en) * | 2018-12-31 | 2022-02-22 | Wipro Limited | Method and device for determining operation of an autonomous device |
JP7120077B2 (ja) * | 2019-02-27 | 2022-08-17 | トヨタ自動車株式会社 | 運転支援システム |
JP7133155B2 (ja) * | 2019-03-04 | 2022-09-08 | トヨタ自動車株式会社 | 運転支援システム |
CN110040134B (zh) * | 2019-03-13 | 2020-06-16 | 重庆邮电大学 | 考虑环境因素的车辆碰撞时间计算方法 |
JP7147648B2 (ja) * | 2019-03-20 | 2022-10-05 | トヨタ自動車株式会社 | 運転支援装置 |
US11209831B2 (en) | 2019-05-03 | 2021-12-28 | Ford Global Technologies, Llc | Object sound detection |
US11433886B2 (en) * | 2019-06-24 | 2022-09-06 | GM Global Technology Operations LLC | System, vehicle and method for adapting a driving condition of a vehicle upon detecting an event in an environment of the vehicle |
GB201910864D0 (en) * | 2019-07-30 | 2019-09-11 | Blackberry Ltd | Processing data for driving automation system |
US11328592B2 (en) * | 2019-08-14 | 2022-05-10 | Toyota Motor North America, Inc. | Systems and methods for roadway obstruction detection |
US11393489B2 (en) * | 2019-12-02 | 2022-07-19 | Here Global B.V. | Method, apparatus, and computer program product for road noise mapping |
US11788859B2 (en) | 2019-12-02 | 2023-10-17 | Here Global B.V. | Method, apparatus, and computer program product for road noise mapping |
US11851049B1 (en) * | 2020-02-28 | 2023-12-26 | Zoox, Inc. | System to detect impacts |
US11483649B2 (en) | 2020-08-21 | 2022-10-25 | Waymo Llc | External microphone arrays for sound source localization |
CN112298173B (zh) * | 2020-11-06 | 2021-12-21 | 吉林大学 | 一种面向智能驾驶的车辆安全行驶控制系统及控制方法 |
GB2611559A (en) * | 2021-10-08 | 2023-04-12 | Virtual Vehicle Res Gmbh | Method and device to detect traffic hazards based on sound events |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5170352A (en) * | 1990-05-07 | 1992-12-08 | Fmc Corporation | Multi-purpose autonomous vehicle with path plotting |
JPH0592767U (ja) | 1992-05-18 | 1993-12-17 | 株式会社豊田中央研究所 | 接近車両認識装置 |
JPH06231388A (ja) * | 1993-01-29 | 1994-08-19 | Sadayoshi Iwabuchi | 車搭載用の緊急車両有無通知装置 |
US5878147A (en) * | 1996-12-31 | 1999-03-02 | Etymotic Research, Inc. | Directional microphone assembly |
US6084973A (en) * | 1997-12-22 | 2000-07-04 | Audio Technica U.S., Inc. | Digital and analog directional microphone |
US6529831B1 (en) * | 2000-06-21 | 2003-03-04 | International Business Machines Corporation | Emergency vehicle locator and proximity warning system |
US7116792B1 (en) * | 2000-07-05 | 2006-10-03 | Gn Resound North America Corporation | Directional microphone system |
US7602413B2 (en) * | 2002-10-18 | 2009-10-13 | Sony Corporation | Information processing system and method, information processing apparatus, image-capturing device and method, recording medium, and program |
US7209831B2 (en) * | 2003-12-29 | 2007-04-24 | United States Of America As Represented By The Secretary Of The Navy | GPS collision avoidance apparatus |
US7840308B2 (en) * | 2004-09-10 | 2010-11-23 | Honda Motor Co., Ltd. | Robot device control based on environment and position of a movable robot |
US8350720B2 (en) * | 2006-06-21 | 2013-01-08 | Dave Thomas | Method and apparatus for object recognition and warning system of a primary vehicle for nearby vehicles |
JP5040237B2 (ja) * | 2006-09-29 | 2012-10-03 | 株式会社デンソー | 車両走行判定装置 |
JP4967927B2 (ja) | 2007-08-27 | 2012-07-04 | 日産自動車株式会社 | 車両用聴覚モニタ装置 |
DE102007058542A1 (de) | 2007-12-06 | 2009-06-10 | Robert Bosch Gmbh | Fahrerassistenzsystem zur Überwachung der Fahrsicherheit und korrespondierendes Verfahren zur Erfassung und Bewertung einer Fahrzeugbewegung |
DE102008003205A1 (de) * | 2008-01-04 | 2009-07-09 | Wabco Gmbh | Vorrichtung, Verfahren und Computerprogramm zur Kollisionsvermeidung oder zur Verminderung der Kollisionsschwere infolge einer Kollision für Fahrzeuge, insbesondere Nutzfahrzeuge |
US7791499B2 (en) * | 2008-01-15 | 2010-09-07 | Qnx Software Systems Co. | Dynamic siren detection and notification system |
JP5303998B2 (ja) | 2008-04-03 | 2013-10-02 | 日産自動車株式会社 | 車外情報提供装置及び車外情報提供方法 |
EP2224425B1 (de) * | 2009-02-26 | 2012-02-08 | Honda Research Institute Europe GmbH | Audiosignalverarbeitungssystem und autonomer Roboter mit dem System |
JP4703788B2 (ja) * | 2009-07-02 | 2011-06-15 | パナソニック株式会社 | 車両位置検出装置及び車両位置検出方法 |
US8532863B2 (en) * | 2009-09-28 | 2013-09-10 | Sri International | Audio based robot control and navigation |
JP2011232292A (ja) | 2010-04-30 | 2011-11-17 | Toyota Motor Corp | 車外音検出装置 |
US8976040B2 (en) * | 2012-02-16 | 2015-03-10 | Bianca RAY AVALANI | Intelligent driver assist system based on multimodal sensor fusion |
US8571743B1 (en) * | 2012-04-09 | 2013-10-29 | Google Inc. | Control of vehicles based on auditory signals |
US8521352B1 (en) * | 2012-05-07 | 2013-08-27 | Google Inc. | Controlling a vehicle having inadequate map data |
EP2858059B1 (de) | 2012-05-25 | 2023-09-13 | Toyota Jidosha Kabushiki Kaisha | Vorrichtung zur erkennung sich nähernder fahrzeuge sowie fahrassistenzsystem |
US8676427B1 (en) * | 2012-10-11 | 2014-03-18 | Google Inc. | Controlling autonomous vehicle using audio data |
GB2511748B (en) * | 2013-03-11 | 2015-08-12 | Jaguar Land Rover Ltd | Emergency braking system for a vehicle |
JP2014211756A (ja) * | 2013-04-18 | 2014-11-13 | トヨタ自動車株式会社 | 運転支援装置 |
KR101526668B1 (ko) * | 2013-06-10 | 2015-06-05 | 현대자동차주식회사 | 차량의 접촉사고 감지 장치 및 그 방법 |
GB2521415B (en) * | 2013-12-19 | 2020-03-04 | Here Global Bv | An apparatus, method and computer program for controlling a vehicle |
US20150283703A1 (en) * | 2014-04-03 | 2015-10-08 | Brain Corporation | Apparatus and methods for remotely controlling robotic devices |
US9766625B2 (en) * | 2014-07-25 | 2017-09-19 | Here Global B.V. | Personalized driving of autonomously driven vehicles |
US9528838B2 (en) * | 2014-12-09 | 2016-12-27 | Toyota Motor Engineering & Manufacturing North America, Inc. | Autonomous vehicle detection of and response to intersection priority |
US9478139B2 (en) * | 2014-12-25 | 2016-10-25 | Automotive Research & Testing Center | Driving safety system and barrier screening method thereof |
US20160217689A1 (en) * | 2015-01-26 | 2016-07-28 | Autoliv Asp, Inc. | Supplemental automotive safety method and system |
US9718468B2 (en) * | 2015-10-13 | 2017-08-01 | Verizon Patent And Licensing Inc. | Collision prediction system |
JP6303217B2 (ja) * | 2015-10-28 | 2018-04-04 | 本田技研工業株式会社 | 車両制御装置、車両制御方法、および車両制御プログラム |
-
2015
- 2015-10-06 US US14/876,269 patent/US9937922B2/en active Active
-
2016
- 2016-09-27 RU RU2016138295A patent/RU2016138295A/ru not_active Application Discontinuation
- 2016-09-29 CN CN201610864223.1A patent/CN106560365B/zh active Active
- 2016-10-05 DE DE102016118902.2A patent/DE102016118902A1/de active Pending
- 2016-10-05 MX MX2016013080A patent/MX2016013080A/es unknown
- 2016-10-05 GB GB1616938.5A patent/GB2545053A/en not_active Withdrawn
-
2018
- 2018-02-27 US US15/906,910 patent/US20180186369A1/en not_active Abandoned
Non-Patent Citations (1)
Title |
---|
IEEE 1394-Bus |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11567510B2 (en) | 2019-01-24 | 2023-01-31 | Motional Ad Llc | Using classified sounds and localized sound sources to operate an autonomous vehicle |
WO2020173692A1 (de) * | 2019-02-27 | 2020-09-03 | Zf Friedrichshafen Ag | VERFAHREN, STEUERGERÄT FÜR EIN AUTOMATISIERT BETREIBBARES STRAßENFAHRZEUG, COMPUTERPROGRAMMPRODUKT ZUM ERKENNEN VON OBJEKTEN IM STRAßENVERKEHR UND AUTOMATISIERT BETREIBBARES STRAßENFAHRZEUG FÜR MOBILITÄTSDIENSTLEISTUNGEN |
US11295757B2 (en) | 2020-01-24 | 2022-04-05 | Motional Ad Llc | Detection and classification of siren signals and localization of siren signal sources |
US11804239B2 (en) | 2020-01-24 | 2023-10-31 | Motional Ad Llc | Detection and classification of siren signals and localization of siren signal sources |
US11364910B1 (en) | 2021-08-26 | 2022-06-21 | Motional Ad Llc | Emergency vehicle detection system and method |
Also Published As
Publication number | Publication date |
---|---|
GB2545053A (en) | 2017-06-07 |
CN106560365A (zh) | 2017-04-12 |
US20180186369A1 (en) | 2018-07-05 |
US9937922B2 (en) | 2018-04-10 |
RU2016138295A (ru) | 2018-03-28 |
US20170096138A1 (en) | 2017-04-06 |
MX2016013080A (es) | 2017-04-27 |
GB201616938D0 (en) | 2016-11-16 |
CN106560365B (zh) | 2021-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102016118902A1 (de) | Kollisionsvermeidung mit durch Kartendaten erweiterten auditorischen Daten | |
DE102017112992A1 (de) | Trainingsalgorithmus zur kollisionsvermeidung unter verwenden von auditiven daten | |
DE102017103123A1 (de) | Fahrzeugfahrbahnplatzierung | |
DE102018100469A1 (de) | Generierten von simulierten sensordaten zum trainieren und überprüfen von erkennungsmodellen | |
DE102017125963A1 (de) | Objektverfolgung mit sensorfusion innerhalb eines probabalistischen rahmens | |
DE102017103374A1 (de) | Kollisionsvermeidung mithilfe von akustischen daten | |
EP2951804B1 (de) | Erstellen eines umfeldmodells für ein fahrzeug | |
DE102016120218A1 (de) | Kollisionsvermeidung unter verwendung akustischer daten | |
DE102015120683A1 (de) | Fahrzeugfahrgastidentifizierung | |
DE102019125707A1 (de) | Verfahren und Vorrichtung zur computerunterstützten oder autonomen Fahr-Verkehrsschilderkennung | |
DE102019115455A1 (de) | Fokus-basiertes markieren von sensordaten | |
DE102014217681B4 (de) | Sirenensignalquellenerfassung, -Erkennung und -Lokalisation | |
DE112016007237T5 (de) | Ein system und verfahren zum identifizieren von unbelegten parkpositionen | |
DE102011117585A1 (de) | Systeme und Verfahren zum Verfolgen von Objekten | |
DE102016118833A1 (de) | Selbsterkennung autonomer Fahrzeuge in spiegelnden oder reflektierenden Oberflächen | |
DE102012021403A1 (de) | Verfahren zum Identifizieren eines von einer Sensoreinrichtung erfassten Fahrzeugs | |
DE102018215753A1 (de) | Vorrichtung und Verfahren zum Ermitteln einer Trajektorie eines Fahrzeugs | |
DE112017007793T5 (de) | Anomalieerkennung im innenraum eines autonomen fahrzeugs | |
DE102016003261A1 (de) | Verfahren zur Selbstlokalisierung eines Fahrzeugs in einer Fahrzeugumgebung | |
DE102020122086A1 (de) | Messen von vertrauen in tiefen neuronalen netzwerken | |
DE102021104044A1 (de) | Neuronales netzwerk zur positionsbestimmung und objektdetektion | |
DE102022205746A1 (de) | Ultraschallsystem und -verfahren zur Abstimmung eines Maschinenlernklassifika-tors mit Verwendung in einem Maschinenlernalgorithmus | |
EP3637311A1 (de) | Vorrichtung und verfahren zum ermitteln von höheninformationen eines objekts in einer umgebung eines fahrzeugs | |
DE102017223621A1 (de) | Verfahren und Steuereinheit zur Steuerung einer Funktion eines zumindest teilweise automatisiert fahrenden Fahrzeugs | |
DE102020119954A1 (de) | Verfahren zum Erzeugen einer Belegungsgitterkarte für zumindest ein statisches Objekt, Computerprogrammprodukt, computerlesbares Speichermedium sowie Assistenzsystem |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed |