DE102017114122A1 - Erkennen von physischen Bedrohungen, die sich einem Fahrzeug nähern - Google Patents
Erkennen von physischen Bedrohungen, die sich einem Fahrzeug nähern Download PDFInfo
- Publication number
- DE102017114122A1 DE102017114122A1 DE102017114122.7A DE102017114122A DE102017114122A1 DE 102017114122 A1 DE102017114122 A1 DE 102017114122A1 DE 102017114122 A DE102017114122 A DE 102017114122A DE 102017114122 A1 DE102017114122 A1 DE 102017114122A1
- Authority
- DE
- Germany
- Prior art keywords
- vehicle
- threat
- approaching
- sensors
- indication
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013459 approach Methods 0.000 title claims description 17
- 238000000034 method Methods 0.000 claims abstract description 32
- 238000013528 artificial neural network Methods 0.000 claims abstract description 30
- 230000003213 activating effect Effects 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 4
- 238000012544 monitoring process Methods 0.000 claims 1
- 238000012360 testing method Methods 0.000 claims 1
- 238000004590 computer program Methods 0.000 abstract description 3
- 230000007246 mechanism Effects 0.000 abstract description 2
- 230000002123 temporal effect Effects 0.000 abstract description 2
- 230000000694 effects Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000001444 catalytic combustion detection Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 230000000246 remedial effect Effects 0.000 description 1
- 238000013403 standard screening design Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R25/00—Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
- B60R25/01—Fittings or systems for preventing or indicating unauthorised use or theft of vehicles operating on vehicle systems or fittings, e.g. on doors, seats or windscreens
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
- B60W60/0016—Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R25/00—Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
- B60R25/10—Fittings or systems for preventing or indicating unauthorised use or theft of vehicles actuating a signalling device
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/02—Occupant safety arrangements or fittings, e.g. crash pads
- B60R21/12—Occupant safety arrangements or fittings, e.g. crash pads which protect the occupants against personal attack from the inside or the outside of the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/20—Conjoint control of vehicle sub-units of different type or different function including control of steering systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/30—Conjoint control of vehicle sub-units of different type or different function including control of auxiliary equipment, e.g. air-conditioning compressors or oil pumps
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/0098—Details of control systems ensuring comfort, safety or stability not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19613—Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19639—Details of the system layout
- G08B13/19647—Systems specially adapted for intrusion detection in or around a vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/54—Audio sensitive means, e.g. ultrasound
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4029—Pedestrians
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2720/00—Output or target parameters relating to overall vehicle dynamics
- B60W2720/24—Direction of travel
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Traffic Control Systems (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Emergency Alarm Devices (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
Die vorliegende Erfindung erstreckt sich auf Verfahren, Systeme und Computerprogrammprodukte zum Erkennen von physischen Bedrohungen, die sich einem Fahrzeug nähern. Außensensoren an einem Fahrzeug erfassen das Umfeld rund um das Fahrzeug. Von den Außensensoren erkannte Ziele, die sich nähern, können in ein neuronales Netzwerk eingespeist werden, um sich nähernde Ziele als potenzielle Bedrohungen zu erkennen und/oder zu klassifizieren. Verfolgungsmechanismen (z. B. Kalman-Filter, Partikelfilter usw.) können zeitliche Informationen nutzen, um festzustellen, ob sich eine Bedrohung einem Fahrzeug nähert. Wenn eine sich nähernde Bedrohung erkannt wird, kann ein Fahrzeug eine oder mehrere Gegenmaßnahmen aktivieren, um die Bedrohung abzuwehren. Wenn ein Fahrzeug autonome Fahrmöglichkeiten beinhaltet, können Gegenmaßnahmen beinhalten, automatisch zu versuchen, von einer sich nähernden Bedrohung wegzufahren.
Description
- HINTERGRUND
- 1. GEBIET DER ERFINDUNG
- Diese Erfindung betrifft im Allgemeinen auf den Bereich der Fahrzeuginsassensicherheit und insbesondere das Erkennen von physischen Bedrohungen, die sich einem Fahrzeug nähern.
- 2. STAND DER TECHNIK
- Ein Fahrzeug kann verlangsamt oder gestoppt werden, um einem Fahrzeuginsassen (z. B. einem Fahrer oder einem Passagier) zu erlauben, andere Aktivitäten sicher auszuführen, die nicht mit dem Fahrzeugbetrieb zusammenhängen. Beispielsweise kann ein Fahrer an den Straßenrand fahren und ein Fahrzeug stoppen, um eine Nachricht zu senden, einen Anruf zu tätigen, eine Karte zu überprüfen, Büroarbeit auszuführen usw. Wenn ein Auto gestoppt wird oder sich mit einer langsamen Geschwindigkeit bewegt, kann ein Insasse der Aktivität leichter Aufmerksamkeit widmen, ohne andere auf einer Straße zu gefährden (z. B. andere Fahrzeuge, Fußgänger, Radfahrer usw.). Wenn jedoch ein Fahrzeug gestoppt wird oder sich mit langsamer Geschwindigkeit bewegt (und selbst wenn sich das Fahrzeug nicht in der Nähe einer Straße befindet), sind äußere Gefahren für das Fahrzeug und/oder die Insassen noch vorhanden. Beispielsweise können sich andere Fahrzeuge oder Personen dem Fahrzeug mit der Absicht nähern, das Fahrzeug und/oder seine Insassen zu entführen. Wenn ein Insasse eine andere Aktivität ausführt, kann sich die Aufmerksamkeit des Insassen auf die andere Aktivität konzentrieren. Als solcher kann der Insasse eine Gefahr oder Bedrohung möglicherweise nicht wahrnehmen, die sich seinem oder ihrem Fahrzeug nähert.
- KURZE BESCHREIBUNG DER ZEICHNUNGEN
- Die spezifischen Merkmale, Aspekte und Vorteile der vorliegenden Erfindung werden in Bezug auf die folgende Beschreibung und die dazugehörigen Zeichnungen besser verständlich, wobei:
-
1 ein beispielhaftes Blockdiagramm einer Rechenvorrichtung veranschaulicht. -
2 eine beispielhafte Umgebung darstellt, die das Erkennen von physischen Bedrohungen erleichtert, die sich einem Fahrzeug nähern. -
3 ein Ablaufdiagramm eines beispielhaften Verfahrens zum Erkennen von physischen Bedrohungen veranschaulicht, die sich einem Fahrzeug nähern. -
4A und4B ein Beispiel eines Fahrzeugs veranschaulichen, das Gegenmaßnahmen aktiviert, um auf eine sich nähernde Bedrohung zu reagieren. - AUSFÜHRLICHE BESCHREIBUNG
- Die vorliegende Erfindung erstreckt sich auf Verfahren, Systeme und Computerprogrammprodukte zum Erkennen von physischen Bedrohungen, die sich einem Fahrzeug nähern. Außensensoren an einem Fahrzeug (z. B. eine 360-Grad-Kamera) können verwendet werden, um verschiedene Gefahrensituationen zu erkennen. Die Außensensoren können in Situationen verwendet werden, in denen Fahrzeuginsassen anfälliger für Angriffe sind, wie z. B. bei einem stehenden Fahrzeug oder beim Fahren mit langsamer Geschwindigkeit. In einem Aspekt wird eine Kamera auf dem Dach eines Fahrzeugs montiert, um die Umgebung um das Fahrzeug vollständiger zu erfassen. Ein neuronales Netzwerk kann verwendet werden, um sich nähernde Bedrohungen zu erkennen, wie z. B. eine Person, die eine Maske trägt, eine Person, die eine Waffe hält (Messer oder Pistole), einen Hund, der die Zähne fletscht usw.
- Genauer gesagt kann der optische Fluss verwendet werden, um sich nähernde Ziele in einem 360-Grad-Bild zu erfassen. Sich nähernde Ziele können in ein neuronales Netzwerk eingespeist werden, um sich nähernde Ziele als mögliche Hinterhalte, Angriffe usw. zu erkennen und/oder zu klassifizieren. Verfolgungsmechanismen (z. B. Kalman-Filter, Partikelfilter usw.) können zeitliche Informationen nutzen, um festzustellen, ob sich eine Bedrohung einem Fahrzeug nähert.
- Wenn eine sich nähernde Bedrohung erkannt wird, kann ein Fahrzeug eine oder mehrere Gegenmaßnahmen aktivieren, um die Bedrohung abzuwehren. Gegenmaßnahmen können ein oder mehrere beinhalten von: Aufzeichnen des sich annähernden Ziels, Verriegeln der Türen, Ausgeben einer hörbaren Warnung in der Fahrzeugkabine, Hupen der Hupe und Blinken der Leuchten. Wenn ein Fahrzeug autonome Fahrmöglichkeiten beinhaltet, kann das Fahrzeug automatisch versuchen, von einer sich nähernden Bedrohung wegzufahren.
- Aspekte der Erfindung können in einer Vielzahl von verschiedenen Arten von Rechenvorrichtungen implementiert werden.
1 veranschaulicht ein beispielhaftes Blockdiagramm einer Rechenvorrichtung100 . Die Rechenvorrichtung100 kann verwendet werden, um verschiedene Verfahren durchzuführen, wie die hierin abgehandelten. Die Rechenvorrichtung100 kann als ein Server, ein Client oder irgendeine andere Recheneinheit fungieren. Die Rechenvorrichtung100 kann verschiedene Kommunikations- und Datenübertragungsfunktionen ausführen, wie sie hierin beschrieben sind, und kann ein oder mehrere Anwendungsprogramme ausführen, wie beispielsweise die hier beschriebenen Anwendungsprogramme. Die Rechenvorrichtung100 kann jedes von einer Vielfalt von Rechenvorrichtungen sein, wie beispielsweise ein Mobiltelefon oder ein anderes mobiles Gerät, ein Desktop-Computer, ein Notebook-Computer, ein Server-Computer, ein Handheld-Computer, ein Tablet-Computer und dergleichen. - Die Rechenvorrichtung
100 beinhaltet einen oder mehrere Prozessor(en)102 , ein oder mehrere Speichergerät(e)104 , eine oder mehrere Schnittstelle(n)106 , ein oder mehrere Massenspeichergerät(e)108 , ein oder mehrere Eingabe-/Ausgabegerät(e) (E/A)110 und eine Anzeigevorrichtung130 , die alle mit einem Bus112 gekoppelt sind. Der/die Prozessor(en)102 beinhalten einen oder mehrere Prozessoren oder Steuerungen, die Befehle ausführen, die in dem/den Speichergerät(en)104 und/oder dem/den Massenspeichergerät(en)108 gespeichert sind. Der/die Prozessor(en)102 können auch verschiedene Arten von Computerspeichermedien wie Cache-Speicher beinhalten. - Das/die Speichergerät(e)
104 beinhalten verschiedene Computerspeichermedien, wie beispielsweise einen flüchtigen Speicher (z. B. einen Arbeitsspeicher (RAM)114 ) und/oder einen nicht flüchtigen Speicher (z. B. einen Nur-Lese-Speicher (ROM)116 ). Speichergerät Das/die104 können auch wiederbeschreibbaren ROM, wie z. B. Flash-Speicher, beinhalten. - Das/die Massenspeichergerät(e)
108 beinhalten verschiedene Computerspeichermedien, wie Magnetbänder, Magnetplatten, optische Platten, Festkörperspeicher (z. B. Flash-Speicher) usw. Wie in1 dargestellt, ist ein bestimmtes Massenspeichergerät ein Festplattenlaufwerk124 . Verschiedene Laufwerke können auch in dem/den Massenspeichergerät(en)108 beinhaltet sein, um das Lesen und/oder Schreiben von den/auf die verschiedenen computerlesbaren Medien zu ermöglichen. Das/die Massenspeichergerät(e)108 beinhalten Wechselmedien126 und/oder nicht entfernbare Medien. - Das/die E/A-Gerät(e)
110 beinhalten verschiedene Geräte, die es ermöglichen, dass Daten und/oder Informationen eingegeben oder aus der Rechenvorrichtung100 abgerufen werden. Das/die beispielhaften E/A-Gerät(e)110 beinhalten Cursorsteuerungsgeräte, Tastaturen, Zehnertastaturen, Barcodescanner, Mikrofone, Monitore oder anderen Anzeigegeräte, Lautsprecher, Drucker, Netzwerkkarten, Modems, Kameras, Objektive, Radare, CCDs oder andere Bildaufzeichnungsgeräte und dergleichen. - Das Anzeigegerät
130 beinhaltet jede Art von Gerät, das zum Anzeigen von Informationen für einen oder mehrere Benutzer der Rechenvorrichtung100 in der Lage ist. Beispiele für das Anzeigegerät130 beinhalten einen Monitor, ein Anzeigeterminal, ein Videoprojektionsgerät und dergleichen. - Die Schnittstelle(n)
106 beinhalten verschiedene Schnittstellen, die es der Rechenvorrichtung100 ermöglichen, mit anderen Systemen, Geräten oder Computerumgebungen sowie mit Menschen zusammenzuwirken. Die beispielhafte(n) Schnittstelle(n)106 können eine beliebige Anzahl verschiedener Netzwerkschnittstellen120 , wie Schnittstellen zu persönlichen Netzwerken (PANs), lokalen Netzwerken (LANs), Weitverkehrsnetzen (WANs), drahtlosen Netzwerken (z. B. Nahfeldkommunikation (NFC), Bluetooth, WLAN usw. Netzwerke) und dem Internet beinhalten. Andere Schnittstellen beinhalten die Benutzeroberfläche118 und die periphere Geräteschnittstelle122 . - Der Bus
112 ermöglicht es dem/den Prozessor(en)102 , dem/den Speichergeräte(n)104 , der/den Schnittstelle(n)106 , dem/den Massenspeichergerät(en)108 und dem/den E/A-Gerät(en)110 miteinander sowie mit anderen Geräten oder Komponenten, die mit dem Bus112 gekoppelt sind, zu kommunizieren. Der Bus112 stellt eine oder mehrere verschiedene Arten von Busstrukturen, wie einen System-Bus, PCI-Bus, IEEE 1394-Bus, USB-Bus usw. dar. -
2 veranschaulicht eine beispielhafte Umgebung, die das Erkennen von physischen Bedrohungen erleichtert, die sich einem Fahrzeug nähern. Die Umgebung200 beinhaltet das Fahrzeug201 , wie beispielsweise ein Auto, einen Lastkraftwagen, einen Bus oder ein Motorrad. Das Fahrzeug201 kann einen Fahrer (nicht dargestellt) und möglicherweise einen oder mehrere andere Insassen (nicht dargestellt) enthalten. Das Fahrzeug201 kann eine Vielzahl von Türen (z. B. zwei Türen oder vier Türen) beinhalten. Die Umgebung200 beinhaltet auch das sich nähernde Objekt221 , wie beispielsweise eine Person, ein Tier, ein Objekt, das von einer Person usw. getragen wird. - Das Fahrzeug
201 beinhaltet Außensensoren202 , den Filter207 , das neuronales Netzwerk208 , die Anzeige209 , das Antwortmodul211 und Fahrzeugkomponenten213 . Die Außensensoren202 sind außen am Fahrzeug201 angebracht. Die Außensensoren202 beinhalten Kamera(s)203 , Radarsensor(en)204 und Ultraschallsensor(en)206 . Die Außensensoren202 können auch andere Arten von Sensoren (nicht dargestellt) beinhalten, wie beispielsweise akustische Sensoren, LIDAR-Sensoren und elektromagnetische Sensoren. Die Außensensoren202 können Objekte in der Nähe des Fahrzeugs201 überwachen. Die Außensensoren202 können Sensordaten ausgeben, die die Position und den optischen Fluss (d. h. die Richtung und die Geschwindigkeit) der überwachten Objekte anzeigen. Aus den Sensordaten kann das Fahrzeug201 bestimmen, ob sich ein Objekt dem Fahrzeug201 nähert. - Der Filter
207 (z. B. ein Kalman-Filter, ein Partikelfilter usw.) kann auf Sensordaten zugreifen, die von Außensensoren202 ausgegeben werden. Der Filter207 kann gefilterte Sensordaten formulieren, indem er Sensordaten für Objekte behält, die sich dem Fahrzeug201 nähern, und Sensordaten für Objekte ausfiltert, die sich dem Fahrzeug201 nicht nähern. Sensordaten für Objekte, die sich dem Fahrzeug201 nicht nähern (z. B. Objekte, die einen Weg nehmen, der sich wahrscheinlich nicht mit dem Fahrzeug201 schneidet), können ignoriert werden. Sensordaten für Objekte, die sich dem Fahrzeug201 nähern, können an das neuronale Netzwerkmodul208 gesendet werden. - Das neuronale Netzwerkmodul
208 kann gefilterte Sensordaten für Objekte empfangen, die sich dem Fahrzeug201 nähern. Das neuronale Netzwerkmodul208 kann Sensordaten für jedes sich nähernde Objekt verarbeiten, um die Wahrscheinlichkeit zu bestimmen, dass das Objekt eine Bedrohung für Insassen des Fahrzeugs201 darstellt. Das neuronale Netzwerkmodul208 kann jedes sich nähernde Objekt als ein bedrohliches oder ein nicht bedrohliches Objekt klassifizieren. Alternativ kann das neuronale Netzwerkmodul208 eine Bedrohungswahrscheinlichkeit für jedes sich nähernde Objekt berechnen. - Das neuronale Netzwerkmodul
208 kann ein neuronales Netzwerk beinhalten, das gemäß einem Mehrebenen-(oder „tiefen“)Modell konstruiert wurde. Ein neuronales Mehrebenen-Netzwerkmodell kann eine Eingabeebene, eine Vielzahl von verborgenen Ebenen und eine Ausgabeebene beinhalten. Ein neuronales Mehrebenen-Netzwerkmodell kann auch eine Verlustebene beinhalten. Für die Klassifizierung von Sensordaten (z. B. ein Bild) werden Werte in den Sensordaten (z. B. Pixelwerte) Eingangsknoten zugewiesen und dann durch die Vielzahl von verborgenen Ebenen des neuronalen Netzwerks eingespeist. Die Vielzahl von verborgenen Ebenen kann eine Reihe von nichtlinearen Transformationen durchführen. Am Ende der Transformationen ergibt ein Ausgangsknoten einen Wert, der der Klasse (z. B. Bedrohung oder Nicht-Bedrohung) entspricht, die von dem neuronalen Netzwerk gefolgert wird. - Das neuronale Netzwerk kann trainiert werden, um zwischen gewünschten Klassen, wie z. B. nicht bedrohenden Personen, Personen mit einer Maske, Personen mit einem Messer, Personen mit einer Pistole und anderen potenziellen Bedrohungen zu unterscheiden. Das neuronale Netzwerk kann trainiert werden, um allgemeine Fußgänger zu erkennen und zu verfolgen, um festzustellen, ob sie sich dem Fahrzeug
201 nähern, und mit welcher Geschwindigkeit. Das neuronale Netzwerk kann auch trainiert werden, um zu erkennen, ob sich mehrere Personen dem Fahrzeug201 nähern, und zwischen Bedrohungen und Nicht-Bedrohungen zu unterscheiden. - Objektklassifizierungen (und/oder Bedrohungswahrscheinlichkeiten) für die Annäherung von Objekten können auf der Anzeige
209 präsentiert werden. Selbst wenn sich ein nicht bedrohendes Objekt annähert, können Fahrzeuginsassen wünschen, sich des sich nähernden Objekts bewusst zu sein. Objektklassifizierungen für sich nähernde Objekte (und/oder Bedrohungswahrscheinlichkeiten) können auch an das Antwortmodul211 gesendet werden. Basierend auf der Klassifizierung (und/oder Bedrohungswahrscheinlichkeit) für ein sich näherndes Objekt kann das Antwortmodul211 das Fahrzeug201 veranlassen, in einer bestimmten Weise zu reagieren. - Wenn beispielsweise ein sich näherndes Objekt als Bedrohung klassifiziert wird, und/oder eine Bedrohungswahrscheinlichkeit für ein sich näherndes Objekt über einem Schwellenwert liegt, kann das Gegenmaßnahmenmodul
212 Gegenmaßnahmen aktivieren, um das sich nähernde Objekt anzugehen. Das Gegenmaßnahmenmodul212 kann die Kamera(s)203 anweisen, das sich nähernde Objekt aufzuzeichnen. Das Gegenmaßnahmenmodul212 kann auch den Übergang der Konfiguration von Fahrzeugkomponenten213 , z. B. für das Verriegeln der Türen des Fahrzeugs201 , das Aktivieren der Hupe des Fahrzeugs201 , blinkende Scheinwerfer und Rückleuchten des Fahrzeugs201 , Ertönen eines Warntons im Innenraum des Fahrzeugs201 , automatisches Ausführen eines Telefonanrufs auf911 usw. veranlassen. Wenn das Fahrzeug201 autonome Fahreigenschaften beinhaltet, kann das Gegenmaßnahmenmodul212 das Fahrzeug201 zum Wegfahren von einem sich nähernden Objekt (eventuell in Kombination mit anderen Gegenmaßnahmen) veranlassen. - Die Komponenten des Fahrzeugs
201 können über (oder Teil von) ein(em) Netzwerk, wie z. B. ein PAN, LAN, WAN, einen Controller Area Network(CAN)-Bus und sogar das Internet miteinander verbunden werden. Dementsprechend können die Komponenten des Fahrzeugs201 sowie alle anderen angeschlossenen Computersysteme und deren Komponenten nachrichtenbezogene Daten und austauschnachrichtenbezogene Daten (z. B. Nahfeldkommunikations(NFC)-Aufgaben, Bluetooth-Pakete, Internet Protocol(IP)-Datagramme und andere Protokolle höherer Ebenen, die IP-Datagramme verwenden, wie z. B. Transmission Control Protocol (TCP), Hypertext Transfer Protocol (HTTP), Simple Mail Transfer Protocol (SMTP) usw.) über das Netzwerk erstellen. - Das Fahrzeug
201 kann eine heterogene Rechenplattform beinhalten, die eine Vielzahl von verschiedenen Arten und Anzahl von Prozessoren aufweist. Beispielsweise kann die heterogene Rechenplattform mindestens einen Zentralprozessor (CPU), mindestens einen Grafikprozessor (GPU) und mindestens ein Field Programmable Gate Array (FPGA) beinhalten. Aspekte der Erfindung können über die verschiedenen Arten und Anzahlen von Prozessoren implementiert werden. -
3 veranschaulicht ein Ablaufdiagramm eines beispielhaften Verfahrens300 zum Erkennen von physischen Bedrohungen, die sich einem Fahrzeug nähern. Das Verfahren300 wird in Bezug auf die Komponenten und die Daten der Computerarchitektur200 beschrieben. - Das Verfahren
300 beinhaltet Bestimmen, dass der Weg eines Objekts das Objekt wahrscheinlich veranlassen wird, sich in die Nähe des Fahrzeugs (301 ) zu bewegen. Beispielsweise kann das Fahrzeug201 bestimmen, dass der Weg des sich nähernden Objekts221 das sich nähernde Objekt221 wahrscheinlich veranlassen wird, sich in die Nähe des Fahrzeugs201 zu bewegen. - Bestimmen, dass der Weg eines Objekts das Objekt wahrscheinlich veranlassen wird, sich in die Nähe des Fahrzeugs zu bewegen, beinhaltet das Verwenden eines oder mehrerer am Fahrzeug angebrachter Sensoren, um einen Bereich in der Nähe des Fahrzeugs in Bezug auf sich nähernde Objekte (
302 ) zu überwachen. Beispielsweise können Außensensoren202 den Bereich231 auf sich nähernde Objekte überwachen. In einem Aspekt ist der Bereich231 ein 360-Grad-Bereich rund um das Fahrzeug201 . Da der Bereich231 überwacht wird, können Außensensoren202 Sensordaten222 vom Erfassen von Objekten innerhalb des Bereichs231 generieren. Die Sensordaten222 können den optischen Fluss (d. h. Geschwindigkeit und Richtung) des sich nähernden Objekts221 (sowie den optischen Fluss von anderen Gegenständen im Raum231 ) beinhalten. - Bestimmen, dass der Weg eines Objekts das Objekt wahrscheinlich veranlassen wird, sich in die Nähe des Fahrzeugs zu bewegen, beinhaltet Filtern von Daten von dem einen oder den mehreren Sensoren auf einer heterogenen Rechenplattform am Fahrzeug, um zu bestimmen, dass das Objekt eine Geschwindigkeit und Richtung aufweist, die für den Annäherungsraum des Objekts hinweisgebend sind, der durch das Fahrzeug (
303 ) belegt ist. Beispielsweise kann der Filter207 Sensordaten222 in gefilterte Sensordaten223 filtern. Gefilterte Sensordaten223 beinhalten Sensordaten für alle Objekte mit einem optischen Fluss (z. B. Geschwindigkeit und Richtung), die für den Annäherungsraum des Objekts hinweisgebend sind, der durch das Fahrzeug201 belegt ist. Beispielsweise können gefilterte Sensordaten223 die Geschwindigkeit und Richtung des sich nähernden Objekts221 beinhalten. Die Geschwindigkeit und Richtung des sich nähernden Objekts221 können angeben, dass sich der Weg des sich nähernden Objekts221 wahrscheinlich mit dem durch das Fahrzeug201 belegten Raum schneidet. - Das Verfahren
300 beinhaltet das Bereitstellen der gefilterten Daten für das sich nähernde Objekt als Eingabe für ein neuronales Netzwerk (304 ). Beispielsweise kann der Filter207 gefilterte Sensordaten223 als Eingabe für das neuronale Netzwerkmodul208 bereitstellen. Das neuronale Netzwerkmodul208 kann gefilterte Sensordaten223 verarbeiten, um die Objektklassifizierung224 (z. B. Bedrohung oder Nicht-Bedrohung) für das sich nähernde Objekt221 abzuleiten. Das neuronale Netzwerkmodul208 kann auch gefilterte Sensordaten223 verarbeiten, um Objektklassifizierungen für andere, sich dem Fahrzeug nähernde Objekte201 abzuleiten. Die Objektklassifizierung224 kann zu der Anzeige209 und dem Antwortmodul211 gesendet werden. - Das Verfahren
300 beinhaltet das Empfangen einer Bedrohungsklassifizierung für das sich nähernde Objekt von dem neuronalen Netzwerk (305 ). Beispielsweise kann die Anzeige209 und das Antwortmodul211 die Objektklassifizierung224 für das sich nähernde Objekt221 empfangen. Die Anzeige209 kann die Objektklassifizierung224 den Insassen des Fahrzeugs201 präsentieren, um anzugeben: (a) dass das sich nähernde Objekt221 sich dem Fahrzeug201 nähert, und (2) unabhängig davon, ob das sich nähernde Objekt221 eine Bedrohung ist oder nicht. Basierend auf der Objektklassifizierung224 kann das Antwortmodul211 eine Antwort initiieren oder nicht. Wenn die Objektklassifizierung224 angibt, dass das sich nähernde Objekt221 keine Bedrohung ist (z. B. ist das sich nähernde Objekt221 als ein harmloser Fußgänger klassifiziert), ergreift das Antwortmodul211 möglicherweise keine weiteren Maßnahmen. - Wenn andererseits die Objektklassifizierung
224 angibt, dass das sich nähernde Objekt221 eine Bedrohung ist (z. B. das sich nähernde Objekt221 als eine Person klassifiziert ist, die eine Maske trägt und/oder eine Waffe hält), kann das Antwortmodul211 das Gegenmaßnahmenmodul212 anweisen, eine oder mehrere Gegenmaßnahmen zu ergreifen, um die Bedrohung anzugehen. Als Reaktion darauf kann das Gegenmaßnahmenmodul212 der/den Kamera(s)203 einen Aufzeichnungsbefehl227 zukommen lassen. Der Aufzeichnungsbefehl227 weist die Kamera(s)203 an, die Annäherung des sich nähernden Objekts221 aufzuzeichnen. Das Gegenmaßnahmenmodul212 kann auch Gegenmaßnahmenbefehle226 an die Fahrzeugkomponenten213 senden. Die Gegenmaßnahmenbefehle226 können die Fahrzeugkomponenten213 anweisen, eine oder mehrere Gegenmaßnahmen zu ergreifen, um die durch das sich nähernde Objekt221 bestehende Bedrohung anzugehen. Die Gegenmaßnahmen können auch das Verriegeln der Türen des Fahrzeugs201 , das Aktivieren der Hupe des Fahrzeugs201 , blinkende Scheinwerfer und/oder Rückleuchten des Fahrzeugs201 , Ertönen eines Warntons im Innenraum des Fahrzeugs201 , beispielsweise automatisches Ausführen eines Telefonanrufs auf911 usw. beinhalten. Wenn das Fahrzeug201 autonome Fahreigenschaften beinhaltet, kann das Gegenmaßnahmenmodul212 das Fahrzeug201 zum Wegfahren von einem sich nähernden Objekt221 (eventuell in Kombination mit anderen Gegenmaßnahmen) veranlassen. - Aspekte der Erfindung sind gleichermaßen vorteilhaft für Zivilisten und Ersthelfer. Zivilisten und Ersthelfer können Aktivitäten in dem Innenraum ihres Fahrzeugs ausführen, die in keinem Zusammenhang mit dem Fahren stehen. Diese Aktivitäten können genügend Aufmerksamkeit erfordern, sodass sie nicht in der Lage sind, gleichzeitig die Aktivitäten auszuführen und Objekte überwachen, die sich der Umgebung ihres Fahrzeugs nähern. Beispielsweise kann ein ziviler Fahrer an den Straßenrand fahren und ein Fahrzeug stoppen, um eine Karte zu betrachten. Während des Betrachtens der Karte kann der Fahrer alarmiert werden, dass eine sich nähernde Person eine Maske trägt. Ebenso kann ein Polizeibeamter parken, um einen Bericht zu schreiben. Beim Schreiben des Berichts kann der Polizeibeamte vor einer sich mit einer Waffe nähernden Person gewarnt werden.
- Die
4A und4B veranschaulichen ein Beispiel eines Fahrzeugs401 , das Gegenmaßnahmen aktiviert, um auf eine sich nähernde Bedrohung zu reagieren. Wie in4A dargestellt, nähert sich die Person411 dem Fahrzeug401 . Die Kamera406 (eine 360-Grad-Kamera) kann ein Bild der Person411 erfassen. Ein neuronales Netzwerk im Fahrzeug401 kann das Bild verarbeiten, um die Person411 als Bedrohung zu klassifizieren. Unter Bezugnahme auf4B kann, als Reaktion auf die als Bedrohung eingestufte Person411 , das Fahrzeug401 Türschlösser403 aktivieren und Scheinwerfer403 und Rückleuchten404 blinken lassen. - In einem Aspekt sind ein oder mehrere Prozessoren so konfiguriert, dass sie Anweisungen (z. B. computerlesbare Anweisungen, computerausführbare Anweisungen usw.) zum Durchführen einer beliebigen Vielzahl von beschriebenen Vorgängen ausführen. Der eine oder die mehreren Prozessoren können auf Informationen aus dem Systemspeicher zugreifen und/oder Informationen im Systemspeicher speichern. Der eine oder die mehrere Prozessoren können Informationen zwischen verschiedenen Formaten, wie z. B. Sensordaten, gefilterte Sensordaten, Objektklassifizierungen, Gegenmaßnahmenbefehle usw. umwandeln.
- Der Systemspeicher kann mit einem oder mehreren Prozessoren gekoppelt werden, und kann Anweisungen (z. B. computerlesbare Anweisungen, computerausführbare Anweisungen usw.) speichern, die durch den einen oder die mehreren Prozessoren ausgeführt werden. Der Systemspeicher kann auch so konfiguriert sein, dass er jede von einer Vielzahl von anderen Arten von Daten speichert, die durch die beschriebenen Komponenten erzeugt werden, wie z. B. Sensordaten, gefilterte Sensordaten, Objektklassifizierungen, Gegenmaßnahmenbefehle usw.
- In der vorangehenden Offenbarung wurde auf die beigefügten Zeichnungen Bezug genommen, die einen Teil davon bilden und in denen spezifische Umsetzungen zur Veranschaulichung gezeigt werden, in denen die Offenbarung durchgeführt werden kann. Es versteht sich, dass andere Umsetzungen verwendet werden können und strukturelle Änderungen vorgenommen werden können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen. Bezugnahmen in der Beschreibung auf „eine Ausführungsform“, „ein Ausführungsbeispiel“ usw. geben an, dass die beschriebene Ausführungsform ein/e bestimmte/s Merkmal, Struktur oder Eigenschaft einschließen kann; nicht jede Ausführungsform muss jedoch notwendigerweise diese/s bestimmte Merkmal, Struktur oder Eigenschaft einschließen. Darüber hinaus beziehen sich solche Ausdrücke nicht unbedingt auf dieselbe Ausführungsform. Wenn ein Merkmal, eine Struktur oder eine Eigenschaft in Verbindung mit einer Ausführungsform beschrieben wird, wird davon ausgegangen, dass es innerhalb des Wissens eines Fachmanns liegt, das Merkmal, die Struktur oder die Eigenschaft in Verbindung mit anderen Ausführungsformen umzusetzen, unabhängig davon, ob dies ausdrücklich beschrieben wird oder nicht.
- Umsetzungen der hierin offenbarten Systeme, Vorrichtungen und Verfahren können einen Spezial- oder Universalcomputer umfassen oder verwenden, der Computerhardware einschließt, wie etwa einen oder mehrere Prozessoren und einen Systemspeicher, wie hierin erörtert. Umsetzungen innerhalb des Umfangs der vorliegenden Offenbarung können außerdem Datenträger und andere computerlesbare Medien zum Transportieren oder Speichern von computerausführbaren Anweisungen und/oder Datenstrukturen einschließen. Bei solchen computerlesbaren Medien kann es sich um beliebige verfügbare Medien handeln, auf die durch ein Universal- oder Spezialcomputersystem zugegriffen werden kann. Bei computerlesbaren Medien, auf denen computerausführbare Anweisungen gespeichert werden, handelt es sich um Computerspeichermedien(-geräte). Bei computerlesbaren Medien, die computerausführbare Anweisungen transportieren, handelt es sich um Übertragungsmedien. Daher können Umsetzungen der Offenbarung beispielsweise und nicht einschränkend zumindest zwei deutlich unterschiedliche Arten von computerlesbaren Medien umfassen: Computerspeichermedien(-geräte) und Übertragungsmedien.
- Computerspeichermedien(-geräte) schließen RAM, ROM, EEPROM, CD-ROM, Solid-State-Drives („SSDs“) (z. B. auf Grundlage von RAM), Flash-Speicher, Phasenänderungsspeicher („PCM“), andere Speichertypen, andere optische Plattenspeicher, Magnetplattenspeicher oder andere magnetische Speichervorrichtungen oder ein beliebiges anderes Medium ein, das verwendet werden kann, um die gewünschten Programmcodemittel in der Form von computerausführbaren Anweisungen oder Datenstrukturen zu speichern, und auf das durch einen Universal- oder Spezialcomputer zugegriffen werden kann.
- Eine Umsetzung der hierin offenbaren Vorrichtungen, Systeme und Verfahren kann über ein Computernetzwerk kommunizieren. Ein „Netzwerk“ ist als eine oder mehrere Datenverbindungen definiert, die den Transport elektronischer Daten zwischen Computersystemen und/oder Modulen und/oder anderen elektronischen Geräten ermöglichen. Wenn Informationen über ein Netzwerk oder eine andere (entweder festverdrahtete, drahtlose oder einer Kombination aus festverdrahteter oder drahtloser) Kommunikationsverbindung an einem Computer bereitgestellt oder auf diesen übertragen wird, zeigt der Computer die Verbindung dementsprechend als ein Übertragungsmedium an. Übertragungsmedien können ein Netzwerk und/oder Datenverbindungen einschließen, die verwendet werden können, um die gewünschten Programmcodemittel in der Form von computerausführbaren Anweisungen oder Datenstrukturen zu übertragen und auf die durch einen Universal- oder Spezialcomputer zugegriffen werden kann. Kombinationen aus den oben Genannten sollten ebenfalls in den Umfang computerlesbarer Medien eingeschlossen werden.
- Computerausführbare Anweisungen umfassen zum Beispiel Anweisungen und Daten, die, wenn sie an einem Prozessor ausgeführt werden, einen Universalcomputer, Spezialcomputer oder eine Spezialverarbeitungsvorrichtung dazu veranlassen, eine bestimmte Funktion oder Gruppe von Funktionen durchzuführen. Die computerausführbaren Anweisungen können zum Beispiel Binärdateien, Zwischenformatanweisungen, wie etwa Assemblersprache, oder sogar Quellcode sein. Obwohl der Gegenstand in für Strukturmerkmale und/oder methodische Handlungen spezifischer Sprache beschrieben wurde, versteht es sich, dass der in den beigefügten Ansprüchen definierte Gegenstand nicht notwendigerweise auf die vorangehend beschriebenen Merkmale oder Handlungen beschränkt ist. Die beschriebenen Merkmale und Handlungen werden vielmehr als beispielhafte Formen der Umsetzung der Ansprüche offenbart.
- Der Fachmann kann nachvollziehen, dass die Offenbarung in Network-Computing-Umgebungen mit vielen Arten von Computersystemkonfigurationen durchgeführt werden kann, einschließlich eines Instrumententafel- oder anderen Fahrzeugcomputers, PCs, Desktop-Computern, Laptops, Nachrichtenprozessoren, Handgeräten, Multiprozessorsystemen, Unterhaltungselektronik auf Mikroprozessorbasis oder programmierbarer Unterhaltungselektronik, Netzwerk-PCs, Minicomputern, Mainframe-Computern, Mobiltelefonen, PDAs, Tablets, Pagern, Routern, Switches, verschiedener Speichergeräte und dergleichen. Diese Offenbarung kann außerdem in Umgebungen mit verteilten Systemen durchgeführt werden, in denen sowohl lokale Computersysteme als auch Remotecomputersysteme, die durch ein Netzwerk (entweder durch festverdrahtete Datenverbindungen, drahtlose Datenverbindungen oder durch eine Kombination aus festverdrahteten und drahtlosen Datenverbindungen) verbunden sind, Aufgaben durchführen. In einer Umgebung mit verteilten Systemen können sich Programmmodule sowohl in lokalen Speichervorrichtungen als auch in Fernspeichervorrichtungen befinden.
- Ferner können die hierin beschriebene Funktionen gegebenenfalls in einem oder mehreren von Folgenden durchgeführt werden: Hardware, Software, Firmware, digitalen Komponenten oder analogen Komponenten. Einer oder mehrere anwendungsspezifische integrierte Schaltkreise (ASICs) können beispielsweise programmiert sein, um ein oder mehrere der hierin beschriebenen Systeme und Verfahren auszuführen. Bestimmte Ausdrücke werden in der Beschreibung und den Ansprüchen in Bezug auf bestimmte Systemkomponenten verwendet. Wie ein Fachmann nachvollziehen kann, kann auf Komponenten durch die Verwendung verschiedener Bezeichnungen Bezug genommen werden. In diesem Dokument soll nicht zwischen Komponenten unterschieden werden, die sich dem Namen nach unterscheiden, nicht jedoch von der Funktion her.
- Es ist anzumerken, dass die vorangehend erörterten Sensorausführungsformen Computerhardware, -software, -firmware oder eine beliebige Kombination davon umfassen können, um zumindest einen Teil der Funktionen durchzuführen. Ein Sensor kann zum Beispiel Computercode einschließen, der konfiguriert ist, um in einem oder mehreren Prozessoren ausgeführt zu werden, und kann eine Hardware-Logikschaltung/elektrische Schaltung einschließen, die durch den Computercode gesteuert wird. Diese Vorrichtungsbeispiele werden hierin zu Veranschaulichungszwecken bereitgestellt und sollen nicht der Einschränkung dienen. Ausführungsformen der vorliegenden Offenbarung können in weiteren Arten von Vorrichtungen umgesetzt werden, wie einem einschlägigen Fachmann bekannt.
- Zumindest einige Ausführungsformen der Offenbarung bezogen sich auf Computerprogrammprodukte, die eine solche Logik (z. B. in Form von Software) umfassen, die auf einem beliebigen computernutzbaren Medium gespeichert ist. Solche Software veranlasst, wenn sie in einer oder mehreren Datenverarbeitungsvorrichtungen ausgeführt wird, eine Vorrichtung dazu, wie hierin beschrieben zu arbeiten.
- Während verschiedene Ausführungsformen der vorliegenden Offenbarung vorangehend beschrieben wurden, versteht es sich, dass diese lediglich als Beispiele dienen, und nicht als Einschränkung. Für den einschlägigen Fachmann wird ersichtlich, dass verschiedene Änderungen in Form und Detail daran vorgenommen werden können, ohne vom Geist und Umfang der Offenbarung abzuweichen. Daher sollen die Breite und der Umfang der vorliegenden Offenbarung nicht durch eine der vorangehend beschriebenen Ausführungsbeispiele eingeschränkt werden, sondern sollen lediglich gemäß den folgenden Ansprüchen und ihrer Äquivalente definiert sein. Die vorangehende Beschreibung wurde zu Veranschaulichungs- und Beschreibungszwecken dargelegt. Sie ist nicht als umfassend anzusehen und soll die Offenbarung nicht auf die spezifische offenbarte Form beschränken.
- Viele Modifikationen und Variationen sind in Anbetracht der oben angegebenen Lehren möglich. Ferner ist anzumerken, dass eine beliebige oder alle der vorangehend genannten alternativen Umsetzungen in einer beliebigen gewünschten Kombination genutzt werden können, um zusätzliche Hybridumsetzungen der Offenbarung zu bilden.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Nicht-Patentliteratur
-
- IEEE 1394-Bus [0018]
Claims (15)
- Verfahren zum Verwenden in einem Fahrzeug, wobei das Verfahren Folgendes umfasst: Bestimmen, dass der Weg eines Objekts das Objekt wahrscheinlich veranlassen wird, sich in die Nähe des Fahrzeugs zu bewegen, anhand von gefilterten Sensordaten von einem oder mehreren Sensoren, die außen auf dem Fahrzeug angebracht sind; Bereitstellen der gefilterten Sensordaten als Eingabe für ein neuronales Netzwerk; Empfangen einer Bedrohungsklassifizierung für das Objekt von dem neuronalen Netzwerk; und Angeben der Bedrohungsklassifizierung in der Fahrzeugkabine.
- Verfahren nach Anspruch 1, wobei das Empfangen einer Bedrohungsklassifizierung für das Objekt das Empfangen einer Angabe umfasst, dass das Objekt eine Bedrohung für Insassen des Fahrzeugs darstellt;
- Verfahren nach Anspruch 2, wobei das Empfangen einer Angabe, dass das Objekt eine Bedrohung für Insassen des Fahrzeugs darstellt, eines von Folgendem umfasst: Empfangen einer Angabe, dass sich eine Waffe dem Fahrzeug nähert oder Empfangen einer Angabe, dass eine sich dem Fahrzeug nähernde Person eine Maske trägt.
- Verfahren nach Anspruch 2, weiterhin umfassend das Aktivieren von Gegenmaßnahmen an dem Fahrzeug, um die durch das sich nähernde Objekt bestehende Bedrohung anzugehen.
- Verfahren nach Anspruch 1, wobei das Empfangen einer Bedrohungsklassifizierung für das Objekt das Empfangen einer Angabe umfasst, dass das Objekt keine Bedrohung für Insassen des Fahrzeugs darstellt.
- Verfahren zum Verwenden in einem Fahrzeug, wobei das Verfahren zum Alarmieren eines Fahrzeuginsassen dient, dass sich eine Bedrohung dem Fahrzeug nähert, wobei das Verfahren Folgendes umfasst: Bestimmen, dass der Weg eines Objekts das Objekt wahrscheinlich veranlassen wird, sich in die Nähe des Fahrzeugs zu bewegen, einschließlich: Verwenden eines oder mehrerer am Fahrzeug angebrachter Sensoren, um einen Bereich in der Nähe des Fahrzeugs in Bezug auf sich nähernde Objekte zu überwachen; und Filtern von Daten von dem einen oder den mehreren Sensoren auf einer heterogenen Rechenplattform am Fahrzeug, um zu bestimmen, dass das Objekt eine Geschwindigkeit und Richtung aufweist, die für den Annäherungsraum des Objekts hinweisgebend sind, der durch das Fahrzeug belegt ist; Bereitstellen der gefilterten Daten für das sich nähernde Objekt als Eingabe für ein neuronales Netzwerk; Empfangen einer Angabe von dem neuronalen Netzwerk, dass das Objekt eine Bedrohung für den Fahrzeuginsassen darstellt; und Aktivieren von Gegenmaßnahmen an dem Fahrzeug, um die Bedrohung anzugehen.
- Verfahren nach Anspruch 6, wobei das Verwenden eines oder mehrerer am Fahrzeug angebrachter Sensoren, um einen Bereich in der Nähe des Fahrzeugs in Bezug auf sich nähernde Objekte zu überwachen, das Verwenden einer Vielzahl von Sensoren umfasst, die am Fahrzeug montiert sind, um den Bereich zu überwachen, wobei die Vielzahl von Sensoren beinhaltet: mindestens eine Kamera, mindestens einen LIDAR-Sensor und mindestens einen schallbasierten Objektdetektor.
- Verfahren nach Anspruch 6, wobei das Filtern von Daten von dem einen oder den mehreren Sensoren auf einer heterogenen Rechenplattform das Filtern von Daten von der Vielzahl von Sensoren auf der heterogenen Rechenplattform umfasst, wobei die heterogene Rechenplattform beinhaltet: mindestens einen Zentralprozessor (CPU), mindestens einen Grafikprozessor (GPU) und mindestens ein Field Programmable Gate Array (FPGA) in dem Fahrzeug.
- Verfahren nach Anspruch 6, wobei das Filtern von Daten von dem einen oder den mehreren Sensoren das Verwenden von einem oder mehreren von Folgenden umfasst: einen Kalman-Filter und einen Partikelfilter zum Filtern von Daten von dem einen oder den mehreren Sensoren.
- Verfahren nach Anspruch 6, wobei das Empfangen einer Angabe von dem neuronalen Netzwerk, dass das sich nähernde Objekt eine Bedrohung für den Insassen des Fahrzeugs darstellt, das Empfangen einer Angabe umfasst, dass das sich nähernde Objekt eines von Folgenden ist: eine Person mit einer Waffe, eine Person, die eine Maske trägt und ein Hund, der seine Zähne fletscht.
- Verfahren nach Anspruch 6, wobei das Aktivieren von Gegenmaßnahmen am Fahrzeug das Aktivieren von Gegenmaßnahmen einschließlich eines oder mehrerer von Folgenden beinhaltet: Aufzeichnen des sich nähernden Objekts, Verriegeln der Türen des Fahrzeugs, Ausgeben einer hörbaren Warnung in der Fahrzeugkabine, Hupen einer Hupe des Fahrzeugs und Blinken der Leuchten des Fahrzeugs.
- Verfahren nach Anspruch 6, wobei das Fahrzeug ein autonomes Fahrzeug ist; und wobei das Aktivieren von Gegenmaßnahmen am Fahrzeug automatisches Versuchen umfasst, das autonome Fahrzeug weg von dem sich nähernden Objekt zu manövrieren.
- Fahrzeug, wobei das Fahrzeug Folgendes umfasst: einen oder mehrere, außen angebrachte Sensoren zum Überwachen eines Bereichs in der Nähe des Fahrzeugs; einen oder mehrere Prozessoren; Systemspeicher, der mit einem oder mehreren Prozessoren gekoppelt ist, wobei der Systemspeicher Anweisungen speichert, die von dem einem oder den mehreren Prozessoren ausführbar sind; den einen oder die mehreren Prozessoren, die die im Systemspeicher gespeicherten Anweisungen auszuführen, um auf eine physische Bedrohung für Insassen des Fahrzeugs zu reagieren, einschließlich dem Folgenden: Bestimmen, dass der Weg eines Objekts das Objekt wahrscheinlich veranlassen wird, sich in die Nähe des Fahrzeugs zu bewegen, einschließlich: Verwenden des einen oder der mehreren außen am Fahrzeug angebrachten Sensoren, um den Bereich in der Nähe des Fahrzeugs in Bezug auf sich nähernde Objekte zu überwachen; und Filtern von Daten von dem einen oder den mehreren Sensoren, um zu bestimmen, dass das Objekt eine Geschwindigkeit und Richtung aufweist, die für den Annäherungsraum des Objekts hinweisgebend sind, der durch das Fahrzeug belegt ist; Bereitstellen der gefilterten Daten für das sich nähernde Objekt als Eingabe für ein neuronales Netzwerk; Empfangen einer Angabe von dem neuronalen Netzwerk, dass das Objekt eine Bedrohung für Insassen des Fahrzeugs darstellt; und Aktivieren von Gegenmaßnahmen an dem Fahrzeug, um die Bedrohung anzugehen.
- Fahrzeug nach Anspruch 13, wobei der eine oder die mehreren Prozessoren, die die Anweisungen zum Empfangen einer Angabe von dem neuronalen Netzwerk ausführen, dass das sich nähernde Objekt eine Bedrohung für die Fahrzeuginsassen darstellt, den einen oder die mehreren Prozessoren umfasst, die die Anweisungen ausführen, um eine Angabe zu empfangen, dass das sich nähernde Objekt eines von Folgenden ist: eine Person mit einer Waffe, eine Person, die eine Maske trägt oder ein Hund, der seine Zähne fletscht.
- Verfahren nach Anspruch 13, wobei der eine oder die mehreren Prozessoren, die die Anweisungen zum Aktivieren von Gegenmaßnahmen am Fahrzeug ausführen, umfassen, dass der eine oder die mehreren Prozessoren, die die Anweisungen zum Aktivieren von Gegenmaßnahmen ausführen, ein oder mehrere von Folgenden beinhalten: Aufzeichnen des sich nähernden Objekts, Verriegeln der Türen des Fahrzeugs, Ausgeben einer hörbaren Warnung in der Fahrzeugkabine, Hupen einer Hupe des Fahrzeugs, Blinken der Leuchten des Fahrzeugs.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/195,827 US10139827B2 (en) | 2016-06-28 | 2016-06-28 | Detecting physical threats approaching a vehicle |
US15/195,827 | 2016-06-28 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102017114122A1 true DE102017114122A1 (de) | 2017-12-28 |
Family
ID=60579596
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102017114122.7A Pending DE102017114122A1 (de) | 2016-06-28 | 2017-06-26 | Erkennen von physischen Bedrohungen, die sich einem Fahrzeug nähern |
Country Status (5)
Country | Link |
---|---|
US (1) | US10139827B2 (de) |
CN (1) | CN107539213A (de) |
DE (1) | DE102017114122A1 (de) |
MX (1) | MX2017008592A (de) |
RU (1) | RU2689902C2 (de) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108545021A (zh) * | 2018-04-17 | 2018-09-18 | 济南浪潮高新科技投资发展有限公司 | 一种识别特殊目标的辅助驾驶方法及系统 |
WO2019210142A1 (en) * | 2018-04-27 | 2019-10-31 | Continental Automotive Systems, Inc. | Device and method for determining a center of a trailer tow coupler |
CN110497908A (zh) * | 2018-05-16 | 2019-11-26 | 通用汽车环球科技运作有限责任公司 | 自动驾驶系统和使用传感器融合进行智能车辆控制的控制逻辑 |
DE102018222683A1 (de) * | 2018-12-20 | 2020-06-25 | Robert Bosch Gmbh | Verfahren zum Erstellen einer Umgebungsrepräsentationskarte zur Überwachung eines Fahrzeugs und/oder eines Fahrzeuganhängers unter Verwendung eines Kamerasystems |
JP2020102034A (ja) * | 2018-12-21 | 2020-07-02 | トヨタ自動車株式会社 | 車両制御装置、車両、及び車両制御方法 |
DE102019105337A1 (de) * | 2019-02-09 | 2020-08-13 | Elmos Semiconductor Aktiengesellschaft | Ultraschallmesssystem im Fahrzeug zur Erkennung und Klassifizierung von Objekten im Umfeld des Fahrzeugs mit Hilfe eines Deep-Learning Verfahrens |
WO2021081371A1 (en) * | 2019-10-23 | 2021-04-29 | Continental Automotive Systems, Inc. | Method and system to protect a rider from threatening objects approaching a motorbike or bicycle |
DE102018222001B4 (de) | 2018-12-18 | 2024-03-28 | Audi Ag | Verfahren zum Beurteilen einer Beförderungssituation bei einer angebotenen Beförderungsfahrt, sowie ein elektronisches Überprüfungssystem |
Families Citing this family (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10247565B2 (en) | 2016-04-11 | 2019-04-02 | State Farm Mutual Automobile Insurance Company | Traffic risk avoidance for a route selection system |
US10222228B1 (en) | 2016-04-11 | 2019-03-05 | State Farm Mutual Automobile Insurance Company | System for driver's education |
US10019904B1 (en) | 2016-04-11 | 2018-07-10 | State Farm Mutual Automobile Insurance Company | System for identifying high risk parking lots |
US10026309B1 (en) | 2016-04-11 | 2018-07-17 | State Farm Mutual Automobile Insurance Company | Networked vehicle control systems to facilitate situational awareness of vehicles |
US10233679B1 (en) | 2016-04-11 | 2019-03-19 | State Farm Mutual Automobile Insurance Company | Systems and methods for control systems to facilitate situational awareness of a vehicle |
US11851041B1 (en) | 2016-04-11 | 2023-12-26 | State Farm Mutual Automobile Insurance Company | System for determining road slipperiness in bad weather conditions |
US10486708B1 (en) | 2016-04-11 | 2019-11-26 | State Farm Mutual Automobile Insurance Company | System for adjusting autonomous vehicle driving behavior to mimic that of neighboring/surrounding vehicles |
US10872379B1 (en) | 2016-04-11 | 2020-12-22 | State Farm Mutual Automobile Insurance Company | Collision risk-based engagement and disengagement of autonomous control of a vehicle |
US10571283B1 (en) | 2016-04-11 | 2020-02-25 | State Farm Mutual Automobile Insurance Company | System for reducing vehicle collisions based on an automated segmented assessment of a collision risk |
US10259383B1 (en) * | 2016-12-09 | 2019-04-16 | Ambarella, Inc. | Rear collision alert system |
US10053088B1 (en) | 2017-02-21 | 2018-08-21 | Zoox, Inc. | Occupant aware braking system |
US12027033B2 (en) * | 2017-06-08 | 2024-07-02 | Guardian Band Inc. | Wearable personal safety devices and methods of operating the same |
US20190023207A1 (en) * | 2017-07-18 | 2019-01-24 | Aptiv Technologies Limited | Safe-exit system for safety protection of a passenger exiting or entering an automated vehicle |
JP6936098B2 (ja) * | 2017-09-29 | 2021-09-15 | トヨタ自動車株式会社 | 対象物推定装置 |
CN108469815A (zh) * | 2018-02-27 | 2018-08-31 | 重庆嵩岳贸易服务有限公司 | 一种基于意图的计算机深度学习自动导航和驾驶系统及其方法 |
US20180215377A1 (en) * | 2018-03-29 | 2018-08-02 | GM Global Technology Operations LLC | Bicycle and motorcycle protection behaviors |
EP3561786B1 (de) | 2018-04-24 | 2022-10-26 | Dr. Ing. h.c. F. Porsche AG | Verfahren und vorrichtung zum betreiben eines fahrzeugs |
US11176383B2 (en) * | 2018-06-15 | 2021-11-16 | American International Group, Inc. | Hazard detection through computer vision |
JP7043030B2 (ja) * | 2018-08-01 | 2022-03-29 | オムロン株式会社 | 光電センサ |
JP7119839B2 (ja) * | 2018-09-26 | 2022-08-17 | トヨタ自動車株式会社 | 物体検出装置、物体検出方法及び車両制御装置 |
US10810866B2 (en) * | 2018-12-19 | 2020-10-20 | Federal Signal Corporation | Perimeter breach warning system |
US11099266B2 (en) | 2019-01-11 | 2021-08-24 | International Business Machines Corporation | Trajectory based threat alerting with friendly device augmentation |
DE102019203345A1 (de) * | 2019-03-12 | 2020-09-17 | Robert Bosch Gmbh | Verfahren zur Überwachung des Umfelds eines Fahrzeugs |
GB2582904B (en) * | 2019-03-26 | 2021-04-14 | Atsr Ltd | Method and apparatus for controlling access to a vehicle |
US11226624B2 (en) | 2019-04-11 | 2022-01-18 | Motorola Solutions, Inc. | System and method for enabling a 360-degree threat detection sensor system to monitor an area of interest surrounding a vehicle |
US11002827B2 (en) | 2019-05-21 | 2021-05-11 | Motorola Solutions, Inc. | System and method for collaborating between vehicular 360 degree threat detection appliances |
CN110758320B (zh) * | 2019-10-23 | 2021-02-23 | 上海能塔智能科技有限公司 | 自助试驾的防遗留处理方法、装置、电子设备与存储介质 |
US11433855B2 (en) * | 2020-04-03 | 2022-09-06 | Micron Technology, Inc. | Intelligent detection and alerting of potential intruders |
US11091166B1 (en) | 2020-04-21 | 2021-08-17 | Micron Technology, Inc. | Driver screening |
US11494865B2 (en) * | 2020-04-21 | 2022-11-08 | Micron Technology, Inc. | Passenger screening |
WO2022174075A1 (en) * | 2021-02-12 | 2022-08-18 | Retinus Llc | Systems and methods for computer vision based detection and alerting |
US20220348165A1 (en) * | 2021-04-28 | 2022-11-03 | GM Global Technology Operations LLC | Contactless alarming system for proactive intrusion detection |
US11919479B2 (en) | 2021-05-18 | 2024-03-05 | Ford Global Technologies, Llc | Systems and methods for providing security to a vehicle |
US11398149B1 (en) | 2021-06-28 | 2022-07-26 | Arity International Limited | Crosswalk detection using high-frequency transmitters |
US20230278499A1 (en) * | 2022-03-02 | 2023-09-07 | Christopher B Comer | Adaptive Perimeter Security System for Vehicles |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7660437B2 (en) * | 1992-05-05 | 2010-02-09 | Automotive Technologies International, Inc. | Neural network systems for vehicles |
US7783403B2 (en) | 1994-05-23 | 2010-08-24 | Automotive Technologies International, Inc. | System and method for preventing vehicular accidents |
US20060261931A1 (en) | 2003-08-15 | 2006-11-23 | Ziyi Cheng | Automobile security defence alarm system with face identification and wireless communication function |
US7501937B2 (en) * | 2003-08-27 | 2009-03-10 | Omega Patents, L.L.C. | Vehicle security device including pre-warn indicator and related methods |
US7034668B2 (en) * | 2003-10-27 | 2006-04-25 | Ford Global Technologies, Llc | Threat level identification and quantifying system |
US8594370B2 (en) * | 2004-07-26 | 2013-11-26 | Automotive Systems Laboratory, Inc. | Vulnerable road user protection system |
JP2006321357A (ja) * | 2005-05-19 | 2006-11-30 | Auto Network Gijutsu Kenkyusho:Kk | 車両用監視装置 |
US8233704B2 (en) * | 2007-06-13 | 2012-07-31 | Sri International | Exemplar-based heterogeneous compositional method for object classification |
US8175333B2 (en) | 2007-09-27 | 2012-05-08 | Behavioral Recognition Systems, Inc. | Estimator identifier component for behavioral recognition system |
US8036425B2 (en) | 2008-06-26 | 2011-10-11 | Billy Hou | Neural network-controlled automatic tracking and recognizing system and method |
FR2947657B1 (fr) * | 2009-07-06 | 2016-05-27 | Valeo Vision | Procede de detection d'un obstacle pour vehicule automobile |
US20110134245A1 (en) | 2009-12-07 | 2011-06-09 | Irvine Sensors Corporation | Compact intelligent surveillance system comprising intent recognition |
US8552886B2 (en) * | 2010-11-24 | 2013-10-08 | Bcs Business Consulting Services Pte Ltd. | Crash warning system for motor vehicles |
US9047768B1 (en) * | 2010-12-08 | 2015-06-02 | COPsync, Inc. | Method, system and computer program product for law enforcement |
US20160129883A1 (en) * | 2011-04-22 | 2016-05-12 | Angel A. Penilla | Contact detect feature of a vehicle and notifications to enable live views of vehicle |
JP5639283B2 (ja) | 2011-11-25 | 2014-12-10 | 本田技研工業株式会社 | 車両周辺監視装置 |
US9153084B2 (en) * | 2012-03-14 | 2015-10-06 | Flextronics Ap, Llc | Destination and travel information application |
KR101372023B1 (ko) * | 2012-05-31 | 2014-03-07 | 현대자동차주식회사 | 차량 주변의 이동체 감지 장치 및 방법 |
JP6205640B2 (ja) | 2012-07-30 | 2017-10-04 | 市光工業株式会社 | 車両用警告装置 |
US9014905B1 (en) * | 2014-01-28 | 2015-04-21 | Google Inc. | Cyclist hand signal detection by an autonomous vehicle |
KR101519288B1 (ko) * | 2014-03-21 | 2015-05-11 | 현대자동차주식회사 | 차량 주변 보안 모니터링 방법 |
US9437111B2 (en) * | 2014-05-30 | 2016-09-06 | Ford Global Technologies, Llc | Boundary detection system |
US9889859B2 (en) * | 2015-12-21 | 2018-02-13 | Intel Corporation | Dynamic sensor range in advanced driver assistance systems |
-
2016
- 2016-06-28 US US15/195,827 patent/US10139827B2/en active Active
-
2017
- 2017-06-19 RU RU2017121309A patent/RU2689902C2/ru active
- 2017-06-22 CN CN201710480263.0A patent/CN107539213A/zh active Pending
- 2017-06-26 DE DE102017114122.7A patent/DE102017114122A1/de active Pending
- 2017-06-27 MX MX2017008592A patent/MX2017008592A/es unknown
Non-Patent Citations (1)
Title |
---|
IEEE 1394-Bus |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108545021A (zh) * | 2018-04-17 | 2018-09-18 | 济南浪潮高新科技投资发展有限公司 | 一种识别特殊目标的辅助驾驶方法及系统 |
WO2019210142A1 (en) * | 2018-04-27 | 2019-10-31 | Continental Automotive Systems, Inc. | Device and method for determining a center of a trailer tow coupler |
US11050933B2 (en) | 2018-04-27 | 2021-06-29 | Continenal Automotive Systems, Inc. | Device and method for determining a center of a trailer tow coupler |
CN110497908A (zh) * | 2018-05-16 | 2019-11-26 | 通用汽车环球科技运作有限责任公司 | 自动驾驶系统和使用传感器融合进行智能车辆控制的控制逻辑 |
CN110497908B (zh) * | 2018-05-16 | 2022-10-14 | 通用汽车环球科技运作有限责任公司 | 自动驾驶系统和使用传感器融合进行智能车辆控制的控制逻辑 |
DE102018222001B4 (de) | 2018-12-18 | 2024-03-28 | Audi Ag | Verfahren zum Beurteilen einer Beförderungssituation bei einer angebotenen Beförderungsfahrt, sowie ein elektronisches Überprüfungssystem |
DE102018222683A1 (de) * | 2018-12-20 | 2020-06-25 | Robert Bosch Gmbh | Verfahren zum Erstellen einer Umgebungsrepräsentationskarte zur Überwachung eines Fahrzeugs und/oder eines Fahrzeuganhängers unter Verwendung eines Kamerasystems |
JP2020102034A (ja) * | 2018-12-21 | 2020-07-02 | トヨタ自動車株式会社 | 車両制御装置、車両、及び車両制御方法 |
JP7180364B2 (ja) | 2018-12-21 | 2022-11-30 | トヨタ自動車株式会社 | 車両制御装置、車両、及び車両制御方法 |
DE102019105337A1 (de) * | 2019-02-09 | 2020-08-13 | Elmos Semiconductor Aktiengesellschaft | Ultraschallmesssystem im Fahrzeug zur Erkennung und Klassifizierung von Objekten im Umfeld des Fahrzeugs mit Hilfe eines Deep-Learning Verfahrens |
DE102019105343A1 (de) * | 2019-02-09 | 2020-08-13 | Elmos Semiconductor Aktiengesellschaft | Messsystem im Fahrzeug zur Erkennung und Klassifizierung von Objekten im Umfeld des Fahrzeugs mit Hilfe eines Deep-Learning Verfahrens |
WO2021081371A1 (en) * | 2019-10-23 | 2021-04-29 | Continental Automotive Systems, Inc. | Method and system to protect a rider from threatening objects approaching a motorbike or bicycle |
Also Published As
Publication number | Publication date |
---|---|
CN107539213A (zh) | 2018-01-05 |
RU2017121309A3 (de) | 2019-01-30 |
US10139827B2 (en) | 2018-11-27 |
MX2017008592A (es) | 2018-09-10 |
RU2689902C2 (ru) | 2019-05-29 |
US20170371339A1 (en) | 2017-12-28 |
RU2017121309A (ru) | 2018-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102017114122A1 (de) | Erkennen von physischen Bedrohungen, die sich einem Fahrzeug nähern | |
DE102017113596A1 (de) | Erkennen von gefahren in erwartung sich öffnender fahrzeugtüren | |
DE102020104360A1 (de) | Fahrzeug mit externem audio-lautsprecher und mikrofon | |
DE102015108366B4 (de) | Bereichsgrenzen-erkennungssystem | |
DE102018101006A1 (de) | Fahrzeugumgebung-abbildungssysteme und -verfahren | |
DE102017129076A1 (de) | Autonomer schulbus | |
DE102017105903A1 (de) | Fussgängerdetektion und Bewegungsvorhersage mit nach hinten gerichteter Kamera | |
EP3060431B1 (de) | Verfahren zur warnung weiterer verkehrsteilnehmer vor fussgängern durch ein kraftfahrzeug und kraftfahrzeug | |
DE102018102285A1 (de) | System und verfahren zum beurteilen des innenraums eines autonomen fahrzeugs | |
DE102017100199A1 (de) | FUßGÄNGERERKENNUNG MIT AUFFÄLLIGKEITSKARTEN | |
DE102017125963A1 (de) | Objektverfolgung mit sensorfusion innerhalb eines probabalistischen rahmens | |
DE102018112234A1 (de) | Verkehrssituationswahrnehmung für ein autonomes fahrzeug | |
DE102018100469A1 (de) | Generierten von simulierten sensordaten zum trainieren und überprüfen von erkennungsmodellen | |
EP2951804B1 (de) | Erstellen eines umfeldmodells für ein fahrzeug | |
DE112016006479T5 (de) | Verbreitung von warnungen bezüglich verkehrsereignissen | |
DE202013006196U1 (de) | Fahrerassistenzsystem für ein Kraftfahrzeug und Kraftfahrzeug | |
DE102019203345A1 (de) | Verfahren zur Überwachung des Umfelds eines Fahrzeugs | |
DE102017127972A1 (de) | Mehrfachsensor-Wahrscheinlichkeitsobjekterkennung und automatisiertes Bremsen | |
DE102018101366A1 (de) | Fahrzeuge in schlechten lichtverhältnissen | |
DE112019004554T5 (de) | System und verfahren zur warnung vor vorhergesagten fahrzeugvorfällen und zum ausweichen | |
DE102014215057A1 (de) | Bestimmung einer Kollisionswahrscheinlichkeit auf Basis einer Kopforientierung eines Fußgängers | |
DE112016006480T5 (de) | Verbreitung von warnungen bezüglich verkehrsereignissen | |
DE102017126760A1 (de) | Erkennen von blattwerk unter verwendung von bereichsdaten | |
DE102021116931A1 (de) | Verwenden eines fahrzeugs zum identifizieren eines status eines garagentors | |
DE102020100024A1 (de) | Verwendung von geofences zur einschränkung des fahrzeugbetriebs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R082 | Change of representative |
Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE |
|
R084 | Declaration of willingness to licence | ||
R012 | Request for examination validly filed |