DE102017100199A1 - FUßGÄNGERERKENNUNG MIT AUFFÄLLIGKEITSKARTEN - Google Patents

FUßGÄNGERERKENNUNG MIT AUFFÄLLIGKEITSKARTEN Download PDF

Info

Publication number
DE102017100199A1
DE102017100199A1 DE102017100199.9A DE102017100199A DE102017100199A1 DE 102017100199 A1 DE102017100199 A1 DE 102017100199A1 DE 102017100199 A DE102017100199 A DE 102017100199A DE 102017100199 A1 DE102017100199 A1 DE 102017100199A1
Authority
DE
Germany
Prior art keywords
pedestrian
image
neural network
locations
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102017100199.9A
Other languages
English (en)
Inventor
Madeline Jane Goh
Vidya Nariyambut murali
Gint Puskorius
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102017100199A1 publication Critical patent/DE102017100199A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24317Piecewise classification, i.e. whereby each classification requires several discriminant rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

Systeme, Verfahren und Vorrichtungen zur Fußgängererkennung sind hierin offenbart. Ein Verfahren umfasst das Empfangen eines Bildes eines Bereichs in der Nähe eines Fahrzeugs. Das Verfahren umfasst ferner das Verarbeiten des Bildes unter Verwendung eines ersten neuronalen Netzwerks, um einen oder mehrere Orte zu bestimmen, an denen sich wahrscheinlich Fußgänger innerhalb des Bildes befinden. Das Verfahren umfasst auch das Verarbeiten des einen oder der mehreren Orte des Bildes unter Verwendung eines zweiten neuronalen Netzwerks, um zu bestimmen, dass ein Fußgänger anwesend ist, und das Benachrichtigen eines Fahrassistenzsystems oder eines automatisierten Fahrsystems, dass der Fußgänger anwesend ist.

Description

  • TECHNISCHES GEBIET
  • Die Offenbarung bezieht sich allgemein auf Verfahren, Systeme und Vorrichtungen zum automatisierten Fahren oder zur Unterstützung eines Fahrers und betrifft insbesondere Verfahren, Systeme und Vorrichtungen zum Erfassen eines oder mehrerer Fußgänger unter Verwendung von maschinellen Lern- und Auffälligkeitskarten.
  • ALLGEMEINER STAND DER TECHNIK
  • Automobile stellen einen bedeutenden Teil des Verkehrs für kommerzielle, staatliche und private Einheiten bereit. Autonome Fahrzeuge und Fahrassistenzsysteme werden derzeit entwickelt und eingesetzt, um Sicherheit zu gewährleisten, die Anzahl der benötigten Benutzereingaben zu reduzieren oder sogar die Nutzerbeteiligung vollständig zu beseitigen. Zum Beispiel können einige Fahrassistenzsysteme, wie etwa Zusammenstoßvermeidungssysteme, das Fahren, die Positionen und die Geschwindigkeit des Fahrzeugs und andere Objekte überwachen, während ein Mensch fährt. Wenn das System erkennt, dass ein Zusammenstoß oder ein Aufprall unmittelbar bevorsteht, kann das Zusammenstoßvermeidungssystem eingreifen und eine Bremse betätigen, das Fahrzeug lenken oder andere Vermeidungs- oder Sicherheitsmanöver durchführen. Als ein weiteres Beispiel können autonome Fahrzeuge ein Fahrzeug mit wenig oder keiner Benutzereingabe fahren und navigieren. Allerdings ist es aufgrund der Gefahren beim Fahren und der Kosten von Fahrzeugen äußerst wichtig, dass autonome Fahrzeuge und Fahrassistenzsysteme sicher funktionieren und in der Lage sind, auf Straßen genau zu navigieren und andere Fahrzeuge und Fußgänger zu vermeiden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Nichteinschränkende und nicht erschöpfende Umsetzungen der vorliegenden Offenbarung werden unter Bezugnahme auf die folgenden Figuren beschrieben, wobei gleiche Bezugszeichen sich auf gleiche Teile in den verschiedenen Ansichten beziehen, sofern nichts Anderes angegeben ist. Die Vorteile der vorliegenden Offenbarung werden mit Bezug auf die folgende Beschreibung und die begleitenden Zeichnungen besser verständlich, wobei:
  • 1 ein schematisches Blockdiagramm ist, das eine beispielhafte Implementierung eines Fahrzeugsteuersystems darstellt, das ein automatisiertes Fahr/Assistenzsystem umfasst;
  • 2 ein Bild einer Fahrbahn darstellt;
  • 3 eine schematische Darstellung einer Auffälligkeitskarte für das Bild von 2 gemäß einer Umsetzung ist;
  • 4 ein schematisches Blockdiagramm ist, das eine Fußgängererkennung gemäß einer Umsetzung darstellt;
  • 5 ein schematisches Blockdiagramm ist, das beispielhafte Komponenten einer Fußgängerkomponente gemäß einer Umsetzung darstellt; und
  • 6 ein schematisches Blockdiagramm ist, das ein Verfahren zur Fußgängererkennung gemäß einer Umsetzung darstellt.
  • DETAILLIERTE BESCHREIBUNG
  • Um ein sicheres Funktionieren zu ermöglichen, sollte ein intelligentes Fahrzeug schnell und genau einen Fußgänger erkennen können. Für aktive Sicherheits- und Fahrerassistenzanwendungen ist es eine gemeinsame Herausforderung, schnell und präzise einen Fußgänger und den Standort eines Fußgängers in einer Szene zu erkennen. Einige Klassifizierungslösungen wurden mit großem Erfolg unter Verwendung tiefer neuronaler Netze erreicht. Allerdings sind Erkennung und Lokalisierung immer noch schwierig, da Fußgänger in verschiedenen Maßstäben und an verschiedenen Orten vorhanden sind. Beispielsweise sind gegenwärtige Erkennungs- und Lokalisierungstechniken nicht in der Lage, die Fähigkeit eines Menschen zu erreichen, eine Skala und Lage von interessanten Objekten in einer Szene zu erfassen und/oder schnell das "Wesentliche" der Szene zu verstehen.
  • In der vorliegenden Offenbarung stellen die Anmelder Systeme, Vorrichtungen und Verfahren vor, welche die automatisierte Fußgängerlokalisierung und -erfassung verbessern. In einer Ausführungsform umfasst ein Verfahren zum Erfassen von Fußgängern das Empfangen eines Bildes eines Bereichs in der Nähe eines Fahrzeugs und das Verarbeiten des Bildes unter Verwendung eines ersten neuronalen Netzwerks, um eine oder mehrere Stellen zu bestimmen, wo sich Fußgänger wahrscheinlich innerhalb des Bildes befinden. Das Verfahren umfasst ferner das Verarbeiten der einen oder mehreren Stellen des Bildes unter Verwendung eines zweiten neuronalen Netzwerks, um zu bestimmen, dass ein Fußgänger vorhanden ist. Das Verfahren umfasst auch das Melden, dass der Fußgänger vorhanden ist, an ein Fahrassistenzsystem oder an ein automatisiertes Fahrsystem.
  • Gemäß einer Ausführungsform verwendet ein verbessertes Verfahren zur Fußgängerlokalisierung und -erfassung eine zweistufige computerbasierte tiefe Lerntechnik. In einer ersten Stufe werden ein oder mehrere Bereiche eines Bildes, die aus den Wahrnehmungssensoren und Sensordaten des Fahrzeugs gewonnen werden, als wahrscheinlicher, um Fußgänger zu enthalten, identifiziert. Die erste Stufe kann Anzeichen für wahrscheinliche Bereiche, in denen sich der Fußgänger befindet, in Form einer Auffälligkeitskarte oder (ein) andere(s) Anzeichen eines Bereichs eines Bildes liefern, wo sich Fußgänger wahrscheinlich befinden. Die Anmelder haben erkannt, dass psycho-visuelle Studien gezeigt haben, dass Blickfixierungen von Bildern mit niedrigerer Auflösung Fixationen auf höher aufgelösten Bildern vorhersagen können. Als solche können einige Ausführungsformen effektive Auffälligkeitskarten bei einer niedrigen Auflösung erzeugen. Diese Auffälligkeitskarten mit niedriger Auflösung können als Etiketten für entsprechende Bilder verwendet werden. In einer Ausführungsform kann ein tiefes neuronales Netzwerk trainiert werden, um eine Auffälligkeitskarte für jedes Bild basierend auf Trainingsdaten auszugeben. In einer Ausführungsform zeigt eine Auffälligkeitskarte Bereiche eines Bildes an, die höchstwahrscheinlich einen Fußgänger enthalten. Auffälligkeitskarten bleiben auch bei sehr niedrigen Auflösungen wirksam, was eine schnellere Verarbeitung ermöglicht, indem der Suchraum verringert wird, während immer noch eine genaue Erkennung von Fußgängern in einer Umgebung stattfindet.
  • In einer zweiten Stufe kann ein tiefer neuronaler Netzklassifizierer verwendet werden, um zu bestimmen, ob ein Fußgänger tatsächlich innerhalb eines Bereichs oder mehrerer Bereiche vorhanden ist, die in der ersten Stufe identifiziert wurden. In einer Ausführungsform kann die zweite Stufe einen tiefen neuronalen Netzklassifizierer verwenden, einschließlich Variationen in tiefen Netzwerken, die in "ImageNet Classification with Deep Convolutional Neural Networks" von A. Krizhevsky, I. Sutskever, G. Hinton (Neural Information Processing Systems Conference, 2012). In einer Ausführungsform kann ein gefaltetes neuronales Netzwerk auf verkürzte Geländewirklichkeitsbegrenzungsrahmenfeldern von sowohl positiven als auch negativen Fußgängerdaten ausgebildet werden. Spezifische Teile des Bildes, wie in der ersten Stufe identifiziert, können ausgewählt und als Kandidatenbereiche identifiziert werden. Diese Kandidatenbereiche können in das trainierte tiefe neuronale Netzwerk eingegeben werden, das die potentiellen Fußgänger klassifiziert. Ein großes tiefes neuronales Netzwerk kann konfiguriert und trainiert werden, um einen hohen Prozentsatz an Genauigkeit und an niedrigen falschen Negativen zu erzielen. Eines oder beide des neuronalen Netzwerks der ersten Stufe und des neuronalen Netzwerks der zweiten Stufe können mit existierenden Datensätzen, wie etwa dem Caltech Pedestrian DataSet, internen Datensätzen von Flottenfahrzeugen und/oder simulierten Daten von verwandten Projekten trainiert werden.
  • Ein Beispiel einer Netzwerkerfassung von Fußgängern wurde in "Pedestrian Detection with a Large-Field-Of-View Deep Network", A. Angelova, A. Krizhevsky, V. Vanhoucke (IEEE International Conference on Robotics and Automation ICRA 2015) vorgestellt. Die Weitwinkelsicht-Netzwerke, die von Angelova et al. entwickelt wurden, präsentierten Fußgängererkennung und schnelle Lokalisierung. Jedoch verwendet Angelova et al. nicht die Auffälligkeit für die Lokalisierung, sondern erfordert stattdessen die zusätzliche Erzeugung eines separaten netzbasierten Datensatzes von Fußgängerortsbildern, wobei Fußgänger ignoriert werden, welche die Gitter überlappen, und wobei der Umgrenzung durch das Netzwerk zur Erfassung erzwungen wird. Somit haben sie eine Fußgängerfehlerrate, die höher liegt, als dass sie noch brauchbar ist, um für aktive Sicherheitsanwendungen einsetzbar zu sein. Im Gegensatz dazu benötigen zumindest einige Ausführungsformen der vorliegenden Offenbarung kein gleitendes Fenster und eliminieren somit einen der rechenintensivsten Aspekte von hochmodernen Tiefenlerntechniken.
  • Es wird nun auf die Figuren Bezug genommen. 1 veranschaulicht ein beispielhaftes Fahrzeugsteuersystem 100, das ein automatisiertes Fahr-/Assistenzsystem 102 umfasst. Das automatisierte Fahr-/Assistenzsystem 102 kann verwendet werden, um den Betrieb eines Fahrzeugs, wie zum Beispiel ein Auto, ein Lastkraftwagen, ein Bus oder ein Kleinbus, große LKWs, Einsatzfahrzeuge oder jedes andere Kraftfahrzeug zum Transport von Personen oder Gütern, zu automatisieren, zu unterstützen oder zu steuern oder um Unterstützung bei einem menschlichen Fahrer bereitzustellen. Beispielsweise kann das automatisierte Fahr-/Assistenzsystem 102 eines oder mehrere Bremsen-, Lenk-, Beschleunigungs-, Lichter-, Warnungs-, Fahrerbenachrichtigungs-, Funk- oder andere Hilfssysteme des Fahrzeugs steuern. In einem anderen Beispiel kann das automatisierte Fahr-/Assistenzsystem 102 außerstande sein, eine Steuerung des Fahrens (z. B. Lenken, Beschleunigen oder Bremsen) vorzusehen, kann aber Benachrichtigungen und Warnungen bereitstellen, um einen menschlichen Fahrer beim Fahren sicher zu unterstützen. Das automatisierte Fahr-/Assistenzsystem 102 umfasst eine Fußgängerkomponente 104, die Fußgänger in der Nähe eines Fahrzeugs oder in der Nähe eines Fahrwegs des Fahrzeugs lokalisieren und ermitteln kann. Beispielsweise kann die Fußgängerkomponente 104 einen oder mehrere Bereiche innerhalb eines Bildes bestimmen, die eine höhere Wahrscheinlichkeit aufweisen, einen Fußgänger zu enthalten, und dann Verarbeiten des einen oder mehrerer Bereiche, um zu bestimmen, ob ein Fußgänger in den Bereichen vorhanden ist. Als weiteres Beispiel kann die Fußgängerkomponente 104 eine Auffälligkeitskarte für ein Bild erzeugen und dann das Bild basierend auf der Auffälligkeitskarte verarbeiten, um einen Fußgänger in dem Bild oder in Bezug auf ein Fahrzeug zu erfassen oder zu lokalisieren.
  • Das Fahrzeugsteuersystem 100 umfasst auch ein oder mehrere Sensorsysteme/-vorrichtungen zum Erfassen eines Vorhandenseins von nahe gelegenen Objekten oder zum Bestimmen einer Position eines Stammfahrzeugs (z. B. ein Fahrzeug, welches das Fahrzeugsteuersystem 100 enthält) oder in der Nähe befindlicher Objekte. Beispielsweise kann das Fahrzeugsteuersystem 100 ein oder mehrere Radarsysteme 106, ein oder mehrere LIDAR-Systeme 108, ein oder mehrere Kamerasysteme 110, ein globales Positionierungssystem (GPS) 112 und/oder ein oder mehrere Ultraschallsysteme 114 umfassen.
  • Das Fahrzeugsteuersystem 100 kann einen Datenspeicher 116 zum Speichern relevanter oder nützlicher Daten für Navigation und Sicherheit, wie Kartendaten, Fahrverlauf oder andere Daten, umfassen. Das Fahrzeugsteuersystem 100 kann auch einen Sendeempfänger 118 zur drahtlosen Kommunikation mit einem mobilen oder drahtlosen Netzwerk, mit anderen Fahrzeugen, mit einer Infrastruktur oder irgendeinem anderen Kommunikationssystem umfassen. Das Fahrzeugsteuersystem 100 kann Fahrzeugsteuerungsaktuatoren 120 umfassen, um verschiedene Aspekte des Antriebs des Fahrzeugs, wie Elektromotoren, Schalter oder andere Aktuatoren, zu steuern, um Bremsen, Beschleunigen, Lenken oder dergleichen zu steuern. Das Fahrzeugsteuersystem 100 kann auch eine oder mehrere Anzeigen 122, Lautsprecher 124 oder andere Vorrichtungen umfassen, so dass Benachrichtigungen an einen menschlichen Fahrer oder Passagier bereitgestellt werden können. Die Anzeige 122 kann eine Überkopfanzeige, eine Armaturenbrett-Anzeige oder einen Armaturenbrettanzeiger, einen Anzeigeschirm oder jede andere optische Anzeige umfassen, die von einem Fahrer oder Passagier eines Fahrzeugs gesehen werden kann. Die Lautsprecher 124 können einen oder mehrere Lautsprecher eines Soundsystems eines Fahrzeugs oder einen Lautsprecher, der für eine Fahrerbenachrichtigung vorgesehen ist, umfassen.
  • Es wird geschätzt werden, dass die Ausführungsform von 1 nur beispielhaft präsentiert wird. Andere Ausführungsformen können weniger oder zusätzliche Komponenten aufweisen, ohne vom Umfang der Offenbarung abzuweichen. Zusätzlich können die dargestellten Komponenten ohne Einschränkung kombiniert oder in anderen Komponenten enthalten sein. Beispielsweise kann die Fußgängerkomponente 104 von dem automatisierten Fahr-/Assistenzsystem 102 getrennt sein und der Datenspeicher 116 kann als Teil des automatisierten Fahr-/Assistenzsystems 102 und/oder als Teil der Fußgängerkomponente 104 vorgesehen sein.
  • Das Radarsystem 106 kann durch Senden von Funksignalen und Erfassen von Reflexionen von Objekten arbeiten. In Geländeanwendungen kann das Radar zum Erfassen von physikalischen Objekten, wie andere Fahrzeuge, Parksperren oder Parkinseln, Landschaften (wie Bäumen, Klippen, Felsen, Hügeln oder dergleichen), Straßenkanten, Schilder, Gebäude oder andere Objekte, verwendet werden. Das Radarsystem 106 kann die reflektierten Funkwellen verwenden, um eine Größe, Form, Entfernung, Oberflächenstruktur oder andere Informationen über ein physikalisches Objekt oder Material zu bestimmen. Beispielsweise kann das Radarsystem 106 einen Bereich abtasten, um Daten über Objekte innerhalb eines bestimmten Bereichs und Sichtwinkels des Radarsystems 106 zu erhalten. In einer Ausführungsform ist das Radarsystem 106 konfiguriert, um Wahrnehmungsinformationen von einem Bereich nahe dem Fahrzeug zu erzeugen, wie beispielsweise ein oder mehrere Bereiche in der Nähe oder um das Fahrzeug herum. Beispielsweise kann das Radarsystem 106 Daten über Bereiche des Geländes oder des vertikalen Raums erhalten, die unmittelbar benachbart oder nahe dem Fahrzeug liegen. Das Radarsystem 106 kann eines von vielen weit verbreiteten handelsüblichen Radarsystemen sein. In einer Ausführungsform kann das Radarsystem 106 Wahrnehmungsdaten, die eine/ein zweidimensionale(s) oder dreidimensionale(s) Karte oder Modell umfassen, an das automatisierte Fahr-/Assistenzsystem 102 zur Referenz oder Verarbeitung bereitstellen.
  • Das LIDAR-System 108 kann durch Aussenden von sichtbaren Wellenlängen- oder Infrarotwellenlängenlasern und Erfassen von Reflexionen von Laserlicht durch die Objekte arbeiten. In Geländeanwendungen können die Laser verwendet werden, um physikalische Gegenstände wie andere Fahrzeuge, Parksperren oder Parkinseln, Landschaften (wie Bäume, Klippen, Felsen, Hügel oder dergleichen), Straßenkanten, Schilder, Gebäude oder andere Objekte zu erkennen. Das LIDAR-System 108 kann das reflektierte Laserlicht verwenden, um eine Größe, Form, Entfernung, Oberflächentextur oder andere Information über ein physikalisches Objekt oder Material zu bestimmen. Zum Beispiel kann das LIDAR-System 108 einen Bereich abtasten, um Daten oder Objekte innerhalb eines bestimmten Bereichs und eines Sichtwinkels des LIDAR-Systems 108 zu erhalten. Beispielsweise kann das LIDAR-System 108 Daten über Bereiche des Geländes oder des vertikalen Raums erhalten, die unmittelbar benachbart sind oder in der Nähe des Fahrzeugs sind. Das LIDAR-System 108 kann eines von vielen im Handel erhältlichen LIDAR-Systemen sein. In einer Ausführungsform kann das LIDAR-System 108 Wahrnehmungsdaten, die ein/eine zweidimensionale(s) oder dreidimensionale(s) Modell oder Karte von erfassten Objekten oder Flächen umfassen, bereitstellen.
  • Das Kamerasystem 110 kann eine oder mehrere Kameras, wie Kameras für sichtbare Wellenlängen oder Infrarotkameras, umfassen. Das Kamerasystem 110 kann eine Videozufuhr oder periodische Bilder bereitstellen, die zur Objekterfassung, zur Straßenidentifizierung und -positionierung oder zur anderen Erfassungen oder Positionierungen verarbeitet werden können. In einer Ausführungsform kann das Kamerasystem 110 zwei oder mehr Kameras umfassen, die verwendet werden können, um Anordnen (z. B. Erfassen eines Abstands) für Objekte innerhalb des Sichtbereichs bereitzustellen. In einer Ausführungsform kann die Bildverarbeitung bei erfassten Kamerabildern oder Videos verwendet werden, um Fahrzeuge, Blinkersignale, Fahrer, Gesten und/oder Körpersprache eines Fahrers zu erfassen. In einer Ausführungsform kann das Kamerasystem 110 Kameras aufweisen, die Bilder für zwei oder mehrere Richtungen um das Fahrzeug herum erhalten.
  • Das GPS-System 112 ist eine Ausführungsform eines Positionierungssystems, das eine geographische Lage des Fahrzeugs auf der Grundlage von Satelliten- oder Funkturm-Signalen bereitstellen kann. GPS-Systeme 112 sind gut bekannt und in der Technik weit verbreitet. Obwohl die GPS-Systeme 112 sehr genaue Positionierungsinformationen bereitstellen können, liefern die GPS-Systeme 112 im Allgemeinen nur geringe oder keine Informationen über Abstände zwischen dem Fahrzeug und anderen Objekten. Vielmehr stellen sie einfach einen Ort bereit, der dann mit anderen Daten, wie Karten, verglichen werden kann, um Abstände zu anderen Objekten, Straßen oder interessanten Orten zu bestimmen.
  • Das Ultraschallsystem 114 kann verwendet werden, um Objekte oder Abstände zwischen einem Fahrzeug und Objekten unter Verwendung von Ultraschallwellen zu erfassen. Beispielsweise kann das Ultraschallsystem 114 Ultraschallwellen von einem Ort an oder nahe einer Stoßfänger- oder Seitenwandposition eines Fahrzeugs aussenden. Die Ultraschallwellen, die kurze Wege durch Luft hindurch überwinden können, können von anderen Objekten reflektiert und vom Ultraschallsystem 114 erfasst werden. Auf der Grundlage einer Zeitdauer zwischen der Emission und dem Empfang reflektierter Ultraschallwellen kann das Ultraschallsystem 114 in der Lage sein, genaue Abstände zwischen einem Stoßfänger oder einer Seitenwand und anderen Gegenständen zu erfassen. Aufgrund des kürzeren Bereichs können die Ultraschallsysteme 114 nützlicher sein, um Objekte während des Parkens zu erfassen oder um unmittelbar bevorstehende Kollisionen während des Fahrens zu erfassen.
  • In einer Ausführungsform können das/die Radarsystem(e) 106, das/die LIDAR-System(e) 108, das/die Kamerasystem(e) 110 und das/die Ultraschallsystem(e) 114 Umgebungsattribute oder Hindernisse in der Nähe eines Fahrzeugs erfassen. Beispielsweise können die Systeme 106110 und 114 verwendet werden, um andere Fahrzeuge, Fußgänger, Menschen, Tiere, eine Anzahl von Fahrstreifen, die Spurbreite, die Fahrbahnschulterbreite, die Straßenoberflächenbombierung, die Straßenrichtungskrümmung, Rumpelstreifen, Spurmarkierungen, das Vorhandensein von Kreuzungen, Verkehrszeichen, Brücken, Überführungen, Schranken, Mediane, Bordsteinkanten oder irgendwelche andere Details über eine Straße zu erfassen und zu lokalisieren. Als ein weiteres Beispiel können die Systeme 106110 und 114 Umgebungsattribute erfassen, die Informationen über Strukturen, Objekte oder Oberflächen in der Nähe der Straße, wie das Vorhandensein von Zufahrtswegen, Parkplätzen, Parkplatzausfahrten/-zufahrten, Gehsteigen, Gehwegen, Bäumen, Zäunen, Gebäuden, geparkten Fahrzeugen (an oder in der Nähe der Straße), Toren, Schildern, Parkplatzstreifen oder anderen Strukturen oder Objekten umfassen.
  • Der Datenspeicher 116 speichert Kartendaten, den Fahrverlauf und andere Daten, welche andere Navigationsdaten, Einstellungen oder Betriebsanweisungen für das automatisierte Fahr-/Assistenzsystem 102 enthalten können. Die Kartendaten können Ortsdaten, wie z. B. GPS-Standortdaten, für Straßen, Parkplätze, Abstellplätze oder andere Orte, zu denen ein Fahrzeug gefahren oder an denen ein Fahrzeug geparkt werden kann, umfassen. Beispielsweise können die Ortsdaten für Straßen Ortsdaten für spezifische Fahrspuren, wie Fahrspurrichtung, für zusammenführende Fahrspuren, für Schnellstraßen- oder Autobahnfahrspuren, Ausfahrtsspuren oder irgendeine andere Spur oder Teilung einer Straße enthalten. Die Ortsdaten können auch Orte für ein oder mehrere Abstellplätze auf einem Parkplatz oder für Abstellplätze entlang einer Straße umfassen. In einer Ausführungsform umfassen die Kartendaten Ortsdaten über eine oder mehrere Strukturen oder Objekte auf oder nahe den Straßen oder Parkplätzen. Beispielsweise können die Kartendaten Daten betreffend die GPS-Straßenschildposition, die GPS-Brückenposition, Gebäude oder eine andere Strukturposition oder dergleichen umfassen. In einer Ausführungsform können die Kartendaten präzise Ortsdaten mit einer Genauigkeit innerhalb von wenigen Metern oder innerhalb einer Genauigkeit unter einem Meter enthalten. Die Kartendaten können auch Ortsdaten für Karrenwege, Schotterstraßen oder andere Straßen oder Pfade enthalten, die von einem Landfahrzeug befahren werden können.
  • Der Sendeempfänger 118 ist so konfiguriert, dass er Signale von einer oder mehreren anderen Daten- oder Signalquellen empfängt. Der Sendeempfänger 118 kann eines oder mehrere Funkgeräte umfassen, die so konfiguriert sind, dass sie gemäß einer Vielzahl von Kommunikationsstandards kommunizieren und/oder eine Vielzahl unterschiedlicher Frequenzen verwenden. Beispielsweise kann der Sendeempfänger 118 Signale von anderen Fahrzeugen empfangen. Das Empfangen von Signalen von einem anderen Fahrzeug wird hierin als Fahrzeug-Fahrzeug-Kommunikation (V2V) bezeichnet. In einer Ausführungsform kann der Sendeempfänger 118 auch verwendet werden, um Informationen an andere Fahrzeuge zu übertragen, um sie möglicherweise beim Lokalisieren von Fahrzeugen oder Objekten zu unterstützen. Während der V2V-Kommunikation kann der Sendeempfänger 118 Informationen von anderen Fahrzeugen über ihre Positionen, über vorhergehende Positionen oder Zustände, über anderen Verkehr, Unfälle, Straßenverhältnisse, die Orte von Parkplatzsperren oder Parkplatzengpässe oder irgendwelche anderen Details empfangen, die das Fahrzeug und/oder das automatisierte Fahr-/Assistenzsystem 102 beim genauen oder sicheren Fahren unterstützen können. Beispielsweise kann der Sendeempfänger 118 aktualisierte Modelle oder Algorithmen zur Verwendung durch eine Fußgängerkomponente 104 zum Erfassen und Lokalisieren von Fußgängern oder anderen Objekten erhalten.
  • Der Sendeempfänger 118 kann Signale von anderen Signalquellen empfangen, die sich an festen Orten befinden. Infrastruktur- Sendeempfänger können sich an einem bestimmten geografischen Standort befinden und können ihre spezifische geographische Lage mit einem Zeitstempel übertragen. Somit kann das automatisierte Fahr-/Assistenzsystem 102 in der Lage sein, einen Abstand von den Infrastruktur-Sendeempfängern basierend auf dem Zeitstempel zu bestimmen und dann seinen Standort basierend auf dem Standort der Infrastruktur- Sendeempfänger zu bestimmen. In einer Ausführungsform wird das Empfangen oder Senden von Standortdaten von Geräten oder Türmen an festen Standorten hierin als Fahrzeug-zu-Infrastruktur-Kommunikation (V2X) bezeichnet. Eine V2X-Kommunikation kann auch verwendet werden, um Informationen über Orte anderer Fahrzeuge, ihre vorherigen Zustände oder dergleichen bereitzustellen. Zum Beispiel können V2X-Kommunikationen Informationen darüber enthalten, wie lange ein Fahrzeug gestoppt wurde oder an einer Kreuzung bereits wartet. In einer Ausführungsform kann der Begriff V2X-Kommunikation auch eine V2V-Kommunikation umfassen.
  • In einer Ausführungsform ist das automatisierte Fahr-/Assistenzsystem 102 konfiguriert, um das Fahren oder die Navigation eines Stammfahrzeugs zu steuern. Beispielsweise kann das automatisierte Fahr-/Assistenzsystem 102 die Fahrzeugsteuerungsaktuatoren 120 steuern, um einen Weg auf einer Straße, einem Parkplatz, über eine Kreuzung, eine Auffahrt oder eine andere Stelle zu fahren. Beispielsweise kann das automatisierte Fahr-/Assistenzsystem 102 einen Weg und eine Geschwindigkeit zum Fahren basierend auf Informations- oder Wahrnehmungsdaten bestimmen, die durch irgendeine der Komponenten 106118 bereitgestellt werden. Als ein anderes Beispiel kann das automatisierte Fahr-/Assistenzsystem 102 bestimmen, wann Fahrbahnen zu wechseln sind, wann Einordnen vorzunehmen ist, wann Hindernissen oder Fußgängern auszuweichen ist oder wann Raum für ein anderes Fahrzeug zum Wechseln von Fahrspuren oder dergleichen zu geben ist.
  • In einer Ausführungsform ist die Fußgängerkomponente 104 konfiguriert, um Fußgänger in der Nähe eines Fahrzeugs zu erfassen und zu lokalisieren. Beispielsweise kann die Fußgängerkomponente 104 Wahrnehmungsdaten, die von einem oder mehreren von einem Radarsystem 106, einem LIDAR-System 108, einem Kamerasystem 110 und einem Ultraschallsystem 114 stammen, verarbeiten, die in einem Bereich nahe einem Fahrzeug oder in einer Fahrtrichtung des Fahrzeugs gesammelt werden, um die Anwesenheit von Fußgängern zu erfassen. Das automatisierte Fahr-/Assistenzsystem 102 kann dann diese Information verwenden, um Fußgängern auszuweichen, einen Fahrweg zu ändern oder ein Fahr- oder Ausweichmanöver durchzuführen.
  • Wie hierin verwendet, bedeutet der Begriff "Fußgänger" einen Menschen, der kein Fahrzeug fährt. Zum Beispiel kann ein Fußgänger eine Person beim Gehen, Laufen, Sitzen oder Liegen in einem Bereich bedeuten, der für einen Wahrnehmungssensor wahrnehmbar ist. Fußgänger können auch Personen sein, die menschlich betriebene Vorrichtungen wie Fahrräder, Roller, Inline-Skates oder Rollschuhe oder dergleichen verwenden. Fußgänger können sich auf oder in der Nähe von Straßen befinden, wie bei Kreuzungen, Gehsteigen, auf dem Bankett einer Straße oder dergleichen. Fußgänger können signifikante Veränderungen in der Größenform oder dergleichen aufweisen. Zum Beispiel können Babys, Jugendliche, Senioren oder Menschen jedes anderen Alters erkannt werden oder als Fußgänger identifiziert werden. In ähnlicher Weise können sich Fußgänger in einer Art oder Menge von Kleidung signifikant unterscheiden.
  • Somit kann das Erscheinungsbild von Fußgängern vor einer Kamera oder einem anderen Sensor ziemlich unterschiedlich ausfallen.
  • 2 stellt ein Bild 200 einer perspektivischen Ansicht dar, wie es von einer Kamera eines Fahrzeugsteuersystems 100 erfasst werden kann. Beispielsweise stellt das Bild 200 eine Szene einer Straße vor einem Fahrzeug dar, wie sie erfasst werden kann, während ein Fahrzeug die Straße hinunter fährt. Das Bild 200 umfasst eine Vielzahl von Fußgängern auf oder in der Nähe der Fahrbahn. In einer Ausführungsform kann die Fußgängerkomponente 104 einen oder mehrere Bereiche des Bildes 200 identifizieren, die wahrscheinlich einen Fußgänger umfassen. Beispielsweise kann die Fußgängerkomponente 104 einen oder mehrere Begrenzungsrahmenkästen erzeugen oder einen oder mehrere Unterbereiche des Bildes 200 definieren, in denen sich Fußgänger befinden können. In einer Ausführungsform definiert die Fußgängerkomponente 104 Unterbereiche 202208 als Bereiche, in denen sich Fußgänger wahrscheinlich befinden. Beispielsweise kann die Fußgängerkomponente 104 Informationen erzeugen, die eine Position innerhalb des Bildes für jeden der Unterbereiche 202208 definieren, in denen der Fußgänger lokalisiert sein kann und in denen somit weiter analysiert oder verarbeitet werden kann. In einer Ausführungsform kann die Fußgängerkomponente 104 das Bild 200 unter Verwendung eines neuronalen Netzwerks verarbeiten, das trainiert worden ist, um eine Auffälligkeitskarte zu erzeugen, die Bereiche anzeigt, in denen sich Fußgänger befinden können. Die Auffälligkeitskarte kann spezifisch Bereiche oder Orte bezeichnen, an denen sich Fußgänger höchstwahrscheinlich in dem Bild 200 befinden.
  • Unter Verwendung der Auffälligkeitskarte oder irgendeiner anderen Angabe von Bereichen, in denen sich Fußgänger befinden können, kann die Fußgängerkomponente 104 Unterbereiche des Bildes 200 verarbeiten, um die Bereiche so zu klassifizieren, dass sie einen Fußgänger aufweisen oder nicht aufweisen. In einer Ausführungsform kann die Fußgängerkomponente 104 einen oder mehrere Fußgänger innerhalb des Bildes 200 erfassen und lokalisieren. Beispielsweise umfasst ein erster Unterbereich 202 einen Fußgänger, ein zweiter Unterbereich 204 keinen Fußgänger, sondern umfasst stattdessen einen Baum, ein dritter Unterbereich 206 umfasst einen Fußgänger und ein vierter Unterbereich 208 umfasst wiederum einen Fußgänger.
  • 3 ist eine schematische Ansicht einer Ausführungsform einer Auffälligkeitskarte 300, die durch die Fußgängerkomponente 104 erzeugt wird. Die Auffälligkeitskarte 300 kann als ein Etikett für das Bild 200 von 2 dienen. Beispielsweise kann die Fußgängerkomponente 104 Teile des Bildes, die den Stellen 302308 entsprechen, verarbeiten, um zu versuchen, Fußgänger zu erfassen und/oder zu lokalisieren. Eine erste Stelle 302, eine zweite Stelle 304, eine dritte Stelle 306 und eine vierte Stelle 308 können dem ersten Unterbereich 202, dem zweiten Unterbereich 204, dem dritten Unterbereich 206 und dem vierten Unterbereich 208 des Bildes von 2 entsprechen. In einer Ausführungsform kann die Fußgängerkomponente 104 ein modifiziertes Bild erzeugen, indem sie die Auffälligkeitskarte 300 mit dem Bild 200 überlagert oder kombiniert und das modifizierte Bild verarbeitet, um Fußgänger zu erfassen. Beispielsweise kann das modifizierte Bild schwarz (oder eine andere Farbe) sein, außer in den Stellen 302308, wo die entsprechenden Teile des Bildes 200 zumindest teilweise sichtbar oder vollständig unverändert bleiben können. Die Auffälligkeitskarte 300 kann vergrößert werden und/oder das Bild 200 kann verkleinert werden, um eine zusammenpassende Auflösung zu erzielen, so dass eine Fußgängererkennung durchgeführt werden kann.
  • In einer Ausführungsform kann die Auffälligkeitskarte 300 eine niedrigere Auflösung als das Bild 200 aufweisen. Zum Beispiel kann die Auffälligkeitskarte 300 eine Standardgröße aufweisen oder kann eine Auflösung aufweisen, die um einen vordefinierten Faktor reduziert ist. Wie oben besprochen, können Karten mit geringer Auflösung sehr effektiv sein und auch die Verarbeitungslast oder die Verarbeitungsverzögerung reduzieren. In einer Ausführungsform kann die Fußgängerkomponente 104 das Bild 200 basierend auf der Auffälligkeitskarte 300 durch Vergrößern der Auffälligkeitskarte 300 verarbeiten. Zum Beispiel kann die Fußgängerkomponente 104 mehrere Pixel des Bildes 200 in Bezug auf die gleichen Pixel in der Auffälligkeitskarte verarbeiten. Obwohl die Auffälligkeitskarte 300 von 3 mit schwarzen oder weißen Pixeln dargestellt ist, können einige Ausführungsformen Auffälligkeitskarten mit Graustufenwerten erzeugen und verwenden.
  • 4 ist ein schematisches Blockdiagramm 400, das eine Fußgängererkennung und -lokalisierung gemäß einer Ausführungsform darstellt. Wahrnehmungssensoren 402 geben Sensordaten aus. Die Sensordaten können Daten, die von einem oder mehreren von einem Radarsystem 106, einem LIDAR-System 108, einem Kamerasystem 110 und einem Ultraschallsystem 114 stammen, umfassen. Die Sensordaten werden in ein neuronales Netzwerk 404 der neuronalen Umgebung gespeist. Das neuronale Netzwerk der Auffälligkeitskarte verarbeitet die Sensordaten (wie beispielsweise eine Bild- oder Vektormatrix), um eine Auffälligkeitskarte und/oder eine Angabe eines oder mehrerer Unterbereiche der Sensordaten zu erzeugen, der oder die wahrscheinlich einen Fußgänger (oder Sensordaten über einen Fußgänger) enthält/enthalten. Die Auffälligkeitskarte oder eine andere Angabe eines oder mehrerer Unterbereiche der Sensordaten, die wahrscheinlich einen Fußgänger enthalten, wird zusammen mit den Sensordaten in ein neuronales Netzwerk 406 für die Fußgängererkennung zur Klassifizierung und/oder Lokalisierung eingegeben. Beispielsweise kann das neuronale Netzwerk 406 für die Fußgängererkennung die Sensordaten oder jeden Unterbereich, der durch das neuronale Netzwerk 404 für die Auffälligkeitskarte identifiziert wird, als einen Fußgänger enthaltend oder nicht enthaltend klassifizieren. Zusätzlich kann das neuronale Netzwerk 406 für eine Fußgängererkennung eine bestimmte Stelle oder einen bestimmten Bereich innerhalb der Sensordaten bestimmen (z. B. kann eine Vielzahl von Pixeln innerhalb eines Bildes identifizieren), wo sich der Fußgänger befindet. Das neuronale Netzwerk 406 für die Fußgängererkennung gibt eine Angabe der Anwesenheit und/oder des Standortes des Fußgängers an ein Meldesystem oder ein neuronales Netzwerk 408 für die Entscheidungsfindung aus. Zum Beispiel kann die Anwesenheit eines Fußgängers und/oder der Standort des Fußgängers einem Benachrichtigungssystem zur Verfügung gestellt werden, um einen Fahrer oder ein Fahrsystem eines Fahrzeugs zu benachrichtigen. Als weiteres Beispiel kann die Anwesenheit eines Fußgängers und/oder der Standort des Fußgängers als Eingang für ein neuronales Netzwerk für die Entscheidungsfindung bereitgestellt werden. Zum Beispiel kann das neuronales Netzwerk für die Entscheidungsfindung eine Fahrentscheidung oder eine andere Betriebsentscheidung für das automatisierte Fahr-/Assistenzsystem 102 auf der Basis des Ausgangssignals des neuronalen Netzwerks 406 für die Fußgängererkennung vornehmen. In einer Ausführungsform kann das neuronale Netzwerk für die Entscheidungsfindung über ein bestimmtes Fahrmanöver, über den Fahrweg, über die Fahrerbenachrichtigung entscheiden oder jede andere operative Entscheidung treffen, die auf der Angabe der Anwesenheit oder des Standorts des Fußgängers beruht.
  • 5 ist ein schematisches Blockdiagramm, das Komponenten einer Fußgängerkomponente 104 gemäß einer Ausführungsform darstellt. Die Fußgängerkomponente 104 umfasst eine Wahrnehmungsdatenkomponente 502, eine Auffälligkeitskomponente 504, eine Erkennungskomponente 506, eine Benachrichtigungskomponente 508 und eine Fahrmanöverkomponente 510. Die Komponenten 502510 sind nur zur Veranschaulichung gegeben und müssen nicht alle in allen Ausführungsformen enthalten sein. Tatsächlich können einige Ausführungsformen nur eine oder eine beliebige Kombination von zwei oder mehr der Komponenten 502510 umfassen. Einige der Komponenten 502510 können außerhalb der Fußgängerkomponente 104 angeordnet sein, wie beispielsweise innerhalb des automatisierten Fahr-/Assistenzsystems 102 von 1 oder anderswo, ohne vom Umfang der Offenbarung abzuweichen.
  • Die Wahrnehmungsdatenkomponente 502 ist konfiguriert, um Sensordaten von einem oder von mehreren Sensorsystemen des Fahrzeugs zu empfangen. Beispielsweise kann die Wahrnehmungsdatenkomponente 502 Daten vom Radarsystem 106, vom LIDAR-System 108, vom Kamerasystem 110, vom GPS 112, vom Ultraschallsystem 114 oder dergleichen empfangen. In einer Ausführungsform können die Wahrnehmungsdaten Wahrnehmungsdaten für einen oder mehrere Bereiche nahe dem Fahrzeug umfassen. Beispielsweise können Sensoren des Fahrzeugs eine 360-Grad-Sicht um das Fahrzeug herum vorsehen. In einer Ausführungsform erfasst das Kamerasystem 110 ein Bild eines Bereichs nahe dem Fahrzeug. Die Wahrnehmungsdaten können Daten über Fußgänger in der Nähe des Fahrzeugs umfassen. Beispielsweise kann das Kamerasystem 110 einen Bereich vor oder seitlich oder hinter dem Fahrzeug erfassen, in dem sich ein oder mehrere Fußgänger befinden können. Beispielsweise können Fußgänger, die eine Straße kreuzen, am Rand einer Fahrbahn gehen oder sich auf einem Parkplatz bewegen, in den Bild- oder anderen Wahrnehmungsdaten erfasst werden.
  • Die Auffälligkeitskomponente 504 ist konfiguriert, um die von einem oder von mehreren Sensorsystemen empfangenen Wahrnehmungsdaten zu verarbeiten, um Orte zu identifizieren, an denen sich Fußgänger befinden können. Wenn beispielsweise ein Bild, wie beispielsweise das in 2 gezeigte Bild 200, von einem Kamerasystem 110 empfangen wird, kann die Auffälligkeitskomponente 504 das Bild verarbeiten, um einen oder mehrere Orte zu bestimmen, an denen sich Fußgänger wahrscheinlich innerhalb des Bildes befinden. In einer Ausführungsform kann die Auffälligkeitskomponente 504 Informationen erzeugen, die einen Unterbereich des Bildes definieren, wo ein Fußgänger höchstwahrscheinlich lokalisiert ist. Beispielsweise kann die Auffälligkeitskomponente 504 eine oder mehrere x-y-Koordinaten erzeugen, um einen Ort oder einen begrenzten Bereich des Bildes zu definieren, wo ein Fußgänger angeordnet sein kann. Der Unterbereich kann einen rechteckigen oder elliptischen Bereich innerhalb des Bildes umfassen oder definieren. In einer Ausführungsform ist die Auffälligkeitskomponente 504 konfiguriert, um eine Auffälligkeitskarte für die Wahrnehmungsdaten zu erzeugen.
  • Die Auffälligkeitskomponente 504 kann die Wahrnehmungsdaten, wie beispielsweise ein Bild, unter Verwendung eines neuronalen Netzwerks verarbeiten. Zum Beispiel kann jeder Pixelwert eines Bildes in ein neuronales Netzwerk eingegeben werden, das trainiert worden ist, um Bereiche innerhalb des Bildes zu identifizieren, die wahrscheinlich oder höchstwahrscheinlich im Vergleich zu anderen Bereichen eines Bildes Fußgänger einschließen. In einer Ausführungsform umfasst das neuronale Netzwerk ein Netzwerk, das trainiert ist, um ungefähre Orte innerhalb von Bildern oder andere Wahrnehmungsdaten zu identifizieren, die wahrscheinlich Fußgänger aufweisen. Das neuronale Netzwerk kann ein tiefes Faltungsnetzwerk umfassen, das für die schnelle Identifizierung von Unterbereichen, die wahrscheinlich Fußgänger aufweisen, trainiert worden ist. Die Unterbereiche, die vom neuronalen Netzwerk identifiziert werden, können Bereiche sein, die wahrscheinlich Fußgänger mit einem niedrigen Niveau von falschen Negativen enthalten, aber mit möglicherweise einem höheren Niveau von falschen Positiven. Zum Beispiel kann die Identifikation von Unterbereichen übertrieben sein, so dass einige Bereiche nicht tatsächlich einen Fußgänger umfassen können, während die Identifikation von Unterbereichen auch eine geringe Wahrscheinlichkeit aufweist, einen Bereich auszulassen, in dem sich ein Fußgänger befindet. Nach der Identifizierung der Unterbereiche, die wahrscheinlich einen Fußgänger beinhalten, kann ein zweites neuronales Netzwerk oder ein Algorithmus verwendet werden, um die identifizierten Unterbereiche zu analysieren, um zu bestimmen, ob der Fußgänger tatsächlich vorhanden ist. In einer Ausführungsform ist das Ausgangssignal der neuronalen Netzwerk- oder Auffälligkeitskomponente 504 eine x-y-Koordinate eines Bildes und ein oder mehrere Abstandsparameter, die einen Abstand von der x-y-Koordinate definieren, die in einem Unterbereich enthalten sind. Beispielsweise können die Abstandsparameter die Kanten eines rechteckigen oder elliptischen Unterbereichs des Bildes definieren.
  • In einer Ausführungsform ist das Ausgabesignal des neuronalen Netzwerks oder der Auffälligkeitskomponente 504 eine Auffälligkeitskarte. Zum Beispiel kann das neuronale Netzwerk eine Auffälligkeitskarte erzeugen, die die wahrscheinlichsten Orte von Fußgängern anzeigt. In einer Ausführungsform kann das neuronale Netzwerk so konfiguriert sein, dass es mit einer niedrigeren Auflösung arbeitet als ein Bild oder andere Informationen, die von einem Wahrnehmungssensorsystem gesammelt werden. Zum Beispiel kann das neuronale Netzwerk eine Version mit niedriger Auflösung des Bildes verarbeiten, um die Auffälligkeitskarte zu erzeugen. Als ein anderes Beispiel kann das neuronale Netzwerk ein Vollauflösungsbild verarbeiten und eine Auffälligkeitskarte mit niedriger Auflösung erzeugen. In einer Ausführungsform sind sowohl eine Eingangsauflösung für das neuronale Netzwerk als auch eine Ausgangsauflösung für eine Auffälligkeitskarte niedriger als eine volle Auflösung eines Bildes oder anderer Daten, die durch die Wahrnehmungsdatenkomponente 502 gesammelt werden. In einer Ausführungsform können Auffälligkeitskarten mit geringer Auflösung eine Leistung bieten, die so gut wie oder nahezu so gut wie Auffälligkeitskarten mit vollständiger Auflösung ist, wobei weniger Rechenressourcen erforderlich sind und/oder schnellere Bearbeitungszeiten erzielbar sind.
  • Die Auffälligkeitskarte, die aus der Verarbeitung unter Verwendung des neuronalen Netzwerks resultiert, kann eine Auffälligkeitskarte umfassen, die Orte anzeigt, an denen sich Fußgänger wahrscheinlich befinden. Zum Beispiel kann das neuronale Netzwerk mit Bildern und Geländewirklichkeitsidentifizierungsbereichen trainiert werden, in denen sich Fußgänger befinden oder nicht befinden. Somit ist das Ausgangssignal des neuronalen Netzwerks und/oder der Auffälligkeitskomponente 504 eine Fußgängerortsauffälligkeitskarte. Dies ist anders als einige Auffälligkeitskarten, die versuchen, Orte vorherzusagen oder anzugeben, wohin ein menschliches Auge natürlich gelenkt wird, wenn man ein Bild betrachtet, weil diese spezifisch für Fußgängerstandorte sind. Die Identifikation von Orten, an denen sich die Fußgänger wahrscheinlich befinden, kann die Verarbeitungsleistung, die erforderlich ist, um Fußgänger zu erfassen, signifikant verringern, da viel weniger als ein Vollbild zur Objekterfassung verarbeitet werden muss oder ein kleineres neuronales Netzwerk verwendet werden kann.
  • In einer Ausführungsform kann die Auffälligkeitskomponente 504 einen oder mehrere Orte priorisieren, die als wahrscheinlich identifiziert wurden, dass sie Fußgänger aufweisen. Beispielsweise können die Orte in der Reihenfolge der Wahrscheinlichkeit, dass ein Fußgänger vorhanden ist, priorisiert werden. Diese Orte können dann in der Reihenfolge ihrer Priorität verarbeitet werden, um die Geschwindigkeit bei der Identifizierung von Fußgängern zu erleichtern. Beispielsweise kann ein erster Bereich am wahrscheinlichsten und ein zweiter Bereich weniger wahrscheinlich sein, einen Fußgänger aufzuweisen, basierend auf einer Verarbeitung unter Verwendung des neuronalen Netzwerks. Indem der erste Bereich zuerst durchsucht wird, können die Chancen, einen Fußgänger früher zu erkennen, signifikant erhöht werden. In ähnlicher Weise können der eine oder die mehreren Orte auf der Grundlage von Position in Bezug auf einen Weg, der von einem Fahrzeug zurückgelegt werden soll, priorisiert werden. Zum Beispiel können Orte, die näher an einem Fahrzeug oder entlang eines Fahrwegs des Fahrzeugs sind, gegenüber Positionen priorisiert werden, die weiter weg vom Fahrzeug oder weit weg von einem Weg des Fahrzeugs gelegen sind.
  • Die Erkennungskomponente 506 ist konfiguriert, um die Anwesenheit eines Fußgängers innerhalb eines Bildes oder innerhalb anderer Wahrnehmungsdaten zu erfassen. Beispielsweise kann die Erkennungskomponente 506 Bilddaten verarbeiten, um einen menschlichen Fußgänger oder eine andere Person zu erfassen, wobei eine Objekterkennung oder beliebige Bildverarbeitungstechniken verwendet werden. In einer Ausführungsform kann die Erkennungskomponente 506 den Fußgänger innerhalb der Bild- oder Wahrnehmungsdaten lokalisieren. Beispielsweise kann die Erkennungskomponente 506 ein oder mehrere Pixel identifizieren, die dem Fußgänger entsprechen. In einer Ausführungsform kann die Erfassungskomponente 506 den Fußgänger in Bezug auf ein Fahrzeug lokalisieren (beispielsweise in Bezug auf eine Kamera auf dem Fahrzeug, welche das Bild erfasst hat). Die Erfassungskomponente 506 kann einen Abstand zwischen dem Sensor und dem Fußgänger und/oder eine Richtung relativ zu einer Front- oder Fahrtrichtung des Fahrzeugs und des Fußgängers bestimmen.
  • In einer Ausführungsform erfasst die Erkennungskomponente 506 Fußgänger durch Verarbeiten von Unterbereichen, die durch die Auffälligkeitskomponente 504 identifiziert wurden. Zum Beispiel kann die Erkennungskomponente 506 statt der Verarbeitung eines Bildes als Ganzes nur Bereiche des Bildes verarbeiten, die durch die Auffälligkeitskomponente als wahrscheinlich oder stärker wahrscheinlich gekennzeichnet sind, einen Fußgänger aufzuweisen. Beispielsweise kann die Erkennungskomponente 506 jeden Unterbereich einzeln verarbeiten, um zu bestätigen oder zu bestimmen, dass ein Fußgänger innerhalb des spezifischen Bereichs vorhanden oder nicht vorhanden ist. Als weiteres Beispiel kann ein durch Kombinieren eines Bildes und einer Auffälligkeitskarte (z.B. unter Verwendung eines Schwellenwerts oder eines anderen Effekts) erzeugtes Bild, das durch die Auffälligkeitskomponente 504 definiert ist, durch die Erkennungskomponente 506 verarbeitet werden, um Fußgänger zu lokalisieren. Die Auffälligkeitskarte kann Bereiche des Bildes "schwärzen", "verwischen" oder anderweitig verbergen, die wahrscheinlich keine Fußgänger umfassen, während die anderen Teile für die Verarbeitung durch die Erkennungskomponente 506 zugelassen sind.
  • In einer Ausführungsform ist die Erkennungskomponente 506 konfiguriert, um ein Bild oder einen oder mehrere Unterbereiche eines Bildes unter Verwendung eines neuronalen Netzwerks zu verarbeiten. Zum Beispiel kann das neuronale Netzwerk, das zum Erfassen von Fußgängern verwendet wird, ein unterschiedliches neuronales Netzwerk sein als jenes, das durch die Auffälligkeitskomponente 504 verwendet wird. In einer Ausführungsform kann das neuronale Netzwerk ein tiefes, gefaltetes neuronales Netzwerk umfassen, das trainiert worden ist, um Fußgänger mit hoher Genauigkeit und einer niedrigen Rate von falschen Negativen zu erfassen. In einer Ausführungsform kann die Erfassungskomponente 506 eine Auffälligkeitskarte oder eine andere Angabe von Unterbereichen verwenden, die durch die Auffälligkeitskomponente 504 erzeugt werden, um eine Vollauflösungsversion des Bildes oder eines Unterabschnitts des Bildes zu verarbeiten. Beispielsweise kann die Erkennungskomponente 506 eine Auffälligkeitskarte mit niedriger Auflösung verwenden, um Bereiche des Bildes zu identifizieren, die verarbeitet werden müssen, aber um dann diese Bereiche bei einer erhöhten oder ursprünglichen Bildauflösung zu verarbeiten.
  • In einer Ausführungsform kann die Erkennungskomponente 506 ein neuronales Netzwerk verwenden, das unter Verwendung von zugeschnittenen Geländewirklichkeitsbegrenzungsrahmenfeldern trainiert wurde, um zu bestimmen, dass ein Fußgänger vorhanden oder nicht vorhanden ist. Das neuronale Netzwerk kann ein Klassifikator sein, der ein Bild (oder einen Teil eines Bildes) als einen Fußgänger enthaltend oder nicht enthaltend klassifiziert. Beispielsweise kann die Erkennungskomponente 506 jeden durch die Auffälligkeitskomponente 504 identifizierten Abschnitt als einen Fußgänger enthaltend oder nicht enthaltend klassifizieren. Beispielsweise kann in Bezug auf 2 die Auffälligkeitskomponente 504 jeden der ersten, zweiten, dritten und vierten Unterbereiche 202208 als wahrscheinlich einen Fußgängers enthaltend identifizieren, während die Erkennungskomponente 506 bestätigt, dass ein Fußgänger im ersten, dritten und vierten Unterbereich 202, 206, 208 vorhanden ist, aber bestimmt, dass der zweite Unterbereich 204 keinen Fußgänger enthält.
  • In einer Ausführungsform kann die Erkennungskomponente 506 Bereiche, die durch die Auffälligkeitskomponente identifiziert werden, in der Reihenfolge ihrer Priorität verarbeiten. Beispielsweise können Orte mit höherer Priorität zuerst verarbeitet werden, um zu bestimmen, ob ein Fußgänger vorhanden ist. Die Verarbeitung in der Reihenfolge der Priorität kann eine erhöhte Geschwindigkeit beim Erfassen von Fußgängern ermöglichen und ermöglicht schnellere Reaktionszeiten, um Unfällen vorzubeugen, eine Kollision zu verhindern, oder einen Fahrweg zu planen.
  • Die Benachrichtigungskomponente 508 ist konfiguriert, um eine oder mehrere Benachrichtigungen an einen Fahrer oder ein automatisiertes Fahrsystem eines Fahrzeugs bereitzustellen. In einer Ausführungsform kann die Benachrichtigungskomponente 508 Benachrichtigungen an einen Fahrer unter Verwendung einer Anzeige 122 oder eines Lautsprechers 124 bereitstellen. Beispielsweise kann ein Ort des Fußgängers auf einer Überkopfanzeige angezeigt werden. In einer Ausführungsform kann die Benachrichtigung einen Befehl enthalten, um ein Manöver durchzuführen, oder kann warnen, dass ein Fußgänger vorhanden ist. In einer Ausführungsform kann die Benachrichtigungskomponente 508 den Fahrer oder das automatisierte Fahrsystem 100 über ein Fahrmanöver, das durch die Fahrmanöverkomponente 510 ausgewählt oder vorgeschlagen wird, benachrichtigen. In einer Ausführungsform kann die Benachrichtigungskomponente 508 den Fahrer oder das automatisierte Fahrsystem 100 von einer Ortsposition des Fußgängers benachrichtigen, so dass eine Wegplanung oder Kollisionsvermeidung entsprechend durchgeführt werden kann. Ähnlich kann die Benachrichtigungskomponente 508 eine Angabe eines Orts eines jeden erkannten Fußgängers für ein automatisiertes Fahrsystem 100 zur Verfügung stellen, um eine Wegplanung oder Kollisionsvermeidung zu ermöglichen.
  • Die Fahrmanöverkomponente 510 ist so konfiguriert, dass sie ein Fahrmanöver für ein Stammfahrzeug auf der Basis der Anwesenheit oder Abwesenheit eines Fußgängers auswählt. Zum Beispiel kann die Fahrmanöverkomponente 510 eine oder mehrere Fußgängerorten von der Benachrichtigungskomponente 508 oder der Erkennungskomponente 506 empfangen. Die Fahrmanöverkomponente 510 kann einen Fahrweg bestimmen, um eine Kollision mit dem Fußgänger zu vermeiden oder um einen Raum zum Manövrieren im Fall, dass sich der Fußgänger in einer erwarteten oder unerwarteten Weise bewegt, zu ermöglichen. Beispielsweise kann die Fahrmanöverkomponente 510 bestimmen, ob und wann verzögert, beschleunigt und/oder ein Lenkrad des Stammfahrzeugs gedreht werden soll. In einer Ausführungsform kann die Fahrmanöverkomponente 510 den Zeitpunkt für das Fahrmanöver bestimmen. Beispielsweise kann die Fahrmanöverkomponente 510 bestimmen, dass ein Stammfahrzeug aufgrund des Vorhandenseins eines Fußgängers warten, einen Fahrspurwechsel durchführen oder durch eine Kreuzung fahren muss.
  • Es wird nun auf 6 Bezug genommen, um eine Ausführungsform eines schematischen Flussdiagrammes eines Verfahrens 600 zur Fußgängererkennung darzustellen. Das Verfahren 600 kann durch ein automatisiertes Fahrerassistenzsystem oder eine Fußgängerkomponente, wie das automatisierte Fahr-/Assistenzsystem 102 von 1, oder die Fußgängerkomponente 104 der 1 oder 5 durchgeführt werden.
  • Das Verfahren 600 beginnt und eine Wahrnehmungsdatenkomponente 502 empfängt ein Bild eines Bereichs in der Nähe eines Fahrzeugs bei 602. Eine Auffälligkeitskomponente 504 verarbeitet das Bild unter Verwendung eines ersten neuronalen Netzwerks, um einen oder mehrere Orte zu bestimmen, an denen sich Fußgänger wahrscheinlich innerhalb des Bildes befinden, bei 604. Eine Erkennungskomponente 506 verarbeitet den einen oder die mehreren Orte des Bildes unter Verwendung eines zweiten neuronalen Netzwerks, um zu bestimmen, dass ein Fußgänger vorhanden ist, bei 606. Eine Benachrichtigungskomponente 508 liefert eine Angabe für ein Fahrassistenzsystem oder automatisiertes Fahrsystem, dass der Fußgänger vorhanden ist, bei 608.
  • Obwohl verschiedene Ausführungsformen und Beispiele, die hierin beschrieben wurden, zum Erfassen von Fußgängern auf der Basis von Kamerabildern ausgerichtet sind, können einige Ausführungsformen mit Wahrnehmungsdaten arbeiten, die von anderen Sensortypen, wie Radarsysteme 106, LIDAR-Systeme 108, Ultraschallsysteme 114 oder jede andere Art von Sensor oder Sensorsystem, gesammelt werden.
  • Beispiele
  • Die folgenden Beispiele betreffen weitere Ausführungsformen.
  • Beispiel 1 ist ein Verfahren zum Erfassen von Fußgängern, das das Empfangen eines Bildes eines Bereichs in der Nähe eines Fahrzeugs umfasst. Das Verfahren umfasst auch das Verarbeiten des Bildes unter Verwendung eines ersten neuronalen Netzwerks, um einen oder mehrere Orte zu bestimmen, an denen sich Fußgänger wahrscheinlich innerhalb des Bildes befinden. Das Verfahren umfasst auch das Verarbeiten des einen oder der mehreren Orte des Bildes unter Verwendung eines zweiten neuronalen Netzwerks, um zu bestimmen, dass ein Fußgänger vorhanden ist. Das Verfahren umfasst das Benachrichtigen eines Fahrassistenzsystems oder eines automatisierten Fahrsystems, dass der Fußgänger vorhanden ist.
  • In Beispiel 2 umfasst das erste neuronale Netzwerk aus Beispiel 1 ein Netzwerk, das ausgebildet ist, um ungefähre Orte in Bildern zu identifizieren, die wahrscheinlich Fußgänger aufweisen.
  • In Beispiel 3 erzeugt das erste neuronale Netzwerk nach einem beliebigen der Beispiele 1–2 eine Auffälligkeitskarte, die die wahrscheinlichsten Orte von Fußgängern anzeigt.
  • In Beispiel 4 weist die Auffälligkeitskarte von Beispiel 3 eine niedrigere Auflösung als das Bild auf.
  • In Beispiel 5 verarbeitet das zweite neuronale Netzwerk nach einem beliebigen der Beispiele 1–4 den einen oder die mehreren Orte innerhalb des Bildes mit voller Auflösung.
  • In Beispiel 6 enthält das zweite neuronale Netzwerk nach einem beliebigen der Beispiele 1–5 einen tiefen neuronalen Netzwerkklassifikator, der unter Verwendung von zugeschnittenen Geländewirklichkeitsbegrenzungsrahmenfeldern trainiert wurde, um zu bestimmen, dass ein Fußgänger vorhanden ist oder nicht vorhanden ist.
  • In Beispiel 7 umfasst das Bestimmen, dass ein Fußgänger in irgendeinem der Beispiele 1–6 vorhanden ist, das Bestimmen, ob ein Fußgänger an jedem der einen oder der mehreren Orte vorhanden ist.
  • In Beispiel 8 umfasst das Verfahren nach einem beliebigen der Beispiele 1–7 ferner das Bestimmen eines Ortes des Fußgängers in Bezug auf das Fahrzeug, basierend auf dem Bild.
  • In den Beispielen 9 umfasst das Verfahren nach einem beliebigen der Beispiele 1–8 ferner das Bestimmen einer Priorität für den einen oder die mehreren Orte, wobei das Verarbeiten des einen oder der mehreren Orte das Verarbeiten unter Verwendung des zweiten neuronalen Netzwerks auf Basis der Priorität umfasst.
  • Beispiel 10 ist ein System, das eine oder mehrere Kameras, eine Auffälligkeitskomponente, eine Erkennungskomponente und eine Benachrichtigungskomponente umfasst. Die eine oder die mehreren Kameras sind auf einem Fahrzeug positioniert, um ein Bild eines Bereichs nahe dem Fahrzeug zu erfassen. Die Auffälligkeitskomponente ist so konfiguriert, dass sie das Bild unter Verwendung eines ersten neuronalen Netzwerks verarbeitet, um eine Auffälligkeitskarte mit niedriger Auflösung zu erzeugen, die einen oder mehrere Bereiche anzeigt, in denen sich Fußgänger höchstwahrscheinlich innerhalb des Bildes befinden. Die Erkennungskomponente ist so konfiguriert, dass sie den einen oder die mehreren Bereiche unter Verwendung eines zweiten neuronalen Netzwerks verarbeitet, um für jeden einem oder mehreren Bereiche zu bestimmen, ob ein Fußgänger vorhanden ist. Die Benachrichtigungskomponente ist so konfiguriert, dass sie eine Benachrichtigung bereitstellt, die eine Anwesenheit oder Abwesenheit von Fußgängern anzeigt.
  • In Beispiel 11 weist die Auffälligkeitskarte von Beispiel 10 eine geringere Auflösung als das Bild auf.
  • In Beispiel 12 verwendet die Erkennungskomponente in einem beliebigen der Beispiele 10–11 das zweite neuronale Netzwerk, um den einen oder die mehrere Orte innerhalb des Bildes mit voller Auflösung zu verarbeiten.
  • In Beispiel 13 umfasst das zweite neuronale Netzwerk in einem beliebigen der Beispiele 10–12 einen tiefen neuronalen Netzwerkklassifikator, der unter Verwendung von zugeschnittenen Geländewirklichkeitsbegrenzungsrahmenfeldern trainiert wurde, um zu bestimmen, dass ein Fußgänger vorhanden ist oder nicht vorhanden ist.
  • In Beispiel 14 ist die Erkennungskomponente in einem beliebigen der Beispiele 10–13 konfiguriert, um zu bestimmen, ob ein Fußgänger in jedem des einen oder der mehreren Bereiche vorhanden ist.
  • In Beispiel 15 ist die Benachrichtigungskomponente in einem beliebigen der Beispiele 10–14 konfiguriert, um die Benachrichtigung an eine oder an mehrere einer Ausgabevorrichtung bereitzustellen, um einen Fahrer und ein automatisiertes Fahrsystem zu benachrichtigen.
  • In Beispiel 16 umfasst das System von einem beliebigen der Beispiele 10–15 ferner eine Fahrmanöverkomponente, die konfiguriert ist, um ein Fahrmanöver zu bestimmen, welches das Fahrzeug ausführen muss.
  • Beispiel 17 ist ein computerlesbares Speichermedium, das Befehle speichert, die, wenn von einem oder mehreren Prozessoren ausgeführt, bewirken, dass der eine oder die mehreren Prozessoren ein Bild eines Bereichs in der Nähe eines Fahrzeugs empfangen. Die Befehle führen ferner dazu, dass der eine oder die mehreren Prozessoren das Bild unter Verwendung eines ersten neuronalen Netzwerks verarbeiten, um einen oder mehrere Orte zu bestimmen, an denen sich Fußgänger wahrscheinlich innerhalb des Bildes befinden. Die Befehle bewirken ferner, dass der eine oder die mehreren Prozessoren den einen oder die mehreren Orte des Bildes unter Verwendung eines zweiten neuronalen Netzwerks verarbeiten, um zu bestimmen, dass ein Fußgänger vorhanden ist. Die Befehle führen ferner dazu, dass der eine oder die mehreren Prozessoren eine Anzeige an ein Fahrassistenzsystem oder ein automatisiertes Fahrsystem liefern, dass der Fußgänger vorhanden ist.
  • In Beispiel 18 umfasst das Verarbeiten des Bildes unter Verwendung eines ersten neuronalen Netzwerks aus Beispiel 17 das Erzeugen einer Auffälligkeitskarte, die den einen oder die mehreren Orte anzeigt, wobei die Auffälligkeitskarte eine niedrigere Auflösung als das Bild aufweist.
  • In Beispiel 19 lassen die Befehle in einem beliebigen der Beispiele 17–18 ferner den einen oder die mehreren Prozessoren bestimmen, ob ein Fußgänger in jedem des einen oder der mehreren Orte vorhanden ist.
  • In Beispiel 20 lassen die Befehle in einem beliebigen der Beispiele 17–19 den einen oder die mehreren Prozessoren eine Priorität für den einen oder die mehreren Orte bestimmen und den einen oder die mehreren Orte basierend auf der Priorität verarbeiten.
  • Beispiel 21 ist ein System oder eine Vorrichtung, welches/welche Mittel zum Implementieren eines Verfahrens oder zum Realisieren eines Systems oder einer Vorrichtung in einem beliebigen der Beispiele 1–20 umfasst.
  • In der obigen Offenbarung wurde auf die begleitenden Zeichnungen, die einen Teil hiervon bilden und in denen zur Veranschaulichung spezifische Umsetzungen gezeigt sind, in denen die Offenbarung praktiziert werden kann, Bezug genommen. Es versteht sich von selbst, dass andere Implementierungen verwendet und strukturelle Änderungen vorgenommen werden können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen. Bezugnahmen in der Beschreibung auf "eine (Zahlwort) Ausführungsform", "eine (unbestimmter Artikel) Ausführungsform", "eine beispielhafte Ausführungsform" usw. zeigen an, dass die beschriebene Ausführungsform ein bestimmtes Merkmal, eine Struktur oder eine Charakteristik umfassen kann, wobei aber nicht jede Ausführungsform notwendigerweise das bestimmte Merkmal, die bestimmte Struktur oder Charakteristik umfassen muss. Darüber hinaus beziehen sich solche Phrasen nicht notwendigerweise auf dieselbe Ausführungsform. Ferner wird, wenn ein bestimmtes Merkmal, eine bestimmte Struktur oder Charakteristik in Verbindung mit einer Ausführungsform beschrieben wird, erwartet, dass es innerhalb der Kenntnis eines Fachmanns liegt, ein solches Merkmal, eine solche Struktur oder Charakteristik in Verbindung mit anderen Ausführungsformen einzusetzen, ob ausdrücklich in der Hinsicht beschrieben oder nicht.
  • Wie hier verwendet, kann "autonomes Fahrzeug" ein Fahrzeug sein, das zur Gänze unabhängig von einem menschlichen Fahrer agiert oder betrieben wird; oder es kann ein Fahrzeug sein, das in einigen Fällen unabhängig von einem menschlichen Fahrer agiert oder betrieben wird, während in anderen Fällen ein menschlicher Fahrer in der Lage ist, das Fahrzeug zu betreiben; oder es kann ein Fahrzeug sein, das überwiegend von einem menschlichen Fahrer, jedoch mit Hilfe eines automatisierten Fahr-/Assistenzsystems betrieben wird.
  • Ausführungsformen der hierin offenbarten Systeme, Vorrichtungen und Verfahren können einen dafür vorgesehenen oder einen für mehrere Zwecke verwendbaren Computer einschließlich der Computerhardware, wie beispielsweise einen oder mehrere Prozessoren und Systemspeicher, umfassen oder verwenden, wie hierin diskutiert. Umsetzungen im Rahmen der vorliegenden Offenbarung können auch körperliche und andere computerlesbare Medien zum Tragen oder Speichern von computerausführbaren Befehlen und/oder Datenstrukturen umfassen. Solche computerlesbaren Medien können beliebige verfügbare Medien sein, auf die durch ein universelles oder spezielles Computersystem zugegriffen werden kann. Computerlesbare Medien, die computerausführbare Befehle speichern, sind Computerspeichermedien (Vorrichtungen). Computer-lesbare Medien, die computerausführbare Befehle tragen, sind Übertragungsmedien. So können zum Beispiel und ohne Einschränkung Umsetzungen der Offenbarung mindestens zwei deutlich unterscheidbare Arten von computerlesbaren Medien umfassen: Computerspeichermedien (Vorrichtungen) und Übertragungsmedien.
  • Computerspeichermedien (Vorrichtungen) umfassen RAM, ROM, EEPROM, CD-ROM, Solid-State-Laufwerke ("SSDs") (z.B. basierend auf RAM), Flash-Speicher, Phasenänderungsspeicher ("PCM"), andere Arten von Speichern, andere optische Plattenspeicher, Magnetplattenspeicher oder andere magnetische Speichervorrichtungen oder jedes beliebige andere Medium, das verwendet werden kann, um gewünschte Programmcodemittel in Form von computerausführbaren Befehlen oder Datenstrukturen zu speichern, und auf das durch einen universellen oder speziellen Computer zugegriffen werden kann.
  • Eine Umsetzung der hierin offenbarten Vorrichtungen, Systeme und Verfahren kann über ein Computernetzwerk kommunizieren. Ein "Netzwerk" ist definiert als eine oder mehrere Datenverbindungen, die den Transport elektronischer Daten zwischen Computersystemen und/oder Modulen und/oder anderen elektronischen Vorrichtungen ermöglichen. Wenn Informationen über ein Netzwerk oder eine andere Kommunikationsverbindung (entweder fest verdrahtet, drahtlos oder eine Kombination von fest verdrahtet oder drahtlos) an einen Computer übertragen werden, betrachtet der Computer die Verbindung richtigerweise als Übertragungsmedium. Übertragungsmedien können ein Netzwerk und/oder Datenverbindungen umfassen, die verwendet werden können, um gewünschte Programmcodemittel in Form von computerausführbaren Befehlen oder Datenstrukturen zu tragen, auf die von einem Universal- oder Spezialcomputer zugegriffen werden kann. Kombinationen der obigen müssen ebenfalls im Umfang von computerlesbaren Medien umfasst sein.
  • Computerausführbare Befehle umfassen beispielsweise Befehle und Daten, die bei Ausführung mit einem Prozessor einen Universalrechner, einen Spezialrechner oder eine Spezialverarbeitungsvorrichtung veranlassen, eine bestimmte Funktion oder eine Gruppe von Funktionen auszuführen. Die computerausführbaren Befehle können beispielsweise Binärdateien, Zwischenformatbefehle wie Assembler-Sprache oder sogar Quellcode sein. Obwohl der Gegenstand in einer Sprache beschrieben wurde, die spezifisch für strukturelle Merkmale und/oder methodische Handlungen ist, versteht es sich von selbst, dass der Gegenstand, der in den beigefügten Ansprüchen definiert ist, nicht notwendigerweise auf die oben beschriebenen Merkmale oder Handlungen beschränkt ist. Vielmehr sind die beschriebenen Merkmale und Wirkungen als beispielhafte Umsetzungsformen der Ansprüche offenbart.
  • Der Fachmann wird erkennen, dass die Offenbarung in Netzwerkcomputerumgebungen mit vielen Arten von Computersystemkonfigurationen praktiziert werden kann, einschließlich im Armaturenbrett eingebauter Fahrzeugcomputer, Personal-Computer, Desktopcomputer, Laptopcomputer, Nachrichtenprozessoren, Handcomputergeräte, Multiprozessorsysteme, Mikroprozessor-basierte oder programmierbare Unterhaltungselektronik, Netzwerk-PCs, Minicomputer, Großrechner, Mobiltelefone, PDAs, Tablets, Pager, Router, Switches, verschiedene Speichervorrichtungen und dergleichen. Die Offenbarung kann auch in verteilten Systemumgebungen praktiziert werden, bei denen sowohl lokale als auch entfernte Computersysteme, die (entweder durch fest verdrahtete Datenverbindungen, drahtlose Datenverbindungen oder durch eine Kombination von festverdrahteten und drahtlosen Datenverbindungen) über ein Netzwerk miteinander verbunden sind, beiderseits Aufgaben ausführen. In einer verteilten Systemumgebung können sich Programmmodule sowohl in lokalen als auch in entfernten Speichervorrichtungen befinden.
  • Ferner können die hierin beschriebenen Funktionen, falls geeignet, in einer oder mehreren der folgenden Komponenten ausgeführt werden: Hardware, Software, Firmware, digitale Komponenten oder analoge Komponenten. Beispielsweise können eine oder mehrere anwendungsspezifische integrierte Schaltungen (ASICs) programmiert werden, um eines oder mehrere der hierin beschriebenen Systeme und Verfahren auszuführen. Bestimmte Begriffe werden in der gesamten Beschreibung und in den Ansprüchen verwendet, um auf bestimmte Systemkomponenten Bezug zu nehmen. Wie ein Fachmann erkennen wird, können Komponenten mit unterschiedlichen Namen bezeichnet werden. Dieses Dokument beabsichtigt nicht, zwischen Komponenten zu unterscheiden, die sich im Namen unterscheiden, aber nicht in der Funktion.
  • Es sollte angemerkt werden, dass die oben diskutierten Sensorausführungsformen Computerhardware, Software, Firmware oder irgendeine Kombination davon umfassen können, um mindestens einen Teil ihrer Funktionen auszuführen. Beispielsweise kann ein Sensor einen Computercode umfassen, der konfiguriert ist, um in einem oder mehreren Prozessoren ausgeführt zu werden, und kann eine Hardware-Logik/elektrische Schaltung umfassen, die durch den Computercode gesteuert wird. Diese beispielhaften Vorrichtungen sind hierin zur Veranschaulichung bereitgestellt und beabsichtigen nicht, einschränkend zu sein. Ausführungsformen der vorliegenden Offenbarung können in weiteren Arten von Vorrichtungen umgesetzt werden, wie dies Fachleuten bekannt sein muss.
  • Zumindest einige Ausführungsformen der Offenbarung beziehen sich auf Computerprogrammprodukte, die eine solche Logik (z. B. in Form von Software) aufweisen, die auf einem beliebigen computerverwendbaren Medium gespeichert sind. Eine solche Software bewirkt, wenn sie in einer oder mehreren Datenverarbeitungsvorrichtungen ausgeführt wird, dass eine Vorrichtung arbeitet, wie hierin beschrieben.
  • Während verschiedene Ausführungsformen der vorliegenden Offenbarung oben beschrieben worden sind, versteht es sich von selbst, dass sie lediglich beispielhaft und nicht beschränkend dargestellt worden sind. Für Fachleute auf diesem Gebiet der Technik ist es offensichtlich, dass verschiedene Änderungen in Form und Detail vorgenommen werden können, ohne vom Geist und Umfang der Offenbarung abzuweichen. Daher darf die Breite und der Umfang der vorliegenden Offenbarung nicht durch irgendeine der oben beschriebenen beispielhaften Ausführungsformen begrenzt werden, sondern darf nur in Übereinstimmung mit den folgenden Ansprüchen und ihren Äquivalenten definiert werden. Die vorstehende Beschreibung wurde für die Zwecke der Veranschaulichung und Beschreibung vorgestellt. Es ist nicht beabsichtigt, dass sie erschöpfend ist oder die Offenbarung auf die offenbarte genaue Form beschränkt ist. Viele Modifikationen und Variationen sind im Licht der obigen Lehre möglich. Ferner muss beachtet werden, dass irgendwelche oder alle der vorgenannten alternativen Umsetzungen in jeder beliebigen Kombination verwendet werden können, um zusätzliche Hybrid-Umsetzungen der Offenbarung auszubilden.
  • Obwohl spezifische Implementierungen der Offenbarung beschrieben und dargestellt wurden, ist die Offenbarung ferner nicht auf die spezifischen Formen oder Anordnungen von Teilen beschränkt, die so beschrieben und dargestellt sind. Der Umfang der Offenbarung muss durch die hierin beigefügten Ansprüche, zukünftigen Ansprüche, die hier und in verschiedenen Anwendungen eingereicht werden, und deren Äquivalente definiert werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • "ImageNet Classification with Deep Convolutional Neural Networks" von A. Krizhevsky, I. Sutskever, G. Hinton (Neural Information Processing Systems Conference, 2012) [0013]
    • "Pedestrian Detection with a Large-Field-Of-View Deep Network", A. Angelova, A. Krizhevsky, V. Vanhoucke (IEEE International Conference on Robotics and Automation ICRA 2015) [0014]

Claims (20)

  1. Verfahren zum Erfassen von Fußgängern, umfassend: Empfangen eines Bildes eines Bereichs in der Nähe eines Fahrzeugs; Verarbeiten des Bildes unter Verwendung eines ersten neuronalen Netzwerks, um einen oder mehrere Orte zu bestimmen, an denen sich Fußgänger wahrscheinlich innerhalb des Bildes befinden; Verarbeiten des einen oder der mehreren Orte des Bildes unter Verwendung eines zweiten neuronalen Netzwerks, um zu bestimmen, dass ein Fußgänger anwesend ist; und Benachrichtigen eines Fahrassistenzsystems oder eines automatisierten Fahrsystems, dass der Fußgänger anwesend ist.
  2. Verfahren nach Anspruch 1, wobei das erste neuronale Netzwerk ein Netzwerk umfasst, das trainiert ist, um ungefähre Orte in Bildern zu identifizieren, die wahrscheinlich Fußgänger enthalten.
  3. Verfahren nach Anspruch 1, wobei das erste neuronale Netzwerk eine Auffälligkeitskarte erzeugt, welche die wahrscheinlichsten Orte von Fußgängern anzeigt.
  4. Verfahren nach Anspruch 3, wobei die Auffälligkeitskarte eine geringere Auflösung als das Bild aufweist.
  5. Verfahren nach Anspruch 1, wobei das zweite neuronale Netzwerk den einen oder die mehreren Orte innerhalb des Bildes mit voller Auflösung verarbeitet.
  6. Verfahren nach Anspruch 1, wobei das zweite neuronale Netzwerk einen tiefen neuronalen Netzklassifikator umfasst, der unter Verwendung von zugeschnittenen Geländewirklichkeitsbegrenzungsrahmenfeldern trainiert wurde, um zu bestimmen, dass ein Fußgänger anwesend ist oder nicht anwesend ist.
  7. Verfahren nach Anspruch 1, wobei das Bestimmen, dass ein Fußgänger anwesend ist, das Bestimmen umfasst, ob ein Fußgänger an jedem des einen oder der mehreren Orte anwesend ist.
  8. Verfahren nach Anspruch 1, ferner umfassend Bestimmen eines Orts des Fußgängers in Bezug auf das Fahrzeug basierend auf dem Bild.
  9. Verfahren nach Anspruch 1, ferner umfassend Bestimmen einer Priorität für den einen oder die mehreren Orte, wobei das Verarbeiten des einen oder der mehreren Orte das Verarbeiten unter Verwendung des zweiten neuronalen Netzwerks basierend auf der Priorität umfasst.
  10. System, umfassend: eine oder mehrere Kameras, die auf einem Fahrzeug positioniert sind, um ein Bild eines Bereichs in der Nähe des Fahrzeugs zu erfassen; eine Auffälligkeitskomponente, die konfiguriert ist, um das Bild unter Verwendung eines ersten neuronalen Netzwerks zu verarbeiten, um eine Auffälligkeitskarte mit niedriger Auflösung zu erzeugen, die einen oder mehrere Bereiche anzeigt, in denen sich Fußgänger höchstwahrscheinlich innerhalb des Bildes befinden; eine Erkennungskomponente, die konfiguriert ist, um einen oder mehrere Bereiche unter Verwendung eines zweiten neuronalen Netzwerks zu verarbeiten, um für jeden von einem oder mehreren Bereichen zu bestimmen, ob ein Fußgänger anwesend ist; und eine Benachrichtigungskomponente, die konfiguriert ist, um eine Benachrichtigung bereitzustellen, die eine Anwesenheit oder Abwesenheit von Fußgängern anzeigt.
  11. System nach Anspruch 10, wobei die Auffälligkeitskarte eine niedrigere Auflösung als das Bild aufweist.
  12. System nach Anspruch 10, wobei die Erkennungskomponente das zweite neuronale Netzwerk verwendet, um den einen oder die mehreren Orte innerhalb des Bildes mit voller Auflösung zu verarbeiten.
  13. System nach Anspruch 10, wobei das zweite neuronale Netzwerk einen tiefen neuronalen Netzklassifikator umfasst, der unter Verwendung von zugeschnittenen Geländewirklichkeitsbegrenzungsrahmenfeldern trainiert wurde, um zu bestimmen, dass ein Fußgänger anwesend ist oder nicht.
  14. System nach Anspruch 10, wobei die Erkennungskomponente konfiguriert ist zu bestimmen, ob ein Fußgänger in jedem des einen oder der mehreren Bereiche anwesend ist.
  15. System nach Anspruch 10, wobei die Benachrichtigungskomponente konfiguriert ist, um die Benachrichtigung an eine oder mehrere einer Ausgabevorrichtung zu liefern, um einen Fahrer und ein automatisiertes Fahrsystem zu benachrichtigen.
  16. System nach Anspruch 10, ferner umfassend eine Fahrmanöverkomponente, die konfiguriert ist, um ein Fahrmanöver zur Ausführung durch das Fahrzeug zu bestimmen.
  17. Computerlesbares Speichermedium, das Befehle speichert, die, wenn sie von einem oder mehreren Prozessoren ausgeführt werden, bewirken, dass der eine oder die mehreren Prozessoren: ein Bild eines Bereichs in der Nähe eines Fahrzeugs empfängt/empfangen; das Bild unter Verwendung eines ersten neuronalen Netzwerks verarbeitet/verabeiten, um einen oder mehrere Orte zu bestimmen, an denen sich Fußgänger wahrscheinlich innerhalb des Bildes befinden; den einen oder die mehreren Orte des Bildes unter Verwendung eines zweiten neuronalen Netzwerks verarbeitet/verarbeiten, um zu bestimmen, dass ein Fußgänger anwesend ist; und eine Anzeige für ein Fahrassistenzsystem oder ein automatisiertes Fahrsystem zur Verfügung stellt/stellen, dass der Fußgänger anwesend ist.
  18. Computerlesbares Speichermedium nach Anspruch 17, wobei das Verarbeiten des Bildes unter Verwendung eines ersten neuronalen Netzwerks das Erzeugen einer Auffälligkeitskarte umfasst, die den einen oder die mehreren Orte anzeigt, wobei die Auffälligkeitskarte eine niedrigere Auflösung als das Bild aufweist.
  19. Computerlesbares Speichermedium nach Anspruch 17, wobei die Befehle den einen oder die mehreren Prozessoren veranlassen, zu bestimmen, ob ein Fußgänger in jedem des einen oder der mehreren Orte anwesend ist.
  20. Computerlesbares Speichermedium nach Anspruch 17, wobei die Befehle den einen oder die mehreren Prozessoren veranlassen, eine Priorität für den einen oder die mehreren Orte zu bestimmen und den einen oder die mehreren Orte basierend auf der Priorität zu verarbeiten.
DE102017100199.9A 2016-01-15 2017-01-06 FUßGÄNGERERKENNUNG MIT AUFFÄLLIGKEITSKARTEN Withdrawn DE102017100199A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/997,120 2016-01-15
US14/997,120 US20170206426A1 (en) 2016-01-15 2016-01-15 Pedestrian Detection With Saliency Maps

Publications (1)

Publication Number Publication Date
DE102017100199A1 true DE102017100199A1 (de) 2017-09-07

Family

ID=58463757

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017100199.9A Withdrawn DE102017100199A1 (de) 2016-01-15 2017-01-06 FUßGÄNGERERKENNUNG MIT AUFFÄLLIGKEITSKARTEN

Country Status (6)

Country Link
US (1) US20170206426A1 (de)
CN (1) CN106980814A (de)
DE (1) DE102017100199A1 (de)
GB (1) GB2548200A (de)
MX (1) MX2017000688A (de)
RU (1) RU2017100270A (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018205879A1 (de) 2018-04-18 2019-10-24 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Verarbeitung von Sensordaten
DE102018217277A1 (de) * 2018-10-10 2020-04-16 Zf Friedrichshafen Ag LIDAR-Sensor, Fahrzeug sowie Verfahren für einen LIDAR-Sensor
FR3092545A1 (fr) * 2019-02-08 2020-08-14 Psa Automobiles Sa Assistance à la conduite d’un véhicule, par détermination de la voie de circulation dans laquelle est situé un objet
DE102019206083A1 (de) * 2019-04-29 2020-10-29 Robert Bosch Gmbh Verfahren zur optischen Inspektion, Kamerasystem und Fahrzeug

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106080590B (zh) * 2016-06-12 2018-04-03 百度在线网络技术(北京)有限公司 车辆控制方法和装置以及决策模型的获取方法和装置
US10139823B2 (en) * 2016-09-13 2018-11-27 Toyota Motor Engineering & Manufacturing North America, Inc. Method and device for producing vehicle operational data based on deep learning techniques
JP2018060268A (ja) * 2016-10-03 2018-04-12 株式会社日立製作所 認識装置および学習システム
US10853698B2 (en) * 2016-11-09 2020-12-01 Konica Minolta Laboratory U.S.A., Inc. System and method of using multi-frame image features for object detection
KR20180060784A (ko) * 2016-11-29 2018-06-07 삼성전자주식회사 비정상 객체 판단 방법 및 장치
US10318827B2 (en) * 2016-12-19 2019-06-11 Waymo Llc Object detection neural networks
US10223598B2 (en) * 2017-02-20 2019-03-05 Volkswagen Aktiengesellschaft Method of generating segmented vehicle image data, corresponding system, and vehicle
US11151447B1 (en) * 2017-03-13 2021-10-19 Zoox, Inc. Network training process for hardware definition
JP6565967B2 (ja) * 2017-05-12 2019-08-28 トヨタ自動車株式会社 路上障害物検出装置,方法,およびプログラム
DE102017208718A1 (de) * 2017-05-23 2018-11-29 Conti Temic Microelectronic Gmbh Verfahren zur Erkennung von Objekten in einem Bild einer Kamera
CN116918718A (zh) * 2017-08-07 2023-10-24 杰克逊实验室 长期且连续的动物行为监测
CN107563994B (zh) * 2017-08-08 2021-03-09 北京小米移动软件有限公司 图像的显著性检测方法及装置
US10496891B2 (en) * 2017-08-17 2019-12-03 Harman International Industries, Incorporated Driver assistance system and method for object detection and notification
CN115620545A (zh) * 2017-08-24 2023-01-17 北京三星通信技术研究有限公司 用于辅助驾驶的增强现实的方法及装置
US10311311B1 (en) * 2017-08-31 2019-06-04 Ambarella, Inc. Efficient two-stage object detection scheme for embedded device
CN109427343B (zh) * 2017-09-04 2022-06-10 比亚迪股份有限公司 导盲语音处理方法、装置及系统
US10509413B2 (en) * 2017-09-07 2019-12-17 GM Global Technology Operations LLC Ground reference determination for autonomous vehicle operations
US20190108400A1 (en) * 2017-10-05 2019-04-11 Qualcomm Incorporated Actor-deformation-invariant action proposals
CN108875496B (zh) * 2017-10-20 2022-09-02 北京旷视科技有限公司 行人画像的生成及基于画像的行人识别
KR102206527B1 (ko) * 2017-11-07 2021-01-22 재단법인대구경북과학기술원 시맨틱 분할 맵을 이용한 영상 데이터 처리 장치 및 제어 방법
FR3074595B1 (fr) * 2017-12-04 2021-01-01 Renault Sas Procede d’identification d’une cible au moyen d’une camera embarquee haute resolution
US10509410B2 (en) * 2017-12-06 2019-12-17 Zoox, Inc. External control of an autonomous vehicle
EP3495992A1 (de) * 2017-12-07 2019-06-12 IMRA Europe SAS Gefahreneinstufung mit tiefen neuronalen ende-zu-ende-netzwerken
US10514462B2 (en) * 2017-12-13 2019-12-24 Luminar Technologies, Inc. Training a machine learning based model of a vehicle perception component based on sensor settings
US11282389B2 (en) 2018-02-20 2022-03-22 Nortek Security & Control Llc Pedestrian detection for vehicle driving assistance
WO2019171116A1 (en) * 2018-03-05 2019-09-12 Omron Corporation Method and device for recognizing object
CN108537117B (zh) * 2018-03-06 2022-03-11 哈尔滨思派科技有限公司 一种基于深度学习的乘客检测方法和系统
US10836379B2 (en) * 2018-03-23 2020-11-17 Sf Motors, Inc. Multi-network-based path generation for vehicle parking
US10983524B2 (en) * 2018-04-12 2021-04-20 Baidu Usa Llc Sensor aggregation framework for autonomous driving vehicles
US10678249B2 (en) 2018-04-20 2020-06-09 Honda Motor Co., Ltd. System and method for controlling a vehicle at an uncontrolled intersection with curb detection
US20190332109A1 (en) * 2018-04-27 2019-10-31 GM Global Technology Operations LLC Systems and methods for autonomous driving using neural network-based driver learning on tokenized sensor inputs
WO2020028116A1 (en) * 2018-07-30 2020-02-06 Optimum Semiconductor Technologies Inc. Object detection using multiple neural networks trained for different image fields
CN109147389B (zh) * 2018-08-16 2020-10-09 大连民族大学 自主汽车或者辅助驾驶系统规划路线的方法
US10901417B2 (en) 2018-08-31 2021-01-26 Nissan North America, Inc. Autonomous vehicle operational management with visual saliency perception control
US11430084B2 (en) * 2018-09-05 2022-08-30 Toyota Research Institute, Inc. Systems and methods for saliency-based sampling layer for neural networks
DE102018215055A1 (de) * 2018-09-05 2020-03-05 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Bestimmen einer Spurwechselangabe eines Fahrzeugs, ein computerlesbares Speichermedium und ein Fahrzeug
US11105924B2 (en) * 2018-10-04 2021-08-31 Waymo Llc Object localization using machine learning
KR102572784B1 (ko) * 2018-10-25 2023-09-01 주식회사 에이치엘클레무브 운전자 보조 시스템 및 그 제어방법
US11137762B2 (en) * 2018-11-30 2021-10-05 Baidu Usa Llc Real time decision making for autonomous driving vehicles
US11782158B2 (en) 2018-12-21 2023-10-10 Waymo Llc Multi-stage object heading estimation
US10628688B1 (en) * 2019-01-30 2020-04-21 Stadvision, Inc. Learning method and learning device, and testing method and testing device for detecting parking spaces by using point regression results and relationship between points to thereby provide an auto-parking system
CN113811886B (zh) 2019-03-11 2024-03-19 辉达公司 自主机器应用中的路口检测和分类
CN109978881B (zh) * 2019-04-09 2021-11-26 苏州浪潮智能科技有限公司 一种图像显著性处理的方法和装置
JP2021006011A (ja) * 2019-06-27 2021-01-21 株式会社クボタ 農作業車のための障害物検出システム
US11120566B2 (en) * 2019-06-28 2021-09-14 Baidu Usa Llc Determining vanishing points based on feature maps
US11198386B2 (en) 2019-07-08 2021-12-14 Lear Corporation System and method for controlling operation of headlights in a host vehicle
CN110332929A (zh) * 2019-07-10 2019-10-15 上海交通大学 车载行人定位系统及方法
CN112307826A (zh) * 2019-07-30 2021-02-02 华为技术有限公司 行人检测方法、装置、计算机可读存储介质和芯片
US20210056357A1 (en) * 2019-08-19 2021-02-25 Board Of Trustees Of Michigan State University Systems and methods for implementing flexible, input-adaptive deep learning neural networks
JP6932758B2 (ja) * 2019-10-29 2021-09-08 三菱電機インフォメーションシステムズ株式会社 物体検出装置、物体検出方法、物体検出プログラム、学習装置、学習方法及び学習プログラム
CN111688720A (zh) * 2019-12-31 2020-09-22 的卢技术有限公司 一种构建结合地图的可视化驾驶方法及系统
US11734767B1 (en) 2020-02-28 2023-08-22 State Farm Mutual Automobile Insurance Company Systems and methods for light detection and ranging (lidar) based generation of a homeowners insurance quote
US11485197B2 (en) 2020-03-13 2022-11-01 Lear Corporation System and method for providing an air quality alert to an occupant of a host vehicle
US11663550B1 (en) * 2020-04-27 2023-05-30 State Farm Mutual Automobile Insurance Company Systems and methods for commercial inventory mapping including determining if goods are still available
US11315429B1 (en) 2020-10-27 2022-04-26 Lear Corporation System and method for providing an alert to a driver of a host vehicle
CN112702514B (zh) * 2020-12-23 2023-02-17 北京小米移动软件有限公司 图像获取方法、装置、设备及存储介质
CN112836619A (zh) * 2021-01-28 2021-05-25 合肥英睿系统技术有限公司 嵌入式车载远红外行人检测方法、系统、设备及存储介质
CN113485384B (zh) * 2021-09-06 2021-12-10 中哲国际工程设计有限公司 一种基于物联网的无障碍导引系统
CN113936197B (zh) * 2021-09-30 2022-06-17 中国人民解放军国防科技大学 一种基于视觉显著性对图像进行目标检测的方法和系统
CN117237881B (zh) * 2023-11-16 2024-02-02 合肥中科类脑智能技术有限公司 三跨塔的绝缘子异常监测方法及装置、计算机设备

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3549569B2 (ja) * 1993-04-27 2004-08-04 ソニー エレクトロニクス インコーポレイテッド 映像内の目標パターン探知方法
US20050047647A1 (en) * 2003-06-10 2005-03-03 Ueli Rutishauser System and method for attentional selection
JP2007148835A (ja) * 2005-11-28 2007-06-14 Fujitsu Ten Ltd 物体判別装置、報知制御装置、物体判別方法および物体判別プログラム
JP2008021034A (ja) * 2006-07-11 2008-01-31 Fujitsu Ten Ltd 画像認識装置、画像認識方法、歩行者認識装置および車両制御装置
EP2215588B1 (de) * 2007-11-28 2012-04-04 Honda Research Institute Europe GmbH Künstliches kognitives system mit amari-dynamiken eines neuralen feldes
CN102201059A (zh) * 2011-05-20 2011-09-28 北京大学深圳研究生院 一种行人检测方法及装置
US8837820B2 (en) * 2012-05-25 2014-09-16 Xerox Corporation Image selection based on photographic style
US9275308B2 (en) * 2013-05-31 2016-03-01 Google Inc. Object detection using deep neural networks
US9070023B2 (en) * 2013-09-23 2015-06-30 Toyota Motor Engineering & Manufacturing North America, Inc. System and method of alerting a driver that visual perception of pedestrian may be difficult
CN104036258A (zh) * 2014-06-25 2014-09-10 武汉大学 一种基于稀疏表示处理低分辨率下的行人检测方法
CN104301585A (zh) * 2014-09-24 2015-01-21 南京邮电大学 一种运动场景中特定种类目标实时检测方法
CN104408725B (zh) * 2014-11-28 2017-07-04 中国航天时代电子公司 一种基于tld优化算法的目标重捕获系统及方法
CN104537360B (zh) * 2015-01-15 2018-01-02 上海博康智能信息技术有限公司 车辆未让行违章检测方法及其检测系统
CN105022990B (zh) * 2015-06-29 2018-09-21 华中科技大学 一种基于无人艇应用的水面目标快速检测方法
US10410096B2 (en) * 2015-07-09 2019-09-10 Qualcomm Incorporated Context-based priors for object detection in images
US9569696B1 (en) * 2015-08-12 2017-02-14 Yahoo! Inc. Media content analysis system and method
US9740944B2 (en) * 2015-12-18 2017-08-22 Ford Global Technologies, Llc Virtual sensor data generation for wheel stop detection
CN106127164B (zh) * 2016-06-29 2019-04-16 北京智芯原动科技有限公司 基于显著性检测和卷积神经网络的行人检测方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"ImageNet Classification with Deep Convolutional Neural Networks" von A. Krizhevsky, I. Sutskever, G. Hinton (Neural Information Processing Systems Conference, 2012)
"Pedestrian Detection with a Large-Field-Of-View Deep Network", A. Angelova, A. Krizhevsky, V. Vanhoucke (IEEE International Conference on Robotics and Automation ICRA 2015)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018205879A1 (de) 2018-04-18 2019-10-24 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Verarbeitung von Sensordaten
WO2019201565A1 (de) 2018-04-18 2019-10-24 Volkswagen Aktiengesellschaft Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur verarbeitung von sensordaten
US11935250B2 (en) 2018-04-18 2024-03-19 Volkswagen Aktiengesellschaft Method, device and computer-readable storage medium with instructions for processing sensor data
DE102018217277A1 (de) * 2018-10-10 2020-04-16 Zf Friedrichshafen Ag LIDAR-Sensor, Fahrzeug sowie Verfahren für einen LIDAR-Sensor
FR3092545A1 (fr) * 2019-02-08 2020-08-14 Psa Automobiles Sa Assistance à la conduite d’un véhicule, par détermination de la voie de circulation dans laquelle est situé un objet
DE102019206083A1 (de) * 2019-04-29 2020-10-29 Robert Bosch Gmbh Verfahren zur optischen Inspektion, Kamerasystem und Fahrzeug

Also Published As

Publication number Publication date
CN106980814A (zh) 2017-07-25
RU2017100270A (ru) 2018-07-16
GB2548200A (en) 2017-09-13
GB201700496D0 (en) 2017-02-22
US20170206426A1 (en) 2017-07-20
MX2017000688A (es) 2017-10-23

Similar Documents

Publication Publication Date Title
DE102017100199A1 (de) FUßGÄNGERERKENNUNG MIT AUFFÄLLIGKEITSKARTEN
DE102017105903A1 (de) Fussgängerdetektion und Bewegungsvorhersage mit nach hinten gerichteter Kamera
DE102017116213A1 (de) Fahrspurerkennung mit rückfahrkamera
DE102016123878A1 (de) Fahrzeugblinksignaldetektion
DE102016120507A1 (de) Prädizieren von fahrzeugbewegungen anhand von fahrerkörpersprache
DE102016120508A1 (de) Autonomes Fahren an Kreuzungen basierend auf Wahrnehmungsdaten
DE102017123180A1 (de) Rückwertige Hinderniserkennung und Abstandsschätzung
DE102018107344A1 (de) Hinderniserfassungssysteme und -verfahren
DE102017116212A1 (de) STRAßENANSATZERKENNUNG MIT RÜCKFAHRKAMERA
DE102017126790A1 (de) Erkennen und Reagieren auf Rettungsfahrzeuge auf einer Fahrbahn
DE102017113572A1 (de) Spurerkennungssysteme und -verfahren
DE112019000048T5 (de) Bestimmung eines befahrbaren freiraums für autonome fahrzeuge
DE112019000279T5 (de) Steuern autonomer fahrzeuge anhand sicherer ankunftszeiten
DE102018109459A1 (de) Navigationsgestützte kollisionsvermeidung an kreuzungen
DE102017120709A1 (de) Gegenstandsabstandsschätzung unter verwendung von daten von einer einzigen kamera
DE102017105661A1 (de) Fahrzeug-fahrspurgrenzposition
DE102018105417A1 (de) Fahrzeugortung unter verwendung von kameras
DE102017100029A1 (de) Vorhersage einer fahrerabsicht an einer kreuzung
DE102019205228A1 (de) Einfädelverhaltenssysteme und Verfahren für Fahrzeuge auf einer Hauptspur
DE102017127346A1 (de) Bremslichterkennung
DE102020127043A1 (de) Sicherheitssystem für ein fahrzeug
DE102017100013A1 (de) Bestimmen der fahrerabsicht an strassenverkehrskreuzungen zum vermeiden der kollision von automobilen
DE112018005340T5 (de) Informationsverarbeitungsvorrichtung, fahrzeug, mobiles objekt, informationsverarbeitungsverfahren und programm
DE102016119135A1 (de) Wahrnehmungsbasierte Geschwindigkeitsbegrenzungsschätzung und Lernen
DE102019115455A1 (de) Fokus-basiertes markieren von sensordaten

Legal Events

Date Code Title Description
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee