DE102019102216A1 - Fusion von Frontfahrzeugsensordaten zur Erkennung und zur Bestimmung der Entfernung von vorausfahrenden Objekten - Google Patents

Fusion von Frontfahrzeugsensordaten zur Erkennung und zur Bestimmung der Entfernung von vorausfahrenden Objekten Download PDF

Info

Publication number
DE102019102216A1
DE102019102216A1 DE102019102216.9A DE102019102216A DE102019102216A1 DE 102019102216 A1 DE102019102216 A1 DE 102019102216A1 DE 102019102216 A DE102019102216 A DE 102019102216A DE 102019102216 A1 DE102019102216 A1 DE 102019102216A1
Authority
DE
Germany
Prior art keywords
sensed parameter
vehicle
distance
image
preceding object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019102216.9A
Other languages
English (en)
Inventor
Trenton B. LINDHOLM
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Engineering and Manufacturing North America Inc
Original Assignee
Toyota Motor Engineering and Manufacturing North America Inc
Toyota Engineering and Manufacturing North America Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Engineering and Manufacturing North America Inc, Toyota Engineering and Manufacturing North America Inc filed Critical Toyota Motor Engineering and Manufacturing North America Inc
Publication of DE102019102216A1 publication Critical patent/DE102019102216A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • B60W30/162Speed limiting therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/93185Controlling the brakes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9319Controlling the accelerator
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Electromagnetism (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Image Analysis (AREA)

Abstract

Die vorliegende Offenbarung bezieht sich auf ein Verfahren zum Bestimmen des Abstandes zwischen den Fahrzeugen während des adaptiven Cruise Control (ACC). Darüber hinaus ist das Verfahren auf die Integration mehrerer Sensormodalitäten ausgerichtet, um den Abstand zwischen den Fahrzeugen im Nahbereich genau zu bestimmen. Dieser Ansatz nutzt standardmäßige, fahrzeugbasierte Sensoren und Verarbeitungsschaltungen, um die Auswahl der Sensormodalitäten bei der Entfernungsbestimmung zwischen Fahrzeugen zu verbessern.

Description

  • HINTERGRUND
  • Adaptive Cruise Control (ACC)-Systeme erhöhen die Sicherheit und das Vertrauen des Fahrers, indem sie frontseitige Sensoren verwenden, um die Größe, Geschwindigkeit und Entfernung von vorausgehenden Objekten zu erfassen. In dem Fall, in dem der Fahrer sich dafür entscheidet, ACC für die Längssteuerung zu verwenden, kann das ACC einen Befehl zum Ändern der Geschwindigkeit des Fahrzeugs erzeugen, um einen sicheren Fahrabstand zwischen den Fahrzeugen einzuhalten. Das US-Patent Nr. US 7,457,699 B1 mit dem Titel „Technique for detecting truck trailer for stop and go adaptive cruise control“ von Chia richtet sich an einen radarbasierten Ansatz zur Erkennung von Nahbereichs-LKW-Anhängern, die sonst ungenau vorhergesagt werden könnten. Während dieser Ansatz darauf abzielt, die Erkennung von Fahrzeugen mit inkonsistenten hinteren Ebenen zu verbessern (d.h. Baumaterialien, die aus einer Ladefläche herausragen, LKW-Anhänger in einem Abstand über den Reifen), bleibt das Radar im Nahbereich suboptimal und erfordert daher einen neuen Ansatz zur Erkennung vorausfahrender Objekte.
  • Die vorstehende Beschreibungseinleitung zum Thema „Hintergrund“ dient dazu, den Kontext der Offenbarung allgemein darzustellen. Arbeiten der Erfinder, soweit sie in diesem Hintergrundabschnitt beschrieben sind, sowie Aspekte der Beschreibung, die zum Zeitpunkt der Anmeldung nicht als Stand der Technik gelten können, werden weder ausdrücklich noch stillschweigend als Stand der Technik gegenüber der vorliegenden Erfindung anerkannt.
  • Kurzfassung der Erfindung
  • Die vorliegende Offenbarung bezieht sich auf ein Verfahren, eine Vorrichtung und ein computerlesbares Medium, die zum Bestimmen eines Abstands zwischen einem Fahrzeug und einem vorausfahrenden Objekt konfiguriert sind, und dies umfassend das Erfassen eines ersten erfassten bzw. sensierten Parameters, der sich auf den Abstand zwischen dem Fahrzeug und dem vorausfahrenden Objekt bezieht, über eine erste Sensormodalität, das Bestimmen einer Größe des ersten sensierten Parameters, der über die erste Sensormodalität erfasst wurde, über eine Verarbeitungsschaltung, das Erfassen eines zweiten erfassten bzw. sensierten Parameters, der sich auf den Abstand zwischen dem Fahrzeug und dem vorausfahrenden Objekt bezieht, über eine zweite Sensormodalität, das Bestimmen, über eine Verarbeitungsschaltung, einer Größe des zweiten sensierten Parameters, der über die zweite Sensormodalität erfasst wurde.
  • Gemäß einer Ausführungsform ist die vorliegende Offenbarung ferner darauf bezogen, per Kamera ein auf das vorausfahrende Objekt bezogenes Bild aufzunehmen, das auf das vorausfahrende Objekt bezogene Bild zu klassifizieren und den ersten erfassten Parameter, den zweiten erfassten Parameter oder eine Kombination davon auszuwählen, und dies basierend auf der Klassifizierung des auf das vorausfahrende Objekt bezogenen Bildes.
  • Die vorstehenden Absätze wurden zur allgemeinen Einführung angegeben und diese sollen den Umfang der folgenden Ansprüche nicht einschränken. Die beschriebenen Ausführungsformen und weitere Vorteile lassen sich am besten anhand der folgenden detaillierten Beschreibung in Verbindung mit den beigefügten Zeichnungen verstehen.
  • Figurenliste
  • Ein umfassenderes Verständnis der Offenbarung und vieler der damit verbundenen Vorteile wird leicht erreicht, da diese durch die folgende detaillierte Beschreibung besser verstanden wird, wenn sie im Zusammenhang mit den beigefügten Zeichnungen betrachtet wird, wobei in der Zeichnung das Folgende angegeben ist:
    • 1 ist eine Darstellung eines Benutzerfahrzeugs in Bezug auf ein vorausfahrendes Fahrzeug gemäß einer exemplarischen Ausführungsform der vorliegenden Offenbarung;
    • 2 ist ein Flussdiagramm auf hoher Ebene eines adaptiven Geschwindigkeitsregelsystems der vorliegenden Offenbarung, und dies einschließlich der Steuereinheit des Fahrunterstützungssystems und der Fahrgeschwindigkeitsregelanlage;
    • 3 ist ein Blockdiagramm eines Fahrgeschwindigkeitsreglers gemäß einer exemplarischen Ausführungsform der vorliegenden Offenbarung;
    • 4 ist eine Darstellung der Identifizierung eines vorausfahrenden Fahrzeugs gemäß einer exemplarischen Ausführungsform der vorliegenden Offenbarung;
    • ist ein Flussdiagramm auf hoher Ebene einer exemplarischen Ausführungsform der vorliegenden Offenbarung;
    • 6 ist ein Flussdiagramm des Erkennens und der Entfernungsbestimmung gemäß einer exemplarischen Ausführungsform der vorliegenden Offenbarung;
    • 7A ist eine Darstellung des Erkennens und der Entfernungsbestimmung gemäß einer exemplarischen Ausführungsform;
    • 7B ist eine Darstellung des Erkennens und der Entfernungsbestimmung gemäß einer exemplarischen Ausführungsform;
    • 7C ist eine Darstellung des Erkennens und der Entfernungsbestimmung gemäß einer exemplarischen Ausführungsform;
    • 8A ist eine Darstellung der Objekterkennung während des Erkennens und der Entfernungsbestimmung gemäß einer exemplarischen Ausführungsform der vorliegenden Offenbarung;
    • 8B ist eine Darstellung der Objekterkennung während des Erkennens und der Entfernungsbestimmung gemäß einer exemplarischen Ausführungsform der vorliegenden Offenbarung;
    • 8C ist eine Darstellung der Objekterkennung während des Erkennens und der Entfernungsbestimmung gemäß einer exemplarischen Ausführungsform der vorliegenden Offenbarung; und
    • 9 ist ein Blockdiagramm einer Hardwarebeschreibung eines Computers, der konfiguriert ist, um das Erfassen, Entfernungsbestimmen und Steuern gemäß einer exemplarischen Ausführungsform der vorliegenden Offenbarung auszuführen.
  • DETAILLIERTE BESCHREIBUNG
  • Die hierin verwendeten Begriffe „ein“ oder „eine“ oder „eines“ sind definiert als einer oder mehrere. Der Begriff „Mehrzahl“, wie er hierin verwendet wird, ist definiert als zwei oder mehr als zwei. Der Begriff „andere“, wie hierin verwendet, ist definiert als mindestens ein zweites oder mehr. Die hierin verwendeten Begriffe „einschließlich“ und/oder „mit“ sind definiert als umfassend (d.h. in offener Sprache). Der Verweis in diesem Dokument auf „eine Ausführungsform“, „bestimmte Ausführungsformen“, „eine Ausführungsform“, „eine Implementierung“, „ein Beispiel“ oder ähnliche Begriffe bedeutet, dass ein bestimmtes Merkmal, eine bestimmte Struktur oder ein bestimmtes Merkmal, das in Verbindung mit der Ausführungsform beschrieben wird, in mindestens einer Ausführungsform der vorliegenden Offenbarung enthalten ist. Daher beziehen sich die Erscheinungsformen solcher Phrasen oder an verschiedenen Stellen in dieser Spezifikation nicht unbedingt alle auf die gleiche Ausführungsform. Darüber hinaus können die besonderen Merkmale, Strukturen oder Merkmale in geeigneter Weise in einer oder mehreren Ausführungsformen uneingeschränkt miteinander kombiniert werden.
  • Der adaptive Geschwindigkeitsregler (ACC) wird in modernen Fahrzeugen häufig eingesetzt, um die Sicherheit der Fahrgäste zu verbessern. Dazu misst der ACC aktiv den Abstand zwischen dem Fahrzeug eines Benutzers und einem vorausfahrenden Fahrzeug und integriert diese Abstandsinformationen mit bekannten Geschwindigkeitsinformationen des Fahrzeugs des Benutzers, um zusätzlich zu anderen Eingaben zu bestimmen, ob die Geschwindigkeit des Benutzerfahrzeugs angepasst werden muss, um eine vorgegebene Nachlaufstrecke einzuhalten oder eine Sollgeschwindigkeit zu erreichen. Häufig erfolgt die Distanzierung bzw. Beabstandungsmessung über Radar, ein hocheffektives System zur Bestimmung des Abstands eines Fahrzeugs in idealen Situationen (z.B. Autobahnfahrt im Abstand). Im Stop-and-Go-Verkehr jedoch oder wenn das vorausfahrende Fahrzeug eine große Last trägt, die sich von der hinteren Ebene des Fahrzeugs aus erstreckt, kann die Genauigkeit der radargestützten Informationen abnehmen, was sich auf die Fähigkeit von ACC auswirkt, die Fahrzeuggeschwindigkeit ordnungsgemäß zu steuern und Kollisionen zu vermeiden.
  • Dieser Mangel ist das Ergebnis der technischen Grundlage des in Fahrzeugen eingesetzten radarbasierten Systems. Radarsender senden einen schmalen Strahl von Radiowellen aus, die mit Objekten in Berührung kommen und in verschiedene Richtungen reflektiert oder gestreut werden. Da ein Teil der Wellen in bekannten Zeit- und Frequenzintervallen reflektiert und mit einem Empfänger empfangen wird, kann der Abstand zum vorausfahrenden Objekt bestimmt werden. Um jedoch einen Abstand aus der Vielzahl der Signale zu bestimmen, wird ein Schwerpunkt mit dem höchsten Reflexionsvermögen des vorausfahrenden Objekts gewählt. Dieser Schwerpunkt kann einen großen Teil der hinteren Perspektive bzw. des Hinterteils des vorausfahrenden Fahrzeugs umfassen, dieser kann aber auch nur einen kleinen Teil des vorausfahrenden Fahrzeugs darstellen. Diese Abweichungen können beispielsweise bei einem Tieflader mit Stahl-I-Trägern zu einer ungenauen Bestimmung des wahren Abstands zum hintersten Teil des vorausgehenden Fahrzeugs führen. Wenn sich beispielsweise ein Benutzerfahrzeug einem vorausfahrenden Fahrzeug nähert, kann das vorausfahrende Fahrzeug und irgendein hinterer Aspekt den schmalen Kegel der vom Benutzerfahrzeug ausgesendeten Radiowellen verlassen, und somit das Sichtfeld des Radars verlassen und unauffindbar werden. An dieser Stelle ist eine effiziente Abstandsmesstechnologie für den Nahbereich erforderlich.
  • Aus diesem Grund, wie hierin beschrieben, stellt die vorliegende Offenbarung ein System zur Integration von Kamera, Radar und Sonar bereit, um die Abstände zwischen Fahrzeugen über einen weiten Bereich von Entfernungen genau zu bestimmen.
  • 1 ist eine Darstellung eines Benutzerfahrzeugs in Bezug auf ein vorausfahrendes Fahrzeug gemäß einer exemplarischen Ausführungsform der vorliegenden Offenbarung. Ein vorhandenes Fahrzeug 105 fährt in einem Abstand und mit einer bekannten Geschwindigkeit hinter einem vorausgehenden Fahrzeug 110. In einer Ausführungsform ist das vorliegende Fahrzeug 105 ein Benutzerfahrzeug 115, das zur Personenbeförderung ausgestattet ist, und das vorausfahrende Fahrzeug 110 ist ein Tieflader 121, der zum Transport von schwerem Gerät ausgestattet ist. In einer Ausführungsform befindet sich ein hinterer Aspekt eines Tiefladers 122 des Tiefladers 121 nicht im Radarsichtfeld 111 des Nutzerfahrzeugs 115. Dieser hintere Teil des Tiefladers 122 des Tiefladers 121, der aufgrund seiner Nähe zum Nutzerfahrzeug 115 nicht radartechnisch rückverfolgbar ist, befindet sich jedoch im Sonarblickfeld 112 des Nutzerfahrzeugs 115. In einer Ausführungsform reflektiert die schwere Ausrüstung oder ähnliches eines Tiefladers 122 des Tiefladers 121 Funkwellen mit hoher Intensität. Obwohl diese nicht der hinterste Teil des Tiefladers 121 ist, kann diese schwere Ausrüstung die Fähigkeit des Radarsystems, den Abstand zum Tieflader 122 genau zu bestimmen, überproportional beeinträchtigen. Dadurch kann der tatsächliche Abstand zwischen dem Nutzerfahrzeug 115 und dem Heck des Tiefladers 121 verschleiert werden. Frontseitige Kameras des Benutzerfahrzeugs 115 erfassen die Bilder 113 des vorausfahrenden Fahrzeugs. Diese aufgenommenen Bilder 113 werden verwendet, um die Identität des vorausgehenden Fahrzeugs zu bestimmen und die Genauigkeit der oben genannten Abstandsmesstechniken weiter zu bestimmen, da die Fähigkeit der Abstandsmesstechniken durch den Fahrzeugtyp (d.h. Form, Größe, Ladung) beeinflusst wird.
  • Während bekannt ist, dass Radar bei der Bestimmung größerer Entfernungen effektiv ist, ist das Sonar aufgrund der technischen Einschränkungen bei der Verwendung von Schallwellen bei der Bestimmung kleinerer Entfernungen effektiver. Daher ist es in einer exemplarischen Ausführungsform erforderlich, dass das Benutzerfahrzeug, sowie sich ein vorausgehendes Fahrzeug der Grenze zwischen diesen beiden Abstandsmessansätzen nähert, eine Entscheidung darüber trifft, welchen Abstandsmessansatz es verwenden soll. Basierend auf der Identifizierung des vorausgehenden Fahrzeugs und seiner vorhergesagten Entfernung kann es angebracht sein, nur Radar, nur Sonar oder die beiden Ansätze zu verwenden, um die genaueste Entfernung zu erreichen.
  • 2 ist ein Flussdiagramm auf hoher Ebene bzw. auf Übersichtsebene eines adaptiven Geschwindigkeitsregelsystems der vorliegenden Offenbarung. Von links nach rechts skizziert 2 die Eingaben bzw. Stimuli, die an eine Steuereinheit 230 des Fahrunterstützungssystems geliefert werden, das für die genaue Bestimmung des Abstands zu einem vorausfahrenden Fahrzeug verantwortlich ist, wobei dies ein Wert ist, der dann an das Fahrgeschwindigkeitssteuergerät 235 geliefert wird, um die Fahrzeuggeschwindigkeit zu ändern.
  • Wie in 2 dargestellt, beinhaltet das Fahrzeugsteuerungssystem 200, ist aber nicht darauf beschränkt, eine Kamera 203 zum Erfassen von vorausfahrenden Objekten, eine Radarausrüstung 201 zum Bestimmen des Abstands zwischen vorausfahrenden Objekten und dem vorliegenden Fahrzeug, eine Sonarausrüstung 202 zum Bestimmen des Abstands zwischen vorausfahrenden Objekten und dem vorliegenden Fahrzeug, einen Fahrgeschwindigkeitssensor 204, der die Fahrgeschwindigkeit des vorliegenden Fahrzeugs erfasst, eine Steuereinheit 230 des Fahrunterstützungssystems und eine Fahrgeschwindigkeitssteuereinheit 235. Die Steuereinheit 230 des Fahrunterstützungssystems beinhaltet, ist aber nicht darauf beschränkt, eine Objekterkennungseinrichtung 233, die aufgenommene Bilder von der Kamera 203 verwendet, ein Entfernungsbestimmungsmittel 231, eine Radarintensitätsbestimmungseinrichtung 234 und eine Sonarauflösungsbestimmungseinrichtung 232. Das Entfernungsbestimmungsmittel 231 verwendet Daten von der Radarausrüstung 201 und der Sonarausrüstung 202 im Zusammenhang mit der Ausgabe von der Radarintensitätsbestimmungseinrichtung 234 und der Sonarauflösungsbestimmungseinrichtung 232, um den Abstand zwischen dem vorausgehenden Fahrzeug und dem vorliegenden Fahrzeug zu bestimmen. Sobald ein Abstand durch das Entfernungsbestimmungsmittel 231 bestimmt wurde, wird der Wert an die Fahrgeschwindigkeitssteuereinheit 235 zum Einstellen der aktuellen Fahrzeuggeschwindigkeit geliefert, falls geeignet.
  • Gemäß einer Ausführungsform erfasst die Kamera 203 mindestens ein Bild der vorausfahrenden Ansicht, und dies einschließlich aller Objekte innerhalb dieser Ansicht, und die Kamers 203 gibt das aufgenommene Bild an die Steuereinheit 230 des Fahrunterstützungssystems aus. Das von der Kamera 203 aufgenommene Bild kann zur Objekterkennung verwendet werden, um das Entfernungsbestimmungsmittel zu informieren und die seitliche Anwesenheit eines Fahrzeugs im Sichtfeld zu registrieren. Das Vorhandensein eines Fahrzeugs und seine räumliche Lage sind in Situationen von Umweltbelastungen (d.h. unerwarteten Spurwechseln) entscheidend, so dass die Fahrzeuggeschwindigkeit schnell gesteuert werden kann. Die Daten werden kontinuierlich von der Kamera 203 erfasst, um der Steuereinheit 230 des Fahrunterstützungssystems Echtzeit-Objektdaten zur Verfügung zu stellen. In einer Ausführungsform ist die Kamera 203 eine Kamera mit sichtbarem Licht, eine Infrarotkamera oder eine Kombination davon.
  • Gemäß einer Ausführungsform ist die Radarausrüstung 201 ein Millimeterwellenradar zum Erfassen eines vorausfahrenden Objekts, einschließlich eines Fahrzeugs, und zum Messen der Entfernung zwischen dem gegenwärtigen Fahrzeug und dem vorausfahrenden Fahrzeug. Die fahrzeugbasierte Millimeterwellenradarausrüstung 201 mischt gesendete Wellen (Millimeterwellen), die von einem Sender ausgesendet werden, und empfangene Wellen, die vom vorausfahrenden Fahrzeug reflektiert werden, um eine Schwebungsfrequenz im gemischten Signal zu extrahieren, wodurch Informationen über eine Entfernung zwischen dem aktuellen Fahrzeug und dem vorausgehenden Fahrzeug erfasst werden. Diese Abstandsinformationen werden dann an das die Steuereinheit 230 des Fahrunterstützungssystems ausgegeben. In einer Ausführungsform werden Informationen über den Abstand zum vorausfahrenden Fahrzeug durch Lokalisation eines Schwerpunktes von reflektierten Funkwellen bestimmt, die am Empfänger erfasst werden. Ähnlich wie bei einer Wärmekarte wird eine pixelgenaue Darstellung der Radiowellenintensitäten erzeugt und es wird als der Heckaspekt bzw. das hinterste Teil des vorausfahrenden Fahrzeugs ein Bereich mit der höchsten Intensität ausgewählt. In einer weiteren Ausführungsform werden Informationen über den Abstand zum vorausfahrenden Fahrzeug aus den Wellenformspitzen eines Frequenzspektrums bestimmt, die mit Objekten in einem Sichtfeld korreliert sind. Die Daten werden kontinuierlich von der Radarausrüstung 201 erfasst, um der Steuereinheit 230 des Fahrunterstützungssystems Echtzeitdaten zur Verfügung zu stellen.
  • Gemäß einer Ausführungsform verwendet die Sonarausrüstung 202, wie aus dem Stand der Technik bekannt, Schallwellen aus nächster Nähe bzw. im Nahbereich, um einen Abstand zwischen einem gegenwärtigen Fahrzeug und einem vorausfahrenden Objekt, wie beispielsweise einem Fahrzeug, zu bestimmen. Die fahrzeugbasierte Sonarausrüstung 202 misst einen Zeitraum von einer Zeit, in der eine für den Menschen unhörbare Ultraschallwelle abgegeben wird, bis zu einer Zeit, in der die vom Vorgänger reflektierten Wellen wieder bei der Sonarausrüstung 202 ankommen. Diese Zeitbereichsdaten informieren über die Entfernungsbestimmung, deren Ausgang an die Steuereinheit 230 des Fahrunterstützungssystems geliefert wird. Die Daten werden kontinuierlich von der Sonarausrüstung 202 erfasst, um der Steuereinheit 230 des Fahrunterstützungssystems Echtzeitdaten zur Verfügung zu stellen.
  • Gemäß einer Ausführungsform erfasst der Fahrgeschwindigkeitssensor 204 eine Fahrgeschwindigkeit des aktuellen Fahrzeugs und gibt die Fahrgeschwindigkeit an die Steuereinheit 230 des Fahrunterstützungssystems aus. Diese Fahrgeschwindigkeit wird mit dem bestimmten Abstand von der Fahrunterstützungssystem-Steuereinheit 230 gebündelt und durch die Fahrunterstützungssystem-Steuereinheit 230 zur Fahrgeschwindigkeitssteuereinheit 235 geleitet, wobei die beiden Werte von der Fahrgeschwindigkeitssteuereinheit 235 verwendet werden, um gegebenenfalls Fahrgeschwindigkeitseinstellungen zu bestimmen. Die Daten werden kontinuierlich vom Fahrgeschwindigkeitssensor 204 erfasst, um der Steuereinheit 230 und damit der Fahrgeschwindigkeitssteuereinheit 235 Echtzeitdaten zur Verfügung zu stellen.
  • Gemäß einer Ausführungsform der vorliegenden Offenbarung sind die Kamera 203, die Millimeterwellenradarausrüstung 201, die Sonarausrüstung 202 und der Fahrgeschwindigkeitssensor 204 kommerziell erhältliche Produkte, die gemäß den jeweiligen Spezifikationen implementiert werden können.
  • Gemäß einer Ausführungsform ist die Steuereinheit 230 des Fahrunterstützungssystems ein bekannter Mikrocomputer mit CPU (Zentraleinheit), ROM (Read Only Memory), RAM (Random Access Memory) und I/O (Input und Output) Schnittstelle bzw. Eingabe/Ausgabe-Schnittstelle. Das in einer Speichereinheit wie dem ROM gespeicherte Steuerprogramm ermöglicht es der CPU, als das nachfolgend beschriebene Objekterkennungsmittel 233, Entfernungsbestimmungsmittel 231, Radarintensitätsbestimmungsmittel und Sonarauflösungsbestimmungsmittel 232 zu dienen. Eine exemplarische Ausführungsform der Steuereinheit 230 des Fahrunterstützungssystems ist in dargestellt.
  • Gemäß einer Ausführungsform ist das Objekterkennungsmittel 233 konfiguriert, um basierend auf aufgenommenen Bildern von der Kameraausrüstung 203 die Identität eines vorausfahrenden Fahrzeugs zu bestimmen. Gemäß den Standardansätzen des maschinellen Lernens wird ein Algorithmus oder ein ähnliches Verfahren, wie beispielsweise ein neuronales Faltungsnetzwerk, auf einer Datenbank verfügbarer, bekannter Fahrzeuge trainiert, wobei die Klassifizierung vorausfahrender Fahrzeuge, einschließlich, aber nicht beschränkt auf, Motorräder, Autos oder Lastwagen, ermöglicht wird. Darüber hinaus können Unterklassifizierungen nach Marke und Modell bestimmt werden, um eine erhöhte Spezifität und Sensibilisierung in Bezug auf Geschwindigkeit, Gewicht und Form der vorausgehenden Fahrzeuge zu ermöglichen.
  • In einer exemplarischen Ausführungsform der Datenbank der Objekterkennungseinrichtung 233 enthält die Datenbank einen Korpus von Referenzbildern, wobei jedes Referenzbild ein identifizierbares Referenzobjekt umfasst und in der Datenbank mit einer entsprechenden Textbeschreibung des Referenzobjekts verknüpft ist. Weiterhin enthält die Datenbank eine Vielzahl von Datenstrukturen mit Bildabfrageauflösung, die jeweils eine Sammlung von Datensätzen umfassen, wobei jeder Datensatz einen Bilddeskriptor für eines der Referenzbilder enthält. Jede Datenstruktur ist daher unter Verwendung eines entsprechenden aus einem Satz von vorgegebenen Suchprozessen durchsuchbar, um einen Datensatz innerhalb der Datenstruktur zu identifizieren, der auf der Grundlage der Bilddeskriptoren am nächsten liegt.
  • Gemäß einer Ausführungsform ist das Entfernungsbestimmungsmittel 231 konfiguriert, um einen genauen Abstand zwischen den Fahrzeugen basierend auf Entfernungsdaten von der Radarausrüstung 201 und der Sonarausrüstung 202 zu bestimmen, die mit Objektdaten von der Kameraausrüstung 203 über das Objekterkennungsmittel 233 integriert sind.
  • Bei der Entfernungsbestimmung muss das Entfernungsbestimmungsmittel 231 der Steuereinheit 230 des Fahrunterstützungssystems eine geeignete Quelle zum Abstandsdatenabgleich auswählen. Zu diesem Zweck wird ein Datenstrom ausgewählt, entweder von der Radarausrüstung 201, von der Sonarausrüstung 202 oder von einer Fusion bzw. Verschmelzung der beiden Datenströme, wie sie an die Steuereinheit 230 des Fahrunterstützungssystems geliefert werden, um die Entfernung zwischen den Fahrzeugen genau zu schätzen. Bei der Bestimmung der geeigneten Datenquelle kann jeder Datenstrom in Bezug auf einen vorgegebenen Schwellenwert ausgewertet werden. Für Radar, wobei ein Signal aus einem Schwerpunkt des maximalen Reflexionsvermögens erzeugt wird, wird ein Schwellenwert auf eine vorgegebene Reflexionsvermögens-Intensität eingestellt. Intensitäten, die über diese vorgegebene Reflektionsintensität hinausgehen, gelten als genaue Darstellung der Entfernung des vorausfahrenden Objekts, d.h., ein Schwellenwert, der gemäß den Spezifikationen der Radarausrüstung 201 festgelegt wurde. Für Sonar(-vorrichtungen), bei denen ein Signal im Zusammenhang mit luftbasiertem Rauschen erzeugt wird, wird ein Schwellenwert auf eine vorgegebene Auflösung eingestellt. Auflösungen, die über diesem vorgegebenen Auflösungsschwellenwert liegen, gelten als genaue Schätzung der Entfernung des vorausfahrenden Objekts, d.h., ein Schwellenwert, der gemäß den Spezifikationen der Sonarausrüstung 202 festgelegt wurde.
  • In einer exemplarischen Ausführungsform der entfernungsbestimmenden Mittel der vorliegenden Offenbarung, wobei vorgegebene Radar- und Sonarschwellen verwendet werden, ist ein vorausgehendes Fahrzeug eine Limousine und fährt mit einer Geschwindigkeit, die relativ langsamer ist als das vorliegende Fahrzeug. Zunächst befindet sich die Limousine 20 Meter vor dem aktuellen Fahrzeug, wobei die Radarintensität über einem vorgegebenen Schwellenwert liegt und die Sonarauflösung unter einer vorgegebenen Auflösung liegt. In diesem Fall wird das Radar als ideale Modalität für die Entfernungsbestimmungsmittel gewählt. Wenn sich die Entfernung zwischen den Fahrzeugen verringert, wird eine Entfernung (z.B. 6 Meter) erreicht, bei der sowohl die Sonarauflösung als auch die Radarintensität über ihren jeweiligen Schwellenwerten liegen. Im Zusammenhang mit Informationen von der Kameraausrüstung und der Identifizierung des vorausfahrenden Fahrzeugs kann eine Bestimmung für einen Übergang (der Messung) zum Sonar erfolgen, um (die Messung) nur beim Radar zu belassen, oder um die beiden Datenströme zu einem Entfernungsausgang zu verschmelzen bzw. zu fusionieren. Da sich die Entfernung zwischen den Fahrzeugen weiter verringert, kann die Radarintensität unter den vorgegebenen Schwellenwert fallen, während das Sonar, das im Nahbereich wirksam ist, wo die Auswirkungen des Rauschens minimal sind, weiterhin eine Auflösung oberhalb eines entsprechenden Schwellenwerts anzeigt. Als Ergebnis wird das Sonar als ideale Modalität gewählt. Die oben beschriebene Methodik zur Sensorauswahl ist auch dann anwendbar, wenn der Abstand zwischen den Fahrzeugen zunimmt. Darüber hinaus bestimmt die Qualität der Datenströme in den jeweiligen fahrzeugübergreifenden Entfernungen von nah bis fern die Entscheidung zur Auswahl bzw. den Entscheidungsprozess.
  • Gemäß einer exemplarischen Ausführungsform der vorliegenden Offenbarung und wie oben beschrieben, wird die Objekterkennung gemäß den aufgenommenen Bildern der Kameraausrüstung verwendet, um bei der Auswahl der Entfernungsmodalität für die Entfernungsbestimmung zu helfen. Wenn sich ein Fahrzeug beispielsweise in Reichweite von Radar und Sonar befindet, können Daten aus jeder Datenquelle zusammengeführt werden, um eine verbesserte Ausgabe zu erzielen. Wird jedoch über die Objekterkennung festgestellt, dass es sich bei dem vorausfahrenden Fahrzeug um einen Tieflader mit Anhänger handelt, kann es sinnvoll sein, Sonardaten zu priorisieren, da die Fähigkeit des Radars, den hinteren Teil des Tiefladers genau zu erfassen, minimal ist.
  • Gemäß einer Ausführungsform steuert eine Fahrgeschwindigkeitssteuereinheit 235 die Fahrgeschwindigkeit des aktuellen Fahrzeugs basierend auf der vom Fahrer im Voraus eingestellten Fahrgeschwindigkeit und den Entfernungs- und Geschwindigkeitseingaben der Steuereinheit des Fahrunterstützungssystems. So wählt der Fahrer beispielsweise bei der Aktivierung von ACC eine gewünschte Fahrgeschwindigkeit aus. In Kenntnis der gewünschten Fahrgeschwindigkeit passt die Fahrgeschwindigkeitssteuereinheit 235 die Fahrgeschwindigkeit des Fahrzeugs über das Drosselklappensubsystem und das Bremssubsystem an, um die gewünschte Fahrgeschwindigkeit einzuhalten. In einer Ausführungsform, die über frontseitige Sensoren bestimmt wird, dass sich ein vorausfahrendes Fahrzeug im Erfassungsbereich des Fahrzeugs befindet, wird bestimmt, ob die Fahrgeschwindigkeit des Fahrzeugs geändert werden soll oder nicht. In einer exemplarischen Ausführungsform fährt ein vorausfahrendes Fahrzeug mit einer Geschwindigkeit, die relativ langsamer ist als das aktuelle Fahrzeug. Das Fahrgeschwindigkeitssteuergerät 235 kann gegebenenfalls die aktuelle Fahrgeschwindigkeit, die durch die Fahrunterstützungssystem-Steuereinheit 230 und den bestimmten Abstand zwischen den Fahrzeugen von der Fahrunterstützungssystem-Steuereinheit 230 geleitet wird, verwenden, um ein Signal zur Aktivierung des Bremssubsystems zu erzeugen. Während die Fahrgeschwindigkeit ausgleicht oder das vorausfahrende Fahrzeug aus dem Sichtfeld der nach vorne gerichteten Sensoren austritt, kann das Fahrgeschwindigkeitssteuergerät 235 jede Abweichung zwischen der aktuellen Fahrgeschwindigkeit und der Soll-Fahrgeschwindigkeit erkennen und ein entsprechendes Signal erzeugen.
  • Anschließend ist 3 ein Blockdiagramm einer Fahrgeschwindigkeitssteuereinheit und deren Verbindung mit der Steuereinheit des Fahrunterstützungssystems gemäß einer exemplarischen Ausführungsform der vorliegenden Offenbarung. Die Fahrgeschwindigkeitssteuereinheit 335 beinhaltet, ist aber nicht darauf beschränkt, ein Speichersubsystem 336, ein Drosselklappensubsystem 337, ein Bremssubsystem 339 und ein Alarm-Subsystem 338. Die Daten über die Entfernung zwischen den Fahrzeugen und die aktuelle Fahrgeschwindigkeit werden von der Steuereinheit 340 des Fahrunterstützungssystems an die Fahrgeschwindigkeitssteuereinheit 335 geliefert. Die vom Fahrer zum Zeitpunkt der ACC-Aktivierung gewählte Soll-Fahrgeschwindigkeit wird im Speicher-Subsystem 336 gespeichert. Das Speichersubsystem 336 beinhaltet im Allgemeinen eine anwendungsgerechte Menge an flüchtigem Speicher (z.B. Dynamic Random Access Memory (DRAM)) und nichtflüchtigem Speicher (z.B. Flash-Speicher, elektrisch löschbarer programmierbarer Nur-Lese-Speicher (EEPROM)). In einer Ausführungsform wird ein ausführbarer Prozessorcode zum Bestimmen der Relativgeschwindigkeitseinstellung des vorliegenden Fahrzeugs im nichtflüchtigen Speicher des Speichersubsystems 336 der Fahrgeschwindigkeitssteuereinheit 335 gespeichert.
  • Gemäß einer Ausführungsform verwenden der Geschwindigkeitsregelgeräteprozessor 341 und das Speichersubsystem 336 einen proportional-integral-derivativen Regler (PID-Regler), einen aus einer Vielzahl geeigneter adaptiver Regler, um einen angemessenen Abstand zwischen den Fahrzeugen im Zusammenhang mit der gewählten Geschwindigkeit des Tempomaten einzuhalten. Der PID-Regler, ein Regelkreis-Rückführmechanismus, ermöglicht eine kontinuierliche Modulation des Ausgangssignals durch Berechnung eines Fehlerwertes als Differenz zwischen einem gemessenen Prozess und einem gewünschten Sollwert und wendet eine Korrektur basierend auf Proportional-, Integral- und Ableitungstermen an, um den Sollwert zu erreichen. Ebenso kann der Geschwindigkeitssteuergeräteprozessor 341 im Rahmen der vorliegenden Ausführungsform Signale an das Drosselklappensubsystem 337 und gegebenenfalls das Bremssubsystem 339 erzeugen, um die Fahrzeuggeschwindigkeit um einen Sollwert zu modulieren. Falls erforderlich, kann der Prozessor der Geschwindigkeitssteuereinheit 341 Steuersignale an das Alarm-Subsystem 338 liefern, so dass es einem Fahrer des betreffenden Fahrzeugs eine visuelle und/oder akustische Rückmeldung gibt.
  • In einer exemplarischen Ausführungsform der Fahrgeschwindigkeitssteuereinheit der vorliegenden Offenbarung aktiviert ein Fahrer ACC und stellt die Geschwindigkeitssteuerung auf 80 Meilen pro Stunde ein. Ein vorausgehendes Fahrzeug, das jedoch mit einer Geschwindigkeit von 75 Meilen pro Stunde fährt, wird vor dem aktuellen Fahrzeug erkannt. Die Steuereinheit des Fahrunterstützungssystems liefert kontinuierlich Informationen über den Abstand zum vorausfahrenden Fahrzeug und die aktuelle Geschwindigkeit des aktuellen Fahrzeugs. Um einen sicheren Abstand zwischen den Fahrzeugen einzuhalten, liefert der Geschwindigkeitssteuergerätprozessor 341 ein Signal an das Bremssystem 339, um das Fahrzeug zu verlangsamen. Der Geschwindigkeitssteuergerätprozessor 341 überwacht aktiv die aktuelle Fahrzeuggeschwindigkeit und den Abstand zum vorausfahrenden Fahrzeug, wie er von der Fahrunterstützungssystem-Steuereinheit 340 kontinuierlich bereitgestellt wird, und bestimmt, wann der Abstand zwischen den Fahrzeugen angemessen ist oder die Fahrzeuggeschwindigkeit bei Bedarf geändert wird. Wenn das vorausfahrende Fahrzeug das Sichtfeld verlässt oder den Abstand zwischen den Fahrzeugen über einen Sicherheitsabstand hinaus vergrößert, kann der Geschwindigkeitssteuergerätprozessor 341 ein Signal an das Drosselklappensubsystem 337 erzeugen, um die Fahrzeuggeschwindigkeit zu erhöhen, bis der vom Fahrer gewählte Sollwert erreicht ist, wie im Speicher-Subsystem 336 gespeichert. Die Erzeugung von Befehlen an das Drosselklappensubsystem 337 und das Bremssubsystem 339 werden gemäß dem Regelkreisrückführmechanismus des PID-Reglers bestimmt. Die Verwendung eines PID-Reglers wird im Stand der Technik her offenbart, wie die US 5,335,164 A zeigt, die hierin durch Verweis aufgenommen wird.
  • Gemäß einer Ausführungsform wird der Sicherheitsabstand zwischen den Fahrzeugen in Abhängigkeit von der Fahrgeschwindigkeit des vorliegenden Fahrzeugs bestimmt. Der Sicherheitsabstand zwischen den Fahrzeugen kann ferner durch die Marke und das Modell des vorausgehenden Fahrzeugs bestimmt werden, wobei Größe, Form und Gewicht des vorausgehenden Fahrzeugs seine Fähigkeit zum Beschleunigen oder Abbremsen im Zeitbereich beeinflussen. In einer Ausführungsform können Informationen, die sich auf den Sicherheitsabstand zwischen den Fahrzeugen beziehen, und sich im Zusammenhang mit dem identifizierten vorausgehenden Fahrzeug befinden, durch Systemsoftware-Updates im Speichersubsystem 336 der Fahrgeschwindigkeitssteuereinheit 335 oder durch Cloud-basierte Systemsoftware-Updates aktualisiert werden.
  • Gemäß einer Ausführungsform beinhaltet die Fahrgeschwindigkeitssteuereinheit 335 einen bekannten Mikrocomputer mit CPU (Zentraleinheit), ROM (Read Only Memory), RAM (Random Access Memory) und I/O (Input und Output) Schnittstelle. Das in einer Speichereinheit wie dem ROM gespeicherte Steuerprogramm ermöglicht es der CPU, als die oben beschriebene Fahrgeschwindigkeitssteuereinheit 335 zu dienen.
  • 4 ist eine Darstellung der Identifizierung eines vorausfahrenden Fahrzeugs gemäß einer exemplarischen Ausführungsform der vorliegenden Offenbarung. Die Identifizierung des vorausfahrenden Fahrzeugs erfolgt über Objekterkennung und maschinelles Lernen. In einer exemplarischen Ausführungsform wird ein Standardansatz für neuronale Faltungsnetze (CNN) verwendet, wie er im Stand der Technik offenbart ist, und durch die US 7,747,070 B2 belegt ist, die hierin durch Verweis mit aufgenommen wird. Obwohl ein CNN hierin beschrieben wird, sollte es nicht als einschränkend betrachtet werden und ist lediglich repräsentativ für eine Vielzahl von Ansätzen zur Objekterkennung. Im Rahmen der vorliegenden Offenbarung wird ein CNN 450 auf einer kuratierten Datenbank mit gesammelten Bildern von hypothetischen Vorgängerobjekten 451 geschult. In einer Ausführungsform wird die kuratierte Datenbank aktiv gepflegt und aktualisiert, entweder über Systemsoftware-Updates der Objekterkennungsmittel oder über Cloud-basierte Systemsoftware-Updates. Kurz gesagt werden das Feature Learning 452 und die Zielklassifikation 453 auf der Datenbank 451 durchgeführt. Im Allgemeinen umfasst das Feature Learning 452 iterative Faltung, Aktivierung über gleichgerichtete Lineareinheiten und Pooling, während die Klassifizierung 453 die Zuordnung von erlernten Merkmalen zu bekannten Labels umfasst. Gelernte Features bzw. Merkmale (z.B. Kanten, Ecken) können manuell ausgewählt oder vom CNN über Deep Learning oder einen ähnlichen Ansatz bestimmt werden. Nach dem Training 450 des CNN wird die Prüfung 455 des CNN durchgeführt, um die Genauigkeit zu gewährleisten. Die Merkmale werden aus einem Testbild 456 extrahiert 457 und gemäß dem Trainingsklassifizierer 450 klassifiziert 458. Nach Bestätigung der Wirksamkeit des ausgebildeten Klassifikators kann die CNN in die Objekterkennungsmittel der Steuereinheit 440 des Fahrunterstützungssystems implementiert werden.
  • Gemäß einer Ausführungsform beinhaltet die Trainingsdatenbank 451 beschriftete Bilder, um Merkmale zu extrahieren und Klassifizierer zu entwickeln, um eine Vielzahl von Fahrzeugen zu identifizieren, und dies einschließlich, aber nicht beschränkt auf, Pkw, Lkw, Sport-Nutzfahrzeuge, Traktoranhänger und Motorräder.
  • Gemäß einer Ausführungsform beinhaltet die Trainingsdatenbank 451 beschriftete Bilder, um Merkmale zu extrahieren und Klassifizierer zur Identifizierung von Fahrzeugmarken und -modellen zu entwickeln.
  • 5 ist ein Flussdiagramm auf hoher Ebene einer exemplarischen Ausführungsform der vorliegenden Offenbarung. Gemäß einer Ausführungsform werden nach der Initialisierung des ACC S516 und der Festlegung einer Soll-Fahrgeschwindigkeit Daten von frontseitigen Sensoren erfasst. Diese Eingänge, einschließlich solche von Kamera S518, Radar und Sonar S517, werden an die Steuereinheit des Fahrunterstützungssystems gesendet. Innerhalb der Steuereinheit des Fahrunterstützungssystems integriert das Entfernungsbestimmungsmittel S531 Daten aus aufgenommenen Bildern (d.h. Objekterkennung) mit geschätzten Abständen zwischen den Fahrzeugen, wie sie durch Radar und Sonar bestimmt werden. In einer Ausführungsform kontextualisiert das Entfernungsbestimmungsmittel S531 die Eingaben von Radar und Sonar gemäß der Radarintensität und Sonarauflösung, um eine einzelne, geschätzte Zwischenfahrzeugdistanz zwischen einem aktuellen Fahrzeug und einem vorausgehenden Fahrzeug zu bestimmen. Dieser einzelne, geschätzte Abstand zwischen den Fahrzeugen wird zusammen mit der aktuellen Fahrzeugfahrgeschwindigkeit S518, die durch fahrzeugseitige Geschwindigkeitssensoren bestimmt wird, an das Fahrgeschwindigkeitssteuergerät S535 geliefert. Das Fahrgeschwindigkeitssteuergerät S535 wertet dann diese Eingaben (z.B. Zwischenraum, aktuelle Fahrzeugfahrgeschwindigkeit) aus, um Abweichungen in Bezug auf die ideale Zwischenraumdistanz (d.h. sichere Fahrstrecke) oder die Sollfahrgeschwindigkeit (d.h. aktuelle Fahrzeuggeschwindigkeit v. Sollfahrgeschwindigkeit) zu identifizieren. Wenn eine Abweichung vorliegt, wird eine Fahrgeschwindigkeitseinstellung S542 vorgenommen, um eine Soll-Distanz und/oder eine Soll-Fahrgeschwindigkeit zu erreichen. Die Fahrgeschwindigkeit kann entsprechend dem PID-Regler des Fahrgeschwindigkeitsreglers S535 eingestellt werden, bis das Ziel erreicht ist. Weiterhin wird eine Schleife von den nach vorne gerichteten Sensoreingaben zum Fahrgeschwindigkeitssteuergerät iterativ fortgesetzt, bis der ACC deaktiviert wird.
  • 6 ist ein exemplarisches Flussdiagramm einer Ausführungsform der abstandsbestimmenden Mittel des Steuergeräts des Fahrunterstützungssystems der vorliegenden Offenbarung. Das exemplarische Flussdiagramm sollte als iterative Schleife nach der Initialisierung von ACC verstanden werden. Gemäß einer Ausführungsform steht ein Fahrzeug zunächst unter der manuellen Kontrolle eines Fahrers, der sich der Geschwindigkeit und Umgebung des Fahrzeugs bewusst ist, dies einschließlich der vorausgehenden Fahrzeuge S660. Bei Benutzereingriff des ACC S661 initialisiert das Fahrzeug die Datenerfassung des Frontsensors, einschließlich Kamera, Radar und Sonar. Zu Beginn bestimmt das Entfernungsbestimmungsmittel, ob sich ein vorausfahrendes Objekt oder ein vorausfahrendes Fahrzeug im Bereich des Sonars S662 (d.h. über einem vorher festgelegten Schwellenwert) befindet, wie es zum Teil durch die Spezifikationen der Sonargeräte definiert ist. Zu diesem Zweck sondiert das Entfernungsbestimmungsmittel die frontseitigen Sensoren S663 des Fahrzeugs, einschließlich Radar, Kamera und Sonar, um insbesondere Daten über die Position des vorausgehenden Fahrzeugs zu erfassen. Wird bestimmt, dass sich das vorausfahrende Fahrzeug nicht in Reichweite des Sonars befindet, kehrt das Entfernungsbestimmungsmittel zu Radar- und Kameradaten zurück, um die Entfernung S664 zwischen den Fahrzeugen zu bestimmen. Sobald jedoch bestimmt wurde, dass sich das vorausfahrende Fahrzeug in Reichweite des Sonars befindet, wird mit einer Auflösung, die ausreicht, um den Abstand des Fahrzeugs genau zu bestimmen, bestimmt, ob die Qualität der Radarreflexion ausreichend ist S666, um den Abstand zwischen den Fahrzeugen genau zu bestimmen. Wenn die Radarreflexionsintensität, wie vorstehend beschrieben, unter einen vorgegebenen Schwellenwert gefallen ist, wird das Sonargerät zur Bestimmung der Entfernung S667 zwischen den Fahrzeugen verwendet. In einer Ausführungsform kann jedoch bestimmt werden, dass die Radarreflexion eine Intensität aufweist, um genau zu sein. In diesem Fall kann die Entfernungsbestimmung die Objekterkennungsdaten S668 der Kamera berücksichtigen, um die Zuverlässigkeit der Radardaten zu bestimmen. Obwohl beispielsweise die Radarintensität über einem vorgegebenen Schwellenwert für die Intensität liegt, kann das vorausfahrende Fahrzeug von einem Typ sein, der für einen funkwellebasierten Ansatz inhärente Schwierigkeiten bereitet. Im Falle eines Tiefladers kann das Radar eine hintere Ebene des vorausfahrenden Fahrzeugs identifizieren. Diese hintere Ebene darf jedoch nicht die hintere Seite des vorausfahrenden Fahrzeugs sein, deren ungenauer Abstand zu einer Kollision führen kann. Daher kann es angebracht sein, sich auf das Sonar zu verlassen, um die Konturen der hinteren Ebene abzubilden und den hintersten Aspekt des vorausfahrenden Fahrzeugs zu erfassen. Wenn bestimmt wird, dass das Radar möglicherweise nicht zuverlässig ist, verlagert sich das Entfernungsbestimmungsmittel bei der Bestimmung der Entfernung S667 zwischen den Fahrzeugen auf das Sonargerät. In dem Fall, dass das vorausgehende Fahrzeug jedoch als ein Fahrzeug identifiziert wird, das zuverlässig über Radar in seiner Entfernung bestimmt werden kann, wie beispielsweise eine Limousine, kann sich die durch die Entfernungsbestimmungsmittel bestimmte Entfernung zwischen den Fahrzeugen auf Radar, Sonar oder eine Fusion bzw. Verschmelzung davon stützen S669. Nach dem Messen des Abstands wird, über einen der drei Ansätze, der ermittelte Abstand zwischen den Fahrzeugen über die Steuereinheit des Fahrunterstützungssystems an das Fahrgeschwindigkeitssteuergerät S670 zur Verwendung bei der Fahrgeschwindigkeitsregelung übertragen.
  • 7A, 7B und 7C sind Darstellungen des Erkennens und der Entfernungsbestimmung eines vorausfahrenden Fahrzeugs gemäß einer exemplarischen Ausführungsform. In einer Ausführungsform ist das vorausgehende Fahrzeug 710 ein Coupe. In 7A fährt das vorausfahrende Fahrzeug 710 außerhalb des Bereichs des Sonarfeldes der Sicht bzw. des Erfassungsbereichs 712 oder des Radarfeldes der Sicht bzw. des Erfassungsbereichs 711. Das vorausfahrende Fahrzeug 710 fährt jedoch mit einer Geschwindigkeit, die relativ langsamer ist als das aktuelle Fahrzeug 705. In Abwesenheit eines vorausgehenden Fahrzeugs 710 in Reichweite der Sensoren des aktuellen Fahrzeugs 705 setzt das aktuelle Fahrzeug 705 die ACC-Erhaltung der aktuellen Fahrgeschwindigkeit fort.
  • Gemäß einer Ausführungsform und wenn sich das vorliegende Fahrzeug 715 dem vorausfahrenden Fahrzeug nähert, wie in 7B dargestellt, beginnen die frontseitigen Sensoren des gegenwärtigen Fahrzeugs 705 das vorausfahrende Fahrzeug 710 zu erfassen und zu erfassen. In einer Ausführungsform und mit dem vorausfahrenden Fahrzeug 710 nur im Sichtfeld des Radars 711 wird das Radar zum Bestimmen der Entfernung zwischen den Fahrzeugen verwendet. Dieser radargestützte Wert wird dann an das Fahrgeschwindigkeitssteuergerät übertragen.
  • Tritt jedoch eine abrupte Geschwindigkeitsänderung ein oder tritt in Zeiten von Stop-and-Go-Verkehr auf, kann sich die Entfernung zwischen den Fahrzeugen so weit verringern, dass sich das vorausfahrende Fahrzeug 710 im Sichtfeld von Sonar 712 und Radar 711 befindet, wie in 7C dargestellt. In einer Ausführungsform werden Daten aus beiden Quellen bei der Bestimmung der Entfernung zwischen den Fahrzeugen berücksichtigt. Wenn festgestellt wird, dass die Radarreflexionsintensität für die Entfernungsbestimmung ausreichend ist, wie vorstehend beschrieben, wird eine Fusion bzw. Verschmelzung von Radar- und Sonardaten verwendet, um eine Distanz zwischen den Fahrzeugen zum Fahrgeschwindigkeitssteuergerät bereitzustellen. Wenn jedoch festgestellt wird, dass die Daten vom Radar gemäß der Radarreflexionsintensität unzureichend sind, wird das Sonar 712 ausgewählt, um eine möglichst genaue Bestimmung der Entfernung zwischen den Fahrzeugen zu ermöglichen.
  • 8A, 8B und 8C sind Abbildungen der Objekterkennung während des Erkennens und der Entfernungsbestimmung eines vorausgehenden Fahrzeugs gemäß einer exemplarischen Ausführungsform der vorliegenden Offenbarung. In jeder Figur ist ein vorhandenes Fahrzeug 805 ein Benutzerfahrzeug 815. Ein Algorithmus oder ähnliches Verfahren, einschließlich eines CNN oder ähnlichen Ansatzes zur Objekterkennung, der auf einer Datenbank mit beschrifteten Bildern trainiert wird, klassifiziert das vorausfahrende Fahrzeug entsprechend.
  • Gemäß einer Ausführungsform und wie in 8A dargestellt, ist ein vorausgehendes Fahrzeug ein Auto 823. Das Fahrzeug 823 befindet sich sowohl im Radarfeld der Sicht 811 als auch im Sonarfeld der Sicht 812. Metriken jeder Datenquelle zeigen an, dass die Rohdaten über den vorgegebenen Schwellenwerten liegen. Da das vorausfahrende Fahrzeug ein Auto 823 ist, wobei eine hintere Ebene des Autos im Allgemeinen planar ist, werden Leistungseinschränkungen des Radars in Bezug auf inkongruente Oberflächen vermieden und es wird das Radar als zuverlässig angesehen. Dadurch können Sonar- und Radardatenquellen zur Bestimmung der Entfernung zwischen den Fahrzeugen fusioniert werden.
  • Gemäß einer Ausführungsform und wie in 8B dargestellt, ist ein vorausgehendes Fahrzeug ein Tieflader-Lastkraftwagen 821. Der Tieflader 821 befindet sich sowohl im Radarfeld der Sicht 811 als auch im Sonarfeld der Sicht 812. Darüber hinaus zeigen Metriken jeder Datenquelle an, dass die Rohdaten über den vorgegebenen Schwellenwerten liegen. Im Zusammenhang mit den technischen Einschränkungen des Radars in Bezug auf die Identifizierung des vorausgehenden Fahrzeugs wird jedoch festgestellt, dass das Radar unzuverlässig ist und die Entfernung zwischen den Fahrzeugen ausschließlich aus dem Sonarfeld der Ansicht 812 bestimmt werden sollte. Wie in dargestellt, obwohl sich das vorausfahrende Fahrzeug im Sichtfeld von Radar 811 befindet, ist die Identifizierung des vorausfahrenden Fahrzeugs als Tieflader 821 entscheidend, um die Unfähigkeit des Schwerpunktansatzes zur Identifizierung von Nuancen in wiederhergestellten Funkwellen zu berücksichtigen. Ein Großteil der Rückseite der Fläche bzw. Ladefläche 822 wird möglicherweise nicht genau in den vom Radar empfangenen Abstandsdaten dargestellt und ist daher nicht zuverlässig, obwohl die Reflexionsintensität über dem vorgegebenen Schwellenwert liegt.
  • Gemäß einer Ausführungsform und wie in 8C dargestellt, ist ein vorausgehendes Fahrzeug ein Motorrad 824. Das Motorrad 824 befindet sich sowohl im Radarfeld der Sicht 811 bzw. des Erfassungsbereichs 811 als auch im Sonarfeld der Sicht 812 bzw. des Erfassungsbereichs 812. Darüber hinaus zeigen Metriken jeder Datenquelle an, dass die Rohdaten über den vorgegebenen Schwellenwerten liegen. Im Zusammenhang mit den technischen Einschränkungen des Radars und der Identifizierung des vorausgehenden Fahrzeugs wird jedoch festgestellt, dass das Radar unzuverlässig ist und die Entfernung zwischen den Fahrzeugen ausschließlich aus dem Sonarfeld der Sicht 812 bestimmt werden sollte. Wie in 8C dargestellt, obwohl sich das vorausfahrende Fahrzeug im Sichtfeld von Radar 811 befindet, ist die Identifizierung des vorausfahrenden Fahrzeugs als Motorrad 824 entscheidend, um die Unfähigkeit des Schwerpunkt-basierten Ansatzes zur Identifizierung von Nuancen in wiederhergestellten Funkwellen zu berücksichtigen. Hintere Aspekte des Motorrads 824 können möglicherweise nicht genau in den vom Radar empfangenen Entfernungsdaten dargestellt werden, weshalb empfohlen wird, die Entfernungsbestimmung nur auf Sonardaten zu verlagern. Da ein Motorrad zu schnellen Geschwindigkeitsänderungen in der Lage ist, informiert die Identifizierung des vorausfahrenden Fahrzeugs als Motorrad 824 besser über einen sicheren Abstand zwischen den Fahrzeugen und gewährleistet die Sicherheit von Fahrer und Mitfahrer.
  • 9 ist ein Blockdiagramm einer Hardwarebeschreibung eines Computers, der konfiguriert ist, um das Erfassen, Entfernungsbestimmen und Steuern gemäß einer exemplarischen Ausführungsform der vorliegenden Offenbarung auszuführen. In einer Ausführungsform ist die Hardware eine Steuereinheit für ein Fahrunterstützungssystem. In 9 beinhaltet die Steuereinheit des Fahrunterstützungssystems eine CPU 985, die die oben/unten beschriebenen Verfahren ausführt. Die Prozessdaten und Anweisungen können im Speicher 986 gespeichert werden. Diese Prozesse und Anweisungen können auch auf einem Speichermedium 987 wie einer Festplatte (HDD) oder einem tragbaren Speichermedium gespeichert oder aus der Ferne gespeichert werden. Darüber hinaus sind die beanspruchten Vorschüsse nicht durch die Form der computerlesbaren Medien begrenzt, auf denen die Anweisungen des erfinderischen Verfahrens gespeichert sind. Die Anweisungen können beispielsweise auf CDs, DVDs, im FLASH-Speicher, RAM, ROM, PROM, EPROM, EEPROM, Festplatte oder jeder anderen Informationsverarbeitungsvorrichtung gespeichert werden, mit der die Steuereinheit des Fahrunterstützungssystems kommuniziert, wie beispielsweise einem Server oder Computer.
  • Darüber hinaus können die beanspruchten Weiterentwicklungen als Dienstprogramm, Hintergrunddeamon oder Komponente eines Betriebssystems oder einer Kombination derselben bereitgestellt werden, die in Verbindung mit der CPU 985 und einem Betriebssystem wie Microsoft Windows 7, UNIX, Solaris, LINUX, Apple MAC-OS und anderen bekannten Systemen ausgeführt werden.
  • Die Hardware-Elemente, um die Steuereinheit des Fahrunterstützungssystems zu erreichen, können durch verschiedene, dem Fachmann bekannte Schaltungselemente realisiert werden. So kann beispielsweise die CPU 985 ein Xenon- oder Core-Prozessor von Intel aus den USA oder ein Opteron-Prozessor von AMD aus den USA sein oder es können andere Prozessortypen verwendet werden, die dem Fachmann bekannt sind. Alternativ kann die CPU 985 auf einem FPGA, ASIC, PLD oder mit diskreten Logikschaltungen implementiert werden, wie es dem Fachmann bekannt ist. Darüber hinaus kann CPU 900 als mehrere Prozessoren implementiert werden, die gemeinsam parallel arbeiten, um die Anweisungen der oben beschriebenen erfinderischen Prozesse auszuführen.
  • Die Steuereinheit des Fahrunterstützungssystems in beinhaltet auch eine Netzwerksteuerung 988 bzw. einen Netzwerkcontroller 988, wie beispielsweise eine Intel Ethernet PRO Netzwerkschnittstellenkarte der Intel Corporation aus den USA, zur Anbindung an das Netzwerk 996. Wie zu verstehen ist, kann das Netzwerk 996 ein öffentliches Netzwerk, wie das Internet, oder ein privates Netzwerk, wie ein LAN- oder WAN-Netzwerk, oder eine beliebige Kombination davon sein und kann auch PSTN- oder ISDN-Teilnetze beinhalten. Das Netzwerk 996 kann auch drahtgebunden sein, wie beispielsweise ein Ethernet-Netzwerk, oder drahtlos, wie ein Mobilfunknetzwerk mit EDGE-, 3G- und 4G-Mobilfunksystemen. Das drahtlose Netzwerk kann auch WiFi, Bluetooth oder jede andere bekannte drahtlose Kommunikationsform sein.
  • Die Steuereinheit des Fahrunterstützungssystems beinhaltet weiterhin eine Anzeigesteuerung 989, wie beispielsweise einen NVIDIA GeForce GTX- oder Quadro-Grafikadapter der NVIDIA Corporation aus den USA zur Anbindung an die Anzeige 990, wie beispielsweise einem Hewlett Packard HPL2445w LCD-Monitor. Eine Universal-I/O-Schnittstelle 991 verbindet sich mit einem berührungsempfindlichen Bildschirm bzw. Touchscreen-Panel 992 auf oder getrennt von der Anzeige 990.
  • In der Steuereinheit des Fahrunterstützungssystems, wie beispielsweise Sound Blaster X-Fi Titanium von Creative (Labs), ist ebenfalls ein Klang bzw. Sound Controller 993 vorgesehen, der mit den Lautsprechern 994 verbunden ist und so für Sounds und/oder Musik sorgt.
  • Die Universal-Speichersteuerung 995 verbindet die Speichermedium-Festplatte 987 mit dem Kommunikationsbus 997, der ein ISA, EISA, VESA, PCI oder ähnliches sein kann, um alle Komponenten der Steuereinheit des Fahrunterstützungssystems zu verbinden. Eine Beschreibung der allgemeinen Merkmale und Funktionen der Anzeige 990 sowie der Anzeigesteuerung 989, der Speichersteuerung 995, der Netzwerksteuerung 988, der Klangsteuerung 993 und der universellen I/O-Schnittstelle 991 entfällt hierin aus Gründen der Kurzfassung, da diese Merkmale bekannt sind.
  • Natürlich sind angesichts der oben genannten Lehren zahlreiche Modifikationen und Variationen möglich. Es ist daher zu verstehen, dass die Erfindung im Rahmen der beigefügten Ansprüche anders ausgeübt werden kann als hierin ausdrücklich beschrieben.
  • Die vorstehende Diskussion offenbart und beschreibt somit lediglich exemplarische Ausführungsformen der vorliegenden Erfindung. Wie von den Fachleuten verstanden, kann die vorliegende Erfindung in anderen spezifischen Formen verkörpert werden, ohne vom Geist der Erfindung oder seinen wesentlichen Merkmalen abzuweichen. Dementsprechend soll die Offenbarung der vorliegenden Erfindung illustrativ sein, aber nicht den Umfang der Erfindung sowie andere Ansprüche einschränken. Die Offenbarung, einschließlich aller leicht erkennbaren Varianten der hierin enthaltenen Lehren, definiert zum Teil den Umfang der vorstehenden Anspruchsterminologie so, dass kein erfinderischer Gegenstand der Öffentlichkeit gewidmet ist.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 7457699 B1 [0001]
    • US 5335164 A [0030]
    • US 7747070 B2 [0033]

Claims (20)

  1. Verfahren zum Bestimmen eines Abstands zwischen einem Fahrzeug und einem vorausfahrenden Objekt, umfassend: Erfassen, mittels einer ersten Sensormodalität, eines ersten sensierten Parameters, der sich auf den Abstand zwischen dem Fahrzeug und dem vorausfahrenden Objekt bezieht; Bestimmen, über eine Verarbeitungsschaltung, einer Größe des ersten sensierten Parameters, der über die erste Sensormodalität erfasst wurde; Erfassen, mittels einer zweiten Sensormodalität, eines zweiten sensierten Parameters, der sich auf den Abstand zwischen dem Fahrzeug und dem vorausfahrenden Objekt bezieht; Bestimmen, über eine Verarbeitungsschaltung, einer Größe des zweiten sensierten Parameters, der über die zweite Sensormodalität erfasst wurde; und Auswählen des ersten sensierten Parameters, des zweiten sensierten Parameters oder einer Kombination derselben basierend auf der Bestimmung der Größe des ersten sensierten Parameters und der Größe des zweiten sensierten Parameters in Bezug auf vorgegebene Schwellenwerte.
  2. Verfahren gemäß Anspruch 1, ferner aufweisend: Erfassen eines Bildes, das sich auf das vorausfahrende Objekt bezieht, mittels einer Kamera; Klassifizieren des Bildes, das sich auf das vorausfahrende Objekt bezieht; und Auswählen des ersten sensierten Parameters, des zweiten sensierten Parameters oder einer Kombination davon basierend auf der Klassifizierung des Bildes in Bezug auf das vorausfahrende Objekt.
  3. Verfahren nach Anspruch 2, wobei das Klassifizieren das Folgende umfasst: Klassifizieren des Bildes basierend auf einem Klassifikator, wobei der Klassifikator basierend auf einer Datenbank trainiert wird, wobei die Datenbank einen Korpus von Referenzbildern beinhaltet, wobei jedes Referenzbild ein identifizierbares Referenzobjekt umfasst und in der Datenbank mit einer entsprechenden Textbeschreibung des Referenzobjekts verknüpft ist, und die Datenbank eine Vielzahl von Bildabfrageauflösungsdatenstrukturen beinhalten, die jeweils eine Sammlung von Datensätzen umfassen, wobei jeder Datensatz einen Bilddeskriptor eines der Referenzbilder beinhaltet, und wobei jede Datenstruktur unter Verwendung eines entsprechenden aus einem Satz von vorbestimmten Suchprozessen durchsucht werden kann, um einen Datensatz innerhalb der Datenstruktur basierend auf den Bilddeskriptoren zu identifizieren.
  4. Verfahren nach Anspruch 1, worin die erste Sensormodalität oder die zweite Sensormodalität eine aus einer Vielzahl von Sensormodalitäten einschließlich Radar und Sonar ist.
  5. Verfahren nach Anspruch 1, worin der erste sensierte Parameter oder der zweite sensierte Parameter einer von einer Vielzahl von sensierten Parametern ist, und dies einschließlich Radarreflexionsintensität und Sonarauflösung.
  6. Verfahren nach Anspruch 2, worin die Kamera eine Kamera für sichtbares Licht, eine Infrarotkamera oder eine Kombination davon ist.
  7. Verfahren nach Anspruch 1, wobei das vorausfahrende Objekt ein Fahrzeug ist.
  8. Nichtflüchtiges, computerlesbares Medium, umfassend ausführbare Programmanweisungen, die, wenn sie durch eine Verarbeitungsschaltung ausgeführt werden, bewirken, dass die Verarbeitungsschaltung ein Verfahren implementiert, das das Folgende umfasst: Erfassen, mittels einer ersten Sensormodalität, eines ersten sensierten Parameters, der sich auf den Abstand zwischen dem Fahrzeug und dem vorausfahrenden Objekt bezieht; Bestimmen einer Größe des ersten sensierten Parameters, der über die erste Sensormodalität erfasst wurde; Erfassen, mittels einer zweiten Sensormodalität, eines zweiten sensierten Parameters, der sich auf den Abstand zwischen dem Fahrzeug und dem vorausfahrenden Objekt bezieht; Bestimmen einer Größe des zweiten sensierten Parameters, der über die zweite Sensormodalität erfasst wurde; und Auswählen des ersten sensierten Parameters, des zweiten sensierten Parameters oder einer Kombination derselben basierend auf der Bestimmung der Größe des ersten sensierten Parameters und der Größe des zweiten sensierten Parameters in Bezug auf vorgegebene Schwellenwerte.
  9. Nichtflüchtiges, computerlesbares Medium nach Anspruch 8, worin das Verfahren das Folgende umfasst: Erfassen eines Bildes, das sich auf das vorausfahrende Objekt bezieht, mittels einer Kamera; Klassifizieren des Bildes, das sich auf das vorausfahrende Objekt bezieht; und Auswählen des ersten sensierten Parameters, des zweiten sensierten Parameters oder einer Kombination davon basierend auf der Klassifizierung des Bildes in Bezug auf das vorausfahrende Objekt.
  10. Nichtflüchtiges, computerlesbares Medium nach Anspruch 9, worin das Klassifizieren das Folgende umfasst: Klassifizieren des Bildes basierend auf einem Klassifikator, wobei der Klassifikator basierend auf einer Datenbank trainiert wird, wobei die Datenbank einen Korpus von Referenzbildern beinhaltet, wobei jedes Referenzbild ein identifizierbares Referenzobjekt umfasst und in der Datenbank mit einer entsprechenden Textbeschreibung des Referenzobjekts verknüpft ist, und die Datenbank eine Vielzahl von Bildabfrageauflösungsdatenstrukturen beinhalten, die jeweils eine Sammlung von Datensätzen umfassen, wobei jeder Datensatz einen Bilddeskriptor eines der Referenzbilder beinhaltet, und wobei jede Datenstruktur unter Verwendung eines entsprechenden aus einem Satz von vorbestimmten Suchverfahren durchsucht werden kann, um einen Datensatz innerhalb der Datenstruktur basierend auf den Bilddeskriptoren zu identifizieren.
  11. Nichtflüchtiges, computerlesbares Medium nach Anspruch 8, worin die erste Sensormodalität oder die zweite Sensormodalität eine von einer Vielzahl von Sensormodalitäten einschließlich Radar und Sonar ist.
  12. Nichtflüchtiges, computerlesbares Medium nach Anspruch 8, worin der erste erfasste Parameter oder der zweite erfasste Parameter einer von einer Vielzahl von erfassten Parametern ist, einschließlich Radarreflexionsintensität und Sonarauflösung.
  13. Nichtflüchtiges, computerlesbares Medium nach Anspruch 9, worin die Kamera eine Kamera für sichtbares Licht, eine Infrarotkamera oder eine Kombination davon ist.
  14. Nichtflüchtiges, computerlesbares Medium nach Anspruch 8, wobei das vorausfahrende Objekt ein Fahrzeug ist.
  15. Vorrichtung zum Bestimmen eines Abstands zwischen einem Fahrzeug und einem vorausfahrenden Objekt, umfassend: eine Verarbeitungsschaltung, die konfiguriert ist, um das Folgende auszuführen: Erfassen eines ersten sensierten Parameters, der sich auf den Abstand zwischen dem Fahrzeug und dem vorausfahrenden Objekt bezieht, über eine erste Sensormodalität; Bestimmen einer Größe des ersten sensierten Parameters, der über die erste Sensormodalität erfasst wurde; Erfassen eines zweiten sensierten Parameters, der sich auf den Abstand zwischen dem Fahrzeug und dem vorausfahrenden Objekt bezieht, über eine zweite Sensormodalität; Bestimmen einer Größe des zweiten sensierten Parameters, der über die zweite Sensormodalität erfasst wurde; und Auswählen des ersten sensierten Parameters, des zweiten sensierten Parameters oder einer Kombination derselben basierend auf der Bestimmung der Größe des ersten sensierten Parameters und der Größe des zweiten sensierten Parameters in Bezug auf vorgegebene Schwellenwerte.
  16. Vorrichtung nach Anspruch 15, worin die Verarbeitungsschaltung ferner konfiguriert ist das Folgende auszuführen: Aufnehmen, mittels der Kamera, eines Bildes, das sich auf das vorausfahrende Objekt bezieht; Klassifizieren des Bildes, das sich auf das vorausfahrende Objekt bezieht; und Auswählen des ersten sensierten Parameters, des zweiten sensierten Parameters oder einer Kombination davon basierend auf der Klassifizierung des Bildes in Bezug auf das vorausfahrende Objekt.
  17. Vorrichtung nach Anspruch 16, wobei die Verarbeitungsschaltung ferner konfiguriert ist das Folgende auszuführen: Klassifizieren des Bildes basierend auf einem Klassifikator, wobei der Klassifikator basierend auf einer Datenbank trainiert wird, wobei die Datenbank einen Korpus von Referenzbildern beinhaltet, wobei jedes Referenzbild ein identifizierbares Referenzobjekt umfasst und in der Datenbank mit einer entsprechenden Textbeschreibung des Referenzobjekts verknüpft ist, und die Datenbank eine Vielzahl von Bildabfrageauflösungsdatenstrukturen beinhalten, die jeweils eine Sammlung von Datensätzen umfassen, wobei jeder Datensatz einen Bilddeskriptor eines der Referenzbilder beinhaltet, und wobei jede Datenstruktur unter Verwendung eines entsprechenden aus einem Satz von vorbestimmten Suchverfahren durchsucht werden kann, um einen Datensatz innerhalb der Datenstruktur basierend auf den Bilddeskriptoren zu identifizieren.
  18. Vorrichtung nach Anspruch 15, wobei die erste Sensormodalität oder die zweite Sensormodalität eine aus einer Vielzahl von Sensormodalitäten einschließlich Radar und Sonar ist.
  19. Vorrichtung nach Anspruch 15, worin der erste erfasste Parameter oder der zweite erfasste Parameter einer von einer Vielzahl von erfassten Parametern ist, und dies einschließlich Radarreflexionsintensität und Sonarauflösung.
  20. Vorrichtung nach Anspruch 16, worin die Kamera eine Kamera für sichtbares Licht, eine Infrarotkamera oder eine Kombination davon ist.
DE102019102216.9A 2018-01-30 2019-01-29 Fusion von Frontfahrzeugsensordaten zur Erkennung und zur Bestimmung der Entfernung von vorausfahrenden Objekten Pending DE102019102216A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/883,607 2018-01-30
US15/883,607 US11091162B2 (en) 2018-01-30 2018-01-30 Fusion of front vehicle sensor data for detection and ranging of preceding objects

Publications (1)

Publication Number Publication Date
DE102019102216A1 true DE102019102216A1 (de) 2019-08-01

Family

ID=67224483

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019102216.9A Pending DE102019102216A1 (de) 2018-01-30 2019-01-29 Fusion von Frontfahrzeugsensordaten zur Erkennung und zur Bestimmung der Entfernung von vorausfahrenden Objekten

Country Status (4)

Country Link
US (1) US11091162B2 (de)
JP (1) JP7242316B2 (de)
CN (1) CN110103958B (de)
DE (1) DE102019102216A1 (de)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10955540B2 (en) 2017-12-01 2021-03-23 Aptiv Technologies Limited Detection system
US20190337511A1 (en) * 2018-05-02 2019-11-07 GM Global Technology Operations LLC System and Method for Controlling an Autonomous Vehicle
JP6700359B2 (ja) * 2018-09-26 2020-05-27 株式会社Subaru 車両制御装置
US10838054B2 (en) * 2018-10-08 2020-11-17 Aptiv Technologies Limited Detection system and method
US10817732B2 (en) * 2018-12-20 2020-10-27 Trimble Inc. Automated assessment of collision risk based on computer vision
IL270540A (en) * 2018-12-26 2020-06-30 Yandex Taxi Llc Method and system for training a machine learning algorithm to recognize objects from a distance
JP7111088B2 (ja) * 2019-01-24 2022-08-02 カシオ計算機株式会社 画像検索装置、学習方法及びプログラム
US11092668B2 (en) 2019-02-07 2021-08-17 Aptiv Technologies Limited Trailer detection system and method
US11572079B2 (en) * 2019-04-25 2023-02-07 WeRide Corp. Apparatus and method for controlling velocity of autonomous driving vehicle, and storage medium
CA3168740C (en) * 2020-02-21 2023-08-01 Joel Pazhayampallil Method for object avoidance during autonomous navigation
US11408995B2 (en) 2020-02-24 2022-08-09 Aptiv Technologies Limited Lateral-bin monitoring for radar target detection
KR102323483B1 (ko) * 2020-04-13 2021-11-10 주식회사 만도모빌리티솔루션즈 스마트 순항 제어 시스템 및 그 제어 방법
US20220172080A1 (en) * 2020-12-02 2022-06-02 International Business Machines Corporation Learning unpaired multimodal feature matching for semi-supervised learning
US20220203984A1 (en) * 2020-12-29 2022-06-30 GM Global Technology Operations LLC Consideration of acceleration lag in lead vehicle to enhance host vehicle operation
CN113740843B (zh) * 2021-09-07 2024-05-07 中国兵器装备集团自动化研究所有限公司 一种跟踪目标的运动状态估计方法、系统及电子装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5335164A (en) 1991-07-31 1994-08-02 Universal Dynamics Limited Method and apparatus for adaptive control
US7457699B2 (en) 2004-01-21 2008-11-25 Delphi Technologies, Inc. Technique for detecting truck trailer for stop and go adaptive cruise control
US7747070B2 (en) 2005-08-31 2010-06-29 Microsoft Corporation Training convolutional neural networks on graphics processing units

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2900737B2 (ja) * 1993-02-01 1999-06-02 トヨタ自動車株式会社 車間距離検出装置
US7426437B2 (en) * 1997-10-22 2008-09-16 Intelligent Technologies International, Inc. Accident avoidance systems and methods
JP3985615B2 (ja) 2002-07-16 2007-10-03 日産自動車株式会社 前方車両追跡システムおよび前方車両追跡方法
JP4857840B2 (ja) 2006-03-22 2012-01-18 日産自動車株式会社 物体検出方法および物体検出装置
JP4211809B2 (ja) * 2006-06-30 2009-01-21 トヨタ自動車株式会社 物体検出装置
JP5145986B2 (ja) 2008-02-05 2013-02-20 日産自動車株式会社 物体検出装置及び測距方法
US20090254260A1 (en) * 2008-04-07 2009-10-08 Axel Nix Full speed range adaptive cruise control system
US20100100324A1 (en) * 2008-10-22 2010-04-22 Toyota Motor Engineering & Manufacturing North America, Inc. Communication based vehicle-pedestrian collision warning system
US8666546B2 (en) 2009-07-10 2014-03-04 The Boeing Company Autonomous robotic platform
US9472097B2 (en) * 2010-11-15 2016-10-18 Image Sensing Systems, Inc. Roadway sensing systems
JP5558440B2 (ja) 2011-09-08 2014-07-23 三菱電機株式会社 物体検出装置
TWI468647B (zh) 2011-10-13 2015-01-11 Altek Autotronics Corp 障礙物偵測系統及其障礙物偵測方法
JP5977047B2 (ja) 2012-02-29 2016-08-24 株式会社日本自動車部品総合研究所 車両走行制御装置
KR20140030749A (ko) * 2012-09-03 2014-03-12 현대모비스 주식회사 램프 이미지를 이용한 차간 거리 검출 장치 및 차간 거리 검출 방법
KR101491849B1 (ko) * 2013-07-23 2015-02-06 현대오트론 주식회사 차간 거리용 센서 고장 보상 시스템 및 방법
KR102192252B1 (ko) * 2014-03-05 2020-12-17 현대모비스 주식회사 센서를 이용한 차량 인식 시스템 및 그 방법
JP6137001B2 (ja) 2014-03-14 2017-05-31 株式会社デンソー 車載装置
JP6183257B2 (ja) 2014-03-19 2017-08-23 トヨタ自動車株式会社 車両運動状態決定装置及び車両運動制御装置
US9460625B2 (en) 2014-04-08 2016-10-04 Denso International America, Inc. Proxy DSRC basic safety message for unequipped vehicles
EP3146506B1 (de) * 2014-05-22 2019-12-11 Mobileye Vision Technologies Ltd. Systeme und verfahren zum abbremsen eines fahrzeugs auf basis eines erfassten objekts
JP2016008922A (ja) 2014-06-25 2016-01-18 株式会社東芝 センサ情報融合装置
JP6290737B2 (ja) * 2014-07-11 2018-03-07 株式会社デンソー 車両制御装置
JP6285303B2 (ja) * 2014-07-11 2018-02-28 株式会社デンソー 車両制御装置
KR101843773B1 (ko) * 2015-06-30 2018-05-14 엘지전자 주식회사 차량 운전 보조 장치, 차량용 디스플레이 장치 및 차량
US9910441B2 (en) * 2015-11-04 2018-03-06 Zoox, Inc. Adaptive autonomous vehicle planner logic
US9754490B2 (en) * 2015-11-04 2017-09-05 Zoox, Inc. Software application to request and control an autonomous vehicle service
US20190227553A1 (en) * 2015-11-04 2019-07-25 Zoox, Inc. Interactive autonomous vehicle command controller
US11328155B2 (en) * 2015-11-13 2022-05-10 FLIR Belgium BVBA Augmented reality labels systems and methods
WO2017175025A2 (en) * 2015-12-01 2017-10-12 Yakov Shambik Detecting visual information corresponding to an animal
US10373019B2 (en) * 2016-01-13 2019-08-06 Ford Global Technologies, Llc Low- and high-fidelity classifiers applied to road-scene images
US10365359B2 (en) * 2016-05-06 2019-07-30 Raytheon Company Ambiguous radar range resolution using range lookup table
US20170359561A1 (en) * 2016-06-08 2017-12-14 Uber Technologies, Inc. Disparity mapping for an autonomous vehicle
US10369994B2 (en) 2016-07-20 2019-08-06 Ford Global Technologies, Llc Rear camera stub detection
CA3033738A1 (en) * 2016-08-22 2018-03-01 Sony Corporation Driving assistant apparatus, driving assistant method, moving object, and program
WO2018053175A1 (en) * 2016-09-14 2018-03-22 Nauto Global Limited Systems and methods for near-crash determination
US10386792B2 (en) * 2016-10-19 2019-08-20 Ants Technology (Hk) Limited Sensory systems for autonomous devices
KR20180068578A (ko) * 2016-12-14 2018-06-22 삼성전자주식회사 복수의 센서를 이용하여 객체를 인식하는 전자 기기 및 방법
US10445928B2 (en) * 2017-02-11 2019-10-15 Vayavision Ltd. Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types
US10202126B2 (en) * 2017-03-07 2019-02-12 Uber Technologies, Inc. Teleassistance data encoding for self-driving vehicles
US11899669B2 (en) * 2017-03-20 2024-02-13 Carnegie Mellon University Searching of data structures in pre-processing data for a machine learning classifier
US10705525B2 (en) * 2017-04-07 2020-07-07 Nvidia Corporation Performing autonomous path navigation using deep neural networks
US10710592B2 (en) * 2017-04-07 2020-07-14 Tusimple, Inc. System and method for path planning of autonomous vehicles based on gradient
US20180300620A1 (en) * 2017-04-12 2018-10-18 Ford Global Technologies, Llc Foliage Detection Training Systems And Methods
GB2601644B (en) * 2017-04-28 2023-02-08 FLIR Belgium BVBA Video and image chart fusion systems and methods
US10884409B2 (en) * 2017-05-01 2021-01-05 Mentor Graphics (Deutschland) Gmbh Training of machine learning sensor data classification system
WO2018229549A2 (en) * 2017-06-16 2018-12-20 Nauto Global Limited System and method for digital environment reconstruction
US10691962B2 (en) * 2017-09-22 2020-06-23 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for rear signal identification using machine learning
US10445597B2 (en) * 2017-10-17 2019-10-15 Toyota Research Institute, Inc. Systems and methods for identification of objects using audio and sensor data
US10628671B2 (en) * 2017-11-01 2020-04-21 Here Global B.V. Road modeling from overhead imagery
JP7346401B2 (ja) * 2017-11-10 2023-09-19 エヌビディア コーポレーション 安全で信頼できる自動運転車両のためのシステム及び方法
US10535138B2 (en) * 2017-11-21 2020-01-14 Zoox, Inc. Sensor data segmentation
US20180074506A1 (en) * 2017-11-21 2018-03-15 GM Global Technology Operations LLC Systems and methods for mapping roadway-interfering objects in autonomous vehicles
US10466707B2 (en) * 2017-12-22 2019-11-05 X Development Llc Planning robot stopping points to avoid collisions
US10558897B2 (en) * 2017-12-27 2020-02-11 Intel Corporation Context-based digital signal processing
US10745005B2 (en) * 2018-01-24 2020-08-18 Ford Global Technologies, Llc Inter-vehicle cooperation for vehicle self height estimation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5335164A (en) 1991-07-31 1994-08-02 Universal Dynamics Limited Method and apparatus for adaptive control
US7457699B2 (en) 2004-01-21 2008-11-25 Delphi Technologies, Inc. Technique for detecting truck trailer for stop and go adaptive cruise control
US7747070B2 (en) 2005-08-31 2010-06-29 Microsoft Corporation Training convolutional neural networks on graphics processing units

Also Published As

Publication number Publication date
CN110103958A (zh) 2019-08-09
JP7242316B2 (ja) 2023-03-20
US11091162B2 (en) 2021-08-17
JP2019164124A (ja) 2019-09-26
CN110103958B (zh) 2022-09-09
US20190232964A1 (en) 2019-08-01

Similar Documents

Publication Publication Date Title
DE102019102216A1 (de) Fusion von Frontfahrzeugsensordaten zur Erkennung und zur Bestimmung der Entfernung von vorausfahrenden Objekten
DE102013113619B4 (de) Probabilistische Zielauswahl und Gefahrbewertungsverfahren und Anwendung auf ein Kreuzungs-Kollisonswarnsystem
DE102008001363B4 (de) Verfahren zum Erfassen einer Parkfläche unter Verwendung eines Entfernungssensors
DE102018111256A1 (de) Flecken- und abfallerkennungssysteme und -verfahren für fahrzeuge
DE102018122749A1 (de) Kollisionsschutz-steuervorrichtung und verfahren dafür
DE102019205228A1 (de) Einfädelverhaltenssysteme und Verfahren für Fahrzeuge auf einer Hauptspur
DE102019205223A1 (de) Einfädelverhaltenssysteme und Verfahren zum Einfädeln von Fahrzeugen
DE102017113572A1 (de) Spurerkennungssysteme und -verfahren
DE102016106298A1 (de) Fusionsverfahren für eine Querverkehr-Applikation unter Verwenden von Radargeräten und einer Kamera
DE102016003438A1 (de) Fahrassistenzsystem eines Fahrzeugs und Verfahren zur Steuerung desselben
DE102017112567A1 (de) Totwinkel-erkennungssysteme und verfahren
DE102016106299A1 (de) Raderfassung und ihre Applikation bei Objektverfolgung und Sensorregistrierung
DE102015114614A1 (de) Betrieb eines Totwinkelassistenten bei einem Fahrzeug mit Anhänger
DE112017007735T5 (de) System und -verfahren zur fahrzeugüberprüfung
DE102020119541A1 (de) Detektieren von fahrzeugbetriebsbedingungen
DE102010005290A1 (de) Vereinigungsmodul für mehrere Objekte für ein Kollisionsvorbereitungssystem
DE102018108361A1 (de) Laubwerkerfassungstrainingssysteme und -verfahren
DE102017106952A1 (de) Abstandssteuerung für ein fahrzeug mit anhänger
DE102016002232A1 (de) Verfahren zum Betrieb eines Kraftfahrzeugs
DE102021204841A1 (de) Frachtdetektionssystem und Verfahren zum Detektieren von überhängender Fracht an einem Kraftfahrzeug
DE102017205245A1 (de) Freibereichsfusion für Fahrerassistenzsysteme
DE112020000325T5 (de) Schätzung von Anhängereigenschaften mit Fahrzeugsensoren
DE102019115241A1 (de) Vorrichtung und verfahren zum erfassen einer langsamen fahrzeugbewegung
DE102022130540A1 (de) Systeme und verfahren zur vermeidung von fehldetektionen von verfolgten objekten in der umgebenden umgebung eines fahrzeugs
DE102022205746A1 (de) Ultraschallsystem und -verfahren zur Abstimmung eines Maschinenlernklassifika-tors mit Verwendung in einem Maschinenlernalgorithmus

Legal Events

Date Code Title Description
R012 Request for examination validly filed