DE102019205469A1 - Object detection in the vicinity of a vehicle using a primary sensor device and a secondary sensor device - Google Patents

Object detection in the vicinity of a vehicle using a primary sensor device and a secondary sensor device Download PDF

Info

Publication number
DE102019205469A1
DE102019205469A1 DE102019205469.2A DE102019205469A DE102019205469A1 DE 102019205469 A1 DE102019205469 A1 DE 102019205469A1 DE 102019205469 A DE102019205469 A DE 102019205469A DE 102019205469 A1 DE102019205469 A1 DE 102019205469A1
Authority
DE
Germany
Prior art keywords
vehicle
sensor device
environment
environment data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102019205469.2A
Other languages
German (de)
Inventor
Zhihu Chen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102019205469.2A priority Critical patent/DE102019205469A1/en
Publication of DE102019205469A1 publication Critical patent/DE102019205469A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Verfahren zur Objekterkennung in einem Umfeld (60) eines Fahrzeugs, umfassend Erhalten von ersten Umfeld Daten, die eine primäre Sensoreinrichtung (20) beim Erfassen des Umfelds (60) des Fahrzeugs erzeugt; Erhalten von zweiten Umfeld Daten, die eine sekundäre Sensoreinrichtung (30) beim Erfassen des Umfelds (60) des Fahrzeugs erzeugt; Extrahieren von Partikelinformationen aus den zweiten Umfeld Daten; und Verarbeiten der ersten Umfeld Daten basierend auf den extrahierten Partikelinformationen.A method for object recognition in the surroundings (60) of a vehicle, comprising receiving first surroundings data which a primary sensor device (20) generates when detecting the surroundings (60) of the vehicle; Obtaining second environment data which a secondary sensor device (30) generates when detecting the environment (60) of the vehicle; Extracting particle information from the second environment data; and processing the first environment data based on the extracted particle information.

Description

TECHNISCHES GEBIETTECHNICAL AREA

Die vorliegende Erfindung betrifft das Gebiet der Fahrzeuge, insbesondere der autonom beziehungsweise teilautonom fahrenden Fahrzeuge. Konkret betrifft die vorliegende Erfindung eine Vorrichtung, ein Verfahren, ein Computer-Programm-Produkt, ein computerlesbares Speichermedium sowie ein Datenträgersignal zur Objekterkennung in einem Umfeld eines Fahrzeugs.The present invention relates to the field of vehicles, in particular autonomous or partially autonomous vehicles. Specifically, the present invention relates to a device, a method, a computer program product, a computer-readable storage medium and a data carrier signal for object recognition in the surroundings of a vehicle.

TECHNISCHER HINTERGRUNDTECHNICAL BACKGROUND

Objekterkennung spielt im automatisierten Fahren eine zentrale Rolle. Objekte, die sich in einem Umfeld eines selbstfahrenden oder teilweise selbstfahrenden Fahrzeuges befinden, müssen mit hoher Genauigkeit und Rechtzeitigkeit erkannt werden. Dies dient dazu, um Maßnahmen zu ergreifen, die eine Kollision mit solchen Objekten, etwa anderen Fahrzeugen, Verkehrsteilnehmern, Personen, Tieren, Bebauungen, Bepflanzungen, öffentlichen und privaten Verkehrseinrichtungen ... usw., zu vermeiden oder zumindest zu reduzieren.Object recognition plays a central role in automated driving. Objects that are in the vicinity of a self-driving or partially self-driving vehicle must be detected with a high degree of accuracy and timeliness. This is used to take measures to avoid or at least reduce a collision with such objects, such as other vehicles, road users, people, animals, buildings, plantings, public and private transport facilities ... etc.

Zwecks zuverlässigerer und schnellerer Objekterkennung sind in der Vergangenheit zahlreiche Lösungsansätze vorgeschlagen worden. Beispielsweise offenbart DE102018115265A1 eine Vorrichtung zum Senden eines Lichtimpulses mit einer ersten Zeitdauer und zum Empfangen eines reflektierten Lichtimpulses mit einer zweiten Zeitdauer und zum Bestimmen einer Ausrichtung einer Zieloberfläche in Abhängigkeit von einer Differenz zwischen der ersten und zweiten Zeitdauer.Numerous approaches to a solution have been proposed in the past for the purpose of more reliable and faster object recognition. For example disclosed DE102018115265A1 a device for transmitting a light pulse with a first time duration and for receiving a reflected light pulse with a second time duration and for determining an orientation of a target surface as a function of a difference between the first and second time periods.

Es besteht jedoch Bedarf an Verbesserung der Schnelligkeit und Genauigkeit der Objekterkennung. Die bekannten Lösungsansätze sind dahingehend mangelhaft, dass die mittels Umfeld Sensoren gewonnene Daten durch das Beseitigen der falschen Positiven nicht hinreichend verwertet werden und zahlreiche Informationen ungenutzt weggefiltert werden. Auch der Zuversichtlichkeitsgrad, dass detektierte Sensorsignale einem bestimmten Objekt bzw. einer bestimmten Objektklasse zuzuordnen ist, ist bei den bekannten Lösungsansätzen aufgrund der Art und Weise der Datenverarbeitung und der der verwendeten Sensorik zugrunde liegenden physikalischen Gegebenheiten beschränkt.However, there is a need to improve the speed and accuracy of object recognition. The known approaches to a solution are inadequate in that the data obtained by means of the environment sensors are not adequately utilized by eliminating the false positives and a large amount of information is filtered out unused. The degree of confidence that detected sensor signals can be assigned to a certain object or a certain object class is also limited in the known approaches due to the type and manner of data processing and the physical conditions underlying the sensor system used.

Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, die Objekterkennung im Umfeld eines vollständig oder teilweise autonom fahrenden Fahrzeuges hinsichtlich der Schnelligkeit und Zuverlässigkeit zu verbessern.The present invention is therefore based on the object of improving the object recognition in the vicinity of a fully or partially autonomous vehicle with regard to speed and reliability.

Die Aufgabe wird gelöst durch eine Vorrichtung, ein Verfahren, ein Computer-Programm-Produkt, ein computerlesbares Speichermedium sowie ein Datenträgersignal gemäß den unabhängigen Ansprüchen.The object is achieved by a device, a method, a computer program product, a computer-readable storage medium and a data carrier signal according to the independent claims.

Bei der erfindungsgemäßen Vorrichtung zur Objekterkennung kann es sich beispielsweise um eine elektronische Steuer- oder Regeleinheit (engl. ECU = Electronic Control Unit), ein elektronisches Steuer- oder Regelmodul (ECM = Electronic Control Module) oder eine Steuer-/Regeleinheit für autonomes Fahren (z.B. ein „Autopilot“) handeln. Die Vorrichtung kann sich am Fahrzeug befinden, oder außerhalb bzw. teilweise außerhalb des Fahrzeugs. Beispielsweise kann die erfindungsgemäße Vorrichtung Teil einer zentralen Überwachungseinrichtung im Straßenverkehr, insbesondere im Stadtverkehr, im Autobahnverkehr, auf einem zumindest teilweise geschlossenen industriellen, gewerblichen Gelände und/oder auf einer landwirtschaftlichen Nutzfläche sein. Die Kommunikation zwischen der erfindungsgemäßen Vorrichtung und dem Fahrzeug bzw. zwischen der zentralen Überwachungseinrichtung und dem Fahrzeug kann drahtlos, etwa über Bluetooth, Infrarot, Nahfeld-Kommunikation (Engl.: NFC), Funk, Internet, Intranet, Cloud-Systeme, Blockchain-Systeme, 4G-Kommunikationsnetzwerke, 5G-Kommunikationsnetzwerke und/oder verdrahtete Systeme erfolgen.The device according to the invention for object recognition can be, for example, an electronic control or regulating unit (ECU), an electronic control or regulating module (ECM = Electronic Control Module) or a control / regulating unit for autonomous driving ( eg an “autopilot”). The device can be located on the vehicle, or outside or partially outside the vehicle. For example, the device according to the invention can be part of a central monitoring device in road traffic, in particular in city traffic, in motorway traffic, on an at least partially closed industrial, commercial site and / or on an agricultural area. The communication between the device according to the invention and the vehicle or between the central monitoring device and the vehicle can be wireless, for example via Bluetooth, infrared, near-field communication (NFC), radio, Internet, intranet, cloud systems, blockchain systems , 4G communication networks, 5G communication networks and / or wired systems.

Das Fahrzeug kann ein Personenfahrzeug und/oder ein Nutzfahrzeug, etwa ein Landfahrzeug, ein Industriefahrzeug, eine Industriemaschine, ein Fahrzeug für eine Wechselbrücke, ein mobiler Roboter und/oder ein automatisiertes fahrerloses Transportsystem sein.The vehicle can be a passenger vehicle and / or a utility vehicle, for example a land vehicle, an industrial vehicle, an industrial machine, a vehicle for a swap body, a mobile robot and / or an automated driverless transport system.

Die primäre und/oder sekundäre Sensoreinrichtung sind vorzugsweise am Fahrzeug angebracht, sodass eine laufende Umfeld Erfassung beim Bewegen des Fahrzeugs ermöglicht ist. Alternativ kann die primäre und/oder die sekundäre Sensoreinrichtung an einem anderen Ort mobil oder stationär angeordnet sein. Die Kommunikation zwischen der primären und/oder sekundären Sensoreinrichtung und der erfindungsgemäßen Vorrichtung kann drahtlos, etwa über Bluetooth, Infrarot, Nahfeld-Kommunikation (Engl.: NFC), Funk, Internet, Intranet, Cloud-Systeme, Blockchain-Systeme, 4G-Kommunikationsnetzwerke, 5G-Kommunikationsnetzwerke und/oder verdrahtete Systeme erfolgen.The primary and / or secondary sensor device are preferably attached to the vehicle so that an ongoing detection of the surroundings is made possible when the vehicle is moving. Alternatively, the primary and / or the secondary sensor device can be arranged in a mobile or stationary manner at another location. The communication between the primary and / or secondary sensor device and the device according to the invention can be wireless, for example via Bluetooth, infrared, near-field communication (NFC), radio, Internet, intranet, cloud systems, blockchain systems, 4G communication networks , 5G communication networks and / or wired systems.

Die primäre Sensoreinrichtung ist beispielsweise ein Abstandssensor, etwa ein Radarsensor, ein Lidarsensor und/oder ein Ultraschallsensor. Die von der primären Sensoreinrichtung erzeugten ersten Umfeld Daten enthalten typischerweise Positionsdaten eines oder mehrerer von der primären Sensoreinrichtung im Umfeld des Fahrzeugs erfassten Objekte.The primary sensor device is, for example, a distance sensor, for example a radar sensor, a lidar sensor and / or an ultrasonic sensor. The first environment data generated by the primary sensor device typically contain position data of one or more of the primary Sensor device in the vicinity of the vehicle detected objects.

Beispielsweise werden für den Fall, dass die primäre Sensoreinrichtung einen Radarsensor umfasst, von einem Sender des Radarsensors ein Radiofrequenzsignal (nachfolgend: RF-Signal) gesendet. Das RF-Signal wird an einem im Umfeld des Fahrzeugs befindlichen Objekt zurückgestreut bzw. reflektiert und propagiert zu einem Empfänger des Radarsensors zurück. Die Zeitdauer, in der das RF-Signal zwischen dem Sende- und Empfangszeitpunkt ausgebreitet ist, ist im Fachbereich allgemein als Flugzeit (Engl.: Time of Flight, ToF) bekannt. Aus der Flugzeit lässt sich die Position des das RF-Signal reflektierenden Objektes typischerweise in Form von einem Höhenwinkel, einem Seitenwinkel und einer Entfernung bestimmen.For example, in the event that the primary sensor device comprises a radar sensor, a radio frequency signal (hereinafter: RF signal) is sent from a transmitter of the radar sensor. The RF signal is scattered back or reflected on an object in the vicinity of the vehicle and propagates back to a receiver of the radar sensor. The period in which the RF signal is propagated between the time of transmission and reception is generally known in the technical field as the time of flight (ToF). The position of the object reflecting the RF signal can be determined from the flight time, typically in the form of an elevation angle, a lateral angle and a distance.

Alternativ kann für den Fall, dass die primäre Sensoreinrichtung einen Lidarsensor umfasst, von einem Sender des Lidarsensors ein Lichtsignal gesendet. Das Lichtsignal wird an einem im Umfeld des Fahrzeugs befindlichen Objekt zurückgestreut bzw. reflektiert und propagiert zu einem Empfänger des Lidarsensors zurück. Die Zeitdauer, in der das Lichtsignal zwischen dem Sende- und Empfangszeitpunkt ausgebreitet ist, ist ebenfalls als Flugzeit bekannt. Aus der Flugzeit lässt sich die ebenfalls Positionsdaten von erfassten Objekten bestimmen.Alternatively, if the primary sensor device comprises a lidar sensor, a light signal can be sent from a transmitter of the lidar sensor. The light signal is scattered or reflected back on an object located in the vicinity of the vehicle and propagates back to a receiver of the lidar sensor. The period of time in which the light signal is propagated between the time of transmission and reception is also known as the time of flight. The position data of detected objects can also be determined from the flight time.

Derartige Positionsdaten sind ein wesentlicher Bestandteil der ersten Umfeld Daten. Zusätzlich lässt sich zumindest für den Fall, dass ein Radarsensor verwendet wird, basierend auf dem Doppler-Effekt die Geschwindigkeit, mit der sich das erfasste Objekt bewegt, berechnen. Für den Fall, dass ein Lidarsensor verwendet wird, können aufgrund der Intensitätsverteilung des reflektierten Lichtsignals zusätzliche Informationen (Attribute) in den ersten Umfeld Daten berücksichtigt werden.Such position data are an essential part of the first environment data. In addition, at least for the case that a radar sensor is used, the speed at which the detected object is moving can be calculated based on the Doppler effect. In the event that a lidar sensor is used, additional information (attributes) in the first environment data can be taken into account due to the intensity distribution of the reflected light signal.

Die sekundäre Sensoreinrichtung ist beispielsweise eine Kamera, etwa eine RGB-Kamera, eine Stereokamera und/oder eine Rundblickkamera (Engl.: Surroundview Camera) sein. Die sekundäre Sensoreinrichtung ist vorzugsweise dazu ausgebildet, Partikel bzw. Luftpartikel, etwa Regenpartikel, Schneepartikel, Nebelpartikel, Smokpartikel, PM2.5-Partikel, Staubpartikel, ... usw. im Umfeld des Fahrzeugs zu detektieren. Diese Partikel können sich in der Luft oder auf einer Oberfläche, etwa der eines Gehäuses der ersten und/oder zweiten Sensoreinrichtung, befinden. Das Gehäuse kann eine transparente oder semi-transparente Deckelseite zum (teilweisen) Durchlassen von Licht aufweisen.The secondary sensor device is, for example, a camera, for example an RGB camera, a stereo camera and / or a surround view camera. The secondary sensor device is preferably designed to detect particles or air particles, for example rain particles, snow particles, fog particles, smoke particles, PM2.5 particles, dust particles, ... etc. in the vicinity of the vehicle. These particles can be in the air or on a surface, for example that of a housing of the first and / or second sensor device. The housing can have a transparent or semi-transparent cover side for the (partial) passage of light.

Die Auswerteeinheit ist dazu ausgebildet, Partikelinformationen bzw. Luftpartikelinformationen aus den zweiten Umfeld Daten zu extrahieren. Die sekundäre Sensoreinrichtung detektiert die Partikel und generiert hierbei Partikelinformationen, basierend auf denen die ersten Umfeld Daten verarbeitet werden. Dies bedeutet, dass die ersten Umfeld Daten unter Berücksichtigung der Partikelinformationen ausgewertet werden. Auf diese Weise ist die Auswertung der ersten Umfeld Daten besonders genau und zuverlässig, da diese auf die Partikelinformationen angepasst ist und daher diese als Hintergrundinformationen des Umfelds des Fahrzeugs aktiv verwerten kann, statt als allgemeines Rauschen unberücksichtigt zu lassen.The evaluation unit is designed to extract particle information or air particle information from the second environment data. The secondary sensor device detects the particles and generates particle information based on which the first environment data are processed. This means that the first environment data are evaluated taking into account the particle information. In this way, the evaluation of the first environment data is particularly accurate and reliable, since it is adapted to the particle information and can therefore actively use it as background information on the environment of the vehicle, instead of disregarding it as general noise.

Vorteilhafte Ausgestaltungen und Weiterbildungen sind in den Unteransprüchen angegeben.Advantageous refinements and developments are specified in the subclaims.

Gemäß einer Ausführungsform umfasst das Verfahren ferner Bestimmen einer Häufigkeitsverteilung aus den ersten Umfeld Daten.According to one embodiment, the method further comprises determining a frequency distribution from the first environment data.

Die Häufigkeitsverteilung bezieht sich auf eine Verteilung der Signalstärke (z.B. Intensität) als Funktion einer räumlichen Entfernung. Die Häufigkeitsverteilung kann für den Fall, dass es sich bei der primären Sensoreinrichtung um einen Radar- und/oder Lidarsensor handelt, ein Histogramm umfassen.The frequency distribution refers to a distribution of the signal strength (e.g. intensity) as a function of spatial distance. In the event that the primary sensor device is a radar and / or lidar sensor, the frequency distribution can include a histogram.

Gemäß einer weiteren Ausführungsform wird die Häufigkeitsverteilung mit Hilfe eines Fitting Parameter, der an die extrahierten Partikelinformationen angepasst ist, ausgewertet.According to a further embodiment, the frequency distribution is evaluated with the aid of a fitting parameter that is adapted to the extracted particle information.

Im Fall, dass die primäre Sensoreinrichtung einen Radar- und/oder Lidarsensor umfasst, kann die Häufigkeitsverteilung bzw. Histogramm mittels einer Fitting Analyse näherungsweise funktional beschrieben werden, um die räumliche Entfernung mit dem höchsten Häufigkeitswert zu bestimmen. Diese Fitting Analyse verwendet einen oder mehrere Fitting Parameter, die vorliegend an die extrahierten Partikelinformationen angepasst sind. Somit wird den extrahierten Partikelinformationen durch die Fitting Parameter Rechnung getragen. Die ersten Umfeld Daten können daher besonders genau ausgewertet werden.In the event that the primary sensor device comprises a radar and / or lidar sensor, the frequency distribution or histogram can be described approximately functionally by means of a fitting analysis in order to determine the spatial distance with the highest frequency value. This fitting analysis uses one or more fitting parameters, which in the present case are adapted to the extracted particle information. The extracted particle information is thus taken into account by the fitting parameters. The first environment data can therefore be evaluated particularly precisely.

Gemäß einer weiteren Ausführungsform betrifft der Fitting Parameter eine Gauß‘sche Verteilung zur näherungsweisen Beschreibung der Häufigkeitsverteilung.According to a further embodiment, the fitting parameter relates to a Gaussian distribution for the approximate description of the frequency distribution.

Die Gauß‘sche Verteilung ist besonders geeignet zur Beschreibung eines Histogramms, um die Entfernung eines von einem Radar- und/oder Lidarsensor detektierten Objekts mit hoher Genauigkeit zu bestimmen. Die Gauß‘sche Verteilung kann mittels eines Fitting Parameters, der beispielsweise eine Halbwertsbreite, ein Hauptmaximum oder ein Nebenmaximum der Gauß‘schen Verteilung sein kann, definiert werden.The Gaussian distribution is particularly suitable for describing a histogram in order to determine the distance of an object detected by a radar and / or lidar sensor with high accuracy. The Gaussian distribution can be defined by means of a fitting parameter, which can be, for example, a half width, a main maximum or a secondary maximum of the Gaussian distribution.

Das erfindungsgemäße Computerprogrammprodukt ist ausgeführt, in einen Speicher eines Computers geladen zu werden und umfasst Softwarecodeabschnitte, mit denen die Verfahrensschritte des erfindungsgemäßen Verfahrens ausgeführt werden, wenn das Computerprogrammprodukt auf dem Computer läuft.The computer program product according to the invention is designed to be loaded into a memory of a computer and comprises software code sections with which the method steps of the method according to the invention are carried out when the computer program product is running on the computer.

Ein Programm gehört zur Software eines Daten verarbeitenden Systems, zum Beispiel einer Auswerteeinrichtung oder einem Computer. Software ist ein Sammelbegriff für Programme und zugehörigen Daten. Das Komplement zu Software ist Hardware. Hardware bezeichnet die mechanische und elektronische Ausrichtung eines Daten verarbeitenden Systems. Ein Computer ist eine Auswerteeinrichtung.A program belongs to the software of a data processing system, for example an evaluation device or a computer. Software is a collective term for programs and associated data. The complement to software is hardware. Hardware describes the mechanical and electronic alignment of a data processing system. A computer is an evaluation device.

Computerprogrammprodukte umfassen in der Regel eine Folge von Befehlen, durch die die Hardware bei geladenem Programm veranlasst wird, ein bestimmtes Verfahren durchzuführen, das zu einem bestimmten Ergebnis führt. Wenn das betreffende Programm auf einem Computer zum Einsatz kommt, ruft das Computerprogrammprodukt den oben beschriebenen erfinderischen technischen Effekt hervor.Computer program products generally comprise a sequence of instructions which, when the program is loaded, cause the hardware to carry out a specific method that leads to a specific result. When the program in question is used on a computer, the computer program product produces the inventive technical effect described above.

Das erfindungsgemäße Computerprogrammprodukt ist Plattform unabhängig. Das heißt, es kann auf jeder beliebigen Rechenplattform ausgeführt werden. Bevorzugt wird das Computerprogrammprodukt auf einer erfindungsgemäßen Auswertevorrichtung zum Erfassen des Umfelds des Fahrzeugs ausgeführt.The computer program product according to the invention is platform independent. That means it can run on any computing platform. The computer program product is preferably executed on an evaluation device according to the invention for detecting the surroundings of the vehicle.

Die Softwarecodeabschnitte sind in einer beliebigen Programmiersprache geschrieben, zum Beispiel in Python, Java, JavaScript, C, C++, C#, Matlab, LabView, Objective C.The software code sections are written in any programming language, for example in Python, Java, JavaScript, C, C ++, C #, Matlab, LabView, Objective C.

Das computerlesbare Speichermedium ist beispielsweise ein elektronisches, magnetisches, optisches oder magneto-optisches Speichermedium.The computer-readable storage medium is, for example, an electronic, magnetic, optical or magneto-optical storage medium.

Das Datenträgersignal ist ein Signal, welches das Computer-Programm-Produkt von einem Speichermedium, auf dem das Computer-Programm-Produkt gespeichert ist, auf eine andere Entität, beispielsweise ein anderes Speichermedium, einen Server, ein Cloud-System, ein drahtloses Kommunikationssystem der 4G/5G oder eine Daten verarbeitende Einrichtung, überträgt.The data carrier signal is a signal which the computer program product from a storage medium on which the computer program product is stored to another entity, for example another storage medium, a server, a cloud system, a wireless communication system 4G / 5G or a data processing facility, transmits.

Ausführungsformen werden nun beispielhaft und unter Bezugnahme auf die beigefügten Zeichnungen beschrieben. Es zeigen:

  • 1 eine schematische Darstellung einer Vorrichtung zur Objekterkennung in einem Umfeld eines Fahrzeugs gemäß einer Ausführungsform; und
  • 2 eine schematische Darstellung eines Histogramms;
  • 3 eine schematische Darstellung einer Sensoreinrichtung in einer Draufsicht; und
  • 4 eine weitere schematische Darstellung der Sensoreinrichtung aus 3 in einer perspektivischen Ansicht.
Embodiments will now be described by way of example and with reference to the accompanying drawings. Show it:
  • 1 a schematic representation of a device for object recognition in an environment of a vehicle according to an embodiment; and
  • 2 a schematic representation of a histogram;
  • 3 a schematic representation of a sensor device in a plan view; and
  • 4th a further schematic representation of the sensor device 3 in a perspective view.

In den Figuren beziehen sich gleiche Bezugszeichen auf gleiche oder funktionsähnliche Bezugsteile. In den einzelnen Figuren sind die jeweils relevanten Bezugsteile gekennzeichnet.In the figures, the same reference symbols relate to the same or functionally similar reference parts. The relevant reference parts are identified in the individual figures.

1 zeigt eine schematische Darstellung einer Vorrichtung 10 zur Objekterkennung in einem Umfeld eines Fahrzeugs gemäß einer Ausführungsform. 1 shows a schematic representation of a device 10 for object recognition in the surroundings of a vehicle according to one embodiment.

Die Vorrichtung 10 umfasst einen ersten Dateneingang 12 zum Erhalten von ersten Umfeld Daten, die eine primäre Sensoreinrichtung 20 beim Erfassen des Umfelds des Fahrzeugs erzeugt. Die primäre Sensoreinrichtung 20 ist vorzugsweise ein Radarsensor, ein Lidarsensor oder eine kombinierte Sensorik bestehend aus einem Radaranteil und einem Lidaranteil. Die primäre Sensoreinrichtung 20 kann am Fahrzeug angeordnet sein. Die primäre Sensoreinrichtung 20 hat einen ersten Erfassungsbereich, der beispielsweise eine Kegelform aufweist.The device 10 comprises a first data input 12 for obtaining first environment data which a primary sensor device 20th generated when detecting the surroundings of the vehicle. The primary sensor device 20th is preferably a radar sensor, a lidar sensor or a combined sensor system consisting of a radar part and a lidar part. The primary sensor device 20th can be arranged on the vehicle. The primary sensor device 20th has a first detection area which, for example, has a conical shape.

Die Vorrichtung 10 umfasst außerdem einen zweiten Dateneingang 14 zum Erhalten von zweiten Umfeld Daten, die eine sekundäre Sensoreinrichtung 30 beim Erfassen des Umfelds des Fahrzeugs erzeugt. Die sekundäre Sensoreinrichtung 30 ist vorzugsweise eine Kamera, insbesondere eine RGB-Kamera. Die sekundäre Sensoreinrichtung 30 kann ebenfalls Fahrzeug 50 angeordnet sein. Die sekundäre Sensoreinrichtung 30 hat einen zweiten Erfassungsbereich.The device 10 also includes a second data input 14th to obtain second environment data, which a secondary sensor device 30th generated when detecting the surroundings of the vehicle. The secondary sensor device 30th is preferably a camera, in particular an RGB camera. The secondary sensor device 30th can also be vehicle 50 be arranged. The secondary sensor device 30th has a second detection area.

Die Vorrichtung 10 umfasst ferner eine Auswerteeinheit 16 zum Extrahieren von Materialklassendaten aus den zweiten Umfeld Daten. Die Auswerteeinheit 16 ist außerdem dazu ausgebildet, die ersten Umfeld Daten mit den extrahierten Materialklassendaten wie oben näher beschrieben zu kombinieren.The device 10 further comprises an evaluation unit 16 for extracting material class data from the second environment data. The evaluation unit 16 is also designed to combine the first environment data with the extracted material class data as described in more detail above.

Die Vorrichtung 10 umfasst schließlich einen Signalausgang 18 zum Weiterleiten eines Steuersignals, welches basierend auf der Auswertung durch die Auswerteeinheit 16 erzeugt ist. Das Steuersignal kann zur Ansteuerung des Fahrzeugs n das Fahrzeug, insbesondere an einen Aktuator des Fahrzeugs, ausgegeben werden.The device 10 finally includes a signal output 18th for forwarding a control signal based on the evaluation by the evaluation unit 16 is generated. The control signal can be output to control the vehicle n the vehicle, in particular to an actuator of the vehicle.

2A-B zeigt jeweils eine schematische Darstellung eines Histogramms, welches aus den ersten Umfeld Daten gewonnen ist. Die primäre Sensoreinrichtung 20 ist vorzugsweise ein Lidarsensor. Die sekundäre Sensoreinrichtung 30 ist vorzugsweise eine RGB-Kamera. In 2A bezieht sich das Histogramm auf ein Umfeld unter guten Wetterbedingungen. In 2B bezieht sich das Histogramm auf ein Umfeld unter nebligen Wetterbedingungen. Im Vergleich zum Histogramm in 2A weist das Histogramm in 2B ein Hauptmaximum 62a, b auf, welches von Nebenmaximen mit höheren Detektionswerten umgeben ist. Diese höheren Detektionswerte der Nebenmaximen sind auf die Nebelpartikel zurückzuführen, da die Nebelpartikel das vom Lidarsensor ausgesendete Lichtsignal zurückstreut bzw. reflektiert, wodurch sich die Anzahl der empfangenen Lichtsignale erhöht. 2A-B each shows a schematic representation of a histogram which is derived from the first environment data is obtained. The primary sensor device 20th is preferably a lidar sensor. The secondary sensor device 30th is preferably an RGB camera. In 2A the histogram refers to an environment under good weather conditions. In 2 B the histogram refers to an environment under foggy weather conditions. Compared to the histogram in 2A shows the histogram in 2 B a main maximum 62a , b which is surrounded by secondary maxims with higher detection values. These higher detection values of the secondary maxims are due to the fog particles, since the fog particles backscatter or reflect the light signal emitted by the lidar sensor, which increases the number of light signals received.

Um der erhöhten Nebelpartikelkonzentration Rechnung zu tragen ist es vorteilhaft, dass der Auswertung der ersten Umfeld Daten zugrundeliegende rechnerische Modell an die Nebenmaximen anzupassen. Erfindungsgemäß wird dies realisiert, indem die Nebelpartikel von der RGB-Kamera erfasst werden, sodass die zweiten Umfeld Daten Informationen betreffend Nebelpartikel beinhalten. Basierend auf den zweiten Umfeld Daten kann somit beispielsweise eine Gauß‘sche Verteilung gewählt werden, die das Histogramm in 2B mit höherer Genauigkeit näherungsweise beschreibt.In order to take account of the increased fog particle concentration, it is advantageous to adapt the computational model on which the evaluation of the first environment data is based to the secondary maxims. According to the invention, this is implemented in that the fog particles are recorded by the RGB camera, so that the second environment contains data relating to fog particles. Based on the second environment data, a Gaussian distribution can thus be selected, for example, which the histogram in 2 B describes approximately with higher accuracy.

3 zeigt eine schematische Darstellung der primären Sensoreinrichtung 20 in einer Draufsicht. Die Sensoreinrichtung 20 ist ein Lidarsensor und umfasst eine Sendeeinheit 26 zum Aussenden eines Laserlichtsignals und eine Empfangseinheit 28 zum Empfangen des Laserlichtsignals nachdem dieses von einem Objekt im Umfeld des Fahrzeugs zurückgestreut worden ist. Der Lidarsensor weist ein Gehäuse 22 auf, welches einen transparenten Vorderdeckel 24 umfasst. Die Sende- und Empfangseinheit 26, 28 sind zum Vorderdeckel 24 hin ausgerichtet. Des Weiteren ist in diesem Beispiel die sekundäre Sensoreinrichtung 30, welche eine RGB-Kamera ist, ebenfalls im Gehäuse 22 angeordnet. Insbesondere ist die RGB-Kamera am Vorderdeckel 24 angebracht, sodass die RGB-Kamera über das transparente Material des Vorderdeckels 24 das Umfeld des Fahrzeugs erfassen kann. In 4 ist die Sensoreinrichtung 20, 30 in einer perspektivischen Ansicht gezeigt. 3 shows a schematic representation of the primary sensor device 20th in a top view. The sensor device 20th is a lidar sensor and includes a transmitter unit 26th for emitting a laser light signal and a receiving unit 28 for receiving the laser light signal after it has been scattered back from an object in the vicinity of the vehicle. The lidar sensor has a housing 22nd on, which has a transparent front cover 24 includes. The sender and receiver unit 26th , 28 are to the front cover 24 aligned towards. Furthermore, in this example there is the secondary sensor device 30th , which is an RGB camera, also in the housing 22nd arranged. In particular, the RGB camera is on the front cover 24 attached so that the RGB camera is over the transparent material of the front cover 24 can capture the surroundings of the vehicle. In 4th is the sensor device 20th , 30th shown in a perspective view.

Wenn sich bei schlechten Wetter- oder Luftbedingungen Partikel auf dem Vorderdeckel 24 niederschlagen, werden diese von der RGB-Kamera erfasst. Die hieraus entstehenden (zweiten) Umfeld Daten beinhalten daher die Partikelinformationen. Diese können wie oben beschrieben zur Auswertung der (ersten) Umfeld Daten des Lidarsensors verwendet werden. Somit ist die Auswertung der ersten Umfeld Daten und damit einhergehend die Objekterkennung besonders zuverlässig.If there are particles on the front cover in poor weather or air conditions 24 precipitate, these are recorded by the RGB camera. The resulting (second) environment data therefore contain the particle information. As described above, these can be used to evaluate the (first) environment data of the lidar sensor. The evaluation of the first environment data and the associated object recognition are therefore particularly reliable.

BezugszeichenlisteList of reference symbols

1010
Vorrichtungcontraption
1212
erster Dateneingangfirst data entry
1414th
zweiter Dateneingangsecond data input
1616
AuswerteeinheitEvaluation unit
1818th
SignalausgangSignal output
2020th
primäre Sensoreinrichtungprimary sensor device
2222nd
Gehäusecasing
2424
VorderdeckelFront cover
2626th
SendeeinheitSending unit
2828
EmpfangseinheitReceiving unit
3030th
sekundäre Sensoreinrichtungsecondary sensor device
3232
zweiter Erfassungsbereichsecond detection area
6060
Umfeldenvironment
62a,b62a, b
HauptmaximumMain maximum

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • DE 102018115265 A1 [0003]DE 102018115265 A1 [0003]

Claims (10)

Verfahren zur Objekterkennung in einem Umfeld (60) eines Fahrzeugs, umfassend: - Erhalten von ersten Umfeld Daten, die eine primäre Sensoreinrichtung (20) beim Erfassen des Umfelds (60) des Fahrzeugs erzeugt; - Erhalten von zweiten Umfeld Daten, die eine sekundäre Sensoreinrichtung (30) beim Erfassen des Umfelds (60) des Fahrzeugs erzeugt; - Extrahieren von Partikelinformationen aus den zweiten Umfeld Daten; und - Verarbeiten der ersten Umfeld Daten basierend auf den extrahierten Partikelinformationen .A method for object recognition in the surroundings (60) of a vehicle, comprising: - Receiving first environment data which a primary sensor device (20) generates when detecting the environment (60) of the vehicle; - Receiving second environment data which a secondary sensor device (30) generates when detecting the environment (60) of the vehicle; Extracting particle information from the second environment data; and - Processing of the first environment data based on the extracted particle information. Verfahren nach Anspruch 1, weiter umfassend Bestimmen einer Häufigkeitsverteilung aus den ersten Umfeld Daten.Procedure according to Claim 1 , further comprising determining a frequency distribution from the first environment data. Verfahren nach Anspruch 2, wobei die Häufigkeitsverteilung mit Hilfe eines Fitting Parameters, der an die extrahierten Partikelinformationen angepasst ist, ausgewertet wird.Procedure according to Claim 2 , the frequency distribution being evaluated with the aid of a fitting parameter that is adapted to the extracted particle information. Verfahren nach Anspruch 3, wobei der Fitting Parameter eine Gauß‘sche Verteilung zur näherungsweisen Beschreibung der Häufigkeitsverteilung betrifft.Procedure according to Claim 3 , whereby the fitting parameter relates to a Gaussian distribution for the approximate description of the frequency distribution. Verfahren nach Anspruch 4, wobei der Fitting Parameter eine Halbwertsbreite, ein Hauptmaximum oder ein Nebenmaximum der Gauß‘schen Verteilung umfasst.Procedure according to Claim 4 , wherein the fitting parameter comprises a half width, a main maximum or a secondary maximum of the Gaussian distribution. Vorrichtung (10) zur Objekterkennung in einem Umfeld (60) eines Fahrzeugs, umfassend: - einen ersten Dateneingang (12) zum Erhalten von ersten Umfeld Daten, die eine primäre Sensoreinrichtung (20) beim Erfassen des Umfelds (60) des Fahrzeugs erzeugt; - einen zweiten Dateneingang (14) zum Erhalten von zweiten Umfeld Daten, die eine sekundäre Sensoreinrichtung (30) beim Erfassen des Umfelds (60) des Fahrzeugs erzeugt; und - eine Auswerteeinheit (16) zum Extrahieren von Partikelinformationen aus den zweiten Umfeld Daten und zum Verarbeiten der ersten Umfeld Daten basierend auf den extrahierten Partikelinformationen.Device (10) for object recognition in the surroundings (60) of a vehicle, comprising: - A first data input (12) for receiving first environment data, which a primary sensor device (20) generates when detecting the environment (60) of the vehicle; - A second data input (14) for receiving second environment data which a secondary sensor device (30) generates when detecting the environment (60) of the vehicle; and - An evaluation unit (16) for extracting particle information from the second environment data and for processing the first environment data based on the extracted particle information. Verwendung der Vorrichtung (10) nach Anspruch 6 in einem Fahrzeug.Use of the device (10) after Claim 6 in a vehicle. Computer-Programm-Produkt, umfassend Befehle, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das Verfahren nach Anspruch 1 auszuführen.Computer program product, comprising instructions which, when the program is executed by a computer, cause the computer to perform the method according to Claim 1 execute. Computerlesbares Speichermedium, auf dem das Computer-Programm-Produkt nach Anspruch 8 gespeichert ist.Computer-readable storage medium on which the computer program product is based Claim 8 is stored. Datenträgersignal, das das Computer-Programm-Produkt nach Anspruch 8 überträgt.Data carrier signal that the computer program product according to Claim 8 transmits.
DE102019205469.2A 2019-04-16 2019-04-16 Object detection in the vicinity of a vehicle using a primary sensor device and a secondary sensor device Withdrawn DE102019205469A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019205469.2A DE102019205469A1 (en) 2019-04-16 2019-04-16 Object detection in the vicinity of a vehicle using a primary sensor device and a secondary sensor device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019205469.2A DE102019205469A1 (en) 2019-04-16 2019-04-16 Object detection in the vicinity of a vehicle using a primary sensor device and a secondary sensor device

Publications (1)

Publication Number Publication Date
DE102019205469A1 true DE102019205469A1 (en) 2020-10-22

Family

ID=72660176

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019205469.2A Withdrawn DE102019205469A1 (en) 2019-04-16 2019-04-16 Object detection in the vicinity of a vehicle using a primary sensor device and a secondary sensor device

Country Status (1)

Country Link
DE (1) DE102019205469A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10324897A1 (en) * 2003-05-30 2004-12-23 Robert Bosch Gmbh Object detection method for a vehicle driver assistance system based on maximum a-posteriori estimation of Bayesian probability functions for independently obtained measurement values
DE102008012840A1 (en) * 2007-03-07 2008-11-06 Fuji Jukogyo Kabushiki Kaisha Object detection system
DE102009020328A1 (en) * 2009-05-07 2010-11-11 Bayerische Motoren Werke Aktiengesellschaft A method for displaying differently well visible objects from the environment of a vehicle on the display of a display device
WO2018115917A1 (en) * 2016-12-20 2018-06-28 Toyota Motor Europe Electronic device, system and method for augmenting image data of a passive optical sensor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10324897A1 (en) * 2003-05-30 2004-12-23 Robert Bosch Gmbh Object detection method for a vehicle driver assistance system based on maximum a-posteriori estimation of Bayesian probability functions for independently obtained measurement values
DE102008012840A1 (en) * 2007-03-07 2008-11-06 Fuji Jukogyo Kabushiki Kaisha Object detection system
DE102009020328A1 (en) * 2009-05-07 2010-11-11 Bayerische Motoren Werke Aktiengesellschaft A method for displaying differently well visible objects from the environment of a vehicle on the display of a display device
WO2018115917A1 (en) * 2016-12-20 2018-06-28 Toyota Motor Europe Electronic device, system and method for augmenting image data of a passive optical sensor

Similar Documents

Publication Publication Date Title
DE102017203838B4 (en) Process and system for detecting the surroundings
DE102013113619B4 (en) Probabilistic target selection and hazard assessment method and application to an intersection collision warning system
DE102017103374A1 (en) COLLISION PREVENTION USING ACOUSTIC DATA
DE102018218220A1 (en) Control device for a vehicle
DE102015112103A1 (en) Detection device for detecting fog for a motor vehicle
DE102020107484A1 (en) METHOD AND DEVICE FOR CONFIRMING A RADAR DETECTION
DE112014002958T5 (en) Managing sensor detection in a driver assistance system of a vehicle
WO2020127245A1 (en) Determining the orientation of objects by means of radar or through the use of electromagnetic interrogation radiation
DE102018129094A1 (en) PRECIPITATION DETECTION
DE102017212513A1 (en) Method and system for detecting a free area within a parking lot
DE102017000753A1 (en) Method for detecting moisture in a vehicle environment
EP3867666B1 (en) Method for detecting at least particle compositions in a monitoring region by means of an optical detection device, and detection device
DE102018103969A1 (en) Computer-implemented method for generating sensor data
DE102017205245A1 (en) Free range fusion for driver assistance systems
DE102019205469A1 (en) Object detection in the vicinity of a vehicle using a primary sensor device and a secondary sensor device
DE102019205498A1 (en) Environment monitoring of a vehicle using a primary sensor device and a secondary sensor device
WO2017162788A1 (en) Method for capturing at least one object, apparatus of a sensor device, sensor device, and driver assistance system having at least one sensor device
WO2021078335A1 (en) Method for capturing a target object
DE102019206901A1 (en) Agricultural environment recognition to avoid collisions with the help of a drone
DE102019205474A1 (en) Object detection in the vicinity of a vehicle using a primary sensor device and a secondary sensor device
DE102020212306A1 (en) Procedure for early tunnel detection
DE112019006281T5 (en) INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
DE102019214796A1 (en) Object detection in the vicinity of an agricultural machine using an ultra-broadband radar sensor
DE102019214567B4 (en) Method and device for operating a pulsed lidar sensor
DE102019201912A1 (en) Control of an agricultural machine based on the detection of a boundary on agricultural land

Legal Events

Date Code Title Description
R163 Identified publications notified
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee