DE102019205469A1 - Object detection in the vicinity of a vehicle using a primary sensor device and a secondary sensor device - Google Patents
Object detection in the vicinity of a vehicle using a primary sensor device and a secondary sensor device Download PDFInfo
- Publication number
- DE102019205469A1 DE102019205469A1 DE102019205469.2A DE102019205469A DE102019205469A1 DE 102019205469 A1 DE102019205469 A1 DE 102019205469A1 DE 102019205469 A DE102019205469 A DE 102019205469A DE 102019205469 A1 DE102019205469 A1 DE 102019205469A1
- Authority
- DE
- Germany
- Prior art keywords
- vehicle
- sensor device
- environment
- environment data
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Verfahren zur Objekterkennung in einem Umfeld (60) eines Fahrzeugs, umfassend Erhalten von ersten Umfeld Daten, die eine primäre Sensoreinrichtung (20) beim Erfassen des Umfelds (60) des Fahrzeugs erzeugt; Erhalten von zweiten Umfeld Daten, die eine sekundäre Sensoreinrichtung (30) beim Erfassen des Umfelds (60) des Fahrzeugs erzeugt; Extrahieren von Partikelinformationen aus den zweiten Umfeld Daten; und Verarbeiten der ersten Umfeld Daten basierend auf den extrahierten Partikelinformationen.A method for object recognition in the surroundings (60) of a vehicle, comprising receiving first surroundings data which a primary sensor device (20) generates when detecting the surroundings (60) of the vehicle; Obtaining second environment data which a secondary sensor device (30) generates when detecting the environment (60) of the vehicle; Extracting particle information from the second environment data; and processing the first environment data based on the extracted particle information.
Description
TECHNISCHES GEBIETTECHNICAL AREA
Die vorliegende Erfindung betrifft das Gebiet der Fahrzeuge, insbesondere der autonom beziehungsweise teilautonom fahrenden Fahrzeuge. Konkret betrifft die vorliegende Erfindung eine Vorrichtung, ein Verfahren, ein Computer-Programm-Produkt, ein computerlesbares Speichermedium sowie ein Datenträgersignal zur Objekterkennung in einem Umfeld eines Fahrzeugs.The present invention relates to the field of vehicles, in particular autonomous or partially autonomous vehicles. Specifically, the present invention relates to a device, a method, a computer program product, a computer-readable storage medium and a data carrier signal for object recognition in the surroundings of a vehicle.
TECHNISCHER HINTERGRUNDTECHNICAL BACKGROUND
Objekterkennung spielt im automatisierten Fahren eine zentrale Rolle. Objekte, die sich in einem Umfeld eines selbstfahrenden oder teilweise selbstfahrenden Fahrzeuges befinden, müssen mit hoher Genauigkeit und Rechtzeitigkeit erkannt werden. Dies dient dazu, um Maßnahmen zu ergreifen, die eine Kollision mit solchen Objekten, etwa anderen Fahrzeugen, Verkehrsteilnehmern, Personen, Tieren, Bebauungen, Bepflanzungen, öffentlichen und privaten Verkehrseinrichtungen ... usw., zu vermeiden oder zumindest zu reduzieren.Object recognition plays a central role in automated driving. Objects that are in the vicinity of a self-driving or partially self-driving vehicle must be detected with a high degree of accuracy and timeliness. This is used to take measures to avoid or at least reduce a collision with such objects, such as other vehicles, road users, people, animals, buildings, plantings, public and private transport facilities ... etc.
Zwecks zuverlässigerer und schnellerer Objekterkennung sind in der Vergangenheit zahlreiche Lösungsansätze vorgeschlagen worden. Beispielsweise offenbart
Es besteht jedoch Bedarf an Verbesserung der Schnelligkeit und Genauigkeit der Objekterkennung. Die bekannten Lösungsansätze sind dahingehend mangelhaft, dass die mittels Umfeld Sensoren gewonnene Daten durch das Beseitigen der falschen Positiven nicht hinreichend verwertet werden und zahlreiche Informationen ungenutzt weggefiltert werden. Auch der Zuversichtlichkeitsgrad, dass detektierte Sensorsignale einem bestimmten Objekt bzw. einer bestimmten Objektklasse zuzuordnen ist, ist bei den bekannten Lösungsansätzen aufgrund der Art und Weise der Datenverarbeitung und der der verwendeten Sensorik zugrunde liegenden physikalischen Gegebenheiten beschränkt.However, there is a need to improve the speed and accuracy of object recognition. The known approaches to a solution are inadequate in that the data obtained by means of the environment sensors are not adequately utilized by eliminating the false positives and a large amount of information is filtered out unused. The degree of confidence that detected sensor signals can be assigned to a certain object or a certain object class is also limited in the known approaches due to the type and manner of data processing and the physical conditions underlying the sensor system used.
Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, die Objekterkennung im Umfeld eines vollständig oder teilweise autonom fahrenden Fahrzeuges hinsichtlich der Schnelligkeit und Zuverlässigkeit zu verbessern.The present invention is therefore based on the object of improving the object recognition in the vicinity of a fully or partially autonomous vehicle with regard to speed and reliability.
Die Aufgabe wird gelöst durch eine Vorrichtung, ein Verfahren, ein Computer-Programm-Produkt, ein computerlesbares Speichermedium sowie ein Datenträgersignal gemäß den unabhängigen Ansprüchen.The object is achieved by a device, a method, a computer program product, a computer-readable storage medium and a data carrier signal according to the independent claims.
Bei der erfindungsgemäßen Vorrichtung zur Objekterkennung kann es sich beispielsweise um eine elektronische Steuer- oder Regeleinheit (engl. ECU = Electronic Control Unit), ein elektronisches Steuer- oder Regelmodul (ECM = Electronic Control Module) oder eine Steuer-/Regeleinheit für autonomes Fahren (z.B. ein „Autopilot“) handeln. Die Vorrichtung kann sich am Fahrzeug befinden, oder außerhalb bzw. teilweise außerhalb des Fahrzeugs. Beispielsweise kann die erfindungsgemäße Vorrichtung Teil einer zentralen Überwachungseinrichtung im Straßenverkehr, insbesondere im Stadtverkehr, im Autobahnverkehr, auf einem zumindest teilweise geschlossenen industriellen, gewerblichen Gelände und/oder auf einer landwirtschaftlichen Nutzfläche sein. Die Kommunikation zwischen der erfindungsgemäßen Vorrichtung und dem Fahrzeug bzw. zwischen der zentralen Überwachungseinrichtung und dem Fahrzeug kann drahtlos, etwa über Bluetooth, Infrarot, Nahfeld-Kommunikation (Engl.: NFC), Funk, Internet, Intranet, Cloud-Systeme, Blockchain-Systeme, 4G-Kommunikationsnetzwerke, 5G-Kommunikationsnetzwerke und/oder verdrahtete Systeme erfolgen.The device according to the invention for object recognition can be, for example, an electronic control or regulating unit (ECU), an electronic control or regulating module (ECM = Electronic Control Module) or a control / regulating unit for autonomous driving ( eg an “autopilot”). The device can be located on the vehicle, or outside or partially outside the vehicle. For example, the device according to the invention can be part of a central monitoring device in road traffic, in particular in city traffic, in motorway traffic, on an at least partially closed industrial, commercial site and / or on an agricultural area. The communication between the device according to the invention and the vehicle or between the central monitoring device and the vehicle can be wireless, for example via Bluetooth, infrared, near-field communication (NFC), radio, Internet, intranet, cloud systems, blockchain systems , 4G communication networks, 5G communication networks and / or wired systems.
Das Fahrzeug kann ein Personenfahrzeug und/oder ein Nutzfahrzeug, etwa ein Landfahrzeug, ein Industriefahrzeug, eine Industriemaschine, ein Fahrzeug für eine Wechselbrücke, ein mobiler Roboter und/oder ein automatisiertes fahrerloses Transportsystem sein.The vehicle can be a passenger vehicle and / or a utility vehicle, for example a land vehicle, an industrial vehicle, an industrial machine, a vehicle for a swap body, a mobile robot and / or an automated driverless transport system.
Die primäre und/oder sekundäre Sensoreinrichtung sind vorzugsweise am Fahrzeug angebracht, sodass eine laufende Umfeld Erfassung beim Bewegen des Fahrzeugs ermöglicht ist. Alternativ kann die primäre und/oder die sekundäre Sensoreinrichtung an einem anderen Ort mobil oder stationär angeordnet sein. Die Kommunikation zwischen der primären und/oder sekundären Sensoreinrichtung und der erfindungsgemäßen Vorrichtung kann drahtlos, etwa über Bluetooth, Infrarot, Nahfeld-Kommunikation (Engl.: NFC), Funk, Internet, Intranet, Cloud-Systeme, Blockchain-Systeme, 4G-Kommunikationsnetzwerke, 5G-Kommunikationsnetzwerke und/oder verdrahtete Systeme erfolgen.The primary and / or secondary sensor device are preferably attached to the vehicle so that an ongoing detection of the surroundings is made possible when the vehicle is moving. Alternatively, the primary and / or the secondary sensor device can be arranged in a mobile or stationary manner at another location. The communication between the primary and / or secondary sensor device and the device according to the invention can be wireless, for example via Bluetooth, infrared, near-field communication (NFC), radio, Internet, intranet, cloud systems, blockchain systems, 4G communication networks , 5G communication networks and / or wired systems.
Die primäre Sensoreinrichtung ist beispielsweise ein Abstandssensor, etwa ein Radarsensor, ein Lidarsensor und/oder ein Ultraschallsensor. Die von der primären Sensoreinrichtung erzeugten ersten Umfeld Daten enthalten typischerweise Positionsdaten eines oder mehrerer von der primären Sensoreinrichtung im Umfeld des Fahrzeugs erfassten Objekte.The primary sensor device is, for example, a distance sensor, for example a radar sensor, a lidar sensor and / or an ultrasonic sensor. The first environment data generated by the primary sensor device typically contain position data of one or more of the primary Sensor device in the vicinity of the vehicle detected objects.
Beispielsweise werden für den Fall, dass die primäre Sensoreinrichtung einen Radarsensor umfasst, von einem Sender des Radarsensors ein Radiofrequenzsignal (nachfolgend: RF-Signal) gesendet. Das RF-Signal wird an einem im Umfeld des Fahrzeugs befindlichen Objekt zurückgestreut bzw. reflektiert und propagiert zu einem Empfänger des Radarsensors zurück. Die Zeitdauer, in der das RF-Signal zwischen dem Sende- und Empfangszeitpunkt ausgebreitet ist, ist im Fachbereich allgemein als Flugzeit (Engl.: Time of Flight, ToF) bekannt. Aus der Flugzeit lässt sich die Position des das RF-Signal reflektierenden Objektes typischerweise in Form von einem Höhenwinkel, einem Seitenwinkel und einer Entfernung bestimmen.For example, in the event that the primary sensor device comprises a radar sensor, a radio frequency signal (hereinafter: RF signal) is sent from a transmitter of the radar sensor. The RF signal is scattered back or reflected on an object in the vicinity of the vehicle and propagates back to a receiver of the radar sensor. The period in which the RF signal is propagated between the time of transmission and reception is generally known in the technical field as the time of flight (ToF). The position of the object reflecting the RF signal can be determined from the flight time, typically in the form of an elevation angle, a lateral angle and a distance.
Alternativ kann für den Fall, dass die primäre Sensoreinrichtung einen Lidarsensor umfasst, von einem Sender des Lidarsensors ein Lichtsignal gesendet. Das Lichtsignal wird an einem im Umfeld des Fahrzeugs befindlichen Objekt zurückgestreut bzw. reflektiert und propagiert zu einem Empfänger des Lidarsensors zurück. Die Zeitdauer, in der das Lichtsignal zwischen dem Sende- und Empfangszeitpunkt ausgebreitet ist, ist ebenfalls als Flugzeit bekannt. Aus der Flugzeit lässt sich die ebenfalls Positionsdaten von erfassten Objekten bestimmen.Alternatively, if the primary sensor device comprises a lidar sensor, a light signal can be sent from a transmitter of the lidar sensor. The light signal is scattered or reflected back on an object located in the vicinity of the vehicle and propagates back to a receiver of the lidar sensor. The period of time in which the light signal is propagated between the time of transmission and reception is also known as the time of flight. The position data of detected objects can also be determined from the flight time.
Derartige Positionsdaten sind ein wesentlicher Bestandteil der ersten Umfeld Daten. Zusätzlich lässt sich zumindest für den Fall, dass ein Radarsensor verwendet wird, basierend auf dem Doppler-Effekt die Geschwindigkeit, mit der sich das erfasste Objekt bewegt, berechnen. Für den Fall, dass ein Lidarsensor verwendet wird, können aufgrund der Intensitätsverteilung des reflektierten Lichtsignals zusätzliche Informationen (Attribute) in den ersten Umfeld Daten berücksichtigt werden.Such position data are an essential part of the first environment data. In addition, at least for the case that a radar sensor is used, the speed at which the detected object is moving can be calculated based on the Doppler effect. In the event that a lidar sensor is used, additional information (attributes) in the first environment data can be taken into account due to the intensity distribution of the reflected light signal.
Die sekundäre Sensoreinrichtung ist beispielsweise eine Kamera, etwa eine RGB-Kamera, eine Stereokamera und/oder eine Rundblickkamera (Engl.: Surroundview Camera) sein. Die sekundäre Sensoreinrichtung ist vorzugsweise dazu ausgebildet, Partikel bzw. Luftpartikel, etwa Regenpartikel, Schneepartikel, Nebelpartikel, Smokpartikel, PM2.5-Partikel, Staubpartikel, ... usw. im Umfeld des Fahrzeugs zu detektieren. Diese Partikel können sich in der Luft oder auf einer Oberfläche, etwa der eines Gehäuses der ersten und/oder zweiten Sensoreinrichtung, befinden. Das Gehäuse kann eine transparente oder semi-transparente Deckelseite zum (teilweisen) Durchlassen von Licht aufweisen.The secondary sensor device is, for example, a camera, for example an RGB camera, a stereo camera and / or a surround view camera. The secondary sensor device is preferably designed to detect particles or air particles, for example rain particles, snow particles, fog particles, smoke particles, PM2.5 particles, dust particles, ... etc. in the vicinity of the vehicle. These particles can be in the air or on a surface, for example that of a housing of the first and / or second sensor device. The housing can have a transparent or semi-transparent cover side for the (partial) passage of light.
Die Auswerteeinheit ist dazu ausgebildet, Partikelinformationen bzw. Luftpartikelinformationen aus den zweiten Umfeld Daten zu extrahieren. Die sekundäre Sensoreinrichtung detektiert die Partikel und generiert hierbei Partikelinformationen, basierend auf denen die ersten Umfeld Daten verarbeitet werden. Dies bedeutet, dass die ersten Umfeld Daten unter Berücksichtigung der Partikelinformationen ausgewertet werden. Auf diese Weise ist die Auswertung der ersten Umfeld Daten besonders genau und zuverlässig, da diese auf die Partikelinformationen angepasst ist und daher diese als Hintergrundinformationen des Umfelds des Fahrzeugs aktiv verwerten kann, statt als allgemeines Rauschen unberücksichtigt zu lassen.The evaluation unit is designed to extract particle information or air particle information from the second environment data. The secondary sensor device detects the particles and generates particle information based on which the first environment data are processed. This means that the first environment data are evaluated taking into account the particle information. In this way, the evaluation of the first environment data is particularly accurate and reliable, since it is adapted to the particle information and can therefore actively use it as background information on the environment of the vehicle, instead of disregarding it as general noise.
Vorteilhafte Ausgestaltungen und Weiterbildungen sind in den Unteransprüchen angegeben.Advantageous refinements and developments are specified in the subclaims.
Gemäß einer Ausführungsform umfasst das Verfahren ferner Bestimmen einer Häufigkeitsverteilung aus den ersten Umfeld Daten.According to one embodiment, the method further comprises determining a frequency distribution from the first environment data.
Die Häufigkeitsverteilung bezieht sich auf eine Verteilung der Signalstärke (z.B. Intensität) als Funktion einer räumlichen Entfernung. Die Häufigkeitsverteilung kann für den Fall, dass es sich bei der primären Sensoreinrichtung um einen Radar- und/oder Lidarsensor handelt, ein Histogramm umfassen.The frequency distribution refers to a distribution of the signal strength (e.g. intensity) as a function of spatial distance. In the event that the primary sensor device is a radar and / or lidar sensor, the frequency distribution can include a histogram.
Gemäß einer weiteren Ausführungsform wird die Häufigkeitsverteilung mit Hilfe eines Fitting Parameter, der an die extrahierten Partikelinformationen angepasst ist, ausgewertet.According to a further embodiment, the frequency distribution is evaluated with the aid of a fitting parameter that is adapted to the extracted particle information.
Im Fall, dass die primäre Sensoreinrichtung einen Radar- und/oder Lidarsensor umfasst, kann die Häufigkeitsverteilung bzw. Histogramm mittels einer Fitting Analyse näherungsweise funktional beschrieben werden, um die räumliche Entfernung mit dem höchsten Häufigkeitswert zu bestimmen. Diese Fitting Analyse verwendet einen oder mehrere Fitting Parameter, die vorliegend an die extrahierten Partikelinformationen angepasst sind. Somit wird den extrahierten Partikelinformationen durch die Fitting Parameter Rechnung getragen. Die ersten Umfeld Daten können daher besonders genau ausgewertet werden.In the event that the primary sensor device comprises a radar and / or lidar sensor, the frequency distribution or histogram can be described approximately functionally by means of a fitting analysis in order to determine the spatial distance with the highest frequency value. This fitting analysis uses one or more fitting parameters, which in the present case are adapted to the extracted particle information. The extracted particle information is thus taken into account by the fitting parameters. The first environment data can therefore be evaluated particularly precisely.
Gemäß einer weiteren Ausführungsform betrifft der Fitting Parameter eine Gauß‘sche Verteilung zur näherungsweisen Beschreibung der Häufigkeitsverteilung.According to a further embodiment, the fitting parameter relates to a Gaussian distribution for the approximate description of the frequency distribution.
Die Gauß‘sche Verteilung ist besonders geeignet zur Beschreibung eines Histogramms, um die Entfernung eines von einem Radar- und/oder Lidarsensor detektierten Objekts mit hoher Genauigkeit zu bestimmen. Die Gauß‘sche Verteilung kann mittels eines Fitting Parameters, der beispielsweise eine Halbwertsbreite, ein Hauptmaximum oder ein Nebenmaximum der Gauß‘schen Verteilung sein kann, definiert werden.The Gaussian distribution is particularly suitable for describing a histogram in order to determine the distance of an object detected by a radar and / or lidar sensor with high accuracy. The Gaussian distribution can be defined by means of a fitting parameter, which can be, for example, a half width, a main maximum or a secondary maximum of the Gaussian distribution.
Das erfindungsgemäße Computerprogrammprodukt ist ausgeführt, in einen Speicher eines Computers geladen zu werden und umfasst Softwarecodeabschnitte, mit denen die Verfahrensschritte des erfindungsgemäßen Verfahrens ausgeführt werden, wenn das Computerprogrammprodukt auf dem Computer läuft.The computer program product according to the invention is designed to be loaded into a memory of a computer and comprises software code sections with which the method steps of the method according to the invention are carried out when the computer program product is running on the computer.
Ein Programm gehört zur Software eines Daten verarbeitenden Systems, zum Beispiel einer Auswerteeinrichtung oder einem Computer. Software ist ein Sammelbegriff für Programme und zugehörigen Daten. Das Komplement zu Software ist Hardware. Hardware bezeichnet die mechanische und elektronische Ausrichtung eines Daten verarbeitenden Systems. Ein Computer ist eine Auswerteeinrichtung.A program belongs to the software of a data processing system, for example an evaluation device or a computer. Software is a collective term for programs and associated data. The complement to software is hardware. Hardware describes the mechanical and electronic alignment of a data processing system. A computer is an evaluation device.
Computerprogrammprodukte umfassen in der Regel eine Folge von Befehlen, durch die die Hardware bei geladenem Programm veranlasst wird, ein bestimmtes Verfahren durchzuführen, das zu einem bestimmten Ergebnis führt. Wenn das betreffende Programm auf einem Computer zum Einsatz kommt, ruft das Computerprogrammprodukt den oben beschriebenen erfinderischen technischen Effekt hervor.Computer program products generally comprise a sequence of instructions which, when the program is loaded, cause the hardware to carry out a specific method that leads to a specific result. When the program in question is used on a computer, the computer program product produces the inventive technical effect described above.
Das erfindungsgemäße Computerprogrammprodukt ist Plattform unabhängig. Das heißt, es kann auf jeder beliebigen Rechenplattform ausgeführt werden. Bevorzugt wird das Computerprogrammprodukt auf einer erfindungsgemäßen Auswertevorrichtung zum Erfassen des Umfelds des Fahrzeugs ausgeführt.The computer program product according to the invention is platform independent. That means it can run on any computing platform. The computer program product is preferably executed on an evaluation device according to the invention for detecting the surroundings of the vehicle.
Die Softwarecodeabschnitte sind in einer beliebigen Programmiersprache geschrieben, zum Beispiel in Python, Java, JavaScript, C, C++, C#, Matlab, LabView, Objective C.The software code sections are written in any programming language, for example in Python, Java, JavaScript, C, C ++, C #, Matlab, LabView, Objective C.
Das computerlesbare Speichermedium ist beispielsweise ein elektronisches, magnetisches, optisches oder magneto-optisches Speichermedium.The computer-readable storage medium is, for example, an electronic, magnetic, optical or magneto-optical storage medium.
Das Datenträgersignal ist ein Signal, welches das Computer-Programm-Produkt von einem Speichermedium, auf dem das Computer-Programm-Produkt gespeichert ist, auf eine andere Entität, beispielsweise ein anderes Speichermedium, einen Server, ein Cloud-System, ein drahtloses Kommunikationssystem der 4G/5G oder eine Daten verarbeitende Einrichtung, überträgt.The data carrier signal is a signal which the computer program product from a storage medium on which the computer program product is stored to another entity, for example another storage medium, a server, a cloud system, a wireless communication system 4G / 5G or a data processing facility, transmits.
Ausführungsformen werden nun beispielhaft und unter Bezugnahme auf die beigefügten Zeichnungen beschrieben. Es zeigen:
-
1 eine schematische Darstellung einer Vorrichtung zur Objekterkennung in einem Umfeld eines Fahrzeugs gemäß einer Ausführungsform; und -
2 eine schematische Darstellung eines Histogramms; -
3 eine schematische Darstellung einer Sensoreinrichtung in einer Draufsicht; und -
4 eine weitere schematische Darstellung der Sensoreinrichtung aus3 in einer perspektivischen Ansicht.
-
1 a schematic representation of a device for object recognition in an environment of a vehicle according to an embodiment; and -
2 a schematic representation of a histogram; -
3 a schematic representation of a sensor device in a plan view; and -
4th a further schematic representation of the sensor device3 in a perspective view.
In den Figuren beziehen sich gleiche Bezugszeichen auf gleiche oder funktionsähnliche Bezugsteile. In den einzelnen Figuren sind die jeweils relevanten Bezugsteile gekennzeichnet.In the figures, the same reference symbols relate to the same or functionally similar reference parts. The relevant reference parts are identified in the individual figures.
Die Vorrichtung
Die Vorrichtung
Die Vorrichtung
Die Vorrichtung
Um der erhöhten Nebelpartikelkonzentration Rechnung zu tragen ist es vorteilhaft, dass der Auswertung der ersten Umfeld Daten zugrundeliegende rechnerische Modell an die Nebenmaximen anzupassen. Erfindungsgemäß wird dies realisiert, indem die Nebelpartikel von der RGB-Kamera erfasst werden, sodass die zweiten Umfeld Daten Informationen betreffend Nebelpartikel beinhalten. Basierend auf den zweiten Umfeld Daten kann somit beispielsweise eine Gauß‘sche Verteilung gewählt werden, die das Histogramm in
Wenn sich bei schlechten Wetter- oder Luftbedingungen Partikel auf dem Vorderdeckel
BezugszeichenlisteList of reference symbols
- 1010
- Vorrichtungcontraption
- 1212
- erster Dateneingangfirst data entry
- 1414th
- zweiter Dateneingangsecond data input
- 1616
- AuswerteeinheitEvaluation unit
- 1818th
- SignalausgangSignal output
- 2020th
- primäre Sensoreinrichtungprimary sensor device
- 2222nd
- Gehäusecasing
- 2424
- VorderdeckelFront cover
- 2626th
- SendeeinheitSending unit
- 2828
- EmpfangseinheitReceiving unit
- 3030th
- sekundäre Sensoreinrichtungsecondary sensor device
- 3232
- zweiter Erfassungsbereichsecond detection area
- 6060
- Umfeldenvironment
- 62a,b62a, b
- HauptmaximumMain maximum
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- DE 102018115265 A1 [0003]DE 102018115265 A1 [0003]
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019205469.2A DE102019205469A1 (en) | 2019-04-16 | 2019-04-16 | Object detection in the vicinity of a vehicle using a primary sensor device and a secondary sensor device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019205469.2A DE102019205469A1 (en) | 2019-04-16 | 2019-04-16 | Object detection in the vicinity of a vehicle using a primary sensor device and a secondary sensor device |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019205469A1 true DE102019205469A1 (en) | 2020-10-22 |
Family
ID=72660176
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019205469.2A Withdrawn DE102019205469A1 (en) | 2019-04-16 | 2019-04-16 | Object detection in the vicinity of a vehicle using a primary sensor device and a secondary sensor device |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102019205469A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10324897A1 (en) * | 2003-05-30 | 2004-12-23 | Robert Bosch Gmbh | Object detection method for a vehicle driver assistance system based on maximum a-posteriori estimation of Bayesian probability functions for independently obtained measurement values |
DE102008012840A1 (en) * | 2007-03-07 | 2008-11-06 | Fuji Jukogyo Kabushiki Kaisha | Object detection system |
DE102009020328A1 (en) * | 2009-05-07 | 2010-11-11 | Bayerische Motoren Werke Aktiengesellschaft | A method for displaying differently well visible objects from the environment of a vehicle on the display of a display device |
WO2018115917A1 (en) * | 2016-12-20 | 2018-06-28 | Toyota Motor Europe | Electronic device, system and method for augmenting image data of a passive optical sensor |
-
2019
- 2019-04-16 DE DE102019205469.2A patent/DE102019205469A1/en not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10324897A1 (en) * | 2003-05-30 | 2004-12-23 | Robert Bosch Gmbh | Object detection method for a vehicle driver assistance system based on maximum a-posteriori estimation of Bayesian probability functions for independently obtained measurement values |
DE102008012840A1 (en) * | 2007-03-07 | 2008-11-06 | Fuji Jukogyo Kabushiki Kaisha | Object detection system |
DE102009020328A1 (en) * | 2009-05-07 | 2010-11-11 | Bayerische Motoren Werke Aktiengesellschaft | A method for displaying differently well visible objects from the environment of a vehicle on the display of a display device |
WO2018115917A1 (en) * | 2016-12-20 | 2018-06-28 | Toyota Motor Europe | Electronic device, system and method for augmenting image data of a passive optical sensor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102017203838B4 (en) | Process and system for detecting the surroundings | |
DE102013113619B4 (en) | Probabilistic target selection and hazard assessment method and application to an intersection collision warning system | |
DE102017103374A1 (en) | COLLISION PREVENTION USING ACOUSTIC DATA | |
DE102018218220A1 (en) | Control device for a vehicle | |
DE102015112103A1 (en) | Detection device for detecting fog for a motor vehicle | |
DE102020107484A1 (en) | METHOD AND DEVICE FOR CONFIRMING A RADAR DETECTION | |
DE112014002958T5 (en) | Managing sensor detection in a driver assistance system of a vehicle | |
WO2020127245A1 (en) | Determining the orientation of objects by means of radar or through the use of electromagnetic interrogation radiation | |
DE102018129094A1 (en) | PRECIPITATION DETECTION | |
DE102017212513A1 (en) | Method and system for detecting a free area within a parking lot | |
DE102017000753A1 (en) | Method for detecting moisture in a vehicle environment | |
EP3867666B1 (en) | Method for detecting at least particle compositions in a monitoring region by means of an optical detection device, and detection device | |
DE102018103969A1 (en) | Computer-implemented method for generating sensor data | |
DE102017205245A1 (en) | Free range fusion for driver assistance systems | |
DE102019205469A1 (en) | Object detection in the vicinity of a vehicle using a primary sensor device and a secondary sensor device | |
DE102019205498A1 (en) | Environment monitoring of a vehicle using a primary sensor device and a secondary sensor device | |
WO2017162788A1 (en) | Method for capturing at least one object, apparatus of a sensor device, sensor device, and driver assistance system having at least one sensor device | |
WO2021078335A1 (en) | Method for capturing a target object | |
DE102019206901A1 (en) | Agricultural environment recognition to avoid collisions with the help of a drone | |
DE102019205474A1 (en) | Object detection in the vicinity of a vehicle using a primary sensor device and a secondary sensor device | |
DE102020212306A1 (en) | Procedure for early tunnel detection | |
DE112019006281T5 (en) | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM | |
DE102019214796A1 (en) | Object detection in the vicinity of an agricultural machine using an ultra-broadband radar sensor | |
DE102019214567B4 (en) | Method and device for operating a pulsed lidar sensor | |
DE102019201912A1 (en) | Control of an agricultural machine based on the detection of a boundary on agricultural land |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |