DE102019202634B3 - Method, control device for an automated road vehicle, computer program product for recognizing objects in road traffic and automated road vehicle for mobility services - Google Patents

Method, control device for an automated road vehicle, computer program product for recognizing objects in road traffic and automated road vehicle for mobility services Download PDF

Info

Publication number
DE102019202634B3
DE102019202634B3 DE102019202634.6A DE102019202634A DE102019202634B3 DE 102019202634 B3 DE102019202634 B3 DE 102019202634B3 DE 102019202634 A DE102019202634 A DE 102019202634A DE 102019202634 B3 DE102019202634 B3 DE 102019202634B3
Authority
DE
Germany
Prior art keywords
objects
road vehicle
road
audio signals
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102019202634.6A
Other languages
German (de)
Inventor
Eduardo Neiva
Joao Curti
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102019202634.6A priority Critical patent/DE102019202634B3/en
Priority to PCT/EP2020/053305 priority patent/WO2020173692A1/en
Application granted granted Critical
Publication of DE102019202634B3 publication Critical patent/DE102019202634B3/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0257Hybrid positioning
    • G01S5/0258Hybrid positioning by combining or switching between measurements derived from different systems
    • G01S5/02585Hybrid positioning by combining or switching between measurements derived from different systems at least one of the measurements being a non-radio measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4044Direction of movement, e.g. backwards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/20Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles

Abstract

Verfahren zum Erkennen von Objekten (1) im Straßenverkehr für automatisiert betreibbare Straßenfahrzeuge (2) umfassend die Schritte: Erhalten von Audiosignalen der Objekte (1) mittels an dem Straßenfahrzeug (2) anordenbaren Mikrofonen (3), Erhalten von Bildsignalen einer Umgebung des Straßenfahrzeuges (2) mittels wenigstens eines an dem Straßenfahrzeug (2) anordenbaren Bildgebungssensor (4), Lokalisieren und Klassifizieren der Objekte (1) in Abhängigkeit der Audiosignale, Zuordnen dieser Lokalisierungen und Klassifizierungen zu den Objekten (1) in der Umgebung des Straßenfahrzeuges (2) in Abhängigkeit eines Vergleichs mit den Bildsignalen, Bestimmen eines Verdeckungsgrades für wenigstens eines der Objekte (1) in Abhängigkeit des Zuordnens und Ausgeben des Verdeckungsgrades. Ferner bezieht sich die Erfindung auf ein Steuergerät (50), ein Computerprogrammprodukt und ein automatisiert betreibbares Straßenfahrzeug (2) für Mobilitätsdienstleistungen.Method for recognizing objects (1) in road traffic for automated road vehicles (2) comprising the steps: obtaining audio signals of the objects (1) by means of microphones (3) which can be arranged on the road vehicle (2), receiving image signals of an environment of the road vehicle ( 2) by means of at least one imaging sensor (4) which can be arranged on the road vehicle (2), locating and classifying the objects (1) as a function of the audio signals, assigning these localizations and classifications to the objects (1) in the vicinity of the road vehicle (2) in Dependency of a comparison with the image signals, determination of a degree of concealment for at least one of the objects (1) depending on the assignment and output of the degree of concealment. The invention further relates to a control device (50), a computer program product and an automated vehicle vehicle (2) for mobility services.

Description

Die Erfindung bezieht sich auf ein Verfahren, ein Steuergerät für ein automatisiert betreibbares Straßenfahrzeug, ein Computerprogrammprodukt zum Erkennen von Objekten im Straßenverkehr und ein automatisiert betreibbares Straßenfahrzeug für Mobilitätsdienstleistungen.The invention relates to a method, a control device for an automated road vehicle, a computer program product for recognizing objects in road traffic and an automated road vehicle for mobility services.

Auf dem Gebiet des automatisierten Fahrens werden Umgebungen mittels Lidar, Radar, Kamera und ähnlichen 2D oder 3D Umgebungserfassungssensoren wahrgenommen. Diese Sensoren können Objekte, die von anderen Objekten verdeckt sind, zum Beispiel eine Person, die sich zwischen zwei an einem Straßenrand parkenden Fahrzeugen befindet und von wenigstens einem dieser Fahrzeuge verdeckt ist, oder eine Person, die von einem Baum oder einem Gebäude verdeckt ist, nicht wahrnehmen.In the field of automated driving, environments are perceived using lidar, radar, cameras and similar 2D or 3D environment detection sensors. These sensors can be objects that are covered by other objects, for example a person who is between two vehicles parked on a roadside and is covered by at least one of these vehicles, or a person who is covered by a tree or a building, not notice.

Die DE 10 2017 111 468 A1 offenbart ein Fahrzeugsystem und Verfahren zum Bestimmen, ob ein Fahrzeuginsasse ein fahrzeugexternes Objekt wahrgenommen hat.The DE 10 2017 111 468 A1 discloses a vehicle system and method for determining whether a vehicle occupant has perceived an object external to the vehicle.

Die DE 10 2017 103 374 A1 offenbart ein Audioverarbeitungsmodul, das Merkmale, die einem Fahrzeug entsprechen können, identifiziert.The DE 10 2017 103 374 A1 discloses an audio processing module that identifies features that may correspond to a vehicle.

Weiterer Stand der Technik ist offenbart in DE 10 2016 120 218 A1 , DE 10 2010 025 351 A1 und US 1 014 0417 B1 .Further prior art is disclosed in DE 10 2016 120 218 A1 , DE 10 2010 025 351 A1 and US 1 014 0417 B1 .

Hier setzt die Erfindung an. Der Erfindung hat die Aufgabe zugrunde gelegen, das Erkennen von verdeckten Personen zu ermöglichen.This is where the invention comes in. The invention has for its object to enable the detection of hidden people.

Das erfindungsgemäße Verfahren zum Erkennen von Objekten im Straßenverkehr ist für automatisiert betreibbare Straßenfahrzeuge konzipiert und löst die Aufgabe durch dadurch, dass Audiosignalen der Objekte mittels an dem Straßenfahrzeug anordenbaren Mikrofonen und Bildsignalen einer Umgebung des Straßenfahrzeuges mittels wenigstens eines an dem Straßenfahrzeug anordenbaren Bildgebungssensor erhalten werden. In Abhängigkeit der Audiosignale werden die Objekte lokalisiert und klassifiziert. Anschließend werden diese Lokalisierungen und Klassifizierungen den Objekten in der Umgebung des Straßenfahrzeuges in Abhängigkeit eines Vergleichs mit den Bildsignalen zugeordnet. In einem weiteren Schritt wird ein Verdeckungsgrades für wenigstens eines der Objekte in Abhängigkeit des Zuordnens bestimmt. Der Verdeckungsgrad wird ausgegeben.The method according to the invention for recognizing objects in road traffic is designed for road vehicles that can be operated automatically and achieves the task by receiving audio signals of the objects by means of microphones that can be arranged on the road vehicle and image signals of an environment of the road vehicle by means of at least one imaging sensor that can be arranged on the road vehicle. Depending on the audio signals, the objects are localized and classified. These localizations and classifications are then assigned to the objects in the vicinity of the road vehicle depending on a comparison with the image signals. In a further step, a degree of concealment for at least one of the objects is determined as a function of the assignment. The degree of concealment is output.

Straßenfahrzeuge sind Fahrzeuge geeignet für den Straßenverkehr mit Verbrennungsmotor und Benzin-, Diesel- oder Synthetikkraftstoff, elektrischem Antrieb, hybridelektrischem Antrieb oder Brennstoffzellenantrieb.Road vehicles are vehicles suitable for road traffic with internal combustion engines and petrol, diesel or synthetic fuels, electric drives, hybrid electric drives or fuel cell drives.

Automatisiert betreibbar bedeutet, dass das Straßenfahrzeug eine technische Ausrüstung, insbesondere Steuergeräte und Aktuatoren, umfasst, die eine automatisierte Steuerung und/oder Regelung der Längs- und/oder Querführung bis hin zu einer vollautomatisierten oder autonomen Steuerung und/oder Regelung ohne menschliche Rückfallebene ermöglicht. Längsführung wird beispielsweise geregelt über Antriebsmomentenregelung, zum Beispiel über elektronische Motorleistungssteuerung, und/oder Bremsmomentenregelung. Querführung regelt die Querdynamik des Fahrzeuges, zum Beispiel Spur- und/oder Richtungstreue, Lenkmanöver und/oder Giergeschwindigkeit.Operable automatically means that the road vehicle includes technical equipment, in particular control units and actuators, which enables automated control and / or regulation of the longitudinal and / or transverse guidance up to a fully automated or autonomous control and / or regulation without a human fallback level. Longitudinal guidance is regulated, for example, via drive torque control, for example via electronic engine power control, and / or braking torque control. Lateral guidance regulates the lateral dynamics of the vehicle, for example lane and / or directional loyalty, steering maneuvers and / or yaw rate.

Objekte im Straßenverkehr sind insbesondere Fußgänger, Kinder, Radfahrer, Läufer, Rollstühle, Rollstuhlfahrer, Tiere und andere Straßenfahrzeuge.Objects in road traffic are in particular pedestrians, children, cyclists, runners, wheelchairs, wheelchair users, animals and other road vehicles.

Ein Audiosignal ist ein elektrisches Signal, das akustische Informationen, insbesondere Geräusche von Objekten im Straßenverkehr, zum Beispiel Kinderlaute oder Trittlaute, transportiert. Mikrofonsignale sind Audiosignale.An audio signal is an electrical signal that transports acoustic information, in particular sounds of objects in traffic, for example children's sounds or pedal sounds. Microphone signals are audio signals.

Bildsignale sind elektrische Signale eines Bildgebungssensors. Ein Bildgebungssensor ist beispielsweise in einer Kamera, einem Lidar- oder Radarsensor enthalten. In diesem Sinne sind Kamera, Lidar- oder Radarsensor Beispiele für Bildgebungssensoren.Image signals are electrical signals from an imaging sensor. An imaging sensor is contained, for example, in a camera, a lidar or radar sensor. In this sense, the camera, lidar or radar sensor are examples of imaging sensors.

Umgebung ist der Bereich, der auf das Straßenfahrzeug einwirken kann, zum Beispiel über Objekte in dem Bereich. Der Erfassungs- oder Wahrnehmungsbereich oder field of view (FOV) der Mikrofone und des Bildgebungssensors decken wenigstens einen Teil der Umgebung ab.Environment is the area that can affect the road vehicle, for example via objects in the area. The detection or perception area or field of view (FOV) of the microphones and the imaging sensor cover at least a part of the environment.

Lokalisieren bedeutet, dass zumindest eine Position der Objekte relative zu dem Straßenfahrzeug bestimmt wird. Klassifizieren bedeutet, dass zumindest die Art des Objektes, zum Beispiel Mensch, Maschine oder Tier, bestimmt wird. Lokalisieren und Klassifizieren erfolgt zum Beispiel mittels einer Amplituden-, Frequenz- und/oder Phasenanalyse der Audiosignale.Localization means that at least one position of the objects is determined relative to the road vehicle. Classifying means that at least the type of object, for example human, machine or animal, is determined. Localization and classification takes place, for example, by means of an amplitude, frequency and / or phase analysis of the audio signals.

Der Verdeckungsgrad gibt an, wie wahrscheinlich es ist, dass ein Objekt von einem anderen Objekt verdeckt ist.The degree of masking indicates how likely it is that an object is masked by another object.

Durch Vergleich der akustischen Lokalisierungen und Klassifizierungen der Objekte mit den Bildsignalen werden die akustisch detektierten Objekte den entsprechenden Objekten in Bildaufnahmen des Bildgebungssensors zugeordnet. Damit werden die Audiosignale und die Bildsignale fusioniert. Durch die Fusion werden insbesondere zusammenhängende Informationen bereitgestellt, die aus Audiosignalen oder Bildsignalen jeweils für sich alleine betrachtet nicht bereitstellbar sind. Damit kann bestimmt werden, ob ein Objekt, das akustisch erfasst wurde, von einem anderen Objekt verdeckt ist. Das Verfahren bringt insbesondere im urbanen Umfeld Vorteile mit sich. Im urbanen Umfeld sind die Gebäudedichte und die Dichte von am Straßenrand parkenden Fahrzeugen hoch, sodass besonders in diesem Umfeld Personen relativ oft verdeckt sind. Beispielsweise verdeckt ein am Straßenrand parkender LKW die Fläche hinter dem LKW relativ zu einem sich herannahenden Straßenfahrzeug. Der Bereich hinter dem LKW ist für Bildgebungssensoren im optischen, infrarotem oder Radarbereich des elektromagnetischen Spektrums nicht sichtbar. Dieser Bereich liegt damit nicht im Erfassungs- oder Wahrnehmungsbereich oder FOV der Bildgebungssensoren. Befindet sich hinter dem LKW eine Person, wird diese erfindungsgemäß akustisch erfasst, beispielsweise durch Tritt- oder Sprachgeräusche. Die Information des Bildgebungssensors über den verdeckten Bereich zusammen mit der akustischen Information ergibt, dass sich eine Person in einem verdeckten Bereich bewegt oder dass es wahrscheinlich ist, dass sich eine Person in einem verdeckten Bereich bewegt. Durch eine derartige Bestätigung mittels des Bildgebungssensors wird die Wahrscheinlichkeit hinsichtlich eines Erkennens von verdeckten Objekten erhöht. Das Verfahren ist der menschlichen Verhaltensweise nachempfunden. Hört zum Beispiel ein menschlicher Fahrer während einer Fahrt mit einem Straßenfahrzeug Geräusche von einem Kind, aber sieht das Kind nicht auf der Straße, folgert der Fahrer, dass das Kind wahrscheinlich von einem anderen Straßenfahrzeug oder einem Baum verdeckt ist. Folglich wird der Fahrer langsamer oder mit höherer Aufmerksamkeit fahren. Dieses menschliche Verhalten überträgt die Erfindung auf selbstfahrende Straßenfahrzeuge, um verdeckte Objekte zu erkennen und Informationen über die verdeckten Objekte auszugeben, beispielsweise an einen Fahrgast oder an eine automatisierte Steuerungseinheit des Straßenfahrzeuges.By comparing the acoustic localizations and classifications of the objects with the image signals, the acoustically detected objects are assigned to the corresponding objects in image recordings of the imaging sensor. In order to the audio signals and the image signals are fused. The merger in particular provides coherent information that cannot be provided individually from audio signals or image signals. It can be used to determine whether an object that has been acoustically detected is covered by another object. The process has advantages, particularly in an urban environment. In the urban environment, the density of buildings and the density of vehicles parked on the side of the road are high, so that people are relatively often concealed in this environment. For example, a truck parked on the side of the road obscures the area behind the truck relative to an approaching road vehicle. The area behind the truck is not visible to imaging sensors in the optical, infrared or radar range of the electromagnetic spectrum. This area is therefore not in the detection or perception area or FOV of the imaging sensors. If there is a person behind the truck, this is detected acoustically according to the invention, for example by footsteps or speech noises. The information from the imaging sensor about the hidden area together with the acoustic information indicates that a person is moving in a hidden area or that a person is likely to be moving in a hidden area. Such a confirmation by means of the imaging sensor increases the probability of recognizing hidden objects. The process is based on human behavior. For example, if a human driver hears noise from a child while driving a road vehicle, but does not see the child on the road, the driver concludes that the child is likely to be covered by another road vehicle or tree. As a result, the driver will drive slower or with more attention. The invention transfers this human behavior to self-driving road vehicles in order to recognize hidden objects and to output information about the hidden objects, for example to a passenger or to an automated control unit of the road vehicle.

Nach einem Aspekt der Erfindung wird ein Steuerungssignal für ein Steuergerät bestimmt, um das Straßenfahrzeug zur Verminderung eines Zusammenstoßes mit einem der verdeckten Objekte automatisiert zu steuern. Beispielsweise wird bei Erkennen von verdeckten Objekten das Straßenfahrzeug abgebremst.According to one aspect of the invention, a control signal is determined for a control device in order to automatically control the road vehicle in order to reduce a collision with one of the hidden objects. For example, the road vehicle is braked when it detects hidden objects.

Im Sinne der Erfindung bereitet ein Steuergerät, im Englischen electronic control unit, abgekürzt ECU, genannt, Eingangssignale auf, verarbeitet diese mittels einer elektronischen Schaltung und stellt Logik- und/oder Leistungspegel als Regel- und/oder Steuersignale bereit.In the sense of the invention, a control device, in English electronic control unit, abbreviated ECU, processes input signals, processes them by means of an electronic circuit and provides logic and / or power levels as control and / or control signals.

Damit kann das Straßenfahrzeug automatisiert gesteuert werden, um Zusammenstöße zu mindern oder zu verhindern, beispielsweise durch Drosselung der Fahrzeuggeschwind igkeit.The road vehicle can thus be controlled automatically in order to reduce or prevent collisions, for example by throttling the vehicle speed.

Erfindungsgemäß werden Art der Objekte, Anzahl der Objekte, Geschwindigkeit der Objekte, Position der Objekte, Größe der Objekte und/oder Bewegungsrichtung der Objekte relativ zu dem Straßenfahrzeug in Abhängigkeit der Audiosignale bestimmt. Bevorzugt werden diese Informationen mit einem ersten trainierten künstlichen neuronalen Netzwerk vorzugsweise einem Faltungsnetzwerk, auch konvolutionales Netzwerk genannt, bestimmt. Das erste künstliche neuronale Netzwerk erhält in einer Eingangsschicht die Audiosignale und die Geschwindigkeit des Straßenfahrzeuges. Diese Informationen werden vorzugsweise in Form einer Liste von wahrscheinlich verdeckten Objekten ausgegeben. Erfindungsgemäß ist ein zweites trainiertes künstliches neuronales Netzwerk vorgesehen, das in einer Eingangsschicht die bestimmten Informationen zu den Objekten erhält und in einer Ausgangsschicht eine mittels Fusion von Audiosignalen und Bildsignalen validierte Liste von wahrscheinlich verdeckten Objekten ausgibt. Alternativ ist ein künstliches neuronales Netzwerk vorgesehen, das die Funktionen des ersten und des zweiten künstlichen neuronalen Netzwerks erfüllt. Art des Objektes gibt an, ob es sich beispielsweise um einen Menschen oder ein Tier, beispielsweise einen Hund, handelt. Größe der Objekte umfasst Masse der Objekte. Die Masse eines Menschen kann beispielsweise anhand seiner Trittlautstärke geschätzt werden. Position der Objekte kann beispielsweise über Triangulation der Audiosignale bestimmt werden. Geschwindigkeit und Bewegungsrichtung der Objekte relativ zu dem Straßenfahrzeug sind über Doppler-Effekt bestimmbar. Vorzugsweise wird bei dieser Bestimmung die Geschwindigkeit des Straßenfahrzeuges, die zum Beispiel über einen CAN-Bus abgegriffen werden kann, mit berücksichtigt. Durch Berücksichtigung der Entfernung und der relativen Geschwindigkeit des verdeckten Objekts wird erfindungsgemäß beurteilt, ob möglicherweise eine Reduzierung der Fahrzeuggeschwindigkeit erforderlich ist, um Unfälle zu vermeiden, falls das verdeckte Objekt vor dem Straßenfahrzeug erscheinen würde.According to the invention, the type of objects, number of objects, speed of the objects, position of the objects, size of the objects and / or direction of movement of the objects relative to the road vehicle are determined as a function of the audio signals. This information is preferably determined using a first trained artificial neural network, preferably a convolution network, also called a convolutional network. The first artificial neural network receives the audio signals and the speed of the road vehicle in an input layer. This information is preferably output in the form of a list of likely hidden objects. According to the invention, a second trained artificial neural network is provided, which receives the specific information about the objects in an input layer and outputs a list of likely hidden objects validated by means of fusion of audio signals and image signals in an output layer. Alternatively, an artificial neural network is provided which fulfills the functions of the first and the second artificial neural network. The type of object indicates whether it is, for example, a human or an animal, for example a dog. Size of objects includes mass of objects. The mass of a person can be estimated, for example, on the basis of their step volume. The position of the objects can be determined, for example, by triangulating the audio signals. The speed and direction of movement of the objects relative to the road vehicle can be determined via the Doppler effect. The speed of the road vehicle, which can be tapped, for example, via a CAN bus, is preferably taken into account in this determination. By taking into account the distance and the relative speed of the concealed object, it is judged according to the invention whether a reduction in the vehicle speed may be necessary in order to avoid accidents if the concealed object would appear in front of the road vehicle.

Nach einem weiteren Aspekt der Erfindung ist das Verfahren computerimplementiert. Das heißt, das Verfahren wird von einem Computer ausgeführt. Ein Computer ist beispielsweise ein Rechensystem eines Steuergerätes. Der Computer ist ausgeführt, die Audiosignale und Bildsignale zu verarbeiten, beispielsweise mittels Mustererkennung. According to a further aspect of the invention, the method is computer-implemented. This means that the process is carried out by a computer. A computer is, for example, a computing system of a control device. The computer is designed to process the audio signals and image signals, for example by means of pattern recognition.

Nach einem weiteren Aspekt der Erfindung erhält ein künstliches neuronales Netzwerk die Audiosignale und die Bildsignale in einer Eingangsschicht. Das künstliche neuronale Netzwerk gibt die als verdeckt bestimmten Objekte in einer Ausgangsschicht aus. Das künstliche neuronale Netzwerk umfasst zwischen der Eingangsschicht und der Ausgangsschicht weitere Schichten. Anzahl und Verbindungen der weiteren Schichten untereinander sind in einer Lernphase des künstlichen neuronalen Netzwerks an die Aufnahme von Audiosignalen und Bildsignalen adaptiert worden. In der Lernphase sind die Audiosignale und/oder Bildsignale mittels Filtern, Verstärkern und/oder Kennzeichenlabels für ein überwachtes Lernen aufbereitet. Das künstliche neuronale Netzwerk lernt durch Änderungen von Gewichtungsfaktoren für einzelne Verbindungen in und/oder zwischen den Schichten, die verdeckten Objekte zu bestimmen.According to a further aspect of the invention, an artificial neural network receives the audio signals and the image signals in an input layer. The artificial neural network outputs the objects determined to be hidden in an output layer. The artificial neural network comprises further layers between the input layer and the output layer. The number and connections of the further layers to one another were adapted to the recording of audio signals and image signals in a learning phase of the artificial neural network. In the learning phase, the audio signals and / or image signals are prepared for monitored learning by means of filters, amplifiers and / or label labels. The artificial neural network learns to determine the hidden objects by changing weighting factors for individual connections in and / or between the layers.

Das künstliche neuronale Netzwerk lernt, zweckgerichtet auf neue Informationen zu reagieren. Dadurch wird die Rechenzeit verkürzt, die Genauigkeit erhöht und die bereitgestellte Sicherheit des Verfahrens verbessert.The artificial neural network learns to react appropriately to new information. This shortens the computing time, increases the accuracy and improves the security of the method provided.

Um zweckgerichtet auf neue Informationen reagieren zu können, ist es erforderlich, dass das künstliche neuronale Netzwerk zunächst die Bedeutung von vorbestimmten Informationen lernt. Dazu wird das künstliche neuronale Netzwerk mit Trainingsdaten trainiert. Insbesondere enthalten Trainingsdaten neben den eigentlichen Daten auch Informationen über die Bedeutung der jeweiligen Daten. Das heißt, die Trainingsdaten, auf denen das künstliche neuronale Netzwerk lernt, sind gelabelt. Diese Trainingsphase ist inspiriert von dem Lernprozess eines Gehirns.In order to be able to react appropriately to new information, it is necessary that the artificial neural network first learns the meaning of predetermined information. For this purpose, the artificial neural network is trained with training data. In addition to the actual data, training data in particular also contain information about the meaning of the respective data. This means that the training data on which the artificial neural network learns are labeled. This training phase is inspired by the learning process of a brain.

Das Trainieren mit Trainingsdaten wird maschinelles Lernen genannt. Eine Teilmenge des maschinellen Lernens ist das tiefgehende Lernen, das sogenannte Deep Learning, bei dem eine Reihe hierarchischer Schichten von Neuronen, sogenannten Hidden Layers, genutzt wird, um den Prozess des maschinellen Lernens durchzuführen. Bevorzugt ist das künstliche neuronale Netzwerk ein deep neural network.Training with training data is called machine learning. A subset of machine learning is deep learning, which uses a series of hierarchical layers of neurons, so-called hidden layers, to carry out the machine learning process. The artificial neural network is preferably a deep neural network.

Neuronen sind die Funktionseinheiten eines künstlichen neuronalen Netzwerks. Ein Output eines Neurons ergibt sich im Allgemeinen als Wert einer Aktivierungsfunktion ausgewertet über eine mit Gewichtungsfaktoren gewichtete Summe der Inputs plus einen systematischen Fehler, dem sogenannten Bias. Ein künstliches neuronales Netzwerk mit mehreren Hidden Layers ist ein Deep Neural Network.Neurons are the functional units of an artificial neural network. An output of a neuron generally results as the value of an activation function evaluated via a sum of the inputs weighted with weighting factors plus a systematic error, the so-called bias. An artificial neural network with several hidden layers is a deep neural network.

Das künstliche neuronale Netzwerk ist zum Beispiel ein vollständig verbundenes Netzwerk, im Englischen als Fully Connected Network bezeichnet. In einem vollständig verbundenen Netzwerk ist jedes Neuron einer Schicht mit allen Neuronen der vorausgehenden Schicht verbunden. Jede Verbindung hat ihren eigenen Gewichtungsfaktor. Vorzugsweise ist das künstliche neuronale Netzwerk ein Fully Convolutional Network. In einem konvolutionalen neuronalen Netzwerk wird ein Filter auf eine Schicht von Neuronen unabhängig von der Position mit den gleichen Gewichtungsfaktoren angewendet. Das konvolutionale neuronale Netzwerk umfasst mehrere Poolingschichten zwischen den konvolutionalen Schichten. Poolingschichten verändern die Dimension einer zweidimensionalen Schicht in Breite und Höhe. Poolingschichten werden auch für höherdimensionale Schichten verwendet.The artificial neural network is, for example, a fully connected network, referred to as a fully connected network. In a fully connected network, each neuron in a layer is connected to all neurons in the previous layer. Each connection has its own weighting factor. The artificial neural network is preferably a fully convolutional network. In a convolutional neural network, a filter is applied to a layer of neurons with the same weighting factors regardless of the position. The convolutional neural network comprises several pooling layers between the convolutional layers. Pooling layers change the dimension of a two-dimensional layer in width and height. Pooling layers are also used for higher dimensional layers.

In der sogenannten Lernphase werden mit Gewichtungsfaktoren Verbindungen zwischen Neuronen bewertet. Vorwärtsspeisen, im Englischen als forward propagation bezeichnet, bedeutet, dass eine Information in die Eingangsschicht des künstlichen neuronalen Netzwerks eingespeist wird, die folgenden Schichten durchläuft und in der Ausgabeschicht ausgegeben wird. Rückwärtsspeisen, im Englischen als backward propagation bezeichnet, bedeutet, dass eine Information die Schichten rückwärts durchläuft, das heißt von Ausgabeschicht in Richtung Eingangsschicht. Durch sukzessives Rückwärtsspeisen einer erhaltenen Abweichung von Soll- und Ist-Daten aus der Ausgabeschicht in die jeweils vorherige Schicht bis hin zur Eingangsschicht werden die Abweichungen der jeweiligen Schichten erhalten. Die Abweichungen sind eine Funktion der Gewichtungsfaktoren. Die Abweichung zwischen Ist-Ausgabe und Soll-Ausgabe wird durch eine Kostenfunktion bewertet. Bei der Rückwärtsspeisung wird der Gradient des Fehlers nach den einzelnen Gewichten rückwärtsgespeist. So weiß man, ob und wie stark sich die Abweichung zwischen Ist- und Soll-Ausgabe minimiert, wenn man das jeweilige Gewicht vergrößert oder verkleinert. Durch Minimierung der Abweichung in der Trainingsphase, zum Beispiel mittels der Methode der kleinsten Quadrate, der aus der Informationstheorie bekannten Kreuz-Entropie oder dem Gradientenabstiegsverfahren, werden damit die Gewichtungsfaktoren geändert. Dadurch wird bei erneutem Einspeisen der Eingabe eine Annäherung an die gewünschte Ausgabe erreicht. Die Rückwärtsspeisung ist zum Beispiel ausführlich in Michael A. Nielsen, Neural Networks and Deep Learning, Determination Press, 2015, beschrieben.In the so-called learning phase, connections between neurons are evaluated using weighting factors. Forward feeding means that information is fed into the input layer of the artificial neural network, goes through the following layers and is output in the output layer. Backward feeding, known as backward propagation, means that information passes through the layers backwards, i.e. from the output layer towards the input layer. The deviations of the respective layers are obtained by successively feeding back a received deviation of target and actual data from the output layer into the previous layer up to the input layer. The deviations are a function of the weighting factors. The difference between the actual output and the target output is evaluated by a cost function. When feeding backwards, the gradient of the error is fed backwards according to the individual weights. So you know whether and how much the difference between the actual and target output is minimized if you increase or decrease the respective weight. By minimizing the deviation in the training phase, for example using the least squares method, the cross-entropy known from information theory or the gradient descent method, the weighting factors are changed. As a result, when the input is fed in again, the desired output is approximated. For example, reverse feeding is described in detail in Michael A. Nielsen, Neural Networks and Deep Learning, Determination Press, 2015.

Das erfindungsgemäße Steuergerät ist konstruiert für ein automatisiert betreibbares Straßenfahrzeug zum Regeln und/oder automatisierten Steuern von Längs- und/oder Querführung des Straßenfahrzeuges in Abhängigkeit von als verdeckt bestimmten Objekten. Das Steuergerät löst die eingangs genannte Aufgabe mittels wenigstens einer ersten Schnittstelle mit einer hohen Datenübertragungsrate, um Audiosignale und Bildsignale zu erhalten. Ferner umfasst das Steuergerät wenigstens ein Rechensystem zur Verarbeitung der Audiosignale und Bildsignale mittels wenigstens einer künstlichen Intelligenz. Hierzu umfasst das Rechensystem wenigstens einen Prozessor umfassend eine Mikroarchitektur für paralleles Prozessieren und Ausführen von Rechenoperationen, um die wenigstens eine künstliche Intelligenz auszuführen. Außerdem umfasst das Rechensystem wenigstens einen Speicher mit einer hohen Datenübertragungsrate für einen Datenaustausch mit dem Prozessor. Das Rechensystem ist ausgeführt, das erfindungsgemäße in Echtzeit auszuführen, um einen Verdeckungsgrad der Objekte zu bestimmen. Außerdem umfasst das Steuergerät eine zweite Schnittstelle, um in Abhängigkeit der als verdeckt bestimmten Objekte Steuerungssignale für Aktuatoren für die Längs- und/oder Querführung des Straßenfahrzeuges bereitzustellen. Des Weiteren umfasst das Steuergerät ein Schutzgehäuse mit integrierter Kühlung, um das Rechensystem gegen Vibrationen, Feuchtigkeit, Hitze und/oder Kälte zu schützen und Abwärme des Rechensystems abzuführen.The control device according to the invention is designed for an automated operable road vehicle for regulating and / or automatically controlling the longitudinal and / or transverse guidance of the road vehicle depending on objects determined to be hidden. The control device solves the task mentioned at the beginning by means of at least one first interface with a high data transmission rate in order to receive audio signals and image signals. Furthermore, the control device comprises at least one computing system for processing the audio signals and image signals by means of at least one artificial intelligence. For this purpose, the computing system comprises at least one processor comprising a microarchitecture for parallel processing and execution of computing operations in order to carry out the at least one artificial intelligence. In addition, the computing system comprises at least one memory with a high data transfer rate for data exchange with the processor. The computing system is designed to execute the inventive method in real time in order to determine a degree of concealment of the objects. In addition, the control device comprises a second interface in order to provide control signals for actuators for the longitudinal and / or transverse guidance of the road vehicle depending on the objects determined to be hidden. Furthermore, the control device includes a protective housing with integrated cooling in order to protect the computing system against vibrations, moisture, heat and / or cold and to dissipate waste heat from the computing system.

Eine Schnittstelle ist ein Bauteil zwischen wenigstens zwei Funktionseinheiten, an der ein Austausch von logischen Größen, zum Beispiel Daten, oder physikalischen Größen, zum Beispiel elektrischen Signalen, erfolgt, entweder nur unidirektional oder bidirektional. Der Austausch kann analog oder digital erfolgen. Der Austausch kann ferner drahtgebunden oder drahtlos erfolgen.An interface is a component between at least two functional units on which an exchange of logical quantities, for example data, or physical quantities, for example electrical signals, takes place, either only unidirectionally or bidirectionally. The exchange can be analog or digital. The exchange can also be wired or wireless.

Die erste Schnittstelle ist insbesondere ein Deserializer. Deserializer extrahieren Datenstrukturen aus Serien von Bits. Bildgebungssensoren übertragen Rohdaten nach einem bestimmten Serializerprotokoll. Durch Serialisation werden Datenstrukturen in abspeicherbare Formate übersetzt, zum Beispiel mittels Serien von Bits. Die Zustände eines Bits werden symbolisch als 0 oder 1 notiert. Die Zustände können einfach als ein Spannungssignal übertragen werden. Der Zustand 0 ist beispielsweise niedriger Spannungspegel. Der Zustand 1 ist beispielsweise hoher Spannungspegel. The first interface is in particular a deserializer. Deserializers extract data structures from series of bits. Imaging sensors transmit raw data according to a specific serializer protocol. Serialization translates data structures into storable formats, for example using a series of bits. The states of a bit are symbolized as 0 or 1 written down. The states can simply be transmitted as a voltage signal. The state 0 is, for example, low voltage level. The state 1 is, for example, high voltage level.

Vorzugsweise umfassen die Sensoren ein FPD-Link Serializer oder ein GMSL Serializer. Mit einem GMSL Serializer werden beispielsweise Datenübertragungsraten von 2,5 Gb pro Sekunde erreicht. Die Daten werden bevorzugt nach dem so genannten low voltage differential signaling, abgekürzt LVDS, Standard übertragen. LVDS ist ein Standard für Hochgeschwindigkeits-Datenübertragung. Der Deserializer ist ein entsprechender Logikbaustein mit entsprechend hoher Datenübertragungsrate, um die Datenstrukturen aus Serien von Bits zu extrahieren. Die erste Schnittstelle ist beispielsweise eine Funkschnittstelle, insbesondere eine WLAN-Schnittstelle.The sensors preferably comprise an FPD link serializer or a GMSL serializer. With a GMSL serializer, for example, data transfer rates of 2.5 Gb per second can be achieved. The data are preferably transmitted according to the so-called low voltage differential signaling, abbreviated LVDS, standard. LVDS is a standard for high-speed data transmission. The deserializer is a corresponding logic module with a correspondingly high data transmission rate in order to extract the data structures from series of bits. The first interface is, for example, a radio interface, in particular a WLAN interface.

Das Rechensystem ist eine programmierbare elektronische Schaltung. Bevorzugt ist das Rechensystem als ein System-on-Chip ausgeführt. Das heißt, alle oder ein großer Teil der Funktionen des Rechensystems sind auf einem Chip integriert. Insbesondere fusioniert das Rechensystem die Audiosignale und die Bildsignale.The computing system is a programmable electronic circuit. The computing system is preferably designed as a system-on-chip. This means that all or a large part of the functions of the computing system are integrated on one chip. In particular, the computing system merges the audio signals and the image signals.

Der Prozessor ist bevorzugt ein Mehrkernprozessor. Bei einem Mehrkernprozessor sind mehrere Kerne auf einem einzigen Chip angeordnet. Mehrkernprozessoren erreichen eine höhere Rechenleistung und sind kostengünstiger in einem Chip zu implementieren im Vergleich zu Mehrprozessorsystemen, bei denen jeder einzelne Kern in einem Prozessorsockel angeordnet ist und die einzelnen Prozessorsockel auf einer Hauptplatine angeordnet sind.The processor is preferably a multi-core processor. In a multi-core processor, multiple cores are arranged on a single chip. Multi-core processors achieve higher computing power and are less expensive to implement in a chip compared to multi-processor systems, in which each individual core is arranged in a processor socket and the individual processor sockets are arranged on a motherboard.

Der Mehrkernprozessor umfasst vorzugsweise Zentralprozessoren und/oder Grafikprozessoren. Zentralprozessoren sind sogenannte central processing units, abgekürzt CPU. Die Zentralprozessoren haben beispielsweise eine 64-bit Architektur. Der Grafikprozessor, im Englischen graphic processing unit, abgekürzt GPU, genannt, umfasst vorzugsweise wenigstens eine Prozesseinheit zum Ausführen von Tensor - und/oder Matrixmultiplikationen. Tensor- und/oder Matrixmultiplikationen sind die zentralen Rechenoperationen für das Deep Learning, einer Form von künstlicher Intelligenz.The multi-core processor preferably comprises central processors and / or graphics processors. Central processors are so-called central processing units, abbreviated CPU. The central processors, for example, have a 64-bit architecture. The graphics processor, in the English graphic processing unit, abbreviated GPU, preferably comprises at least one process unit for executing tensor and / or matrix multiplications. Tensor and / or matrix multiplications are the central arithmetic operations for deep learning, a form of artificial intelligence.

Vorzugsweise umfasst das Rechensystem auch Hardware/Software-Beschleuniger für künstliche Intelligenz, insbesondere sogenannte deep learning accelerators.The computing system preferably also includes hardware / software accelerators for artificial intelligence, in particular so-called deep learning accelerators.

Das Rechensystem führt insbesondere ein erstes und ein zweites künstliches neuronales Netzwerk wie oben beschrieben oder ein künstliches neuronales Netzwerk gemäß dem erfindungsgemäßen Verfahren aus.The computing system executes in particular a first and a second artificial neural network as described above or an artificial neural network according to the method according to the invention.

Der Speicher ist beispielsweise über ein Bussystem mit dem Rechensystem für einen Signal-/Datenaustausch verbunden. Um eine hohe Datenübertragungsrate erreichen zu können, überträgt der Speicher beispielsweise Daten nach einem double data rate, quadruple data rate oder octal data rate Verfahren. Beispielsweise ist der Speicher ein double data rate synchronous dynamic RAM, abgekürzt DDR SDRAM, Speicher. Bevorzugt ist der Speicher ein low power DDR SDRAM Speicher.The memory is connected, for example, via a bus system to the computer system for signal / data exchange. In order to be able to achieve a high data transfer rate, the memory transfers data, for example, using a double data rate, quadruple data rate or octal data rate method. For example, the memory is a double data rate synchronous dynamic RAM, abbreviated DDR SDRAM, memory. The memory is preferably a low power DDR SDRAM memory.

Das Schutzgehäuse ermöglicht die Verwendung des Steuergeräts im automotive Bereich. Das Schutzgehäuse umfasst beispielsweise einen Kunststoff, ein Metall oder eine Legierung. Die Kühlung führt Abwärme des Rechensystems ab. Die Kühlung ist beispielsweise durch einen eigens für das Steuergerät vorgesehenen Wasserkühlkreislauf realisiert. Alternativ wird die Kühlung von einer in dem Fahrzeug bereits vorhandenen Motorkühlung bereitgestellt, wobei in das Schutzgehäuse Wärmeaustauschelemente integriert sind, um über den Fahrzeugkühlkreislauf Wärme auszutauschen.The protective housing enables the control unit to be used in the automotive sector. The protective housing comprises, for example, a plastic, a metal or an alloy. The cooling dissipates waste heat from the computing system. The cooling is implemented, for example, by a water cooling circuit provided specifically for the control device. Alternatively, the cooling is provided by an engine cooling system already present in the vehicle, heat exchange elements being integrated in the protective housing in order to exchange heat via the vehicle cooling circuit.

Ein derartiges Steuergerät kann sehr große Datenmengen in Echtzeit verarbeiten und ermöglicht damit vollautomatisiertes bis hin zu fahrerloses Fahren. Diese Rechenleistung des Steuergeräts ermöglicht auch kryptographische Berechnungen, Anomalieerkennungen und Plausibilitätschecks, insbesondere hinsichtlich Informationssicherheit, ganz besonders hinsichtlich cyber security, und Betriebssicherheit, ganz besonders hinsichtlich funktionaler Sicherheit. Dabei ist das Rechensystem derart dimensioniert, um in einem Steuergerät für ein Fahrzeug integriert zu werden. Das heißt, für die große Rechenleistung sind keine Supercomputer erforderlich, die Schränke verteilt auf Räumlichkeiten eines stationären Rechenzentrums füllen.Such a control unit can process very large amounts of data in real time and thus enables fully automated to driverless driving. This computing power of the control unit also enables cryptographic calculations, anomaly detection and plausibility checks, in particular with regard to information security, particularly with regard to cyber security, and operational security, especially with regard to functional security. The computing system is dimensioned in such a way that it can be integrated in a control unit for a vehicle. This means that the large computing power does not require supercomputers that fill cabinets distributed over the premises of a stationary data center.

Die zweite Schnittstelle ist beispielsweise eine Schnittstelle zu Aktuatoren für Motorsteuerung, eines Bremssystems und/oder Lenkungssystems. Die zweite Schnittstelle ist insbesondere eine Schnittstelle zu einem internen Fahrzeugkommunikationssystem, in dem unterschiedliche Steuergeräte, Sensoreinheiten und Multimediaeinheiten miteinander kommunizieren. Beispielsweise ist die zweite Schnittstelle eine Schnittstelle zu einem CAN-Bussystem. Die zweite Schnittstelle ist beispielsweise kabelgebunden.The second interface is, for example, an interface to actuators for engine control, a braking system and / or steering system. The second interface is in particular an interface to an internal vehicle communication system in which different control devices, sensor units and multimedia units communicate with one another. For example, the second interface is an interface to a CAN bus system. The second interface is wired, for example.

Das erfindungsgemäße Computerprogrammprodukt erkennt Objekte im Straßenverkehr und umfasst Befehle, die bewirken, dass ein erfindungsgemäßes Steuergerät ein erfindungsgemäßes Verfahren ausführt, wenn das Computerprogramm auf dem Steuergerät läuft.The computer program product according to the invention recognizes objects in road traffic and comprises commands which cause a control device according to the invention to execute a method according to the invention when the computer program runs on the control device.

Die Befehle des Computerprogrammproduktes, beispielsweise implementiert in Softwarecodeabschnitte, stellen eine Abfolge von Befehlen dar, durch die das Steuergerät bei geladenem Computerprogramm veranlasst wird, verdeckte Objekte zu bestimmen und in Abhängigkeit dieser Bestimmung ein Signal auszugeben, insbesondere zur Steuerung sicherheitsrelevanter Fahrzeugfunktionen. Das Computerprogrammprodukt ruft damit einen technischen Effekt hervor.The commands of the computer program product, for example implemented in software code sections, represent a sequence of commands by means of which the control device, when the computer program is loaded, is prompted to determine hidden objects and to output a signal as a function of this determination, in particular for controlling safety-relevant vehicle functions. The computer program product thus has a technical effect.

Das erfindungsgemäße automatisiert betreibbare Straßenfahrzeug für Mobilitätsdienstleistungen umfasst wenigstens zwei an einer Außenseite des Straßenfahrzeuges angeordnete Mikrofone. Ferner umfasst das Straßenfahrzeug wenigstens einen an einer Außenseite des Straßenfahrzeuges angeordneten Bildgebungssensor. Das Straßenfahrzeug umfasst des Weiteren ein erfindungsgemäßes Steuergerät, um Längs- und/oder Querführung des Straßenfahrzeuges in Abhängigkeit von als verdeckt bestimmten Objekten zu steuern. Das Steuergerät ist signaltechnisch mit den Mikrofonen und dem Bildgebungssensor verbunden.The automated road vehicle for mobility services according to the invention comprises at least two microphones arranged on an outside of the road vehicle. The road vehicle further comprises at least one imaging sensor arranged on an outside of the road vehicle. The road vehicle further comprises a control device according to the invention in order to control the longitudinal and / or transverse guidance of the road vehicle as a function of objects determined to be hidden. The control unit is connected to the microphones and the imaging sensor for signaling purposes.

Mobilitätsdienstleistungen, im Englischen als mobility-as-a-service, sind Transportdienstleistungen hinsichtlich Güter- und/oder Personentransport. Ride-Sharing und E-Hailing Services sind Beispiele für Mobilitätsdienstleistungen. Das Straßenfahrzeug ist insbesondere ein Kleinbus, der bis zu 15 Personen aufnehmen kann, wobei eine Grundfläche des Kleinbusses nicht größer als die einer großen Limousine ist. Damit ist der Kleinbus wendig. Der Kleinbus umfasst einen elektrischen Achsantrieb zur emissionsfreien Fahrt. Damit kann der Kleinbus insbesondere Mobilitätsdienstleistungen im urbanen Umfeld bereitstellen.Mobility services, in English as mobility-as-a-service, are transportation services related to the transportation of goods and / or people. Ride sharing and e-hailing services are examples of mobility services. The road vehicle is in particular a minibus, which can accommodate up to 15 people, with a base area of the minibus no larger than that of a large sedan. This makes the minibus agile. The minibus includes an electric axle drive for emission-free travel. This means the minibus can provide mobility services in an urban environment.

Vorzugsweise umfasst das Straßenfahrzeug eine Anordnung von mehreren Mikrofonen, zum Beispiel jeweils ein Mikrofon im vorderen und hinteren rechten und linken Bereich des Straßenfahrzeuges. Bevorzugt umfasst das Straßenfahrzeug im vorderen und hinteren rechten und linken Bereich jeweils eine Anordnung von vier nebeneinander angeordneten Mikrofonen. Derartige Anordnungen sind überraschenderweise sehr gut geeignet zur Geräuschaufnahme und relative einfach zu erhalten. Insbesondere wird damit eine 360° Erfassung von Umgebungsgeräuschen ermöglicht.The road vehicle preferably comprises an arrangement of a plurality of microphones, for example one microphone each in the front and rear right and left regions of the road vehicle. The road vehicle preferably comprises an arrangement of four microphones arranged side by side in the front and rear right and left areas. Such arrangements are surprisingly very well suited to absorbing noise and are relatively easy to obtain. In particular, this enables a 360 ° detection of ambient noise.

Mit den von dem Straßenfahrzeug gesammelten Daten kann insbesondere eine urbane Infrastruktur in Planung und Auslastung von Parkplätzen an Straßenrändern hinsichtlich verbesserter Sicherheit von Fußgängern optimiert werden.The data collected by the road vehicle, in particular, can be used to optimize an urban infrastructure in the planning and utilization of parking spaces at road edges with regard to improved safety for pedestrians.

Die Erfindung wird in den folgenden Ausführungsbeispielen verdeutlicht. Es zeigen:

  • 1 ein Ausführungsbeispiel eines verdeckten Objekts,
  • 2 ein Ausführungsbeispiel eines erfindungsgemäßen Straßenfahrzeuges,
  • 3 ein Ausführungsbeispiel eines erfindungsgemäßen Verfahrens,
  • 4 ein weiteres Ausführungsbeispiel des erfindungsgemäßen Verfahrens,
  • 5 ein weiteres Ausführungsbeispiel des erfindungsgemäßen Verfahrens und
  • 6 ein Ausführungsbeispiel eines erfindungsgemäßen Steuergeräts.
The invention is illustrated in the following exemplary embodiments. Show it:
  • 1 an embodiment of a hidden object,
  • 2nd an embodiment of a road vehicle according to the invention,
  • 3rd an embodiment of a method according to the invention,
  • 4th another embodiment of the method according to the invention,
  • 5 a further embodiment of the method according to the invention and
  • 6 an embodiment of a control device according to the invention.

In den Figuren bezeichnen gleiche Bezugszeichen gleiche oder funktionsähnliche Bezugsteile. Übersichtshalber werden in den einzelnen Figuren nur die jeweils relevanten Bezugsteile hervorgehoben. In the figures, the same reference numerals designate the same or functionally similar reference parts. For the sake of clarity, only the relevant reference parts are highlighted in the individual figures.

1 zeigt eine Szenerie aus dem Straßenverkehr. Dargestellt ist ein Straßenausschnitt einer Straße im urbanen Bereich. Die Straße ist mehrspurig und verläuft zwischen zwei Reihen von Gebäuden 8. Ein Straßenfahrzeug 2, zum Beispiel ein PKW oder ein Kleinbus, fährt auf der Straße. Entlang einer Seite des Straßenfahrzeuges 2 stehen zwei parkende Fahrzeuge 8, beispielsweise ein PKW und ein LKW. Zwischen den parkenden Fahrzeugen 8 und der Gebäudereihe verläuft ein Fußgängerweg. Dargestellt ist ein Fußgänger, der sich zwischen den parkenden Fahrzeugen 8 befindet und beabsichtigt, den Raum zwischen den parkenden Fahrzeugen 8 zu durchqueren in Richtung Straße. Durch die parkenden Fahrzeuge 8 ist ein Erfassungsbereich FOV eines Bildgebungssensors 4 des Straßenfahrzeuges 2 eingeschränkt. Der Fußgänger ist von dem parkenden LKW verdeckt und wird damit nicht von dem Bildgebungssensor 4 erfasst. Der Fußgänger ist damit ein verdecktes Objekt 1. 1 shows a scenery from the traffic. A section of a street in an urban area is shown. The street is multi-lane and runs between two rows of buildings 8th . A road vehicle 2nd , for example a car or a minibus, drives on the road. Along one side of the road vehicle 2nd there are two parked vehicles 8th , for example a car and a truck. Between the parked vehicles 8th and the row of buildings runs along a pedestrian path. A pedestrian is shown walking between the parked vehicles 8th located and intends to use the space between the parked vehicles 8th to cross towards the street. Through the parked vehicles 8th is a detection area FOV of an imaging sensor 4th of the road vehicle 2nd limited. The pedestrian is covered by the parked truck and is therefore not covered by the imaging sensor 4th detected. The pedestrian is therefore a hidden object 1 .

Allerdings kann der Fußgänger über Mikrofone 3 des Straßenfahrzeuges 2 lokalisiert und als Fußgänger klassifiziert werden. Beispielsweise sind in Audiosignalen der Mikrofone 3 Trittgeräusche oder Stimmgeräusche des Fußgängers erfassbar. Zusammen mit Bildsignalen des Bildgebungssensors 4 ergibt sich dann mit hoher Wahrscheinlichkeit, dass sich in dem Raum zwischen den parkenden Fahrzeugen 8 der Fußgänger als verdecktes Objekt 1 befindet.However, the pedestrian can use microphones 3rd of the road vehicle 2nd localized and classified as pedestrians. For example, in audio signals of the microphones 3rd Footsteps or voices of the pedestrian can be recorded. Together with image signals from the imaging sensor 4th then there is a high probability that there is space between the parked vehicles 8th the pedestrian as a hidden object 1 located.

2 zeigt ein Beispiel für das erfindungsgemäße Straßenfahrzeug 2. Auf einem Dach des Straßenfahrzeuges 2 ist als Bildgebungssensor 4 beispielsweise eine 360°-Sicht-Kamera angeordnet, mit der Bildsignale erhalten werden. Vorne und hinten ist an dem Straßenfahrzeug 2 jeweils zu beiden Seiten ein Mikrofon 3 angeordnet, mit dem Audiosignale erhalten werden. Die Bildsignale und die Audiosignale werden einem Steuergerät 50 bereitgestellt, mit dem der Bildgebungssensor 4 und die Mikrofone 3 signalleitend verbunden sind. Das Steuergerät 50 bestimmt in Abhängigkeit von den als verdeckt erkannten Objekten 1 entsprechende Steuerungssignale B für Aktuatoren für die Längs- und/oder Querführung des Straßenfahrzeuges 2, um eine Kollision mit den verdeckten Objekten 1, beispielsweise bedingt durch plötzliches Erscheinen des Fußgängers aus 1 auf der Straße, zu vermindern oder zu verhindern. Beispielsweise ist das Steuerungssignal B ein Spannungspegel, der an Bremsaktuatoren des Straßenfahrzeuges 2 geleitet wird und infolge dessen das Straßenfahrzeug 2 gebremst wird. 2nd shows an example of the road vehicle according to the invention 2nd . On a roof of the road vehicle 2nd is as an imaging sensor 4th For example, a 360 ° view camera is arranged with which image signals are obtained. Front and rear is on the road vehicle 2nd A microphone on each side 3rd arranged with which audio signals are obtained. The image signals and the audio signals become a control device 50 provided with which the imaging sensor 4th and the microphones 3rd are connected in a signal-conducting manner. The control unit 50 determined depending on the objects recognized as hidden 1 corresponding control signals B for actuators for the longitudinal and / or transverse guidance of the road vehicle 2nd to collide with the hidden objects 1 , for example due to the sudden appearance of the pedestrian 1 on the road to diminish or prevent. For example, the control signal B is a voltage level that is applied to brake actuators of the road vehicle 2nd is directed and as a result the road vehicle 2nd is braked.

Das Steuergerät 50 ist in 6 dargestellt. Das Steuergerät 50 umfasst eine erste Schnittstelle 51. Über die erste Schnittstelle 51 werden die Audiosignale und die Bildsignale erhalten. Ferner umfasst das Steuergerät 50 ein Rechensystem 52. Das Rechensystem 52 umfasst wenigstens einen Prozessor 53 und einen Speicher 54. Der Prozessor 53 und der Speicher 54 tauschen untereinander Daten aus. Der Prozessor 53 führt das künstliche neuronale Netzwerk 6 aus, um nach dem erfindungsgemäßen Verfahren das Steuerungssignal B zu bestimmen. Das Steuerungssignal B wird über eine zweite Schnittstelle 55 Aktuatoren für die Längs- und/oder Querführung des Straßenfahrzeuges 2 bereitgestellt. Das Steuergerät 50 ist in ein Schutzgehäuse 56 mit integrierter Kühlung eingebaut.The control unit 50 is in 6 shown. The control unit 50 includes a first interface 51 . Via the first interface 51 the audio signals and the image signals are obtained. The control unit also includes 50 a computing system 52 . The computing system 52 comprises at least one processor 53 and a memory 54 . The processor 53 and the memory 54 exchange data with each other. The processor 53 leads the artificial neural network 6 to determine the control signal B according to the inventive method. The control signal B is via a second interface 55 Actuators for the longitudinal and / or transverse guidance of the road vehicle 2nd provided. The control unit 50 is in a protective housing 56 built in with integrated cooling.

3 stellt schematisch das erfindungsgemäße Verfahren dar, ausgeführt von einem künstlichen neuronalen Netzwerk 6. Das Steuergerät 50 führt das künstliche neuronale Netzwerk 6 aus. Als Input werden Audiosignale der Mikrofone 3 und Bildsignale des Bildgebungssensors 4 erhalten. Das künstliche neuronale Netzwerk 6 lokalisiert und klassifiziert die Objekte 1 in Abhängigkeit der Audiosignale und vergleicht die erhaltenen Ergebnisse mit den Bildsignalen, um zu bestimmen, ob die Objekte 1 verdeckt sind. Als Output gibt das künstliche neuronale Netzwerk 6 einen Verdeckungsgrad aus, der die Wahrscheinlichkeit dafür angibt, dass ein Objekt 1 verdeckt ist. 3rd schematically represents the method according to the invention, carried out by an artificial neural network 6 . The control unit 50 leads the artificial neural network 6 out. Audio signals from the microphones are used as input 3rd and image signals from the imaging sensor 4th receive. The artificial neural network 6 locates and classifies the objects 1 depending on the audio signals and compares the results obtained with the image signals to determine whether the objects 1 are covered. The output is the artificial neural network 6 a degree of concealment that indicates the likelihood that an object 1 is covered.

4 zeigt eine weitere Ausgestaltung des erfindungsgemäßen Verfahrens. Ein erstes künstliches neuronales Netzwerk 6 bestimmt in Abhängigkeit von Audiosignalen von vier Mikrofonen 3, einem Bildsignale des Bildgebungssensors 4 und der Geschwindigkeit v des Straßenfahrzeuges 2 Anzahl N, Geschwindigkeit S, Position P, Größe M und Bewegungsrichtung D der Objekte 1. Die Bewegungsrichtung D und die Geschwindigkeit S der Objekte 1 werden in einer Objektliste bereitgestellt. Diese Objektliste wird mittels einer Berechnung einer Verzögerung der Audiosignale in Abhängigkeit der mit den Mikrofonen 3 erhaltenen Audiosignalen und der Geschwindigkeit des Straßenfahrzeuges v, beispielsweise mittels Doppler-Effekt, bestimmt. Die Objektliste und die Anzahl N, Geschwindigkeit S, Position P, Größe M und Bewegungsrichtung D der Objekte 1 werden einem zweiten künstlichen neuronalen Netzwerk 6 bereitgestellt, das die Objektliste mittels Fusion von Audiosignalen und Bildsignalen validiert. 4th shows a further embodiment of the method according to the invention. A first artificial neural network 6 determined depending on audio signals from four microphones 3rd , an image signal of the imaging sensor 4th and the speed v of the road vehicle 2nd number N , Speed S , Position P , Size M and direction of movement D of objects 1 . The direction of movement D and the speed S of objects 1 are provided in an object list. This object list is calculated by calculating a delay in the audio signals as a function of those with the microphones 3rd obtained audio signals and the speed of the road vehicle v, for example by means of the Doppler effect. The object list and the number N , Speed S , Position P , Size M and direction of movement D of objects 1 become a second artificial neural network 6 provided, which validates the object list by means of fusion of audio signals and image signals.

5 zeigt eine weitere Ausgestaltung des erfindungsgemäßen Verfahrens, bei dem ein künstliches neuronales Netzwerk 6 verwendet wird. Das künstliche neuronale Netzwerk 6 erhält als Input Audiosignale von vier Mikrofonen 3, ein Bildsignal einer Kamera als Bildgebungssensor 4, ein Bildsignal eines 3D Lidars als Bildgebungssensor 4 und die Geschwindigkeit v des Straßenfahrzeuges 2. Das künstliche neuronale Netzwerk 6 führt das erfindungsgemäße Verfahren durch und gibt als Output einen Verdeckungsgrad an. In Abhängigkeit des Verdeckungsgrades bestimmt das künstliche neuronale Netzwerk 6 ein entsprechendes Steuerungssignal B. 5 shows a further embodiment of the method according to the invention, in which an artificial neural network 6 is used. The artificial neural network 6 receives audio signals from four microphones as input 3rd , an image signal from a camera as an imaging sensor 4th , an image signal of a 3D lidar as an imaging sensor 4th and the speed v of the road vehicle 2nd . The artificial neural network 6 carries out the method according to the invention and indicates a degree of masking as output. The artificial neural network determines depending on the degree of concealment 6 a corresponding control signal B.

Claims (7)

Verfahren zum Erkennen von Objekten (1) im Straßenverkehr für automatisiert betreibbare Straßenfahrzeuge (2) umfassend die Schritte: • Erhalten von von Geräuschen von Objekten im Straßenverkehr als Audiosignale der Objekte (1) mittels an dem Straßenfahrzeug (2) anordenbaren Mikrofonen (3), • Erhalten von Bildsignalen einer Umgebung des Straßenfahrzeuges (2) mittels wenigstens eines an dem Straßenfahrzeug (2) anordenbaren Bildgebungssensor (4), • Lokalisieren und Klassifizieren der Objekte (1) in Abhängigkeit der Audiosignale, wobei Art der Objekte (1), Anzahl (N) der Objekte (1), Geschwindigkeit (S) der Objekte (1), Position (P) der Objekte (1), Größe (M) der Objekte (1) und/oder Bewegungsrichtung (D) der Objekte (1) relativ zu dem Straßenfahrzeug (2) in Abhängigkeit der Audiosignale bestimmt werden und ein trainiertes künstliches neuronales Netzwerk in einer Eingangsschicht diese bestimmten Informationen erhält, • Zuordnen dieser Lokalisierungen und Klassifizierungen zu den Objekten (1) in der Umgebung des Straßenfahrzeuges (2) in Abhängigkeit eines Vergleichs mit den Bildsignalen, • Bestimmen eines Verdeckungsgrades für wenigstens eines der Objekte (1) in Abhängigkeit des Zuordnens und • Ausgeben des Verdeckungsgrades, wobei das künstliche neuronale Netzwerk in einer Ausgangsschicht eine mittels Fusion der Audiosignale und Bildsignale validierte Liste von wahrscheinlich verdeckten Objekten ausgibt.Method for recognizing objects (1) in road traffic for automated road vehicles (2) comprising the steps: Obtaining noise from objects in road traffic as audio signals of the objects (1) by means of microphones (3) which can be arranged on the road vehicle (2), Obtaining image signals of an environment of the road vehicle (2) by means of at least one imaging sensor (4) which can be arranged on the road vehicle (2), • Locating and classifying the objects (1) depending on the audio signals, the type of objects (1), number (N) of objects (1), speed (S) of objects (1), position (P) of objects (1 ), Size (M) of the objects (1) and / or direction of movement (D) of the objects (1) relative to the road vehicle (2) are determined as a function of the audio signals and a trained artificial neural network receives this specific information in an input layer, Assigning these localizations and classifications to the objects (1) in the vicinity of the road vehicle (2) depending on a comparison with the image signals, • Determining a degree of concealment for at least one of the objects (1) depending on the assignment and Outputting the degree of concealment, the artificial neural network in an output layer outputting a list of likely concealed objects validated by means of fusion of the audio signals and image signals. Verfahren nach Anspruch 1, wobei ein Steuerungssignal (B) für ein Steuergerät (50) bestimmt wird, um das Straßenfahrzeug (2) zur Verminderung eines Zusammenstoßes mit einem der verdeckten Objekte (1) automatisiert zu steuern.Procedure according to Claim 1 A control signal (B) is determined for a control unit (50) in order to automatically control the road vehicle (2) in order to reduce a collision with one of the concealed objects (1). Verfahren nach einem der Ansprüche 1 bis 2, wobei das Verfahren computerimplementiert ist.Procedure according to one of the Claims 1 to 2nd , the method being computer-implemented. Verfahren nach einem der vorangehenden Ansprüche, wobei • ein künstliches neuronales Netzwerk (6) die Audiosignale und die Bildsignale in einer Eingangsschicht erhält und die als verdeckt bestimmten Objekte (1) in einer Ausgangsschicht ausgibt, wobei • das künstliche neuronale Netzwerk (6) zwischen der Eingangsschicht und der Ausgangsschicht weitere Schichten umfasst, deren Anzahl und Verbindungen untereinander in einer Lernphase des künstlichen neuronalen Netzwerks (6) an die Aufnahme von Audiosignalen und Bildsignalen adaptiert sind, und wobei • in der Lernphase die Audiosignale und/oder Bildsignale mittels Filtern, Verstärkern und/oder Kennzeichenlabels für ein überwachtes Lernen aufbereitet sind und das künstliche neuronale Netzwerk (6) durch Änderungen von Gewichtungsfaktoren für einzelne Verbindungen in und/oder zwischen den Schichten lernt, die verdeckten Objekte (1) zu bestimmen.Method according to one of the preceding claims, wherein • an artificial neural network (6) receives the audio signals and the image signals in an input layer and outputs the objects (1) determined to be hidden in an output layer, whereby • the artificial neural network (6) between the input layer and the output layer comprises further layers, the number and connections of which are adapted to the recording of audio signals and image signals in a learning phase of the artificial neural network (6), and wherein • in the learning phase, the audio signals and / or image signals are prepared for monitored learning by means of filters, amplifiers and / or label labels and the artificial neural network (6) learns by changing weighting factors for individual connections in and / or between the layers which are concealed Determine objects (1). Steuergerät (50) für ein automatisiert betreibbares Straßenfahrzeug (2) zum Regeln und/oder automatisierten Steuern von Längs- und/oder Querführung des Straßenfahrzeuges (2) in Abhängigkeit von als verdeckt bestimmten Objekten (1) umfassend • wenigstens eine erste Schnittstelle (51) mit einer hohen Datenübertragungsrate, um Audiosignale und Bildsignale zu erhalten, • wenigstens ein Rechensystem (52) zur Verarbeitung der Audiosignale und Bildsignale mittels wenigstens einer künstlichen Intelligenz, umfassend o wenigstens einen Prozessor (53) umfassend eine Mikroarchitektur für paralleles Prozessieren und Ausführen von Rechenoperationen, um die wenigstens eine künstliche Intelligenz auszuführen, und o wenigstens einen Speicher (54) mit einer hohen Datenübertragungsrate für einen Datenaustausch mit dem Prozessor (53), • wobei das Rechensystem (52) ausgeführt ist, ein Verfahren nach einem der Ansprüche 1 bis 4 in Echtzeit auszuführen, um einen Verdeckungsgrad der Objekte (1) zu bestimmen, • eine zweite Schnittstelle (55), um in Abhängigkeit der als verdeckt bestimmten Objekte (1) Steuerungssignale (B) für Aktuatoren für die Längs- und/oder Querführung des Straßenfahrzeuges (2) bereitzustellen, und • ein Schutzgehäuse (56) mit integrierter Kühlung, um das Rechensystem (52) gegen Vibrationen, Feuchtigkeit, Hitze und/oder Kälte zu schützen und Abwärme des Rechensystems (52) abzuführen.Control device (50) for an automated operable road vehicle (2) for regulating and / or automated control of longitudinal and / or transverse guidance of the road vehicle (2) depending on objects (1) determined to be concealed, comprising • at least one first interface (51) with a high data transmission rate in order to obtain audio signals and image signals, • at least one computing system (52) for processing the audio signals and image signals by means of at least one artificial intelligence, comprising o at least one processor (53) comprising a microarchitecture for parallel processing and execution of computing operations, to carry out the at least one artificial intelligence, and o at least one memory (54) with a high data transfer rate for data exchange with the processor (53), • wherein the computing system (52) is implemented, a method according to one of the Claims 1 to 4th to be carried out in real time in order to determine a degree of concealment of the objects (1), • a second interface (55) to, depending on the objects (1) determined to be concealed, control signals (B) for actuators for the longitudinal and / or transverse guidance of the road vehicle (2) to provide, and • a protective housing (56) with integrated cooling to protect the computing system (52) against vibrations, moisture, heat and / or cold and to dissipate waste heat of the computing system (52). Computerprogrammprodukt zum Erkennen von Objekten (1) im Straßenverkehr umfassend Befehle, die bewirken, dass ein Steuergerät (50) nach Anspruch 5 ein Verfahren nach einem der Ansprüche 1 bis 5 ausführt, wenn das Computerprogramm auf dem Steuergerät (50) läuft.Computer program product for recognizing objects (1) in road traffic comprising commands which cause a control unit (50) to follow Claim 5 a method according to one of the Claims 1 to 5 executes when the computer program runs on the control device (50). Automatisiert betreibbares Straßenfahrzeug (2) für Mobilitätsdienstleistungen umfassend • wenigstens zwei an einer Außenseite des Straßenfahrzeuges (2) angeordnete Mikrofone (3), • wenigstens einen an einer Außenseite des Straßenfahrzeuges (2) angeordneten Bildgebungssensor (4) und • ein Steuergerät (50) nach Anspruch 5, um Längs- und/oder Querführung des Straßenfahrzeuges (2) in Abhängigkeit von als verdeckt bestimmten Objekten (1) zu steuern.Automated road vehicle (2) for mobility services, comprising • at least two microphones (3) arranged on an outside of the road vehicle (2), • at least one imaging sensor (4) and on an outside of the road vehicle (2) • a control unit (50) after Claim 5 to control the longitudinal and / or transverse guidance of the road vehicle (2) as a function of objects (1) determined to be hidden.
DE102019202634.6A 2019-02-27 2019-02-27 Method, control device for an automated road vehicle, computer program product for recognizing objects in road traffic and automated road vehicle for mobility services Expired - Fee Related DE102019202634B3 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102019202634.6A DE102019202634B3 (en) 2019-02-27 2019-02-27 Method, control device for an automated road vehicle, computer program product for recognizing objects in road traffic and automated road vehicle for mobility services
PCT/EP2020/053305 WO2020173692A1 (en) 2019-02-27 2020-02-10 Method, controller for an automatically operatable road vehicle, computer program product for detecting objects in road traffic, and automatically operatable road vehicle for mobility services

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019202634.6A DE102019202634B3 (en) 2019-02-27 2019-02-27 Method, control device for an automated road vehicle, computer program product for recognizing objects in road traffic and automated road vehicle for mobility services

Publications (1)

Publication Number Publication Date
DE102019202634B3 true DE102019202634B3 (en) 2020-07-23

Family

ID=69570666

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019202634.6A Expired - Fee Related DE102019202634B3 (en) 2019-02-27 2019-02-27 Method, control device for an automated road vehicle, computer program product for recognizing objects in road traffic and automated road vehicle for mobility services

Country Status (2)

Country Link
DE (1) DE102019202634B3 (en)
WO (1) WO2020173692A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020213723A1 (en) 2020-11-02 2022-05-05 Volkswagen Aktiengesellschaft Method, computer program and device for determining a pose of a road user
US11400958B1 (en) 2021-09-20 2022-08-02 Motional Ad Llc Learning to identify safety-critical scenarios for an autonomous vehicle

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114435378A (en) * 2020-11-03 2022-05-06 陕西汽车集团有限责任公司 Pure electric vehicle whole vehicle mass estimation method based on neural network

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010025351A1 (en) 2010-06-28 2011-12-29 Audi Ag Method and device for assisting a vehicle driver
DE102016120218A1 (en) 2015-10-27 2017-04-27 Ford Global Technologies, Llc COLLISION PREVENTION USING ACOUSTIC DATA
DE102017103374A1 (en) 2016-02-26 2017-08-31 Ford Global Technologies, Llc COLLISION PREVENTION USING ACOUSTIC DATA
US10140417B1 (en) 2013-10-18 2018-11-27 State Farm Mutual Automobile Insurance Company Creating a virtual model of a vehicle event
DE102017111468A1 (en) 2017-05-24 2018-11-29 Automotive Safety Technologies Gmbh A vehicle system and method for determining whether a vehicle occupant has sensed an off-vehicle object

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8676427B1 (en) * 2012-10-11 2014-03-18 Google Inc. Controlling autonomous vehicle using audio data
US9937922B2 (en) * 2015-10-06 2018-04-10 Ford Global Technologies, Llc Collision avoidance using auditory data augmented with map data
US20180314253A1 (en) * 2017-05-01 2018-11-01 Mentor Graphics Development (Deutschland) Gmbh Embedded automotive perception with machine learning classification of sensor data

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010025351A1 (en) 2010-06-28 2011-12-29 Audi Ag Method and device for assisting a vehicle driver
US10140417B1 (en) 2013-10-18 2018-11-27 State Farm Mutual Automobile Insurance Company Creating a virtual model of a vehicle event
DE102016120218A1 (en) 2015-10-27 2017-04-27 Ford Global Technologies, Llc COLLISION PREVENTION USING ACOUSTIC DATA
DE102017103374A1 (en) 2016-02-26 2017-08-31 Ford Global Technologies, Llc COLLISION PREVENTION USING ACOUSTIC DATA
DE102017111468A1 (en) 2017-05-24 2018-11-29 Automotive Safety Technologies Gmbh A vehicle system and method for determining whether a vehicle occupant has sensed an off-vehicle object

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020213723A1 (en) 2020-11-02 2022-05-05 Volkswagen Aktiengesellschaft Method, computer program and device for determining a pose of a road user
US11400958B1 (en) 2021-09-20 2022-08-02 Motional Ad Llc Learning to identify safety-critical scenarios for an autonomous vehicle
GB2611119A (en) * 2021-09-20 2023-03-29 Motional Ad Llc Learning to identify safety-critical scenarios for an autonomous vehicle
GB2611119B (en) * 2021-09-20 2023-11-29 Motional Ad Llc Learning to identify safety-critical scenarios for an autonomous vehicle

Also Published As

Publication number Publication date
WO2020173692A1 (en) 2020-09-03

Similar Documents

Publication Publication Date Title
DE102019202634B3 (en) Method, control device for an automated road vehicle, computer program product for recognizing objects in road traffic and automated road vehicle for mobility services
DE112020002602T5 (en) MULTI-OBJECT TRACKING USING CORRELATION FILTERS IN VIDEO ANALYSIS APPLICATIONS
DE112019000279T5 (en) CONTROLLING AUTONOMOUS VEHICLES USING SAFE ARRIVAL TIMES
DE102015109832A1 (en) Object classification for vehicle radar systems
DE102019113114A1 (en) BEHAVIOR-CONTROLLED ROUTE PLANNING IN AUTONOMOUS MACHINE APPLICATIONS
DE112009005330T5 (en) Vehicle with identification system
DE102020100685A1 (en) PREDICTION OF TEMPORARY INFORMATION IN AUTONOMOUS MACHINE APPLICATIONS
DE102019114577A1 (en) SYSTEMS, DEVICES AND METHODS FOR EMBEDDED CODING OF CONTEXT-RELATED INFORMATION USING A NEURONAL NETWORK WITH VECTOR SPACE MODELING
DE102021129528A1 (en) Detection of emergency vehicles for autonomous driving applications
DE102021108470A1 (en) REALISTIC PICTURE PERSPECTIVE TRANSFORMATION USING NEURAL NETWORKS
DE102021109395A1 (en) METHODS, SYSTEMS AND DEVICES FOR USER UNDERSTANDABLE EXPLAINABLE LEARNING MODELS
DE102020128978A1 (en) TRAINING DEEP NEURAL NETWORKS WITH SYNTHETIC IMAGES
DE102018128583A1 (en) VEHICLE RADAR CONTROL
DE112021005806T5 (en) Systems and methods for camera-based reduction of incorrectly detected radar tracks
DE102021116309A1 (en) ASSISTANCE FOR DISABLED DRIVERS
DE102018129323A1 (en) Method and apparatus for improved radar tracking with performance information
DE102021122407A1 (en) SEGMENTATION AND CLASSIFICATION OF POINT CLOUD DATA
WO2020169386A1 (en) Method and computer program product for adapting the resolution of a multisensor system of a road vehicle, and controller for a multisensor system and computer program product
DE102021104178A1 (en) DYNAMICALLY ROUTED FIELD DISCRIMINATOR
DE102020122086A1 (en) MEASURING CONFIDENCE IN DEEP NEURAL NETWORKS
DE102020203745A1 (en) Device, system and method for recognizing objects in an environment of an automated driving system
EP3809316A1 (en) Prediction of a road route based on radar data
DE102019213931A1 (en) Method and computer program product for identifying a vehicle user and control device for automated driving functions
DE102018219255A1 (en) Training system, data set, training method, evaluation device and deployment system for a road vehicle for recording and classifying traffic noise
US20230162480A1 (en) Frequency-based feature constraint for a neural network

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee