DE102022200383A1 - Verfahren zum Generieren einer digitalen modellbasierten Repräsentation eines Fahrzeugs - Google Patents

Verfahren zum Generieren einer digitalen modellbasierten Repräsentation eines Fahrzeugs Download PDF

Info

Publication number
DE102022200383A1
DE102022200383A1 DE102022200383.7A DE102022200383A DE102022200383A1 DE 102022200383 A1 DE102022200383 A1 DE 102022200383A1 DE 102022200383 A DE102022200383 A DE 102022200383A DE 102022200383 A1 DE102022200383 A1 DE 102022200383A1
Authority
DE
Germany
Prior art keywords
vehicle
noises
environment
sensor data
based representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022200383.7A
Other languages
English (en)
Inventor
Hans-Leo Ross
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102022200383.7A priority Critical patent/DE102022200383A1/de
Priority to US18/151,613 priority patent/US20230229120A1/en
Priority to CN202310067186.1A priority patent/CN116443020A/zh
Publication of DE102022200383A1 publication Critical patent/DE102022200383A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B17/00Systems involving the use of models or simulators of said systems
    • G05B17/02Systems involving the use of models or simulators of said systems electric
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/02Registering or indicating driving, working, idle, or waiting time only
    • G07C5/04Registering or indicating driving, working, idle, or waiting time only using counting means or digital clocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/26Pc applications
    • G05B2219/2637Vehicle, car, auto, wheelchair
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Otolaryngology (AREA)
  • Evolutionary Computation (AREA)
  • Acoustics & Sound (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Toys (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren (100) zum Generieren einer digitalen modellbasierten Repräsentation (311) eines Fahrzeugs (301), umfassend: Empfangen (101) von Sensordaten (304) einer Mehrzahl von akustischen Sensoren (303) eines Fahrzeugs (301), wobei die Sensordaten (304) Geräusche des Fahrzeugs (301) und/oder Geräusche eines Umfelds (312) des Fahrzeugs (301) beschreiben, und wobei die Sensordaten (304) für eine Mehrzahl von Fahrten des Fahrzeugs (301) aufgenommen wurden; Auswerten (103) der Sensordaten (302) und Erstellen von Relationen zwischen den aufgenommenen Geräuschen des Fahrzeugs (301) und/oder des Umfelds (312) und die jeweiligen Geräusche verursachenden Zuständen des Fahrzeugs (301) und/oder des Umfelds (312); und Speichern (105) der ermittelten Relationen zwischen den Geräuschen des Fahrzeugs (301) und/oder des Umfelds (312) und den jeweiligen Zuständen des Fahrzeugs (301) und/oder des Umfelds (312) in einer modellbasierten Repräsentation (311) des Fahrzeugs (301).

Description

  • Die Erfindung betrifft ein Verfahren zum Generieren einer digitalen modellbasierten Repräsentation eines Fahrzeugs und ein Verfahren zum Steuern eines Fahrzeugs.
  • Stand der Technik
  • Für das Steuern von Fahrzeugen, insbesondere von autonom fahrenden Fahrzeugen, ist eine möglichst umfassende Kenntnis von Zuständen des Fahrzeugs wie auch des Umfelds des Fahrzeugs von entscheidender Bedeutung.
  • Es ist daher eine Aufgabe der Erfindung, ein verbessertes Verfahren zum Generieren einer digitalen modellbasierten Repräsentation eines Fahrzeugs und ein verbessertes Verfahren zum Steuern eines Fahrzeugs bereitzustellen.
  • Diese Aufgabe wird durch ein verbessertes Verfahren zum Generieren einer digitalen modellbasierten Repräsentation eines Fahrzeugs und ein verbessertes Verfahren zum Steuern eines Fahrzeugs der unabhängigen Ansprüche gelöst. Vorteilhafte Ausgestaltungen sind Gegenstand der untergeordneten Ansprüche.
  • Nach einem Aspekt der Erfindung wird ein Verfahren zum Generieren einer digitalen modellbasierten Repräsentation eines Fahrzeugs bereitgestellt, umfassend:
    • Empfangen von Sensordaten einer Mehrzahl von akustischen Sensoren eines Fahrzeugs, wobei die Sensordaten Geräusche des Fahrzeugs und/oder Geräusches eines Umfelds des Fahrzeugs beschreiben, und wobei die Sensordaten für eine Mehrzahl von Fahrten des Fahrzeugs aufgenommen wurden;
    • Auswerten der Sensordaten und Erstellen von Relationen zwischen den aufgenommenen Geräuschen des Fahrzeugs und/oder des Umfelds und die jeweiligen Geräusche verursachenden Zuständen des Fahrzeugs und/oder des Umfelds; und
    • Speichern der ermittelten Relationen zwischen den Geräuschen des Fahrzeugs und/oder des Umfelds und den jeweiligen Zuständen des Fahrzeugs und/oder des Umfelds in einer modellbasierten Repräsentation des Fahrzeugs.
  • Hierdurch kann der technische Vorteil erreicht werden, dass ein verbessertes Verfahren zum Generieren einer digitalen modellbasierten Repräsentation eines Fahrzeugs bereitgestellt werden kann. Hierzu werden Sensordaten einer Mehrzahl von akustischen Sensoren eines Fahrzeugs empfangen, wobei die Sensordaten Geräusche des Fahrzeugs und/oder Geräusche des Umfelds des Fahrzeugs beschreiben. Die Sensordaten sind hierzu durch eine Mehrzahl von Fahrten des Fahrzeugs, z.B. entlang verschiedener Fahrspuren, aufgenommen worden. Beim Generieren der modellbasierten Repräsentation des Fahrzeugs werden die Sensordaten der akustischen Sensoren ausgewertet und Relationen zwischen den aufgenommenen Geräuschen der Sensordaten, die jeweils Geräusche des Fahrzeugs und/oder des Umfelds des Fahrzeugs beschreiben, und Zuständen des Fahrzeugs und/oder Zuständen des Umfelds, die die jeweiligen Geräusche verursachen, erstellt. Die derart erstellten Relationen zwischen den durch die akustischen Sensoren aufgenommenen Geräusche des Fahrzeugs bzw. des Umfelds und den geräuschverursachenden Zuständen des Fahrzeugs bzw. des Umfelds werden darauffolgend als Repräsentation des Fahrzeugs basierend auf den akustischen Daten der akustischen Sensoren gespeichert. Hierdurch kann eine auf akustischen Daten basierenden modellbasierte Repräsentation des Fahrzeugs bereitgestellt werden. Mittels der modellbasierten Repräsentation des Fahrzeugs kann basierend auf Daten von akustischen Sensoren des Fahrzeugs während einer Fahrt des Fahrzeugs Rückschlüsse auf Zustände des Fahrzeugs bzw. Zustände des Umfelds des Fahrzeugs getroffen werden.
  • Nach einer Ausführungsform umfassen die Geräusche des Fahrzeugs: Geräusche eines Motors und/oder eines Getriebes und/oder eines Chassis und/oder einer Dämpfung und/oder einer Radaufhängung und/oder von Bremsen, und/oder von Reifen und/oder einer Karosserie des Fahrzeugs, und wobei Zustände des Fahrzeugs umfassen: Funktionszustände des Motors und/oder des Getriebes und/oder des Chassis und/oder der Dämpfung und/oder der Radaufhängung und/oder der Reifen und/oder der Karosserie und/oder eine Geschwindigkeit und/oder ein Beladungszustand des Fahrzeugs und/oder ein Rollwiderstand der Reifen auf einer Fahrbahn und eines Zustands der Fahrbahn und/oder eine Benetzung des Karosserie mit Feuchtigkeit, Schnee, Hagel, Staub, Laub.
  • Hierdurch kann der technische Vorteil erreicht werden, dass eine Vielzahl verschiedener Geräusche des Fahrzeugs durch entsprechende Messung der akustischen Sensordaten berücksichtigt werden können. Dementsprechend kann eine Vielzahl von verschiedenen Zuständen des Fahrzeugs basierend auf den jeweiligen akustischen Daten der akustischen Sensoren des Fahrzeugs ermittelt werden. Die Zustände des Fahrzeugs können hierbei die Funktionsfähigkeit des Motors, des Getriebes, des Chassis, der Dämpfung, der Radaufhängung, der Reifen, der Karosserie sowie Geschwindigkeiten, Beladungszustände, Rollwiderstände, Reifen bzw. Benetzungen der Karosserie mit Feuchtigkeit, Schnee, Hagel, Staub oder Laub umfassen. Basierend auf der modellbasierten Repräsentation des Fahrzeugs kann somit ein umfassender Zustand des Fahrzeugs ermittelt werden.
  • Nach einer Ausführungsform umfassen die Geräusche des Umfelds: Geräusche weiterer Fahrzeuge, Geräusche von Fußgängern, Geräusche von Tieren, Geräusche des Fahrzeugs reflektiert von im Umfeld angeordneter Gebäude oder Vegetation, Geräusche von Niederschlag, Schneefall, Hagel, Wind, und wobei Zustände des Umfelds des Fahrzeugs umfassen: ein Vorhandensein von Fahrzeugen, Fußgängern, Gebäuden, Vegetation, von Niederschlag, Hagel, Schnee.
  • Hierdurch kann der technische Vorteil erreicht werden, dass eine Mehrzahl verschiedener Geräusche innerhalb des Umfelds eines Fahrzeugs für die modellbasierte Repräsentation des Fahrzeugs berücksichtigt werden können. Auf die verschiedenen durch die jeweils am Fahrzeug angeordneten akustischen Sensoren aufgenommenen Geräusche innerhalb des Umfelds des Fahrzeugs kann eine Vielzahl verschiedener Zustände des Umfelds des Fahrzeugs ermittelt werden. Die Zustände des Umfelds können hierbei das Vorhandensein von verschiedenen Objekten, die gegebenenfalls basierend auf den charakteristischen Geräuschen klassifiziert werden können, sowie verschiedene Wetterbedingungen umfassen, die ebenfalls anhand der charakteristischen Geräusche, die diese beispielsweise an der Karosserie des Fahrzeugs verursachen, berücksichtigt werden. Hierdurch kann eine umfassende auf akustischen Daten einer Vielzahl von akustischen Sensoren eines Fahrzeugs basierende modellbasierte Repräsentation des Fahrzeugs bereitgestellt werden, die eine umfassende Beschreibung von verschiedenen Zuständen des Umfelds des Fahrzeugs ermöglicht.
  • Nach einer Ausführungsform umfasst eine Detektion der Objekte im Umfeld eine Positionsbestimmung der Objekte im Umfeld und/oder eine Bestimmung einer Entfernung und/oder eine Geschwindigkeit der Objekte relativ zum Fahrzeug und/oder eine Charakterisierung der Objekte.
  • Hierdurch kann der technische Vorteil erreicht werden, dass eine detaillierte Objekterkennung von Objekten innerhalb des Umfelds des Fahrzeugs basierend auf den jeweils charakteristischen Geräuschen der Objekte, die durch die entsprechenden Sensordaten der akustischen Sensoren des Fahrzeugs erfasst sind, in die modellbasierte Repräsentation des Fahrzeugs aufgenommen werden können. Hierdurch kann eine präzise modellbasierte Repräsentation des Fahrzeugs erreicht werden, die basierend auf akustischen Daten von akustischen Sensoren des Fahrzeugs eine detaillierte Beschreibung des Umfelds des Fahrzeugs ermöglicht.
  • Nach einer Ausführungsform umfassen Sensordaten akustische Daten einer Mehrzahl von Mikrophonen und/oder Daten einer Mehrzahl von Ultraschallsensoren.
  • Hierdurch kann der technische Vorteil erreicht werden, dass präzische akustische Daten der akustischen Sensoren zur Generierung modellbasierte Repräsentation des Fahrzeugs verwendet werden können. Über die Mikrofone können detaillierte Geräusche sowohl des Fahrzeugs als auch aus der Umgebung in Form der akustischen Daten in die Generierung der modellbasierten Repräsentation einfließen. Durch die Verwendung von Ultraschallsensoren können darüber hinaus Entfernungsinformationen bzw. Geschwindigkeitsinformationen von Objekten innerhalb des Umfelds in die Generierung der modellbasierten Repräsentation des Fahrzeugs einfließen. Hierdurch kann eine weitere Präzisierung der Beschreibung der Zustände insbesondere des Umfelds des Fahrzeugs erreicht werden.
  • Nach einer Ausführungsform umfasst das Erstellen der Relationen zwischen den Geräuschen des Fahrzeugs und/oder des Umfelds und den jeweiligen Zuständen des Fahrzeugs und/oder des Umfelds eine Ausführung von Techniken des maschinellen Lernens auf die Sensordaten, wobei das Speichern der Relation durch ein Speichern einer entsprechend trainierten künstlichen Intelligenz oder einer Mehrzahl entsprechend trainierter künstlicher Intelligenzen umfasst ist.
  • Hierdurch kann der technische Vorteil erreicht werden, dass eine präzise, schnelle und verlässliche Generierung der modellbasierten Repräsentation des Fahrzeugs ermöglicht ist. Durch das Verwenden von Techniken des maschinellen Lernens können die auf den aufgenommenen akustischen Daten der akustischen Sensoren basierenden Relationen der jeweils ermittelten Geräusche der akustischen Daten und den die Geräusche verursachenden Zuständen sowohl des Fahrzeugs als auch des Umfelds des Fahrzeugs durch ein entsprechendes Training der verwendeten künstlichen Intelligenzen ermittelt werden. Die entsprechend trainierten künstlichen Intelligenzen, die die jeweils gespeicherten Relationen der modellbasierten Repräsentation des Fahrzeugs darstellen, kann ferner nach erfolgreicher Generierung der modellbasierten Repräsentation des Fahrzeugs eine schnelle und zuverlässige Ermittlung der Zustände des Fahrzeugs bzw. des Umfelds durch Ausführung des jeweils trainierten neuronalen Netzes auf die während der Fahrt des Fahrzeugs aufgenommenen akustischen Daten der akustischen Sensoren erreicht werden.
  • Nach einer Ausführungsform ist die modellbasierte Repräsentation des Fahrzeugs als ein auf den akustischen Sensordaten basierender digitaler Zwilling des Fahrzeugs ausgebildet.
  • Hierdurch kann der technische Vorteil erreicht werden, dass eine umfassende Beschreibung des Fahrzeugs bzw. der Zustände des Fahrzeugs und/oder der Zustände des Umfelds des Fahrzeugs durch modellbasierte Repräsentation des Fahrzeugs bereitgestellt werden kann.
  • Nach einem weiteren Aspekt wird ein Verfahren zum Steuern eines Fahrzeugs bereitgestellt, umfassend:
    • Empfangen von Sensordaten einer Mehrzahl von akustischen Sensoren eines Fahrzeugs, wobei die Sensordaten Fahrzeuggeräusche und/oder Geräusches eines Umfelds des Fahrzeugs beschreiben;
    • Ausführen einer modellbasierten Repräsentation des Fahrzeugs auf die akustischen Sensordaten, wobei die modellbasierte Repräsentation des Fahrzeugs gemäß dem Verfahren zum Generieren einer digitalen modellbasierten Repräsentation eines Fahrzeugs nach einer der voranstehenden Ausführungsformen generiert ist;
    • Ermitteln eines Zustands des Fahrzeugs und/oder eines Zustands des Umfelds des Fahrzeugs basierend auf den akustischen Sensordaten des Fahrzeugs und den in der modellbasierten Repräsentation des Fahrzeugs gespeicherten Relationen; und
    • Ausgeben von Steuersignalen zum Ansteuern des Fahrzeugs unter Berücksichtigung des ermittelten Zustands des Fahrzeugs und/oder des Zustands des Umfelds des Fahrzeugs.
  • Hierdurch kann ein verbessertes Verfahren zum Steuern eines Fahrzeugs bereitgestellt werden, bei dem eine modellbasierte Repräsentation des Fahrzeugs mit den oben genannten technischen Vorteilen genutzt wird.
  • Nach einem weiteren Aspekt wies eine Recheneinheit bereitgestellt, die eingerichtet ist, das Verfahren zum Generieren einer digitalen modellbasierten Repräsentation eines Fahrzeugs nach einer der voranstehenden Ausführungsformen und/oder das Verfahren zum Steuern eines Fahrzeugs auszuführen.
  • Nach einem weiteren Aspekt wird ein Computerprogrammprodukt umfassend Befehle bereitgestellt, die bei der Ausführung des Programms durch eine Datenverarbeitungseinheit diese veranlassen, das Verfahren zum Generieren einer digitalen modellbasierten Repräsentation eines Fahrzeugs nach einer der voranstehenden Ausführungsformen und/oder das Verfahren zum Steuern eines Fahrzeugs auszuführen.
  • Ausführungsbeispiele der Erfindung werden anhand der folgenden Zeichnungen erläutert. In den Zeichnungen zeigen:
    • 1 eine schematische Darstellung eines Systems zum Generieren einer digitalen modellbasierten Repräsentation eines Fahrzeugs;
    • 2 ein Flussdiagramm eines Verfahrens zum Generieren einer digitalen modellbasierten Repräsentation eines Fahrzeugs;
    • 3 ein Flussdiagramm eines Verfahrens zum Steuern eines Fahrzeugs; und
    • 4 eine schematische Darstellung eines Computerprogrammprodukts.
  • 1 zeigt eine schematische Darstellung eines Systems 300 zum Generieren einer digitalen modellbasierten Repräsentation 311 eines Fahrzeugs 301.
  • 1 zeigt in Graphik a eine graphische Darstellung des erfindungsgemäßen Verfahrens zum Generieren einer modellbasierten Repräsentation 311 eines Fahrzeugs 301. In Graphik b der 1 wird hingegen eine graphische Darstellung des erfindungsgemäßen Verfahrens zum Steuern eines Fahrzeugs bereitgestellt.
  • In Graphik a ist die Szene eines auf einer Fahrspur 305 fahrenden Fahrzeugs 301 dargestellt. Das Fahrzeug 301 umfasst eine Mehrzahl von akustischen Sensoren 303, die an verschiedenen Stellen des Fahrzeugs 301 ausgebildet sind. Die akustischen Sensoren 303 können beispielsweise als Mikrofone oder Ultraschallsensoren ausgebildet sein. Die akustischen Sensoren 303 können derart am Fahrzeug angeordnet sein, dass durch diese Geräusche innerhalb des Fahrzeugs oder Geräusche innerhalb eines Umfelds 312 des Fahrzeugs aufgezeichnet werden können. Durch die Ultraschallsensoren können Entfernungen oder Geschwindigkeiten von Objekten im Umfeld des Fahrzeugs 301 ermittelt werden.
  • Zum Generieren einer auf den akustischen Daten der akustischen Sensoren 303 des Fahrzeugs 301 basierenden modellbasierten Repräsentation 311 des Fahrzeugs 301 werden erfindungsgemäß durch das Fahrzeug 301 eine Mehrzahl verschiedener Fahrten entlang verschiedener Fahrspuren 305 ausgeführt. Die Fahrten können beispielsweise als Testfahrten ausgebildet sein und ausschließlich dazu dienen, entsprechende Daten durch die akustischen Sensoren 303 des Fahrzeugs 301 aufzunehmen. Anhand der Mehrzahl von Fahrten werden somit durch die an verschiedenen Stellen des Fahrzeugs 301 ausgebildeten akustischen Sensoren 303 entsprechende Sensordaten 304 aufgenommen. Durch die Sensordaten 304 können verschiedene Geräusche innerhalb des Fahrzeugs bzw. innerhalb des Umfelds des Fahrzeugs aufgenommen werden. Bei Ausbildung der akustischen Sensoren 303 als Ultraschallsensoren können alternativ oder zusätzlich durch die Sensordaten 304 Entfernungs- bzw. Geschwindigkeitsinformationen von im Umfeld 312 angeordneten Objekten 313 relativ zum Fahrzeug 301 bestimmt werden.
  • Je nach Anordnung der akustischen Sensoren 303 an verschiedenen Positionen des Fahrzeugs können durch die Messungen der akustischen Sensoren verschiedene Geräusche von verschiedenen Teilen des Fahrzeugs aufgezeichnet werden. So können beispielsweise Geräusche des Motors, des Getriebes, des Chassis, der Dämpfung, der Radaufhängung, der Bremsen, der Reifen und/oder der Karosserie des Fahrzeugs aufgezeichnet werden. In Grafik c der 1 ist vergrößert eine entsprechende Anordnung eines akustischen Sensors 303 in unmittelbarer Nähe eines Reifens 307 bzw. eines Chassis 308 des Fahrzeugs 301 dargestellt. Durch die Messungen des jeweils in Nähe des Reifens 307 angeordneten akustischen Sensors 303 können somit beispielsweise während der Fahrt des Fahrzeugs 301 auftretende Reifengeräusche des Reifens 307 aufgenommen werden. Durch an anderen Stellen des Fahrzeugs 301 angeordnete akustische Sensoren 303 können entsprechend Geräusche von anderen Bauteilen wie beispielsweise dem Motor dem Getriebe des Fahrzeugs 301 während der Fahrt aufgezeichnet werden.
  • Durch entsprechend in Richtung des Umfelds 312 des Fahrzeugs 301 angeordnete akustische Sensoren 303 können während der Fahrt ferner Geräusche innerhalb des Umfelds, beispielsweise durch Objekte 313 innerhalb des Umfelds aufgezeichnet werden. In 1 ist beispielsweise ein weiteres Fahrzeug 314 innerhalb des Umfelds 312 angeordnet. Durch entsprechende akustische Aufnahme der Geräusche des Fahrzeugs 314 kann durch eine entsprechende Datenverarbeitung und Auswertung der Sensordaten 304 eine Objekterkennung des Weiteren Fahrzeugs 314 erfolgen. Durch die Ausbildung der in das Umfeld 312 des Fahrzeugs 301 weisenden akustischen Sensoren 303 als Ultraschallsensoren können alternativ oder zusätzlich Entfernungs- bzw. Geschwindigkeitsinformationen der Objekte 313 im Umfeld 312 des Fahrzeugs 301 aufgezeichnet werden.
  • Zur Auswertung der während der Testfahrten des Fahrzeugs 301 aufgenommenen Sensordaten 304 der Mehrzahl von akustischen Sensoren 303 und zum Generieren einer modellbasierten Repräsentation 311 des Fahrzeugs 301 werden die Sensordaten 304 an eine Recheneinheit 302 übermittelt. Die Recheneinheit 302 ist eingerichtet, das erfindungsgemäße Verfahren zum Generieren einer modellbasierten Repräsentation 311 des Fahrzeugs 301 auszuführen. Neben den Sensordaten 304 der Mehrzahl von akustischen Sensoren 303 werden ferner Zustandsdaten 315 bereitgestellt. Die Zustandsdaten 315 beschreiben hierbei Zustände des Fahrzeugs 301 bzw. Zustände des Umfelds 312 des Fahrzeugs 301, die das Fahrzeug 301 bzw. das Umfeld des Fahrzeugs während der Aufnahmen der Sensordaten 304 der akustischen Sensoren 303 aufwiesen.
  • Basierend auf den Sensordaten 304 und den Zustandsdaten 315 kann zur Generierung der modellbasierten Repräsentation 311 des Fahrzeugs 301 eine Vielzahl von Relationen zwischen den Sensordaten 304 und den entsprechenden Zustandsdaten 315 erreicht werden. Die Relationen zwischen den Sensordaten 304 und den Zustandsdaten 315 beschreiben hierbei Zusammenhänge zwischen den in den Sensordaten 304 aufgezeichneten Geräuschen des Fahrzeugs 301 bzw. des Umfelds 312 und den jeweils die Geräusche des Fahrzeugs 301 bzw. des Umfelds 312 verursachenden Zustände des Fahrzeugs 301 oder Umfelds 312.
  • Für das Beispiel des an der Nähe des Reifens 307 des Fahrzeugs 301 angeordnete akustischen Sensors 303 können die Zustandsdaten 315 beispielsweise einen Reifendruck oder ein Reifenmodell des Reifens 307 oder Informationen bzgl. des Fahrbahnbelags 306 der Fahrspur 305 umfassen. Durch die Auswertung der entsprechenden Sensordaten 304 des am Reifen 307 angeordneten akustischen Sensors 303 und der entsprechenden Zustandsdaten 315 können somit Relationen zwischen denen durch den jeweiligen akustischen Sensor 303 aufgenommenen Reifengeräuschen des Reifens 307 und beispielsweise dem Reifendruck des Reifens 307 oder dem Reifenmodell des Reifens 307 bzw. dem jeweiligen Fahrspurbelag 306 der Fahrspur 305 hergestellt werden, die zum Zeitpunkt der Aufnahme der Sensordaten 304 durch das Fahrzeug 301 befahren wurde. Durch die entsprechenden Relationen zwischen den aufgenommenen Reifengeräuschen und dem jeweiligen Zustand des Reifens 307 kann somit nach erfolgreicher Generierung der modellbasierten Repräsentation 311 des Fahrzeugs 301 basierend auf den durch den akustischen Sensor 303 aufgezeichneten Reifengeräuschen des Reifens 307 Rückschlüsse auf den Zustand des Reifens 307 gemacht werden. So können ferner in den Zustandsdaten 315 enthaltene Geschwindigkeitsinformationen des Fahrzeugs bzw. Informationen bzgl. des Fahrspurbelags 306 berücksichtigt werden.
  • Analog können durch die Sensordaten 304 von akustischen Sensoren 303, die am Motor des Fahrzeugs angeordnet sind, und durch Zustandsdaten 315, die Motorzustände des umfassen, entsprechende Relationen zwischen den durch die Sensordaten 304 aufgezeichneten Motorgeräusche und entsprechende Zustände des Motors erstellt werden.
  • Durch die erstellten Relationen ergeben sich Zuordnungen zwischen den Geräuschen der Sensordaten 304 und den Zuständen der Zustandsdaten 315. Über die Zuordnungen lassen sich nach erfolgreicher Generierung der modellbasierten Repräsentation 311 basierend auf aufgenommenen Sensordaten 304 entsprechende Zustände ermitteln.
  • Analog können über Geräusche des Umfelds 312, die durch entsprechende Sensordaten 304 von den dem Umfeld 312 zugewandten akustischen Sensoren 303 aufgezeichnet sind, und Zustände des Umfelds beschreibende Zustandsdaten 315, in denen beispielsweise aus Darstellungen der jeweiligen Fahrspuren 305 bezogenen Informationen bzgl. Gebäuden, Vegetationen oder Straßenverlauf umfasst sind, entsprechende Relationen zwischen den in den Sensordaten 304 aufgezeichneten Geräuschen es Umfelds 313 und den in den Zustandsdaten 315 beschriebenen Zuständen des Umfelds 312 erreicht werden.
  • Für das gezeigte Beispiel des sich auf der Fahrspur 305 befindenden weiteren Fahrzeugs 314 können die Zustandsdaten 315 beispielsweise Informationen einer auf Kameradaten basierenden Objekterkennung umfassen, in denen das auf der Fahrspur 305 fahrende weitere Fahrzeug 314 erkannt werden konnte. Die in den entsprechenden Sensordaten 304 aufgezeichneten Geräusche innerhalb des Umfelds 312 können somit unter Berücksichtigung der das weitere Fahrzeug 314 beschreibenden Zustandsdaten 315 dem jeweiligen Zustand des Umfelds 312 eindeutig zugeordnet werden, wobei der Zustand des Umfelds 312 hierbei beispielsweise das Vorhandensein des Weiteren Fahrzeugs 314 beschreibt.
  • Durch Auswertung der bei Testfahrten aufgenommenen Sensordaten 304 und der entsprechend bereitgestellten Zustandsdaten 315 können somit die Relationen zwischen den in den Sensordaten 304 aufgezeichneten Fahrzeuggeräuschen bzw. Umfeldgeräuschen und den jeweiligen Zuständen des Fahrzeugs bzw. Zuständen des Umfelds ermittelt werden. Die ermittelten und abgespeicherten Relationen zwischen aufgezeichneten Fahrzeug- bzw. Umfeldgeräuschen und den jeweilig dazugehörigen Zuständen des Fahrzeugs bzw. des Umfelds stellen erfindungsgemäß die modellbasierte Repräsentation 311 des Fahrzeugs 301 dar.
  • Gemäß einer Ausführungsform kann die Auswertung der Sensordaten 304 bzw. der Zustandsdaten 315 und das Generieren der Relationen zwischen den aufgezeichneten Fahrzeug- bzw. Umfeldgeräuschen und den jeweils zugehörigen Zuständen des Fahrzeugs bzw. des Umfelds durch Ausführung von Techniken des maschinellen Lernens bewirkt werden. Beispielsweise kann für die Vielzahl der akustischen Sensoren 303 ein entsprechend konstruierte neuronales Netz bzw. eine Mehrzahl von neuronalen Netzen zur Erzeugung der Relationen zwischen den in den Sensordaten 304 aufgezeichneten Fahrzeug- bzw. Umfeldgeräuschen und den jeweiligen Zuständen des Fahrzeugs bzw. des Umfelds verwendet werden. Für ein entsprechendes Training des neuronalen Netzes bzw. der Mehrzahl von neuronalen Netzen können die Relationen zwischen den aufgezeichneten Geräuschen und den Zuständen des Fahrzeugs bzw. des Umfelds generiert werden.
  • Analog können basierend auf Entfernungs- bzw. Geschwindigkeitsinformationen von Sensordaten von als Ultraschallsensoren ausgebildeten akustischen Sensoren 303 Relationen zwischen Entfernungs- bzw. Geschwindigkeitsinformationen und entsprechende Zustände des Umfelds ermittelt werden.
  • Gemäß einer Ausführungsform können die durch die Sensordaten 304 aufgezeichneten Geräusche des Fahrzeugs Geräusche eines Motors, eines Getriebes, eines Chassis, einer Dämpfung, einer Radaufhängung, von Bremsen, von Reifen und einer Karosserie des Fahrzeugs sowie weitere Geräusche weiterer Bestandteile des Fahrzeugs umfassen. Die jeweils in den Zustandsdaten 315 beschriebenen Zustände des Fahrzeugs können hierbei Funktionszustände des Motors, des Getriebes, des Chassis, der Dämpfung, der Radaufhängung, der Reifen, der Karosserie sowie Informationen bzgl. der Geschwindigkeit, des Beladungszustands, des Rollwiderstands der Reifen 307 auf einer Fahrspur 305 sowie eines Zustands der Fahrspur 305 oder Informationen bzgl. einer Benetzung der Karossiere mit Feuchtigkeit, Schnee, Hagel, Laub bzw. Staub oder andere Zustände des Fahrzeugs 301 umfassen.
  • Gemäß einer Ausführungsform können die durch die Sensordaten 304 der akustischen Sensoren 303 aufgezeichneten Geräusche des Umfelds 312 Geräusche weitere Fahrzeuge 314, Geräusche von Fußgängern, von Tieren, Geräusche des Fahrzeugs 301, die von im Umfeld 312 angeordneten Gebäuden oder Vegetation reflektiert werden, Geräusche von Niederschlag, Schneefall, Hagel, Wind und weitere im Umfeld des Fahrzeugs 312 ermittelbare Geräusche umfassen. Die Zustände des Umfelds 312 können demzufolge das Vorhandensein von Objekten 313, wie beispielsweise weiteren Fahrzeugen 314, Fußgängern, Gebäuden, Vegetation oder das Vorhandensein von spezifischen Wetterbedingungen wie Niederschlag, Hagel, Schneefall oder sonstige Zustände des Umfelds umfassen.
  • In Grafik b der 1 ist eine grafische Darstellung des erfindungsgemäßen Verfahrens zum Steuern eines Fahrzeugs 301 dargestellt. Das Steuern des Fahrzeugs 301 wird hierbei basierend auf den Sensordaten 304 der Mehrzahl von akustischen Sensoren 303 des Fahrzeugs 301 und unter Berücksichtigung der wie oben beschrieben generierten modellbasierten Repräsentation 311 des Fahrzeugs 301 durchgeführt. Nach erfolgreichem Generieren der modellbasierten Repräsentation 311 des Fahrzeugs 301 wird diese in einer Recheneinheit 310 des Fahrzeugs 301 installiert. Zum Steuern des Fahrzeugs 301 werden erfindungsgemäß während der Fahrt des Fahrzeugs 301 eine Mehrzahl von Sensordaten 304 der Mehrzahl von akustischen Sensoren 303 aufgenommen. Wie oben beschrieben können die Sensordaten 304 hierbei Geräusche des Fahrzeugs, bzw. Geräusche verschiedener Bestandteile des Fahrzeugs 301, und/oder Geräusche des Umfelds des Fahrzeugs 312 und/oder Entfernungs- bzw. Geschwindigkeitsinformationen von im Umfeld 312 eines Fahrzeugs 301 angeordneten Objekten 313 umfassen. Die entsprechend generierte modellbasierten Repräsentation 311 des Fahrzeugs 301 umfasst erfindungsgemäß Relationen zwischen Fahrzeug- bzw. Umfeldgeräuschen und Zuständen des Fahrzeugs 301 bzw. des Umfelds 312, die Ursache der entsprechend aufgezeichneten Fahrzeug- bzw. Umfeldgeräusche sind. Durch Ausführung der entsprechend generierten modellbasierten Repräsentation 311 des Fahrzeugs 301 auf die während der Fahrt des Fahrzeugs 301 aufgenommenen Sensordaten 304 können somit durch die in der modellbasierten Repräsentation 311 des Fahrzeugs 301 gespeicherten Relationen zwischen Fahrzeug- bzw. Umfeldgeräuschen und entsprechenden Zuständen des Fahrzeugs 301 bzw. des Umfelds 312 die Zustände des Fahrzeugs 301 bzw. des Umfelds 312 während der Fahrt des Fahrzeugs 301 ermittelt werden. Durch Ausgabe entsprechender Steuerungssignale kann somit unter Berücksichtigung der modellbasierten Repräsentation 311 des Fahrzeugs 301 und den während der Fahrt aufgenommenen Sensordaten 304 der akustischen Sensoren 303 des Fahrzeugs 301 eine Steuerung des Fahrzeugs 301 bewirkt werden, in der die durch die modellbasierten Repräsentation 311 des Fahrzeugs 301 ermittelten Zustände des Fahrzeugs 301 bzw. des Umfelds 312 berücksichtigt werden können.
  • Gemäß einer Ausführungsform kann die modellbasierten Repräsentation 311 als ein digitaler Zwilling des Fahrzeugs 301 ausgebildet sein.
  • In der gezeigten Ausführungsform ist die zum Generieren der modellbasierten Repräsentation 311 des Fahrzeugs 301 ausgebildete Recheneinheit 302 als eine externe Recheneinheit ausgebildet. Diese kann beispielsweise in Form eines Rechenzentrums zum Erstellen der modellbasierten Repräsentationen 311 ausgebildet sein, die beispielsweise als eine entsprechende Servereinheit strukturiert ist, die mittels einer Datenübertragung mit den jeweiligen Fahrzeug 301 kommunizieren kann. In der gezeigten Ausführungsform ist die zur Ausführung der generierten modellbasierten Repräsentation 311 des Fahrzeugs 301 ausgebildete Recheneinheit 310 im Fahrzeug 301 ausgebildet. Alternativ hierzu kann die Recheneinheit 310 ebenfalls als eine externe Recheneinheit ausgebildet sein. Hierzu wird ferner eine Datenkommunikation zwischen der externen Recheneinheit 310 und dem Fahrzeug 301, in der die durch die Ausführung der modellbasierten Repräsentation 311 auf die Sensordaten 304 des Fahrzeugs 301 ermittelten Zustände des Fahrzeugs 301 bzw. des Umfelds 312 dem Fahrzeug 301 während der Fahrt bereitgestellt werden können.
  • 2 zeigt ein Flussdiagramm eines Verfahrens 100 zum Generieren einer digitalen modellbasierten Repräsentation 311 eines Fahrzeugs 301.
  • Erfindungsgemäß werden in einem ersten Verfahrensschritt 101 Sensordaten 304 einer Mehrzahl von akustischen Sensoren 303 des Fahrzeugs 301 empfangen. Die Sensordaten 304 werden hierzu während einer Mehrzahl von Fahrten, beispielsweise Testfahrten, des Fahrzeugs 301 entlang einer Mehrzahl verschiedener Fahrspuren 305 aufgezeichnet. Die Sensordaten 304 beschreiben hierbei Fahrzeuggeräusche bzw. Geräusche des Umfelds 312 des Fahrzeugs 301 und können zusätzlich und/oder alternativ Entfernungs- bzw. Geschwindigkeitsinformationen von Objekten 313 im Umfeld 312 des Fahrzeugs 301 umfassen.
  • In einem weiteren Verfahrensschritt 103 werden die Sensordaten 304 ausgewertet und Relationen zwischen den aufgenommenen Geräuschen der Sensordaten 304 bzw. den Entfernungs- bzw. Geschwindigkeitsinformationen der Sensordaten 304 und Zuständen des Fahrzeugs 301 bzw. Zuständen des Umfelds des Fahrzeugs 301 ermittelt. Hierzu können ferner Zustandsdaten 315 berücksichtigt werden, die Informationen bzgl. der jeweiligen Zustände des Fahrzeugs bzw. der Zustände des Umfelds 312 des Fahrzeugs 301 umfassen.
  • In einem weiteren Verfahrensschritt 205 werden die Relationen zwischen den Geräuschen bzw. den Entfernungs- und Geschwindigkeitsinformationen der Sensordaten 304 und den Zuständen des Fahrzeugs 301 bzw. den Zuständen des Umfelds 312 der Zustandsdaten 315 in der entsprechenden modellbasierten Repräsentation 311 des Fahrzeugs 301 gespeichert.
  • 3 zeigt ein Flussdiagramm eines Verfahrens 200 zum Steuern eines Fahrzeugs 301.
  • Erfindungsgemäß werden in einem ersten Verfahrensschritt 201 Sensordaten 304 einer Mehrzahl von akustischen Sensoren 303 des Fahrzeugs 301 während einer Fahrt des Fahrzeugs 301 aufgenommen.
  • In einem weiteren Verfahrensschritt 203 wird eine gemäß dem erfindungsgemäßen Verfahren 100 zum Generieren einer modellbasierten Repräsentation 311 eines Fahrzeugs 301 generierten modellbasierten Repräsentation 311 des Fahrzeugs 301 auf die aufgenommenen Sensordaten 304 ausgeführt.
  • In einem weiteren Verfahrensschritt 205 wird durch Ausführung der modellbasierten Repräsentation 311 des Fahrzeugs 301 auf die Sensordaten 304 der akustischen Sensoren 301 wenigstens ein Zustand des Fahrzeugs 301 bzw. ein Zustand des Umfelds 312 des Fahrzeugs 301 ermittelt.
  • In einem weiteren Verfahrensschritt 207 werden basierend auf dem ermittelten Zustand des Fahrzeug 301 bzw. dem Zustand des Umfelds 312 des Fahrzeugs 301 entsprechende Steuersignale ausgegeben. Die Steuersignale sind hierbei derart ausgestaltet, dass eine Steuerung des Fahrzeugs 301 unter Berücksichtigung der ermittelten Zustände des Fahrzeugs 301 bzw. des Umfelds 312 erfolgt.
  • 4 zeigt eine schematische Darstellung eines Computerprogrammprodukts 400, umfassend Befehle, die bei der Ausführung des Programms durch eine Recheneinheit dieses veranlassen, das Verfahren (00 zum Generieren einer digitalen modellbasierten Repräsentation 312 eines Fahrzeugs 301 und/oder das Verfahren 200 zum Steuern eines Fahrzeugs 301 auszuführen.
  • Das Computerprogrammprodukt 400 ist in der gezeigten Ausführungsform auf einem Speichermedium 401 gespeichert. Das Speichermedium 401 kann hierbei ein beliebiges aus dem Stand der Technik bekanntes Speichermedium sein.

Claims (10)

  1. Verfahren (100) zum Generieren einer digitalen modellbasierten Repräsentation (311) eines Fahrzeugs (301), umfassend: Empfangen (101) von Sensordaten (304) einer Mehrzahl von akustischen Sensoren (303) eines Fahrzeugs (301), wobei die Sensordaten (304) Geräusche des Fahrzeugs (301) und/oder Geräusche eines Umfelds (312) des Fahrzeugs (301) beschreiben, und wobei die Sensordaten (304) für eine Mehrzahl von Fahrten des Fahrzeugs (301) aufgenommen wurden; Auswerten (103) der Sensordaten (304) und Erstellen von Relationen zwischen den aufgenommenen Geräuschen des Fahrzeugs (301) und/oder des Umfelds (312) und die jeweiligen Geräusche verursachenden Zuständen des Fahrzeugs (301) und/oder des Umfelds (312); und Speichern (105) der ermittelten Relationen zwischen den Geräuschen des Fahrzeugs (301) und/oder des Umfelds (312) und den jeweiligen Zuständen des Fahrzeugs (301) und/oder des Umfelds (312) in einer modellbasierten Repräsentation (311) des Fahrzeugs (301).
  2. Verfahren (100) nach Anspruch 1, wobei die Geräusche des Fahrzeugs (301) umfassen: Geräusche eines Motors und/oder eines Getriebes und/oder eines Chassis (308) und/oder einer Dämpfung und/oder einer Radaufhängung und/oder von Bremsen, und/oder von Reifen (307) und/oder einer Karosserie des Fahrzeugs (301), und wobei Zustände des Fahrzeugs (301) umfassen: Funktionszustände des Motors und/oder des Getriebes und/oder des Chassis (308) und/oder der Dämpfung und/oder der Radaufhängung und/oder der Reifen (307) und/oder der Karosserie und/oder eine Geschwindigkeit und/oder ein Beladungszustand des Fahrzeugs (301) und/oder ein Rollwiderstand der Reifen (307) auf einer Fahrspur (305) und eines Zustands der Fahrspur (305) und/oder eine Benetzung des Karosserie mit Feuchtigkeit, Schnee, Hagel, Staub, Laub.
  3. Verfahren (100) nach einem der voranstehenden Ansprüche, wobei die Geräusche des Umfelds (3129 umfassen: Geräusche weiterer Fahrzeuge (314), Geräusche von Fußgängern, Geräusche von Tieren, Geräusche des Fahrzeug reflektiert von im Umfeld angeordneter Gebäude oder Vegetation, Geräusche von Niederschlag, Schneefall, Hagel, Wind, und wobei Zustände des Umfelds (312) des Fahrzeugs (301) umfassen: ein Vorhandensein von Fahrzeugen (314), Fußgängern, Gebäuden, Vegetation, von Niederschlag, Hagel, Schnee.
  4. Verfahren (100) nach Anspruch 3, wobei eine Detektion der Objekte (313) im Umfeld eine Positionsbestimmung der Objekte (313) im Umfeld (312) und/oder eine Bestimmung einer Entfernung und/oder eine Geschwindigkeit der Objekte (313) relativ zum Fahrzeug (301) und/oder eine Charakterisierung der Objekte (313) umfasst.
  5. Verfahren (100) nach einem der voranstehenden Ansprüche, wobei Sensordaten (304) akustische Daten einer Mehrzahl von Mikrophonen und/oder Daten einer Mehrzahl von Ultraschallsensoren umfassen.
  6. Verfahren (100) nach einem der voranstehenden Ansprüche, wobei das Erstellen der Relationen zwischen den Geräuschen des Fahrzeugs (301) und/oder des Umfelds (312) und den jeweiligen Zuständen des Fahrzeugs (301) und/oder des Umfelds (312) eine Ausführung von Techniken des maschinellen Lernens auf die Sensordaten umfasst, und wobei das Speichern der Relation durch ein Speichern einer entsprechend trainierten künstlichen Intelligenz oder einer Mehrzahl entsprechend trainierter künstlicher Intelligenzen umfasst.
  7. Verfahren (100) nach einem der voranstehenden Ansprüche, wobei die modellbasierte Repräsentation (312) des Fahrzeugs (301) als ein auf den akustischen Sensordaten (304) basierender digitaler Zwilling des Fahrzeugs (301) ausgebildet ist.
  8. Verfahren (200) zum Steuern eines Fahrzeugs, umfassend: Empfangen (201) von Sensordaten (304) einer Mehrzahl von akustischen Sensoren (301) eines Fahrzeugs (301), wobei die Sensordaten (304) Geräusche des Fahrzeugs (301) und/oder Geräusches eines Umfelds (312) des Fahrzeugs (301) beschreiben; Ausführen (203) einer modellbasierten Repräsentation (311) des Fahrzeugs auf die akustischen Sensordaten (304), wobei die modellbasierte Repräsentation (311) des Fahrzeugs (301) gemäß dem Verfahren (100) zum Generieren einer digitalen modellbasierten Repräsentation (311) eines Fahrzeugs (301) nach einem der voranstehenden Ansprüche 1 bis 7 generiert ist; Ermitteln (205) eines Zustands des Fahrzeugs (301) und/oder eines Zustands des Umfelds (312) des Fahrzeugs (301) basierend auf den akustischen Sensordaten (304) des Fahrzeugs (301) und den in der modellbasierten Repräsentation (311) des Fahrzeugs (301) gespeicherten Relationen; und Ausgeben (207) von Steuersignalen zum Ansteuern des Fahrzeugs (301) unter Berücksichtigung des ermittelten Zustands des Fahrzeugs (301) und/oder des Zustands des Umfelds (312) des Fahrzeugs (301).
  9. Recheneinheit (302, 310), die eingerichtet ist, das Verfahren (100) zum Generieren einer digitalen modellbasierten Repräsentation (312) eines Fahrzeugs (301) nach einem der voranstehenden Ansprüchen 1 bis 7 und/oder das Verfahren zum Steuern eines Fahrzeugs (301) nach Anspruch 8 auszuführen.
  10. Computerprogrammprodukt (400) umfassend Befehle, die bei der Ausführung des Programms durch eine Datenverarbeitungseinheit diese veranlassen, das Verfahren (100) zum Generieren einer digitalen modellbasierten Repräsentation (311) eines Fahrzeugs (301) nach einem der voranstehenden Ansprüchen 1 bis 7 und/oder das Verfahren (200) zum Steuern eines Fahrzeugs (301) nach Anspruch 8 auszuführen.
DE102022200383.7A 2022-01-14 2022-01-14 Verfahren zum Generieren einer digitalen modellbasierten Repräsentation eines Fahrzeugs Pending DE102022200383A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102022200383.7A DE102022200383A1 (de) 2022-01-14 2022-01-14 Verfahren zum Generieren einer digitalen modellbasierten Repräsentation eines Fahrzeugs
US18/151,613 US20230229120A1 (en) 2022-01-14 2023-01-09 Method for generating a digital model-based representation of a vehicle
CN202310067186.1A CN116443020A (zh) 2022-01-14 2023-01-12 生成基于模型的数字化车辆代表的方法、控制车辆的方法和计算单元

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022200383.7A DE102022200383A1 (de) 2022-01-14 2022-01-14 Verfahren zum Generieren einer digitalen modellbasierten Repräsentation eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102022200383A1 true DE102022200383A1 (de) 2023-07-20

Family

ID=86990799

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022200383.7A Pending DE102022200383A1 (de) 2022-01-14 2022-01-14 Verfahren zum Generieren einer digitalen modellbasierten Repräsentation eines Fahrzeugs

Country Status (3)

Country Link
US (1) US20230229120A1 (de)
CN (1) CN116443020A (de)
DE (1) DE102022200383A1 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014100223A1 (de) 2013-01-16 2014-07-17 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Geräuschsteuerung thermischer Komponenten in einem Hybrid-Elektrofahrzeug
DE102019104845A1 (de) 2018-02-28 2019-08-29 Toyota Jidosha Kabushiki Kaisha Proaktive fahrzeugwartungsplanung basierend auf digitalzwillingssimulationen
DE102019218069A1 (de) 2019-11-22 2021-05-27 Zf Friedrichshafen Ag Vorrichtung und Verfahren zum Erkennen und Klassifizieren eines Unfallgegners
DE102020200828A1 (de) 2020-01-23 2021-07-29 Zf Friedrichshafen Ag Verfahren zum Bereitstellen einer künstlichen Intuition
DE102021003787A1 (de) 2021-07-23 2021-11-04 Daimler Ag Vorrichtung und Verfahren zur Auswertung von Körperschallsignalen

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014100223A1 (de) 2013-01-16 2014-07-17 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Geräuschsteuerung thermischer Komponenten in einem Hybrid-Elektrofahrzeug
DE102019104845A1 (de) 2018-02-28 2019-08-29 Toyota Jidosha Kabushiki Kaisha Proaktive fahrzeugwartungsplanung basierend auf digitalzwillingssimulationen
DE102019218069A1 (de) 2019-11-22 2021-05-27 Zf Friedrichshafen Ag Vorrichtung und Verfahren zum Erkennen und Klassifizieren eines Unfallgegners
DE102020200828A1 (de) 2020-01-23 2021-07-29 Zf Friedrichshafen Ag Verfahren zum Bereitstellen einer künstlichen Intuition
DE102021003787A1 (de) 2021-07-23 2021-11-04 Daimler Ag Vorrichtung und Verfahren zur Auswertung von Körperschallsignalen

Also Published As

Publication number Publication date
US20230229120A1 (en) 2023-07-20
CN116443020A (zh) 2023-07-18

Similar Documents

Publication Publication Date Title
DE102013222634B4 (de) Verfahren zur Prognostizierung eines Fahrbahn-Reibungsbeiwerts sowie Verfahren zum Betrieb eines Kraftfahrzeugs
DE102020210665A1 (de) System zum auswerten eines fahrzeugverhaltens
DE102016212326A1 (de) Verfahren zur Verarbeitung von Sensordaten für eine Position und/oder Orientierung eines Fahrzeugs
DE102011007608A1 (de) Verfahren und System zur aktiven Fahrwerksregelung
DE102019203712B4 (de) Verfahren zum Trainieren wenigstens eines Algorithmus für ein Steuergerät eines Kraftfahrzeugs, Computerprogrammprodukt, Kraftfahrzeug sowie System
WO2004101300A1 (de) Verfahren zur erkennung und überwachung der bewegung bei fahrzeugen
DE102016117136A1 (de) Verfahren zum Bestimmen eines Fahrverhaltens eines Fahrers eines Kraftfahrzeugs zum Betrieb eines Fahrerassistenzsystems des Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102019004906A1 (de) Verfahren und Vorrichtung zur Reinigung von Umgebungssensoren
DE102018004569A1 (de) Verfahren zur Steuerung oder Regelung von Funktionen eines Fahrwerks eines Fahrzeugs
DE102022200383A1 (de) Verfahren zum Generieren einer digitalen modellbasierten Repräsentation eines Fahrzeugs
DE102017216505A1 (de) Verfahren zur Optimierung der automatisierten Spurführung von Fahrzeugen
DE102020110730A1 (de) Verfahren und Vorrichtung zur Erhöhung der Verfügbarkeit einer automatisierten Fahrfunktion oder eines Fahrerassistenzsystems
DE19939468A1 (de) Verfahren zur Steuerung einer Aufzeichnung eines Unfalldatenrekorders in Kraftfahrzeugen und Unfalldatenrekorder
DE102021003787A1 (de) Vorrichtung und Verfahren zur Auswertung von Körperschallsignalen
DE102009024131A1 (de) Verfahren zur Ermittelung einer Fahrspur und Fahrerassistenzsystem für ein Fahrzeug mit Mitteln zur Ermittelung einer Fahrspur
DE102018007567A1 (de) Verfahren zum Erkennen von akustischen Signalen auf dem Dach eines Fahrzeugs, Vorrichtung zum Erkennen von akustischen Signalen auf dem Dach eines Fahrzeugs durch ein solches Verfahren, und Fahrzeug mit einer solchen Vorrichtung
DE102020121027A1 (de) Verfahren und System zum Betreiben einer Fahrerassistenzfunktion
DE102015214987B4 (de) Bestimmung eines defekten Bauteils eines Fahrzeugs
DE102020213116A1 (de) Verfahren zur Optimierung von Fahrverhalten bei Fahrzeugen
EP4222039A1 (de) Optische schienenwegerkennung
DE102020007770A1 (de) Verfahren zum Bestimmen einer Bodenunebenheit auf einer Straße mittels eines Systems eines Kraftfahrzeugs, sowie System
DE102020003667A1 (de) Verfahren zum Betrieb eines automatisiert fahrenden Fahrzeuges
DE102020001154A1 (de) Verfahren zum Betrieb eines Fahrzeuges
DE102016216268A1 (de) Erzeugung von sensordaten in einer virtuellen fahrumgebung
DE102019008079A1 (de) Verfahren zum Erkennen mindestens eines Objekts in einem Fahrbereich eines Fahrzeugs, Vorrichtung eingerichtet zum Druchführen eines solchen Verfahrens, und Fahrzeug mit einer solchen Vorrichtung

Legal Events

Date Code Title Description
R163 Identified publications notified