DE102022107842A1 - Detektionsvorrichtung und Verfahren zum Erkennen einer Person in einem Fahrzeuginnenraum eines Fahrzeugs - Google Patents

Detektionsvorrichtung und Verfahren zum Erkennen einer Person in einem Fahrzeuginnenraum eines Fahrzeugs Download PDF

Info

Publication number
DE102022107842A1
DE102022107842A1 DE102022107842.6A DE102022107842A DE102022107842A1 DE 102022107842 A1 DE102022107842 A1 DE 102022107842A1 DE 102022107842 A DE102022107842 A DE 102022107842A DE 102022107842 A1 DE102022107842 A1 DE 102022107842A1
Authority
DE
Germany
Prior art keywords
detection device
determined
radar sensor
vehicle
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022107842.6A
Other languages
English (en)
Inventor
Leen Sit
Hamid Afrasiabi Vayghan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to DE102022107842.6A priority Critical patent/DE102022107842A1/de
Publication of DE102022107842A1 publication Critical patent/DE102022107842A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Die Erfindung betrifft eine Detektionsvorrichtung (3) und ein Verfahren zum Erkennen einer Person (10) in einem Fahrzeuginnenraum (2) eines Fahrzeugs (1), wobei die Detektionsvorrichtung (3) zumindest drei räumlich beabstandet voneinander angeordnete Radarsensoren (4, 5, 6) aufweist, Jeder der Radarsensoren (4, 5, 6) weist durch Strahlformung einen räumlich begrenzten Erfassungsbereich (17, 18, 19) auf und ist dazu ausgebildet, im vorgegebenen Erfassungsbereich (17, 18, 19) für zumindest ein im Erfassungsbereich (17, 18, 19) angeordnetes Objekt eine für das Objekt charakteristische Punktwolke (20, 21, 22) zu ermitteln. Durch Auswerten der ermittelten Punktwolken (20, 21, 22) der Radarsensoren (4, 5, 6) ist mittels einer Auswerteeinrichtung (9) der Detektionsvorrichtung (3) zumindest feststellbar, ob das Objekt eine Person (10) ist oder nicht.

Description

  • Die Erfindung betrifft eine Detektionsvorrichtung sowie ein Verfahren zum Erkennen einer Person in einem Fahrzeuginnenraum eines Fahrzeugs. Die Detektionsvorrichtung weist zumindest drei räumlich beabstandet voneinander angeordnete Radarsensoren auf. Die Erfindung betrifft zudem ein Fahrzeug mit einem Fahrzeuginnenraum, in dem eine derartige Detektionsvorrichtung angeordnet ist.
  • Ein Fahrzeug, das beispielsweise zum zumindest teilautomatischen Fahren ausgebildet ist, kann eine Fahrzeugfunktion aufweisen, zu deren Funktion eine Information dahingehend benötigt wird, ob und wenn ja wie viele Personen sich in einem Fahrzeuginnenraum des Fahrzeugs befinden. In diesem Zusammenhang kann die benötigte Information lediglich das Vorhandensein der Person, deren Verortung innerhalb des Fahrzeuginnenraums und/oder eine Klassifikation der Person, beispielsweise als Erwachsener oder als Kind, betreffen. Insbesondere letztere Information kann beispielsweise einer automatischen Airbagsteuerung und/oder einer automatischen Fahrzeugsitzeinstelleinrichtung bereitgestellt werden, deren Funktion daraufhin an die Klasse der Person im Fahrzeug angepasst werden kann.
  • Herkömmliche Vorgehen zum Erkennen einer Person im Fahrzeuginnenraum, die auf Radartechnologie basieren, sehen nur einen einzigen Radarsensor im Fahrzeuginnenraum vor, der beispielsweise in einer mittigen Position an einer Innenwand eines Fahrzeugdachs des Fahrzeugs angeordnet sein kann. Der gesamte Fahrzeuginnenraum liegt dann typischerweise in einem Erfassungsbereich des derart positionierten einzigen Radarsensors. Um tatsächlich den gesamten Fahrzeuginnenraum mit dem einzelnen Radarsensor erfassen zu können, weist dieser typischerweise eine große Anzahl an Antennen auf, sodass der verwendete Radarsensor auffallend groß dimensioniert und sperrig sein kann. Es kann ferner der Fall eintreten, dass das auf dem einzelnen Radarsensor basierende Erkennen der Person im Fahrzeuginnenraum zwar zuverlässig funktioniert, wenn sich genau eine Person im Fahrzeug befindet, jedoch bei mehreren Personen im Fahrzeuginnenraum, die beispielsweise einen in etwa gleich großen Abstand zum Radarsensor aufweisen, Fehldetektionen auftreten.
  • Es ist die Aufgabe der Erfindung, eine Lösung bereitzustellen, mittels derer zuverlässig eine Person in einem Fahrzeuginnenraum eines Fahrzeugs erkannt werden kann.
  • Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst.
  • Ein erster Aspekt der Erfindung betrifft eine Detektionsvorrichtung zum Erkennen einer Person in einem Fahrzeuginnenraum eines Fahrzeugs. Die Person kann alternativ als Insasse des Fahrzeugs bezeichnet werden. Die Person ist beispielsweise ein Erwachsener, wie zum Beispiel ein Fahrer, ein Beifahrer oder ein anderer Mitfahrer, der über 18 Jahre alt ist. Die Person kann alternativ dazu ein Kind oder Kleinkind sein. Als Kind wird hier ein Mensch ab dem vierten Lebensjahr bis zu einem Alter von 18 Jahren bezeichnet, das heißt das Kind kann beispielsweise ein Jugendlicher sein. Als Kleinkind wird auch ein Neugeborenes oder ein Säugling verstanden, das heißt ein Mensch, der unter vier Jahre alt ist.
  • Der Erfindung liegt die Erkenntnis zugrunde, dass eine Detektionsvorrichtung, die nur einen einzelnen Radarsensor aufweist, zuverlässig eine einzelne Person im Fahrzeuginnenraum erkennen kann. Der einzelne Radarsensor verfügt in der Regel über eine große Reichweite sowie Dopplerauflösung, sodass vom Radargerät erfasste Messdaten, die beispielsweise mehrere Körperteile von einer oder mehreren Personen im Fahrzeug beschreiben können, in verschiedenen Segmenten eines Entfernungsspektrums (Englisch: range bin) und/oder eines Dopplerspektrums (Englisch: Doppler bin) liegen können. Die derart erfassten Körperteile erscheinen dann als Extremwerte im beispielsweise Entfernung-Doppler-Spektrum (Englisch: range-Doppler spectrum). Die Extremwerte, die über einer konstanten Fehlalarmrate liegen (Englisch: constant false alarm rate, CFAR) werden weiterverarbeitet, um die dazugehörigen Winkel im Raum, insbesondere Azimut- und/oder Höhenwinkel, zu extrahieren. Die dadurch gewonnene Information über Entfernung, Azimutwinkel und Höhenwinkel eines Nicht-Null-Doppler-Extremwerts (Englisch: non-zero Doppler peak) können in einem dreidimensionalen Raum als Punktwolken dargestellt werden.
  • Befinden sich nun mehrere Personen im Fahrzeuginnenraum besteht eine hohe Wahrscheinlichkeit, dass die Messwerte von Körperteilen von verschiedenen Personen zusammenfallen und sich somit zum Beispiel die detektierten Entfernungs-Doppler-Extremwerte (Englisch: range-Doppler peak) überschneiden. Der Grund hierfür ist, dass der Radarsensor typischerweise an einem Mittelpunkt des Fahrzeuginnenraums positioniert ist und daher der Abstand zum Radarsensor für mehrere Personen auf verschiedenen Fahrzeugsitzen im Fahrzeuginnenraum in etwa gleich groß oder sogar identisch sein kann. Ein ähnliches Verteilungsprofil der Personen innerhalb des Fahrzeuginnenraums zum Radarsensor führt daher dazu, dass die Extremwerte, die mittels des Radarsensors erfasst werden, für alle Personen des Fahrzeugs in einem gleichen Segment des Entfernungsspektrums erscheinen. Eine Trennung der einzelnen Körperteile in der Entfernungsdimension ist möglicherweise nicht eindeutig möglich.
  • Die erfassten Extremwerte im Doppler-Spektrum unterscheidet sich für eine ruhende oder eine sich bewegende Person. Um langsame Bewegungen zu erfassen, wie beispielsweise bei einer stillsitzenden Person, ist eine längere Beobachtungszeit sinnvoll, sodass über längere Zeiten gemessene Messdaten benötigt werden, als es bei einer sich bewegenden Person der Fall wäre. Die Trennung von einzelnen erfassten Messdaten in der Dopplerdimension kann jedoch aufgrund hardwaretechnischer Gründe schwierig sein. Um die Dopplerspektren des Radarsensors zu verarbeiten, wird daher häufig eine feste Matrixgröße verwendet. Als Folge der festen Matrixgröße werden schnelle Bewegungen einer Person und langsame Bewegungen einer anderen Person oftmals als Extremwerte in denselben Segmenten des Dopplerspektrums erfasst. Die genaue Zuordnung und Trennung der Messdaten im Dopplerspektrum für zwei verschiedene Personen, die sich unterschiedlich schnell bewegen, ist daher ebenfalls nicht eindeutig möglich. Es ist daher sinnvoll, mehrere Radarsensoren zu verwenden, um das Erkennen der Person im Fahrzeuginnenraum eindeutig und somit zuverlässig gestalten zu können, und zwar sowohl im Entfernungsspektrum als auch im Dopplerspektrum.
  • Die Detektionsvorrichtung weist zumindest drei räumlich beabstandet voneinander angeordnete Radarsensoren auf. Mit anderen Worten sind die zumindest drei Radarsensoren räumlich verteilt im Fahrzeuginnenraum des Fahrzeugs angeordnet, wenn sich die Detektionsvorrichtung in einer bevorzugten Einbaulage im Fahrzeug befindet. Die Radarsensoren können beispielsweise an verschiedenen Orten in einem Deckenbereich des Fahrzeugs, also an einer Fahrzeugdecke, und/oder an einem im Vergleich dazu in einer Höhenrichtung des Fahrzeugs tiefer gelegenen Ort im Fahrzeuginnenraum, beispielsweise im Bereich einer Mittelkonsole des Fahrzeugs, angeordnet sein. Jeder der Radarsensoren weist einen eigenen räumlich begrenzten Erfassungsbereich auf, der durch Strahlformung mittels des Radarsensors erreicht wird. Strahlformung kann alternativ als Beamforming bezeichnet werden. Mit anderen Worten ist jeder der zumindest drei Radarsensoren dazu ausgebildet, das Beamforming durchzuführen. Dies bewirkt, dass jeder Radarsensor in dem für ihn beispielsweise fest vorgegebenen Erfassungsbereich Messdaten, die seine Umgebung in seinem Erfassungsbereich beschreiben, bereitstellen kann. Jeder der Radarsensoren ist dazu ausgebildet, im für ihn vorgegebenen Erfassungsbereich für zumindest ein im Erfassungsbereich angeordnetes Objekt eine für das Objekt charakteristische Punktwolke zu ermitteln. Mit anderen Worten wird durch das Beamforming erreicht, dass jeder der Radarsensoren eine charakteristische Punktwolke für das zu detektierende Objekt in seiner Umgebung, genau genommen in seinem Erfassungsbereich, erzeugen kann. Die charakteristische Punktwolke besteht aus mehreren Messwerten des Radarsensors, die dem Objekt zugeordnet sind. Der jeweilige Radarsensor kann Messwerte im Entfernungsspektrum und/oder im Dopplerspektrum bereitstellen. Mit anderen Worten kann mittels des jeweiligen Radarsensors sowohl ein statisches als auch ein bewegtes Objekt erfasst werden.
  • Durch Auswerten der ermittelten Punktwolken der Radarsensoren mittels einer Auswerteeinrichtung der Detektionsvorrichtung ist zumindest feststellbar, ob das Objekt eine Person ist. Mit anderen Worten ist die Auswerteeinrichtung der Detektionsvorrichtung dazu ausgebildet, die ermittelten Punktwolken der zumindest drei Radarsensoren auszuwerten und dabei festzustellen, ob das Objekt eine Person ist oder nicht. Mit anderen Worten werden die erzeugten Punktwolken von der Auswerteeinrichtung ausgewertet, um auf eine Person im Fahrzeuginnenraum zu schließen. Es ist zumindest möglich, durch Auswerten der Punktwolken zu unterscheiden, ob es sich bei dem Objekt im Fahrzeuginnenraum um ein statisches Objekt, wie beispielsweise einen Gegenstand, oder um eine Person, wie beispielsweise einen Fahrer oder einen anderen Insassen des Fahrzeugs, handelt.
  • Zum Bereitstellen dieser Aussage wird nicht auf einen einzelnen Radarsensor, sondern auf mehrere Radarsensoren zurückgegriffen. Die mehreren Radarsensoren sind jeweils statisch innerhalb beispielsweise des Fahrzeuginnenraums des Fahrzeugs angeordnet.
  • Es ist also keine Bewegung der einzelnen Radarsensoren relativ zueinander vorgesehen. Somit wird ein multistatischer Radaransatz der Detektionsvorrichtung verfolgt. Da die einzelnen Radarsensoren räumlich beabstandet voneinander angeordnet sind, lassen sich eindeutig mehrere Objekte und somit mehrere Personen im Fahrzeuginnenraum voneinander unterscheiden, sodass mittels der beschriebenen Detektionsvorrichtung stets zuverlässig die Person im Fahrzeuginnenraum erkannt werden kann.
  • Ein Ausführungsbeispiel sieht vor, dass die Auswerteeinrichtung dazu ausgebildet ist, einen Anhäufungsalgorithmus auf die ermittelten Punktwolken anzuwenden und dabei festzustellen, ob die ermittelten Punktwolken ein zusammenhängendes Gebiet oder mehrere voneinander räumlich getrennte Objekte beschreiben. Der Anhäufungsalgorithmus ist ein Algorithmus, der beispielsweise zumindest eine Vorschrift aufweist, anhand derer die von den Radarsensoren erzeugten und somit ermittelten Punktwolken ausgewertet werden können. Der Anhäufungsalgorithmus kann alternativ als Clustering-Algorithmus bezeichnet werden. Durch Anwenden des Anhäufungsalgorithmus wird bestimmt, ob es sich bei den einzelnen Punktwolken der mehreren Radarsensoren um eine gemeinsame Anhäufung von Messpunkten handelt, sodass auf das zusammenhängende Objekt geschlossen werden kann, oder nicht. Falls beispielsweise nicht alle Messwerte der zumindest drei Punktwolken räumlich zusammenfallen, kann auf die mehreren Objekte geschlossen werden, die nicht zusammenhängen und somit voneinander räumlich getrennt sind.
  • Es ist alternativ oder zusätzlich dazu möglich, dass der Anhäufungsalgorithmus zuerst auf die einzelnen ermittelten Punktwolken jeweils individuell angewendet wird, sodass zunächst festgestellt wird, ob mittels der Punktwolke der jeweiligen Sensoreinrichtung ein zusammenhängendes Objekt oder mehrere voneinander räumlich getrennte Objekte beschrieben werden. Es kann danach vorgesehen sein, dass die einzelnen derartigen Ergebnisse miteinander in Bezug gebracht werden, beispielsweise durch Anwenden des Anhäufungsalgorithmus, und dabei festgestellt wird, ob die für die einzelnen Punktwolken festgestellten Anhäufungen auf das gemeinsame zusammenhängende Objekt oder mehrere räumlich voneinander getrennte Objekte schließen lassen. Es ist also zunächst ein individuelles Anwenden des Anhäufungsalgorithmus auf die jeweilige ermittelte Punktwolke und ein anschließendes Zusammenführen der hierbei ermittelten Ergebnisse möglich. Es kann jedoch bevorzugt vorgesehen sein, dass der Anhäufungsalgorithmus auf alle ermittelten Punktwolken gemeinsam, beispielsweise in einem gemeinsamen Verfahrensschritt, angewendet wird. Hierdurch kann letztendlich auf einfache Art und Weise durch Auswerten der ermittelten Punktwolken festgestellt werden, ob sich mehrere Personen potentiell im Fahrzeuginnenraum befinden oder nicht.
  • In einem weiteren Ausführungsbeispiel ist es vorgesehen, dass beim Anwenden des Anhäufungsalgorithmus eine Relativanordnung der Radarsensoren zueinander berücksichtigbar ist. Mit anderen Worten werden die einzelnen Positionen des multistatischen Radars, das heißt der einzelnen Radarsensoren zueinander, vom Anhäufungsalgorithmus berücksichtigt. Die Relativanordnungen sind vorab bekannt. Die Relativanordnungen umfassen beispielsweise einen jeweiligen Abstand in einer jeweiligen Raumrichtung eines ersten Radarsensors der zumindest drei Radarsensoren zu jedem anderen der zumindest drei Radarsensoren und/oder einen jeweiligen Winkel, indem der erste Radarsensor zu jedem der anderen Radarsensoren orientiert ist. Die Relativanordnungen können also Relativpositionen und/oder Relativorientierungen, das heißt Relativausrichtungen, der zumindest drei Radarsensoren zueinander umfassen. Es können beispielsweise jedem Radarsensor Koordinaten zugeordnet sein, die beispielsweise seine Position und/oder seine Ausrichtung (Orientierung) in einem Fahrzeugkoordinatensystem und/oder einem Detektionsvorrichtungskoordinatensystem angeben. Mit anderen Worten können die Relativanordnungen als absolute oder relative Werte bekannt sein. Es kann somit zuverlässig festgestellt werden, wie die einzelnen ermittelten Punktwolken zueinander angeordnet sind, um letztendlich zuverlässig festzustellen, ob das zusammenhängende Objekt oder die mehreren voneinander räumlich getrennten Objekte vorliegen.
  • Ein zusätzliches Ausführungsbeispiel sieht vor, dass die Auswerteeinrichtung dazu ausgebildet ist, im Falle des zusammenhängenden Objekts für jede Punktwolke einen räumlich nächsten Punkt der Punktwolke zum Radarsensor, der die Punktwolke ermittelt hat, zu ermitteln. Zudem ist die Auswerteeinrichtung dazu ausgebildet, einen räumlich entferntesten Punkt der Punktwolke zu diesem Radarsensor, das heißt, zum Radarsensor, der die Punktwolke ermittelt hat, zu ermitteln. Durch Anwenden von Triangulation auf die ermittelten räumlich nächsten Punkte und räumlich entferntesten Punkte ist die Auswerteeinrichtung dazu ausgebildet, Ausdehnungsdaten zu ermitteln, die eine Ausdehnung des zusammenhängenden Objekts beschreiben. Mit anderen Worten kann mittels der Auswerteeinrichtung im Fall des zusammenhängenden Objekts für jede Punktwolke ein ihm räumlich nächstes Ende der Punktwolke und ein ihm räumlich fernstes Ende der Punktwolke relativ zu dem Radarsensor, der die Punktwolke ermittelt hat, ermittelbar sein. Durch Anwenden von Triangulation auf die ermittelten räumlich nächsten Punkte und räumlich entferntesten Punkte sind zudem Ausdehnungsdaten ermittelbar, die die Ausdehnung des zusammenhängenden Objekts beschreiben. Mit anderen Worten wird eine Triangulationstechnik verwendet, um eine Länge, Breite und/oder Tiefe des zusammenhängenden Objekts bestimmen zu können. Es wird also letztendlich eine Größe des Objekts in Form von dessen Abmessungen, die durch die Ausdehnungsdaten beschrieben werden, bestimmt. An den Ausdehnungsdaten kann beispielsweise zumindest abgeschätzt werden, ob es sich bei dem Objekt beispielsweise um einen Gegenstand, wie eine auf einem Fahrzeugsitz abgestellte Kiste, oder eine Person handelt, da sich diese in ihrer Ausdehnung typischerweise deutlich voneinander unterscheiden. Hierdurch wird dazu beigetragen, dass tatsächlich zwischen Objekt und Person unterschieden werden kann.
  • Es ist ferner in einem Ausführungsbeispiel vorgesehen, dass die ermittelten Ausdehnungsdaten einen minimalen Abmessungswert und einen maximalen Abmessungswert aufweisen. Der minimale Abmessungswert beschreibt eine minimale Abmessung des Objekts. Der maximale Abmessungswert beschreibt eine maximale Abmessung des Objekts. Der jeweilige Abmessungswert kann alternativ ein jeweiliger Größenwert, der eine Größe des Objekts beschreibt, insbesondere ein Längenwert, der eine Länge des Objekts beschreibt, ein Breitenwert, der eine Breite des Objekts beschreibt, und/oder ein Tiefenwert, der eine Tiefe des Objekts beschreibt, sein. Mit anderen Worten wird eine Dimensionierung des Objekts im Erfassungsbereich der Radarsensoren beziffert. Diese Information kann hilfreich dafür sein, zu unterscheiden, ob beispielsweise die erkannte Person ein Erwachsener oder ein Kleinkind ist, da sich diese beiden Arten von Personen typischerweise in ihrer Ausdehnung voneinander unterscheiden, sodass sich die Ausdehnungsdaten vorteilhaft für eine weitere Auswertung im Fahrzeug eignen.
  • Gemäß einem zusätzlichen Ausführungsbeispiel ist es vorgesehen, dass die Auswerteeinrichtung dazu ausgebildet ist, einen Objekterkennungsalgorithmus auf die Ausdehnungsdaten zum Ermitteln einer Klassifizierungsinformation anzuwenden. Die ermittelte Klassifizierungsinformation gibt zumindest an, ob das Objekt die Person ist. Die Klassifizierungsinformation kann mittels Klassifizierungsdaten beschrieben werden, die beschreiben, ob das Objekt die Person ist oder nicht. Der Objekterkennungsalgorithmus ist ein Algorithmus, der zumindest eine Vorschrift aufweist und der beispielsweise auf maschinellem Lernen, zum Beispiel einem künstlichen neuronalen Netzwerk, basiert. Dem Objekterkennungsalgorithmus liegen somit typische Ausdehnungsdaten vor, anhand derer beispielsweise zwischen einer Person und einem Gegenstand unterschieden werden kann. Bei der Anwendung des Objekterkennungsalgorithmus handelt es sich letztendlich um eine Art Klassifizierung im Rahmen einer Nachbearbeitung der mittels der Detektionsvorrichtung ermittelten Daten, um zumindest eine grobe Klassifizierung in Gegenstand oder Person durchführen zu können. Der Objekterkennungsalgorithmus wurde hierfür beispielsweise anhand von bekannten Ausdehnungsdaten von Personen und/oder Gegenständen in einem Fahrzeuginnenraum trainiert, sodass er zumindest die Unterscheidung Person oder keine Person ermöglicht ist.
  • Außerdem sieht es ein Ausführungsbeispiel vor, dass die ermittelte Klassifizierungsinformation für die Person als Objekt zumindest zwischen einem Kleinkind, einem Kind und einem Erwachsenen unterscheidet. Es kann also eine tatsächliche Klassifizierung der Person, das heißt des Insassen im Fahrzeuginnenraum, erfolgen. Das Klassifizieren basiert bevorzugt auf maschinellen Lernen. Der Objekterkennungsalgorithmus wurde beispielsweise zumindest mittels Ausdehnungsdaten von Personen in verschiedenen Alternsgruppen trainiert, sodass er verschieden große Personen unterschiedlichen Klassen von Personen, hier den Klassen Erwachsener, Kind, Kleinkind, zuordnen kann. Die Unterscheidung zwischen Kleinkind, Kind und Erwachsenem beruht somit letztendlich auf den Ausdehnungsdaten, die mit anderen Worten die Größe des Objekts im Fahrzeuginnenraum beschreiben. Es muss somit beispielsweise nicht mittels einer Kamera die Person im Fahrzeuginnenraum erfasst werden, um mittels eines rechenintensiven Algorithmus, der auf Kameradaten der Kamera angewendet wird, die Person als Erwachsener, Kind oder Kleinkind klassifizieren zu können. Das Klassifizieren der Person wird dadurch besonders schnell und wenig rechenintensiv im Vergleich zu anderen Klassifizierungsmethoden, da es allein auf den Ausdehnungsdaten basieren kann.
  • Ein besonders bevorzugtes Ausführungsbeispiel sieht vor, dass für jeweils zumindest einen der zumindest drei Radarsensoren der Erfassungsbereich horizontal, vertikal oder diagonal zum jeweiligen Radarsensor angeordnet ist. Mit anderen Worten ist es vorgesehen, dass beispielsweise bei drei Radarsensoren ein erster Radarsensor einen horizontalen Erfassungsbereich, ein zweiter Radarsensor einen vertikalen Erfassungsbereich und ein dritter Radarsensor einen diagonalen Erfassungsbereich aufweist. Der erste Radarsensor mit dem horizontalen Erfassungsbereich erfasst beispielsweise verschiedene Azimutwinkel relativ zum ersten Radarsensor. Der zweite Radarsensor mit dem vertikalen Erfassungsbereich erfasst beispielsweise Höhenwinkel relativ zum zweiten Radarsensor. Der dritte Radarsensor mit dem diagonalen Erfassungsbereich erfasst einen diagonal angeordneten Raum zwischen Azimutwinkeln und Höhenwinkeln relativ zum dritten Radarsensor. Falls mehr als drei Radarsensoren vorgesehen sind, können der vierte und/oder weitere Radarsensor beispielsweise ebenfalls einen der drei genannten möglichsten Erfassungsbereiche aufweisen, sodass beispielsweise zumindest zwei Radarsensoren mit dem horizontalen, vertikalen und/oder diagonalen Erfassungsbereich möglich sind. Es ist hierbei vorgesehen, dass der jeweilige Radarsensor den jeweiligen Erfassungsbereich beleuchtet und aus dem beleuchteten Erfassungsbereich Messdaten erfasst. Der vorgegebene Erfassungsbereich wird durch Strahlformung technisch mit Hilfe von einer Mehrzahl Empfangsantennen realisiert. Da die zumindest drei Radarsensoren hierdurch unterschiedlich geformte und orientierte Erfassungsbereiche aufweisen und zudem räumlich beabstandet voneinander angeordnet sind, wird zuverlässig erreicht, dass es zu keiner Fehldetektion des Objekts im Fahrzeuginnenraum kommt, da jeder Radarsensor einen gänzlich anderen Erfassungsbereich aufweist als die anderen Radarsensoren oder sich die Erfassungsbereiche der Radarsensoren zumindest teilweise überlappen.
  • Alternativ oder zusätzlich kann eine Strahlformung auch für den Sendebereich mittels einer Mehrzahl von Sendeantennen erfolgen.
  • Ferner ist es in einem Ausführungsbeispiel vorgesehen, dass der jeweilige Radarsensor zumindest eine Sendeantenne und mindestens zwei oder drei Empfangsantennen aufweist. Der Radarsensor kann also beispielsweise eine 1Tx-3Rx-Architektur aufweisen. Er kann also eine Sendeantenne T (Englisch: transmission) und drei Empfangsantennen R (Englisch: receiving) aufweisen. Es ist somit die Wahl eines besonders kostengünstigen Radarsensors möglich, dessen zumindest drei Empfangsantennen jedoch ausreichen, um zuverlässig im jeweiligen Erfassungsbereich die Punktwolke ermitteln zu können. Ferner kann es vorgesehen sein, dass der jeweilige Radarsensor eine 1Tx-4Rx-Architektur (mit einer Sendeantenne und vier Empfangsantennen) und/oder eine 2Tx-3Rx-Architektur (mit zwei Sendeantenne und drei Empfangsantennen) aufweist. Letztendlich sind verschiedene Radarsensoren für die Detektionsvorrichtung geeignet, sodass diese besonders vielseitig gestaltet sein kann.
  • Des Weiteren können die Radarsensoren in vorteilhafter Art und Weise auch gemeinsam und/oder synchronisiert betrieben werden, so dass beispielsweise ein erster Radarsensor auch die Sendesignale eines der übrigen Radarsensoren empfangen kann. Dadurch können in vorteilhafter Art und Weise weitere Verarbeitungen der Sensorsignale erfolgen, um die Detektionsgenauigkeit zu verbessern.
  • Des Weiteren sieht es ein Ausführungsbeispiel vor, dass die Strahlformung mittels des jeweiligen Radarsensors nur für die Empfangsantennen durchführbar ist. Insbesondere durch Verwendung der beschriebenen 1Tx-3Rx-Architektur ist es möglich, dass die Strahlformung nur für den Empfangskanal bereitgestellt wird. Hierdurch kann mit geringem Aufwand die charakteristische Punktwolke für das zu detektierende Objekt erfasst werden.
  • Gemäß einem zusätzlichen Ausführungsbeispiel ist es vorgesehen, dass die Detektionsvorrichtung dazu ausgebildet ist, die Radarsensoren miteinander zu synchronisieren. Das Synchronisieren kann beispielsweise zumindest teilweise über eine gemeinsame Verkabelung, das heißt zum Beispiel über einen gemeinsamen CAN-Bus (Englisch: Controller Area Network, CAN) erfolgen. In diesem Fall erfolgt das Synchronisieren kabelgebunden, insbesondere drahtgebunden. Alternativ oder zusätzlich dazu kann zumindest teilweise eine kabellose, insbesondere drahtlose, Synchronisierung erfolgen. Hierfür kann auf bekannte Verfahren zur Synchronisierung von mehreren Radarsensoren miteinander zurückgegriffen werden. Es ist bevorzugt vorgesehen, dass alle Radarsensoren der Detektionsvorrichtung miteinander synchronisiert betrieben werden. Es wird somit sichergestellt, dass die mittels des jeweiligen Radarsensors bereitgestellten Messdaten aufeinander abgestimmt sind, sodass beispielsweise kein zeitlicher Versatz zwischen miteinander in Bezug gesetzten Punktwolken besteht, der zu einer Verschlechterung der Zuverlässigkeit des Erkennens der Person im Fahrzeuginnenraum zumindest beitragen könnte.
  • Ein weiterer Aspekt der Erfindung betrifft ein Fahrzeug mit einem Fahrzeuginnenraum, in dem eine Detektionsvorrichtung, wie sie oben beschrieben wurde, angeordnet ist. Die im Zusammenhang mit der erfindungsgemäßen Detektionsvorrichtung beschriebenen Ausführungsbeispiele, jeweils einzeln sowie in Kombination miteinander, gelten entsprechend, soweit anwendbar, für das erfindungsgemäße Fahrzeug. Das Fahrzeug ist beispielsweise ein Kraftfahrzeug, zum Beispiel ein Personenkraftwagen, ein Lastkraftwagen und/oder ein Personenbus. Das Fahrzeug kann alternativ oder zusätzlich dazu ein anderes Landfahrzeug, wie zum Beispiel ein Schienenfahrzeug, ein Luftfahrzeug und/oder ein Wasserfahrzeug sein.
  • Ein Ausführungsbeispiel des erfindungsgemäßen Fahrzeugs sieht vor, dass eine Anzahl an Radarsensoren der Detektionsvorrichtung abhängig von einer Fahrzeuginnenraumgröße des Fahrzeuginnenraums gewählt ist. Wie viele Radarsensoren von der Detektionsvorrichtung umfasst werden, ist also abhängig von der Fahrzeuginnenraumgröße. Die Fahrzeuginnenraumgröße kann beispielsweise in Form eines Volumenwerts, der ein Volumen des Fahrzeuginnenraums beschreibt, und/oder eines Flächenwerts, der eine Grundfläche des Fahrzeuginnenraums beschreibt, angegeben sein. Für einen typischen Personenkraftwagen mit zwei Fahrzeugsitzreihen können drei Radarsensoren ausreichend sein. Für beispielsweise einen Personenbus mit mindestens drei Fahrzeugsitzreihen kann es jedoch beispielsweise vorgesehen sein, dass zumindest vier oder sogar mehr Radarsensoren von der Detektionsvorrichtung umfasst sein sollten. Je größer die Fahrzeuginnenraumgröße des Fahrzeuginnenraums ist, desto mehr Radarsensoren werden prinzipiell benötigt.
  • Beim Bestimmen der Anzahl an Radarsensoren und/oder einer Position des jeweiligen Radarsensors im Fahrzeug kann der Abstand zwischen jedem einzelnen Fahrzeugsitz im Fahrzeuginnenraum und jedem der Radarsensoren berücksichtigt werden, wobei der Abstand insbesondere für jeden Radarsensor unterschiedlich sein sollte. Für jeden Radarsensor sollte also der Abstand zu einem bestimmten Fahrzeugsitz im Fahrzeug anders groß sein als für jeden der anderen Radarsensoren.
  • Es kann bevorzugt für den Personenkraftwagen mit zwei Fahrzeugsitzreihen vorgesehen sein, dass beispielsweise das erste und dritte Radargerät, die den horizontalen und den diagonalen Erfassungsbereich aufweisen, an sich gegenüberliegenden Randbereichen einer dem Fahrzeuginnenraum zugewandten Decke des Fahrzeugs angeordnet sind, insbesondere in einem Bereich zwischen den beiden Fahrzeugsitzreihen, wohingegen beispielsweise das zweite Radargerät mit dem vertikalen Erfassungsbereich im Bereich einer Mittelkonsole des Fahrzeugs angeordnet sein kann, das heißt beispielsweise in einer im Vergleich zu den anderen beiden Radarsensoren größeren räumlichen Nähe zu einem Boden des Fahrzeugs. Es sollte beim Positionieren der einzelnen Radarsensoren berücksichtigt werden, dass deren jeweiliger Erfassungsbereich zumindest teilweise mit jedem Fahrzeugsitz im Fahrzeuginnenraum übereinstimmt, das heißt, jeder Radarsensor zumindest teilweise jeden Fahrzeugsitz erfassen kann. Hierdurch wird jedem potentiell im Fahrzeug sitzende Person mittels aller Radarsensoren zumindest teilweise erfassbar.
  • Ein Aspekt der Erfindung betrifft die Auswerteeinrichtung für die Detektionsvorrichtung. Die Auswerteeinrichtung kann eine Datenverarbeitungsvorrichtung oder eine Prozessoreinrichtung aufweisen. Die Prozessoreinrichtung kann zumindest einen Mikroprozessor, Mikrocontroller, FPGA (field programmable gate array) und/oder zumindest einen DSP (digital signal processor) aufweisen. Des Weiteren kann die Prozessoreinrichtung Programmcode aufweisen, der dazu eingerichtet ist, bei Ausführen durch die Prozessoreinrichtung das erfindungsgemäße Verfahren oder ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens oder eine Kombination von Ausführungsbeispielen des erfindungsgemäßen Verfahrens durchzuführen. Der Programmcode kann von einem Computerprogrammprodukt umfasst sein, also von einem Computerprogramm. Der Programmcode kann in einem Datenspeicher der Prozessoreinrichtung gespeichert sein.
  • Die Auswerteeinrichtung der Detektionsvorrichtung kann eine Komponente der Detektionsvorrichtung sein. Die Auswerteeinrichtung kann alternativ oder zusätzlich dazu von zumindest einem Radarsensor der Detektionsvorrichtung umfasst sein. Die Auswerteeinrichtung kann alternativ oder zusätzlich dazu eine Komponente des Fahrzeugs sein, beispielsweise eine zentrale Auswerte- und/oder Steuervorrichtung des Fahrzeugs.
  • Ferner kann ein Aspekt der Erfindung ein computerlesbares Speichermedium betreffen, umfassend Befehle, die bei der Ausführung durch einen Computer oder einen Computerverbund, wie beispielsweise die Auswerteeinrichtung, diesen veranlassen, das erfindungsgemäße Verfahren oder ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens oder eine Kombination von Ausführungsbeispielen des erfindungsgemäßen Verfahrens auszuführen. Das Speichermedium kann z.B. zumindest teilweise als ein nicht-flüchtiger Datenspeicher (z.B. als eine Flash-Speicher und/oder als SSD - solid state drive) und/oder zumindest teilweise als ein flüchtiger Datenspeicher (z.B. als ein RAM - random access memory) ausgestaltet sein. Durch den Computer oder Computerverbund kann eine Prozessorschaltung mit zumindest einem Mikroprozessor bereitgestellt sein. Die Befehle können als Binärcode oder Assembler und/oder als Quellcode einer Programmiersprache (z.B. C) bereitgestellt sein.
  • Ein weiterer Aspekt der Erfindung betrifft ein Verfahren zum Erkennen einer Person in einem Fahrzeuginnenraum eines Fahrzeugs mittels einer Detektionsvorrichtung, wobei die Detektionsvorrichtung zumindest drei räumlich beabstandet voneinander im Fahrzeuginnenraum angeordnete Radarsensoren aufweist. Das Verfahren weist folgende Schritte auf: Für jeden der Radarsensoren erfolgt ein Ermitteln einer Punktwolke in einem Erfassungsbereich des Radarsensors, wobei die ermittelte Punktwolke für zumindest ein im Erfassungsbereich des jeweiligen Radarsensors angeordnetes Objekt charakteristisch ist und der Radarsensor durch Strahlformung, das heißt durch Beamforming, einen vorgegebenen Erfassungsbereich aufweist. Außerdem sieht ein Schritt des Verfahrens ein Feststellen vor, ob das Objekt eine Person ist. Dies erfolgt durch Auswerten der erfassten Punktwolken der Radarsensoren mittels einer Auswerteeinrichtung der Detektionsvorrichtung. Die im Zusammenhang mit der erfindungsgemäßen Detektionsvorrichtung sowie dem erfindungsgemäßen Fahrzeug beschriebenen vorteilhaften Ausführungsbeispiele, einzeln sowie in Kombination miteinander, gelten entsprechend, soweit anwendbar, für das erfindungsgemäße Verfahren. Das Verfahren wird mittels der Detektionsvorrichtung durchgeführt.
  • Ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens sieht im Detail folgende Schritte vor: Es erfolgt ein Erfassen von Messdaten mittels des jeweiligen Radarsensors. Der Radarsensor erfasst somit in seinem jeweiligen Erfassungsbereich radargerätspezifische Messdaten. Daraufhin erfolgt ein Ermitteln der jeweiligen Punktwolke aus den jeweiligen erfassten Messdaten. Dies kann beispielsweise mittels des jeweiligen Radarsensors selbst, beispielsweise einer Auswerteeinrichtung des Radarsensors, und/oder mittels einer zentralen Auswerteeinrichtung der Detektionsvorrichtung erfolgen. Daraufhin erfolgt ein Anwenden eines Anhäufungsalgorithmus auf die ermittelten Punktwolken, wobei festgestellt wird, ob die ermittelten Punktwolken ein zusammenhängendes Objekt oder mehrere voneinander räumlich getrennte Objekte beschreiben. Im Falle des zusammenhängenden Objekts erfolgt für jede Punktwolke ein Ermitteln eines räumlich nächsten Punkts der Punktwolke zum Radarsensor, der die Punktwolke ermittelt hat, und eines räumlich entferntesten Punktes der Punktwolke zu diesem Radarsensor. Daraufhin erfolgt ein Ermitteln von Ausdehnungsdaten, die eine Ausdehnung des Objekts beschreiben. Dies erfolgt durch Anwenden von Triangulation auf die ermittelten räumlich nächsten Punkte und räumlich entferntesten Punkte. Daraufhin erfolgt ein Ermitteln einer Klassifizierungsinformation durch Anwenden eines Objekterkennungsalgorithmus auf die ermittelten Ausdehnungsdaten, wobei die ermittelte Klassifizierungsinformation zumindest angibt, ob das Objekt die Person ist. Insbesondere kann die Klassifizierungsinformation angeben, ob die Person ein Kleinkind, ein Kind oder ein Erwachsener ist. Die beschriebenen Auswerteschritte vom Anwenden des Anhäufungsalgorithmus über das Ermitteln der räumlich nächsten und entferntesten Punkte, das Ermitteln der Ausdehnungsdaten sowie das Ermitteln der Klassifizierungsinformation erfolgen jeweils mittels der Auswerteeinrichtung der Detektionsvorrichtung, die bevorzugt eine zentrale Auswerteeinrichtung ist. Hierdurch wird letztendlich zuverlässig das Erkennen der Person durchgeführt.
  • Insgesamt haben die erfindungsgemäße Detektionsvorrichtung, das erfindungsgemäße Fahrzeug und das erfindungsgemäße Verfahren die Vorteile, dass für einen einzelnen zentralen Radarsensor innerhalb des Fahrzeuginnenraums nicht erfassbare Bereiche unwahrscheinlich sind, da mehrere kleine Radarsensoren über den Fahrzeuginnenraum verteilt angeordnet sind und dieser somit aus mehreren Richtungen erfasst wird. Es ist ferner möglich, die einzelnen Radarsensoren unauffällig für einen Betrachter innerhalb des Fahrzeuginnenraums anzuordnen und diese somit in den Fahrzeuginnenraum optisch zu integrieren. Dies wird erreicht, indem diese beispielsweise in einen Fahrzeughimmel und/oder in ein Verkleidungselement einer Innenverkleidung des Fahrzeugs integriert werden.
  • Dabei zeigen:
    • 1 eine schematische Darstellung eines Fahrzeugs mit einer Detektionsvorrichtung;
    • 2 eine schematische Darstellung von Erfassungsbereichen von Radarsensoren einer Detektionsvorrichtung;
    • 3 eine schematische Darstellung von mittels Radarsensoren ermittelten Punktwolken;
    • 4 eine schematische Darstellung von Ausdehnungen der mittels Radarsensoren ermittelten Punktwolken; und
    • 5 in schematischer Darstellung einen Signalflussgraphen eines Verfahrens zum Erkennen einer Person in einem Fahrzeuginnenraum eines Fahrzeugs.
  • In 1 ist ein Fahrzeug 1 skizziert, das einen Fahrzeuginnenraum 2 aufweist. Im Fahrzeuginnenraum 2 des Fahrzeugs 1 ist eine Detektionsvorrichtung 3 angeordnet, die drei einzelne Radarsensoren 4, 5, 6 umfasst. Die Radarsensoren 4, 5, 6 sind räumlich beabstandet voneinander im Fahrzeuginnenraum 2 angeordnet. Ein erster Radarsensor 4 sowie ein dritter Radarsensor 6 der drei Radarsensoren 4, 5, 6 sind an sich in einer Querrichtung des Fahrzeugs 1 (y-Richtung) gegenüberliegenden Randbereichen eines Daches 7 des Fahrzeugs 1 angeordnet. Ein zweite Radarsensor 5 der drei Radarsensoren 4, 5, 6 ist im Bereich einer Mittelkonsole 8 des Fahrzeugs 1 angeordnet und somit im Vergleich zum ersten Radarsensor 4 und dritten Radarsensor 6 in einer Hochrichtung des Fahrzeugs 1 (z-Richtung) weiter unten angeordnet. Die beschriebenen Positionen der Radarsensoren 4, 5, 6 im Fahrzeuginnenraum 2 sind rein exemplarisch zu verstehen. Abweichende Positionen der Radarsensoren 4, 5, 6 sowie weitere Radarsensoren 4, 5, 6 im Fahrzeuginnenraum 2 sind möglich.
  • Die Detektionsvorrichtung 3 weist eine Auswerteeinrichtung 9 auf, die beispielsweise eine Recheneinrichtung ist, das heißt als Computer ausgebildet ist. Die Auswerteeinrichtung 9 kann eine individuelle Komponente der Detektionsvorrichtung 3, in zumindest einen der Radarsensoren 4, 5, 6 integriert und/oder eine Steuervorrichtung des Fahrzeugs 1 sein.
  • Im Fahrzeug 1 sind mehrere Personen 10 angeordnet, und zwar ein Erwachsener 11, ein Kind 12 sowie ein Kleinkind 13. Das Kleinkind 13 sitzt in einem Kindersitz 14, der auf einem Rücksitz 15 des Fahrzeugs 1 positioniert ist. Auf einem in Querrichtung (y-Richtung) vom Kindersitz 14 beabstandeten weiteren Rücksitz 15 sitzt das Kind 12. Der Erwachsene 11 ist hier ein Fahrer, der auf einem Fahrersitz 16 im Fahrzeug 1 sitzt. Die drei Personen 10 können jeweils als Objekt im Fahrzeuginnenraum 2 des Fahrzeugs 1 betrachtet werden. Alternativ oder zusätzlich zur jeweiligen Person 10 kann ein Gegenstand als Objekt im Fahrzeuginnenraum 2 angeordnet sein. Die Anzahl und Anordnung der Objekte im Fahrzeuginnenraum 2 sind rein exemplarisch zu verstehen. Abweichende Objekte, eine abweichende Anzahl an Objekten und/oder eine abweichende Anordnung der Objekte im Fahrzeuginnenraum 2 ist möglich.
  • In 2 ist der Fahrzeuginnenraum 2 schematisch dargestellt. Es sind einzelne exemplarische Erfassungsbereiche 17, 18, 19 der jeweiligen Radarsensoren 4, 5, 6 mittels gestrichelter Linien skizziert. Rein schematisch ist zudem die Person 10, die sich im Fahrzeuginnenraum 2 befindet, skizziert. Der erste Radarsensor 4 weist einen ersten Erfassungsbereich 17 auf, der einen horizontalen Bereich in einer Umgebung des ersten Radarsensors 4 umfasst. Der horizontale Bereich umfasst Azimutwinkel relativ zum ersten Radarsensor 4. Der zweiter Radarsensor 5 weist einen vom ersten Erfassungsbereich 17 verschiedenen zweiten Erfassungsbereich 18 auf, der einen vertikalen Bereich relativ zum zweiten Radarsensor 5 umfasst. Der vertikale Bereich umfasst Höhenwinkel relativ zum zweiten Radarsensor 5. Der dritte Radarsensor 6 weist einen von den anderen beiden Erfassungsbereichen 17, 18 verschiedenen dritten Erfassungsbereich 19 auf, der einen diagonalen Bereich relativ zum dritten Radarsensor 6 umfasst. Der diagonale Bereich umfasst einen diagonal orientierten Raum zwischen den Azimut- und Höhenwinkeln, das heiß, einen schrägen Bereich zwischen der vertikalen und der horizontalen Richtung. Mit anderen Worten erleuchtet der erste Radarsensor 4 den horizontalen Raum, der zweite Radarsensor 5 den vertikalen Raum und der dritte Radarsensor 6 den diagonalen Raum zwischen Azimut- und Höhenwinkel. Dass der jeweilige Radarsensor 4, 5, 6 jeweils einen vorgegebenen Erfassungsbereich 17, 18, 19 aufweist, wird durch Strahlformung mittels des jeweiligen Radarsensors 4, 5, 6 erreicht. Strahlformung kann alternativ als Beamforming bezeichnet werden.
  • Die Anzahl der Radarsensoren 4, 5, 6 der Detektionsvorrichtung 3 kann abhängig von einer Fahrzeuginnenraumgröße des Fahrzeuginnenraums 2 sein. Je größer die Fahrzeuginnenraumgröße ist, desto mehr Radarsensoren 4, 5, 6 können von der Detektionsvorrichtung 3 umfasst sein. Es wurde ferner durch die drei exemplarisch genannten Radarsensoren 4, 5, 6 deutlich, dass jeweils zumindest einer der Radarsensoren 4, 5, 6 den horizontalen Erfassungsbereich 17, den vertikalen Erfassungsbereich 18 und den diagonalen Erfassungsbereich 19 zum jeweiligen Radarsensor 4, 5, 6 aufweist. Der jeweilige Radarsensor 4, 5, 6 weist insbesondere mindestens eine Sendeantenne und mindestens drei Empfangsantennen auf, sodass bevorzugt Radarsensor 4, 5, 6 mit einer 1 Tx-3Rx-Architektur vorgesehen ist. Alternativ oder zusätzlich dazu kann der jeweilige Radarsensor 4, 5, 6 eine 1 Tx-4Rx- oder eine 2Tx-3Rx-Architektur aufweisen. Die Strahlformung kann mittels des jeweiligen Radarsensors 4, 5, 6 nur für die Empfangsantennen durchgeführt werden. Ferner sind die einzelnen Radarsensoren 4, 5, 6 miteinander synchronisiert, was beispielsweise zumindest teilweise kabelgebunden und/oder kabellos erfolgen kann.
  • In 3 ist erneut der Fahrzeuginnenraum 2 mit den drei Radarsensoren 4, 5, 6 skizziert. Es wird deutlich, dass jeder der drei Radarsensoren 4, 5, 6 in seinem Erfassungsbereich 17, 18, 19 für zumindest ein im jeweiligen Erfassungsbereich 17, 18, 19 angeordnetes Objekt eine für das Objekt charakteristische Punktwolke 20, 21, 22 ermittelt. Mit anderen Worten wird die jeweilige Punktwolke 20, 21, 22 mittels des jeweiligen Radarsensors 4, 5, 6 erzeugt. Hier sind die einzelnen Punkte einer ersten Punktwolke 20, die mittels des ersten Radarsensors 4 bereitgestellt wird, in Form von quadratischen Symbolen hervorgehoben. Die einzelnen Punkte einer zweiten Punktwolke 21, die mittels des zweiten Radarsensors 5 erzeugt wird, sind in Form von kreisförmigen Symbole dargestellt. Einzelne Punkte einer dritten Punktwolke 22, die vom dritten Radarsensor 6 ermittelt wird, sind in Form von sternchenförmigen Symbolen dargestellt. Hierdurch wird deutlich, dass je nach Erfassungsbereich 17, 18, 19 von jedem der Radarsensoren 4, 5, 6 unterschiedliche Teile des Objekts, das hier die Person 10 ist, erfasst werden.
  • In 4 ist erneut der Fahrzeuginnenraum 2 mit den drei Radarsensoren 4, 5, 6 skizziert. Außerdem ist für jede der Punktwolken 20, 21, 22 jeweils ein räumlich nächster Punkt 23 zu dem Radarsensor 4, 5, 6, der die entsprechende Punktwolke 20, 21, 22 ermittelt hat, eingezeichnet. Des Weiteren ist jeweils ein räumlich entferntester Punkt 24 für jede Punktwolke 20, 21, 22 zu dem jeweiligen Radarsensor 4, 5, 6, der die jeweilige Punktwolke 20, 21, 22 ermittelt hat, skizziert. Letztendlich sind die Extremwerte der jeweiligen Punktwolke 20, 21, 22 für jeden der Radarsensoren 4, 5, 6 hervorgehoben dargestellt. Anhand dieser Extremwerte, das heißt der räumlich nächsten Punkte 23 sowie der räumlich entferntesten Punkte 24, kann eine Ausdehnung der Person 10, das heißt des Objekts im Fahrzeuginnenraum 2, berechnet werden.
  • In 5 sind die einzelnen Schritte, die mittels der Detektionsvorrichtung 3 durchführbar sind, im Detail skizziert. Es ist zunächst ein Verfahrensschritt S0 skizziert, in dessen Rahmen Messdaten 25 mittels des jeweiligen Radarsensors 4, 5, 6 erfasst werden. Hierzu wird beispielsweise mittels der jeweiligen Sendeantenne des jeweiligen Radarsensors 4, 5, 6 der Erfassungsbereich 17, 18, 19 des jeweiligen Radarsensors 4, 5, 6 beleuchtet und aus diesem entsprechende Rücksignale als Messdaten 25 erfasst. In einem Verfahrensschritt S1 erfolgt ein Ermitteln der jeweiligen Punktwolke 20, 21, 22 aus den jeweiligen erfassten Messdaten 25. Die jeweilige Punktwolke 20, 21, 22 ist im Erfassungsbereich 17, 18, 19 des jeweiligen Radarsensors 4, 5, 6 angeordnet und ist für das zumindest eine in dem Erfassungsbereich 17, 18, 19 des jeweiligen Radarsensors 4, 5, 6 angeordnete Objekt charakteristisch. Der fest vorgegebene Erfassungsbereich 17, 18, 19 wird durch Strahlformung mittels des Radarsensors 4, 5, 6 erreicht.
  • In einem Verfahrensschritt S2 erfolgt ein Anwenden eines Anhäufungsalgorithmus 26 auf die ermittelten Punktwolken 20, 21, 22. Dies erfolgt mittels der Auswerteeinrichtung 9, die dazu ausgebildet ist, den Anhäufungsalgorithmus 26 auf die ermittelten Punktwolken 20, 21, 22 anzuwenden und dabei festzustellen, ob die ermittelten Punktwolken 20, 21, 22 ein zusammenhängendes Objekt 28 oder mehrere räumlich voneinander getrennte Objekte 29 beschreiben. Beim Anwenden des Anhäufungsalgorithmus 26 wird eine Relativanordnung 27 der Radarsensoren 4, 5, 6 zueinander berücksichtigt. Die Relativanordnung 27 kann eine Relativposition sowie eine Relativorientierung der einzelnen Radarsensoren 4, 5, 6 zueinander aufweisen.
  • Im Fall, dass die Punktwolken 20, 21, 22 das zusammenhängende Objekt 28 beschreiben, kann ein Verfahrensschritt S3 durchgeführt werden, in dessen Rahmen für jede Punktwolke 20, 21, 22 der räumlich nächste Punkt 23 sowie der räumlich entfernteste Punkt 24 ermittelt wird. Mit anderen Worten ist die Auswerteeinrichtung 9 dazu ausgebildet, im Falle des zusammenhängenden Objekts 28 für jede Punktwolke 20, 21, 22 den räumlich nächsten Punkt 23 der Punktwolke 20, 21, 22 zum Radarsensor 4, 5, 6, der die Punktwolke 20, 21, 22 ermittelt hat, und den räumlich entferntesten Punkt 24 der Punktwolke 20, 21, 22 zu diesem Radarsensor 4, 5, 6 zu ermitteln.
  • Ferner ist die Auswerteeinrichtung 9 für einen Verfahrensschritt S4 dazu ausgebildet, durch Anwenden von Triangulation 30 auf die ermittelten räumlich nächsten Punkte 23 und räumlich entferntesten Punkte 24 Ausdehnungsdaten 31 zu ermitteln. Die Ausdehnungsdaten 31 beschreiben eine Ausdehnung des zusammenhängenden Objekts 28. Die Ausdehnungsdaten 31 können einen minimalen Abmessungswert 32, der eine minimale Abmessung und somit eine minimale Größe des Objekts beschreibt, und einen maximalen Abmessungswert 33, der eine maximale Abmessung und somit eine maximale Größe des Objekts beschreibt, aufweisen. Es kann daraufhin im Verfahrensschritt S5 ein Objekterkennungsalgorithmus 34 auf die ermittelten Ausdehnungsdaten 31 angewendet werden, um eine Klassifizierungsinformation 35 zu ermitteln. Mit anderen Worten ist die Auswerteeinrichtung 9 dazu ausgebildet, den Objekterkennungsalgorithmus 34 auf die Ausdehnungsdaten 31 zum Ermitteln der Klassifizierungsinformation 35 anzuwenden, wobei die ermittelte Klassifizierungsinformation 35 zumindest angibt, ob das Objekt die Person 10 ist. Das zusammenhängende Objekt 28 kann somit als Person 10 identifiziert werden.
  • Es ist ferner möglich, dass die Klassifizierungsinformation 35 zumindest unterscheidet zwischen dem Erwachsenen 11, dem Kind 12 und dem Kleinkind 13. Dies ist möglich, da die Ausdehnung des zusammenhängenden Objekts 28 und somit der Person 10 bekannt ist. Die Ausdehnung kann mit typischen Ausdehnungen für den Erwachsenen 11, das Kinde 12 und das Kleinkinde 13 verglichen werden. Dies erfolgt beim Anwenden des Objekterkennungsalgorithmus 34. Dieser basiert beispielsweise auf maschinellem Lernen, insbesondere auf einem künstlichen neuronalen Netzwerk.
  • Letztendlich tragen die Verfahrensschritte S2 bis S5 dazu bei, dass festgestellt wird, ob das Objekt die Person 10 ist, wobei dies durch Auswerten der erfassten Punktwolken 20, 21, 22 der Radarsensoren 4, 5, 6 mittels der Auswerteeinrichtung 9 der Detektionsvorrichtung 3 erfolgt. Im Detail wurde gezeigt, dass ein minimales Set von drei kleinen Radarsensoren 4, 5, 6 in einem multistatischen Fahrzeuginnenraum-Setup verwendet werden kann, wobei der erste Radarsensor 4 das Objekt mit Auflösung in Azimutwinkeln, der zweite Radarsensor 5 in Höhenwinkeln und der dritte Radarsensor 6 im diagonalen Raum beleuchtet und aus diesem die Messdaten 25 erfasst. Da günstige und einfache Radarsensoren 4, 5, 6 genutzt werden, wird die Auflösung des jeweiligen Radarsensors 4, 5, 6 mit ihrer Orientierung begrenzt sein. Daher wird der horizontal orientierte erste Radarsensor 4 nur die Punktwolke 20 in einer horizontalen Ebene ausgeben, der zweite Radarsensor 5 die zweite Punktwolke 21 in einer vertikalen Ebene und der dritte Radarsensor 6 die dritte Punktwolke 22, die diagonal zur horizontalen und vertikalen Ebene orientiert ist. Da die präzisen Orte der einzelnen Radarsensoren 4, 5, 6 bekannt sind, können die einzelnen Punktwolken 20, 21, 22 gemeinsam mittels der Auswerteeinrichtung 9 abgebildet werden und durch einen Clustering-Prozess geleitet werden, das heißt, auf sie kann der Anhäufungsalgorithmus 26 angewendet werden. Triangulationsalgorithmen, das heißt, durch Anwenden der Triangulation 30, können die nächsten und entferntesten Punkte 23, 24 der Anhäufungen, also in den Punktwolken 20, 21, 22, von den multistatischen Radarsensoren 4, 5, 6 ermittelt werden. Dies ermöglicht die Klassifizierung der Person 10 als beispielsweise Erwachsenen 11, Kind 12 oder Kleinkind 13 im Kindersitz 14.

Claims (15)

  1. Detektionsvorrichtung (3) zum Erkennen einer Person (10) in einem Fahrzeuginnenraum (2) eines Fahrzeugs (1), wobei die Detektionsvorrichtung (3) zumindest drei räumlich beabstandet voneinander angeordnete Radarsensoren (4, 5, 6) aufweist, dadurch gekennzeichnet, dass jeder der Radarsensoren (4, 5, 6) durch Strahlformung einen räumlich begrenzten Erfassungsbereich (17, 18, 19) aufweist und dazu ausgebildet ist, im vorgegebenen Erfassungsbereich (17, 18, 19) für zumindest ein im Erfassungsbereich (17, 18, 19) angeordnetes Objekt eine für das Objekt charakteristische Punktwolke (20, 21, 22) zu ermitteln, wobei durch Auswerten der ermittelten Punktwolken (20, 21, 22) der Radarsensoren (4, 5, 6) mittels einer Auswerteeinrichtung (9) der Detektionsvorrichtung (3) zumindest feststellbar ist, ob das Objekt eine Person (10) ist.
  2. Detektionsvorrichtung (3) nach Anspruch 1, dadurch gekennzeichnet, dass die Auswerteeinrichtung (9) dazu ausgebildet ist, einen Anhäufungsalgorithmus (26) auf die ermittelten Punktwolken (20, 21, 22) anzuwenden und dabei festzustellen, ob die ermittelten Punktwolken (20, 21, 22) ein zusammenhängendes Objekt (28) oder mehrere voneinander räumlich getrennte Objekte (29) beschreiben.
  3. Detektionsvorrichtung (3) nach Anspruch 2, dadurch gekennzeichnet, dass beim Anwenden des Anhäufungsalgorithmus (26) eine Relativanordnung (27) der Radarsensoren (4, 5, 6) zueinander berücksichtigbar ist.
  4. Detektionsvorrichtung (3) nach einem der Ansprüche 2 oder 3, dadurch gekennzeichnet, dass die Auswerteeinrichtung (9) dazu ausgebildet ist, im Falle des zusammenhängenden Objekts (28) für jede Punktwolke (20, 21, 22) einen räumlich nächsten Punkt (23) der Punktwolke (20, 21, 22) zum Radarsensor (4, 5, 6), der die Punktwolke (20, 21, 22) ermittelt hat, und einen räumlich entferntesten Punkt (24) der Punktwolke (20, 21, 22) zu diesem Radarsensor (4, 5, 6) zu ermitteln und durch Anwenden von Triangulation (30) auf die ermittelten räumlich nächsten Punkte (23) und räumlich entferntesten Punkte (24) Ausdehnungsdaten (31), die eine Ausdehnung des zusammenhängenden Objekts (28) beschreibt, zu ermitteln.
  5. Detektionsvorrichtung (3) nach Anspruch 4, dadurch gekennzeichnet, dass die ermittelten Ausdehnungsdaten (31) einen minimalen Abmessungswert (32), der eine minimale Abmessung des Objekts beschreibt, und einen maximalen Abmessungswert (33), der eine maximale Abmessung des Objekts beschreibt, aufweisen.
  6. Detektionsvorrichtung (3) nach einem der Ansprüche 4 oder 5, dadurch gekennzeichnet, dass die Auswerteeinrichtung (9) dazu ausgebildet ist, einen Objekterkennungsalgorithmus (34) auf die Ausdehnungsdaten (31) zum Ermitteln einer Klassifizierungsinformation (35) anzuwenden, wobei die ermittelte Klassifizierungsinformation (35) zumindest angibt, ob das zusammenhängende Objekt (28) die Person (10) ist.
  7. Detektionsvorrichtung (3) nach Anspruch 6, dadurch gekennzeichnet, dass die ermittelte Klassifizierungsinformation (35) für die Person (10) als Objekt zumindest zwischen einem Kleinkind (13), einem Kind (12) und einem Erwachsenen (11) unterscheidet.
  8. Detektionsvorrichtung (3) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass für jeweils zumindest einen der zumindest drei Radarsensoren (4, 5, 6) der Erfassungsbereich (17, 18, 19) horizontal, vertikal oder diagonal zum jeweiligen Radarsensor (4, 5, 6) angeordnet ist.
  9. Detektionsvorrichtung (3) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der jeweilige Radarsensor (4, 5, 6) mindestens eine Sendeantenne und mindestens drei Empfangsantennen aufweist.
  10. Detektionsvorrichtung (3) nach Anspruch 9, dadurch gekennzeichnet, dass die Strahlformung mittels des jeweiligen Radarsensors (4, 5, 6) nur für die Empfangsantennen durchführbar ist.
  11. Detektionsvorrichtung (3) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Detektionsvorrichtung (3) dazu ausgebildet ist, die Radarsensoren (4, 5, 6) miteinander zu synchronisieren.
  12. Fahrzeug (1) mit einem Fahrzeuginnenraum (2), in dem eine Detektionsvorrichtung (3) nach einem der vorhergehenden Ansprüche angeordnet ist.
  13. Fahrzeug (1) nach Anspruch 12, dadurch gekennzeichnet, dass eine Anzahl an Radarsensoren (4, 5, 6) der Detektionsvorrichtung (3) abhängig von einer Fahrzeuginnenraumgröße des Fahrzeuginnenraums (2) gewählt ist.
  14. Verfahren zum Erkennen einer Person (10) in einem Fahrzeuginnenraum (2) eines Fahrzeugs (1) mittels einer Detektionsvorrichtung (3), wobei die Detektionsvorrichtung (3) zumindest drei räumlich beabstandet voneinander im Fahrzeuginnenraum (2) angeordnete Radarsensoren (4, 5, 6) aufweist, gekennzeichnet durch folgende Schritte: - für jeden der Radarsensoren (4, 5, 6), Ermitteln (S1) einer Punktwolke (20, 21, 22) in einem Erfassungsbereich (17, 18, 19) des Radarsensors (4, 5, 6), wobei die ermittelte Punktwolke (20, 21, 22) für zumindest ein in dem Erfassungsbereich (17, 18, 19) des jeweiligen Radarsensors (4, 5, 6) angeordnetes Objekt charakteristisch ist und der Radarsensor (4, 5, 6) durch Strahlformung den jeweiligen Erfassungsbereich (17, 18, 19) aufweist; und - Feststellen (S5), ob das Objekt eine Person (10) ist, durch Auswerten der erfassten Punktwolken (20, 21, 22) der Radarsensoren (4, 5, 6) mittels einer Auswerteeinrichtung (9) der Detektionsvorrichtung (3).
  15. Verfahren nach Anspruch 14, gekennzeichnet durch folgende Schritte: - Erfassen (S0) von Messdaten (25) mittels des jeweiligen Radarsensors (4, 5, 6); - Ermitteln (S1) der jeweiligen Punktwolke (20, 21, 22) aus den jeweiligen erfassten Messdaten (25); - Anwenden (S2) eines Anhäufungsalgorithmus (26) auf die ermittelten Punktwolken (20, 21, 22), wobei festgestellt wird, ob die ermittelten Punktwolken (20, 21, 22) ein zusammenhängendes Objekt (28) oder mehrere voneinander räumlich getrennte Objekte (29) beschreiben; - im Falle des zusammenhängenden Objekts (28) für jede Punktwolke (20, 21, 22), Ermitteln (S3) eines räumlich nächsten Punkts (23) der Punktwolke (20, 21, 22) zum Radarsensor (4, 5, 6), der die Punktwolke (20, 21, 22) ermittelt hat, und eines räumlich entferntesten Punkts (24) der Punktwolke (20, 21, 22) zu diesem Radarsensor (4, 5, 6); - Ermitteln (S4) von Ausdehnungsdaten (31), die eine Ausdehnung des zusammenhängenden Objekts (28) beschreiben, durch Anwenden von Triangulation (30) auf die ermittelten räumlich nächsten Punkte (23) und räumlich entferntesten Punkte (24); - Ermitteln (S5) einer Klassifizierungsinformation (35) durch Anwenden eines Objekterkennungsalgorithmus (34) auf die ermittelten Ausdehnungsdaten (31), wobei die ermittelte Klassifizierungsinformation (35) zumindest angibt, ob das zusammenhängende Objekt (28) die Person (10) ist, insbesondere ob die Person (10) ein Kleinkind (13), ein Kind (12) oder ein Erwachsener (11) ist.
DE102022107842.6A 2022-04-01 2022-04-01 Detektionsvorrichtung und Verfahren zum Erkennen einer Person in einem Fahrzeuginnenraum eines Fahrzeugs Pending DE102022107842A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022107842.6A DE102022107842A1 (de) 2022-04-01 2022-04-01 Detektionsvorrichtung und Verfahren zum Erkennen einer Person in einem Fahrzeuginnenraum eines Fahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022107842.6A DE102022107842A1 (de) 2022-04-01 2022-04-01 Detektionsvorrichtung und Verfahren zum Erkennen einer Person in einem Fahrzeuginnenraum eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102022107842A1 true DE102022107842A1 (de) 2023-10-05

Family

ID=88019320

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022107842.6A Pending DE102022107842A1 (de) 2022-04-01 2022-04-01 Detektionsvorrichtung und Verfahren zum Erkennen einer Person in einem Fahrzeuginnenraum eines Fahrzeugs

Country Status (1)

Country Link
DE (1) DE102022107842A1 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013220240A1 (de) 2013-10-08 2015-04-09 Bayerische Motoren Werke Aktiengesellschaft Insassenanwesenheitssystem für ein Fahrzeug, Zentralverriegelungssystem, Verfahren zum Überprüfen der Anwesenheit von Insassen in dem Fahrzeug sowie Verfahren zum automatischen Betätigen von Türschlössern
US20190143944A1 (en) 2017-11-15 2019-05-16 Dnet Co., Ltd. Apparatus for sensing remaining passenger in vehicle and generating alarm
DE102021001374A1 (de) 2021-03-16 2021-04-29 Daimler Ag Verfahren zur Überwachung eines Fahrzeuginnenraums und Fahrzeug
US20210362673A1 (en) 2020-05-20 2021-11-25 Samsung Electronics Co., Ltd. Method and apparatus with vehicle control
DE112020001131T5 (de) 2019-03-08 2022-01-27 Osram Gmbh Komponente für ein Lidar-Sensorsystem, Lidar-Sensorsystem, Lidar-Sensorgerät, Verfahren für ein Lidar-Sensorsystem und Verfahren für ein Lidar-Sensorgerät

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013220240A1 (de) 2013-10-08 2015-04-09 Bayerische Motoren Werke Aktiengesellschaft Insassenanwesenheitssystem für ein Fahrzeug, Zentralverriegelungssystem, Verfahren zum Überprüfen der Anwesenheit von Insassen in dem Fahrzeug sowie Verfahren zum automatischen Betätigen von Türschlössern
US20190143944A1 (en) 2017-11-15 2019-05-16 Dnet Co., Ltd. Apparatus for sensing remaining passenger in vehicle and generating alarm
DE112020001131T5 (de) 2019-03-08 2022-01-27 Osram Gmbh Komponente für ein Lidar-Sensorsystem, Lidar-Sensorsystem, Lidar-Sensorgerät, Verfahren für ein Lidar-Sensorsystem und Verfahren für ein Lidar-Sensorgerät
US20210362673A1 (en) 2020-05-20 2021-11-25 Samsung Electronics Co., Ltd. Method and apparatus with vehicle control
DE102021001374A1 (de) 2021-03-16 2021-04-29 Daimler Ag Verfahren zur Überwachung eines Fahrzeuginnenraums und Fahrzeug

Similar Documents

Publication Publication Date Title
EP3177474B1 (de) Verfahren zum erzeugen einer umgebungskarte sowie fahrerassistenzsystem
DE69232732T2 (de) Messeinrichtung für sich bewegende Körper und Bildverarbeitungsanordnung zum Messen des Verkehrsflusses
WO2018069405A1 (de) Kraftfahrzeug und verfahren zur 360°-umfelderfassung
DE102014221144A1 (de) Zielerfassungsvorrichtung
DE102016115371A1 (de) Verfahren und vorrichtung zur meidung von rückwärtigem querverkehr
EP1612580A1 (de) Objekterkennungsverfahren für Fahrzeuge
DE102016122296A1 (de) Verfahren zum Erfassen und zur Klassifizierung eines Objekts mittels zumindest einer Sensorvorrichtung auf Basis einer Belegungskarte, Fahrerassistenzsystem sowie Kraftfahrzeug
EP1531342B1 (de) Verfahren zur Erkennung von Fussgängern
EP3663881B1 (de) Verfahren zur steuerung eines autonomen fahrzeugs auf der grundlage von geschätzten bewegungsvektoren
DE102019211459B4 (de) Verfahren und Vorrichtung zum Überprüfen einer Kalibrierung von Umfeldsensoren
DE102016123207A1 (de) Verfahren zur Detektion eines Störeinflusses bei einem Radarsignal
DE102015004468A1 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems und Kraftfahrzeug
DE102022107842A1 (de) Detektionsvorrichtung und Verfahren zum Erkennen einer Person in einem Fahrzeuginnenraum eines Fahrzeugs
DE102020107293A1 (de) Verfahren zum Überwachen eines Schwenkbereichs einer Tür während eines Schwenkvorgangs, Computerprogrammprodukt, computerlesbares Speichermedium sowie Schwenkbereichsüberwachungssystem
DE102017126183A1 (de) Verfahren zum Erfassen und zur Klassifizierung eines Objekts mittels zumindest einer Sensorvorrichtung auf Basis einer Belegungskarte, Fahrerassistenzsystem und Kraftfahrzeug
DE102018121158A1 (de) Verfahren zum Erfassen von Bodenabtastpunkten und Fahrerunterstützungssystem, das dafür konfiguriert ist, ein derartiges Verfahren auszuführen
DE102019216017A1 (de) Verfahren und Vorrichtung zur Verarbeitung einer Doppler-Range-Matrix und Radarsystem
DE102004011281A1 (de) Verfahren und Vorrichtung zur Plausibilisierung von zu einem Fahrzeug mit Seitenprecrashsensierung relativ bewegten Objekten
DE102014118035B4 (de) Verfahren zum Erkennen einer Abschattung einer Sensoreinrichtung eines Kraftfahrzeugs durch ein Objekt, Recheneinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
EP3018490B1 (de) Verfahren zur detektion einer interferenz in einem empfangssignal eines radarsensors eines kraftfahrzeugs, recheneinrichtung, fahrerassistenzsystem, kraftfahrzeug sowie computerprogrammprodukt
DE102017115457A1 (de) Erkennung einer Fehlstellung eines Abstandssensors basierend auf einem Verhältnis von Detektionsmerkmalen
WO2021104805A1 (de) Verfahren zum betreiben einer umgebungserfassungsvorrichtung mit einer gridbasierten auswertung und mit einer fusionierung, sowie umgebungserfassungsvorrichtung
EP2853468A1 (de) Verfahren und Sensorsystem zum Überwachen eines Raumbereiches
EP4289661B1 (de) Verfahren und system zum erkennen eines sitzbelegungszustands einer sitzanordnung auf basis von radarpunktwolken
DE102018122092A1 (de) Verfahren zum Bestimmen zumindest eines Positionsparameters eines Objekts in einer Umgebung eines Kraftfahrzeugs, Computerprogrammprodukt, Fahrerassistenzsystem und Kraftfahrzeug

Legal Events

Date Code Title Description
R163 Identified publications notified