DE102023125329A1 - Schaltungsanordnung und verfahren - Google Patents

Schaltungsanordnung und verfahren Download PDF

Info

Publication number
DE102023125329A1
DE102023125329A1 DE102023125329.8A DE102023125329A DE102023125329A1 DE 102023125329 A1 DE102023125329 A1 DE 102023125329A1 DE 102023125329 A DE102023125329 A DE 102023125329A DE 102023125329 A1 DE102023125329 A1 DE 102023125329A1
Authority
DE
Germany
Prior art keywords
measurement data
radar
target
azimuth angle
radar measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102023125329.8A
Other languages
English (en)
Inventor
Timo GREBNER
Christian Waldschmidt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of DE102023125329A1 publication Critical patent/DE102023125329A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/583Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves and based upon the Doppler effect resulting from movement of targets
    • G01S13/584Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves and based upon the Doppler effect resulting from movement of targets adapted for simultaneous range and velocity measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Die vorliegende Offenbarung betrifft eine Schaltungsanordnung zur dreidimensionalen (3D) Positionsschätzung, wobei die Schaltungsanordnung ausgelegt ist zum Erhalten erster Radarmessdaten, die eine erste Entfernung und einen ersten lokalen Azimutwinkel eines Ziels angeben; Erhalten zweiter Radarmessdaten, die eine zweite Entfernung und einen zweiten lokalen Azimutwinkel des Ziels angeben; Kompensieren, basierend auf dem Korrelieren der ersten Radarmessdaten mit den zweiten Radarmessdaten, einer Ambiguität zwischen einem globalen Azimutwinkel des Ziels und einem globalen Höhenwinkel des Ziels, wobei eine Beziehung zwischen dem globalen Azimutwinkel und dem globalen Höhenwinkel des Ziels durch die ersten und/oder die zweiten Radarmessdaten repräsentiert wird; und Schätzen einer dreidimensionalen Position des Ziels basierend auf dem globalen Azimutwinkel, dem globalen Höhenwinkel und der ersten und/oder der zweiten Entfernung des Ziels.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft allgemein eine Schaltungsanordnung und ein Verfahren und insbesondere eine Schaltungsanordnung und ein Verfahren zur dreidimensionalen Positionsschätzung.
  • TECHNISCHER HINTERGRUND
  • Es ist allgemein bekannt, eine dreidimensionale (3D) Kartierung einer Umgebung durchzuführen. Die 3D-Kartierung einer Umgebung beinhaltet das Schätzen einer 3D-Position eines Objekts in der Umgebung.
  • Beispielsweise kann die bekannte 3D-Kartierung einer Umgebung auf Kameras, auf LiDAR-Sensoren (Lichtdetektion und -entfernungsmessung) oder auf 3D-Bildgebungs-Radarsensoren basieren, die eine Entfernung, einen Azimutwinkel und einen Höhenwinkel eines Objekts in der Umgebung schätzen.
  • Obwohl Techniken zur 3D-Positionsschätzung existieren, ist es allgemein wünschenswert, eine verbesserte Schaltungsanordnung und ein verbessertes Verfahren zur 3D-Positionsschätzung bereitzustellen.
  • KURZDARSTELLUNG
  • Gemäß einem ersten Aspekt stellt die Offenbarung eine Schaltungsanordnung zur dreidimensionalen Positionsschätzung bereit, wobei die Schaltungsanordnung ausgelegt ist zum Erhalten erster Radarmessdaten, die eine erste Entfernung und einen ersten lokalen Azimutwinkel eines Ziels angeben; Erhalten zweiter Radarmessdaten, die eine zweite Entfernung und einen zweiten lokalen Azimutwinkel des Ziels angeben; Kompensieren, basierend auf dem Korrelieren der ersten Radarmessdaten mit den zweiten Radarmessdaten, einer Ambiguität zwischen einem globalen Azimutwinkel des Ziels und einem globalen Höhenwinkel des Ziels, wobei eine Beziehung zwischen dem globalen Azimutwinkel und dem globalen Höhenwinkel des Ziels durch die ersten und/oder die zweiten Radarmessdaten repräsentiert wird; und Schätzen einer dreidimensionalen Position des Ziels basierend auf dem globalen Azimutwinkel, dem globalen Höhenwinkel und der ersten und/oder der zweiten Entfernung des Ziels.
  • Gemäß einem zweiten Aspekt stellt die Offenbarung ein Verfahren zur dreidimensionalen Positionsschätzung bereit, wobei das Verfahren umfasst: Erhalten erster Radarmessdaten, die eine erste Entfernung und einen ersten lokalen Azimutwinkel eines Ziels angeben; Erhalten zweiter Radarmessdaten, die eine zweite Entfernung und einen zweiten lokalen Azimutwinkel des Ziels angeben; Kompensieren, basierend auf dem Korrelieren der ersten Radarmessdaten mit den zweiten Radarmessdaten, einer Ambiguität zwischen einem globalen Azimutwinkel des Ziels und einem globalen Höhenwinkel des Ziels, wobei eine Beziehung zwischen dem globalen Azimutwinkel und dem globalen Höhenwinkel des Ziels durch die ersten und/oder die zweiten Radarmessdaten repräsentiert wird; und Schätzen einer dreidimensionalen Position des Ziels basierend auf dem globalen Azimutwinkel, dem globalen Höhenwinkel und der ersten und/oder der zweiten Entfernung des Ziels.
  • Weitere Aspekte sind in den abhängigen Ansprüchen, den Zeichnungen und der folgenden Beschreibung aufgeführt.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Ausführungsformen werden beispielhaft mit Bezug auf die begleitenden Zeichnungen erläutert, in denen gilt:
    • 1 zeigt zwei Alternativen eines Fusionsalgorithmus zum Bestimmen einer dreidimensionalen Position basierend auf zweidimensionalen Radarmessdaten gemäß einer Ausführungsform;
    • 2 veranschaulicht Sensorfusion zwischen einem ersten Radarsensor und einem zweiten Radarsensor, die um ihre optischen Achsen gegeneinander gedreht werden, gemäß einer Ausführungsform;
    • 3 veranschaulicht ein Blockdiagramm einer Schaltungsanordnung gemäß einer Ausführungsform;
    • 4 veranschaulicht ein Blockdiagramm einer Messdatenkorrelationseinheit für einen Einzelsensoralgorithmus gemäß einer Ausführungsform;
    • 5 veranschaulicht ein Blockdiagramm einer Messdatenkorrelationseinheit für einen Einzelnetzwerkalgorithmus gemäß einer Ausführungsform;
    • 6 veranschaulicht ein Flussdiagramm eines Verfahrens gemäß einer Ausführungsform;
    • 7 veranschaulicht ein Flussdiagramm zum Korrelieren von Messdaten in einem Einzelsensoralgorithmus gemäß einer Ausführungsform;
    • 8 veranschaulicht ein Flussdiagramm zum Korrelieren von Messdaten in einem Einzelnetzwerkalgorithmus gemäß einer Ausführungsform;
    • 9 ist ein Blockdiagramm, das ein Beispiel für eine schematische Konfiguration eines Fahrzeugsteuersystems zeigt; und
    • 10 ist ein Diagramm zur Unterstützung der Erläuterung eines Beispiels für Installationspositionen eines Fahrzeugaußeninformationen-Detektionsabschnitts und eines Bildgebungs abs chnitts.
  • AUSFÜHRLICHE BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Bevor eine ausführliche Beschreibung der Ausführungsformen unter Bezug auf 1 gegeben wird, werden allgemeine Erläuterungen vorgenommen.
  • Wie eingangs erwähnt, ist es allgemein bekannt, eine dreidimensionale (3D) Kartierung einer Umgebung durchzuführen. Die 3D-Kartierung einer Umgebung beinhaltet das Schätzen einer 3D-Position eines Objekts in der Umgebung.
  • Beispielsweise kann die bekannte 3D-Kartierung einer Umgebung auf Kameras, auf LiDAR-Sensoren (Lichtdetektion und -entfernungsmessung) oder auf 3D-Bildgebungs-Radarsensoren basieren, die eine Entfernung, einen Azimutwinkel und einen Höhenwinkel eines Objekts in der Umgebung schätzen.
  • In einigen Fällen kann die Erzeugung von 3D-Umgebungskarten über viele unterschiedliche Möglichkeiten basierend auf unterschiedlichen Sensorkonzepten, aber auch auf unterschiedlichen Algorithmen realisiert werden.
  • In einigen Fällen sind geeignete Sensoren Kameras, wie etwa Mono- oder Stereokameras. In einigen Fällen handelt es sich bei einer anderen Möglichkeit um LiDAR-Sensoren, die auch 3D-Bilder der Umgebung produzieren können. Aufgrund der optischen Abhängigkeit beider Sensortypen (Kameras und LiDAR-Sensoren) sind sie in einigen Fällen gegenüber externen Umgebungseinflüssen sehr anfällig.
  • Eine Möglichkeit für eine robustere 3D-Umgebungsrepräsentation basiert auf Radarsensoren. Sobald ein Radarsensor, der eine zweidimensionale (2D) Winkelschätzung bereitstellt, für diesen Zweck verwendet wird, können in einigen Fällen eine Belegtheitsgitterkarte oder einfache Punktwolken erzeugt werden.
  • In einigen Fällen werden Sensoren, die Ziele im 3D-Raum lokalisieren können, verwendet, um 3D-Karten der Umgebung zu erzeugen, wie etwa Stereokameras, LiDAR-Sensoren, aber auch Radarsensoren mit einer 2D-Antennenapertur können verwendet werden.
  • In einigen Fällen, insbesondere für Radarsensoren, ist eine 2D-Antennenapertur, und somit eine 2D-Winkelschätzung, noch nicht der Standard im Kraftfahrzeugsektor. Zusätzlich weisen in einigen Fällen die gegenwärtig verfügbaren Radarsensoren, die 2D-Winkel schätzen können, aufgrund der beschränkten Anzahl von Sendern und Empfängern nur eine beschränkte Genauigkeit auf, was die Ergebnisse der 3D-Umgebungskartierung beeinflusst. Sobald diese 3D-Informationen verfügbar sind, können jedoch in einigen Fällen geeignete Algorithmen verwendet werden, um 3D-Umgebungskarten oder sogar einfache Punktwolken direkt basierend auf den Positionsdaten zu erzeugen.
  • In einigen Fällen gestattet der aktuelle Hardwarestatus von Radarsensoren nur eine beschränkte Anzahl von Sendern/Empfängern an jedem Radarsensor. Daher müssen in einigen Fällen, wenn eine 2D-Antennenapertur erstellt wird, die für eine 2D-Winkelschätzung benötigt wird, die Kanäle, die durch die Sender/Empfänger repräsentiert werden, in beide Dimensionen aufgeteilt werden. Wenn n Kanäle verfügbar sind, können in einigen Fällen nur n × n
    Figure DE102023125329A1_0001
    Kanäle für eine quadratische Apertur verwendet werden. Dies verschlechtert die Winkelschätzung in sowohl Azimut- als auch Höhenrichtung in einigen Fällen, sodass sowohl die Genauigkeit als auch die Separabilität proportional zu n
    Figure DE102023125329A1_0002
    abnehmen. Somit ist in einigen Fällen die 3D-Umgebungskartierung theoretisch möglich, aber die Ergebnisse sind aufgrund der beschränkten Antennenelemente nicht so genau.
  • In einigen Fällen liegt ein anderer Nachteil in der Verfügbarkeit von 2D-Radarsensoren. Heutzutage sind in einigen Fällen gebrauchsfertige Radarsensoren nur in der Lage, eine eindimensionale (1D) Winkelschätzung durchzuführen, und können somit nur eine xy-Komponente einer Position von Zielen (Objekten in einer Umgebung) bestimmen, aber können keine z-Komponente der Position bestimmen. In einigen Fällen, wenn eine 2D-Winkelschätzung benötigt wird, müssen spezialisiertere Radarsensoren verwendet werden, was sowohl zeitaufwendig als auch kostspieliger ist.
  • Die vorliegende Offenbarung basiert auf der Aufgabe des Erzeugens eines Algorithmus, der, auf Basis verteilter 2D-Bildgebungs-Radarsensoren, die nur einen Abstand und einen lokalen Azimutwinkel, aber keinen lokalen Höhenwinkel bestimmen können, ein 3D-Bild der Umgebung und somit eine 3D-Positionsschätzung individueller Objekte (Ziele) in der Umgebung erzeugen kann.
  • Dementsprechend betreffen einige Ausführungsformen der vorliegenden Offenbarung eine Schaltungsanordnung zur dreidimensionalen (3D) Positionsschätzung, wobei die Schaltungsanordnung ausgelegt ist zum Erhalten erster Radarmessdaten, die eine erste Entfernung und einen ersten lokalen Azimutwinkel eines Ziels angeben; Erhalten zweiter Radarmessdaten, die eine zweite Entfernung und einen zweiten lokalen Azimutwinkel des Ziels angeben; Kompensieren, basierend auf dem Korrelieren der ersten Radarmessdaten mit den zweiten Radarmessdaten, einer Ambiguität zwischen einem globalen Azimutwinkel des Ziels und einem globalen Höhenwinkel des Ziels, wobei eine Beziehung zwischen dem globalen Azimutwinkel und dem globalen Höhenwinkel des Ziels durch die ersten und/oder die zweiten Radarmessdaten repräsentiert wird; und Schätzen einer 3D-Position des Ziels basierend auf dem globalen Azimutwinkel, dem globalen Höhenwinkel und der ersten und/oder der zweiten Entfernung des Ziels.
  • Die Schaltungsanordnung kann eine beliebige Entität beinhalten, die in der Lage ist, eine Informationsverarbeitung, wie etwa eine 3D-Positionsschätzung durchzuführen. Beispielsweise kann die Schaltungsanordnung ein feldprogrammierbares Gate-Array (FPGA), eine anwendungsspezifische integrierte Schaltung (ASIC), ein Mikroprozessor oder dergleichen sein. Beispielsweise kann die Schaltungsanordnung die ersten und zweiten Radarmessdaten direkt von einem oder mehreren Radarsensoren oder indirekt über eine andere Informationsverarbeitungseinrichtung oder über ein magnetisches, optisches oder halbleiterbasiertes Speichermedium erhalten.
  • Die Schaltungsanordnung kann ferner eine Speichereinheit beinhalten, die zum Beispiel einen dynamischen Direktzugriffsspeicher (DRAM), einen Flash-Speicher, einen elektrisch löschbaren programmierbaren Nurlesespeicher (EEPROM), ein Festplattenlaufwerk oder dergleichen beinhalten kann. Die Schaltungsanordnung kann ferner eine Schnittstelle zum Empfangen der ersten und zweiten Radarmessdaten und zum Ausgeben der geschätzten 3D-Position eines Ziels z. B. über Serial Peripheral Interface (SPI), Peripheral Component Interconnect (PCI), Controller Area Network (CAN), Universal Storage Bus (USB), Ethernet, IEEE 802.11 (WiFi), Bluetooth oder dergleichen beinhalten. Beispielsweise kann die Schaltungsanordnung die ersten und zweiten Radarmessdaten über die Schnittstelle von einem oder mehreren Radarsensoren, von einer anderen Informationsverarbeitungseinrichtung oder von einem Speichermedium empfangen. Beispielsweise kann die Schaltungsanordnung Informationen, die die geschätzte 3D-Position repräsentieren, über die Schnittstelle an eine andere Informationsverarbeitungseinrichtung oder an ein Speichermedium ausgeben.
  • Die ersten Radarmessdaten können ein erstes empfangenes Radarsignal angeben, das durch einen Radarsensor aus einer Umgebung empfangen wurde, und die zweiten Radarmessdaten können ein zweites empfangenes Radarsignal angeben, das durch einen Radarsensor aus der Umgebung empfangen wurde. Das erste empfangene Radarsignal und das zweite empfangene Radarsignal können von einem selben Objekt (vom Ziel) in der Umgebung kommen und können durch einen selben Radarsensor oder durch unterschiedliche Radarsensoren empfangen werden.
  • Der eine oder die mehreren Radarsensoren, die das erste empfangene Radarsignal und das zweite empfangene Radarsignal empfangen, können zum Beispiel einen Chirp-Sequenz-Radarsensor beinhalten, der Radarsignale in eine Umgebung emittieren kann, wobei eine Frequenz des emittierten Radarsignals moduliert ist. Beispielsweise kann die Frequenz gemäß einer Frequenzrampe, angefangen mit einer vorbestimmten Startfrequenz, mit einer vorbestimmten Steigung variieren. Die Steigung kann konstant sein (linearer Chirp) oder kann zum Realisieren einer nichtlinearen Frequenzvariation (z. B. ein exponentieller Chirp) variieren. Der Radarsensor kann Radarsignale wiederholt, z. B. mit einer vorbestimmten Wiederholungsrate, emittieren. Die wiederholten Radarsignale können gleich oder unterschiedlich moduliert sein.
  • Die emittierten Radarsignale können von Objekten in der Umgebung reflektiert werden. Beispielsweise können die Objekte, die die Radarsignale reflektieren, Autos, Lastkraftwagen, Fahrräder, andere Fahrzeuge, Fußgänger, Tiere, Mauern, Straßenschilder, Verkehrsbarrieren, Brücken, Bäume, Steine, Gebäude, Zäune oder dergleichen einschließen. Solche Objekte können auch als Ziele bezeichnet werden. Beispielsweise können der eine oder die mehreren Radarsensoren ein erstes emittiertes Radarsignal und ein zweites emittiertes Radarsignal in die Umgebung emittieren. Ein Objekt in der Umgebung kann das erste emittierte Radarsignal reflektieren, und ein Radarsensor (z. B. der Radarsensor, der das erste emittierte Radarsignal emittiert hat) kann das reflektierte erste emittiere Radarsignal als das erste empfangene Radarsignal empfangen. Das Objekt kann auch das zweite emittierte Radarsignal reflektieren, und ein Radarsensor (z. B. der Radarsensor, der das zweite emittierte Radarsignal emittiert hat) kann das reflektierte zweite emittiere Radarsignal als das zweite empfangene Radarsignal empfangen. Wie erwähnt, kann der Radarsensor, der das erste empfangene Radarsignal empfängt, ein gleicher Radarsensor wie der Radarsensor sein, der das zweite empfangene Radarsignal empfängt, oder kann ein anderer Radarsensor als der Radarsensor sein, der das zweite empfangene Radarsignal empfängt.
  • Der Radarsensor, der das erste empfangene Radarsignal empfängt, kann basierend auf dem ersten empfangenen Radarsignal die erste Entfernung und den ersten lokalen Azimutwinkel bestimmen und kann die ersten Radarmessdaten erfassen (erzeugen) und an die Schaltungsanordnung, eine andere Informationsverarbeitungseinrichtung und/oder ein Speichermedium ausgeben. Gleichermaßen kann der Radarsensor, der das zweite empfangene Radarsignal empfängt, basierend auf dem zweiten empfangenen Radarsignal die zweite Entfernung und den zweiten lokalen Azimutwinkel bestimmen und kann die zweiten Radarmessdaten erfassen (erzeugen) und an die Schaltungsanordnung, eine andere Informationsverarbeitungseinrichtung und/oder ein Speichermedium ausgeben.
  • Die erste Entfernung kann einen Abstand zwischen dem Ziel (Objekt in der Umgebung), das das erste empfangene Radarsignal reflektiert, und dem Radarsensor, der das erste empfangene Radarsignal empfängt, repräsentieren. Der erste lokale Azimutwinkel kann einen Winkel in eine Richtung einer Apertur des jeweiligen Radarsensors repräsentieren, mit dem der Radarsensor das erste empfangene Radarsignal empfängt.
  • Die zweite Entfernung kann einen Abstand zwischen dem Ziel, das das zweite empfangene Radarsignal reflektiert, und dem Radarsensor, der das zweite empfangene Radarsignal empfängt, repräsentieren. Der zweite lokale Azimutwinkel kann einen Winkel in eine Richtung einer Apertur des jeweiligen Radarsensors repräsentieren, mit dem der Radarsensor das zweite empfangene Radarsignal empfängt.
  • Der eine oder die mehreren Radarsensoren können bestimmen, welchem emittierten Radarsignal, z. B. welcher Rampe, das erste und zweite empfangene Radarsignal entsprechen. Diese Bestimmung kann auf einem Timing des Emittierens von Radarsignalen in die Umgebung, auf einem Timing des Empfangens reflektierter Radarsignale, auf einer Startfrequenz, einer Steigung und/oder einer Form (z. B. linearer Chirp, exponentieller Chirp usw.) der Radarsignale oder dergleichen basieren. Der eine oder die mehreren Radarsensoren können die jeweilige erste und zweite Entfernung und den jeweiligen ersten und zweiten lokalen Azimutwinkel basierend auf einer Korrelation zwischen emittierten Radarsignalen und empfangenen Radarsignalen bestimmen.
  • Beispielsweise können der eine oder die mehreren Radarsensoren ein eindimensionales (1D) Array von Sende- und Empfangsantennen enthalten und können als Mehrfacheingang-Mehrfachausgang(MIMO)-Radarsensoren, Einfacheingang-Mehrfachausgang(SIMO)-Radarsensoren oder Mehrfacheingang-Einfachausgang(MISO)-Radarsensoren konfiguriert sein. Das 1D-Array von Antennen kann eine 1D-Apertur des einen oder der mehreren Radarsensoren repräsentieren, und der jeweilige erste oder zweite lokale Azimutwinkel können entlang der 1D-Apertur orientiert sein.
  • Obwohl ein Chirp-Sequenz-Radarsensor als ein Beispiel eines Radarsensors erwähnt wurde, der die ersten und/oder zweiten Radarmessdaten erfasst, können die ersten und zweiten Radarmessdaten durch einen beliebigen Radarsensor erfasst werden, der in der Lage ist, eine Entfernung und einen lokalen Azimutwinkel eines Ziels zu bestimmen. Beispielsweise werden die ersten und zweite Radarmessdaten in einigen Ausführungsformen durch ein Zeitmultiplex(TDM)-Radar, ein Frequenzmultiplex(FDM)-Radar, ein Codemultiplex(CDM)-Radar oder dergleichen erfasst.
  • Der globale Azimutwinkel des Ziels und der globale Höhenwinkel des Ziels können Winkel sein, mit denen das Ziel in einem globalen Koordinatensystem detektiert wird. Der globale Azimutwinkel und der globale Höhenwinkel können unterschiedlich orientiert sein, z. B. orthogonal zueinander. Beispielsweise kann der globale Azimutwinkel in einer horizontalen Ebene bezüglich des globalen Koordinatensystems orientiert sein, z. B. in einer xy-Ebene des globalen Koordinatensystems, und der globale Höhenwinkel kann in einer vertikalen Ebene bezüglich des globalen Koordinatensystems orientiert sein, z. B. in einer Ebene, die eine z-Achse des globalen Koordinatensystems beinhaltet.
  • Das globale Koordinatensystem kann vorbestimmt sein und kann zum Beispiel bezüglich einer mobilen Plattform, an der der eine oder die mehreren Radarsensoren befestigt sind, oder bezüglich der Umgebung fest sein. Es kann eine vorbestimmte Abbildung zwischen einem lokalen Koordinatensystem des einen oder der mehreren Radarsensoren, in dem der erste und/oder zweite lokale Azimutwinkel gemessen werden, und dem globalen Koordinatensystem geben.
  • Eine Abbildung vom ersten lokalen Azimutwinkel zum globalen Azimutwinkel und zum globalen Höhenwinkel ist in einigen Ausführungsformen aufgrund der 1D-Apertur des jeweiligen Radarsensors nicht möglich. Beispielsweise kann der Radarsensor mit seiner 1D-Apertur den lokalen Azimutwinkel messen, der entlang der 1D-Apertur orientiert ist, aber der Radarsensor wird möglicherweise keinen lokalen Höhenwinkel messen, der orthogonal zu der 1D-Apertur orientiert ist. Somit ist der lokale Höhenwinkel des Ziels möglicherweise nicht bekannt. Darüber hinaus kann der gemessene lokale Azimutwinkel in einigen Ausführungsformen von dem lokalen Höhenwinkel abhängen, d. h. unterschiedliche lokale Azimutwinkel können für Ziele gemessen werden, deren Positionen sich nur um den lokalen Höhenwinkel unterscheiden. Eine Beziehung zwischen dem lokalen Azimutwinkel und dem lokalen Höhenwinkel des Ziels kann bekannt sein, kann z. B. von Charakteristiken des Radarsensors abhängen, ist aber möglicherweise ohne weitere Messung nicht auflösbar.
  • Zum Auflösen dieser Ambiguität des gemessenen ersten lokalen Azimutwinkels können die zweiten Radarmessdaten, die einen zweiten lokalen Azimutwinkel des Ziels angeben, notwendig sein. Der zweite lokale Azimutwinkel des Ziels kann aus dem gleichen Grund wie der erste lokale Azimutwinkel mehrdeutig sein und kann von einem zweiten lokalen Höhenwinkel des Ziels abhängen. Eine Position (d. h. eine Koordinate und/oder eine Orientierung) des jeweiligen Radarsensors, der den zweiten lokalen Azimutwinkel misst, kann sich jedoch von einer Position (Koordinate und/oder Orientierung) des jeweiligen Radarsensors unterscheiden, der den ersten lokalen Azimutwinkel misst. Mit anderen Worten können die ersten Radarmessdaten (einschließlich des ersten lokalen Azimutwinkels) und die zweiten Radarmessdaten (einschließlich des zweiten lokalen Azimutwinkels) mit unterschiedlichen Radarsensorpositionen erfasst werden, wobei sich die unterschiedlichen Radarsensorpositionen um eine Koordinate und/oder eine Orientierung unterscheiden.
  • Für das Kompensieren der Ambiguität zwischen dem globalen Azimutwinkel des Ziels und dem globalen Höhenwinkel des Ziels kann das Korrelieren der ersten Radarmessdaten mit den zweiten Radarmessdaten das Bestimmen eines globalen Azimut- und Höhenwinkels beinhalten, der dem ersten lokalen Azimut- und Höhenwinkel und dem zweiten lokalen Azimut- und Höhenwinkel entspricht. Beispielsweise können der globale Azimutwinkel und der globale Höhenwinkel basierend auf einer vorbestimmten Abbildung zwischen dem ersten lokalen Azimut- und Höhenwinkel und dem globalen Azimut- und Höhenwinkel und auf einer vorbestimmten Abbildung zwischen dem zweiten lokalen Azimut- und Höhenwinkel und dem globalen Azimut- und Höhenwinkel bestimmt werden. Eine Beziehung zwischen dem globalen Azimutwinkel und dem globalen Höhenwinkel kann einer Beziehung zwischen dem ersten lokalen Azimutwinkel und dem ersten lokalen Höhenwinkel und einer Beziehung zwischen dem zweiten lokalen Azimutwinkel und dem zweiten lokalen Höhenwinkel entsprechen.
  • Beispielsweise kann die Schaltungsanordnung einen globalen Azimutwinkel und einen globalen Höhenwinkel basierend auf der Beziehung zwischen dem globalen Azimutwinkel und dem globalen Höhenwinkel bestimmen, die sowohl dem ersten lokalen Azimutwinkel als auch dem zweiten lokalen Azimutwinkel entsprechen.
  • Die Schaltungsanordnung kann dann die 3D-Position des Ziels basierend auf dem bestimmten globalen Azimutwinkel, dem bestimmten globalen Höhenwinkel und einer Entfernung, die auf der ersten Entfernung und/oder der zweiten Entfernung basiert, bestimmen.
  • In einigen Ausführungsformen geben die ersten Radarmessdaten ferner eine erste Radialgeschwindigkeit des Ziels an, und die zweiten Radarmessdaten geben ferner eine zweite Radialgeschwindigkeit des Ziels an; und das Korrelieren beinhaltet das Korrelieren der ersten Radialgeschwindigkeit mit der zweiten Radialgeschwindigkeit.
  • Beispielsweise können der eine oder die mehreren Radarsensoren die erste Radialgeschwindigkeit und die zweite Radialgeschwindigkeit basierend auf dem Doppler-Effekt bestimmen, d. h. basierend auf einer Frequenzverschiebung in einem Frequenzspektrum des ersten empfangenen Radarsignals bezüglich des ersten emittierten Radarsignals bzw. des zweiten empfangenen Radarsignals bezüglich des zweiten emittierten Radarsignals. Die Frequenzverschiebung kann durch eine relative Geschwindigkeit zwischen dem einen oder den mehreren Radarsensoren und dem Ziel verursacht werden. Beispielsweise kann die erste Radialgeschwindigkeit einer Zeitableitung der ersten Entfernung entsprechen, und die zweite Radialgeschwindigkeit kann einer Zeitableitung der zweiten Entfernung entsprechen.
  • Falls beispielsweise das erste empfangene Radarsignal und das zweite empfangene Radarsignal an unterschiedlichen Koordinaten in der Umgebung und/oder zu unterschiedlichen Zeitpunkten empfangen werden, können in einigen Ausführungsformen die erste Radialgeschwindigkeit und die zweite Radialgeschwindigkeit nur für einen globalen Azimutwinkel und einen globalen Höhenwinkel miteinander konsistent sein.
  • Beispielsweise ermöglicht in einigen Ausführungsformen das Korrelieren der ersten Radarmessdaten mit den zweiten Radarmessdaten basierend auf der ersten Radialgeschwindigkeit und der zweiten Radialgeschwindigkeit eine präzisere Bestimmung des globalen Azimut- und Höhenwinkels und/oder ermöglicht das Auflösen verbleibender Ambiguitäten, die nicht durch das alleinige Berücksichtigen des ersten und zweiten lokalen Azimutwinkels aufgelöst werden können.
  • Beispielsweise kann in einigen Ausführungsformen, in denen angenommen werden kann, dass eine Position des Ziels (und somit auch der globale Höhenwinkel des Ziels) fest ist und dass dementsprechend der erste lokale Höhenwinkel dem zweiten lokalen Höhenwinkel entspricht, angenommen werden, dass eine vertikale Komponente der ersten und zweiten Radialgeschwindigkeit null ist. Daher kann ein Verhältnis zwischen der ersten Radialgeschwindigkeit und der zweiten Radialgeschwindigkeit einem Verhältnis zwischen horizontalen Komponenten der ersten und zweiten Radialgeschwindigkeit entsprechen und kann auch einem Verhältnis zwischen dem ersten lokalen Azimutwinkel und dem zweiten lokalen Azimutwinkel entsprechen. Basierend auf dem Verhältnis der ersten Radialgeschwindigkeit und der zweiten Radialgeschwindigkeit kann es möglich sein, eine eindeutige Lösung für den globalen Azimutwinkel des Ziels zu bestimmen.
  • In einigen Ausführungsformen werden die ersten Radarmessdaten und die zweiten Radarmessdaten von unterschiedlichen Positionen erfasst.
  • Beispielsweise können der eine oder die mehreren Radarsensoren, die das erste empfangene Radarsignal und das zweite empfangene Radarsignal empfangen, das erste empfangene Radarsignal und das zweite empfangene Radarsignal empfangen, während sie sich in der Umgebung bewegen.
  • Beispielsweise kann ein Radarsensor das erste empfangene Radarsignal empfangen, sich in der Umgebung bewegen (d. h. seine Position in der Umgebung ändern) und dann das zweite empfangene Radarsignal empfangen.
  • Die vorliegende Offenbarung ist jedoch nicht auf einen oder mehrere Radarsensoren beschränkt, die sich durch die Umgebung bewegen. Beispielsweise können das erste und zweite empfangene Radarsignal durch unterschiedliche Radarsensoren empfangen werden, die sich an unterschiedlichen Positionen in der Umgebung befinden.
  • Beispielsweise können die ersten Radarmessdaten und die zweiten Radarmessdaten unterschiedlichen Ansichten der Umgebung entsprechen, wobei das Ziel aus unterschiedlichen Richtungen und/oder von unterschiedlichen Abständen und/oder mit unterschiedlichen Geschwindigkeiten des einen oder der mehreren Radarsensoren erfasst werden kann.
  • In einigen Ausführungsformen sind der erste lokale Azimutwinkel und der zweite lokale Azimutwinkel parallel zueinander orientiert.
  • Beispielsweise kann eine 1D-Apertur eines Radarsensors, der das erste Radarsignal empfängt, parallel zu einer 1D-Apertur eines Radarsensors orientiert sein, der das zweite Radarsignal empfängt.
  • Beispielsweise können das erste Radarsignal und das zweite Radarsignal durch einen selben Radarsensor zu unterschiedlichen Zeitpunkten empfangen werden, während sich der Radarsensor durch die Umgebung bewegt. Somit können die ersten Radarmessdaten und die zweiten Radarmessdaten unterschiedlichen Positionen des Radarsensors in der Umgebung entsprechen.
  • Die vorliegende Offenbarung ist jedoch nicht auf einen einzelnen Radarsensor beschränkt, der sowohl das erste Radarsignal als auch das zweite Radarsignal empfängt. Beispielsweise können das erste Radarsignal und das zweite Radarsignal durch zwei unterschiedliche Radarsensoren empfangen werden, deren 1D-Aperturen in eine gleiche Richtung orientiert sind.
  • In einigen Ausführungsformen werden die ersten Radarmessdaten und die zweiten Radarmessdaten durch einen Radarsensor erfasst, der an einer mobilen Plattform angeordnet ist, und die erste Radialgeschwindigkeit und die zweite Radialgeschwindigkeit entsprechen einer Geschwindigkeit der mobilen Plattform.
  • Die mobile Plattform kann zum Beispiel ein Auto, ein Lastkraftwagen, ein Motorrad, ein Fahrrad, ein Traktor, ein Bagger, ein Zug, ein Boot, ein Schiff, ein Hubschrauber, ein Flugzeug, eine Drohne oder dergleichen sein.
  • Der Radarsensor, der die ersten Radarmessdaten und die zweiten Radarmessdaten erfasst, kann an einer vorbestimmten Position an der mobilen Plattform befestigt sein.
  • Die Schaltungsanordnung kann die 3D-Position des Ziels in der Umgebung basierend auf einer Position des Radarsensors in der Umgebung zu der Zeit des Empfangens des ersten bzw. zweiten empfangenen Radarsignals schätzen. Die Schaltungsanordnung kann die Position des Radarsensors in der Umgebung zum Beispiel basierend auf der Bewegung der mobilen Plattform bestimmen, z. B. basierend auf einem Geschwindigkeitssensor, einem Beschleunigungssensor, einem Rotationssensor, einem globalen Satellitennavigationssystem (GNSS), wie etwa das globale Positionierungssystem (GPS), Galileo, Michibiki, Beidou oder GLONASS oder dergleichen, und/oder basierend auf SLAM (simultane Positionsbestimmung und Kartierung).
  • Somit kann eine Bewegung der mobilen Plattform die Erfassung der ersten Radarmessdaten und der zweiten Radarmessdaten an unterschiedlichen Positionen (z. B. Orten) in der Umgebung ermöglichen.
  • In einigen Ausführungsformen sind eine Rotationsachse des ersten lokalen Azimutwinkels und eine Rotationsachse des zweiten lokalen Azimutwinkels in unterschiedliche Richtungen orientiert; und das Korrelieren basiert auf dem Bestimmen eines Schnittpunkts zwischen einer ersten mehrdeutigen Position, die durch die ersten Radarmessdaten angegeben wird, und einer zweiten mehrdeutigen Position, die durch die zweiten Radarmessdaten angegeben wird.
  • Beispielsweise können die ersten Radarmessdaten durch einen ersten Radarsensor erfasst werden, und die zweiten Radarmessdaten können durch einen zweiten Radarsensor erfasst werden, wobei eine 1D-Apertur des ersten Radarsensors gegen eine 1D-Apertur des zweiten Radarsensors gedreht ist.
  • Beispielsweise kann der erste lokale Azimutwinkel eine Komponente des zweiten lokalen Azimutwinkels und eine Komponente des zweiten lokalen Höhenwinkels beinhalten. Gleichermaßen kann der zweite lokale Azimutwinkel eine Komponente des ersten lokalen Azimutwinkels und eine Komponente des zweiten lokalen Höhenwinkels beinhalten.
  • Die erste mehrdeutige Position kann einer Position des Ziels entsprechen, das dem ersten lokalen Azimutwinkel entspricht, basierend auf der Beziehung zwischen dem ersten lokalen Azimutwinkel und dem ersten lokalen Höhenwinkel. Die zweite mehrdeutige Position kann einer Position des Ziels entsprechen, das dem zweiten lokalen Azimutwinkel entspricht, basierend auf der Beziehung zwischen dem zweiten lokalen Azimutwinkel und dem zweiten lokalen Höhenwinkel.
  • Der Schnittpunkt zwischen der ersten mehrdeutigen Position und der zweiten mehrdeutigen Position kann einer Position entsprechen, die in sowohl der ersten mehrdeutigen Position als auch der zweiten mehrdeutigen Position enthalten ist.
  • Daher können die ersten Radarmessdaten und die zweiten Radarmessdaten zu einem gleichen Zeitpunkt erfasst werden, und eine Bewegung des ersten und zweiten Radarsensors in der Umgebung ist möglicherweise nicht zum Kompensieren der Ambiguität zwischen dem globalen Azimutwinkel und dem globalen Höhenwinkel des Ziels notwendig.
  • In einigen Ausführungsformen sind die Rotationsachse des ersten lokalen Azimutwinkels und die Rotationsachse des zweiten lokalen Azimutwinkels senkrecht zueinander orientiert.
  • Beispielsweise kann die 1D-Apertur des ersten Radarsensors senkrecht zu der 1D-Apertur des zweiten Radarsensors orientiert sein.
  • Somit kann eine Komponente des zweiten Höhenwinkels im ersten Azimutwinkel maximiert werden, und eine Komponente des ersten Höhenwinkels im zweiten Azimutwinkel kann maximiert werden.
  • Daher wird in einigen Ausführungsformen eine Präzision eines bestimmten eindeutigen globalen Azimutwinkels und eines bestimmten eindeutigen globalen Höhenwinkels optimiert.
  • In einigen Ausführungsformen basiert das Bestimmen des Schnittpunkts auf dem Bestimmen einer Überlappung zwischen der ersten mehrdeutigen Position und der zweiten mehrdeutigen Position.
  • Beispielsweise kann das Bestimmen der Überlappung auf Sensorfusion basieren und kann das Bestimmen der ersten mehrdeutigen Position basierend auf dem ersten lokalen Azimutwinkel und seiner Beziehung zu dem ersten lokalen Höhenwinkel, das Bestimmen der zweiten mehrdeutigen Position basierend auf dem zweiten lokalen Azimutwinkel und seiner Beziehung zu dem zweiten lokalen Höhenwinkel und das Bestimmen, als die Überlappung zwischen der ersten mehrdeutigen Position und der zweiten mehrdeutigen Position, eines globalen Azimutwinkels und eines globalen Höhenwinkels, für die ein Abstand zu sowohl der ersten mehrdeutigen Position als auch der zweiten mehrdeutigen Position minimal ist, beinhalten.
  • Beispielsweise kann das Bestimmen der Überlappung auf einem Wurzelfindungsalgorithmus, wie etwa Newton-Verfahren, auf einem Least-Squares-Algorithmus, wie etwa dem Levenberg-Marquardt-Algorithmus, oder auf einem Maximum-Likelihood-Verfahren basieren.
  • In einigen Ausführungsformen beinhaltet das Bestimmen des Schnittpunkts das Assoziieren von Zellen einer Gitterkarte, die der ersten mehrdeutigen Position entsprechen, mit einer Wahrscheinlichkeit, die ein Ziel angibt; das Assoziieren von Zellen der Gitterkarte, die der zweiten mehrdeutigen Position entsprechen, mit einer Wahrscheinlichkeit, die ein Ziel angibt; und das Identifizieren, basierend auf den assoziierten Wahrscheinlichkeiten, einer Zelle der Gitterkarte, die sowohl der ersten mehrdeutigen Position als auch der zweiten mehrdeutigen Position entspricht.
  • Beispielsweise kann die Gitterkarte eine Vielzahl von Zellen beinhalten, wobei jede Zelle einer Koordinate in der Umgebung entspricht. Beispielsweise können die Zellen der Vielzahl von Zellen quadratisch (wenn nur die erste (bzw. zweite) Entfernung und der lokale Azimutwinkel, aber nicht der erste (bzw. zweite) lokale Höhenwinkel berücksichtigt wird) oder kubisch (wenn auch der erste (bzw. zweite) lokale Höhenwinkel berücksichtigt wird) mit einer Seitenlänge sein, die z. B. einem Zentimeter, einem Dezimeter, einem Meter, zehn Metern oder einhundert Metern in der Umgebung entspricht. Die vorliegende Offenbarung ist jedoch nicht auf solche Zellen beschränkt. Beispielsweise können die Zellen auch Quader sein oder können eine beliebige andere geeignete Form aufweisen, und können eine beliebige andere geeignete Seitenlänge oder Größe aufweisen.
  • Beispielsweise kann die Schaltungsanordnung anfänglich jeder Zelle der Gitterkarte eine A-priori-Wahrscheinlichkeit zuweisen. Dann kann die Schaltungsanordnung eine Wahrscheinlichkeit jeder Zelle, die der ersten mehrdeutigen Position entspricht, mit einer Wahrscheinlichkeit aktualisieren, die eine mehrdeutige Position angibt. Gleichermaßen kann die Schaltungsanordnung eine Wahrscheinlichkeit jeder Zelle, die der zweiten mehrdeutigen Position entspricht, mit einer Wahrscheinlichkeit aktualisieren, die eine mehrdeutige Position angibt. Die Schaltungsanordnung kann als eine Wahrscheinlichkeit, die eine mehrdeutige Position angibt, einen Wert verwendet, der höher als ein Wert der A-priori-Wahrscheinlichkeit sein kann. Beispielsweise kann die Schaltungsanordnung als eine Position, die eine mehrdeutige Position angibt, einen gleichen Wert für alle Zellen, die der ersten oder zweiten mehrdeutigen Position entsprechen, oder unterschiedliche Werte gemäß einem vorbestimmten Muster oder mit einer vorbestimmten Menge an Rauschen verwenden. Nach der Aktualisierung von Wahrscheinlichkeiten der Zellen in der Gitterkarte, die der ersten oder zweiten mehrdeutigen Position entsprechen, kann die Schaltungsanordnung als Position, die dem (eindeutigen) globalen Azimutwinkel und dem (eindeutigen) globalen Höhenwinkel entspricht, eine Position auswählen, die einer Zelle mit einer höchsten Wahrscheinlichkeit unter den Zellen der Gitterkarte entspricht.
  • Als eine Alternative oder zusätzlich zu dem Aktualisieren der Wahrscheinlichkeiten von Zellen, die der ersten und/oder zweiten mehrdeutigen Position entsprechen, kann die Schaltungsanordnung die Wahrscheinlichkeiten von Zellen, die nicht der ersten und/oder zweiten mehrdeutigen Position entsprechen, mit einer Wahrscheinlichkeit aktualisieren, die eine Position angibt, an der kein Ziel detektiert wird (d. h. eine Position, die nicht in der ersten oder zweiten mehrdeutigen Position eingeschlossen ist).
  • Beispielsweise kann das Aktualisieren auf einer Aktualisierungsformel für Belegtheitsgitterkarten (OGM) basieren, wie etwa Gleichung (1), die auf Thrun, Sebastian: „Learning occupancy grids with forward models", Proceedings 2001 IEEE/RSJ International Conference on Intelligent Robots and Systems, 2001, Digital Object Identifier (DOI): 10.1109/IROS.2001.977219 basiert: p ( m i | z 1 : t , x 1 : t ) 1 p ( m i | z 1 : t , x 1 : t ) = p ( m i | z t , x t ) 1-p ( m i | z t ,x t ) aktuelle Messung p ( m i | z 1 : t 1 , x 1 : t 1 ) 1 p ( m i | z 1 : t 1 , x 1 : t 1 ) rekursiver Term   1 p ( m i ) p ( m i ) A priori Informationen
    Figure DE102023125329A1_0003
  • In Gleichung (1) repräsentiert p(mi|z1:t, x1:t) eine Wahrscheinlichkeit, die mit einer Zelle mi der Gitterkarte assoziiert ist, wobei die Wahrscheinlichkeit auf Radarsensormessungen z1:t und entsprechenden Radarsensorpositionen x1:t von Zeitrahmen 1 bis t basiert, d. h. einem aktuell verarbeiteten Zeitrahmen t und allen zuvor verarbeiteten Zeitrahmen. Dementsprechend repräsentiert p(mi|zt, xt) eine Wahrscheinlichkeit, die mit der Zelle mi assoziiert ist, basierend auf einer Radarsensormessung zt und einer entsprechenden Radarsensorposition xt des aktuell verarbeiteten Zeitrahmens t, und p(mi|z1:t-1, x1:t-1) repräsentiert eine Wahrscheinlichkeit, die mit der Zelle mi assoziiert ist, basierend auf Radarsensormessungen z1:t-1 und entsprechenden Radarsensorpositionen x1:t-1 von Zeitrahmen von 1 bis t - 1, d. h. ohne den aktuell verarbeiteten Zeitrahmen t. Für Zeitrahmen 1, d. h. wenn eine erste Wahrscheinlichkeit in eine Zelle eingefügt wird, kann der rekursive Term weggelassen (oder auf 1 gesetzt) werden. Ferner repräsentiert p(mi) einen Prior für eine Belegtheit der Zelle mi und kann auf z. B. 0,5 initialisiert werden, ohne die vorliegende Offenbarung darauf einzuschränken.
  • Der in Gleichung (1) als „aktuelle Messung“ markierte Term kann einer aktuell verarbeiteten Messung entsprechen, z. B. einer Wahrscheinlichkeit, die die erste oder zweite mehrdeutige Position angibt. Der in Gleichung (1) als „rekursiver Term“ markierte Term kann zuvor verarbeiteten Messungen entsprechen, z. B. dem ersten empfangenen Radarsignal, wenn das zweite empfangene Radarsignal verarbeitet wird (in einem Fall, wenn das erste empfangene Radarsignal vor dem zweiten empfangenen Radarsignal verarbeitet wird). Der in Gleichung (1) als „A-priori-Informationen“ markierte Term kann der vorbestimmten A-priori-Wahrscheinlichkeit entsprechen. Somit kann der Term p(mi|z1:t, x1:t) von Gleichung (1) der Gitterkarte als eine aktualisierte Wahrscheinlichkeit zugewiesen werden, die die erste und/oder zweite mehrdeutige Position angeben kann.
  • Die Schaltungsanordnung kann das Produkt von Gleichung (1) in der logarithmischen Domäne evaluieren.
  • Die Schaltungsanordnung kann die Wahrscheinlichkeiten der jeweiligen Zellen iterativ aktualisieren. Die Schaltungsanordnung kann eine mehrdeutige Position für mehr als zwei empfangene Radarsignale bestimmen und kann die Aktualisierung entsprechend für jedes der mehr als zwei empfangenen Radarsignale durchführen.
  • In einigen Ausführungsformen werden die ersten Radarmessdaten durch einen ersten Radarsensor erfasst; die zweiten Radarmessdaten werden durch einen zweiten Radarsensor erfasst; und der erste Radarsensor und der zweite Radarsensor sind gemäß einer Orientierungsdifferenz zwischen der Rotationsachse des ersten lokalen Azimutwinkels und der Rotationsachse des zweiten lokalen Azimutwinkels gegeneinander gedreht.
  • Wie oben erwähnt, kann eine 1D-Apertur des ersten Radarsensors gemäß der Differenz zwischen den Rotationsachsen des ersten lokalen Azimutwinkels und des zweiten lokalen Azimutwinkels anders als eine 1D-Apertur des zweiten Radarsensors orientiert sein.
  • Beispielsweise können der erste Radarsensor und der zweite Radarsensor ähnliche Charakteristiken aufweisen, können z. B. technische Eigenschaften aufweisen, die sich nicht um mehr als innerhalb Herstellungstoleranzen unterscheiden, und/oder können einen gleichen oder ähnlichen Typ aufweisen, und der erste Radarsensor kann z. B. an einer mobilen Plattform in einer anderen Orientierung als der zweite Radarsensor befestigt sein.
  • Somit ist es möglicherweise nicht notwendig, die ersten Radarmessdaten und die zweiten Radarmessdaten mit unterschiedlichen Typen von Radarsensoren zu erfassen.
  • Die vorliegende Offenbarung ist jedoch nicht auf das Verwenden eines gleichen Typs von Radarsensoren für den ersten Radarsensor und den zweiten Radarsensor beschränkt. Der erste Radarsensor, der die ersten Radarmessdaten erfasst, kann ebenfalls ein anderer Typ sein (z. B. andere Charakteristiken aufweisen) als der zweite Radarsensor, der die zweiten Radarmessdaten erfasst.
  • Der erste Radarsensor und der zweite Radarsensor können auf einen gleichen Abschnitt der Umgebung oder auf unterschiedliche Abschnitte der Umgebung, die sich überlappen, gerichtet sein. Sowohl der erste Radarsensor als auch der zweite Radarsensor können jedoch so orientiert sein, dass sie Radarsignale von dem Ziel empfangen, und die Schaltungsanordnung kann z. B. basierend auf einer vorbestimmten Abbildung bestimmen, dass eine Position des Ziels, die durch die ersten Radarmessdaten angegeben wird, z. B. die erste mehrdeutige Position, einer Position des Ziels entspricht (z. B. diese überlappt), die durch die zweiten Radarmessdaten angegeben wird, z. B. die zweite mehrdeutige Position.
  • Einige Ausführungsformen betreffen ein Verfahren zur dreidimensionalen Positionsschätzung, wobei das Verfahren umfasst: Erhalten erster Radarmessdaten, die eine erste Entfernung und einen ersten lokalen Azimutwinkel eines Ziels angeben; Erhalten zweiter Radarmessdaten, die eine zweite Entfernung und einen zweiten lokalen Azimutwinkel des Ziels angeben; Kompensieren, basierend auf dem Korrelieren der ersten Radarmessdaten mit den zweiten Radarmessdaten, einer Ambiguität zwischen einem globalen Azimutwinkel des Ziels und einem globalen Höhenwinkel des Ziels, wobei eine Beziehung zwischen dem globalen Azimutwinkel und dem globalen Höhenwinkel des Ziels durch die ersten und/oder die zweiten Radarmessdaten repräsentiert wird; und Schätzen einer dreidimensionalen Position des Ziels basierend auf dem globalen Azimutwinkel, dem globalen Höhenwinkel und der ersten und/oder der zweiten Entfernung des Ziels.
  • Das Verfahren kann wie oben mit Bezug auf die Schaltungsanordnung beschrieben konfiguriert sein. Somit können alle Merkmale der Schaltungsanordnung Merkmalen des Verfahrens entsprechen.
  • Die wie hierin beschriebenen Verfahren werden auch in einigen Ausführungsformen als ein Computerprogramm implementiert, das bewirkt, dass ein Computer und/oder ein Prozessor das Verfahren durchführt, wenn es auf dem Computer und/oder dem Prozessor ausgeführt wird. In einigen Ausführungsformen ist auch ein nichtflüchtiges computerlesbares Aufzeichnungsmedium bereitgestellt, in dem ein Computerprogrammprodukt gespeichert ist, das bei Ausführung durch einen Prozessor, wie etwa den oben beschriebenen Prozessor, bewirkt, dass die hierin beschriebenen Verfahren durchgeführt werden.
  • Daher ermöglichen einige Ausführungsformen eine 3D-Repräsentation der Umgebung basierend auf verteilten inkohärenten Radarsensoren, die nur dazu ausgelegt sind, eine 2D-Position (z. B. eine Entfernung und einen lokalen Azimutwinkel) zu schätzen. Während heutzutage Umgebungsrepräsentationen in einigen Fällen nur 2D sind (xy-Ebene, z. B. horizontal), ermöglichen einige Ausführungsformen zusätzlich die Bestimmung einer dritten Dimension (z-Komponente, z. B. eine Höhe) von Zielen. Dies kann ein Radarsensornetzwerk oder einen einzelnen Sensor an einer mobilen oder stationären Plattform erfordern. Während vorherige Ansätze in einigen Fällen auf 3D-Zielinformationen basieren, ermöglichen einige Ausführungsformen die Bestimmung einer 3D-Position im Raum auf Basis von 2D-Zielinformationen, wie oben beschrieben, ohne irgendeinen Verlust der Präzision.
  • Erneut mit Bezug auf 1 zeigt 1 zwei Alternativen eines Fusionsalgorithmus 1 zum Bestimmen einer 3D-Position basierend auf 2D-Radarmessdaten gemäß einer Ausführungsform. Der Fusionsalgorithmus 1 kann durch eine Schaltungsanordnung durchgeführt werden und kann als ein Verfahren durchgeführt werden. Als eine erste Alternative kann der Fusionsalgorithmus 1 als ein Einzelsensoralgorithmus 2 realisiert werden. Als eine zweite Alternative kann der Fusionsalgorithmus 1 als ein Einzelnetzwerkalgorithmus 3 realisiert werden.
  • Der Einzelsensoralgorithmus 2 ist auf der linken Seite von 1 veranschaulicht und basiert auf der Verwendung eines einzelnen Sensors 4, der eine 1D-Apertur aufweist, und ist somit nur dazu ausgelegt, einen lokalen Azimutwinkel eines Ziels zu schätzen, d. h. einen Winkel in einer xy-Ebene eines lokalen Koordinatensystems des einzelnen Sensors 4. Der einzelne Sensor 4 ist ferner dazu ausgelegt, eine Entfernung des Ziels, d. h. einen Abstand zwischen dem einzelnen Sensor 4 und dem Ziel, und eine Radialgeschwindigkeit des Ziels zu schätzen, aber der einzelne Sensor 4 ist nicht dazu ausgelegt, einen lokalen Höhenwinkel zu schätzen, d. h. einen Winkel in eine Richtung parallel zu einer z-Achse des lokalen Koordinatensystems des einzelnen Sensors 4.
  • Der einzelne Sensor 4 ist an einem Fahrzeug befestigt und erfasst wiederholt Radarmessdaten, während sich das Fahrzeug durch eine Umgebung bewegt. Das Fahrzeug ist ein Beispiel für eine mobile Plattform. Im Folgenden wird zur Einfachheit halber angenommen, dass der einzelne Sensor 4 in eine Bewegungsrichtung des Fahrzeugs orientiert ist, d. h. eine optische Achse (hier: eine x-Achse des lokalen Koordinatensystems des einzelnen Sensors 4) des einzelnen Sensors 4 ist parallel zu einem Geschwindigkeitsvektor des Fahrzeugs. Für andere Sensororientierungen können die folgenden Gleichungen entsprechend angepasst werden.
  • Eine Sichtlinie zwischen dem einzelnen Sensor 4 und dem Ziel (d. h. ein Vektor der Radialgeschwindigkeit vr des Ziels) ist bezüglich der optischen Achse des einzelnen Sensors 4 horizontal um den lokalen Azimutwinkel Φ und vertikal um den lokalen Höhenwinkel Θ geneigt.
  • Basierend auf der Annahme, dass das Ziel statisch ist, d. h. dass sich das Ziel nicht bezüglich der Umgebung bewegt, kann Gleichung (2) verwendet werden, um den lokalen Azimutwinkel Φ des Ziels in Kombination mit der Fahrzeuggeschwindigkeit v zu schätzen: ν r = ν  cos ( Φ ) cos ( Θ )
    Figure DE102023125329A1_0004
  • Hier repräsentiert vr die Radialgeschwindigkeit des Ziels.
  • Der lokale Höhenwinkel Θ des Ziels kann bestimmt werden, sobald der lokale Azimutwinkel Φ und die gemessene Radialgeschwindigkeit vr des Ziels bekannt sind. Im Allgemeinen führt dies aufgrund der Symmetrie des Kosinus zu zwei Ergebnissen für den lokalen Höhenwinkel Θ des Ziels, wobei nur eines dieser beiden Ergebnisse durch Vorwissen plausibel ist.
  • Im Allgemeinen ist jedoch hier der lokale Azimutwinkel Φ des Ziels auch nicht eindeutig bekannt, da der lokale Azimutwinkel Φ auch vom lokalen Höhenwinkel Θ des Ziels abhängt, wobei die Beziehung durch Gleichung (3) angegeben wird: Φ = arcsin ( sin ( Φ Θ = 0 ) cos ( Θ ) )
    Figure DE102023125329A1_0005
  • Der Winkel ΦΘ=0 repräsentiert den lokalen Azimutwinkel Φ in einem Fall, bei dem der lokale Höhenwinkel Θ null ist, d. h. das Ziel liegt in der gleichen Höhe in die z-Richtung wie der einzelne Sensor 4. Der Winkel ΦΘ=0 kann jedoch unter der Annahme geschätzt werden, dass Θ = 0. Falls im Allgemeinen Θ ≠ 0 ist, kann ein falscher Wert für den Winkel ΦΘ=0 geschätzt werden.
  • Daher wird eine Bewegung 5 des Fahrzeugs in der Umgebung genutzt. Der einzelne Sensor 4 erfasst erste Radarmessdaten, die eine erste Entfernung, einen ersten lokalen Azimutwinkel und eine erste Radialgeschwindigkeit des Ziels angeben. Dann erfasst der einzelne Sensor 4 zweite Radarmessdaten, die eine zweite Entfernung, einen zweiten lokalen Azimutwinkel und eine zweite Radialgeschwindigkeit des Ziels angeben.
  • Aufgrund der Bewegung 5 des Fahrzeugs unterscheiden sich die ersten Radarmessdaten von den zweiten Radarmessdaten. Im Allgemeinen unterscheiden sich die erste und zweite Entfernung, unterscheiden sich der erste und zweite lokale Azimutwinkel und unterscheiden sich die erste und zweite Radialgeschwindigkeit. Im Allgemeinen bleibt jedoch der lokale Höhenwinkel des Ziels während beider Messungen der gleiche, da sich das Fahrzeug innerhalb der xy-Ebene bewegt.
  • Somit kann ein korrekter Wert des lokalen Höhenwinkels Θ des Ziels basierend auf einer Differenz zwischen den ersten Radarmessdaten und den zweiten Radarmessdaten bestimmt werden.
  • Daher ermöglicht der Einzelsensoralgorithmus 2 die Schätzung einer 3D-Position des Ziels, wie sie mit einem 2D-Bildgebungs-Radarsensor 6 erhalten werden würde.
  • Der Einzelnetzwerkalgorithmus 3 ist auf der rechten Seite von 1 veranschaulicht und basiert auf der Verwendung von zwei Radarsensoren 7 und 8, die in einem Netzwerk verbunden sind.
  • Der erste Radarsensor 7 und der zweite Radarsensor 8 weisen eine parallele optische Achse und ein überlappendes Sichtfeld (FoV) auf, sodass beide Radarsensoren 7 und 8 das Ziel erfassen können. Die Radarsensoren 7 und 8 sind um ihre optischen Achsen (x-Achse) gegeneinander gedreht. In der Ausführungsform von 1 sind die Radarsensoren 7 und 8 um 90° gegeneinander gedreht, sodass Rotationsachsen lokaler Azimutwinkel, die durch den ersten und zweiten Radarsensor 7 bzw. 8 detektiert werden, senkrecht zueinander orientiert sind.
  • Ein Vorteil des Einzelnetzwerkalgorithmus 3 besteht darin, dass in einigen Ausführungsformen keine zusätzlichen Geschwindigkeitsinformationen benötigt werden, wodurch eine 3D-Positionsschätzung auch für stationäre Radarsensoren 7 und 8 ermöglicht wird, die sich nicht in der Umgebung bewegen. Es werden jedoch mindestens zwei Radarsensoren 7 und 8 für den Einzelnetzwerkalgorithmus 3 benötigt. Während in der Ausführungsform von 1 zwei Radarsensoren 7 und 8 verwendet werden, kann der Einzelnetzwerkalgorithmus 3 in einigen Ausführungsformen auch drei oder mehr Radarsensoren verwenden.
  • Da die Radarsensoren 7 und 8 (und ihre jeweiligen lokalen Koordinatensysteme) in der Ausführungsform von 1 um ihre optischen Achsen um 90° gegeneinander gedreht sind, wird ein lokaler Azimutwinkel des ersten Radarsensors 7 als globaler Azimutwinkel des Ziels verwendet, und ein lokaler Azimutwinkel des zweiten Radarsensors 8 wird als globaler Höhenwinkel des Ziels verwendet. Somit wird eine Sensorfusion des ersten und zweiten Radarsensors 7 und 8 zum Bestimmen einer eindeutigen 3D-Position des Ziels verwendet, wie sie durch einen 2D-Bildgebungs-Radarsensor 9 erhalten werden kann. Die grundlegende Idee der Sensorfusion im Einzelnetzwerkalgorithmus 3 ist in 2 veranschaulicht.
  • 2 veranschaulicht Sensorfusion zwischen dem ersten Radarsensor 7 und dem zweiten Radarsensor 8, die um ihre optischen Achsen gegeneinander gedreht werden, gemäß einer Ausführungsform.
  • Beide Radarsensoren 7 und 8 führen eine 1D-Winkelschätzung durch.
  • Somit erfasst der erste Radarsensor 7 erste Radarmessdaten 10, die eine erste Entfernung R und einen ersten lokalen Azimutwinkel Φ1 des Ziels angeben. Die ersten Radarmessdaten 10 sind als eine Gitterkarte veranschaulicht, wobei eine Zelle, die der ersten Entfernung R und dem ersten lokalen Azimutwinkel Φ1 entspricht, in 2 schraffiert ist. Der erste Radarsensor 7 misst keinen ersten lokalen Höhenwinkel Θ1 des Ziels, sodass eine Position des Ziels, die durch die ersten Radarmessdaten 10 angegeben wird, bezüglich des ersten lokalen Höhenwinkels Θ1 mehrdeutig ist.
  • Gleichermaßen erfasst der zweite Radarsensor 8 zweite Radarmessdaten 11, die eine zweite Entfernung R und einen zweiten lokalen Azimutwinkel Φ2 des Ziels angeben. Die zweiten Radarmessdaten 11 sind als eine Gitterkarte veranschaulicht, wobei eine Zelle, die der zweiten Entfernung R und dem zweiten lokalen Azimutwinkel Φ2 entspricht, in 2 schraffiert ist. Der zweite Radarsensor 8 misst keinen zweiten lokalen Höhenwinkel Θ2 des Ziels, sodass eine Position des Ziels, die durch die zweiten Radarmessdaten 11 angegeben wird, bezüglich des zweiten lokalen Höhenwinkels Θ2 mehrdeutig ist.
  • In der Ausführungsform von 2 sind der erste Radarsensor 7 und der zweite Radarsensor 8 nahe zueinander bereitgestellt, sodass die erste Entfernung R,die durch den ersten Radarsensor 7 gemessen wird, gleich der zweiten Entfernung R ist, die durch den zweiten Radarsensor 8 gemessen wird. Daher werden die erste und zweite Entfernung durch das gleiche Symbol R repräsentiert, und werden im Folgenden als die Entfernung R des Ziels bezeichnet.
  • Wie in 2 gezeigt, sind der erste Radarsensor 7 und der zweite Radarsensor 8 um ihre optischen Achsen, die mit der x-Achse des lokalen Koordinatensystems des jeweiligen Radarsensors 7 und 8 zusammenfallen, um 90° gegeneinander gedreht. Daher sind eine Rotationsachse des ersten lokalen Azimutwinkels Φ1 und eine Rotationsachse des zweiten lokalen Azimutwinkels Φ2 senkrecht zueinander orientiert.
  • Somit entspricht in der Ausführungsform von 2 eine Richtung des ersten lokalen Azimutwinkels Φ1 einer Richtung eines globalen Azimutwinkels Φglobal des Ziels, und eine Richtung des zweiten lokalen Azimutwinkels Φ2 entspricht einem globalen Höhenwinkel Θglobal des Ziels.
  • Zum Durchführen der Sensorfusion zwischen dem ersten Radarsensor 7 und dem zweiten Radarsensor 8 werden die Gitterkarten, die die ersten Radarmessdaten 10 bzw. die zweiten Radarmessdaten 11 repräsentieren, in eine 3D-Gitterkarte 12 integriert, die der Umgebung entspricht, in der sich das Ziel befindet.
  • Wie im unteren Teil von 2 gezeigt, entsprechen die ersten Radarmessdaten 10 einer horizontalen Ebene der 3D-Gitterkarte 12, und die zweiten Radarmessdaten 11 entsprechen einer vertikalen Ebene der 3D-Gitterkarte 12. Ein vertikaler gestrichelter Balken 13 repräsentiert eine erste mehrdeutige Position des Ziels, die durch die ersten Radarmessdaten 10 angegeben wird, die bezüglich des (unbekannten) ersten Höhenwinkels Θ1 des Ziels mehrdeutig sind. Ein horizontaler gestrichelter Balken 14 repräsentiert eine zweite mehrdeutige Position des Ziels, die durch die zweiten Radarmessdaten 11 angegeben wird, die bezüglich des (unbekannten) zweiten Höhenwinkels Θ2 des Ziels mehrdeutig sind.
  • Für eine Zielextraktion wird eine Disambiguierung des globalen Azimutwinkels Φglobal und des globalen Höhenwinkels Θglobal des Ziels durchgeführt. Die Disambiguierung beinhaltet das Bestimmen eines Schnittpunkts 15, an dem sich die erste mehrdeutige Position 13 und die zweite mehrdeutige Position 14 überlappen. Der Schnittpunkt 15 entspricht einer eindeutigen 3D-Position des Ziels. In 2 ist eine Zelle, die dem Schnittpunkt 15 entspricht, mit durchgezogenen Linien gezeichnet.
  • Es ist anzumerken, dass die erste und zweite mehrdeutige Position 13 und 14 zur Einfachheit halber in 2 als vertikaler bzw. horizontaler Balken gezeichnet sind. In einigen Ausführungsformen, in Abhängigkeit von Charakteristiken des ersten und zweiten Radarsensors 7 und 8, kann jedoch eine Beziehung zwischen dem ersten (bzw. zweiten) lokalen Azimutwinkel und dem ersten (bzw. zweiten) lokalen Höhenwinkel nicht orthogonal sein. Demzufolge kann in solchen Ausführungsformen eine Beziehung zwischen dem globalen Azimutwinkel Φglobal und dem globalen Höhenwinkel Θglobal des Ziels auch nicht orthogonal sein. In einem solchen Fall können die erste und zweite mehrdeutige Position 13 und 14 zum Beispiel gekrümmt sein.
  • Dementsprechend werden in einigen Ausführungsformen die lokalen Azimutwinkel aller verwendeten Radarsensoren (in der Ausführungsform von 2, nur die zwei Radarsensoren 7 und 8) verwendet, um den Schnittpunkt 15 im globalen 3D-Koordinatensystem 12 zu bestimmen (Sensorfusion), wobei die jeweiligen lokalen Höhenwinkel als unbekannt angenommen werden. Durch die Sensorfusion, einschließlich der Abstandsinformationen, kann eine 3D-Zielposition geschätzt werden (Überlagerung der mehrdeutigen Positionen für alle Radarsensoren). In einigen Ausführungsformen ist eine mehrdeutige Position eines Radarsensors ringförmig (anstelle von linear, wie zur Einfachheit halber in 2 veranschaulicht). Somit entspricht die Sensorfusion in einigen Ausführungsformen einer Art von Multilateration in drei Dimensionen.
  • Die Position wird in einigen Ausführungsformen unter Verwendung eines Überlappungsproblems und/oder in einigen Ausführungsformen unter Verwendung einer probabilistischen Evaluierung durch Anwenden eines probabilistischen 3D-Gitterkarten-Algorithmus mit identischen Wahrscheinlichkeiten im lokalen (unbekannten) Höhenwinkel gelöst. Sowohl ein Überlappungsproblem als auch eine probabilistische Evaluierung können in einigen Ausführungsformen zu dem gleichen Ergebnis führen.
  • In einigen Ausführungsformen ist die Sensorfusion kaskadiert, wobei eine beliebige Anzahl von Radarsensoren mit willkürlichen x-, y- und z-Orientierungen verwendet werden kann, solange die Radarsensoren ein überlappendes FoV aufweisen. In einigen Ausführungsformen wird ein überlappendes FoV auch durch das Detektieren einer gleichen Szene in unterschiedlichen Rahmen zu unterschiedlichen Zeiten realisiert.
  • 3 veranschaulicht ein Blockdiagramm einer Schaltungsanordnung 20 gemäß einer Ausführungsform. Die Schaltungsanordnung 20 beinhaltet eine Steuereinheit 21, eine Speichereinheit 22, eine Kommunikationseinheit 23, eine erste Messdatenerhalteeinheit 24, eine zweite Messdatenerhalteeinheit 25, eine Ambiguitätskompensationseinheit 26 und eine Positionsschätzeinheit 27.
  • Die Steuereinheit 21 steuert eine Funktion der Schaltungsanordnung 20. Die Steuereinheit 21 lädt und führt Anweisungen aus, die in der Speichereinheit 22 gespeichert sind. Basierend auf den Anweisungen bewirkt die Steuereinheit 21, dass die Schaltungsanordnung 20 eine 3D-Positionsschätzung durchführt.
  • Die Speichereinheit 22 beinhaltet einen nichtflüchtigen Speicherabschnitt und einen flüchtigen Speicherabschnitt. Die Anweisungen, die durch die Steuereinheit 21 geladen und ausgeführt werden, sind im nichtflüchtigen Speicherabschnitt gespeichert. Im flüchtigen Speicherabschnitt sind temporäre Daten gespeichert, die zum Durchführen der 3D-Positionsschätzung notwendig sind. Die temporären Daten beinhalten erste und zweite Radarmessdaten, die durch die erste bzw. zweite Messdatenerhalteeinheit 24 und 25 erhalten werden. Die temporären Daten beinhalten auch eine 3D-Position, die durch die Positionsschätzeinheit 27 geschätzt wird, die im flüchtigen Speicherabschnitt gespeichert ist, bevor sie durch die Kommunikationseinheit 23 übertragen wird. Die temporären Daten beinhalten ferner Zwischendaten, die durch eine beliebige Einheit der Schaltungsanordnung 20 beim Durchführen der 3D-Positionsschätzung erzeugt werden.
  • Die Kommunikationseinheit 23 beinhaltet eine Schnittstelle zum Kommunizieren mit anderen Informationsverarbeitungsvorrichtungen gemäß dem Controller-Area-Network(CAN)-Busprotokoll. Die Schnittstelle der Kommunikationseinheit 23 ist mit einem CAN-Bus einer mobilen Plattform verbunden, in der die Schaltungsanordnung 20 bereitgestellt ist. Die Schnittstelle empfängt Daten von anderen Vorrichtungen oder Einheiten, die mit dem CAN-Bus verbunden sind, und überträgt Daten zu anderen Vorrichtungen oder Einheiten, die mit dem CAN-Bus verbunden sind.
  • Die erste Messdatenerhalteeinheit 24 erhält erste Radarmessdaten. Zum Erhalten der ersten Radarmessdaten bewirkt die erste Messdatenerhalteeinheit 24, dass die Kommunikationseinheit 23 die ersten Radarmessdaten von einem Chirp-Sequenz-Radarsensor empfängt, der mit dem CAN-Bus verbunden ist und die ersten Radarmessdaten erfasst. Die ersten Radarmessdaten geben eine erste Entfernung eines Ziels und einen ersten lokalen Azimutwinkel des Ziels an. Die erste Messdatenerhalteeinheit 24 speichert die ersten Radarmessdaten in der Speichereinheit 22.
  • Die zweite Messdatenerhalteeinheit 25 erhält zweite Radarmessdaten. Die zweite Messdatenerhalteeinheit 25 ist ähnlich zu der ersten Messdatenerhalteeinheit 24 konfiguriert. Somit bewirkt die zweite Messdatenerhalteeinheit 25, zum Erhalten der zweiten Radarmessdaten, dass die Kommunikationseinheit 23 die zweiten Radarmessdaten von einem Chirp-Sequenz-Radarsensor empfängt, der mit dem CAN-Bus verbunden ist und die zweiten Radarmessdaten erfasst. Die zweiten Radarmessdaten geben eine zweite Entfernung des Ziels und einen zweiten lokalen Azimutwinkel des Ziels an. Die zweite Messdatenerhalteeinheit 25 speichert die zweiten Radarmessdaten in der Speichereinheit 22.
  • Die Ambiguitätskompensationseinheit 26 kompensiert eine Ambiguität zwischen einem globalen Azimutwinkel des Ziels und einem globalen Höhenwinkel des Ziels. Das Kompensieren der Ambiguität zwischen dem globalen Azimutwinkel und dem globalen Höhenwinkel basiert auf einer Beziehung zwischen dem globalen Azimutwinkel und dem globalen Höhenwinkel des Ziels. Die Beziehung zwischen dem globalen Azimutwinkel und dem globalen Höhenwinkel wird durch die ersten Radarmessdaten und die zweiten Radarmessdaten repräsentiert. Daher erhält die Ambiguitätskompensationseinheit 26 die ersten Radarmessdaten und die zweiten Radarmessdaten von der Speichereinheit 22.
  • Die Ambiguitätskompensationseinheit 26 beinhaltet eine Messdatenkorrelationseinheit 28. Die Messdatenkorrelationseinheit 28 korreliert die ersten Radarmessdaten mit den zweiten Radarmessdaten. Infolge der Korrelation erhält die Messdatenkorrelationseinheit 28 einen eindeutigen globalen Azimutwinkel des Ziels und einen eindeutigen globalen Höhenwinkel des Ziels. Die Messdatenkorrelationseinheit 28 wird unten mit Bezugnahme auf 4 und 5 ausführlicher beschrieben. Die Ambiguitätskompensationseinheit 26 speichert den eindeutigen globalen Azimutwinkel und den eindeutigen globalen Höhenwinkel des Ziels in der Speichereinheit 22.
  • Die Positionsschätzeinheit 27 schätzt eine 3D-Position des Ziels basierend auf dem (eindeutigen) globalen Azimutwinkel des Ziels, auf dem (eindeutigen) globalen Höhenwinkel des Ziels und auf den ersten und zweiten Radarmessdaten. Daher erhält die Positionsschätzeinheit 27 den eindeutigen globalen Azimutwinkel, den eindeutigen globalen Höhenwinkel, die ersten Radarmessdaten und die zweiten Radarmessdaten von der Speichereinheit 22.
  • Obwohl in einigen Ausführungsformen die 3D-Position des Ziels basierend auf nur einer der ersten Entfernung und der zweiten Entfernung des Ziels bestimmt werden kann, schätzt die Positionsschätzeinheit 27 in der Ausführungsform von 3 eine erste 3D-Position des Ziels basierend auf der ersten Entfernung des Ziels, schätzt eine zweite 3D-Position des Ziels basierend auf der zweiten Entfernung des Ziels und schätzt die 3D-Position des Ziels als einen Durchschnitt der ersten 3D-Position und der zweiten 3D-Position für eine robustere Schätzung der 3D-Position des Ziels.
  • Die Positionsschätzeinheit 27 schätzt, als die erste (bzw. zweite) 3D-Position des Ziels, eine Position, die in einer horizontalen Richtung, die dem eindeutigen globalen Azimutwinkel entspricht, und in einer vertikalen Richtung, die dem eindeutigen globalen Höhenwinkel entspricht, um einen Abstand beabstandet ist, der der ersten (zweiten) Entfernung des Ziels von einer Position entspricht, an der sich der jeweilige Radarsensor, der die ersten (zweiten) Radarmessdaten erfasst hat (ein jeweiliges reflektiertes Radarsignal empfangen hat), befand, als das jeweilige reflektierte Radarsignal empfangen wurde.
  • Die Positionsschätzeinheit 27 schätzt dann die 3D-Position des Ziels als den Durchschnitt der ersten 3D-Position und der zweiten 3D-Position des Ziels und speichert die geschätzte 3D-Position des Ziels in der Speichereinheit 22.
  • Die Schaltungsanordnung 20 bewirkt, dass die Kommunikationseinheit 23 die geschätzte 3D-Position, die in der Speichereinheit 22 gespeichert ist, über die Schnittstelle zu einer anderen Informationsverarbeitungsvorrichtung überträgt, die mit dem CAN-Bus verbunden ist.
  • Die Steuereinheit 21, die Speichereinheit 22, die Kommunikationseinheit 23, die erste Messdatenerhalteeinheit 24, die zweite Messdatenerhalteeinheit 25, die Ambiguitätskompensationseinheit 26 und die Positionsschätzeinheit 27 sind jeweils mit einem internen Bus der Schaltungsanordnung 20 verbunden und können über den internen Bus miteinander kommunizieren.
  • Es wird angemerkt, dass die Schaltungsanordnung 20 nur für Veranschaulichungszwecke in ihre jeweiligen Einheiten 21 bis 27 geteilt ist, und eine Funktionalität einiger oder aller der Einheiten 21 bis 27 in einigen Ausführungsformen durch eine Einheit bereitgestellt wird. Beispielsweise werden in einigen Ausführungsformen die erste Messdatenerhalteeinheit 24 und die zweite Messdatenerhalteeinheit 25 durch eine einzige Messdatenerhalteeinheit repräsentiert. Beispielsweise werden in einigen Ausführungsformen die Ambiguitätskompensationseinheit 26 und die Positionsschätzeinheit 27 durch eine einzige Einheit repräsentiert. Beispielsweise beinhaltet die Steuereinheit 21 in einigen Ausführungsformen die erste Messdatenerhalteeinheit 24, die zweite Messdatenerhalteeinheit 25, die Ambiguitätskompensationseinheit 26 und/oder die Positionsschätzeinheit 27. Beispielsweise sind in einigen Ausführungsformen die erste Messdatenerhalteeinheit 24 und/oder die zweite Messdatenerhalteeinheit 25 in der Kommunikationseinheit 23 enthalten.
  • 4 veranschaulicht ein Blockdiagramm einer Messdatenkorrelationseinheit 28a für einen Einzelsensoralgorithmus gemäß einer Ausführungsform, wie etwa den Einzelsensoralgorithmus 2 von 1. Die Messdatenkorrelationseinheit 28a ist ein Beispiel für die Messdatenkorrelationseinheit 28 von 3.
  • In der Ausführungsform von 4 geben die ersten Radarmessdaten ferner eine erste Radialgeschwindigkeit des Ziels an, und die zweiten Radarmessdaten geben ferner eine zweite Radialgeschwindigkeit des Ziels an.
  • Darüber hinaus werden in der Ausführungsform von 4 die ersten Radarmessdaten und die zweiten Radarmessdaten durch denselben Radarsensor 4 (der Radarsensor 4 von 1) erfasst, der an der mobilen Plattform angeordnet ist, in der die Schaltungsanordnung 20 von 3 bereitgestellt ist. Somit sind in der Ausführungsform von 4 der erste lokale Azimutwinkel und der zweite lokale Azimutwinkel des Ziels parallel zueinander orientiert.
  • Der Radarsensor 4 erfasst die ersten Radarmessdaten und die zweiten Radarmessdaten zu unterschiedlichen Zeitpunkten, während sich die mobile Plattform durch eine Umgebung bewegt. Daher werden in der Ausführungsform von 4 die ersten Radarmessdaten und die zweiten Radarmessdaten aus unterschiedlichen Positionen in der Umgebung erfasst, und die erste Radialgeschwindigkeit und die zweite Radialgeschwindigkeit entsprechen einer Geschwindigkeit der mobilen Plattform, mit der sich die mobile Plattform in der Umgebung bewegt. Hier wird angenommen, dass das Ziel ein stationäres Ziel ist, d. h. das Ziel hat eine feste Position in der Umgebung.
  • Die Messdatenkorrelationseinheit 28a beinhaltet eine Geschwindigkeitskorrelationseinheit 29. Die Geschwindigkeitskorrelationseinheit 29 korreliert die erste Radialgeschwindigkeit mit der zweiten Radialgeschwindigkeit, sodass die Ambiguitätskompensationseinheit 26 die Ambiguität des globalen Azimutwinkels und des globalen Höhenwinkels des Ziels basierend auf dem Korrelieren der ersten und zweiten Radialgeschwindigkeit kompensieren kann, wodurch ein eindeutiger globaler Azimutwinkel und ein eindeutiger globaler Höhenwinkel des Ziels bestimmt werden, wie oben für den Einzelsensoralgorithmus 2 von 1 beschrieben.
  • 5 veranschaulicht ein Blockdiagramm einer Messdatenkorrelationseinheit 28b für einen Einzelnetzwerkalgorithmus gemäß einer Ausführungsform, wie etwa den Einzelnetzwerkalgorithmus 3 von 1. Die Messdatenkorrelationseinheit 28b ist ein Beispiel für die Messdatenkorrelationseinheit 28 von 3.
  • In der Ausführungsform von 5 werden die ersten Radarmessdaten durch einen ersten Radarsensor 7 (der Radarsensor 7 von 1) erfasst, und die zweiten Radarmessdaten werden durch einen zweiten Radarsensor 8 (der Radarsensor 8 von 1) erfasst. Der erste Radarsensor 7 und der zweite Radarsensor 8 sind um ihre optischen Achsen um 90° gegeneinander gedreht. Dementsprechend sind in der Ausführungsform von 5 eine Rotationsachse des ersten lokalen Azimutwinkels und eine Rotationsachse des zweiten lokalen Azimutwinkels senkrecht zueinander orientiert, und sind somit in unterschiedliche Richtungen orientiert, und der erste Radarsensor 7 und der zweite Radarsensor 8 sind gemäß der Orientierungsdifferenz zwischen der Rotationsachse des ersten lokalen Azimutwinkels und der Rotationsachse des zweiten lokalen Azimutwinkels gegeneinander gedreht.
  • Die Messdatenkorrelationseinheit 28b beinhaltet eine Überschneidungsbestimmungseinheit 30, die einen Schnittpunkt zwischen einer ersten mehrdeutigen Position, die durch die ersten Radarmessdaten angegeben wird, und einer zweiten mehrdeutigen Position, die durch die zweiten Radarmessdaten angegeben wird, bestimmt. Die erste mehrdeutige Position und die zweite mehrdeutige Position entsprechen der ersten mehrdeutigen Position 13 bzw. der zweiten mehrdeutigen Position 14 von 2.
  • Die Überschneidungsbestimmungseinheit 30 beinhaltet eine Überlappungsbestimmungseinheit 31, die eine Überlappung zwischen der ersten mehrdeutigen Position und der zweiten mehrdeutigen Position bestimmt, wie oben mit Bezug auf 2 beschrieben.
  • Die Überlappungsbestimmungseinheit 31 beinhaltet eine Wahrscheinlichkeitsassoziationseinheit 32 und eine Identifikationseinheit 33.
  • Die Wahrscheinlichkeitsassoziationseinheit 32 assoziiert, basierend auf Gleichung (1), Zellen einer Gitterkarte, die der ersten mehrdeutigen Position entsprechen, mit einer Wahrscheinlichkeit, die ein Ziel angibt. Dann assoziiert die Wahrscheinlichkeitsassoziationseinheit 32, basierend auf Gleichung (1), Zellen der Gitterkarte, die der zweiten mehrdeutigen Position entsprechen, mit der Wahrscheinlichkeit, die ein Ziel angibt. Somit wird eine Zelle in der Gitterkarte, die einer Überlappung der ersten und zweiten mehrdeutigen Position entspricht, zweimal mit der Wahrscheinlichkeit assoziiert, die ein Ziel angibt, und weist dementsprechend eine höhere assoziierte Wahrscheinlichkeit als Zellen der Gitterkarte auf, die nicht einer Überlappung der ersten und zweiten mehrdeutigen Position entsprechen.
  • Die Gitterkarte und die assoziierten Wahrscheinlichkeiten werden in der Speichereinheit 22 von 3 gespeichert, und die Wahrscheinlichkeitsassoziationseinheit 32 erhält die assoziierten Wahrscheinlichkeiten aus und speichert diese in der Speichereinheit 22 nach Bedarf.
  • Die Identifikationseinheit 33 identifiziert, basierend auf den assoziierten Wahrscheinlichkeiten, eine Zelle der Gitterkarte, die sowohl der ersten mehrdeutigen Position als auch der zweiten mehrdeutigen Position entspricht. Für das Identifizieren erhält die Identifikationseinheit 33 die mit den Zellen der Gitterkarte assoziierten Wahrscheinlichkeiten aus der Speichereinheit 22, bestimmt eine Zelle, die mit einer höchsten Wahrscheinlichkeit assoziiert ist, unter den Zellen der Gitterkarte und bestimmt eine Position, die der mit der höchsten Wahrscheinlichkeit assoziierten Zelle entspricht, als eine eindeutige Position des Ziels. Die eindeutige Position des Ziels beinhaltet den eindeutigen globalen Azimutwinkel und den eindeutigen globalen Höhenwinkel des Ziels.
  • Es ist anzumerken, dass die Teilung der Überlappungsbestimmungseinheit 31 in die Wahrscheinlichkeitsassoziationseinheit 32 und die Identifikationseinheit 33 in 5 nur für Veranschaulichungszwecke bereitgestellt ist, ohne die Offenbarung darauf zu beschränken. Beispielsweise werden in einigen Ausführungsformen die Wahrscheinlichkeitsassoziationseinheit 32 und die Identifikationseinheit 33 durch eine einzige Einheit repräsentiert.
  • Es ist auch anzumerken, dass in einigen Ausführungsformen die Überlappungsbestimmungseinheit 31 nicht die Wahrscheinlichkeitsassoziationseinheit 32 und die Identifikationseinheit 33 beinhaltet, und die Überschneidungsbestimmungseinheit 30 den Schnittpunkt der ersten und zweiten mehrdeutigen Position bestimmt, ohne den Zellen einer Gitterkarte Wahrscheinlichkeiten zuzuweisen, sondern z. B. basierend auf einem Optimierungsproblem zum Bestimmen einer Position, die einen minimalen Abstand von sowohl der ersten als auch der zweiten mehrdeutigen Position aufweist, was z. B. auf einem Least-Squares-Algorithmus basieren kann.
  • 6 veranschaulicht ein Flussdiagramm eines Verfahrens 40 gemäß einer Ausführungsform. Das Verfahren 40 ist ein Beispiel für ein Verfahren, das durch die Schaltungsanordnung 20 von 3 ausgeführt wird.
  • Bei S41 erhält das Verfahren 40 erste Radarmessdaten. Das Erhalten der ersten Radarmessdaten bei S41 wird durch die erste Messdatenerhalteeinheit 24 von 3 durchgeführt. Zum Erhalten der ersten Radarmessdaten werden die ersten Radarmessdaten von einem Chirp-Sequenz-Radarsensor empfangen, der die ersten Radarmessdaten erfasst. Die ersten Radarmessdaten geben eine erste Entfernung eines Ziels und einen ersten lokalen Azimutwinkel des Ziels an.
  • Bei S42 erhält das Verfahren 40 zweite Messdaten. Das Erhalten der zweiten Radarmessdaten bei S42 wird durch die zweite Messdatenerhalteeinheit 25 von 3 durchgeführt, und ist ähnlich zu dem Erhalten der ersten Messdaten bei S41 konfiguriert. Somit werden zum Erhalten der zweiten Radarmessdaten die zweiten Radarmessdaten von einem Chirp-Sequenz-Radarsensor empfangen, der die zweiten Radarmessdaten erfasst. Die zweiten Radarmessdaten geben eine zweite Entfernung des Ziels und einen zweiten lokalen Azimutwinkel des Ziels an.
  • Bei S43 kompensiert das Verfahren 40 eine Ambiguität zwischen einem globalen Azimutwinkel des Ziels und einem globalen Höhenwinkel des Ziels. Das Kompensieren der Ambiguität zwischen dem globalen Azimutwinkel und dem globalen Höhenwinkel bei S43 wird durch die Ambiguitätskompensationseinheit 26 von 3 durchgeführt und basiert auf einer Beziehung zwischen dem globalen Azimutwinkel und dem globalen Höhenwinkel des Ziels. Die Beziehung zwischen dem globalen Azimutwinkel und dem globalen Höhenwinkel wird durch die ersten Radarmessdaten und die zweiten Radarmessdaten repräsentiert.
  • Das Kompensieren der Ambiguität bei S43 beinhaltet das Korrelieren von Messdaten bei S44. Das Korrelieren von Messdaten bei S44 wird durch die Messdatenkorrelationseinheit 28 von 3 durchgeführt und korreliert die ersten Radarmessdaten mit den zweiten Radarmessdaten. Infolge des Korrelierens bei S44 werden ein eindeutiger globaler Azimutwinkel des Ziels und ein eindeutiger globaler Höhenwinkel des Ziels erhalten. Das Korrelieren von Messdaten bei S44 wird unten mit Bezugnahme auf 7 und 8 ausführlicher beschrieben.
  • Bei S45 schätzt das Verfahren 40 eine 3D-Position des Ziels basierend auf dem (eindeutigen) globalen Azimutwinkel des Ziels, auf dem (eindeutigen) globalen Höhenwinkel des Ziels und auf den ersten und zweiten Radarmessdaten. Das Schätzen der 3D-Position bei S45 wird durch die Positionsschätzeinheit 27 von 3 durchgeführt.
  • Obwohl in einigen Ausführungsformen die 3D-Position des Ziels basierend auf nur einer der ersten Entfernung und der zweiten Entfernung des Ziels bestimmt werden kann, schätzt das Schätzen der 3D-Position bei S45 in der Ausführungsform von 6 eine erste 3D-Position des Ziels basierend auf der ersten Entfernung des Ziels, schätzt eine zweite 3D-Position des Ziels basierend auf der zweiten Entfernung des Ziels und schätzt die 3D-Position des Ziels als einen Durchschnitt der ersten 3D-Position und der zweiten 3D-Position für eine robustere Schätzung der 3D-Position des Ziels.
  • Das Verfahren 40 schätzt bei S45, als die erste (bzw. zweite) 3D-Position des Ziels, eine Position, die in einer horizontalen Richtung, die dem eindeutigen globalen Azimutwinkel entspricht, und in einer vertikalen Richtung, die dem eindeutigen globalen Höhenwinkel entspricht, um einen Abstand beabstandet ist, der der ersten (zweiten) Entfernung des Ziels von einer Position entspricht, an der sich der jeweilige Radarsensor, der die ersten (zweiten) Radarmessdaten erfasst hat (ein jeweiliges reflektiertes Radarsignal empfangen hat), befand, als das jeweilige reflektierte Radarsignal empfangen wurde.
  • Das Verfahren 40 schätzt dann bei S45 die 3D-Position des Ziels als den Durchschnitt der ersten 3D-Position und der zweiten 3D-Position des Ziels.
  • Es wird angemerkt, dass das Verfahren 40 in S41 bis S45 jeweils nur für Veranschaulichungszwecke aufgeteilt ist, und eine Reihenfolge von einigen oder allen von S41 bis S45 sich in einigen Ausführungsformen von der Reihenfolge von 6 unterscheidet. Beispielsweise wird in einigen Ausführungsformen das Erhalten erster Messdaten bei S41 nach oder gleichzeitig mit dem Erhalten zweiter Messdaten bei S42 durchgeführt. Beispielsweise werden in einigen Ausführungsformen das Kompensieren der Ambiguität bei S43 und das Schätzen der 3D-Position bei S45 synchron oder in einem selben Schritt durchgeführt.
  • 7 veranschaulicht ein Flussdiagramm zum Korrelieren von Messdaten in einem Einzelsensoralgorithmus gemäß einer Ausführungsform, wie etwa dem Einzelsensoralgorithmus 2 von 1. Das Korrelieren von Messdaten bei S44a ist ein Beispiel für das Korrelieren von Messdaten bei S44 von 6 und wird durch die Messdatenkorrelationseinheit 28a von 4 durchgeführt.
  • In der Ausführungsform von 7 geben die ersten Radarmessdaten ferner eine erste Radialgeschwindigkeit des Ziels an, und die zweiten Radarmessdaten geben ferner eine zweite Radialgeschwindigkeit des Ziels an.
  • Darüber hinaus werden in der Ausführungsform von 7 die ersten Radarmessdaten und die zweiten Radarmessdaten durch denselben Radarsensor 4 (der Radarsensor 4 von 1) erfasst, der an einer mobilen Plattform angeordnet ist. Somit sind in der Ausführungsform von 7 der erste lokale Azimutwinkel und der zweite lokale Azimutwinkel des Ziels parallel zueinander orientiert.
  • Der Radarsensor 4 erfasst die ersten Radarmessdaten und die zweiten Radarmessdaten zu unterschiedlichen Zeitpunkten, während sich die mobile Plattform durch eine Umgebung bewegt. Daher werden in der Ausführungsform von 7 die ersten Radarmessdaten und die zweiten Radarmessdaten aus unterschiedlichen Positionen in der Umgebung erfasst, und die erste Radialgeschwindigkeit und die zweite Radialgeschwindigkeit entsprechen einer Geschwindigkeit der mobilen Plattform, mit der sich die mobile Plattform in der Umgebung bewegt. Hier wird angenommen, dass das Ziel ein stationäres Ziel ist, d. h. das Ziel hat eine feste Position in der Umgebung.
  • Das Korrelieren von Messdaten bei S44a beinhaltet das Korrelieren von Geschwindigkeiten bei S46. Das Korrelieren von Geschwindigkeiten bei S46 wird durch die Geschwindigkeitskorrelationseinheit 29 von 4 durchgeführt und korreliert die erste Radialgeschwindigkeit mit der zweiten Radialgeschwindigkeit, sodass das Kompensieren der Ambiguität bei S43 die Ambiguität des globalen Azimutwinkels und des globalen Höhenwinkels des Ziels basierend auf dem Korrelieren der ersten und zweiten Radialgeschwindigkeit kompensieren kann, wodurch ein eindeutiger globaler Azimutwinkel und ein eindeutiger globaler Höhenwinkel des Ziels bestimmt werden, wie oben für den Einzelsensoralgorithmus 2 von 1 beschrieben.
  • 8 veranschaulicht ein Flussdiagramm zum Korrelieren von Messdaten in einem Einzelnetzwerkalgorithmus gemäß einer Ausführungsform, wie etwa dem Einzelnetzwerkalgorithmus 3 von 1. Das Korrelieren von Messdaten bei S44b ist ein Beispiel für das Korrelieren von Messdaten bei S44 von 6 und wird durch die Messdatenkorrelationseinheit 28b von 5 durchgeführt.
  • In der Ausführungsform von 8 werden die ersten Radarmessdaten durch einen ersten Radarsensor 7 (der Radarsensor 7 von 1) erfasst, und die zweiten Radarmessdaten werden durch einen zweiten Radarsensor 8 (der Radarsensor 8 von 1) erfasst. Der erste Radarsensor 7 und der zweite Radarsensor 8 sind um ihre optischen Achsen um 90° gegeneinander gedreht. Dementsprechend sind in der Ausführungsform von 8 eine Rotationsachse des ersten lokalen Azimutwinkels und eine Rotationsachse des zweiten lokalen Azimutwinkels senkrecht zueinander orientiert, und sind somit in unterschiedliche Richtungen orientiert, und der erste Radarsensor 7 und der zweite Radarsensor 8 sind gemäß der Orientierungsdifferenz zwischen der Rotationsachse des ersten lokalen Azimutwinkels und der Rotationsachse des zweiten lokalen Azimutwinkels gegeneinander gedreht.
  • Das Korrelieren von Messdaten bei S44b beinhaltet das Bestimmen einer Überschneidung bei S47, die durch die Überschneidungsbestimmungseinheit 30 von 5 durchgeführt wird und einen Schnittpunkt zwischen einer ersten mehrdeutigen Position, die durch die ersten Radarmessdaten angegeben wird, und einer zweiten mehrdeutigen Position, die durch die zweiten Radarmessdaten angegeben wird, bestimmt. Die erste mehrdeutige Position und die zweite mehrdeutige Position entsprechen der ersten mehrdeutigen Position 13 bzw. der zweiten mehrdeutigen Position 14 von 2.
  • Das Bestimmen einer Überschneidung bei S47 beinhaltet das Bestimmen einer Überlappung bei S48, das durch die Überlappungsbestimmungseinheit 31 von 5 durchgeführt wird und eine Überlappung zwischen der ersten mehrdeutigen Position und der zweiten mehrdeutigen Position bestimmt, wie oben mit Bezug auf 2 beschrieben.
  • Das Bestimmen einer Überlappung bei S48 beinhaltet das Assoziieren von Wahrscheinlichkeiten bei S49 und das Identifizieren bei S50.
  • Das Assoziieren von Wahrscheinlichkeiten bei S49 wird durch die Wahrscheinlichkeitsassoziationseinheit 32 von 5 durchgeführt und assoziiert, basierend auf Gleichung (1), Zellen einer Gitterkarte, die der ersten mehrdeutigen Position entsprechen, mit einer Wahrscheinlichkeit, die ein Ziel angibt. Dann assoziiert das Assoziieren von Wahrscheinlichkeiten bei S49, basierend auf Gleichung (1), Zellen der Gitterkarte, die der zweiten mehrdeutigen Position entsprechen, mit der Wahrscheinlichkeit, die ein Ziel angibt. Somit wird eine Zelle in der Gitterkarte, die einer Überlappung der ersten und zweiten mehrdeutigen Position entspricht, zweimal mit der Wahrscheinlichkeit assoziiert, die ein Ziel angibt, und weist dementsprechend eine höhere assoziierte Wahrscheinlichkeit als Zellen der Gitterkarte auf, die nicht einer Überlappung der ersten und zweiten mehrdeutigen Position entsprechen.
  • Das Identifizieren bei S50 wird durch die Identifikationseinheit 33 von 5 durchgeführt und identifiziert, basierend auf den assoziierten Wahrscheinlichkeiten, eine Zelle der Gitterkarte, die sowohl der ersten mehrdeutigen Position als auch der zweiten mehrdeutigen Position entspricht. Das Identifizieren bei S50 bestimmt eine Zelle, die mit einer höchsten Wahrscheinlichkeit assoziiert ist, unter den Zellen der Gitterkarte und bestimmt eine Position, die der mit der höchsten Wahrscheinlichkeit assoziierten Zelle entspricht, als eine eindeutige Position des Ziels. Die eindeutige Position des Ziels beinhaltet den eindeutigen globalen Azimutwinkel und den eindeutigen globalen Höhenwinkel des Ziels.
  • Es ist anzumerken, dass die Aufteilung des Bestimmens einer Überlappung bei S48 in das Assoziieren von Wahrscheinlichkeiten bei S49 und das Identifizieren bei S50 in 8 nur für Veranschaulichungszwecke bereitgestellt ist, ohne die Offenbarung darauf zu beschränken. Beispielsweise werden in einigen Ausführungsformen das Assoziieren von Wahrscheinlichkeiten bei S49 und das Identifizieren bei S50 durch einen einzigen Schritt repräsentiert.
  • Es ist auch anzumerken, dass in einigen Ausführungsformen das Bestimmen einer Überlappung bei S48 nicht das Assoziieren von Wahrscheinlichkeiten bei S49 und das Identifizieren bei S50 beinhaltet, und das Bestimmen einer Überschneidung bei S47 den Schnittpunkt der ersten und zweiten mehrdeutigen Position bestimmt, ohne den Zellen einer Gitterkarte Wahrscheinlichkeiten zuzuweisen, sondern z. B. basierend auf einem Optimierungsproblem zum Bestimmen einer Position, die einen minimalen Abstand von sowohl der ersten als auch der zweiten mehrdeutigen Position aufweist, was z. B. auf einem Least-Squares-Algorithmus basieren kann.
  • Wie oben beschrieben, kann in einigen Ausführungsformen eine 3D-Radar-basierte Abbildung einer Umgebung basierend auf verteilten 2D-Schätzungs-Radarsensoren (nur x- und y-Position) durchgeführt werden. In einigen Ausführungsformen müssen mindestens zwei Sensoren mit unterschiedlicher x-Orientierung ein identisches Ziel detektieren, oder falls nur ein Radarsensor verwendet wird, dann muss auch eine Geschwindigkeit einer mobilen Plattform bekannt sein, an der der Radarsensor bereitgestellt ist.
  • Somit kann in einigen Ausführungsformen eine zusätzliche Dimension geschätzt werden, als theoretisch mit einem einzelnen Radarsensor in einer einzelnen Messung möglich ist. Darüber hinaus kann in einigen Ausführungsformen die vorliegende Technologie ohne Einschränkungen bezüglich eines Radarsensors und Radarsystemcharakteristiken angewendet werden, sobald zumindest ein lokaler Azimutwinkel und Entfernungsinformationen bestimmt werden können.
  • In einigen Ausführungsformen werden Hardwareanforderungen erheblich reduziert. In einigen Fällen erfordert eine zuvor bekannte Erzeugung von 3D-Umgebungskarten Radarsensoren, die Ziele im 3D-Raum detektieren und lokalisieren können.
  • Mithilfe der vorliegenden Technologie sind in einigen Ausführungsformen jedoch Radarsensoren, die Ziele im 3D-Raum detektieren und lokalisieren können, nicht mehr erforderlich. In einigen Ausführungsformen reichen sowohl ein 2D-Schätzungs-Radarsensor in Kombination mit einer Geschwindigkeit einer mobilen Plattform als auch zwei Radarsensoren, die nur Ziele in einer xy-Ebene (aber nicht einer z-Komponente) schätzen können und die um eine x-Achse (z. B. optische Achse) gegeneinander gedreht sind, aus, um Ziele im 3D-Raum zu lokalisieren. Einige Ausführungsformen ermöglichen daher das Auswählen, für die 3D-Positionsschätzung, von viel kostengünstigeren und gebrauchsfertigen bestehenden Radarsensoren, die zuvor bekannt waren, ohne speziellen Hardwareanforderungen entsprechen zu müssen.
  • In einigen Ausführungsformen kann eine Schaltungsanordnung/ein Verfahren/ ein Algorithmus, die/der durch die vorliegende Technologie bereitgestellt ist, modular sein, sodass mehrere Radarsensoren verwendet werden könne, um die Ergebnisse einer 3D-Positionsschätzung weiter zu verbessern.
  • Im Folgenden sind Beispiele für Anwendungen der vorliegenden Technologie gegeben.
  • Die Technologie gemäß einer Ausführungsform der vorliegenden Offenbarung ist auf verschiedene Produkte anwendbar. Beispielsweise kann die Technologie gemäß einer Ausführungsform der vorliegenden Offenbarung als eine Vorrichtung implementiert werden, die in einem mobilen Körper einer beliebigen Art von Kraftfahrzeugen, elektrischen Fahrzeugen, hybriden elektrischen Fahrzeugen, Motorrädern, Fahrrädern, persönlichen Mobilitätsfahrzeugen, Flugzeugen, Drohnen, Schiffen, Robotern, Baumaschinen, landwirtschaftlichen Maschinen (Traktoren) und dergleichen enthalten ist.
  • 9 ist ein Blockdiagramm, das ein Beispiel einer schematischen Konfiguration eines Fahrzeugsteuersystems 7000 als ein Beispiel für ein Steuersystem eines mobilen Körpers darstellt, an dem die Technologie gemäß einer Ausführungsform der vorliegenden Offenbarung angewendet werden kann. Das Fahrzeugsteuersystem 7000 beinhaltet mehrere elektronische Steuereinheiten, die über ein Kommunikationsnetzwerk 7010 miteinander verbunden sind. In dem in 9 dargestellten Beispiel beinhaltet das Fahrzeugsteuersystem 7000 eine Antriebssystemsteuereinheit 7100, eine Karosseriesystemsteuereinheit 7200, eine Batteriesteuereinheit 7300, eine Fahrzeugaußeninformationen-Detektionseinheit 7400, eine Fahrzeuginneninformationen-Detektionseinheit 7500 und eine integrierte Steuereinheit 7600. Das Kommunikationsnetzwerk 7010, das die Vielzahl von Steuereinheiten miteinander verbindet, kann zum Beispiel ein fahrzeugmontiertes Kommunikationsnetzwerk sein, das mit einem beliebigen Standard übereinstimmt, wie etwa Controller Area Network (CAN), Local Interconnect Network (LIN), Local Area Network (LAN), FlexRay (eingetragenes Markenzeichen) oder dergleichen.
  • Jede der Steuereinheiten beinhaltet: einen Mikrocomputer, der eine arithmetische Verarbeitung gemäß verschiedenen Arten von Programmen durchführt; einen Speicherungsabschnitt, der die durch den Mikrocomputer ausgeführten Programme, für verschiedene Arten von Operationen verwendeten Parameter oder dergleichen speichert; und eine Antriebsschaltung, die verschiedene Arten von Steuerzielvorrichtungen antreibt. Jede der Steuereinheiten beinhaltet ferner: eine Netzwerkschnittstelle (SST) zum Durchführen einer Kommunikation mit anderen Steuereinheiten über das Kommunikationsnetzwerk 7010; und eine Kommunikations-SST zum Durchführen einer Kommunikation mit einer Vorrichtung, einem Sensor oder dergleichen innerhalb oder außerhalb des Fahrzeugs mittels Drahtkommunikation oder Funkkommunikation. Eine Funktionskonfigurationen der in 9 veranschaulichten integrierten Steuereinheit 7600 beinhaltet einen Mikrocomputer 7610, eine Allzweck-Kommunikations-SST 7620, eine dedizierte Kommunikations-SST 7630, einen Positionierungsabschnitt 7640, einen Beacon-Empfangsabschnitt 7650, eine Fahrzeuginterne-Vorrichtung-SST 7660, einen Ton-/Bildausgabeabschnitt 7670, eine Fahrzeugmontiertes-Netzwerk-SST 7680 und einen Speicherungsabschnitt 7690. Die anderen Steuereinheiten beinhalten gleichermaßen einen Mikrocomputer, eine Kommunikations-SST, einen Speicherungsabschnitt und dergleichen.
  • Die Antriebssystemsteuereinheit 7100 steuert die Operation von Vorrichtungen bezüglich des Antriebssystems des Fahrzeugs gemäß verschiedenen Arten von Programmen. Beispielsweise fungiert die Antriebssystemsteuereinheit 7100 als eine Steuervorrichtung für eine Antriebskrafterzeugungsvorrichtung zum Erzeugen der Antriebskraft des Fahrzeugs, wie etwa einen Verbrennungsmotor, einen Antriebsmotor oder dergleichen, ein Antriebskraftübertragungsmechanismus zum Übertragen der Antriebskraft auf Räder, ein Lenkmechanismus zum Anpassen des Lenkwinkels des Fahrzeugs, eine Bremsvorrichtung zum Erzeugen der Bremskraft des Fahrzeugs und dergleichen. Die Antriebssystemsteuereinheit 7100 kann eine Funktion als eine Steuervorrichtung eines Antiblockiersystems (ABS), einer elektronischen Stabilitätskontrolle (ESC) oder dergleichen aufweisen.
  • Die Antriebssystemsteuereinheit 7100 ist mit einem Fahrzeugzustand-Detektionsabschnitt 7110 verbunden. Der Fahrzeugzustand-Detektionsabschnitt 7110 beinhaltet zum Beispiel mindestens eines von einem Gyrosensor, der die Winkelgeschwindigkeit einer axialen Rotationsbewegung einer Fahrzeugkarosserie detektiert, einem Beschleunigungssensor, der die Beschleunigung des Fahrzeugs detektiert, und Sensoren zum Detektieren einer Betätigungsmenge eines Gaspedals, einer Betätigungsmenge eines Bremspedals, des Lenkwinkels eines Lenkrads, einer Motordrehzahl oder der Rotationsgeschwindigkeit von Rädern und dergleichen. Die Antriebssystemsteuereinheit 7100 führt eine arithmetische Verarbeitung unter Verwendung eines Signaleingangs von dem Fahrzeugzustand-Detektionsabschnitt 7110 durch und steuert den Verbrennungsmotor, den Antriebsmotor, eine elektrische Servolenkungsvorrichtung, die Bremsvorrichtung und dergleichen.
  • Die Karosseriesystemsteuereinheit 7200 steuert den Betrieb verschiedener Arten von Vorrichtungen, die der Fahrzeugkarosserie bereitgestellt sind, gemäß verschiedenen Arten von Programmen. Beispielsweise fungiert die Karosseriesystemsteuereinheit 7200 als eine Steuervorrichtung für ein schlüsselloses Zutrittssystem, ein Smart-Key-System, eine Fensterhebervorrichtung oder verschiedene Arten von Leuchten wie etwa ein Scheinwerfer, eine Rückfahrleuchte, eine Bremsleuchte, ein Blinker, eine Nebelleuchte oder dergleichen. In diesem Fall können Funkwellen, die von einer mobilen Vorrichtung als eine Alternative zu einem Schlüssel übertragen werden, oder Signale verschiedener Arten von Schaltern in die Karosseriesystemsteuereinheit 7200 eingegeben werden. Die Karosseriesystemsteuereinheit 7200 empfängt diese eingegebenen Funkwellen oder Signale und steuert eine Türverriegelungsvorrichtung, die Fensterhebervorrichtung, die Leuchten oder dergleichen des Fahrzeugs.
  • Die Batteriesteuereinheit 7300 gesteuert eine Sekundärbatterie 7310, die eine Leistungsversorgungsquelle für den Antriebsmotor ist, gemäß verschiedenen Arten von Programmen. Beispielsweise wird die Batteriesteuereinheit 7300 mit Informationen über eine Batterietemperatur, eine Batterieausgangsspannung, eine Ladungsmenge, die in der Batterie verbleibt, oder dergleichen von einer Batterievorrichtung versorgt, die in der Sekundärbatterie 7310 enthalten ist. Die Batteriesteuereinheit 7300 führt eine arithmetische Verarbeitung unter Verwendung dieser Signale durch und führt eine Steuerung zum Regeln der Temperatur der Sekundärbatterie 7310 durch und steuert eine Kühlvorrichtung, die der Batterievorrichtung bereitgestellt ist, oder dergleichen.
  • Die Fahrzeugaußeninformationen-Detektionseinheit 7400 detektiert Informationen über die Außenseite des Fahrzeugs, das das Fahrzeugsteuersystem 7000 beinhaltet. Beispielsweise ist die Fahrzeugaußeninformationen-Detektionseinheit 7400 mit mindestens einem von einem Bildgebungsabschnitt 7410 und einem Fahrzeugaußeninformationen-Detektionsabschnitt 7420 verbunden. Der Bildgebungsabschnitt 7410 beinhaltet mindestens eines von einer Laufzeit(ToF)-Kamera, einer Stereokamera, einer Monokularkamera, einer Infrarotkamera und anderen Kameras. Der Fahrzeugaußeninformationen-Detektionsabschnitt 7420 beinhaltet zum Beispiel mindestens eines von einem Umgebungssensor zum Detektieren von aktuellen atmosphärischen Bedingungen oder Wetterbedingungen und einem Peripherieinformationen-Detektionssensor zum Detektieren eines anderen Fahrzeugs, eines Hindernisses, eines Fußgängers oder dergleichen in der Peripherie des Fahrzeugs, das das Fahrzeugsteuersystem 7000 beinhaltet.
  • Der Umgebungssensor kann zum Beispiel mindestens eines von einem Regentropfensensor, der Regen detektiert, einem Nebelsensor, der Nebel detektiert, einem Sonnenscheinsensor, der einen Grad an Sonnenschein detektiert, und einem Schneesensor, der Schneefall detektiert, sein. Der Peripherieinformationen-Detektionssensor kann mindestens eines von einem Ultraschallsensor, einer Radarvorrichtung und einer LIDAR-Vorrichtung (Lichtdetektions- und -entfernungsmessungsvorrichtung der Laserbildgebungsdetektions- und -entfernungsmessungsvorrichtung) sein. Sowohl der Bildgebungsabschnitt 7410 als auch der Fahrzeugaußeninformationen-Detektionsabschnitt 7420 kann als ein unabhängiger Sensor oder eine unabhängige Vorrichtung bereitgestellt sein oder kann als eine Vorrichtung bereitgestellt sein, in der eine Vielzahl von Sensoren oder Vorrichtungen integriert ist.
  • 10 stellt ein Beispiel für Installationspositionen des Bildgebungsabschnitts 7410 und des Fahrzeugaußeninformationen-Detektionsabschnitts 7420 dar. Die Bildgebungsabschnitte 7910, 7912, 7914, 7916 und 7918 sind zum Beispiel an mindestens einer von Positionen an einer Frontnase, Seitenspiegeln, einer hinteren Stoßstange, einer hinteren Tür des Fahrzeugs 7900 und einer Position an einem oberen Teil einer Windschutzscheibe im Innenraum des Fahrzeugs angeordnet. Der Bildgebungsabschnitt 7910, der an der Frontnase bereitgestellt ist, und der Bildgebungsabschnitt 7918, der am oberen Teil der Windschutzscheibe innerhalb des Innenraums des Fahrzeugs bereitgestellt ist, erhalten hauptsächlich ein Bild der Vorderseite des Fahrzeugs 7900. Die Bildgebungsabschnitte 7912 und 7914, die an den Seitenspiegeln bereitgestellt sind, erhalten hauptsächlich ein Bild der Seiten des Fahrzeugs 7900. Der Bildgebungsabschnitt 7916, der an der hinteren Stoßstange oder der hinteren Tür bereitgestellt ist, erhält hauptsächlich ein Bild der Rückseite des Fahrzeugs 7900. Der Bildgebungsabschnitt 7918, der am oberen Teil der Windschutzscheibe innerhalb des Innenraums des Fahrzeugs bereitgestellt ist, wird hauptsächlich verwendet, um ein vorausfahrendes Fahrzeug, einen Fußgänger, ein Hindernis, ein Signal, ein Verkehrsschild, eine Spur oder dergleichen zu detektieren.
  • Im Übrigen stellt 10 ein Beispiel für Aufnahmebereiche der jeweiligen Bildgebungsabschnitte 7910, 7912, 7914 und 7916 dar. Ein Bildgebungsbereich a repräsentiert den Bildgebungsbereich des Bildgebungsabschnitts 7910, der an der Frontnase bereitgestellt ist. Bildgebungsbereiche b und c repräsentieren die Bildgebungsbereiche der Bildgebungsabschnitte 7912 bzw. 7914, die an den Seitenspiegeln bereitgestellt sind. Ein Bildgebungsbereich d repräsentiert den Bildgebungsbereich des Bildgebungsabschnitts 7916, der an der hinteren Stoßstange oder der hinteren Tür bereitgestellt ist. Ein Vogelperspektivenbild des Fahrzeugs 7900, wie von oben aus betrachtet, kann durch Überlagern von Bilddaten erhalten werden, die zum Beispiel durch die Bildgebungsabschnitte 7910, 7912, 7914 und 7916 bildlich erfasst werden.
  • Fahrzeugaußeninformationen-Detektionsabschnitte 7920, 7922, 7924 7926, 7928 und 7930, die an der Vorderseite, der Hinterseite, den Seiten und den Ecken des Fahrzeugs 7900 und dem oberen Teil der Windschutzscheibe im Innenraum des Fahrzeugs bereitgestellt sind, können zum Beispiel ein Ultraschallsensor oder eine Radarvorrichtung sein. Die Fahrzeugaußeninformationen-Detektionsabschnitte 7920, 7926 und 7930, die an der Frontnase des Fahrzeugs 7900, der hinteren Stoßstange, der hinteren Tür des Fahrzeugs 7900 und dem oberen Abschnitt der Windschutzscheibe im Innenraum des Fahrzeugs bereitgestellt sind, können zum Beispiel eine LIDAR-Vorrichtung sein. Diese Fahrzeugaußeninformationen-Detektionsabschnitte 7920 bis 7930 werden hauptsächlich zum Detektieren eines vorausfahrenden Fahrzeugs, eines Fußgängers, eines Hindernisses oder dergleichen verwendet.
  • Erneut mit Bezug auf 9 wird die Beschreibung fortgesetzt. Die Fahrzeugaußeninformationen-Detektionseinheit 7400 veranlasst, dass der Bildgebungsabschnitt 7410 ein Bild der Außenseite des Fahrzeugs bildlich erfasst, und empfängt bildlich erfasste Bilddaten. Zusätzlich empfängt die Fahrzeugaußeninformationen-Detektionseinheit 7400 Detektionsinformationen von dem Fahrzeugaußeninformationen-Detektionsabschnitt 7420, der mit der Fahrzeugaußeninformationen-Detektionseinheit 7400 verbunden ist. In einem Fall, bei dem der Fahrzeugaußeninformationen-Detektionsabschnitt 7420 ein Ultraschallsensor, eine Radarvorrichtung oder eine LIDAR-Vorrichtung ist, überträgt die Fahrzeugaußeninformationen-Detektionseinheit 7400 eine Ultraschallwelle, eine elektromagnetische Welle oder dergleichen und empfängt Informationen einer empfangenen reflektierten Welle. Auf Basis der empfangenen Informationen kann die Fahrzeugaußeninformationen-Detektionseinheit 7400 eine Verarbeitung zum Detektieren eines Objekts wie etwa eines Menschen, eines Fahrzeugs, eines Hindernisses, eines Schildes, eines Zeichens auf einer Straßenoberfläche oder dergleichen oder eine Verarbeitung zum Detektieren eines Abstands zu diesen durchführen. Die Fahrzeugaußeninformationen-Detektionseinheit 7400 kann eine Umgebungserkennungsverarbeitung zum Erkennen von Regen, Nebel, Straßenoberflächenbedingungen oder dergleichen auf Basis der empfangenen Informationen durchführen. Die Fahrzeugaußeninformationen-Detektionseinheit 7400 kann einen Abstand zu einem Objekt außerhalb des Fahrzeugs auf Basis der empfangenen Informationen berechnen.
  • Zusätzlich kann die Fahrzeugaußeninformationen-Detektionseinheit 7400 auf Basis der empfangenen Bilddaten eine Bilderkennungsverarbeitung zum Erkennen eines Menschen, eines Fahrzeugs, eines Hindernisses, eines Schildes, eines Zeichens auf einer Straßenoberfläche oder dergleichen oder eine Verarbeitung zum Detektieren eines Abstands zu diesen durchführen. Die Fahrzeugaußeninformationen-Detektionseinheit 7400 kann die empfangenen Bilddaten einer Verarbeitung unterziehen, wie etwa Verzerrungskorrektur, Abgleich oder dergleichen, und die durch eine Vielzahl von unterschiedlichen Bildgebungsabschnitten 7410 bildlich erfassten Bilddaten kombinieren, um ein Vogelperspektivenbild oder ein Panoramabild zu erzeugen. Die Fahrzeugaußeninformationen-Detektionseinheit 7400 kann eine Blickpunktumwandlungsverarbeitung unter Verwendung der Bilddaten durchführen, die durch den Bildgebungsabschnitt 7410, einschließlich der unterschiedlichen Bildgebungsteile, bildlich erfasst werden.
  • Die Fahrzeuginneninformationen-Detektionseinheit 7500 detektiert Informationen über den Innenraum des Fahrzeugs. Die Fahrzeuginneninformationen-Detektionseinheit 7500 ist zum Beispiel mit einem Fahrerzustand-Detektionsabschnitt 7510 verbunden, der den Zustand eines Fahrers detektiert. Der Fahrerzustand-Detektionsabschnitt 7510 kann eine Kamera, die den Fahrer bildlich erfasst, einen Biosensor, der biologische Informationen des Fahrers detektiert, ein Mikrofon, das Ton im Innenraum des Fahrzeugs sammelt, oder dergleichen beinhalten. Der Biosensor ist zum Beispiel in einer Sitzoberfläche, im Lenkrad oder dergleichen angeordnet und detektiert biologische Informationen eines Insassen, der in einem Sitz sitzt, oder des Fahrers, der das Lenkrad hält. Auf Basis von Detektionsinformationen, die vom Fahrerzustand-Detektionsabschnitt 7510 eingegeben werden, kann die Fahrzeuginneninformationen-Detektionseinheit 7500 eine Ermüdung des Fahrers oder einen Konzentrationsgrad des Fahrers berechnen oder kann bestimmen, ob der Fahrer döst. Die Fahrzeuginneninformationen-Detektionseinheit 7500 kann ein Audiosignal, das durch die Sammlung von Ton erhalten wird, einer Verarbeitung wie etwa einer Geräuschunterdrückungsverarbeitung oder dergleichen unterziehen.
  • Die integrierte Steuereinheit 7600 steuert den allgemeinen Betrieb im Fahrzeugsteuersystem 7000 gemäß verschiedenen Arten von Programmen. Die integrierte Steuereinheit 7600 ist mit einem Eingabeabschnitt 7800 verbunden. Der Eingabeabschnitt 7800 wird durch eine Vorrichtung implementiert, die zur Eingabebedienung durch einen Insassen fähig ist, wie etwa zum Beispiel ein Touchpanel, eine Taste, ein Mikrofon, ein Schalter, ein Hebel oder dergleichen. Die integrierte Steuereinheit 7600 kann mit Daten versorgt werden, die durch eine Spracherkennung von mittels des Mikrofons eingegebener Sprache erhalten werden. Der Eingabeabschnitt 7800 kann zum Beispiel eine Fernsteuervorrichtung sein, die Infrarotstrahlen oder andere Funkwellen verwendet, oder kann eine externe Verbindungsvorrichtung sein, wie etwa ein Mobiltelefon, ein Personal Digital Assistant (PDA) oder dergleichen, die den Betrieb des Fahrzeugsteuersystems 7000 unterstützt. Der Eingabeabschnitt 7800 kann zum Beispiel eine Kamera sein. In diesem Fall kann ein Insasse Informationen durch eine Geste eingeben. Alternativ können Daten eingegeben werden, die durch die Detektion der Bewegung einer tragbaren Vorrichtung erhalten werden, die ein Insasse trägt. Ferner kann der Eingabeabschnitt 7800 zum Beispiel eine Eingabesteuerschaltung oder dergleichen beinhalten, die ein Eingabesignal auf Basis von Informationen erzeugt, die durch einen Insassen oder dergleichen unter Verwendung des oben beschriebenen Eingabeabschnitts 7800 eingegeben werden, und die das erzeugte Eingabesignal an die integrierte Steuereinheit 7600 ausgibt. Ein Insasse oder dergleichen gibt verschiedene Arten von Daten ein oder erstellt eine Anweisung für eine Verarbeitungsoperation an das Fahrzeugsteuersystem 7000 durch Bedienen des Eingabeabschnitts 7800.
  • Der Speicherungsabschnitt 7690 kann einen Nurlesespeicher (ROM), der verschiedene Arten von Programmen speichert, die durch den Mikrocomputer ausgeführt werden, und einen Direktzugriffsspeicher (RAM), der verschiedene Arten von Parametern, Operationsergebnissen, Sensorwerten oder dergleichen speichert, beinhalten. Zusätzlich kann der Speicherungsabschnitt 7690 durch eine magnetische Speicherungsvorrichtung, wie etwa eine Festplatte (HDD) oder dergleichen, eine Halbleiterspeicherungsvorrichtung, eine optische Speicherungsvorrichtung, eine magnetooptische Speicherungsvorrichtung oder dergleichen implementiert werden.
  • Die Allzweck-Kommunikations-SST 7620 ist eine Kommunikations-SST, die weitläufig verwendet wird, wobei die Kommunikations-SST eine Kommunikation mit verschiedenen Einrichtungen vermittelt, die in einer externen Umgebung 7750 vorhanden sind. Die Allzweck-Kommunikations-SST 7620 kann ein Zellularkommunikationsprotokoll, wie etwa GSM (Global System for Mobile Communications (eingetragenes Markenzeichen)), WiMAX (Worldwide Interoperability for Microwave Access (eingetragenes Markenzeichen)), LTE (Long Term Evolution (eingetragenes Markenzeichen)), LTE-Advanced (LTE-A) oder dergleichen, oder ein anderes Drahtloskommunikationsprotokoll wie etwa Wireless-LAN (auch als Wireless Fidelity (WiFi (eingetragenes Markenzeichen)) bezeichnet), Bluetooth (eingetragenes Markenzeichen) oder dergleichen implementieren. Die Allzweck-Kommunikations-SST 7620 kann sich zum Beispiel über eine Basisstation oder einen Zugangspunkt mit einer Vorrichtung (zum Beispiel einem Anwendungsserver oder einem Steuerserver) verbinden, die auf einem externen Netzwerk (zum Beispiel dem Internet, einem Cloud-Netzwerk oder einem unternehmensspezifischen Netzwerk) vorhanden ist. Zusätzlich kann sich die Allzweck-Kommunikations-SST 7620 mit einem Endgerät, das in der Nähe des Fahrzeugs vorhanden ist (wobei das Endgerät zum Beispiel ein Endgerät des Fahrers, eines Fußgängers oder eines Geschäfts oder ein Maschinentypkommunikation(MTC)-Endgerät ist), unter Verwendung zum Beispiel einer Peer-zu-Peer(P2P)-Technologie verbinden.
  • Die dedizierte Kommunikations-SST 7630 ist eine Kommunikations-SST, die ein Kommunikationsprotokoll unterstützt, das zur Verwendung in Fahrzeugen entwickelt wurde. Die dedizierte Kommunikations-SST 7630 kann ein Standardprotokoll implementieren, wie etwa zum Beispiel WAVE (Wireless Access in Vehicle Environment), was eine Kombination des Institute of Electrical and Electronic Engineers (IEEE) 802.11p als eine untere Schicht und des IEEE 1609 als eine höhere Schicht ist, dedizierte Kurzstreckenkommunikationen (DSRC) oder ein Zellularkommunikationsprotokoll. Die dedizierte Kommunikations-SST 7630 führt typischerweise eine V2X-Kommunikation als ein Konzept aus, einschließlich eines oder mehrerer von einer Kommunikation zwischen einem Fahrzeug und einem Fahrzeug (Fahrzeug-zu-Fahrzeug), einer Kommunikation zwischen einer Straße und einem Fahrzeug (Fahrzeug-zu-Infrastruktur), einer Kommunikation zwischen einem Fahrzeug und einem Haus (Fahrzeug-zu-Haus) und einer Kommunikation zwischen einem Fußgänger und einem Fahrzeug (Fahrzeug-zu-Fußgänger).
  • Der Positionierungsabschnitt 7640 führt zum Beispiel eine Positionierung durch Empfangen eines GNSS-Signals (GNSS: Global Navigation Satellite System - globales Satellitennavigationssystem) von einem GNSS-Satelliten (zum Beispiel ein GPS-Signal von einem GPS-Satelliten (GPS: Global Positioning System - globales Positionierungssystem)) durch und erzeugt Positionsinformationen einschließlich des Breitengrads, des Längengrads und der Höhenlage des Fahrzeugs. Im Übrigen kann der Positionierungsabschnitt 7640 eine aktuelle Position durch Austauschen von Signalen mit einem drahtlosen Zugangspunkt identifizieren oder kann die Positionsinformationen von einem Endgerät wie etwa einem Mobiltelefon, einem Personal Handyphone System (PHS) oder einem Smartphone erhalten, das eine Positionierungsfunktion aufweist.
  • Der Beacon-Empfangsabschnitt 7650 empfängt zum Beispiel eine Funkwelle oder eine elektromagnetische Welle, die von einer an einer Straße installierten Funkstation oder dergleichen übertragen wird, und erhält dadurch Informationen über die aktuelle Position, einen Stau, eine geschlossene Straße, eine notwendige Zeit oder dergleichen. Im Übrigen kann die Funktion des Beacon-Empfangsabschnitts 7650 in der oben beschriebenen dedizierten Kommunikations-SST 7630 eingeschlossen sein.
  • Die Fahrzeuginterne-Vorrichtung-SST 7660 ist eine Kommunikationsschnittstelle, die eine Verbindung zwischen dem Mikrocomputer 7610 und verschiedenen fahrzeuginternen Vorrichtungen 7760, die im Fahrzeug vorhanden sind, vermittelt. Die Fahrzeuginterne-Vorrichtung-SST 7660 kann eine drahtlose Verbindung unter Verwendung eines Drahtloskommunikationsprotokolls wie etwa Wireless-LAN, Bluetooth (eingetragenes Markenzeichen), Nahfeldkommunikation (NFC) oder WUSB (Wireless Universal Serial Bus) aufbauen. Zusätzlich kann die Fahrzeuginterne-Vorrichtung-SST 7660 eine drahtgebundene Verbindung mittels USB (Universal Serial Bus), HDMI (High-Definition Multimedia Interface (eingetragenes Markenzeichen)), MHL (Mobile High-Definition Link) oder dergleichen über ein Verbindungsterminal (und ein Kabel, falls notwendig), das in den Figuren nicht dargestellt ist, aufbauen. Die fahrzeuginternen Vorrichtungen 7760 können zum Beispiel mindestens eines von einer mobilen Vorrichtung und einer tragbaren Vorrichtung, die ein Insasse besitzt, und einer Informationsvorrichtung, die in das Fahrzeug getragen wird oder an dem Fahrzeug angebracht ist, beinhalten. Die fahrzeuginternen Vorrichtungen 7760 können auch eine Navigationsvorrichtung beinhalten, die nach einem Pfad zu einem beliebigen Bestimmungsort sucht. Die Fahrzeuginterne-Vorrichtung-SST 7660 tauscht Steuersignale oder Datensignale mit diesen fahrzeuginternen Vorrichtungen 7760 aus.
  • Die Fahrzeugmontiertes-Netzwerk-SST 7680 ist eine Schnittstelle, die eine Kommunikation zwischen dem Mikrocomputer 7610 und dem Kommunikationsnetzwerk 7010 vermittelt. Die Fahrzeugmontiertes-Netzwerk-SST 7680 überträgt und empfängt Signale oder dergleichen in Übereinstimmung mit einem vorbestimmten Protokoll, das durch das Kommunikationsnetzwerk 7010 unterstützt wird.
  • Der Mikrocomputer 7610 der integrierten Steuereinheit 7600 steuert das Fahrzeugsteuersystem 7000 gemäß verschiedenen Arten von Programmen auf Basis von Informationen, die über mindestens eines der Allzweck-Kommunikations-SST 7620, der dedizierten Kommunikations-SST 7630, des Positionierungsabschnitts 7640, des Beacon-Empfangsabschnitts 7650, der Fahrzeuginterne-Vorrichtung-SST 7660 und der Fahrzeugmontiertes-Netzwerk-SST 7680 erhalten werden. Zum Beispiel kann der Mikrocomputer 7610 einen Steuerzielwert für die Antriebskrafterzeugungsvorrichtung, den Lenkmechanismus oder die Bremsvorrichtung auf Basis der erhaltenen Informationen über die Innenseite oder Außenseite des Fahrzeugs berechnen und einen Steuerbefehl an die Antriebssystemsteuereinheit 7100 ausgeben. Beispielsweise kann der Mikrocomputer 7610 eine kooperative Steuerung durchführen, die Funktionen eines Fahrerassistenzsystems (FAS) implementieren soll, dessen Funktionen Kollisionsvermeidung oder Aufprallminderung für das Fahrzeug, folgendes Fahren basierend auf einem Folgeabstand, ein die Fahrzeuggeschwindigkeit aufrechterhaltendes Fahren, eine Kollisionswarnung des Fahrzeugs, eine Abweichungswarnung des Fahrzeugs von einer Spur oder dergleichen beinhalten. Zusätzlich kann der Mikrocomputer 7610 eine kooperative Steuerung durchführen, die für automatisches Fahren beabsichtigt ist, was veranlasst, dass das Fahrzeug autonom ohne Abhängigkeit von der Bedienung des Fahrers fährt oder dergleichen, durch Steuern der Antriebskrafterzeugungsvorrichtung, des Lenkmechanismus, der Bremsvorrichtung oder dergleichen auf Basis der erhaltenen Informationen über das Umfeld des Fahrzeugs.
  • Der Mikrocomputer 7610 kann dreidimensionale Abstandsinformationen zwischen dem Fahrzeug und einem Objekt, wie etwa einer umliegenden Struktur, einer Person oder dergleichen, erzeugen und lokale Karteninformationen einschließlich Informationen über das Umfeld der aktuellen Position des Fahrzeugs auf Basis von Informationen erzeugen, die über mindestens eines der Allzweck-Kommunikations-SST 7620, der dedizierten Kommunikations-SST 7630, des Positionierungsabschnitts 7640, des Beacon-Empfangsabschnitts 7650, der Fahrzeuginterne-Vorrichtung-SST 7660 und der Fahrzeugmontiertes-Netzwerk-SST 7680 erhalten werden. Zusätzlich kann der Mikrocomputer 7610 eine Gefahr wie etwa eine Kollision des Fahrzeugs, einen sich nähernden Fußgänger oder dergleichen, eine Einfahrt in eine geschlossene Straße oder dergleichen auf Basis der erhaltenen Informationen vorhersagen und ein Warnsignal erzeugen. Das Warnsignal kann zum Beispiel ein Signal zum Erzeugen eines Warntons oder Aufleuchten einer Warnlampe sein.
  • Der Ton-/Bildausgabeabschnitt 7670 überträgt ein Ausgabesignal mit mindestens einen aus einem Ton und einem Bild zu einer Ausgabevorrichtung, die in der Lage ist, einem Insassen des Fahrzeugs oder der Außenseite des Fahrzeugs visuell oder akustisch Informationen zu melden. In dem Beispiel von 9 sind ein Audiolautsprecher 7710, ein Anzeigeabschnitt 7720 und eine Instrumententafel 7730 als die Ausgabevorrichtung veranschaulicht. Der Anzeigeabschnitt 7720 kann zum Beispiel eine fahrzeuginterne Anzeige und/oder ein Head-Up-Display beinhalten. Der Anzeigeabschnitt 7720 kann eine AR(Augmented Reality)-Anzeigefunktion aufweisen. Die Ausgabevorrichtung kann anders als diese Vorrichtungen sein und kann eine andere Vorrichtung wie etwa Kopfhörer, eine Wearable-Vorrichtung wie etwa eine Brillen-Anzeige, die durch einen Insassen getragen wird, oder dergleichen, ein Projektor, eine Lampe oder dergleichen sein. In einem Fall, bei dem die Ausgabevorrichtung eine Anzeigevorrichtung ist, zeigt die Anzeigevorrichtung visuell Ergebnisse, die durch verschiedene Arten von Verarbeitung, die durch den Mikrocomputer 7610 durchgeführt wird, erhalten werden, oder Informationen, die von einer anderen Steuereinheit empfangen werden, in verschiedenen Formen wie etwa Text, ein Bild, eine Tabelle, einen Graphen oder dergleichen an. Zusätzlich in einem Fall, bei dem die Ausgabevorrichtung eine Audioausgabevorrichtung ist, wandelt die Audioausgabevorrichtung ein Audiosignal, das aus reproduzierten Audiodaten oder Tondaten oder dergleichen besteht, in ein analoges Signal um und gibt das analoge Signal akustisch aus.
  • Im Übrigen können mindestens zwei Steuereinheiten, die in dem in 9 dargestellten Beispiel über das Kommunikationsnetzwerk 7010 miteinander verbunden sind, in eine Steuereinheit integriert werden. Alternativ kann jede individuelle Steuereinheit eine Vielzahl von Steuereinheiten beinhalten. Ferner kann das Fahrzeugsteuersystem 7000 eine andere Steuereinheit beinhalten, die nicht in den Figuren dargestellt ist. Zusätzlich kann ein Teil oder die Gesamtheit der Funktionen, die durch eine der Steuereinheiten in der obigen Beschreibung durchgeführt werden, einer anderen Steuereinheit zugewiesen werden. Das heißt, eine vorbestimmte arithmetische Verarbeitung kann durch beliebige der Steuereinheiten durchgeführt werden, solange Informationen über das Kommunikationsnetzwerk 7010 übertragen und empfangen werden. Gleichermaßen kann ein Sensor oder eine Vorrichtung, der/die mit einer der Steuereinheiten verbunden ist, mit einer anderen Steuereinheit verbunden sein, und eine Vielzahl von Steuereinheiten kann Detektionsinformationen über das Kommunikationsnetzwerk 7010 gegenseitig übertragen und empfangen.
  • Im Übrigen kann ein Computerprogramm zum Umsetzen der Funktionen der Informationsverarbeitungsvorrichtung 100 gemäß der vorliegenden Ausführungsform, die mit Bezug auf 9 beschrieben ist, in einer der Steuereinheiten oder dergleichen implementiert werden. Zusätzlich kann auch ein computerlesbares Aufzeichnungsmedium bereitgestellt sein, das ein solches Computerprogramm speichert. Das Aufzeichnungsmedium ist zum Beispiel eine Magnetplatte, eine optische Platte, eine magnetooptische Platte, ein Flash-Speicher oder dergleichen. Zusätzlich kann das oben beschriebene Computerprogramm über ein Netzwerk, zum Beispiel ohne, dass das Aufzeichnungsmedium verwendet wird, verteilt werden.
  • Es sollte erkannt werden, dass die Ausführungsformen Verfahren mit einer beispielhaften Reihenfolge von Verfahrensschritten beschreiben. Die spezifische Reihenfolge von Verfahrensschritten ist jedoch nur für Veranschaulichungszwecke gegeben und sollte nicht als bindend ausgelegt werden. Beispielsweise kann die Ausführungsreihenfolge des Verfahrens von 6 und 8 geändert werden, wie oben beschrieben. Andere Änderungen der Reihenfolge von Verfahrensschritten können dem Fachmann ersichtlich werden.
  • Es sollte auch angemerkt werden, dass die Teilung der Steuerung oder Schaltungsanordnung 7600 von 9 in Einheiten 7610 bis 7690 nur für Veranschaulichungszwecke vorgenommen wird und dass die vorliegende Offenbarung nicht auf irgendeine spezifische Teilung von Funktionen in spezifische Einheiten beschränkt ist. Beispielsweise könnten zumindest Teile der Schaltungsanordnung durch einen jeweiligen programmierten Prozessor, ein feldprogrammierbares Gate-Array (FPGA), dedizierte Schaltungen und dergleichen implementiert werden.
  • Alle Einheiten und Entitäten, die in dieser Spezifikation beschrieben und in den angehängten Ansprüchen beansprucht sind, können, falls nicht anders angegeben, als integrierte Schaltungslogik, zum Beispiel auf einem Chip, implementiert werden, und Funktionalität, die durch solche Einheiten und Entitäten bereitgestellt wird, kann, falls nicht anders angegeben, durch Software implementiert werden.
  • Insofern die oben beschriebenen Ausführungsformen der Offenbarung zumindest teilweise unter Verwendung einer softwaregesteuerten Datenverarbeitungseinrichtung implementiert werden, versteht es sich, dass ein Computerprogramm, das eine solche Softwaresteuerung bereitstellt, und ein Übertragungs-, Speicherungs- oder anderes Medium, durch das ein solches Computerprogramm bereitgestellt wird, als Aspekte der vorliegenden Offenbarung vorgesehen sind.
  • Es ist anzumerken, dass die vorliegende Technologie auch wie unten beschrieben ausgelegt sein kann.
    • (1) Eine Schaltungsanordnung zur dreidimensionalen Positionsschätzung, wobei die Schaltungsanordnung ausgelegt ist zum:
      • Erhalten erster Radarmessdaten, die eine erste Entfernung und einen ersten lokalen Azimutwinkel eines Ziels angeben;
      • Erhalten zweiter Radarmessdaten, die eine zweite Entfernung und einen zweiten lokalen Azimutwinkel des Ziels angeben;
      • Kompensieren, basierend auf dem Korrelieren der ersten Radarmessdaten mit den zweiten Radarmessdaten, einer Ambiguität zwischen einem globalen Azimutwinkel des Ziels und einem globalen Höhenwinkel des Ziels, wobei eine Beziehung zwischen dem globalen Azimutwinkel und dem globalen Höhenwinkel des Ziels durch die ersten und/oder die zweiten Radarmessdaten repräsentiert wird; und
      • Schätzen einer dreidimensionalen Position des Ziels basierend auf dem globalen Azimutwinkel, dem globalen Höhenwinkel und der ersten und/oder der zweiten Entfernung des Ziels.
    • (2) Die Schaltungsanordnung nach (1), wobei die ersten Radarmessdaten ferner eine erste Radialgeschwindigkeit des Ziels angeben, und die zweiten Radarmessdaten ferner eine zweite Radialgeschwindigkeit des Ziels angeben; und wobei das Korrelieren das Korrelieren der ersten Radialgeschwindigkeit mit der zweiten Radialgeschwindigkeit beinhaltet.
    • (3) Die Schaltungsanordnung nach (2), wobei die ersten Radarmessdaten und die zweiten Radarmessdaten von unterschiedlichen Positionen erfasst werden.
    • (4) Die Schaltungsanordnung nach (2) oder (3), wobei der erste lokale Azimutwinkel und der zweite lokale Azimutwinkel parallel zueinander orientiert sind.
    • (5) Die Schaltungsanordnung nach einem von (2) bis (4), wobei die ersten Radarmessdaten und die zweiten Radarmessdaten durch einen Radarsensor erfasst werden, der an einer mobilen Plattform angeordnet ist, und wobei die erste Radialgeschwindigkeit und die zweite Radialgeschwindigkeit einer Geschwindigkeit der mobilen Plattform entsprechen.
    • (6) Die Schaltungsanordnung nach (1), wobei eine Rotationsachse des ersten lokalen Azimutwinkels und eine Rotationsachse des zweiten lokalen Azimutwinkels in unterschiedliche Richtungen orientiert sind; und wobei das Korrelieren auf dem Bestimmen eines Schnittpunkts zwischen einer ersten mehrdeutigen Position, die durch die ersten Radarmessdaten angegeben wird, und einer zweiten mehrdeutigen Position, die durch die zweiten Radarmessdaten angegeben wird, basiert.
    • (7) Die Schaltungsanordnung nach (6), wobei die Rotationsachse des ersten lokalen Azimutwinkels und die Rotationsachse des zweiten lokalen Azimutwinkels senkrecht zueinander orientiert sind.
    • (8) Die Schaltungsanordnung nach (6) oder (7), wobei das Bestimmen des Schnittpunkts auf dem Bestimmen einer Überlappung zwischen der ersten mehrdeutigen Position und der zweiten mehrdeutigen Position basiert.
    • (9) Die Schaltungsanordnung nach einem von (6) bis (8), wobei das Bestimmen des Schnittpunkts beinhaltet:
      • Assoziieren von Zellen einer Gitterkarte, die der ersten mehrdeutigen Position entsprechen, mit einer Wahrscheinlichkeit, die ein Ziel angibt;
      • Assoziieren von Zellen der Gitterkarte, die der zweiten mehrdeutigen Position entsprechen, mit einer Wahrscheinlichkeit, die ein Ziel angibt; und
      • Identifizieren, basierend auf den assoziierten Wahrscheinlichkeiten, einer Zelle der Gitterkarte, die sowohl der ersten mehrdeutigen Position als auch der zweiten mehrdeutigen Position entspricht.
    • (10) Die Schaltungsanordnung nach einem von (6) bis (9), wobei die ersten Radarmessdaten durch einen ersten Radarsensor erfasst werden; wobei die zweiten Radarmessdaten durch einen zweiten Radarsensor erfasst werden; und wobei der erste Radarsensor und der zweite Radarsensor gemäß einer Orientierungsdifferenz zwischen der Rotationsachse des ersten lokalen Azimutwinkels und der Rotationsachse des zweiten lokalen Azimutwinkels gegeneinander gedreht sind.
    • (11) Ein Verfahren zur dreidimensionalen Positionsschätzung, wobei das Verfahren umfasst:
      • Erhalten erster Radarmessdaten, die eine erste Entfernung und einen ersten lokalen Azimutwinkel eines Ziels angeben;
      • Erhalten zweiter Radarmessdaten, die eine zweite Entfernung und einen zweiten lokalen Azimutwinkel des Ziels angeben;
      • Kompensieren, basierend auf dem Korrelieren der ersten Radarmessdaten mit den zweiten Radarmessdaten, einer Ambiguität zwischen einem globalen Azimutwinkel des Ziels und einem globalen Höhenwinkel des Ziels, wobei eine Beziehung zwischen dem globalen Azimutwinkel und dem globalen Höhenwinkel des Ziels durch die ersten und/oder die zweiten Radarmessdaten repräsentiert wird; und
      • Schätzen einer dreidimensionalen Position des Ziels basierend auf dem globalen Azimutwinkel, dem globalen Höhenwinkel und der ersten und/oder der zweiten Entfernung des Ziels.
    • (12) Das Verfahren nach (11), wobei die ersten Radarmessdaten ferner eine erste Radialgeschwindigkeit des Ziels angeben, und die zweiten Radarmessdaten ferner eine zweite Radialgeschwindigkeit des Ziels angeben; und wobei das Korrelieren das Korrelieren der ersten Radialgeschwindigkeit mit der zweiten Radialgeschwindigkeit beinhaltet.
    • (13) Das Verfahren nach (12), wobei die ersten Radarmessdaten und die zweiten Radarmessdaten von unterschiedlichen Positionen erfasst werden.
    • (14) Das Verfahren nach (12) oder (13), wobei der erste lokale Azimutwinkel und der zweite lokale Azimutwinkel parallel zueinander orientiert sind.
    • (15) Das Verfahren nach einem von (12) bis (14), wobei die ersten Radarmessdaten und die zweiten Radarmessdaten durch einen Radarsensor erfasst werden, der an einer mobilen Plattform angeordnet ist, und wobei die erste Radialgeschwindigkeit und die zweite Radialgeschwindigkeit einer Geschwindigkeit der mobilen Plattform entsprechen.
    • (16) Das Verfahren nach (11), wobei eine Rotationsachse des ersten lokalen Azimutwinkels und eine Rotationsachse des zweiten lokalen Azimutwinkels in unterschiedliche Richtungen orientiert sind; und wobei das Korrelieren auf dem Bestimmen eines Schnittpunkts zwischen einer ersten mehrdeutigen Position, die durch die ersten Radarmessdaten angegeben wird, und einer zweiten mehrdeutigen Position, die durch die zweiten Radarmessdaten angegeben wird, basiert.
    • (17) Das Verfahren nach (16), wobei die Rotationsachse des ersten lokalen Azimutwinkels und die Rotationsachse des zweiten lokalen Azimutwinkels senkrecht zueinander orientiert sind.
    • (18) Das Verfahren nach (16) oder (17), wobei das Bestimmen des Schnittpunkts auf dem Bestimmen einer Überlappung zwischen der ersten mehrdeutigen Position und der zweiten mehrdeutigen Position basiert.
    • (19) Das Verfahren nach einem von (16) bis (18), wobei das Bestimmen des Schnittpunkts beinhaltet:
      • Assoziieren von Zellen einer Gitterkarte, die der ersten mehrdeutigen Position entsprechen, mit einer Wahrscheinlichkeit, die ein Ziel angibt;
      • Assoziieren von Zellen der Gitterkarte, die der zweiten mehrdeutigen Position entsprechen, mit einer Wahrscheinlichkeit, die ein Ziel angibt; und
      • Identifizieren, basierend auf den assoziierten Wahrscheinlichkeiten, einer Zelle der Gitterkarte, die sowohl der ersten mehrdeutigen Position als auch der zweiten mehrdeutigen Position entspricht.
    • (20) Das Verfahren nach einem von (16) bis (19), wobei die ersten Radarmessdaten durch einen ersten Radarsensor erfasst werden; wobei die zweiten Radarmessdaten durch einen zweiten Radarsensor erfasst werden; und wobei der erste Radarsensor und der zweite Radarsensor gemäß einer Orientierungsdifferenz zwischen der Rotationsachse des ersten lokalen Azimutwinkels und der Rotationsachse des zweiten lokalen Azimutwinkels gegeneinander gedreht sind.
    • (21) Ein Computerprogramm, das Programmcode umfasst, um zu bewirken, dass ein Computer das Verfahren nach einem von (11) bis (20) durchführt, wenn er auf einem Computer ausgeführt wird.
    • (22) Ein nichtflüchtiges computerlesbares Aufzeichnungsmedium, das darin ein Computerprogrammprodukt speichert, das bei Ausführung durch einen Prozessor bewirkt, dass das Verfahren nach einem von (11) bis (20) durchgeführt wird.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • Thrun, Sebastian: „Learning occupancy grids with forward models“, Proceedings 2001 IEEE/RSJ International Conference on Intelligent Robots and Systems, 2001, Digital Object Identifier (DOI): 10.1109/IROS.2001.977219 [0075]

Claims (20)

  1. Schaltungsanordnung zur dreidimensionalen Positionsschätzung, wobei die Schaltungsanordnung ausgelegt ist zum: Erhalten erster Radarmessdaten, die eine erste Entfernung und einen ersten lokalen Azimutwinkel eines Ziels angeben; Erhalten zweiter Radarmessdaten, die eine zweite Entfernung und einen zweiten lokalen Azimutwinkel des Ziels angeben; Kompensieren, basierend auf dem Korrelieren der ersten Radarmessdaten mit den zweiten Radarmessdaten, einer Ambiguität zwischen einem globalen Azimutwinkel des Ziels und einem globalen Höhenwinkel des Ziels, wobei eine Beziehung zwischen dem globalen Azimutwinkel und dem globalen Höhenwinkel des Ziels durch die ersten und/oder die zweiten Radarmessdaten repräsentiert wird; und Schätzen einer dreidimensionalen Position des Ziels basierend auf dem globalen Azimutwinkel, dem globalen Höhenwinkel und der ersten und/oder der zweiten Entfernung des Ziels.
  2. Schaltungsanordnung nach Anspruch 1, wobei die ersten Radarmessdaten ferner eine erste Radialgeschwindigkeit des Ziels angeben, und die zweiten Radarmessdaten ferner eine zweite Radialgeschwindigkeit des Ziels angeben; und wobei das Korrelieren das Korrelieren der ersten Radialgeschwindigkeit mit der zweiten Radialgeschwindigkeit beinhaltet.
  3. Schaltungsanordnung nach Anspruch 2, wobei die ersten Radarmessdaten und die zweiten Radarmessdaten von unterschiedlichen Positionen erfasst werden.
  4. Schaltungsanordnung nach Anspruch 2, wobei der erste lokale Azimutwinkel und der zweite lokale Azimutwinkel parallel zueinander orientiert sind.
  5. Schaltungsanordnung nach Anspruch 2, wobei die ersten Radarmessdaten und die zweiten Radarmessdaten durch einen Radarsensor erfasst werden, der an einer mobilen Plattform angeordnet ist, und wobei die erste Radialgeschwindigkeit und die zweite Radialgeschwindigkeit einer Geschwindigkeit der mobilen Plattform entsprechen.
  6. Schaltungsanordnung nach Anspruch 1, wobei eine Rotationsachse des ersten lokalen Azimutwinkels und eine Rotationsachse des zweiten lokalen Azimutwinkels in unterschiedliche Richtungen orientiert sind; und wobei das Korrelieren auf dem Bestimmen eines Schnittpunkts zwischen einer ersten mehrdeutigen Position, die durch die ersten Radarmessdaten angegeben wird, und einer zweiten mehrdeutigen Position, die durch die zweiten Radarmessdaten angegeben wird, basiert.
  7. Schaltungsanordnung nach Anspruch 6, wobei die Rotationsachse des ersten lokalen Azimutwinkels und die Rotationsachse des zweiten lokalen Azimutwinkels senkrecht zueinander orientiert sind.
  8. Schaltungsanordnung nach Anspruch 6, wobei das Bestimmen des Schnittpunkts auf dem Bestimmen einer Überlappung zwischen der ersten mehrdeutigen Position und der zweiten mehrdeutigen Position basiert.
  9. Schaltungsanordnung nach Anspruch 6, wobei das Bestimmen des Schnittpunkts beinhaltet: Assoziieren von Zellen einer Gitterkarte, die der ersten mehrdeutigen Position entsprechen, mit einer Wahrscheinlichkeit, die ein Ziel angibt; Assoziieren von Zellen der Gitterkarte, die der zweiten mehrdeutigen Position entsprechen, mit einer Wahrscheinlichkeit, die ein Ziel angibt; und Identifizieren, basierend auf den assoziierten Wahrscheinlichkeiten, einer Zelle der Gitterkarte, die sowohl der ersten mehrdeutigen Position als auch der zweiten mehrdeutigen Position entspricht.
  10. Schaltungsanordnung nach Anspruch 6, wobei die ersten Radarmessdaten durch einen ersten Radarsensor erfasst werden; wobei die zweiten Radarmessdaten durch einen zweiten Radarsensor erfasst werden; und wobei der erste Radarsensor und der zweite Radarsensor gemäß einer Orientierungsdifferenz zwischen der Rotationsachse des ersten lokalen Azimutwinkels und der Rotationsachse des zweiten lokalen Azimutwinkels gegeneinander gedreht sind.
  11. Verfahren zur dreidimensionalen Positionsschätzung, wobei das Verfahren umfasst: Erhalten erster Radarmessdaten, die eine erste Entfernung und einen ersten lokalen Azimutwinkel eines Ziels angeben; Erhalten zweiter Radarmessdaten, die eine zweite Entfernung und einen zweiten lokalen Azimutwinkel des Ziels angeben; Kompensieren, basierend auf dem Korrelieren der ersten Radarmessdaten mit den zweiten Radarmessdaten, einer Ambiguität zwischen einem globalen Azimutwinkel des Ziels und einem globalen Höhenwinkel des Ziels, wobei eine Beziehung zwischen dem globalen Azimutwinkel und dem globalen Höhenwinkel des Ziels durch die ersten und/oder die zweiten Radarmessdaten repräsentiert wird; und Schätzen einer dreidimensionalen Position des Ziels basierend auf dem globalen Azimutwinkel, dem globalen Höhenwinkel und der ersten und/oder der zweiten Entfernung des Ziels.
  12. Verfahren nach Anspruch 11, wobei die ersten Radarmessdaten ferner eine erste Radialgeschwindigkeit des Ziels angeben, und die zweiten Radarmessdaten ferner eine zweite Radialgeschwindigkeit des Ziels angeben; und wobei das Korrelieren das Korrelieren der ersten Radialgeschwindigkeit mit der zweiten Radialgeschwindigkeit beinhaltet.
  13. Verfahren nach Anspruch 12, wobei die ersten Radarmessdaten und die zweiten Radarmessdaten von unterschiedlichen Positionen erfasst werden.
  14. Verfahren nach Anspruch 12, wobei der erste lokale Azimutwinkel und der zweite lokale Azimutwinkel parallel zueinander orientiert sind.
  15. Verfahren nach Anspruch 12, wobei die ersten Radarmessdaten und die zweiten Radarmessdaten durch einen Radarsensor erfasst werden, der an einer mobilen Plattform angeordnet ist, und wobei die erste Radialgeschwindigkeit und die zweite Radialgeschwindigkeit einer Geschwindigkeit der mobilen Plattform entsprechen.
  16. Verfahren nach Anspruch 11, wobei eine Rotationsachse des ersten lokalen Azimutwinkels und eine Rotationsachse des zweiten lokalen Azimutwinkels in unterschiedliche Richtungen orientiert sind; und wobei das Korrelieren auf dem Bestimmen eines Schnittpunkts zwischen einer ersten mehrdeutigen Position, die durch die ersten Radarmessdaten angegeben wird, und einer zweiten mehrdeutigen Position, die durch die zweiten Radarmessdaten angegeben wird, basiert.
  17. Verfahren nach Anspruch 16, wobei die Rotationsachse des ersten lokalen Azimutwinkels und die Rotationsachse des zweiten lokalen Azimutwinkels senkrecht zueinander orientiert sind.
  18. Verfahren nach Anspruch 16, wobei das Bestimmen des Schnittpunkts auf dem Bestimmen einer Überlappung zwischen der ersten mehrdeutigen Position und der zweiten mehrdeutigen Position basiert.
  19. Verfahren nach Anspruch 16, wobei das Bestimmen des Schnittpunkts beinhaltet: Assoziieren von Zellen einer Gitterkarte, die der ersten mehrdeutigen Position entsprechen, mit einer Wahrscheinlichkeit, die ein Ziel angibt; Assoziieren von Zellen der Gitterkarte, die der zweiten mehrdeutigen Position entsprechen, mit einer Wahrscheinlichkeit, die ein Ziel angibt; und Identifizieren, basierend auf den assoziierten Wahrscheinlichkeiten, einer Zelle der Gitterkarte, die sowohl der ersten mehrdeutigen Position als auch der zweiten mehrdeutigen Position entspricht.
  20. Verfahren nach Anspruch 16, wobei die ersten Radarmessdaten durch einen ersten Radarsensor erfasst werden; wobei die zweiten Radarmessdaten durch einen zweiten Radarsensor erfasst werden; und wobei der erste Radarsensor und der zweite Radarsensor gemäß einer Orientierungsdifferenz zwischen der Rotationsachse des ersten lokalen Azimutwinkels und der Rotationsachse des zweiten lokalen Azimutwinkels gegeneinander gedreht sind.
DE102023125329.8A 2022-09-20 2023-09-19 Schaltungsanordnung und verfahren Pending DE102023125329A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP22196606 2022-09-20
EP22196606.2 2022-09-20

Publications (1)

Publication Number Publication Date
DE102023125329A1 true DE102023125329A1 (de) 2024-04-11

Family

ID=83398350

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102023125329.8A Pending DE102023125329A1 (de) 2022-09-20 2023-09-19 Schaltungsanordnung und verfahren

Country Status (2)

Country Link
CN (1) CN117741575A (de)
DE (1) DE102023125329A1 (de)

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Thrun, Sebastian: „Learning occupancy grids with forward models", Proceedings 2001 IEEE/RSJ International Conference on Intelligent Robots and Systems, 2001, Digital Object Identifier (DOI): 10.1109/IROS.2001.977219

Also Published As

Publication number Publication date
CN117741575A (zh) 2024-03-22

Similar Documents

Publication Publication Date Title
DE112017001322T5 (de) Signalverarbeitungsvorrichtung und Signalverarbeitungsverfahren
US10992860B2 (en) Dynamic seam adjustment of image overlap zones from multi-camera source images
CN109920246B (zh) 一种基于v2x通信与双目视觉的协同局部路径规划方法
DE102017126877B4 (de) Kraftfahrzeug
DE102020131323A1 (de) Kamera-zu-lidar-kalibration und -validierung
DE102017126925A1 (de) Automatisierte Co-Pilotsteuerung für autonome Fahrzeuge
DE102020103455A1 (de) Verfahren und system zur ausführung einer zusammengesetzten verhaltensrichtlinie für ein autonomes fahrzeug
DE102018121597A1 (de) Boden-referenzbestimmung für den betrieb von autonomen fahrzeugen
DE102018109366A1 (de) Systeme und verfahren zur lichtsignalanlagenerfassung
DE112019001046T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und mobiler körper
DE102018107754A1 (de) Objektverfolgung
DE102019102195B4 (de) Autonomes Antriebssystem für ein Fahrzeug, Fahrzeug mit solch einem autonomen Antriebssystem sowie Verfahren zum Erkennen einer Kollision zwischen einem autonomen Fahrzeug und einem Objekt
DE112018003986T5 (de) Steuervorrichtung, steuerverfahren, programm und mobileinheit
DE102018121122A1 (de) Systeme und Verfahren zur Fahrzeugsignalleuchtenerfassung
DE102018109441A1 (de) Verfahren und Vorrichtung zur Pulswiederholungssequenz mit hoher Bearbeitungsverstärkung
DE112018004507T5 (de) Informationsverarbeitungseinrichtung, bewegungseinrichtung und verfahren und programm
DE102019106169A1 (de) Verfahren und vorrichtung zum erkennen eines nahegelegenen einsatzfahrzeugs
DE102018115265A1 (de) Verfahren und vorrichtung zur objektoberflächenschätzung mittels reflexionsverzögerungs-aufspreizung
DE102019126542A1 (de) Lokalisierung einer stationären kamera
DE112018007048T5 (de) Kalibrationsvorrichtung, kalibrationsverfahren und programm
DE112018004891T5 (de) Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren, programm und mobiler körper
DE112018004691T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und bewegter körper
DE112019001659T5 (de) Steuervorrichtung, steuerverfahren und programm
DE102019100563A1 (de) Gnss-lokalisierung unter verwendung von fahrzeugsensoren
DE112018004904T5 (de) Informationsverarbeitungseinrichtung, selbstpositionsschätzverfahren und programm

Legal Events

Date Code Title Description
R012 Request for examination validly filed