DE102016205227A1 - Verfahren und Vorrichtung zur Verfolgung von Objekten, insbesondere sich bewegenden Objekten, in den dreidimensionalen Raum von abbildenden Radarsensoren - Google Patents

Verfahren und Vorrichtung zur Verfolgung von Objekten, insbesondere sich bewegenden Objekten, in den dreidimensionalen Raum von abbildenden Radarsensoren Download PDF

Info

Publication number
DE102016205227A1
DE102016205227A1 DE102016205227.6A DE102016205227A DE102016205227A1 DE 102016205227 A1 DE102016205227 A1 DE 102016205227A1 DE 102016205227 A DE102016205227 A DE 102016205227A DE 102016205227 A1 DE102016205227 A1 DE 102016205227A1
Authority
DE
Germany
Prior art keywords
data
sensor units
view
sensor
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102016205227.6A
Other languages
English (en)
Inventor
Andre Giere
Manuel Wolf
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Astyx GmbH
Original Assignee
Astyx GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Astyx GmbH filed Critical Astyx GmbH
Priority to DE102016205227.6A priority Critical patent/DE102016205227A1/de
Priority to PCT/EP2016/075424 priority patent/WO2017072048A1/de
Priority to EP16784532.0A priority patent/EP3368916A1/de
Priority to EP23189579.8A priority patent/EP4249938A3/de
Priority to US15/772,184 priority patent/US10877145B2/en
Publication of DE102016205227A1 publication Critical patent/DE102016205227A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/28Details of pulse systems
    • G01S7/285Receivers
    • G01S7/295Means for transforming co-ordinates or for evaluating data, e.g. using computers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • G01S13/44Monopulse radar, i.e. simultaneous lobing
    • G01S13/4454Monopulse radar, i.e. simultaneous lobing phase comparisons monopulse, i.e. comparing the echo signals received by an interferometric antenna arrangement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/03Details of HF subsystems specially adapted therefor, e.g. common to transmitter and receiver

Abstract

Beschrieben wird eine Vorrichtung zur Bestimmung einer Position eines Objekts im dreidimensionalen Raum, insbesondere eines sich bewegenden Objekts dadurch gekennzeichnet, dass die Vorrichtung mindestens zwei Sensoreinheiten aufweist, wobei jede Sensoreinheit ein Gesichtsfeld (FoV) aufweist, und wobei alle Sensoreinheiten über eine zentrale Signalverarbeitungsvorrichtung gekoppelt sind.

Description

  • Die Erfindung betrifft ein Verfahren, eine Verwendung und eine Vorrichtung zur Verbesserung und Verfolgung von Objekten, insbessondere sich bewegenden Objekte, in den dreidimensionalen Raum von abbildenden Radarsensoren.
  • Herkömmlich werden bei Millimeterwellen-Radarsensoren zur Verwendung in der Objekterkennung z.B. für automobile und aeronautische Anwendungen die einzelnen Sensoreinheiten oder Frontends jeweils einzeln an eine Steuerungsvorrichtung und Datenauswertungsvorrichtung gekoppelt und die gemeinsame Betrachtung der Frontends erfolgt erst auf der Trackerebene. Für jedes weitere Frontend welches das Sichtfeld vergrößern soll, wachsen die Größe des Systems und dessen Kosten an. Insbesondere in der Luftfahrt kann jedes zusätzlich montierte und zuwartende Gerät erhebliche Kosten verursachen, die von der Anzahl und Größe der verwendeten Sensoren bestimmt werden.
  • Daher sollten insbesondere Millimeterwellen-Radarsensoren zur Verwendung in der Objekterkennung z.B. für automobile und aeronautische Anwendungen eine kompakte und kostengünstige Bauweise vorweisen. Dies bedeutet aber, dass die Anzahl der Auslese- und Steuerungskomponenten wie auch die benötigten Sensoreinheiten minimiert sein sollte.
  • Andererseits sollte der Sensor eine Objektdetektion im dreidimensionalen Raum ermöglichen, die zusätzliche eine präzise Lokalisierung sowohl in der Horizontalen als auch in der Vertikalen erlaubt. Außerdem soll eine Verfolgung (Tracking) der Objekte ermöglicht werden. Die Datenrate mit der die Sensorinformationen verarbeitet werden, ist für die Güte der Track Informationen und damit für die Qualität und Performance des Gesamtsystems von großer Bedeutung. Dies wiederum erfordert, bei einer auf einzelnen herkömmlichen Sensoreinheiten basierenden Architektur, eine erhöhte Anzahl und Größe von Auslese- und Steuerungskomponenten.
  • Die Aufgabe der Erfindung ist, eine Vorrichtung, ein Verfahren sowie ein Radarsystem zur Verfügung zu stellen, die eine Reduktion des Gesamtsystems bezüglich der Größe und Kosten ermöglicht, ohne dass dabei Verluste bezüglich der Auswertungsgeschwindigkeit und Genauigkeit einhergehen.
  • Die Aufgabe wird vorrichtungsgemäß mit den Merkmalen des Anspruchs 1, verfahrensgemäß mit den Merkmalen des Anspruchs 12 und gemäß dem Radarsystem mit den Merkmalen des Anspruchs 23, sowie eine Verwendung in einem Hubschrauberradar gelöst.
  • Erfindungsgemäß weist die Vorrichtung zur Bestimmung einer Position eines Objektes im dreidimensionalen Raum, insbesondere eines sich bewegenden Objekts, mindestens zwei Sensoreinheiten und eine zentrale Signalverarbeitungsvorrichtung auf, an welche die Sensoreinheiten gekoppelt sind. Mit dieser Maßnahme wird der Vorteil erzielt, dass die Anzahl der Auslese- und Steuerungskomponenten auf eine einzelne zentrale Datenverarbeitungsvorrichtung reduziert wird, die für eine beliebige Anzahl von Sensoreinheiten die Steuerung und Signalauslese übernimmt. Eine Verringerung der Gesamtgröße und Kosten des Sensors können dadurch erzielt werden. Ferner können Datenauslese- und Datenverarbeitungsprozesse vorteilhaft aufeinander abgestimmt und optimiert werden. Die einzelnen Sensoreinheiten können als eine Einheit ausgelesen und ausgewertet werden. Ferner, durch das Zusammenführen der Sensoreinheiten bereits auf der Ausleseebene kann die Datenauswertung verbessert werden. Da eine einzige Signalverarbeitungsvorrichtung die Datenauslese und die Auswertung für alle Sensoreinheiten ausführt, können Daten partitioniert und auf verschiedenen Ebenen vorverarbeitet werden. Bei mehreren Sensoreinheiten z.B. bei einer gesamträumlichen Erfassung können die einzelnen Sensoreinheiten gezielter mit geringerer Latenzzeit angesteuert werden.
  • Insbesondere kann der Sensor für verschiedene Anforderungen gezielt adaptiert werden. Im Fall einer Vielzahl sich bewegenden Objekten kann die Datenauslese und Datenauswertung gleichzeitig erfolgen und simultan alle Sensoreinheiten umfassen. Bei einer Vorverarbeitung der Auslesedaten kann auch die Updaterate der Geschwindigkeit der Objekte gezielter angepasst werden. Dadurch kann ein Datenstau auf mehreren Ebenen vermieden werden. Außerdem wird die Datengröße die zur Abbildung übergeben wird durch eine Vorverarbeitung der Daten minimiert.
  • Das erfindungsgemäße Verfahren zur Bestimmung einer Position eines Objektes im dreidimensionalen Raum, insbesondere eines sich bewegenden Objekts, umfasst mindestens die Verfahrensschritte des Bereitstellens von mindestens zwei Sensoreinheiten und des Koppelns der mindestens zwei Sensoreinheiten mit einer zentralen Signalverarbeitungsvorrichtung.
  • Innovativ ist, dass die einzelnen Steuerungs- und Auslese- und Verfahrensschritte, die als Gegenstand der Unteransprüche näher beschrieben werden, alle zentral auf der Signalverarbeitungsvorrichtung zusammengefasst werden können, ein Vielfaches des benötigten Datenspeichers kann dadurch reduziert werden. Außerdem dadurch, dass die Sensoreinheiten zentral gesteuert werden, können die einzelnen Verfahrensschritte partitioniert werden und in einer optimierten Reihenfolge durchgeführt werden, sowie Datenübertragungszeiten reduziert werden.
  • Das erfindungsgemäße Radarsystem umfasst das erfindungsgemäße Verfahren und die erfindungsmäße Vorrichtung. Ein Vorteil, der sich für das Gesamtsystem ergibt, ist die kompakte und kostengünstige Bauweise, die durch die Reduktion der Steuerungs- und Ausleseeinheiten auf eine einzelne ermöglicht wird. Diese Radarsysteme lassen sich kompakter und kostengünstiger herstellen und warten.
  • Bei der Verwendung als Hubschrauberradar wird auf einfache Weise eine 360° Abdeckung ermöglicht.
  • Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
  • Die mindestens zwei Sensoreinheiten sind so ausgelegt, dass aus den jeweiligen, durch die Signalverarbeitungsvorrichtung ausgelesenen Daten, ein einzelnes, erweitertes virtuelles Gesichtsfeld von der Signalverarbeitungsvorrichtung erstellt wird. Dies wird ermöglicht durch die Auswahl der Hauptstrahlungsrichtung und/oder durch räumliche Ausrichtung der einzelnen Sensoreinheiten sowohl in einer horizontalen als auch vertikalen Richtung. Die einzelnen Sensoreinheiten werden von der Signalverarbeitungsvorrichtung angesteuert und ausgerichtet, sowohl in einer vertikalen wie auch in einer horizontalen Richtung. Durch diese Positionierung der benachbarten Sensoreinheiten in einem Sensorgehäuse wird ermöglicht, dass sich die Gesichtsfelder der einzelnen Sensoreinheiten um einige Grade des Öffnungswinkels überlagern.
  • In einer weiteren Ausführungsform können zwei oder mehr Sensoreinheiten planar parallel zueinander angeordnet werden, wenn sie über eine entsprechende Hauptstrahlrichtung verfügen. Die unterschiedliche Richtung der Öffnung des Gesichtsfeldes wird somit durch die unterschiedliche Abstrahlcharakteristik umgesetzt. Durch eine bevorzugte Anordnung in dieser Ausführungsform wird durch die Ausrichtung der einzelnen Sensoreinheiten die Überdeckung des gesamten Gesichtsfeldes des Sensors erreicht.
  • Die zentrale Signalverarbeitungsvorrichtung ist so konzipiert, dass die Empfangssignale von den Sensoreinheiten nach einem Multiplexverfahren ausgelesen werden können. Multiplexverfahren benötigen eine simultane Verknüpfung aller Sensoreinheiten an die Signalverarbeitungsvorrichtung.
  • Dabei hat sich als besonders vorteilhaft erwiesen, dass die zentrale Signalverarbeitungsvorrichtung durch das steuern, auslesen und auswerten der einzelnen Sensoreinheiten selektierte Objektlisten aus den Empfangssignalen der einzelnen Sensoreinheiten erstellen kann. Diese Objektlisten stellen Empfangssignale der einzelnen Sensoreinheiten dar, die vorverarbeitet und vorselektiert wurden und dadurch eine erhebliche Minderung der Datenmengen und Größen bewirken. Daten können schneller verarbeitet werden ohne größere Rechenkapazitäten zu erfordern.
  • In einer weiteren Ausführungsform bestehen die jeweiligen Sensoreinheiten aus einem Frontend, das mindestens eine Sendeantenne und mindestens zwei, vorzugsweise vier, acht oder sechzehn, Empfängerantennen aufweist. Die Anordnung der Empfängerantennen in dem Frontend ist so ausgelegt, dass eine Bestimmung der Position in mindestens einer Ebene durch digitale Stahlformung ermöglicht wird. Durch die Anordnung der Senderantennen ist eine Positionsbestimmung in mindestens einer Ebene durch Phasenvergleich und/oder Amplitudenvergleich ermöglicht. Wobei die Anzahl der Empfängerantennen, an die für das Gesamtsystem notwendige Genauigkeit der Winkelbestimmung angepasst ist und ebenso die Sensitivität des Systems bestimmt.
  • Die Beschaffenheit der Antennen ist ausgelegt, um in einem Frequenzband von einem GHz bis zu einem THz betrieben werden zu können, bevorzugt liegt der Betriebsfrequenzbereich in einem Frequenzband von 5 bis 150 GHz, insbesondere im Bereich von 75 bis 85 GHz. Für die Anwendung im aeronautischen Bereich sind Millimeterwellen von Vorteil für die Höhenmessung. Millimeterwellen durchdringen dielektrische Stoffe wie Schneefall oder Nebel z.B. kann daher auch bei schlechter Sicht eine genaue Höhenmessung erfolgen. Auch kleinere Objekte bei schwierigen Sichtverhältnissen können erkannt werden. Je höher die Frequenz und die Bandbreite sind, desto besser ist die räumliche Auflösung.
  • Ferner sind die Empfänger und Sendeantennen in einer planaren Leiterplattentechnologie realisiert, die die Stabilität der Sensoreinheit verbessert.
  • Verwendbar sind für die zentrale Signalverarbeitungsvorrichtung alle zum Zeitpunkt der Erfindung zur Signalauslese, Datenspeicherung, Datenverarbeitung geeigneten Vorrichtungen, erfindungsgemäß geeignet und umfasst auch zukünftig erfindungsgemäß geeignete Vorrichtungen.
  • Ferner werden von den Kanälen der Empfängerantennen der Receiver-Arrays die empfangenen Signale durch die Signalverarbeitungsvorrichtung mittels eines Zeitmultiplexverfahrens, eines Frequenzmultiplexverfahrens, eines Codemultiplexverfahrens oder einer Kombination aus diesen Verfahren ausgelesen. Die Verwendung von Multiplexverfahren bei der Datenauslese erlaubt eine parallele Abfolge von Datenauslese und Auswertung. Auch eine größere Flexibilität des Systems durch die Auswahl oder die Kombination dieser Verfahren ist möglich.
  • Bei allen Multiplexverfahren wird die Entfernungsbestimmung, die (Range-FFT), gleich nach der Digitalisierung der Analogsignaldaten durchgeführt. Dies birgt den Vorteil in sich, dass Objekte, deren Entfernung als nicht relevant für das Tracking betrachtet werden, an dieser Stelle aussortiert werden können um den Datensatz zu minimieren. Diese Objekte werden dann gar nicht in die Objektlisten aufgenommen.
  • Als besonders vorteilhaft erweist sich das Multiplexverfahren um die Daten aus allen Sensoreinheiten bereits auf Rohdatenebene auf dieselbe Bezugsgröße zu berechnen. Jede Sensoreinheit verfügt über einen eigenen Bezugsrahmen, in welchem die Objekte mit oben genannten Verfahren berechnet werden. Herkömmlicherweise werden diese Daten dann erst zur Verfolgung eines Objekts auf der Stufe des Trackers zusammengeführt. Die einzelnen Gesichtsfelder werden einzeln betrachtet, hieraus resultiert ein wesentlich größerer Bedarf an Rechenleistung und Zeitaufwand um die einzelnen Objekte der verschiedenen Bezugsrahmen auf denselben Bezugsrahmen zu parametrisieren.
  • Bei dem Zeitmultiplexverfahren werden die Sensoreinheiten zeitversetzt ausgelesen, d.h. der Übertragungskanal wird in Zeitscheiben eingeteilt und jeder Sensoreinheit wird ein Zeitintervall für die Übertragung zugeteilt. Dadurch können alle Sensoreinheiten in äußerst kurzen Zeitabständen nacheinander ausgelesen werden. Diese Stückelung erlaubt eine gestückelte Datenvorverarbeitung, z.B. nach dem die Analogsignale mittels eines AD-Wandlers in Digitaldaten umgewandelt wurden, kann eine erste schnelle Fourier-Transformation FFT erfolgen.
  • Die selektierten Daten werden von einer Trackingeinheit ausgewertet und für die Darstellung als Datensatz transferiert. Die Signaldatenauslese, die Vorverarbeitung und die Auswertung können simultan stattfinden. Während die Datenauswertung des ersten Zyklus noch andauert, kann die Datenauslese des zweiten Zyklus bereits stattfinden.
  • Bei dem Frequenzmultiplexing wird den Sensoreinheiten ein eigenes Frequenzband zugeteilt und die Datenerfassung erfolgt simultan wie auch die Vorverarbeitung der Daten, d.h. nach dem die Analogsignale mittels eines AD-Wandlers in Digitaldaten umgewandelt wurden, kann eine erste schnelle Fourier-Transformation FFT erfolgen. Dies erfolgt für Sensoreinheiten simultan.
  • Die selektierten Daten werden von einer Trackingeinheit ausgewertet und für die Darstellung als Datensatz transferiert. Die Signaldatenauslese, die Vorverarbeitung und die Auswertung können simultan stattfinden. Während die Datenauswertung des ersten Zyklus noch andauert, kann die Datenauslese des zweiten Zyklus bereits stattfinden.
  • Das Code-Multiplexing erfasst die Daten ebenfalls simultan, den Sensoreinheiten wird ein Code zugeteilt und so kann die dem Datenstrom einer Sensoreinheit zugeordnet werden.
  • Ferner werden diese digitalisierten Daten die durch ein Multiplexverfahren ausgelesen wurden, nach der Methode der digitalen Strahlformung (Beamforming) zu einem gebündelten Antennenstrahl gebündelt. Dies ist ein Signalverarbeitungsverfahren, welches bei Sensorarrays für das richtungsabhängige Empfangen oder Senden von Signalen Verwendung findet.
  • Außerdem werden eine Geschwindigkeitsberechnung und eine Entfernungsberechnung mittels einer zweidimensionalen FFT durchgeführt und anschließend kann durch einen sogenannten Falschalarmraten bzw. „Constant false alarm rate“ CFAR-Algorithmus nach Objekten gesucht werden, welche sich aus dem Rauschen des Sensors oder vor störendem Hintergrund – sog. Clutter – hervorheben (Pre-targets).
  • Die Berechnungsschritte der Entfernungs- und Geschwindigkeitsberechnung, Positionsbestimmung und das Differenzieren der Signale von dem Hintergrundrauschen und Bodenreflexionen erlaubt es nur diese Signale als relevante Objekte bereits auf Rohdatenebene zu selektieren. Es werden Objektlisten erstellt die aus diesen vorselektierten Signaldaten der Sensoreinheiten bestehen. Dadurch wird die Gesamtdatenmenge reduziert und vorbereitet, die eine schnellere Auswertung zufolge hat.
  • Ferner werden die Signaldaten der Sensoreinheiten so zusammengeführt, dass sie dieselben Bezugsgrößen und selben Bezugsrahmen aufweisen und somit das virtuelle Gesichtsfeld gebildet werden kann. Die Daten der einzelnen Sensoreinheiten werden in ein gemeinsames Bezugssystem transferiert, das als die Summe der einzelnen Gesichtsfelder betrachtet werden kann. Durch diese Parametrisierung auf ein System werden Überschneidungen nicht dargestellt.
  • In einer Ausführungsform wird das Zusammenführen der Signaldaten auf einen Bezugsrahmen nach dem Bilden der Objektlisten durchgeführt.
  • In einer weiteren Ausführungsform wird das Zusammenführen der Signaldaten vor dem Bilden der Objektlisten durchgeführt. Dies kann nach dem Verknüpfen der Empfangssignale zu gebündelten Daten, oder nach der Geschwindigkeitsberechnung (Doppler-FFT) oder nach der Entfernungsberechnung (Range FFT) durchgeführt werden.
  • Somit kann die Position eines Objektes, das ursprünglich in dem Gesichtsfeld einer Sensoreinheit ihre Bezugsgrößen hat, in dem virtuellen Gesichtsfeld mittels eines Tracking-Algorithmus dargestellt und verfolgt werden.
  • Besonders vorteilhaft ist das Zusammenführen der beiden oder mehrere Bezugssysteme zu einem einzigen virtuellen Bezugssystem, für das Tracking der Objekte. Da die einzelnen Objektpunkte nicht von einem in das andere System transferiert und verknüpft werden müssen, wird die auszuwertende Datenmenge verringert. Insbesondere da die Daten vorverarbeitet und vorselektiert werden wird die Datenmenge verringert, dies ist besonders wichtig bei hohen Datenausleseraten die adhoc ausgewertet werden müssen, damit kein Pile-up oder Datenstau der Datenpakete entstehen kann.
  • Herkömmlich kann dies in solchen Fällen durch größere oder eine Mehrzahl von Datenverarbeitungsvorrichtungen oder durch die Verlängerung der Datenauslesestrecken vermieden werden.
  • Unter Bezugnahme auf die nachfolgenden Zeichnungen sollen einzelne Ausführungsformen der vorliegenden Erfindung dargestellt werden. Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
  • 1 zeigt eine Antennenanordnung in einem Frontend.
  • 2 zeigt eine Ausführungsform mit einem Sensor mit drei Sensoreinheiten.
  • 3 zeigt eine weitere Ausführungsform mit einem Sensor mit zwei Sensoreinheiten.
  • 4 zeigt den Auslese- und Signalbearbeitungsablauf für einen Sensor mit 2 Sensoreinheiten mit einem Zeitmultiplexverfahren.
  • 5 zeigt in analoger Weise die Datenauslese und Auswertung für einen Sensor mit drei Sensoreinheiten.
  • 6 zeigt die zeitgleiche Datenauslese und Auswertung mit einem Frequenzmultiplexverfahren im Fall eines Sensors mit zwei Sensoreinheiten.
  • 7 zeigt einen Sensor mit zwei Sensoreinheiten mit dem Gesichtsfeld aus Strahlkeulen.
  • 8 zeigt eine verfolgte Objektspur die durch 2 Gesichtsfelder geht.
  • Nachfolgend werden Ausführungsbeispiele der Erfindung anhand von Figuren näher erläutert.
  • 1 zeigt ein Beispiel der Antennenanordnung (100) in einem Frontend. Zwei Sendeantennen (1) sind an eine Steuer- und Ausleseeinheit (2) gekoppelt und ein Array (3) aus 8 Empfängerantennen ist an eine Steuer- und Ausleseeinheit (4) gekoppelt. Dieses in 1 gezeigte Frontend z.B. ist ausgelegt für eine Höhenbestimmung mittels Phasenmonopuls, was durch die versetzt angeordneten Sendeantennen erreicht wird.
  • Die Anordnung und das jeweilige Gesichtsfeld eines Sensors mit zwei oder drei Sensoreinheiten werden in den beiden folgenden Figuren veranschaulicht. Es ist auch gezeigt, dass die Geometrie des Gehäuses wie auch die Positionierung der Sensoreinheit abhängig von der Anzahl der verwendeten Sensoreinheiten und der beabsichtigten Überlappzone der Gesichtsfelder ist.
  • 2 zeigt eine Ausführungsform mit einem Sensor (200) mit drei Sensoreinheiten (21, 22, 23), die jeweils eine Antennenanordnung (100) aufweisen, die in dem Sensorgehäuse (20) positioniert sind und jeweils schematisch ein Gesichtsfeld (211, 221, 231) umfassen.
  • 3 zeigt eine weitere Ausführungsform mit einem Sensor (300) mit zwei Sensoreinheiten (31, 32) die jeweils eine Antennenanordnung (100) aufweisen, die in dem Sensorgehäuse (30) positioniert sind und jeweils schematisch ein Gesichtsfeld (311, 321) umfassen.
  • 4 zeigt den Auslese- und Signalbearbeitungsablauf der Signalverarbeitungsvorrichtung für einen Sensor mit zwei Sensoreinheiten. Hierbei erfolgt die Datenauslese mit einem Zeitmultiplexverfahren. Die 4a) bis 4d) verdeutlichen die zeitliche Abfolge der einzelnen Ausleseschritte und die zeitgleiche Auswertung dieser ausgelesenen Daten. 4a) zeigt die zeitliche Aktivierungsabfolge der zwei Sensoreinheiten. In einer ersten Zeitspanne im Mikrosekundenbereich wird die Antennenanordnung des Frontends der ersten Sensoreinheit aktiviert, nach einer Umschaltdauer wird die erste Sensoreinheit deaktiviert und die zweite Sensoreinheit aktiviert. 4b) zeigt respektive die zeitliche Abfolge der einzelnen zeitportionierten Signaldatenauslese. 4c) zeigt das die Daten als zeitportionierte Datenpakete weiter verarbeitet werden. Das zeitportionierte Analogsignal wird mittels AD-Wandler in ein Digitaldatenpaket gewandelt, auf dieses Datenpaket wird eine Fast-Fourier-Transformation zu einer Entfernungsberechnung (Range-FFT) angewendet, bevor die Daten in dieser Form zur Zwischenspeicherung oder Weiterverarbeitung übergeben werden. Diese Datenverarbeitung erfolgt zeitgleich zur Datenaufnahme wie in 4b) gezeigt wird. Letztlich wird in 4d) die gesamte zeitliche Abfolge des Signalverarbeitungszyklus als Ganzes gezeigt. Nach einer Datenauslese und Vorverarbeitung der Daten, wie sie in den 4a) bis 4c) gezeigt wird, der Datensatz der jeweiligen Sensoraktivierungszeiteinheiten RF1 und RF2 ausgewertet mittels einer Geschwindigkeitsberechnung (Doppler-FFT) und mit der Methode der Strahlformung wird die Position bestimmt und ein Objekterkennungsalgorithmus selektiert die Objektdaten aus diesen Sensoraktivierungszeiteinheiten.
  • Die 5 zeigt in analoger Weise die Datenauslese und Auswertung im Fall eines Sensors mit drei Sensoreinheiten.
  • 6 zeigt, wo die zeitgleiche Datenauslese und Auswertung mit einem Frequenzmultiplexverfahren im Fall eines Sensors mit zwei Sensoreinheiten zu sehen ist. In 6a) ist die in einem Zeitintervall zeitgleiche Datenauslese der beiden Sensoreinheiten, welche beide zeitgleich aktiviert wurden, zu sehen. 6b) zeigt, dass jeder Sensoreinheit ein bestimmtes Frequenzband zugeordnet wurde, die zeitgleich empfangenen Analogsignale sind der jeweiligen Sensoreinheit zuordenbar. Ferner zeigt 6c) die Vorverarbeitung der Signaldaten aus einem Zeitintervall. Die Analogsignale beider Sensoreinheiten werden mittels eines AD-Wandlers in Digitaldatenpakete umgewandelt und auf diese Datenpakete wird eine Fast-Fourier-Transformation für eine Entfernungsberechnung (Range-FFT) angewendet, bevor die Daten in dieser Form zur Zwischenspeicherung oder Weiterverarbeitung übergeben werden. Die gesamte zeitliche Abfolge des Signalverarbeitungszyklus wird in 6d) dargestellt. Nach einer Datenauslese und Vorverarbeitung der Daten, wie sie in den 6a) bis 6c) gezeigt ist, wird der Datensatz beider Sensoreinheiten gemeinsam ausgewertet, mittels einer Geschwindigkeitsberechnung (Doppler-FFT) und mit der Methode der Strahlformung wird die Position bestimmt und ein Objekterkennungsalgorithmus selektiert die Objektdaten aus dieser gemeinsamen Sensoraktivierungszeiteinheit.
  • Die Überlagerung der Öffnungswinkel der einzelnen benachbarten Sensoreinheiten ist aus der 7 zu sehen, die einen Sensor (300) mit zwei Sensoreinheiten wie in 3 gezeigt, mit durch die Strahlformung gebildete Strahlkeulen, die zusammen jeweils ein Gesichtsfeld für eine Sensoreinheit bilden. Beide Gesichtsfelder (71, 72) zusammen und mit den zwei sich überlappenden Strahlkeulen (73) kann ein durchgehendes erweitertes Gesichtsfeld bereitgestellt werden.
  • 8 zeigt einen Sensor (300) mit zwei Sensoreinheiten, wie sie in 3 zu sehen sind, mit durch die Strahlformung gebildeten Strahlkeulen die zusammen jeweils ein Gesichtsfeld für eine Sensoreinheit bilden. Durch beide Gesichtsfelder (71, 72) zusammen und mit den zwei sich überlappenden Strahlkeulen (73) kann ein durchgehendes erweitertes Gesichtsfeld bereitgestellt werden. Schematisch ist die Einzelbetrachtung der Gesichtsfelder in 8 zu sehen, die die aus den Strahlkeulen (73) gebildeten Gesichtsfelder (71, 72) und den Überlappungsbereich zeigt. Wobei in 8a) noch beide Gesichtsfelder und der Überlappungsbereich dargestellt sind und die verfolgte Objektspur von einem Gesichtsfeld in das andere übergeht. Der Objektspurpunkt 4 wird von beiden Sensoreinheiten ausgelesen und ausgewertet und dann von einem Bezugssystem in das andere transferiert. Hingegen zeigt 8b), dass dieselbe Objektspur in einem virtuellen erweiterten Gesichtsfeld wie es beispielsweise in 7 und 8a) dargestellt ist, aus den Gesichtsfeldern der einzelnen Sensoreinheiten gebildet wird.
  • Als besondere Verwendung ist ein Hubschrauberradar angedacht, wobei der entscheidende Vorteil darin besteht, dass eine komplette 360° Rundumabdeckung des Umfelds mit lediglich 2 Sensorgeräten erreicht werden kann, die fest an der Helikopterstruktur unterhalb der Rotorachse montiert sind, ohne die Notwendigkeit zusätzlicher Auf- oder Anbauten. Zusätzlich kann durch die hohe Integration der einzelnen Komponenten das gesamte System mit diesen 2 Sensorgeräten umgesetzt werden, da sie als sogenannte Smart Sensoren ausgelegt werden können. Dabei werden die gesamte Datenverarbeitung und die Erzeugung eines 360° Statusreports innerhalb der Sensorgeräte umgesetzt. Dazu findet zum einen eine Kommunikation zwischen den bevorzugt zwei Sensoren statt, die vorzugsweise an der linken & rechten Seite des Hubschraubers oder vorne & hinten am Hubschrauber angebracht sind. Ebenso findet eine Kommunikation mit dem Avioniksystem des Hubschraubers statt, an das die erfassten Hindernisse gesendet werden. Somit ist eine Berechnung oder Bewertung der Daten innerhalb der Hubschrauberavionik nicht mehr notwendig, lediglich die Ausgabe an das HMI (Human-Maschine-Interface) in Form von optischen und/oder akustischen Signalen und Warnhinweisen wird von der Avionik übernommen. Für die Variante zur Nachrüstung von bereits im Betrieb befindlichen Helikoptern oder Standalone Integrationen wird statt der Anbindung über die Avionik eine zusätzliche Interface-Box benötigt, die aus den Informationen der einzelnen beobachteten Bereiche eine Displayanzeige und/oder ein akustisches Signal generiert. In jedem Fall wird die gesamte Sensorsystemfunktionalität ausschließlich in den Sensorgeräten untergebracht.
  • Dabei werden zunächst in einem Sensorgehäuse zwei oder mehr, vorzugsweise drei Einzelfrontends im Sensorgehäuse angebracht, so dass die einzelnen FoV von zwei benachbarten Frontends sich um einige Grad des Öffnungswickels überlagern.
  • Dafür werden zunächst die Radar-Rohdaten aufbereitet und zu einem Gesamtbild für die einzelne Sensoreinheit zusammengefasst. Die so berechneten Pre-Targets werden nun über mehrere Messungen hinweg plausibilisiert und zu Tracks zusammengefasst. Dabei werden auch weitere Systeminputs (soweit in der jeweiligen Hubschrauberinstallation vorhanden) berücksichtigt, wie z.B. Geschwindigkeit über Grund, Drehungen des Helikopters und weitere. Außerdem werden die Track-Informationen mit den zusammen geschlossenen benachbarten Sensoreinheiten (falls vorhanden) ausgetauscht um ein Gesamtbild für eine 360° Abdeckung zu erreichen. Eine einzelne Sensoreinheit hat jeweils einen maximalen überwachten Bereich von bis zu 200° Azimut. Die einzelnen Sensoreinheiten sind so ausgelegt, dass sie direkt ohne Anpassungen mit weiteren gleichen Sensoreinheiten zu einem Gesamtsensorsystem zusammen geschaltet werden können. Hierzu ist keine weitere elektronische Hardware erforderlich, eine einfache Kabelverbindung reicht aus. Somit lassen sich größere Bereiche überwachen und auch zusätzliche Sensoren installieren um auch mögliche durch Anbauten oder ähnliches verursachte tote Winkel abzudecken.
  • In 9 sind lediglich zwei erfindungsgemäße Vorrichtungen aneinander liegend so schematisch angeordnet, dass eine 360° Abdeckung ermöglicht wird. In dieser Ausführungsform ist es ebenso von Vorteil, wenn jeweils 3 Sensoreinheiten verwendet werden.
  • In 10 sind ferner das Anordnungsbeispiel als Hubschrauberradar dargestellt, und zwar die entsprechende Platzierung der beiden erfindungsmäßen Vorrichtungen an dem Hubschrauber. Deutlich ist in 10 die 360° Abdeckung dargestellt, die zusätzlich zwei Überlappungsbereiche erkennen lässt.

Claims (24)

  1. Vorrichtung zur Bestimmung einer Position eines Objekts im dreidimensionalen Raum, insbesondere eines sich bewegenden Objekts dadurch gekennzeichnet, dass die Vorrichtung mindestens zwei Sensoreinheiten aufweist, wobei jede Sensoreinheit ein Gesichtsfeld (FoV) aufweist, und wobei alle Sensoreinheiten über eine zentrale Signalverarbeitungsvorrichtung gekoppelt sind.
  2. Vorrichtung nach Anspruch 1, gekennzeichnet durch ein virtuelles Gesichtsfeld das aus den Daten aller Sensoreinheiten gebildet wird um ein einzelnes erweitertes Gesichtsfeld bereitzustellen.
  3. Vorrichtung nach Anspruch 2, wobei das erweiterte Gesichtsfeld durch das Ausrichten der Sensoreinheiten und/oder durch unterschiedliche Hauptstrahlungsrichtungen (Main-Beamdirection) erzeugt wird.
  4. Vorrichtung nach einem der Ansprüche 1 bis 3, wobei die Erfassung von Empfangssignalen von den mindestens zwei Sensoreinheiten nach einem Multiplexverfahren erfolgt.
  5. Vorrichtung nach einem der Ansprüche 1 bis 4, wobei die Signalverarbeitungsvorrichtung so ausgelegt ist, um selektierte Objektlisten aus den Empfangssignalen zu erstellt.
  6. Vorrichtung nach einem der Ansprüche 1 bis 5, wobei die Sensoreinheit ein Frontend aufweist, das mindestens zwei Empfängerantennen und mindestens eine Sendeantenne aufweist.
  7. Vorrichtung nach Anspruch 6, wobei ein Frontend bevorzugt vier, acht oder sechzehn Empfängerantennen aufweist.
  8. Vorrichtung nach Anspruch 6 oder 7, wobei die Empfängerantennen so angeordnet sind, dass eine Positionsbestimmung in mindestens einer Ebene durch digitale Strahlformung ermöglicht wird.
  9. Vorrichtung nach Anspruch 6, 7 oder 8, wobei die Senderantennen so angeordnet sind, dass eine Positionsbestimmung in mindestens einer Ebene durch Phasenvergleich und/oder Amplitudenvergleich ermöglicht wird.
  10. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die Sensoreinheiten im Frequenzband von 1 GHz bis 1 THz, bevorzugt im Bereich von 5 GHz bis 150 GHz und insbesondere im Bereich von 75 GHz bis 85 GHz betrieben werden.
  11. Vorrichtung nach einem der Ansprüche 6 bis 10, wobei die Empfängerantennen und Sendeantennen in einer planaren Leiterplattentechnologie realisiert wurden.
  12. Verfahren zur Bestimmung einer Position eines Objekts, insbesondere eines sich bewegenden Objekts, mit den Verfahrensschritten: Bereitstellen von mindestens zwei Sensoreinheiten; Koppeln der mindestens zwei Sensoreinheiten mit einer zentralen Signalverarbeitungsvorrichtung.
  13. Verfahren nach Anspruch 12, wobei die Empfangssignale der einzelnen Frontends, nach einem Multiplexverfahren gebündelt werden, welches ein Zeitmultiplexverfahren, ein Frequenzmultiplexverfahren, ein Codemultiplexverfahren oder eine beliebige Kombination aus diesen Multiplexverfahren ist.
  14. Verfahren nach einem der Ansprüche 12 oder 13, wobei die Empfangssignale nach der Methode der digitalen Strahlformung zu einem gebündelten Antennenstrahl gebündelt werden.
  15. Verfahren nach Anspruch 14, wobei einer Geschwindigkeitskorrektur und einer Entfernungskorrektur mittels einer zweidimensionalen FFT durch Vergleich von Ausgangssignalen von sich überlagernden Antennenzeilen, welche dem gebündelten Antennenstrahl entsprechen, durchgeführt wird.
  16. Verfahren nach einem der Ansprüche 12 bis 15, umfasst des Weiteren ein Selektionsverfahren und Objekterkennungsverfahren die so ausgelegt sind um Objektlisten aus den selektierten Daten zu erstellen.
  17. Verfahren nach einem der Ansprüche 12 bis 16, umfasst des Weiteren das Zusammenführen selektierter Daten zur gemeinsamen Auswertung.
  18. Verfahren nach einem der Ansprüche 12 bis 17, wobei das Zusammenführen der selektierten Daten den Schritt des Umwandelns der selektierten Daten auf gemeinsame Bezugsgrößen umfasst, wobei die einzelnen objektgebundenen Bezugsgrößen von den jeweiligen Frontends bei der Zusammenführung der Daten für das virtuelle Gesichtsfeld (FoV) so umgewandelt werden, dass die Position des Objekts in einem virtuellen Gesichtsfeld dargestellt werden kann.
  19. Verfahren nach einem der Ansprüche 12 bis 18, wobei die Zusammenführung der selektierten Daten für das gesamte virtuelle Gesichtsfeld (FoV) eines virtuellen Sensors nach Bilden der Objektlisten erfolgt.
  20. Verfahren nach einem der Ansprüche 12 bis 18, wobei die Zusammenführung der selektierten Daten für das gesamte virtuelle Gesichtsfeld (FoV) vor dem Bilden der Objektliste erfolgt, insbesondere nach dem Verknüpfen der Empfangssignale zu gebündelten Daten, oder nach der Geschwindigkeitsberechnung (Doppler-FFT), oder nach der Entfernungsberechnung (Range FFT).
  21. Verfahren nach einem der Ansprüche 12 bis 20, wobei das virtuelle Gesichtsfeld aus den Daten aller Sensoreinheiten gebildet wird um ein einzelnes erweitertes Gesichtsfeld bereitzustellen.
  22. Verfahren nach einem der Ansprüche 12 bis 21, wobei das Auswerten der Daten einen Objekt-Tracking Algorithmus umfasst, der auf die zusammengeführten selektierten Daten angewendet wird.
  23. Radarsystem zur Verwendung einer Vorrichtung nach einem der Ansprüche 1 bis 11 und dem Verfahren nach einem der Ansprüche 12 bis 22 zur Bestimmung einer Position eines Objekts im dreidimensionalen Raum, insbesondere eines sich bewegenden Objekts.
  24. Verwendung des Radarsystems in einem Hubschrauberradar.
DE102016205227.6A 2015-10-29 2016-03-30 Verfahren und Vorrichtung zur Verfolgung von Objekten, insbesondere sich bewegenden Objekten, in den dreidimensionalen Raum von abbildenden Radarsensoren Withdrawn DE102016205227A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102016205227.6A DE102016205227A1 (de) 2016-03-30 2016-03-30 Verfahren und Vorrichtung zur Verfolgung von Objekten, insbesondere sich bewegenden Objekten, in den dreidimensionalen Raum von abbildenden Radarsensoren
PCT/EP2016/075424 WO2017072048A1 (de) 2015-10-29 2016-10-21 Verfahren und vorrichtung zur verfolgung von objekten, insbesondere sich bewegenden objekten, in den dreidimensionalen raum von abbildenden radarsensoren
EP16784532.0A EP3368916A1 (de) 2015-10-29 2016-10-21 Verfahren und vorrichtung zur verfolgung von objekten, insbesondere sich bewegenden objekten, in den dreidimensionalen raum von abbildenden radarsensoren
EP23189579.8A EP4249938A3 (de) 2015-10-29 2016-10-21 Verfahren und vorrichtung zur verfolgung von objekten, insbesondere sich bewegenden objekten, in den dreidimensionalen raum von abbildenden radarsensoren
US15/772,184 US10877145B2 (en) 2015-10-29 2016-10-21 Method and device for tracking objects, in particular moving objects, in the three-dimensional space of imaging radar sensors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016205227.6A DE102016205227A1 (de) 2016-03-30 2016-03-30 Verfahren und Vorrichtung zur Verfolgung von Objekten, insbesondere sich bewegenden Objekten, in den dreidimensionalen Raum von abbildenden Radarsensoren

Publications (1)

Publication Number Publication Date
DE102016205227A1 true DE102016205227A1 (de) 2017-10-05

Family

ID=59886156

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016205227.6A Withdrawn DE102016205227A1 (de) 2015-10-29 2016-03-30 Verfahren und Vorrichtung zur Verfolgung von Objekten, insbesondere sich bewegenden Objekten, in den dreidimensionalen Raum von abbildenden Radarsensoren

Country Status (1)

Country Link
DE (1) DE102016205227A1 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021004792A (ja) * 2019-06-26 2021-01-14 古河電気工業株式会社 レーダ装置およびレーダ装置の対象物検出方法
CN112781599A (zh) * 2019-11-07 2021-05-11 Aptiv技术有限公司 确定车辆的位置的方法
EP3851870A1 (de) * 2020-01-14 2021-07-21 Aptiv Technologies Limited Verfahren zur bestimmung von positionsdaten und/oder bewegungsdaten eines fahrzeugs
US11378653B2 (en) 2018-01-25 2022-07-05 Aptiv Technologies Limited Method for increasing the reliability of determining the position of a vehicle on the basis of a plurality of detection points
US11500083B2 (en) 2018-01-25 2022-11-15 Aptiv Technologies Limited Method for determining the position of a vehicle
US11506511B2 (en) 2019-11-29 2022-11-22 Aptiv Technologies Limited Method for determining the position of a vehicle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19705834A1 (de) * 1997-02-15 1998-08-20 Itt Mfg Enterprises Inc Mit Mikrowellen arbeitende Abstandsmeßeinrichtung für Kraftfahrzeuge
US6087928A (en) * 1995-10-31 2000-07-11 Breed Automotive Technology, Inc. Predictive impact sensing system for vehicular safety restraint systems
DE60107692T2 (de) * 2000-08-16 2005-12-15 Raytheon Company, Waltham System zur erfassung von naheliegenden objekten
DE102006053354B4 (de) * 2006-11-10 2010-03-11 Eurocopter Deutschland Gmbh Rundum-Warnsystem für Hubschrauber
WO2014068548A2 (en) * 2012-11-05 2014-05-08 I.D.S. - Ingegneria Dei Sistemi - S.P.A. A method and a device for determining the trajectory of a bullet emitted by a shot gun and for locating a shot position

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6087928A (en) * 1995-10-31 2000-07-11 Breed Automotive Technology, Inc. Predictive impact sensing system for vehicular safety restraint systems
DE19705834A1 (de) * 1997-02-15 1998-08-20 Itt Mfg Enterprises Inc Mit Mikrowellen arbeitende Abstandsmeßeinrichtung für Kraftfahrzeuge
DE60107692T2 (de) * 2000-08-16 2005-12-15 Raytheon Company, Waltham System zur erfassung von naheliegenden objekten
DE102006053354B4 (de) * 2006-11-10 2010-03-11 Eurocopter Deutschland Gmbh Rundum-Warnsystem für Hubschrauber
WO2014068548A2 (en) * 2012-11-05 2014-05-08 I.D.S. - Ingegneria Dei Sistemi - S.P.A. A method and a device for determining the trajectory of a bullet emitted by a shot gun and for locating a shot position

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11378653B2 (en) 2018-01-25 2022-07-05 Aptiv Technologies Limited Method for increasing the reliability of determining the position of a vehicle on the basis of a plurality of detection points
US11500083B2 (en) 2018-01-25 2022-11-15 Aptiv Technologies Limited Method for determining the position of a vehicle
JP2021004792A (ja) * 2019-06-26 2021-01-14 古河電気工業株式会社 レーダ装置およびレーダ装置の対象物検出方法
JP7306891B2 (ja) 2019-06-26 2023-07-11 古河電気工業株式会社 レーダ装置およびレーダ装置の対象物検出方法
CN112781599A (zh) * 2019-11-07 2021-05-11 Aptiv技术有限公司 确定车辆的位置的方法
EP3819663A1 (de) * 2019-11-07 2021-05-12 Aptiv Technologies Limited Verfahren zur bestimmung der position eines fahrzeugs
US11506511B2 (en) 2019-11-29 2022-11-22 Aptiv Technologies Limited Method for determining the position of a vehicle
EP3851870A1 (de) * 2020-01-14 2021-07-21 Aptiv Technologies Limited Verfahren zur bestimmung von positionsdaten und/oder bewegungsdaten eines fahrzeugs
CN113189975A (zh) * 2020-01-14 2021-07-30 Aptiv技术有限公司 确定车辆的位置数据和/或运动数据的方法

Similar Documents

Publication Publication Date Title
DE102016205227A1 (de) Verfahren und Vorrichtung zur Verfolgung von Objekten, insbesondere sich bewegenden Objekten, in den dreidimensionalen Raum von abbildenden Radarsensoren
EP2725382B1 (de) Synthetisches Apertur Radar zur gleichzeitigen Bildaufnahme und Bewegtzielerkennung
DE10143561B4 (de) Verfahren und System zur Lokalisierung von Emittern
DE102020100286A1 (de) Deep learning für superauflösung in einem radarsystem
DE102006022814A1 (de) Hochauflösendes Synthetik-Apertur-Seitenansicht-Radarsystem mittels Digital Beamforming
DE102011083756A1 (de) Radar-Vorrichtung und Verfahren zum Erzeugen einer Gruppencharakteristik eines Radars
DE102015221163A1 (de) Verfahren und Vorrichtung zur Verfolgung von Objekten, insbesondere sich bewegenden Objekten, in den dreidimensionalen Raum von abbildenden Radarsensoren
WO2013034281A1 (de) Abbildender radarsensor mit schmaler antennenkeule und weitem winkel-detektionsbereich
EP2630514B1 (de) Verfahren und vorrichtung zur objekterfassung
EP3368916A1 (de) Verfahren und vorrichtung zur verfolgung von objekten, insbesondere sich bewegenden objekten, in den dreidimensionalen raum von abbildenden radarsensoren
DE69726639T2 (de) Mehrstrahl-Radarsystem
DE10258367A1 (de) Mehrzielfähiges Verfahren und mehrzielfähige Sensorvorrichtung für die Abstands- und Winkelortung von Zielobjekten im Nahbereich
WO2020069831A1 (de) 360°-mimo-radarsystem mit multiplen radarsensoren und phasenkalibrierung via überlappende virtuelle tx- und rx-antennen benachbarter radarsensoren
WO2018197346A1 (de) Verfahren zum betrieb eines radarsensors in einem kraftfahrzeug, radarsensor und kraftfahrzeug
DE102013216461A1 (de) Synthetik-Apertur-Radarverfahren
DE2240749A1 (de) Verfahren zur erfassung von in der luft, im raum oder unter wasser befindlichen objekten durch reflexion elektromagnetischer oder akustischer wellen
EP0616232B1 (de) Verkehrsradargerät
DE102006059623B3 (de) Verfahren und System zur Positionsbestimmung
EP0447874B1 (de) Signalverarbeitungsverfahren und Signalverarbeitunsanordnung für eine Pulsradaranlage
DE102020007603A1 (de) Kalibrieren von Arrayantennen basierend auf der Signalenergieverteilung in Abhängigkeit von der Geschwindigkeit
WO2020069922A1 (de) Verfahren zur bereitstellung von objektinformationen von statischen objekten in einer umgebung eines fahrzeuges
EP2270539A2 (de) Antennensteuerung für einen Radarsensor
EP2699935A1 (de) Verfahren und vorrichtung zum bestimmen und darstellen von möglichen zielparametern
EP4139706A1 (de) Radar-verfahren und radar-system zur phasenkohärenten auswertung
DE102022210263A1 (de) Verfahren zur Steuerung eines kohärenten kooperativen Radarsensornetzwerks

Legal Events

Date Code Title Description
R163 Identified publications notified
R082 Change of representative

Representative=s name: PATENTANWAELTE BECKER & MUELLER, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee