DE102017106931A1 - Non-line-of-sight obstruction detection and localization - Google Patents

Non-line-of-sight obstruction detection and localization Download PDF

Info

Publication number
DE102017106931A1
DE102017106931A1 DE102017106931.3A DE102017106931A DE102017106931A1 DE 102017106931 A1 DE102017106931 A1 DE 102017106931A1 DE 102017106931 A DE102017106931 A DE 102017106931A DE 102017106931 A1 DE102017106931 A1 DE 102017106931A1
Authority
DE
Germany
Prior art keywords
line
sight
objects
reflections
platform
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017106931.3A
Other languages
German (de)
Inventor
Igal Bilik
Michael Slutsky
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US15/161,872 external-priority patent/US10395539B2/en
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102017106931A1 publication Critical patent/DE102017106931A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/35Details of non-pulse systems
    • G01S7/352Receivers
    • G01S7/354Extracting wanted echo-signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/0209Systems with very large relative bandwidth, i.e. larger than 10 %, e.g. baseband, pulse, carrier-free, ultrawideband
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Ein Nicht-Sichtlinienobjekt Hinderniserkennungs- und Lokalisierungssystem und ein Verfahren zum Erfassen und Lokalisieren eines Nicht-Sichtlinienobjekts beinhalten das Empfangen von Reflexionen an einem Erkennungssystem einer beweglichen Plattform, wobei die Reflexionen Direkt- und Mehrwegreflexionen beinhalten, wobei das Identifizieren der Reflexionen, die mit statischen Zielen verbunden sind, um die Reflexionen zu behalten, die mit beweglichen Zielen verbunden sind, und zwischen Sichtlinienobjekten und Nicht-Sichtlinienobjekten unter den beweglichen Zielen unterscheiden. Das Verfahren beinhaltet auch das Lokalisieren der Nicht-Sichtlinienobjekte relativ zur Plattform und das Anzeigen der Annäherung von Nicht-Sichtlinienobjekten unter den Nicht-Sichtlinienobjekten, wobei sich annähernde Nicht-Sichtlinienobjekte in Richtung der Plattform auf einem Pfad bewegen, der die Plattform schneidet.A Non-Line of Sight Object An obstacle detection and location system and method of detecting and locating a non-line of sight object includes receiving reflections on a movable platform detection system, the reflections including direct and multipath reflections, identifying the reflections associated with static targets connected to keep the reflections associated with moving targets, and distinguish between visual line objects and non-visual line objects among the moving targets. The method also includes locating the non-line-of-sight objects relative to the platform and displaying the approach of non-line-of-sight objects among the non-line-of-sight objects, wherein approximate non-line-of-sight objects move toward the platform along a path that intersects the platform.

Description

GEBIET DER ERFINDUNG FIELD OF THE INVENTION

Die vorliegende Erfindung bezieht sich auf die Hinderniserfassung und insbesondere auf eine Nicht-Sichtlinienobjekt Hinderniserkennung und Lokalisierung. The present invention relates to obstacle detection, and more particularly to a non-line-of-sight obstruction detection and location.

HINTERGRUND BACKGROUND

Die Hinderniserkennung in verschiedenen Formen ist Teil einer Anzahl von Systemen. In automatisierten Fertigungseinrichtungen müssen zum Beispiel Maschinen, die Transporteinrichtungen und Komponenten an verschiedene Bereiche der Anlage transportieren, Hindernisse erkennen und vermeiden. Als weiteres Beispiel müssen automatisierte Staubsauger Hindernisse wie Treppen erkennen und vermeiden. Als noch ein weiteres Beispiel ist die Hinderniserkennung eine der Aufgaben, die durch zunehmend automatisierte Fahrzeuge erreicht werden müssen. Derzeit bezieht sich Hinderniserkennung auf die Erkennung von Hindernissen in der Sichtlinie. Dementsprechend ist es wünschenswert, eine nicht-Sichtlinien Hinderniserkennung und Lokalisierung bereitzustellen. Obstacle detection in various forms is part of a number of systems. In automated manufacturing facilities, for example, machines that transport equipment and components to different parts of the plant must detect and avoid obstacles. As another example, automated vacuum cleaners need to detect and avoid obstacles such as stairs. As yet another example, obstacle detection is one of the tasks that must be accomplished by increasingly automated vehicles. Currently, obstacle detection refers to the detection of obstacles in the line of sight. Accordingly, it is desirable to provide non-line-of-sight obstacle detection and location.

ZUSAMMENFASSUNG DER ERFINDUNG SUMMARY OF THE INVENTION

Gemäß einer Ausführungsform beinhaltet ein Verfahren zum Erfassen und Lokalisieren eines Nicht-Sichtlinienobjekts das Empfangen von Reflexionen an einem Erkennungssystem einer beweglichen Plattform, wobei die Reflexionen direkte und mehrseitige Reflexionen beinhalten; Identifizieren der Reflexionen, die mit statischen Zielen verbunden sind, um die Reflexionen zu behalten, die mit sich bewegenden Zielen verbunden sind; Unterscheidung zwischen Sichtlinienobjekten und Nicht-Sichtlinienobjekten unter den beweglichen Zielen; Lokalisieren von Nicht-Sichtlinienobjekten relativ zur Plattform; und die Annäherung an Nicht-Sichtlinienobjekte unter den Nicht-Sichtlinienobjekten, wobei sich das annähernde Nicht-Sichtlinienobjekt Richtung der Plattform auf einem Weg, der die Plattform schneidet, bewegt. According to one embodiment, a method for detecting and locating a non-line-of-sight object includes receiving reflections at a movable platform detection system, the reflections including direct and multi-sided reflections; Identifying the reflections associated with static targets to retain the reflections associated with moving targets; Distinction between visual line objects and non-visual line objects among the moving targets; Locating non-line-of-sight objects relative to the platform; and approaching non-line-of-sight objects among the non-line-of-sight objects, wherein the approximate non-line-of-sight object moves towards the platform on a path that intersects the platform.

Gemäß einer anderen Ausführungsform beinhaltet ein Nicht-Sichtlinien Hinderniserkennungs- und Lokalisierungssystem, das auf einer beweglichen Plattform angeordnet ist, einen Senderabschnitt, der konfiguriert ist, um Hochfrequenzsignale von einer Vielzahl von Übertragungselementen zu übertragen; einen Empfängerabschnitt, der so konfiguriert ist, dass er Reflexionen an einer Vielzahl von Empfangsantennenelementen empfängt, wobei die Reflexionen direkte und mehrseitige Reflexionen beinhalten; und ein Verarbeitungssystem, das konfiguriert ist, um die Reflexionen zu identifizieren, die statischen Zielen zugeordnet sind, die mit bewegten Zielen verbundenen Reflexionen zu behalten, zwischen Sichtlinienobjekten und Nicht-Sichtlinienobjekten unter den beweglichen Zielen zu unterscheiden, Lokalisieren der Nicht-Sichtlinienobjekten relativ zur Plattform, und Annäherung an Nicht-Sichtlinienobjekte unter den Nicht-Sichtlinienobjekten, wobei sich nähernde Nicht-Sichtlinienobjekte in Richtung der Plattform auf einem Weg, der die Plattform schneidet, bewegen. In accordance with another embodiment, a non-line-of-sight obstacle detection and location system disposed on a moveable platform includes a transmitter section configured to transmit radio frequency signals from a plurality of transmission elements; a receiver section configured to receive reflections at a plurality of receive antenna elements, the reflections including direct and multi-sided reflections; and a processing system configured to identify the reflections associated with static targets, retain the reflections associated with moving targets, distinguish between line-of-sight objects and non-sight-line objects among the moving targets, locate the non-line-of-sight objects relative to the platform , and approach non-line-of-sight objects among the non-line-of-sight objects, with approaching non-line-of-sight objects moving toward the platform on a path that intersects the platform.

Die vorstehend genannten Merkmale und Vorteile sowie weitere Merkmale und Vorteile der Erfindung sind aus der folgenden ausführlichen Beschreibung der Erfindung in Verbindung mit den zugehörigen Zeichnungen, leicht ersichtlich. The foregoing features and advantages, as well as other features and advantages of the invention, will be more readily apparent from the following detailed description of the invention when considered in conjunction with the accompanying drawings.

KURZBESCHREIBUNG DER ZEICHNUNGEN BRIEF DESCRIPTION OF THE DRAWINGS

Andere Eigenschaften, Vorteile und Details erscheinen, nur exemplarisch, in der folgenden ausführlichen Beschreibung der Ausführungsformen und der ausführlichen Beschreibung, welche sich auf die folgenden Zeichnungen bezieht: Other features, advantages and details appear, by way of example only, in the following detailed description of the embodiments and detailed description, which refers to the following drawings:

1 ist eine Darstellung der Nicht-Sichtlinien Hinderniserkennung gemäß Ausführungsformen; 1 Figure 12 is an illustration of non-line-of-sight obstacle detection in accordance with embodiments;

2 ist ein Blockdiagramm des Erkennungssystems gemäß Ausführungsformen; und 2 FIG. 10 is a block diagram of the detection system according to embodiments; FIG. and

3 ist ein Prozessablauf eines Verfahrens zum Durchführen der Nicht-Sichtlinien Hinderniserkennung gemäß Ausführungsformen. 3 FIG. 10 is a process flow of a method for performing the non-line-of-sight obstacle detection according to embodiments. FIG.

BESCHREIBUNG DER AUSFÜHRUNGSFORMEN DESCRIPTION OF THE EMBODIMENTS

Die folgende Beschreibung ist lediglich exemplarischer Natur und nicht dazu gedacht, die vorliegende Erfindung in ihren An- oder Verwendungen zu beschränken. Es wird darauf hingewiesen, dass in allen Zeichnungen die gleichen Referenznummern auf die gleichen oder entsprechenden Teile und Merkmale verweisen. The following description is merely exemplary in nature and is not intended to limit the present invention in its applications or uses. It should be noted that the same reference numbers refer to the same or corresponding parts and features throughout the drawings.

Wie vorstehend erwähnt, ist die Hinderniserkennung Teil des Betriebs vieler Systeme, die eine automatisierte Pfadsteuerung beinhalten. Je nach Standort und Distanz können verschiedene Arten der Hinderniserkennung verwendet werden. So können zum Beispiel automatisierte Staubsauger, die Hindernisse erkennen müssen, die in der Größenordnung von Zoll entfernt sind, Infrarotübertragungen und Reflexionen verwenden. Bei anderen Anwendungen, wie beispielsweise Fahrzeug- und Flugzeuganwendungen, bei denen die Erkennung von Hindernissen bei längeren Bereichen von Interesse ist, wird im Allgemeinen Funkerkennung und Reichweiten (Radar) verwendet. Im Allgemeinen senden Radarsysteme Funkwellen und einen bestimmen Bereich, Winkel (Azimut und Elevation) und Geschwindigkeit eines Objekts basierend auf der Reflexion der Funkwellen aus dem Objekt. Als solches beruht eine typische Radarerkennung auf Sichtlinie auf das Objekt (Ziel), das erkannt wird. Allerdings besteht bei Fahrzeugkollisionsvermeidungssystemen beispielsweise ein Interesse daran, Objekte zu erkennen, die sich noch nicht in der Sichtlinie der Fahrzeugsensoren befinden. In Übereinstimmung mit exemplarischen Ausführungsformen der Erfindung wird eine Nicht-Sichtlinien Hinderniserkennung und Lokalisierung erleichtert. Wie unten ausführlicher beschrieben wird, werden Radardaten mit einem vorgegebenen oder gelernten Modell der aktuellen Topologie kombiniert, um Informationen über Objekte abzuleiten, die außerhalb der Sichtlinie liegen. Während der exemplarische Fall von fahrzeugbasierten Radarsystemen zu erläuternden Zwecken beschrieben wird, sind die hierin beschriebenen Ausführungsformen nicht darauf beschränkt, in einem Fahrzeugsystem verwendet zu werden. Andere Fahrzeuge (z.B. Baumaschinen, landwirtschaftliche Ausrüstung) und andere Arten von Plattformen werden ebenfalls in Betracht gezogen. Zusätzlich kann, während ein Doppler-Radarsystem als eine exemplarische Ausführungsform eines Nicht-Sichtlinien Erkennungssystems hierin erörtert wird, jedes Sensorsystem, das Bereichs-, Azimut-, Höhen- und Geschwindigkeitsinformationen bereitstellt, gemäß den ausführlichen Ausführungsformen verwendet werden. As mentioned above, obstacle detection is part of the operation of many systems that include automated path control. Depending on location and distance different types of obstacle detection can be used. For example, automated vacuum cleaners, which need to detect obstacles that are on the order of inches away, can use infrared transmissions and reflections. In other applications, such as vehicle and aircraft applications, where the detection of obstacles in longer ranges is of interest, radio detection and ranges (radar) are generally used. In general, radar systems transmit radio waves and a certain range, angle (azimuth and elevation) and speed of one Object based on the reflection of radio waves from the object. As such, a typical radar detection is based on line of sight to the object (target) being detected. However, for example, vehicle collision avoidance systems have an interest in detecting objects that are not yet in the line of sight of the vehicle sensors. In accordance with exemplary embodiments of the invention, non-line-of-sight obstacle detection and location is facilitated. As will be described in more detail below, radar data is combined with a given or learned model of the current topology to derive information about objects that are out of line of sight. While the exemplary case of vehicle based radar systems is described for illustrative purposes, the embodiments described herein are not limited to being used in a vehicle system. Other vehicles (eg construction equipment, agricultural equipment) and other types of platforms are also considered. Additionally, while a Doppler radar system is discussed as an exemplary embodiment of a non-line-of-sight detection system herein, any sensor system that provides range, azimuth, altitude, and speed information may be used in accordance with the detailed embodiments.

1 ist eine Darstellung der Nicht-Sichtlinien Hinderniserkennung gemäß Ausführungsformen. Ein exemplarischer Schnittpunkt ist dargestellt, und die exemplarische Plattform 10 für das Nicht-Sichtlinien Hinderniserkennungssystem 110 ist ein Fahrzeug. Ein Host-Fahrzeug 100, welches das Erfassungssystem 110 (2) gemäß den nachstehend beschriebenen Ausführungsformen beinhaltet, ist am exemplarischen Schnittpunkt gezeigt. Das Host-Fahrzeug 100 kann andere Sensoren 105 (z. B. Kamera, Lidarsystem) beinhalten. Andere Fahrzeuge 120a, 120b (die auch das Erfassungssystem 110 beinhalten können) und andere Objekte 130 (die in der exemplarischen Darstellung Gebäude sind) werden ebenfalls in 1 gezeigt. Die anderen Objekte 130a und eines der anderen Fahrzeuge 120a befinden sich innerhalb der Sichtlinie des Erfassungssystems 110 des Host-Fahrzeugs 100. Eines der anderen Objekte 130b und das andere Fahrzeug 120b befinden sich nicht innerhalb der Sichtlinie des Erfassungssystems 110 des Host-Fahrzeugs 100. Das heißt, die Übertragungen 215 vom Erfassungssystem 110 des Host-Fahrzeugs 100 können das Fahrzeug 120b oder das Objekt 130b nicht direkt auf der Grundlage der relativen Positionen des Host-Fahrzeugs 100 und des Fahrzeugs 120b oder des in 1 gezeigten Objekts 130b erreichen. Als solches können auch Reflexionen 225 direkt aus dem Fahrzeug 120b oder Objekt 130b nicht mit dem Erfassungssystem 110 des Host-Fahrzeugs 100 erhalten werden. 1 FIG. 13 is an illustration of non-line-of-sight obstacle detection in accordance with embodiments. FIG. An exemplary intersection is shown, and the exemplary platform 10 for the non-sight line obstacle detection system 110 is a vehicle. A host vehicle 100 which is the detection system 110 (2) according to the embodiments described below is shown at the exemplary intersection. The host vehicle 100 can other sensors 105 (eg camera, lidar system). Other vehicles 120a . 120b (which is also the detection system 110 can include) and other objects 130 (which are in the exemplary representation building) are also in 1 shown. The other objects 130a and one of the other vehicles 120a are within the line of sight of the detection system 110 of the host vehicle 100 , One of the other objects 130b and the other vehicle 120b are not within the line of sight of the detection system 110 of the host vehicle 100 , That is, the transmissions 215 from the detection system 110 of the host vehicle 100 can the vehicle 120b or the object 130b not directly based on the relative positions of the host vehicle 100 and the vehicle 120b or of in 1 shown object 130b to reach. As such, reflections can also be used 225 directly from the vehicle 120b or object 130b not with the detection system 110 of the host vehicle 100 to be obtained.

Wie jedoch die gestrichelten Linien in 1 anzeigen, können die Übertragungen 215 vom Erfassungssystem 110 des Host-Fahrzeugs 100 von dem anderen Fahrzeug 120a und anderen Objekten 130a abprallen und das Fahrzeug 120b oder das Objekt 130b erreichen, die außerhalb der Sichtlinie des Erfassungssystems 110 des Host-Fahrzeugs liegen 100. Die Reflexionen 225 des Fahrzeugs 120b oder dem Objekt 130b können auch vom anderen Fahrzeug 120a und anderen Objekten 130 abprallen, um das Host-Fahrzeug 100 zu erreichen. Diese abgeprallten Signale werden als Mehrwegesignale bezeichnet, da auf der Grundlage einer Übertragung 215 durch das Erfassungssystem 110 Reflexionen 225 aus mehreren Pfaden resultieren können. Um deutlich sein, ist nur eine der Direktübertragungen 215x und die resultierenden Reflexionen 225x innerhalb der Sichtlinie des Host-Fahrzeugs 100 (zu und vom Fahrzeug 120a und den anderen Objekten 130) gezeigt, um die nach den Ausführungsformen interessanten Mehrwege-Aufprallsignale (215/225) zu verschleiern. So kann beispielsweise ein Getriebe 215x durch das andere Objekt 130a reflektiert werden und führt zu einer Reflexion 225x direkt zurück zum Erfassungssystem 110 und zusätzlich kann ein Getriebe 215 von dem anderen Objekt 130a abprallen und zu einer Reflexion 225 führen, die tatsächlich vom Nicht-Sichtlinienobjekt des Fahrzeugs 120b stammt. Like the dashed lines in 1 can show the transmissions 215 from the detection system 110 of the host vehicle 100 from the other vehicle 120a and other objects 130a bounce off and the vehicle 120b or the object 130b reach out to the line of sight of the detection system 110 of the host vehicle 100 , The reflections 225 of the vehicle 120b or the object 130b can also from the other vehicle 120a and other objects 130 bounce off to the host vehicle 100 to reach. These bounced signals are referred to as multipath signals because of transmission 215 through the detection system 110 reflections 225 can result from multiple paths. To be clear, this is just one of the live broadcasts 215x and the resulting reflections 225x within the line of sight of the host vehicle 100 (to and from the vehicle 120a and the other objects 130 ) in order to obtain the multipath impact signals (FIGS. 215 / 225 ) to disguise. For example, a transmission 215x through the other object 130a be reflected and leads to a reflection 225x directly back to the detection system 110 and additionally, a gearbox 215 from the other object 130a bounce off and become a reflection 225 actually lead from the non-sight line object of the vehicle 120b comes.

Bei einem typischen Radarsystem sind diese abgeprallten Übertragungen 215 und resultierenden reflektierten Reflexionen 225 oder Mehrwegesignale eine unerwünschte Wirkung, während die direkten Übertragungen 215 und Reflexionen 225 von Zielen innerhalb der Sichtlinie (Fahrzeug 120, Objekte 130) von Interesse sind. Jedoch werden gemäß den Ausführungsformen der Erfindung diese Mehrwege-Reflexionen 225 isoliert und verarbeitet, um eine Nicht-Sichtlinien Hinderniserkennung und Lokalisierung durchzuführen. Die Erfassungssystem 110 ist unter Bezugnahme auf 2 ausgeführt. In a typical radar system these are bounced transmissions 215 and resulting reflected reflections 225 or multipath signals an undesirable effect, while the direct transmissions 215 and reflections 225 of goals within the line of sight (vehicle 120 , Objects 130 ) are of interest. However, according to the embodiments of the invention, these multipath reflections become 225 isolated and processed to perform a non-line of sight obstacle detection and localization. The detection system 110 is with reference to 2 executed.

2 ist ein Blockdiagramm des Erkennungssystems 110 gemäß den Ausführungsformen. ist das Erfassungssystem 110, das ein Doppler-Radarsystem ist, eine exemplarische Ausführungsform, aber jedes Sensorsystem, das ähnliche Informationen liefert (z. B. Geschwindigkeit, Bereich, Azimut, Elevation), kann in alternativen Ausführungsformen verwendet werden. Fahrzeug-Erfassungssysteme 110, die in Fahrzeugplattformen 10, wie beispielsweise dem Host-Fahrzeug 100 verwendet werden, können im Allgemeinen in der kontinuierlichen linearen Wellenfrequenzmodulation (CW-LFM) arbeiten und können Frequenzbereiche von 21 bis 27 Gigahertz oder 77 bis 81 Gigahertz betreiben. Energie wird über eine Anzahl von Zyklen übertragen und empfangen, um die Nicht-Sichtlinien Hinderniserkennung und Lokalisierung gemäß den hierin erörterten Ausführungsformen durchzuführen. Informationen, die vom Erfassungssystem 110 erhalten werden, können den Fahrzeugsteuerungssystemen 270, den Anzeigesystemen 280, zugeführt werden. Das Erfassungssystem 110 kann zusätzlich mit anderen Sensorsystemen 105 des Host-Fahrzeugs 100 kommunizieren. Die Fahrzeugsteuerungssysteme 270 können beispielsweise automatische Brems- oder Lenksteuersysteme beinhalten. Die Anzeigesysteme 280 können dem Fahrer ein Nicht-Sichtlinienobjekt (z. B. ein anderes Fahrzeug 120b, 1) anzeigen. Andere Sensorsysteme 105 des Host-Fahrzeugs 100 können Abbildungssysteme (z. B. ein globales Positionierungssystem (GPS)), visuelle Systeme (z. B. Mono- oder Stereokamerasysteme) und Entfernungssysteme (z. B. LIDAR) beinhalten. Diese anderen Sensorsysteme 105 können die Bestimmung des Standorts des Host-Fahrzeugs 100 und ein Modell der Topologie an der Stelle erleichtern. 2 is a block diagram of the detection system 110 according to the embodiments. is the detection system 110 which is a Doppler radar system, an exemplary embodiment, but any sensor system that provides similar information (eg, speed, range, azimuth, elevation) may be used in alternative embodiments. Vehicle detection systems 110 used in vehicle platforms 10 such as the host vehicle 100 can generally operate in Continuous Linear Wave Frequency Modulation (CW-LFM) and can operate in frequency ranges of 21 to 27 gigahertz or 77 to 81 gigahertz. Energy is transmitted and received over a number of cycles to the non-line of sight obstacle detection and localization according to the Carry out embodiments discussed herein. Information from the capture system 110 can be obtained, the vehicle control systems 270 , the display systems 280 be supplied. The detection system 110 Can be used with other sensor systems 105 of the host vehicle 100 communicate. The vehicle control systems 270 For example, they may include automatic braking or steering control systems. The display systems 280 can give the driver a non-sightline object (eg, another vehicle 120b . 1 ) Show. Other sensor systems 105 of the host vehicle 100 may include imaging systems (eg, a Global Positioning System (GPS)), visual systems (eg, mono or stereo camera systems), and distance systems (eg, LIDAR). These other sensor systems 105 can determine the location of the host vehicle 100 and facilitate a model of topology in place.

Das Erfassungssystem 110 beinhaltet einen Senderabschnitt 210, einen Empfangsabschnitt 220 und ein Verarbeitungssystem 230. Das Erfassungssystem 110 kann ein Multiple Input Multiple Output (MIMO) Array-Radar sein, wie gezeigt. Somit kann der Senderabschnitt 210 mehrere Antennenelemente 214 beinhalten, die mehrere Übertragungen 215 aussenden, und der Empfängerabschnitt 220 kann mehrere Antennenelemente 224 beinhalten, um die Reflexionen 225 aufzunehmen. Derartige Reflexionen werden über einen Azimutbereich und einen Höhenbereich mit den Arrays der Elemente 214, 224 erhalten. Das Erfassungssystem 110 kann bekannte Techniken wie Strahlformung an den Antennenelementen 224 des Empfangsabschnitts 220 verwenden und spezifisch den Dopplereffekt verwenden, um die Geschwindigkeit der erfassten Objekte zu bestimmen. Bereich und Leistung (Intensität) wird auch aus den Reflexionen 225 erhalten. Somit erleichtert das Array von Antennenelementen 214, 224 das Erhalten eines Bildes, bei dem angenommen wird, dass jedes Pixel mit einem Azimut-, Höhen-, Bereichs- und Geschwindigkeitswert sowie einer Intensität zugeordnet ist. Zusätzlich kann das Erfassungssystem 110 ein Modell der Topologie (das die Ziele in der Sichtlinie angibt) verwenden, um die Identifizierung von Nicht-Sichtlinienobjekten zu vereinfachen. The detection system 110 includes a transmitter section 210 , a reception section 220 and a processing system 230 , The detection system 110 can be a Multiple Input Multiple Output (MIMO) array radar as shown. Thus, the transmitter section 210 several antenna elements 214 involve multiple transmissions 215 send out, and the receiver section 220 can have several antenna elements 224 involve the reflections 225 take. Such reflections are over an azimuth range and a height range with the arrays of elements 214 . 224 receive. The detection system 110 can be known techniques such as beam shaping on the antenna elements 224 of the receiving section 220 use and specifically use the Doppler effect to determine the speed of the detected objects. Range and power (intensity) will also reflect off the reflections 225 receive. Thus, the array of antenna elements facilitates 214 . 224 obtaining an image assuming that each pixel is associated with an azimuth, altitude, range and velocity value and intensity. In addition, the detection system 110 Use a topology model (which specifies the goals in the line of sight) to simplify the identification of non-line of sight objects.

Der Senderabschnitt 210 und der Empfängerabschnitt 220 sind bekannt und werden hierin nicht ausführlich beschrieben. Wie in der erweiterten Ansicht in 2 gezeigt, beinhaltet der Senderabschnitt 210 im Allgemeinen einen Oszillator 211, einen Puffer 212 und einen Leistungsverstärker 213 und der Empfangsabschnitt 220 beinhaltet im Allgemeinen einen Vorverstärker 221, einen Mischer 222 und einen Analog-Digital-Wandler (A/D-Wandler) 223. Das Verarbeitungssystem 230 beinhaltet eine oder mehrere Speichervorrichtungen 240 und einen oder mehrere Prozessoren 250, um die Nicht-Sichtlinien Hinderniserkennung durchzuführen. Während das Verarbeitungssystem 230 als Teil des Erkennungssystems 110 gezeigt ist und von anderen Fahrzeugsteuerungssystemen 270 getrennt ist, kann beispielsweise das Verarbeitungssystem 230, das die Reflexionen 225 verarbeitet, um eine Nicht-Sichtlinien Hinderniserkennung durchzuführen, unter einem oder mehreren Systemen in dem Host-Fahrzeug 100 gemeinsam geteilt werden. Die Kommunikation zwischen den verschiedenen Systemen (110, 270, 280, 105) kann auf einer Festverdrahtung oder drahtlosen Kommunikation oder auf einer Kombination von bekannten Kommunikationsschemata basieren, einschließlich beispielsweise über einen gemeinsamen Bus. Die Verarbeitung der Reflexionen 225, die durch das Verarbeitungssystem 230 durchgeführt wird, um Nicht-Sichtlinienobjekte zu identifizieren und zu lokalisieren, die sich dem Host-Fahrzeug 100 nähern, wird unter Bezugnahme auf 3 beschrieben. The transmitter section 210 and the receiver section 220 are known and will not be described in detail herein. As in the expanded view in 2 shown, includes the transmitter section 210 generally an oscillator 211 , a buffer 212 and a power amplifier 213 and the receiving section 220 generally includes a preamplifier 221 , a mixer 222 and an analog-to-digital converter (A / D converter) 223 , The processing system 230 includes one or more storage devices 240 and one or more processors 250 to perform the non-sight line obstacle detection. While the processing system 230 as part of the recognition system 110 is shown and other vehicle control systems 270 is separated, for example, the processing system 230 that the reflections 225 processed to perform a non-sight line obstacle detection, under one or more systems in the host vehicle 100 shared together. The communication between the different systems ( 110 . 270 . 280 . 105 ) may be based on hardwired or wireless communication or on a combination of known communication schemes, including, for example, a common bus. The processing of reflections 225 passing through the processing system 230 is performed to identify and locate non-line-of-sight objects related to the host vehicle 100 will be referring to 3 described.

3 ist ein Prozessablauf eines Verfahrens zum Durchführen der Nicht-Sichtlinien Hinderniserkennung und Lokalisierung gemäß den Ausführungsformen. Die nachfolgend dargestellten exemplarischen Ausführungsformen beziehen sich auf die Reflexionen 225, die vom Erfassungssystem 110 zu erläuternden Zwecken empfangen werden. Wie vorstehend erwähnt, können (Bereichs-, Geschwindigkeits-, Azimut-, Höhen-)Information, die verwendet wird, um eine Nicht-Sichtlinienerkennung durchzuführen, stattdessen von anderen bekannten Sensorsystemen oder anderen Konfigurationen von Radarsystemen erhalten werden. Bei Block 310 beinhaltet das Erhalten von Reflexionen 225 das Erhalten sowohl der direkten als auch der Mehrwegreflexionen 225 auf der Grundlage der vorhandenen Objekte. Das Erhalten von Reflexionen 225 beinhaltet auch das Durchführen mehrerer Übertragungen 215 von jedem Sendeantennenelement 214 und das Erhalten mehrerer Reflexionen 225 an jedem Empfangsantennenelement 224. Die Verarbeitung der Reflexionen 225, bei Block 320 beinhaltet mehrere Prozesse 330, 340, 350, wie gezeigt. Zusätzlich zu den im Block 310 erhaltenen Reflexionen 225 werden andere Informationen (die bei den Blöcken 325 und 335 erhalten werden) verwendet, um Nicht-Sichtlinienobjekte (z. B. ein anderes Fahrzeug 120b, 1) zu erfassen und zu lokalisieren. Das Erhalten anderer Informationen bei Block 325 bezieht sich auf das Erhalten von Informationen von anderen Sensoren 105 oder anderen Verarbeitungssystemen der Plattform 10 (z. B. Host-Fahrzeug 100). Die anderen Informationen können Landschaftsinformationen über die Topologie des aktuellen Standortes der Plattform 10 (Hostfahrzeug 100) beinhalten. Die Landschaftsinformation kann beispielsweise die Lage von Objekten 130 wie zum Beispiel Gebäude beinhalten. Diese Information kann als Eingabe für das Host-Fahrzeug 100 bereitgestellt werden oder kann bei früheren Besuchen an der gleichen Stelle durch das Host-Fahrzeug 100 gemäß einem bekannten dynamischen Lernalgorithmus gelernt werden. Das Überwachen von Host-Fahrzeug 100 Bewegungsparametern kann bei Block 335 das Überwachen anderer Sensoren 105, wie beispielsweise eines GPS-Empfängers des Host-Fahrzeugs 100, beinhalten, um Position und Bewegung zu bestimmen. Wie 3 angezeigt, wird die Ortsinformation, die durch Überwachen des Host-Fahrzeugs 100 (bei Block 335) erhalten wird, benötigt, um andere Informationen, wie beispielsweise Landschaftsinformation (bei Block 325) zu erhalten. 3 FIG. 10 is a process flow of a method of performing the non-visual lines obstacle detection and localization according to the embodiments. The exemplary embodiments illustrated below relate to the reflections 225 that from the detection system 110 for illustrative purposes. As noted above, (range, velocity, azimuth, altitude) information used to perform non-line-of-sight detection may instead be obtained from other known sensor systems or other configurations of radar systems. At block 310 involves receiving reflections 225 receiving both direct and reusable reflections 225 based on the existing objects. Getting reflections 225 also includes performing multiple transfers 215 from each transmit antenna element 214 and getting multiple reflections 225 at each receiving antenna element 224 , The processing of reflections 225 , at block 320 involves several processes 330 . 340 . 350 , as shown. In addition to those in the block 310 received reflections 225 other information (the one at the blocks 325 and 335 received) to non-line of sight objects (eg, another vehicle 120b . 1 ) to capture and locate. Getting other information at block 325 refers to getting information from other sensors 105 or other processing systems of the platform 10 (eg host vehicle 100 ). The other information can provide landscape information about the topology of the current location of the platform 10 (Host vehicle 100 ). The landscape information can, for example, the location of objects 130 such as buildings. This information can be used as input to the host vehicle 100 can be provided by or at previous visits to the same place Host vehicle 100 be learned according to a known dynamic learning algorithm. Monitoring host vehicle 100 Motion parameters can be at block 335 monitoring other sensors 105 such as a GPS receiver of the host vehicle 100 , to determine position and movement. As 3 displayed, the location information is obtained by monitoring the host vehicle 100 (at block 335 ) is needed to provide other information, such as landscape information (at block 325 ) to obtain.

Das Identifizieren von Reflexionen 225 aus statischen Umgebungen, bei Block 330, bezieht sich auf die Identifizierung von Pixeln mit Nullgeschwindigkeit (Null-Doppler). Diese Pixel können dann nicht bewegten Objekten (z. B. den Objekten 130a, 130b, 1) zugeordnet werden. Die Identifikation bei Block 330 kann unterstützt werden, wenn die Landschaftsinformation verfügbar ist (ab Block 325). Die Landschaftsinformation hilft bei der Unterscheidung zwischen den stationären Objekten 130 in der Szene. Das heißt, wenn das Fahrzeug 120a in 1 gestoppt wird, kann es als ein nicht bewegendes Objekt erscheinen. Jedoch kann die Landschaftsinformation (von Block 325) verwendet werden, um das Fahrzeug 120a (das zum Zeitpunkt der Verarbeitung nicht beweglich sein kann, aber nicht stationär ist) mit Objekten 130 (die zum Zeitpunkt der Verarbeitung sowohl unbewegt als auch stationär sind) verwendet werden. Die Identifizierung von Reflexionen 225 aus statischen Umgebungen bei Block 330 kann zuerst als eine Art von Filterung der Reflexionen 225 durchgeführt werden, um die Reflexionen 225 zu isolieren, die mit sich bewegenden (oder beweglichen) Objekten verbunden sind (sowohl innerhalb als auch außerhalb der Sichtlinie des Host-Fahrzeugs 100 des Überwachungssystems 110). Bei dieser Filterung von statischen Objekten (bei Block 330) folgt die Unterscheidung zwischen Sichtlinie (z. B. 120a) und Nicht-Sichtlinie (z. B. andere Fahrzeug 120b, 1), die Objekte im Block 340 bewegt. Als Teil der Verarbeitung bei Block 340 können Pixel, die einer Bewegung zugeordnet sind, zuerst verwendet werden, um Objekte basierend auf einem bekannten Clustering-Algorithmus zu identifizieren. Der Rest der Verarbeitung bei Block 340 beinhaltet dann die Kategorisierung der Objekte innerhalb oder außerhalb der Sichtlinie der Plattform 10. Identifying reflections 225 from static environments, at block 330 , refers to the identification of zero-speed (zero-Doppler) pixels. These pixels can then not be moved objects (eg the objects 130a . 130b . 1 ) be assigned. The identification at block 330 can be supported if the landscape information is available (from block 325 ). The landscape information helps to distinguish between the stationary objects 130 in the scene. That is, when the vehicle 120a in 1 stopped, it may appear as a non-moving object. However, the landscape information (from block 325 ) used to the vehicle 120a (which can not be mobile at the time of processing, but is not stationary) with objects 130 (which are both stationary and stationary at the time of processing). The identification of reflections 225 from static environments at block 330 can first as a kind of filtering the reflections 225 be done to the reflections 225 to isolate, which are connected to moving (or moving) objects (both inside and outside the line of sight of the host vehicle 100 of the monitoring system 110 ). In this filtering of static objects (at block 330 ) follows the distinction between line of sight (eg 120a ) and non-line of sight (eg other vehicle 120b . 1 ), the objects in the block 340 emotional. As part of processing at block 340 For example, pixels associated with a move may first be used to identify objects based on a known clustering algorithm. The rest of the processing at block 340 then includes the categorization of the objects inside or outside the line of sight of the platform 10 ,

Die Unterscheidung der Sichtlinienbewegungsobjekte von Nicht-Sichtlinienbewegungsobjekten, bei Block 340, kann nach verschiedenen Ausführungsformen durchgeführt werden. Gemäß einer Ausführungsform können andere Sensoren 105 auf der Grundlage der in Block 325 erhaltenen Information verwendet werden. So kann beispielsweise eine auf dem Host-Fahrzeug 100 angebrachte Kamera (105) verwendet werden, und es kann eine bekannte Bewegungsobjekt-Erfassung innerhalb des Sichtfeldes der Kamera durchgeführt werden. Der Azimut und die Erhöhung von Pixeln, die mit beliebigen bewegten Objekten im Kamerafeld der Ansicht zugeordnet sind, können in einen Azimut und eine Elevation übersetzt werden, die dem Sichtfeld des Erfassungssystems 110 zugeordnet sind. Wenn die übersetzten Azimut- und Höhenwerte mit Azimut- und Höhenwerten von sich bewegenden Objekten oder Reflexionen 225 übereinstimmen, die nicht als statisch ausgefiltert werden (bei Block 330), so sind diese Objekte oder Reflexionen 225 mit einer Sichtlinie verbunden. Gemäß einer anderen Ausführungsform wird ein bekannter statistischer Modellierungsansatz auf Reflexionen 225 verwendet, die mit sich bewegenden Objekten verbunden sind. Sobald die Nicht-Sichtlinienbewegungsobjekte von Sichtlinienbewegungsobjekten identifiziert sind (bei Block 340), lokalisieren die Nicht-Sichtlinienbewegungsobjekte (z. B. 120b) bei Block 350, das Erhalten anderer Information (bei Block 325), wie in 3 dargestellt. Die anderen Informationen können beispielsweise eine Abbildung der aktuellen Position des Host-Fahrzeugs 100 beinhalten. Die Angabe eines sich nähernden Nicht-Sichtlinienbewegungsobjekts im Block 360 beinhaltet das Bestimmen, basierend auf der Lokalisierung (bei Block 350), ob sich das Nicht-Sichtlinienbewegungsobjekt des Sichtlinienbewegungsobjekts mit dem Host-Fahrzeug 100 schneidet. So wird sich beispielsweise bei dem in 1 dargestellten Szenario das Nicht-Sichtlinienobjekt mit dem Host-Fahrzeug 100 schneiden, wenn beide Fahrzeuge 100 auf dem aktuellen Pfad verlaufen. Jedoch kann in einem anderen exemplarischen Szenario der Pfad, auf dem das andere Fahrzeug 120b gezeigt ist, unter den Pfad gehen, auf dem das Hostfahrzeug 100 gezeigt ist. In einem derartigen Szenario würden sich das andere Fahrzeug 120b und das Hostfahrzeug 100 nicht schneiden. Als solches kann die Lokalisierung (bei Block 350), die eine Karte verwendet, verhindern, dass das andere Fahrzeug 120b als ein sich näherndes Nicht-Sichtlinienobjekt bei Block 360 angezeigt wird. Die in Block 360 vorgesehene Anzeige kann auf einer Karte (über ein Anzeigesystem 280), die für den Fahrer des Host-Fahrzeugs 100 sichtbar ist, als Warnung vor dem sich nähernden Objekt (z. B. ein anderes Fahrzeug 120b, 1) sichtbar sein. In zusätzlichen oder alternativen Ausführungsformen kann die Anzeige an ein Fahrzeugsteuersystem 270 (z. B. Kollisionsvermeidungs- oder automatisiertes Lenksystem) geliefert werden, um Entscheidungen bezüglich der Steuerung des Hostfahrzeugs 100 basierend auf der Position und der Bewegung der Nicht-Sichtlinienobjekt(e) zu erleichtern. The distinction of line-of-sight motion objects from non-line-of-sight motion objects, at block 340 , can be performed according to various embodiments. According to one embodiment, other sensors 105 on the basis of in block 325 obtained information can be used. For example, one on the host vehicle 100 attached camera ( 105 ), and a known motion object detection can be performed within the field of view of the camera. The azimuth and the elevation of pixels associated with any moving objects in the camera field of the view can be translated into an azimuth and elevation, that of the field of view of the detection system 110 assigned. When the translated azimuth and altitude values with azimuth and elevation values of moving objects or reflections 225 that are not filtered out as static (at block 330 ), these are the objects or reflections 225 connected to a line of sight. According to another embodiment, a known statistical modeling approach to reflections 225 used, which are connected to moving objects. Once the non-line-of-sight motion objects are identified by line-of-sight motion objects (at Block 340 ), locate the non-line of sight moving objects (e.g. 120b ) at block 350 , getting other information (at block 325 ), as in 3 shown. For example, the other information may be an illustration of the current location of the host vehicle 100 include. Specifying an approaching non-line-of-sight motion object in the block 360 includes determining based on the location (at block 350 ), whether the line of sight moving object of the line of sight moving object is with the host vehicle 100 cuts. So, for example, at the in 1 illustrated scenario, the non-line of sight object with the host vehicle 100 cut when both vehicles 100 on the current path. However, in another exemplary scenario, the path on which the other vehicle may be 120b shown is to go under the path on which the host vehicle 100 is shown. In such a scenario, the other vehicle would become 120b and the host vehicle 100 do not cut. As such, localization (at block 350 ), which uses one card, prevent the other vehicle 120b as an approaching non-sight line object at block 360 is shown. The in block 360 provided display can on a map (via a display system 280 ), for the driver of the host vehicle 100 is visible as a warning of the approaching object (eg another vehicle 120b , 1) be visible. In additional or alternative embodiments, the display may be to a vehicle control system 270 (eg collision avoidance or automated steering system) to make decisions regarding the control of the host vehicle 100 based on the position and movement of the non-sight line object (s) to facilitate.

Während die Erfindung mit Bezug auf exemplarische Ausführungsformen beschrieben wurde, werden Fachleute verstehen, dass unterschiedliche Änderungen vorgenommen, und die einzelnen Teile durch entsprechende andere Teile ausgetauscht werden können, ohne von dem Umfang der Erfindung abzuweichen. Darüber hinaus können viele Modifikationen vorgenommen werden, um eine bestimmte Materialsituation an die Lehren der Erfindung anzupassen, ohne von deren wesentlichem Umfang abzuweichen. Daher ist vorgesehen, dass die Erfindung nicht auf die offenbarten spezifischen Ausführungsformen beschränkt sein soll, sondern dass sie auch alle Ausführungsformen beinhaltet, die innerhalb des Umfangs der Anmeldung fallen. While the invention has been described with reference to exemplary embodiments, it will be understood by those skilled in the art that various changes may be made and the particular parts may be substituted with corresponding other parts without departing from the scope of the invention. In addition, many modifications may be made to adapt a particular material situation to the teachings of the invention without departing from the essential scope thereof. Therefore, it is intended that the invention not be limited to the specific embodiments disclosed, but that it also encompass all embodiments falling within the scope of the application.

Claims (10)

Verfahren zum Erfassen und Lokalisieren eines Nicht-Sichtlinienobjekts, das Verfahren umfassend: das Empfangen von Reflexionen an einem Erkennungssystem einer beweglichen Plattform, wobei die Reflexionen direkte und mehrteilige Reflexionen beinhalten; das Identifizieren der Reflexionen, die mit statischen Zielen verbunden sind, um die Reflexionen zu behalten, die mit sich bewegenden Zielen verbunden sind; das Unterscheiden zwischen Sichtlinienobjekten und Nicht-Sichtlinienobjekten unter den beweglichen Zielen; das Lokalisieren der Nicht-Sichtlinienobjekte relativ zur Plattform; und das Anzeigen der sich nähernden Nicht-Sichtlinienobjekte unter den Nicht-Sichtlinienobjekten, wobei sich die nähernden Nicht-Sichtlinienobjekte in Richtung der Plattform auf einem Pfad bewegen, der die Plattform schneidet.  A method for detecting and locating a non-line-of-sight object, the method comprising: receiving reflections on a movable platform sensing system, the reflections including direct and multi-part reflections; identifying the reflections associated with static goals to retain the reflections associated with moving targets; distinguishing between line-of-sight objects and non-line-of-sight objects among the moving targets; locating the non-line of sight objects relative to the platform; and displaying the approaching non-sight line objects among the non-sight line objects, wherein the approaching non-sight line objects move towards the platform on a path that intersects the platform. Verfahren nach Anspruch 1, ferner umfassend das Erhalten von Informationen von anderen Sensoren als dem Erfassungssystem  The method of claim 1, further comprising obtaining information from sensors other than the detection system Verfahren nach Anspruch 2, ferner umfassend das Bestimmen, ob die Nicht-Sichtlinienobjekte die sich annähernden Nicht-Sichtlinienobjekte sind, die auf einer Karte basieren, worin das Erhalten der Information das Erhalten eines Standorts der Plattform und der Karte des Standorts und das Identifizieren der mit den statischen Zielen verbundenen Reflexionen das Identifizieren der statischen Ziele auf der Karte und die Lokalisierung der Nicht-Sichtlinienobjekte beinhaltet das Bestimmen eines Standorts der Nicht-Sichtlinienobjekte auf der Karte.  The method of claim 2, further comprising determining whether the non-line-of-sight objects are approaching non-line-of-sight objects based on a map, wherein obtaining the information includes obtaining a location of the platform and the map of the location and identifying the location Reflections associated with the static targets, identifying the static targets on the map, and locating the non-line of sight objects, involves determining a location of the non-line of sight objects on the map. Verfahren nach Anspruch 2, worin das Erhalten der Information das Erhalten von sich bewegenden Objektinformationen von einer Kamera beinhaltet und das Unterscheiden zwischen den Sichtlinienobjekten und den Nicht-Sichtlinienobjekten beinhaltet das Übersetzen der sich bewegenden Objektinformation zu einem Standort der Reflexionen.  The method of claim 2, wherein obtaining the information includes obtaining moving object information from a camera, and distinguishing between the line-of-sight objects and the non-line-of-sight objects involves translating the moving object information to a location of the reflections. Verfahren nach Anspruch 1, worin das Unterscheiden zwischen Sichtlinien- und Nicht-Sichtlinienobjekten auf einer statistischen Modellierung der mit den Sichtlinien- und Nicht-Sichtlinienobjekten verbundenen Reflexionen beruht.  The method of claim 1, wherein distinguishing between line-of-sight and non-line-of-sight objects is based on statistical modeling of the reflections associated with the line-of-sight and non-line-of-sight objects. Nicht-Sichtlinien Hinderniserkennungs- und Lokalisierungssystem, das auf einer beweglichen Plattform angeordnet ist, umfassend: einen Senderabschnitt, der konfiguriert ist, um Hochfrequenzsignale von einer Vielzahl von Sendeelementen zu übertragen; einen Empfängerabschnitt, der konfiguriert ist, um Reflexionen an einer Vielzahl von Empfangsantennenelementen zu empfangen, wobei die Reflexionen direkte und mehrseitige Reflexionen beinhalten; und ein Verarbeitungssystem, das konfiguriert ist, um die Reflexionen zu identifizieren, die statischen Zielen zugeordnet sind, um die Reflexionen zu behalten, die den sich bewegenden Zielen zugeordnet sind, Unterscheiden zwischen Sichtlinienobjekten und Nicht-Sichtlinienobjekten unter den beweglichen Zielen, lokalisieren die Nicht-Sichtlinienobjekte relativ zur Plattform und anzeigen von sich nähernden Nicht-Sichtlinienobjekten unter den Nicht-Sichtlinienobjekten, wobei sich die annähernden Nicht-Sichtlinienobjekte in Richtung der Plattform auf einem Pfad bewegen, der die Plattform schneidet.  Non-sight line obstacle detection and location system located on a moving platform, comprising: a transmitter section configured to transmit radio frequency signals from a plurality of transmission elements; a receiver section configured to receive reflections at a plurality of receive antenna elements, the reflections including direct and multi-sided reflections; and a processing system configured to identify the reflections associated with static targets to retain the reflections associated with the moving targets, distinguish between line-of-sight objects and non-sight-line objects among the moving targets, locate the non-line-of-sight objects relative to the platform and displaying approaching non-sight line objects among the non-sight line objects, wherein the approximate non-sight line objects move towards the platform on a path that intersects the platform. System nach Anspruch 6, worin das Verarbeitungssystem Informationen von anderen Sensoren auf der Plattform erhält.  The system of claim 6, wherein the processing system receives information from other sensors on the platform. System nach Anspruch 7, worin die Information einen Standort der Plattform und eine Karte des Standorts beinhaltet und das Verarbeitungssystem die mit den statischen Zielen verbundenen Reflexionen identifiziert, indem die statischen Ziele auf der Karte identifiziert werden, und das Verarbeitungssystem lokalisiert die Nicht-Sichtlinienobjekte, indem es einen Standort der Nicht-Sichtlinienobjekte auf der Karte bestimmt und bestimmt, ob die Nicht-Sichtlinienobjekte die sich annähernden Nicht-Sichtlinienobjekte auf der Grundlage der Karte sind.  The system of claim 7, wherein the information includes a location of the platform and a map of the location, and the processing system identifies the reflections associated with the static targets by identifying the static targets on the map, and the processing system locates the non-line-of-sight objects by it determines a location of the non-line-of-sight objects on the map and determines whether the non-line-of-sight objects are the approaching non-line-of-sight objects based on the map. System nach Anspruch 7, worin die Information, welche die Information beinhaltet, eine Bewegungsobjektinformation von einer Kamera beinhaltet und das Verarbeitungssystem unterscheidet zwischen dem Sichtlinienobjekt und dem Nicht-Sichtlinienobjekt durch Übertragen der sich bewegenden Objektinformation zu einem Standort der Reflexionen.  The system of claim 7, wherein the information including the information includes motion object information from a camera, and the processing system distinguishes between the visual line object and the non-visual line object by transmitting the moving object information to a location of the reflections. System nach Anspruch 6, worin das Verarbeitungssystem zwischen Sichtlinien- und Nicht-Sichtlinienobjekten auf Grundlage der statistischen Modellierung der mit den Sichtlinien- und Nicht-Sichtlinienobjekten verbundenen Reflexionen unterscheidet.  The system of claim 6, wherein the processing system differentiates between line-of-sight and non-sight-line objects based on the statistical modeling of the reflections associated with the line-of-sight and non-sight line objects.
DE102017106931.3A 2016-03-31 2017-03-30 Non-line-of-sight obstruction detection and localization Pending DE102017106931A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201662316103P 2016-03-31 2016-03-31
US62/316,103 2016-03-31
US15/161,872 2016-05-23
US15/161,872 US10395539B2 (en) 2016-03-31 2016-05-23 Non-line of sight obstacle detection and localization

Publications (1)

Publication Number Publication Date
DE102017106931A1 true DE102017106931A1 (en) 2017-10-05

Family

ID=59885739

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017106931.3A Pending DE102017106931A1 (en) 2016-03-31 2017-03-30 Non-line-of-sight obstruction detection and localization

Country Status (1)

Country Link
DE (1) DE102017106931A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111352106A (en) * 2018-12-24 2020-06-30 珠海市一微半导体有限公司 Sweeping robot slope identification method and device, chip and sweeping robot
CN113364969A (en) * 2020-03-06 2021-09-07 华为技术有限公司 Imaging method of non-line-of-sight object and electronic equipment

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111352106A (en) * 2018-12-24 2020-06-30 珠海市一微半导体有限公司 Sweeping robot slope identification method and device, chip and sweeping robot
CN111352106B (en) * 2018-12-24 2022-06-14 珠海一微半导体股份有限公司 Sweeping robot slope identification method and device, chip and sweeping robot
CN113364969A (en) * 2020-03-06 2021-09-07 华为技术有限公司 Imaging method of non-line-of-sight object and electronic equipment

Similar Documents

Publication Publication Date Title
DE102017124756A1 (en) RADAR CALIBRATION WITH KNOWN GLOBAL POSITIONING OF STATIC OBJECTS
DE112017004333B4 (en) Environmental monitoring device and environmental monitoring method
DE102019124152A1 (en) CLUTCH SUPPORT SYSTEM
DE112016001530T5 (en) Vehicle control device and vehicle control method
DE102015110619A1 (en) Centralized radar methods and systems
CN107272001B (en) External-of-sight obstacle detection and location
EP2693230A1 (en) Radar sensor for a motor vehicle, motor vehicle and communication method
DE102018120405A1 (en) FUSION OF RADAR AND IMAGE SENSORS
DE102019113928A1 (en) MICRODOPPLER DEVICE AND METHOD FOR TRAILER DETECTION AND TRACKING
DE102015012812B4 (en) Method for operating radar sensors in a motor vehicle and motor vehicle
DE102018101120A1 (en) Iterative approach to achieve angular ambiguity resolution
DE102020107484A1 (en) METHOD AND DEVICE FOR CONFIRMING A RADAR DETECTION
EP3259614B1 (en) Method for ascertaining a piece of local information for a motor vehicle in relation to a driving corridor, and motor vehicle
DE102009034848A1 (en) Optoelectronic sensor
DE102016008553A1 (en) System comprising a motor vehicle and an unmanned aerial vehicle and method for detecting conditions in an environment of a motor vehicle
DE102020107344A1 (en) AZIMUTH AND ELEVATION RADAR IMAGING WITH ONE DIMENSIONAL ANTENNA ARRANGEMENTS OF THE RADAR SYSTEM
DE102014214391A1 (en) Method for radar-based navigation
DE102014212216A1 (en) Method and driver assistance system for detecting a Fahrzeugumfel des
DE102018106478A1 (en) TARGET TRACKING USING REGIONAL COVENANT
EP3663881B1 (en) Method for controlling an autonomous vehicle on the basis of estimated movement vectors
EP3511733A2 (en) Radar-based longitudinal and lateral control
DE102017106931A1 (en) Non-line-of-sight obstruction detection and localization
DE102018106099A1 (en) SPEED MEASUREMENT WITH ASYMMETRIC DOPPLER SPECTRUM
DE10344299B4 (en) Classification of the objects located in an environment of a motor vehicle
DE102017119182B4 (en) Method and device for computationally efficient target detection and tracking using a radar

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MANITZ FINSTERWALD PATENT- UND RECHTSANWALTSPA, DE

Representative=s name: MANITZ FINSTERWALD PATENTANWAELTE PARTMBB, DE

R082 Change of representative

Representative=s name: MANITZ FINSTERWALD PATENT- UND RECHTSANWALTSPA, DE

Representative=s name: MANITZ FINSTERWALD PATENTANWAELTE PARTMBB, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01S0017930000

Ipc: G01S0013890000

R016 Response to examination communication
R016 Response to examination communication