DE102018216707A1 - Environment detection system and method for an environment detection system - Google Patents

Environment detection system and method for an environment detection system Download PDF

Info

Publication number
DE102018216707A1
DE102018216707A1 DE102018216707.9A DE102018216707A DE102018216707A1 DE 102018216707 A1 DE102018216707 A1 DE 102018216707A1 DE 102018216707 A DE102018216707 A DE 102018216707A DE 102018216707 A1 DE102018216707 A1 DE 102018216707A1
Authority
DE
Germany
Prior art keywords
sensor
environment
information
viewing angle
detection system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018216707.9A
Other languages
German (de)
Inventor
Günther Scharnagel
Stefan Hakspiel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microvision Inc Redmond Us
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Ibeo Automotive Systems GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG, Ibeo Automotive Systems GmbH filed Critical ZF Friedrichshafen AG
Priority to DE102018216707.9A priority Critical patent/DE102018216707A1/en
Priority to PCT/EP2019/076201 priority patent/WO2020065019A1/en
Publication of DE102018216707A1 publication Critical patent/DE102018216707A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Umfelderkennungssystem. Das Umfelderkennungssystem umfasst einen ersten Umfeldsensor mit veränderlichem Blickwinkel, der eingerichtet ist, erste Informationen über einen ersten Raumbereich bereitzustellen. Der erste Raumbereich ist abhängig von einem momentanen Blickwinkel des ersten Umfeldsensors. Das Umfelderkennungssystem umfasst ferner einen zweiten Umfeldsensor, der eingerichtet ist, zweite Informationen über einen zweiten Raumbereich bereitzustellen. Der erste Raumbereich ist ein Teilbereich des zweiten Raumbereichs. Weiterhin umfasst das Umfelderkennungssystem ein Auswerteelement, das eingerichtet ist, den momentanen Blickwinkel des ersten Umfeldsensors basierend auf einem Abgleich der ersten Informationen und der zweiten Informationen zu bestimmen.The present invention relates to an environment detection system. The environment detection system comprises a first environment sensor with a variable viewing angle, which is set up to provide first information about a first spatial area. The first area of the room depends on an instantaneous viewing angle of the first environment sensor. The environment detection system further comprises a second environment sensor, which is set up to provide second information about a second spatial area. The first room area is a partial area of the second room area. Furthermore, the environment detection system comprises an evaluation element, which is set up to determine the current viewing angle of the first environment sensor based on a comparison of the first information and the second information.

Description

Die vorliegende Erfindung bezieht sich auf Systeme zur Erkennung des Umfelds z.B. eines Fahrzeugs. Die Erfindung betrifft weiterhin ein Verfahren für ein Umfelderkennungssystem.The present invention relates to systems for recognizing the environment e.g. of a vehicle. The invention further relates to a method for an environment detection system.

Zur Erkennung des Fahrzeugumfelds werden z.B. LIDAR (engl. Light Detection And Ranging) Messsysteme genutzt. Ein LIDAR-Messsystem kann einen oder mehrere LIDAR-Sensoren aufweisen. Jeder LIDAR-Sensor umfasst vorzugsweise eine LIDAR Sendeeinheit sowie eine LIDAR Empfangseinheit.To detect the vehicle environment, e.g. LIDAR (English Light Detection And Ranging) measuring systems used. A LIDAR measuring system can have one or more LIDAR sensors. Each LIDAR sensor preferably comprises a LIDAR transmitter unit and a LIDAR receiver unit.

Ein LIDAR-Sensor löst bei einem vorgegebenen Blickwinkel einen Raumbereich mit einer vorbestimmten Auflösung auf. Um auch bei großen Entfernungen kleine Gegenstände zu erkennen (beispielsweise ein Reifen mit ca. 20 cm Höhe in 100 m Entfernung), wird mitunter eine höhere Auflösung des LIDAR-Bildes benötigt. Hierfür kann der gleiche LIDAR-Sensor verwendet werden, wenn dessen Blickwinkel durch eine entsprechende Optik reduziert und somit dessen Auflösung bei gleicher Pixelzahl erhöht wird. Damit der LIDAR-Sensor mit verengtem Blickwinkel den gleichen Bildbereich abdecken kann wie zuvor, wird der Blickwinkel des LIDAR-Sensors abgelenkt (d.h. variiert). Dies kann beispielsweise durch Kippen des Sensors (z.B. um ± 5 °) oder durch Kippen eines Spiegels bzw. Prismas (z.B. um ± 10 °) erfolgen.A LIDAR sensor resolves a spatial area with a predetermined resolution at a given viewing angle. In order to recognize small objects even at great distances (for example a tire with a height of approx. 20 cm at a distance of 100 m), a higher resolution of the LIDAR image is sometimes required. The same LIDAR sensor can be used for this if its viewing angle is reduced by appropriate optics and thus its resolution is increased with the same number of pixels. So that the LIDAR sensor can cover the same image area with a narrowed viewing angle as before, the viewing angle of the LIDAR sensor is deflected (i.e. varies). This can be done, for example, by tilting the sensor (e.g. by ± 5 °) or by tilting a mirror or prism (e.g. by ± 10 °).

Für die Ableitung der Reaktion eines die LIDAR Messungen verarbeitenden Systems (z.B. eines Fahrzeugs) muss der Blickwinkel des LIDAR-Sensor, d.h. der Winkel der Verkippung sehr genau sensiert werden (z.B. mit einer Genauigkeit von ± 0,05 °). Für die Sensierung wird gewöhnlich ein Drehwinkelsensor eingesetzt.To derive the reaction of a system processing the LIDAR measurements (e.g. a vehicle), the viewing angle of the LIDAR sensor, i.e. the angle of the tilt can be sensed very precisely (e.g. with an accuracy of ± 0.05 °). A rotation angle sensor is usually used for sensing.

Die hohen Sicherheitsanforderungen für die LIDAR-Sensoren gelten ebenso für den Drehwinkelsensor. Für die Überwachung des LIDAR-Sensors muss daher ein Drehwinkelsensor mit einer hohen Genauigkeit verwendet werden. Drehwinkelsensoren, welche die erforderliche Genauigkeit bieten, sind kaum auf dem Markt verfügbar bzw. sehr hochpreisig.The high safety requirements for the LIDAR sensors also apply to the rotation angle sensor. To monitor the LIDAR sensor, therefore, a rotation angle sensor with high accuracy must be used. Rotation angle sensors that offer the required accuracy are hardly available on the market or are very expensive.

Die Druckschrift DE 10 2013 211 648 A1 schlägt für die Kalibrierung zweier an einem Fahrzeug angebrachter Kameras vor, ein Bildelement zu bestimmen, das in jeweiligen Einzelbildern der beiden Kameras vorkommt. Basierend auf einer Ausrichtung des Bildelements im Einzelbild der ersten Kamera relativ zur Ausrichtung des Bildelements im Einzelbild der zweiten Kamera wird die Relativposition der ersten Kamera zu der zweiten Kamera bestimmt. Abhängig von der ermittelten Relativposition werden nunmehr die beiden Einzelbilder zu einem Gesamtbild zusammengefügt.The publication DE 10 2013 211 648 A1 suggests for the calibration of two cameras attached to a vehicle to determine an image element that occurs in the respective individual images of the two cameras. The relative position of the first camera to the second camera is determined based on an orientation of the image element in the individual image of the first camera relative to the orientation of the image element in the individual image of the second camera. Depending on the relative position determined, the two individual images are now combined to form an overall image.

In Druckschrift DE 10 2008 004 370 A1 wird ein Verfahren zur Kalibrierung einer Kamera eines Nachtsichtsystems vorgeschlagen, die an einem Fahrzeug angebracht ist. Das Videobild der Kamera wird mittels eines Referenzobjekts vermessen, um einen relativen Rotationswinkel des Videobildes relativ zu dem Referenzobjekt zu ermitteln. Das Referenzobjekt kann z.B. das Videobild einer zweiten Kamera sein. Mittels der ermittelten Rotationswinkels wird eine Scherung für das Videobild bestimmt, um ein mechanikfreies Drehen des Videobildes zu ermöglichen.In block letters DE 10 2008 004 370 A1 proposes a method for calibrating a camera of a night vision system that is attached to a vehicle. The video image of the camera is measured using a reference object in order to determine a relative angle of rotation of the video image relative to the reference object. The reference object can be the video image of a second camera, for example. A shear for the video image is determined by means of the determined rotation angle in order to enable mechanically free rotation of the video image.

Im Gegensatz zu optischen Kameras liefern Umfeldsensoren wie z.B. LIDAR-Sensoren oder Radar-Sensoren jedoch keine optischen Bilder im klassischen Sinne. Vielmehr liefern diese Informationen wie einen Abstand, eine Geschwindigkeit oder einen Höhenwinkel relativ zu einem von dem Umfeldsensor abgetasteten Objekt. Zudem betreffen die in den Druckschrift DE 10 2013 211 648 A1 und DE 10 2008 004 370 A1 vorgeschlagenen Verfahren nur die Kalibrierung zweier Kameras relativ zueinander. Der absolute Blickwinkel einer der Kameras kann mittels dieser Verfahren nicht bestimmt werden.In contrast to optical cameras, environment sensors such as LIDAR sensors or radar sensors do not provide optical images in the classic sense. Rather, this provides information such as a distance, a speed or an elevation angle relative to an object scanned by the environment sensor. In addition, concern those in the publication DE 10 2013 211 648 A1 and DE 10 2008 004 370 A1 proposed method only the calibration of two cameras relative to each other. The absolute viewing angle of one of the cameras cannot be determined using this method.

Vor diesem Hintergrund ist es eine Aufgabe der vorliegenden Erfindung, eine verbesserte und kostengünstigere Möglichkeit für die Bestimmung des Blickwinkels eines Umfeldsensors bereitzustellen.Against this background, it is an object of the present invention to provide an improved and less expensive possibility for determining the viewing angle of a surroundings sensor.

Die erfindungsgemäße Aufgabe wird durch ein Umfelderkennungssystem sowie ein Verfahren für ein Umfelderkennungssystem gemäß den unabhängigen Ansprüchen gelöst. Weitere Aspekte sowie Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen, der folgenden Beschreibung sowie in den Figuren beschrieben. The object according to the invention is achieved by an environment detection system and a method for an environment detection system according to the independent claims. Further aspects and developments of the invention are described in the dependent claims, the following description and in the figures.

Gemäß einem ersten Aspekt betrifft die Erfindung ein Umfelderkennungssystem. Das Umfelderkennungssystem umfasst einen ersten Umfeldsensor mit veränderlichem Blickwinkel, der eingerichtet ist, erste Informationen über einen ersten Raumbereich bereitzustellen. Der erste Raumbereich ist abhängig von einem momentanen Blickwinkel des ersten Umfeldsensors. Das Umfelderkennungssystem umfasst ferner einen zweiten Umfeldsensor, der eingerichtet ist, zweite Informationen über einen zweiten Raumbereich bereitzustellen. Der erste Raumbereich ist ein Teilbereich des zweiten Raumbereichs. Sowohl der erste Umfeldsensor als auch der zweite Umfeldsensor sind Sensoren, welche ihr Umfeld abtasten bzw. sensieren, um Informationen über im Umfeld befindliche Objekte (z.B. Position, Entfernung, relative Bewegung zum Umfeldsensor etc.) zu erhalten. Aufgrund des veränderlichen Blickwinkels des ersten Umfeldsensors ist der erste Raumbereich einstellbar. Entsprechend kann der erste Umfeldsensor verschiedene Raumbereiche abtasten. Der zweite Umfeldsensor kann beispielsweise einen festen, unveränderlichen Blickwinkel aufweisen, so dass dieser immer denselben Raumbereich abtastet. Alternativ kann auch der zweite Umfeldsensor einen veränderlichen Blickwinkel aufweisen.According to a first aspect, the invention relates to an environment detection system. The environment detection system comprises a first environment sensor with a variable viewing angle, which is set up to provide first information about a first spatial area. The first area of the room depends on an instantaneous viewing angle of the first environment sensor. The environment detection system further comprises a second environment sensor, which is set up to provide second information about a second spatial area. The first room area is a partial area of the second room area. Both the first environment sensor and the second environment sensor are sensors which scan or sense their environment in order to receive information about objects in the environment (for example position, distance, relative movement to the environment sensor, etc.). Because of the changing perspective of the first Environment sensor, the first room area is adjustable. Accordingly, the first environment sensor can scan different areas of the room. The second environment sensor can have a fixed, unchangeable viewing angle, for example, so that it always scans the same spatial area. Alternatively, the second environment sensor can also have a variable viewing angle.

Die Kombination aus dem ersten Umfeldsensor mit veränderlichem Blickwinkel und dem zweiten Umfeldsensor kann nunmehr genutzt werden, um den momentanen Blickwinkel des ersten Umfeldsensors zu bestimmen. Dazu umfasst das Umfelderkennungssystem ein Auswerteelement, das eingerichtet ist, den momentanen Blickwinkel des ersten Umfeldsensors basierend auf einem Abgleich der ersten Informationen und der zweiten Informationen zu bestimmen. Der zweite Umfeldsensor tastet den ersten Raumbereich als Teil des zweiten Raumbereichs ab, so dass die zweiten Informationen den ersten Informationen entsprechende Informationen enthalten. Diese den ersten Informationen entsprechende Teilmenge der zweiten Informationen ist einem bestimmten Teilbereich des von dem zweiten Umfeldsensor abgetasteten zweiten Raumbereichs zugeordnet. Aus der Lage dieses Teilbereichs innerhalb des bekannten zweiten Raumbereichs kann somit auf den vom ersten Umfeldsensor abgetasteten ersten Raumbereich und somit dessen Blickwinkel geschlossen werden. The combination of the first environment sensor with a variable viewing angle and the second environment sensor can now be used to determine the current viewing angle of the first environment sensor. For this purpose, the environment detection system comprises an evaluation element, which is set up to determine the current viewing angle of the first environment sensor based on a comparison of the first information and the second information. The second environment sensor scans the first room area as part of the second room area, so that the second information contains information corresponding to the first information. This subset of the second information corresponding to the first information is assigned to a specific partial area of the second spatial area scanned by the second environment sensor. From the position of this partial area within the known second room area, it is thus possible to infer the first room area scanned by the first environment sensor and thus its viewing angle.

Der erfindungsgemäße Abgleich der bereitgestellten Informationen eines ersten Umfeldsensors mit veränderlichem Blickwinkel und eines zweiten Umfeldsensors kann somit die Bestimmung des Blickwinkels des ersten Umfeldsensors ohne die Verwendung eines Drehwinkelsensors ermöglichen. Mit anderen Worten: Die erfindungsgemäße Lösung kann die Einsparung des Drehwinkelsensors ermöglichen. Das Auswerteelement kann z.B. eine bereits im Umfelderkennungssystem vorhandene programmierbare Hardwarekomponente, wie etwa ein Prozessor, ein Prozessorkern, ein anwendungsspezifischer integrierter Schaltkreis (engl. ASIC = Application-Specific Integrated Circuit) oder ein integrierter Schaltkreis (engl. IC = Integrated Circuit) sein, auf dem Software für die Steuerung des Umfelderkennungssystem abläuft. Entsprechend kann die Bestimmung des Blickwinkels des ersten Umfeldsensors mit einem lediglich einmaligen Aufwand in die bestehende Software integriert werden. Es ist dann keine zusätzliche Hardware nötig. Somit ergibt sich neben dem vereinfachten Aufbau des Umfelderkennungssystems auch ein Kostenvorteil.The inventive comparison of the information provided by a first environment sensor with a variable viewing angle and a second environment sensor can thus enable the viewing angle of the first environment sensor to be determined without the use of a rotation angle sensor. In other words: The solution according to the invention can make it possible to save the rotation angle sensor. The evaluation element can e.g. a programmable hardware component already present in the environment detection system, such as a processor, a processor core, an application-specific integrated circuit (ASIC = Application-Specific Integrated Circuit) or an integrated circuit (IC = Integrated Circuit) on which software for the Control of the environment detection system expires. Accordingly, the determination of the viewing angle of the first environment sensor can be integrated into the existing software with only one effort. No additional hardware is then required. In addition to the simplified structure of the environment detection system, this also results in a cost advantage.

Gemäß einigen Ausführungsbeispielen können zumindest die zweiten Informationen in einer zweidimensionalen Matrix angeordnet sein (ebenso die ersten Informationen) um eine flächige Darstellung der Umgebung bereitzustellen. Das Auswerteelement ist dann eingerichtet, eine den ersten Informationen entsprechende Teilmenge der zweiten Informationen zu bestimmen. Beispielsweise kann das Auswerteelemente prüfen ob ein in von dem ersten Umfeldsensor bereitgestellten Distanzinformationen beschriebenes Objekt auch in von dem zweiten Umfeldsensor bereitgestellten Distanzinformationen beschrieben ist. Ähnliche Vergleiche können z.B. auch mittels von den beiden Umfeldsensoren bereitgestellten Geschwindigkeits- oder Höhenwinkelinformationen durchgeführt werden. Ebenso können von den beiden Umfeldsensoren bereitgestellte Informationen verschiedener Kategorien (z.B. Distanz und Geschwindigkeit) zusammen ausgewertet werden. Basierend auf einer Lage der Teilmenge der zweiten Informationen in der zweidimensionalen Matrix ist das Auswerteelement ferner eingerichtet, den momentanen Blickwinkel des ersten Umfeldsensors zu bestimmen.According to some exemplary embodiments, at least the second information can be arranged in a two-dimensional matrix (likewise the first information) in order to provide a flat representation of the surroundings. The evaluation element is then set up to determine a subset of the second information corresponding to the first information. For example, the evaluation element can check whether an object described in distance information provided by the first environment sensor is also described in distance information provided by the second environment sensor. Similar comparisons can e.g. can also be carried out by means of speed or elevation angle information provided by the two surroundings sensors. Information from different categories (e.g. distance and speed) provided by the two environment sensors can also be evaluated together. Based on a position of the subset of the second information in the two-dimensional matrix, the evaluation element is also set up to determine the instantaneous viewing angle of the first environment sensor.

Der erste Umfeldsensor kann beispielsweise eingerichtet sein, die ersten Informationen basierend auf empfangenen Reflexionen eines von dem ersten Umfeldsensor ausgesendeten Signals bereitzustellen. Das von dem ersten Umfeldsensor ausgesendete Signal kann z.B. ein Hochfrequenzsignal oder ein Lichtsignal sein. Aus den von Objekten in der Umgebung des ersten Umfeldsensors empfangenen Reflexionen kann z.B. eine Distanz oder eine Geschwindigkeit relativ zu dem Objekt berechnet werden. Der zweite Umfeldsensor kann entsprechend ausgebildet sein.The first environment sensor can, for example, be set up to provide the first information based on received reflections of a signal emitted by the first environment sensor. The signal emitted by the first environment sensor can e.g. be a radio frequency signal or a light signal. From the reflections received by objects in the environment of the first environment sensor, e.g. a distance or a speed can be calculated relative to the object. The second environment sensor can be designed accordingly.

In einigen Ausführungsbeispielen ist der erste Umfeldsensor ein LIDAR-Sensor. Um den Blickwinkel des LIDAR-Sensors einzustellen können z.B. der gesamte LIDAR-Sensor oder einzelne Elemente des LIDAR-Sensors (z.B. dessen Empfangseinheit und dessen Empfangsoptik oder ein optisches Element wie ein Spiegel oder ein Prisma) um eine jeweilige Kippachse verkippbar sein.In some embodiments, the first environment sensor is a LIDAR sensor. To adjust the viewing angle of the LIDAR sensor e.g. the entire LIDAR sensor or individual elements of the LIDAR sensor (e.g. its receiving unit and its receiving optics or an optical element such as a mirror or a prism) can be tilted about a respective tilt axis.

In anderen Ausführungsbeispielen kann der erste Umfeldsensor auch ein Radar-Sensor sein, der die ersten Informationen basierend auf empfangenen Reflexionen eines von dem Radar-Sensor ausgesendeten Hochfrequenzsignals bereitstellt. Entsprechend kann mittels des erfindungsgemäßen Abgleich der von den Umfeldsensoren bereitgestellten Informationen der Blickwinkel des Radar-Sensors ermittelt bzw. berechnet werden.In other exemplary embodiments, the first environment sensor can also be a radar sensor, which provides the first information based on received reflections of a high-frequency signal emitted by the radar sensor. Accordingly, the viewing angle of the radar sensor can be determined or calculated by means of the comparison according to the invention of the information provided by the environment sensors.

Gemäß Ausführungsbeispielen kann der erste Umfeldsensor beispielsweise auch eine Kamera mit veränderlichem Blickwinkel sein, die das Umfeld aufzeichnet.According to exemplary embodiments, the first environment sensor can also be a camera with a variable viewing angle, for example, which records the environment.

Der zweite Umfeldsensor kann vom selben Typ wie der erste Umfeldsensor sein oder ein Umfeldsensor unterschiedlichen Typs sein. Beispielsweise können beide Umfeldsensoren LIDAR-Sensoren sein. Ebenso kann z.B. ein LIDAR-Bild mit einem Kamera- und/oder einem Radarbild verglichen werden. Mit anderen Worten: Der zweite Umfeldsensor kann in manchen Ausführungsbeispielen ein LIDAR-Sensor, ein Radarsensor oder eine Kamera sein.The second environment sensor can be of the same type as the first environment sensor or a Environment sensor of different types. For example, both environment sensors can be LIDAR sensors. A LIDAR image can also be compared with a camera and / or a radar image. In other words: in some exemplary embodiments, the second environment sensor can be a LIDAR sensor, a radar sensor or a camera.

Wie bereits oben angedeutet, kann einer der beiden Umfeldsensoren genutzt werden, um einen Teilbereich des von dem anderen Umfeldsensor abgetasteten Raumbereichs mit höherer Genauigkeit abzutasten. Entsprechend kann der erste Raumbereich in einigen Ausführungsbeispielen in den ersten Informationen höher aufgelöst sein als in den zweiten Informationen. Mit anderen Worten: Der erste Umfeldsensor kann eingerichtet sein, den ersten Raumbereich mit einer höheren Auflösung zu sensieren als der zweite Umfeldsensor.As already indicated above, one of the two environment sensors can be used to scan a sub-area of the spatial area scanned by the other environment sensor with greater accuracy. Accordingly, in some exemplary embodiments, the first spatial area can have a higher resolution in the first information than in the second information. In other words: the first environment sensor can be set up to sense the first room area with a higher resolution than the second environment sensor.

In einem weiteren Aspekt betrifft die vorliegende Erfindung zudem ein Verfahren für ein Umfelderkennungssystem umfassend einen ersten Umfeldsensor mit veränderlichem Blickwinkel und einen zweiten Umfeldsensor. Das Verfahren umfasst ein Bereitstellen von ersten Informationen über einen ersten Raumbereich durch den ersten Umfeldsensor. Der erste Raumbereich ist abhängig von einem momentanen Blickwinkel des ersten Umfeldsensors. Ferner umfasst das Verfahren ein Bereitstellen von zweiten Informationen über einen zweiten Raumbereich durch den zweiten Umfeldsensor. Der erste Raumbereich ist ein Teilbereich des zweiten Raumbereichs. Das Verfahren umfasst weiterhin ein Bestimmen des momentanen Blickwinkels des ersten Umfeldsensors basierend auf einem Abgleich der ersten Informationen und der zweiten Informationen.In a further aspect, the present invention also relates to a method for an environment detection system comprising a first environment sensor with a variable viewing angle and a second environment sensor. The method comprises providing first information about a first spatial area by the first environment sensor. The first area of the room depends on an instantaneous viewing angle of the first environment sensor. Furthermore, the method comprises providing second information about a second spatial area by the second environment sensor. The first room area is a partial area of the second room area. The method further includes determining the instantaneous viewing angle of the first environment sensor based on a comparison of the first information and the second information.

Wie bereits oben in Zusammenhang mit dem erfindungsgemäßen Umfelderkennungssystem beschrieben, kann auch das erfindungsgemäße Verfahren eine verbesserte und kostengünstigere Bestimmung des Blickwinkels des Umfeldsensors mit veränderlichem Blickwinkel ermöglichen.As already described above in connection with the environment detection system according to the invention, the method according to the invention can also enable an improved and more cost-effective determination of the viewing angle of the environment sensor with a variable viewing angle.

Mögliche nähere Ausgestaltungen des Verfahrens sind oben in Zusammenhang mit dem erfindungsgemäßen Umfelderkennungssystem beschrieben.Possible further refinements of the method are described above in connection with the environment detection system according to the invention.

Ein weiterer Aspekt der vorliegenden Erfindung betrifft zudem ein Programm mit einem Programmcode zum Durchführen des hierin beschriebenen Verfahrens, wenn der Programmcode auf einem Prozessor oder einer programmierbaren Hardwarekomponente abläuft bzw. dort ausgeführt wird.Another aspect of the present invention also relates to a program with a program code for carrying out the method described here when the program code runs on a processor or a programmable hardware component or is executed there.

Gemäß einem weiteren Aspekt betrifft die vorliegende Erfindung zudem ein Fahrzeug. Allgemein kann ein Fahrzeug als eine Vorrichtung aufgefasst werden, die eines oder mehrere von einem Motor angetriebene Räder (und optional ein Antriebsstrangsystem) umfasst. Zum Beispiel kann ein Fahrzeug ein Personenkraftwagen, ein Lastkraftwagen, ein Motorrad oder ein Traktor sein. Das Fahrzeug umfasst zumindest ein Umfelderkennungssystem gemäß der vorliegenden Erfindung, um eine Umgebung des Fahrzeugs zu erfassen. Zudem umfasst das Fahrzeug ein Steuerelement, das eingerichtet ist, eine Reaktion des Fahrzeugs auf die ersten Informationen abhängig von dem ermittelten momentanen Blickwinkel des ersten Umfeldsensors abzuleiten.According to a further aspect, the present invention also relates to a vehicle. Generally, a vehicle can be thought of as a device that includes one or more motor-driven wheels (and optionally, a powertrain system). For example, a vehicle can be a passenger car, a truck, a motorcycle, or a tractor. The vehicle includes at least one environment detection system in accordance with the present invention to detect an environment of the vehicle. In addition, the vehicle comprises a control element which is set up to derive a reaction of the vehicle to the first information as a function of the determined instantaneous viewing angle of the first environment sensor.

Das erfindungsgemäße Fahrzeug kann aufgrund des erfindungsgemäßen Umfelderkennungssystems eine verbesserte und kostengünstigere Bestimmung des Blickwinkels des Umfeldsensors mit veränderlichem Blickwinkel ermöglichen, so dass die Herstellung des Fahrzeugs vergünstigt und die Ableitung der Fahrzeugreaktion verbessert sein kann.The vehicle according to the invention can enable an improved and more cost-effective determination of the viewing angle of the environment sensor with a variable viewing angle due to the environment detection system according to the invention, so that the manufacture of the vehicle can be reduced and the derivation of the vehicle reaction can be improved.

Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend, Bezug nehmend auf die beigefügten Figuren, näher erläutert. Es zeigen:

  • 1 schematisch ein Ausführungsbeispiel eines Umfelderkennungssystems;
  • 2 schematisch ein Ausführungsbeispiel eines Umfelderkennungssystems in Form eines LIDAR-Messsystems;
  • 3 schematisch einen Schnitt durch den in 2 gezeigten LIDAR-Sensor; und
  • 4 Vergleiche der Aufnahmen zweier LIDAR-Sensoren.
Exemplary embodiments of the present invention are explained in more detail below with reference to the attached figures. Show it:
  • 1 schematically an embodiment of an environment detection system;
  • 2nd schematically an embodiment of an environment detection system in the form of a LIDAR measurement system;
  • 3rd schematically a section through the in 2nd shown LIDAR sensor; and
  • 4th Compare the images of two LIDAR sensors.

1 zeigt schematisch ein Umfelderkennungssystem 100. Das Umfelderkennungssystem 100 umfasst einen ersten Umfeldsensor 110, der eingerichtet ist, erste Informationen 111 über einen ersten Raumbereich bereitzustellen. Zudem umfasst das Umfelderkennungssystem 100 einen zweiten Umfeldsensor 120, der eingerichtet ist, zweite Informationen 121 über einen zweiten Raumbereich bereitzustellen. Wie in 1 angedeutet, können sowohl der erste Umfeldsensor 110 als auch der zweite Umfeldsensor 120 z.B. jeweils ein Objekt 140 mittels Signalen 112 bzw. 122, welche von dem Objekt 140 zu den Umfeldsensoren 110 und 120 zurück reflektiert werden (angedeutet durch Reflexionen 142 und 143), abtasten. 1 schematically shows an environment detection system 100 . The environment detection system 100 includes a first environment sensor 110 that is set up first information 111 to provide over a first area. The environment detection system also includes 100 a second environment sensor 120 that is set up second information 121 to provide over a second room area. As in 1 indicated, both the first environment sensor 110 as well as the second environment sensor 120 eg one object at a time 140 by means of signals 112 respectively. 122 which of the object 140 to the environment sensors 110 and 120 be reflected back (indicated by reflections 142 and 143 ), scan.

Um den Blickwinkel des ersten Umfeldsensors 110 zu bestimmen, umfasst das LIDAR-Messsystem 100 zudem ein Auswerteelement 130.To the point of view of the first environment sensor 110 to determine, includes the LIDAR measuring system 100 also an evaluation element 130 .

Das Auswerteelement 130 ist eingerichtet, den momentanen Blickwinkel des ersten Umfeldsensors 110 basierend auf einem Abgleich der ersten Informationen 111 und der zweiten Informationen 121 zu bestimmen. Der zweite Umfeldsensor 120 tastet den ersten Raumbereich als Teil des zweiten Raumbereichs ab, so dass die zweiten Informationen 121 den ersten Informationen entsprechende Informationen enthalten. Diese den ersten Informationen 111 entsprechende Teilmenge der zweiten Informationen 121 ist einem bestimmten Teilbereich des von dem zweiten Umfeldsensor 120 abgetasteten ersten Raumbereichs zugeordnet. Aus der Lage dieses Teilbereichs innerhalb des bekannten zweiten Raumbereichs kann somit auf den vom ersten Umfeldsensor 110 abgetasteten ersten Raumbereich und somit dessen Blickwinkel geschlossen werden.The evaluation element 130 is set up, the current point of view of the first environment sensor 110 based on a comparison of the first information 111 and the second information 121 to determine. The second environment sensor 120 scans the first room area as part of the second room area so that the second information 121 contain information corresponding to the first information. This is the first information 111 corresponding subset of the second information 121 is a certain sub-area of that of the second environment sensor 120 assigned to the scanned first room area. From the position of this partial area within the known second room area, it is therefore possible to refer to that of the first environment sensor 110 scanned first area and thus its perspective are closed.

Ein beispielhafter Aufbau eines LIDAR-Messsystems 200 mit einem ersten LIDAR-Sensor 210 und einem zweiten LIDAR Sensor 220, das eine mögliche Implementierung des erfindungsgemäßen Umfelderkennungssystems darstellt, ist in 2 gezeigt. Eine Schnittdarstellung des ersten LIDAR-Sensors 210 ist in 3 gezeigt. Der zweite LIDAR-Sensor 220 kann wie der erste LIDAR-Sensor 210 ausgestaltet sein. Das LIDAR-Messsystem 200 ist in seinem grundsätzlichen Aufbau gemäß den Ausführungen zum Stand der Technik ( WO 2017/081294 A1 ) ausgebildet.An example of a LIDAR measurement system 200 with a first LIDAR sensor 210 and a second LIDAR sensor 220 , which represents a possible implementation of the environment detection system according to the invention is in 2nd shown. A sectional view of the first LIDAR sensor 210 is in 3rd shown. The second LIDAR sensor 220 can be like the first lidar sensor 210 be designed. The LIDAR measuring system 200 is in its basic structure according to the statements on the prior art ( WO 2017/081294 A1 ) educated.

Der erste LIDAR-Sensor 210 und der zweite LIDAR-Sensor 220 sind in einem Gehäuse 230 des LIDAR-Messsystems 200 angeordnet. Der zweite LIDAR-Sensor 220 ist unbeweglich, d.h. sein Blickwinkel ist fest. Der zweite LIDAR-Sensor 220 umfasst eine LIDAR Sendeeinheit sowie eine LIDAR Empfangseinheit.The first LIDAR sensor 210 and the second LIDAR sensor 220 are in one housing 230 of the LIDAR measuring system 200 arranged. The second LIDAR sensor 220 is immovable, ie its viewing angle is fixed. The second LIDAR sensor 220 includes a LIDAR transmitter and a LIDAR receiver.

Der erste LIDAR-Sensor 210 umfasst eine LIDAR Sendeeinheit sowie eine LIDAR Empfangseinheit. Die LIDAR Empfangseinheit bildet zusammen mit der LIDAR Sendeeinheit, der Empfangsoptik 213, der Sendeoptik 214 sowie einen um eine Kippachse 215 verkippbaren Spiegel 216 eine bewegliche LIDAR-Einheit mit einem mittels der Verkippung des Spiegels 216 veränderlichem Blickwinkel.The first LIDAR sensor 210 includes a LIDAR transmitter and a LIDAR receiver. The LIDAR receiver unit forms together with the LIDAR transmitter unit, the receiving optics 213 , the transmission optics 214 and one around a tilt axis 215 tiltable mirror 216 a movable lidar unit with one by tilting the mirror 216 changing perspective.

Die LIDAR Empfangseinheit und / oder die LIDAR Sendeeinheit sind günstiger Weise in einer Focal Plane-Array Konfiguration ausgebildet, wie in 3 angedeutet. Die Elemente der jeweiligen Einheit sind im Wesentlichen in einer Ebene, günstiger Weise auf einem Chip, angeordnet. Die jeweilige Einheit ist an dem LIDAR-Sensor 210 vorzugsweise in einem Brennpunkt einer entsprechenden Optik - Sendeoptik 214 oder Empfangsoptik 213 - angeordnet. Insbesondere sind die Sensorelemente 211 bzw. die Emitterelemente 212 im Brennpunkt der Empfangsoptik 213 bzw. der Sendeoptik 214 angeordnet. Eine solche Optik kann beispielsweise durch ein optisches Linsensystem ausgebildet sein.The LIDAR receiving unit and / or the LIDAR transmitting unit are advantageously designed in a focal plane array configuration, as in 3rd indicated. The elements of the respective unit are essentially arranged in one plane, advantageously on a chip. The respective unit is on the LIDAR sensor 210 preferably in a focal point of a corresponding optics - transmission optics 214 or receiving optics 213 - arranged. In particular, the sensor elements 211 or the emitter elements 212 in the focus of the receiving optics 213 or the transmission optics 214 arranged. Such optics can be formed, for example, by an optical lens system.

Die LIDAR Empfangseinheit weist mehrere Sensorelemente 211 auf, welche vorzugsweise als SPAD, Single Photon Avalanche Diode, ausgebildet sind. Die LIDAR Sendeeinheit weist mehrere Emitterelemente 212 zur Aussendung von z.B. Laserlicht, günstigerweise Laserpulsen, auf. Die Emitterelemente 212 sind günstiger Weise als VCSEL, Vertical Cavity Surface Emitting Laser, ausgebildet.The LIDAR receiver unit has several sensor elements 211 , which are preferably designed as SPAD, single photon avalanche diode. The LIDAR transmitter unit has several emitter elements 212 for emitting, for example, laser light, advantageously laser pulses. The emitter elements 212 are favorably designed as VCSEL, Vertical Cavity Surface Emitting Laser.

Die Sendeeinheit weist Emitterelemente 212 auf, die über eine Fläche des Sendechips verteilt sind. Die Empfangseinheit weist Sensorelemente 211 auf, die über eine Fläche des Empfangschips verteilt sind. Dem Sendechip ist eine Sendeoptik 214 zugewiesen und dem Empfangschip ist die Empfangsoptik 213 zugewiesen. Die Optik bildet ein aus einem Raumbereich eintreffendes Licht auf den jeweiligen Chip ab. Der Raumbereich entspricht dem Sichtbereich des Messsystems 200, der auf Objekte untersucht oder sensiert wird.The transmitter unit has emitter elements 212 which are distributed over an area of the transmitter chip. The receiving unit has sensor elements 211 which are distributed over an area of the receiving chip. The transmission chip is a transmission optics 214 assigned and the receiving chip is the receiving optics 213 assigned. The optics represent a light arriving from a room area on the respective chip. The area corresponds to the field of view of the measuring system 200 who is examined or sensed for objects.

Der Raumbereich der Sendeeinheit und der Empfangseinheit sind im Wesentlichen identisch. Die Sendeoptik bildet ein Emitterelement 212 auf einen Raumwinkel ab, der einen Teilbereich des Raumbereichs darstellt. Das Emitterelement 212 sendet dementsprechend Laserlicht in diesen Raumwinkel aus. Die Emitterelemente 212 decken gemeinsam den gesamten Raumbereich ab.The spatial area of the transmitting unit and the receiving unit are essentially identical. The transmission optics form an emitter element 212 on a solid angle, which represents a partial area of the spatial area. The emitter element 212 accordingly emits laser light in this solid angle. The emitter elements 212 cover the entire room together.

Die Empfangsoptik 213 bildet ein Sensorelement 211 auf einen Raumwinkel ab, der einen Teilbereich des Raumbereichs darstellt. Die Anzahl aller Sensorelemente 211 deckt den gesamten Raumbereich ab. Emitterelemente 212 und Sensorelemente 211, die denselben Raumwinkel betrachten, bilden auf einander ab und sind dementsprechend einander zugewiesen. Ein Laserlicht eines Emitterelements 212 bildet im Normalfall immer auf das zugehörige Sensorelement 211 ab. Gegebenenfalls sind mehrere Sensorelemente 211 innerhalb des Raumwinkels eines Emitterelements 212 angeordnet.The receiving optics 213 forms a sensor element 211 on a solid angle, which represents a partial area of the spatial area. The number of all sensor elements 211 covers the entire room area. Emitter elements 212 and sensor elements 211 , which consider the same solid angle, map to each other and are accordingly assigned to each other. A laser light from an emitter element 212 normally forms on the associated sensor element 211 from. If necessary, there are several sensor elements 211 within the solid angle of an emitter element 212 arranged.

Zur Ermittlung von Objekten innerhalb des Raumbereichs führt das Messsystem 200 einen Messvorgang durch. Ein solcher Messvorgang umfasst einen oder mehrere Messzyklen, je nach konstruktivem Aufbau des Messsystems 200 und dessen Elektronik.The measuring system leads to the determination of objects within the room area 200 a measurement process. Such a measuring process comprises one or more measuring cycles, depending on the design of the measuring system 200 and its electronics.

Vorzugsweise wird das Time Correlated Single Photon Counting Verfahren, TCSPC, verwendet. Hierbei werden einzelne eintreffende Photonen detektiert, insbesondere durch SPAD, und der Zeitpunkt der Auslösung des Sensorelements 211, auch Detektionszeitpunkt, in einem Speicherelement abgelegt. Der Detektionszeitpunkt steht im Verhältnis zu einem Referenzzeitpunkt, zu dem das Laserlicht ausgesendet wird. Aus der Differenz lässt sich die Laufzeit des Laserlichts ermitteln, woraus der Abstand des Objekts bestimmt werden kann.The Time Correlated Single Photon Counting method, TCSPC, is preferably used. Here individual incoming photons are detected, in particular by SPAD, and the time at which the sensor element is triggered 211 , also the time of detection, are stored in a storage element. The time of detection is related to a reference time at which the laser light is emitted. From the difference, the Determine the transit time of the laser light, from which the distance of the object can be determined.

Ein Sensorelement 211 kann einerseits von dem Laserlicht und andererseits von der Umgebungsstrahlung ausgelöst werden. Ein Laserlicht trifft bei einem bestimmten Abstand des Objekts immer zur gleichen Zeit ein, wohingegen die Umgebungsstrahlung jederzeit dieselbe Wahrscheinlichkeit bereitstellt ein Sensorelement auszulösen. Bei der mehrfachen Durchführung einer Messung, insbesondere mehrerer Messzyklen, summieren sich die Auslösungen des Sensorelements 211 bei dem Detektionszeitpunkt, der der der Laufzeit des Laserlichts bezüglich der Entfernung des Objekts entspricht, wohingegen sich die Auslösungen durch die Umgebungsstrahlung gleichmäßig über die Messdauer eines Messzyklus verteilen. Eine Messung entspricht dem Aussenden und anschließendem Detektieren des Laserlichts. Die in dem Speicherelement abgelegten Daten der einzelnen Messzyklen eines Messvorgangs ermöglichen eine Auswertung der mehrfach ermittelten Detektionszeitpunkte, um auf den Abstand des Objekts zu schließen.A sensor element 211 can be triggered on the one hand by the laser light and on the other hand by the ambient radiation. A laser light always arrives at a certain distance from the object at the same time, whereas the ambient radiation always provides the same probability of triggering a sensor element. When a measurement is carried out several times, in particular several measurement cycles, the triggering of the sensor element add up 211 at the time of detection that corresponds to the transit time of the laser light with respect to the distance of the object, whereas the triggers by the ambient radiation are distributed uniformly over the measurement duration of a measurement cycle. A measurement corresponds to the emission and subsequent detection of the laser light. The data of the individual measurement cycles of a measurement process stored in the memory element enable the multiple times of detection to be evaluated in order to infer the distance of the object.

Ein Sensorelement 211 ist günstigerweise mit einem Time to Digital Converter, TDC, verbunden, der den Zeitpunkt des Auslösens der Sensoreinheit in dem Speicherelement ablegt. Ein solches Speicherelement kann beispielsweise als Kurzzeitspeicher oder als Langzeitspeicher ausgebildet sein. Der TDC füllt für einen Messvorgang ein Speicherelement mit den Zeitpunkten, zu denen die Sensorelemente ein eintreffendes Photon detektierten. Dies lässt sich grafisch durch ein Histogramm, welches auf den Daten des Speicherelements basiert. Bei einem Histogramm ist die Dauer eines Messzyklus in kurze Zeitabschnitte unterteilt, sogenannte Bins. Wird ein Sensorelement 211 ausgelöst, so erhöht der TDC den Wert eines Bin um eins. Es wird der Bin aufgefüllt, welcher der Laufzeit des Laserpulses entspricht, also die Differenz zwischen Detektionszeitpunkt und Referenzzeitpunkt.A sensor element 211 is conveniently connected to a Time to Digital Converter, TDC, which stores the point in time at which the sensor unit is triggered in the memory element. Such a memory element can be designed, for example, as a short-term memory or as a long-term memory. For a measuring process, the TDC fills a storage element with the times at which the sensor elements detected an incoming photon. This can be graphically represented by a histogram, which is based on the data of the storage element. In the case of a histogram, the duration of a measurement cycle is divided into short periods of time, so-called bins. Becomes a sensor element 211 triggered, the TDC increases the value of a bin by one. The bin that corresponds to the transit time of the laser pulse, that is the difference between the detection time and the reference time, is filled.

Ein erfindungsgemäßes Auswerteelement ist in den 2 und 3 aus Gründen der Übersichtlichkeit nicht dargestellt. Gemäß Ausführungsbeispielen kann auf den verkippbaren Spiegel 216 verzichtet werden. Entsprechend kann dann der erste LIDAR-Sensor 210 als Ganzes oder zumindest teilweise um eine Kippachse verkippbar sein. Auch der zweite LIDAR-Sensor 220 kann um eine weitere Kippachse verkippbar sein.An evaluation element according to the invention is shown in FIGS 2nd and 3rd not shown for reasons of clarity. According to embodiments, the tiltable mirror 216 to be dispensed with. The first LIDAR sensor can then accordingly 210 be tiltable as a whole or at least partially about a tilt axis. Also the second LIDAR sensor 220 can be tiltable about a further tilt axis.

Beispielhafte Informationen eines LIDAR-Sensors mit veränderlichem Blickwinkel im Vergleich zu Informationen eines LIDAR-Sensors mit unveränderlichem Blickwinkel sind in 4 gezeigt. Zur besseren Verständlichkeit sind die von den LIDAR Sensoren jeweils bereitgestellten Informationen über den von ihnen abgedeckten Raumbereich als graphische Aufnahmen in 4 dargestellt. Dabei ist zu beachten, dass diese Darstellung rein aus pädagogischen Gründen gewählt ist und die Informationen wie oben beschrieben Informationen eines anderen Typs sind. Insbesondere ermittelt ein LIDAR-Messsystem einzelne Reflektionen, die auch als Detektionen bezeichnet werden. Jede Detektion kann Informationen wie Abstand, Elevationswinkel, Azimuthwinkel, Geschwindigkeit, Intensität und / oder weitere Größen umfassen.Exemplary information of a LIDAR sensor with a variable viewing angle compared to information of a LIDAR sensor with an unchanging viewing angle are shown in 4th shown. For better comprehensibility, the information provided by the LIDAR sensors on the area covered by them is shown as a graphic image in 4th shown. It should be noted that this representation is chosen purely for educational reasons and the information as described above is of a different type. In particular, a LIDAR measuring system determines individual reflections, which are also referred to as detections. Each detection can include information such as distance, elevation angle, azimuth angle, speed, intensity and / or other variables.

Wie in 4 angedeutet, können die beiden LIDAR-Sensoren z.B. in einem Fahrzeug 400 verbaut sein, um die Umgebung des Fahrzeugs zu erfassen. Das Bild 410 zeigt den von dem LIDAR-Sensor mit unveränderlichem Blickwinkel abgedeckten Raumbereich. Das Bild 420 zeigt den von dem LIDAR-Sensor mit veränderlichem Blickwinkel abgedeckten Raumbereich bei einem ersten Blickwinkel des LIDAR-Sensors. Ferner zeigt das Bild 430 den von dem LIDAR-Sensor mit veränderlichem Blickwinkel abgedeckten Raumbereich bei einem zweiten Blickwinkel des LIDAR-Sensors.As in 4th indicated, the two LIDAR sensors can, for example, in a vehicle 400 be installed to capture the surroundings of the vehicle. The picture 410 shows the area covered by the LIDAR sensor with an unchangeable viewing angle. The picture 420 shows the area covered by the LIDAR sensor with a variable viewing angle at a first viewing angle of the LIDAR sensor. The picture also shows 430 the area covered by the LIDAR sensor with a variable viewing angle at a second viewing angle of the LIDAR sensor.

Bei dem in 4 gezeigten Beispiel stellen die Bilder 420 und 430 des LIDAR-Sensors mit veränderlichem Blickwinkel jeweils einen kleinen Bildausschnitt des von dem LIDAR-Sensor mit unveränderlichem Blickwinkel aufgenommenen Bildes dar. Die Bilder 420 und 430 zeigen den jeweiligen Bildausschnitt mit erhöhter Auflösung. Aus dem Abgleich der Bilder 420 und 430 mit dem Bild 410 kann nun die Position des jeweiligen Bildausschnitts in dem Bild 410 bestimmt und daraus der Blickwinkel des LIDAR-Sensors mit veränderlichem Blickwinkel berechnet werden.At the in 4th the example shown represent the pictures 420 and 430 of the LIDAR sensor with a variable viewing angle each represent a small image section of the image taken by the LIDAR sensor with an unchanging viewing angle. The images 420 and 430 show the respective image section with increased resolution. From the comparison of the pictures 420 and 430 with the picture 410 can now the position of the respective image section in the image 410 determined and from this the angle of view of the LIDAR sensor can be calculated with a variable angle of view.

BezugszeichenlisteReference list

100100
UmfelderkennungssystemEnvironment detection system
110110
erster Umfeldsensorfirst environment sensor
111111
Informationen über einen ersten RaumbereichInformation about a first room area
112112
von dem ersten Umfeldsensor ausgesendetes Signalsignal emitted by the first environment sensor
120120
zweiter Umfeldsensorsecond environment sensor
121121
Informationen über einen zweiten RaumbereichInformation about a second room area
122122
von dem zweiten Umfeldsensor ausgesendetes Signalsignal emitted by the second environment sensor
130130
AuswerteelementEvaluation element
140140
Objektobject
142142
Reflexionen des von dem ersten Umfeldsensor ausgesendeten SignalsReflections of the signal emitted by the first environment sensor
143 143
Reflexionen des von dem zweiten Umfeldsensor ausgesendeten SignalsReflections of the signal emitted by the second environment sensor
200200
LIDAR-MesssystemLIDAR measuring system
210210
erster LIDAR-Sensorfirst LIDAR sensor
211211
SensorelementSensor element
212212
EmitterelementEmitter element
213213
EmpfangsoptikReceiving optics
214214
EmpfangsoptikReceiving optics
215215
KippachseTilt axis
216216
Spiegelmirror
220220
zweiter LIDAR-Sensorsecond LIDAR sensor
230230
Gehäusecasing
400400
Fahrzeugvehicle
410410
Bild eines LIDAR-Sensors mit unveränderlichem BlickwinkelImage of a LIDAR sensor with a fixed viewing angle
420420
Bild eines LIDAR-Sensors mit veränderlichem BlickwinkelImage of a LIDAR sensor with a variable viewing angle
430430
Bild eines LIDAR-Sensors mit veränderlichem BlickwinkelImage of a LIDAR sensor with a variable viewing angle

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant has been generated automatically and is only included for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • DE 102013211648 A1 [0006, 0008]DE 102013211648 A1 [0006, 0008]
  • DE 102008004370 A1 [0007, 0008]DE 102008004370 A1 [0007, 0008]
  • WO 2017/081294 A1 [0031]WO 2017/081294 A1 [0031]

Claims (10)

Umfelderkennungssystem (100), umfassend: einen ersten Umfeldsensor (110) mit veränderlichem Blickwinkel, der eingerichtet ist, erste Informationen (111) über einen ersten Raumbereich bereitzustellen, wobei der erste Raumbereich abhängig von einem momentanen Blickwinkel des ersten Umfeldsensors (110) ist; und einen zweiten Umfeldsensor (120), der eingerichtet ist, zweite Informationen (121) über einen zweiten Raumbereich bereitzustellen, wobei der erste Raumbereich ein Teilbereich des zweiten Raumbereichs ist, gekennzeichnet durch ein Auswerteelement, das eingerichtet ist, den momentanen Blickwinkel des ersten Umfeldsensors (110) basierend auf einem Abgleich der ersten (111) Informationen und der zweiten Informationen (121) zu bestimmen.An environment detection system (100), comprising: a first environment sensor (110) with a variable viewing angle, which is configured to provide first information (111) about a first spatial area, the first spatial area being dependent on a current viewing angle of the first environmental sensor (110); and a second environment sensor (120) which is set up to provide second information (121) about a second room area, the first room area being a partial area of the second room area, characterized by an evaluation element which is set up to determine the instantaneous viewing angle of the first environment sensor ( 110) based on a comparison of the first (111) information and the second information (121). Umfelderkennungssystem nach Anspruch 1, dadurch gekennzeichnet, dass zumindest die zweiten Informationen (121) in einer zweidimensionalen Matrix angeordnet sind, wobei das Auswerteelement eingerichtet ist: eine den ersten Informationen (111) entsprechende Teilmenge der zweiten Informationen (121) zu bestimmen; und den momentanen Blickwinkel des ersten Umfeldsensors (110) basierend auf einer Lage der Teilmenge der zweiten Informationen (121) in der zweidimensionalen Matrix zu bestimmen.Environment detection system according to Claim 1 , characterized in that at least the second information (121) is arranged in a two-dimensional matrix, the evaluation element being set up: to determine a subset of the second information (121) corresponding to the first information (111); and to determine the current viewing angle of the first environment sensor (110) based on a position of the subset of the second information (121) in the two-dimensional matrix. Umfelderkennungssystem nach Anspruch 1 oder Anspruch 2, dadurch gekennzeichnet, dass der erste Umfeldsensor (110) eingerichtet ist, die ersten Informationen basierend auf empfangenen Reflexionen eines von dem ersten Umfeldsensor (110) ausgesendeten Signals bereitzustellen.Environment detection system according to Claim 1 or Claim 2 , characterized in that the first environment sensor (110) is set up to provide the first information based on received reflections of a signal emitted by the first environment sensor (110). Umfelderkennungssystem nach Anspruch 3, dadurch gekennzeichnet, dass der erste Umfeldsensor (110) ein LIDAR-Sensor (210) ist.Environment detection system according to Claim 3 , characterized in that the first environment sensor (110) is a LIDAR sensor (210). Umfelderkennungssystem nach Anspruch 3, dadurch gekennzeichnet, dass der erste Umfeldsensor (110) ein Radar-Sensor ist.Environment detection system according to Claim 3 , characterized in that the first environment sensor (110) is a radar sensor. Umfelderkennungssystem nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass der zweite Umfeldsensor (120) ein LIDAR-Sensor, ein Radarsensor oder eine Kamera ist.Environment detection system according to one of the Claims 1 to 5 , characterized in that the second environment sensor (120) is a LIDAR sensor, a radar sensor or a camera. Umfelderkennungssystem nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass der erste Raumbereich in den ersten Informationen höher aufgelöst ist als in den zweiten Informationen.Environment detection system according to one of the Claims 1 to 6 , characterized in that the first spatial area has a higher resolution in the first information than in the second information. Fahrzeug (400), gekennzeichnet durch: zumindest ein Umfelderkennungssystem gemäß einem der Ansprüche 1 bis 7, um eine Umgebung des Fahrzeugs zu erfassen; und ein Steuerelement, das eingerichtet ist, eine Reaktion des Fahrzeugs auf die ersten Informationen abhängig von dem ermittelten momentanen Blickwinkel des ersten Umfeldsensors abzuleiten.Vehicle (400), characterized by : at least one environment detection system according to one of the Claims 1 to 7 to detect an environment of the vehicle; and a control element that is set up to derive a reaction of the vehicle to the first information as a function of the determined instantaneous viewing angle of the first surroundings sensor. Verfahren für ein Umfelderkennungssystem umfassend einen ersten Umfeldsensor (110) mit veränderlichem Blickwinkel und einen zweiten Umfeldsensor (120), wobei das Verfahren Folgendes umfasst: Bereitstellen von ersten Informationen (111) über einen ersten Raumbereich durch den ersten Umfeldsensor (110), wobei der erste Raumbereich abhängig von einem momentanen Blickwinkel des ersten Umfeldsensors (110) ist; und Bereitstellen von zweiten Informationen (121) über einen zweiten Raumbereich durch den zweiten Umfeldsensor (120), wobei der erste Raumbereich ein Teilbereich des zweiten Raumbereichs ist, gekennzeichnet durch Bestimmen des momentanen Blickwinkels des ersten Umfeldsensors (110) basierend auf einem Abgleich der ersten Informationen (111) und der zweiten Informationen (121).A method for an environment detection system comprising a first environment sensor (110) with a variable angle of view and a second environment sensor (120), the method comprising: providing first information (111) about a first spatial area by the first environment sensor (110), the first Area is dependent on an instantaneous viewing angle of the first environment sensor (110); and providing second information (121) about a second room area by the second environment sensor (120), the first room area being a partial area of the second room area, characterized by determining the instantaneous viewing angle of the first environment sensor (110) based on a comparison of the first information (111) and the second information (121). Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass zumindest die zweiten Informationen (121) in einer zweidimensionalen Matrix angeordnet sind, wobei das Bestimmen des momentanen Blickwinkels des ersten Umfeldsensors (110) Folgendes umfasst: Bestimmen einer den ersten Informationen (111) entsprechenden Teilmenge der zweiten Informationen (121); und Bestimmen des momentanen Blickwinkels des ersten Umfeldsensors (110) basierend auf einer Lage der Teilmenge der zweiten Informationen (121) in der zweidimensionalen Matrix.Procedure according to Claim 9 , characterized in that at least the second information (121) is arranged in a two-dimensional matrix, the determination of the instantaneous viewing angle of the first environment sensor (110) comprising: determination of a subset of the second information (121) corresponding to the first information (111) ; and determining the instantaneous viewing angle of the first environment sensor (110) based on a position of the subset of the second information (121) in the two-dimensional matrix.
DE102018216707.9A 2018-09-28 2018-09-28 Environment detection system and method for an environment detection system Pending DE102018216707A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102018216707.9A DE102018216707A1 (en) 2018-09-28 2018-09-28 Environment detection system and method for an environment detection system
PCT/EP2019/076201 WO2020065019A1 (en) 2018-09-28 2019-09-27 Environment detection system and method for an environment detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018216707.9A DE102018216707A1 (en) 2018-09-28 2018-09-28 Environment detection system and method for an environment detection system

Publications (1)

Publication Number Publication Date
DE102018216707A1 true DE102018216707A1 (en) 2020-04-02

Family

ID=68104628

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018216707.9A Pending DE102018216707A1 (en) 2018-09-28 2018-09-28 Environment detection system and method for an environment detection system

Country Status (2)

Country Link
DE (1) DE102018216707A1 (en)
WO (1) WO2020065019A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090128647A1 (en) * 2007-11-16 2009-05-21 Samsung Electronics Co., Ltd. System and method for automatic image capture in a handheld camera with a multiple-axis actuating mechanism
US20170186291A1 (en) * 2015-12-24 2017-06-29 Jakub Wenus Techniques for object acquisition and tracking

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008004370A1 (en) 2008-01-15 2009-07-16 Robert Bosch Gmbh Image adjustment method for a video image
US20100235129A1 (en) * 2009-03-10 2010-09-16 Honeywell International Inc. Calibration of multi-sensor system
DE102011120535A1 (en) * 2011-12-08 2013-06-13 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Method for adjusting sensor during manufacture of motor car, involves comparing object positions determined relative to vehicle reference axis, to produce comparative data and adjusting preset sensor as a function of comparative data
DE102013211648A1 (en) 2013-06-20 2014-12-24 Continental Automotive Gmbh Method and apparatus for calibrating a first and a second camera
EP3168641B1 (en) 2015-11-11 2020-06-03 Ibeo Automotive Systems GmbH Method and device for optically measuring distances
US10451740B2 (en) * 2016-04-26 2019-10-22 Cepton Technologies, Inc. Scanning lidar systems for three-dimensional sensing
US10401484B2 (en) * 2017-06-30 2019-09-03 Aptiv Technologies Limited LiDAR sensor alignment system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090128647A1 (en) * 2007-11-16 2009-05-21 Samsung Electronics Co., Ltd. System and method for automatic image capture in a handheld camera with a multiple-axis actuating mechanism
US20170186291A1 (en) * 2015-12-24 2017-06-29 Jakub Wenus Techniques for object acquisition and tracking

Also Published As

Publication number Publication date
WO2020065019A1 (en) 2020-04-02

Similar Documents

Publication Publication Date Title
DE102010061382A1 (en) Opto-electronic sensor and method for detection and distance determination of objects
EP1531343A1 (en) Method for tracking objects
EP1531342B1 (en) Method of detecting pedestrians
DE102019217627A1 (en) Lidar with distance-dependent vertical resolution
DE102020006072A1 (en) Method for operating a lidar
WO2021001181A1 (en) Adaptation device and lidar measuring device
DE102018216705A1 (en) LIDAR measuring system and method for a LIDAR measuring system
EP3531167B1 (en) Method and device for optically measuring distances
DE102018216707A1 (en) Environment detection system and method for an environment detection system
WO2018172258A1 (en) Spad-based lidar system
DE102018219476A1 (en) Device for optically scanning an environment of the device
DE102019100929A1 (en) Long-range detector for LIDAR
DE102017208700A1 (en) Method and device for object detection and LIDAR system
DE102020124017A1 (en) Method for operating an optical detection device, optical detection device and vehicle with at least one optical detection device
EP3994481A1 (en) Reading device and lidar measuring device
DE102016224764A1 (en) Method and device for operating a laser scanner and laser scanner
WO2020065016A1 (en) Environment detection system, vehicle and method for an environment detection system
DE4422886A1 (en) Method and device for the optical determination of spatial positions of individual reflecting objects
EP3614172B1 (en) Method and device for optically measuring distances
DE102010064682B3 (en) Optoelectronic sensor and method for detecting and determining the distance of objects
WO2018184942A1 (en) Lidar device and method for scanning a scanning angle and for evaluating a detector
DE102019106411B4 (en) Laser scanning device and method for three-dimensional measurement of a scene at a great distance
DE102007036632B4 (en) Optical sensor and method for detecting objects in a surveillance area
DE102022213944A1 (en) LIDAR sensor and method for optically detecting a field of view
DE102016006776A1 (en) Device and method for unambiguous distance measurement with modulated LIDAR

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: ZF FRIEDRICHSHAFEN AG, DE

Free format text: FORMER OWNERS: IBEO AUTOMOTIVE SYSTEMS GMBH, 22143 HAMBURG, DE; ZF FRIEDRICHSHAFEN AG, 88046 FRIEDRICHSHAFEN, DE

Owner name: MICROVISION, INC., REDMOND, US

Free format text: FORMER OWNERS: IBEO AUTOMOTIVE SYSTEMS GMBH, 22143 HAMBURG, DE; ZF FRIEDRICHSHAFEN AG, 88046 FRIEDRICHSHAFEN, DE

R082 Change of representative

Representative=s name: RGTH PATENTANWAELTE PARTGMBB, DE

Representative=s name: RGTH RICHTER GERBAULET THIELEMANN HOFMANN PATE, DE