DE102019201635A1 - System and method for measuring a field of view of an environmental sensor in a vehicle - Google Patents

System and method for measuring a field of view of an environmental sensor in a vehicle Download PDF

Info

Publication number
DE102019201635A1
DE102019201635A1 DE102019201635.9A DE102019201635A DE102019201635A1 DE 102019201635 A1 DE102019201635 A1 DE 102019201635A1 DE 102019201635 A DE102019201635 A DE 102019201635A DE 102019201635 A1 DE102019201635 A1 DE 102019201635A1
Authority
DE
Germany
Prior art keywords
environmental sensor
vehicle
sensor
unmanned aerial
aerial vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102019201635.9A
Other languages
German (de)
Inventor
Matthias Leiter
Miroslav Knezevic
Anatol Weidenbach
Torsten Karch
Marcus Hiemer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102019201635.9A priority Critical patent/DE102019201635A1/en
Publication of DE102019201635A1 publication Critical patent/DE102019201635A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/933Lidar systems specially adapted for specific applications for anti-collision purposes of aircraft or spacecraft
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B43/00Testing correct operation of photographic apparatus or parts thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

Die vorliegende Erfindung betrifft ein System (10) zum Kalibrieren eines Umgebungssensors (14) in einem Fahrzeug (16), mit: einem unbemannten Flugfahrzeug (20) mit einem Sensorziel (26), das dazu ausgebildet ist, von dem Umgebungssensor des Fahrzeugs erfasst zu werden; einer Positioniervorrichtung (22) zum Ermitteln einer Flugfahrzeugposition (34) des unbemannten Flugfahrzeugs relativ zu einer Position des Umgebungssensors des Fahrzeugs; und einer Prozessoreinheit (24) zum Ermitteln eines Kalibrierungsparameters mit Informationen zu einer Kalibrierung des Umgebungssensors basierend auf dem Signal des Umgebungssensors und der Flugfahrzeugposition. Die vorliegende Erfindung betrifft weiterhin eine Verwendung einer Drohne als unbemanntes Flugfahrzeug (20), eine Kalibrierungsanordnung (18) und ein Verfahren zum Kalibrieren eines Umgebungssensors (14).

Figure DE102019201635A1_0000
The present invention relates to a system (10) for calibrating an environment sensor (14) in a vehicle (16), comprising: an unmanned aerial vehicle (20) with a sensor target (26) which is designed to be detected by the environment sensor of the vehicle become; a positioning device (22) for determining an aircraft position (34) of the unmanned aircraft relative to a position of the environmental sensor of the vehicle; and a processor unit (24) for determining a calibration parameter with information on a calibration of the environmental sensor based on the signal of the environmental sensor and the aircraft position. The present invention also relates to a use of a drone as an unmanned aerial vehicle (20), a calibration arrangement (18) and a method for calibrating an environmental sensor (14).
Figure DE102019201635A1_0000

Description

Die vorliegende Erfindung betrifft ein System zum Vermessen eines Sichtfelds eines Umgebungssensors eines Fahrzeugs. Die vorliegende Erfindung betrifft weiterhin eine Verwendung einer Drohne, einer Kalibrierungsanordnung sowie ein Verfahren zum Vermessen eines Sichtfelds eines Umgebungssensors.The present invention relates to a system for measuring a field of view of an environmental sensor of a vehicle. The present invention further relates to a use of a drone, a calibration arrangement and a method for measuring a field of view of an environmental sensor.

Moderne Fahrzeuge (Autos, Transporter, Lastwagen, Motorräder, Baumaschinen, Landmaschinen etc.) umfassen eine Vielzahl von Sensoren, die dem Fahrer Informationen zur Verfügung stellen und einzelne Funktionen des Fahrzeugs teil- oder vollautomatisiert steuern. Eine wichtige Voraussetzung ist hierbei die Erfassung, Erkennung und Modellierung der Umgebung des eigenen Fahrzeugs. Mittels Umgebungssensoren, wie beispielsweise Radar-, Lidar-, Ultraschall- und Kamerasensoren, werden Sensordaten mit Informationen zu der Umgebung erfasst. Ausgehend von den erfassten Daten sowie gegebenenfalls unter zusätzlicher Berücksichtigung im Fahrzeug verfügbarer Daten können dann Objekte in der Umgebung des Fahrzeugs identifiziert und klassifiziert werden. Basierend auf den erkannten Objekten kann beispielsweise ein Verhalten eines autonomen oder teilautonomen Fahrzeugs an eine aktuelle Situation angepasst werden oder können dem Fahrer durch eine Modellierung der Umgebung Zusatzinformationen zur Verfügung gestellt werden.Modern vehicles (cars, vans, trucks, motorcycles, construction machinery, agricultural machinery, etc.) include a large number of sensors that provide the driver with information and control individual functions of the vehicle in a partially or fully automated manner. An important prerequisite here is the acquisition, recognition and modeling of the surroundings of your own vehicle. Using environmental sensors, such as radar, lidar, ultrasonic and camera sensors, sensor data with information about the environment are recorded. Objects in the vicinity of the vehicle can then be identified and classified on the basis of the recorded data and, if necessary, with additional consideration of data available in the vehicle. Based on the detected objects, for example, the behavior of an autonomous or semi-autonomous vehicle can be adapted to a current situation or additional information can be made available to the driver by modeling the environment.

Derartige Techniken und Technologien kommen in letzter Zeit auch im Bereich der Bau- und Landmaschinen vermehrt zum Einsatz. Beispielsweise können in der Umgebung eines Radladers automatisch Erdansammlungen erfasst werden, um hierdurch die Arbeit zu planen und dem Fahrer erweiterte Informationen für die Arbeits- und Fahrtplanung zur Verfügung zu stellen. Ebenfalls können einzelne Spezialfunktionen einer Bau- oder Landmaschine automatisiert ablaufen.Such techniques and technologies have recently been used increasingly in the field of construction and agricultural machinery. For example, accumulations of earth in the vicinity of a wheel loader can be automatically recorded in order to plan the work and provide the driver with additional information for work and travel planning. Individual special functions of a construction or agricultural machine can also run automatically.

Eine Herausforderung liegt dabei in der Kalibrierung der Sensorik, wobei die Kalibrierung insbesondere auch die Vermessung des Sichtfelds der Sensorik umfasst. Oft erfolgt diese erst zu einem Zeitpunkt, an dem der Umgebungssensor bereits im Fahrzeug verbaut ist. Für Autos und Lastwägen existieren geeignete Testkammern (Absorberkammern), in die die Fahrzeuge eingefahren werden und die Kalibrierung durchgeführt werden kann. Üblicherweise werden Sensorziele an Roboterarmen an vordefinierte Messpositionen gefahren und mit dem entsprechenden Umgebungssensor erfasst.One challenge lies in the calibration of the sensor system, the calibration also including, in particular, the measurement of the field of view of the sensor system. This often only takes place at a point in time when the environmental sensor is already installed in the vehicle. There are suitable test chambers (absorber chambers) for cars and trucks into which the vehicles can be driven and calibration can be carried out. Sensor targets on robot arms are usually moved to predefined measuring positions and recorded with the corresponding environmental sensor.

Dieses Vorgehen stößt jedoch insbesondere bei größeren Bau- und Landmaschinen an seine Grenzen. Zum einen können derartige Fahrzeuge oft bereits aufgrund ihrer Größe nicht in normale Testkammern einfahren. Zum anderen eignen sich normale Testkammern für Autos und Lastwägen bzw. die Freiheitsgrade der darin befindlichen Roboterarme oft nicht für die spezifischen Sensorpositionen an einer Bau- oder Landmaschine. Regelmäßig ist eine vertikale Ausdehnung des Sichtfelds wesentlich größer, sodass aufwändige Roboterarm-Konstruktionen notwendig sind. Zuletzt müssen im Bereich der Bau- und Landmaschinen aufgrund des Einsatzes in rauen Umgebungen wesentlich häufiger defekte Sensoren ausgetauscht werden, was einen hohen Aufwand bedingt, wenn das Fahrzeug nach dem Austausch für die neue Kalibrierung in eine spezielle Kammer überführt werden muss.However, this approach reaches its limits, especially with larger construction and agricultural machinery. On the one hand, such vehicles often cannot enter normal test chambers because of their size. On the other hand, normal test chambers for cars and trucks or the degrees of freedom of the robot arms located therein are often not suitable for the specific sensor positions on a construction or agricultural machine. The vertical expansion of the field of view is usually much larger, so that complex robot arm constructions are necessary. Finally, in the field of construction and agricultural machinery, defective sensors have to be replaced much more frequently due to their use in harsh environments, which requires a lot of effort if the vehicle has to be transferred to a special chamber after the replacement for the new calibration.

Ausgehend hiervon stellt sich der vorliegenden Erfindung die Aufgabe, den Aufwand bei der Kalibrierung eines Umgebungssensors eines Fahrzeugs zu reduzieren. Insbesondere soll eine effiziente Vermessung des Sichtfelds von Umgebungssensoren in Bau- und Landmaschinen ermöglicht werden.On the basis of this, the present invention has the task of reducing the effort involved in calibrating an environmental sensor of a vehicle. In particular, efficient measurement of the field of view of environmental sensors in construction and agricultural machinery should be enabled.

Zum Lösen dieser Aufgabe betrifft die vorliegende Erfindung in einem ersten Aspekt ein System zum Kalibrieren eines Umgebungssensors in einem Fahrzeug, mit:

  • einem unbemannten Flugfahrzeug mit einem Sensorziel, das dazu ausgebildet ist, von dem Umgebungssensor des Fahrzeugs erfasst zu werden;
  • einer Positioniervorrichtung zum Ermitteln einer Flugfahrzeugposition des unbemannten Flugfahrzeugs relativ zu einer Position des Umgebungssensors des Fahrzeugs; und
  • einer Prozessoreinheit zum Ermitteln eines Kalibrierungsparameters mit Informationen zu einer Kalibrierung des Umgebungssensors basierend auf dem Signal des Umgebungssensors und der Flugfahrzeugposition.
To achieve this object, the present invention relates in a first aspect to a system for calibrating an environment sensor in a vehicle, with:
  • an unmanned aerial vehicle with a sensor target configured to be detected by the vehicle's environmental sensor;
  • a positioning device for determining an aircraft position of the unmanned aircraft relative to a position of the environmental sensor of the vehicle; and
  • a processor unit for determining a calibration parameter with information on a calibration of the environmental sensor based on the signal of the environmental sensor and the aircraft position.

In einem weiteren Aspekt betrifft die Erfindung eine Verwendung einer Drohne als unbemanntes Flugfahrzeug in einem System wie zuvor beschrieben.In a further aspect, the invention relates to a use of a drone as an unmanned aerial vehicle in a system as described above.

In einem weiteren Aspekt betrifft die vorliegende Erfindung eine Kalibrierungsanordnung mit einem System wie zuvor beschrieben und einem Umgebungssensor an einer bekannten Position in einem Fahrzeug.In a further aspect, the present invention relates to a calibration arrangement with a system as described above and an environment sensor at a known position in a vehicle.

Weitere Aspekte der Erfindung betreffen ein entsprechendes Verfahren und ein Computerprogrammprodukt mit Programmcode zum Durchführen der Schritte des Verfahrens, wenn der Programmcode auf einem Computer ausgeführt wird, sowie ein Speichermedium, auf dem ein Computerprogramm gespeichert ist, das, wenn es auf einem Computer ausgeführt wird, eine Ausführung des hierin beschriebenen Verfahrens bewirkt.Further aspects of the invention relate to a corresponding method and a computer program product with program code for performing the steps of the method when the program code is executed on a computer, as well as a storage medium on which a computer program is stored, which when it is on a computer is carried out causes an execution of the method described herein.

Bevorzugte Ausgestaltungen der Erfindung werden in den abhängigen Ansprüchen beschrieben. Es versteht sich, dass die vorgenannten und die nachstehend noch zu erläuternden Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen. Insbesondere können das Verfahren, die Kalibrierungsanordnung und das Computerprogrammprodukt entsprechend der für das System in den abhängigen Ansprüchen beschriebenen Ausgestaltungen ausgeführt sein.Preferred embodiments of the invention are described in the dependent claims. It goes without saying that the features mentioned above and those yet to be explained below can be used not only in the combination specified in each case, but also in other combinations or on their own without departing from the scope of the present invention. In particular, the method, the calibration arrangement and the computer program product can be implemented in accordance with the configurations described for the system in the dependent claims.

Erfindungsgemäß wird eine Kalibrierung eines Umgebungssensors eines Fahrzeugs mittels eines unbemannten Flugfahrzeugs durchgeführt. Das unbemannte Flugfahrzeug trägt ein Sensorziel, das von dem Umgebungssensor des Fahrzeugs erfasst wird. Basierend auf einem Vergleich des Sensorsignals des Umgebungssensors mit dem realen Sensorziel und dessen Position kann die Kalibrierung des Umgebungssensors durchgeführt werden. Hierzu umfasst das erfindungsgemäße System eine Prozessoreinheit, die einerseits das Signal des Umgebungssensors des Fahrzeugs und andererseits die Flugfahrzeugposition als Eingangsgrößen verarbeitet. Ausgehend von einer Verarbeitung beider Informationen kann ein Kalibrierungsparameter mit Informationen zu einer Kalibrierung des Umgebungssensors ermittelt werden. In anderen Worten wird also die Perzeption des Umgebungssensors mit der Realität, wie sie von der Positioniervorrichtung ermittelt wurde und gegebenenfalls vorbekannt ist, verglichen. Ausgehend hiervon kann dann eine Zuordnung erfolgen und eine Kalibrierung des Sensors durchgeführt werden.According to the invention, an environment sensor of a vehicle is calibrated by means of an unmanned aircraft. The unmanned aerial vehicle carries a sensor target that is sensed by the vehicle's environmental sensor. The calibration of the environmental sensor can be carried out based on a comparison of the sensor signal of the environmental sensor with the real sensor target and its position. For this purpose, the system according to the invention comprises a processor unit which, on the one hand, processes the signal from the vehicle's environment sensor and, on the other hand, processes the aircraft position as input variables. Based on the processing of both pieces of information, a calibration parameter with information on a calibration of the environmental sensor can be determined. In other words, the perception of the environment sensor is compared with the reality as it was determined by the positioning device and is possibly known in advance. Based on this, an assignment can then be made and the sensor can be calibrated.

Im Vergleich zu bisherigen Ansätzen, bei denen es notwendig war das Fahrzeug mit dem Umgebungssensor in eine entsprechend geeignete Testkammer einzufahren, erlaubt das erfindungsgemäße System eine Kalibrierung eines Umgebungssensors in einem Fahrzeug in einem regulären Einsatzszenario (on-site). Ein Roboterarm, an dem das Sensorziel geführt wird, ist nicht notwendig. Insbesondere ermöglicht die vorliegende Erfindung eine Kalibrierung von Umgebungssensoren an Land- oder Baumaschinen. Kosten können gespart werden. Zudem kann auch die Genauigkeit gesteigert werden, da ein Roboterarm zumeist zu größeren Störungen und Ungenauigkeiten in der Messung führt als eine wesentlich kleinere Drohne. Dies gilt umso mehr für Sensoren an Bau- und Landmaschinen mit einem in vertikaler Richtung weit ausgedehnten Sensorsichtfeld.Compared to previous approaches, in which it was necessary to drive the vehicle with the environment sensor into a suitable test chamber, the system according to the invention allows calibration of an environment sensor in a vehicle in a regular use scenario (on-site). A robot arm on which the sensor target is guided is not necessary. In particular, the present invention enables the calibration of environmental sensors on agricultural or construction machinery. Costs can be saved. In addition, the accuracy can also be increased, since a robot arm usually leads to greater disturbances and inaccuracies in the measurement than a much smaller drone. This is all the more true for sensors on construction and agricultural machinery with a sensor field of view that is extensive in the vertical direction.

In einer bevorzugten Ausgestaltung ist die Prozessoreinheit zum Ermitteln des Kalibrierungsparameters mit Informationen zu einem Sichtfeld des Umgebungssensors ausgebildet. Basierend auf dem Sensorsignal des Umgebungssensors des Fahrzeugs wird die Position des unbemannten Flugfahrzeugs erfasst. Die so erfasste Position wird mit einer Referenzposition, also einer über eine unabhängig arbeitende Positioniervorrichtung ermittelte Position, verglichen. Basierend auf diesem Vergleich kann dann das Sichtfeld vermessen werden. Der Kalibrierungsparameter entspricht insoweit einem Sichtfeldparameter, der das Sichtfeld des Umgebungssensors beschreibt. Insbesondere ist es relevant, die Grenzen des Sichtfelds zu bestimmen.In a preferred embodiment, the processor unit is designed to determine the calibration parameter with information on a field of view of the environmental sensor. The position of the unmanned aircraft is recorded based on the sensor signal from the vehicle's environment sensor. The position detected in this way is compared with a reference position, that is to say a position determined via an independently operating positioning device. The field of view can then be measured based on this comparison. The calibration parameter corresponds to a field of view parameter that describes the field of view of the environmental sensor. In particular, it is relevant to determine the limits of the field of view.

In einer bevorzugten Ausgestaltung ist die Prozessoreinheit zum Ermitteln einer Zielposition des unbemannten Flugfahrzeugs basierend auf einem Sensorsignal des Umgebungssensors des Fahrzeugs und der Flugfahrzeugposition ausgebildet. Zudem ist die Prozessoreinheit zum Ansteuern eines Antriebs des unbemannten Flugfahrzeugs ausgebildet, um das unbemannte Flugfahrzeug in die Zielposition zu bewegen. Insbesondere ist es möglich, dass die Steuerung des unbemannten Flugfahrzeugs basierend auf dem Sensorsignal des Umgebungssensors des Fahrzeugs erfolgt. Bei der Ermittlung der Zielposition und bei der entsprechenden Ansteuerung des Antriebs des unbemannten Flugfahrzeugs wird der aktuelle Ausgang des Umgebungssensors mit einbezogen. Hierdurch können eine präzise Kalibrierung bzw. Vermessung des Sichtfelds erfolgen.In a preferred embodiment, the processor unit is designed to determine a target position of the unmanned aircraft based on a sensor signal from the environmental sensor of the vehicle and the aircraft position. In addition, the processor unit is designed to control a drive of the unmanned aerial vehicle in order to move the unmanned aerial vehicle into the target position. In particular, it is possible for the unmanned aerial vehicle to be controlled based on the sensor signal from the vehicle's environment sensor. When determining the target position and when activating the drive of the unmanned aircraft, the current output of the environmental sensor is included. This enables precise calibration or measurement of the field of view to take place.

In einer vorteilhaften Ausgestaltung ist die Prozessoreinheit zum Ermitteln der Zielposition basierend auf einem erwarteten Sichtfeld des Umgebungssensors ausgebildet. Eine Annahme bezüglich des Sichtfelds des Umgebungssensors kann getroffen werden und das unbemannte Flugfahrzeug kann direkt in einen entsprechenden relevanten Bereich geflogen werden. Interessant sind vor allem die Außengrenzen des wahrnehmbaren Bereichs. Diese Außengrenzen sollen detektiert werden und zur Vermessung des Sichtfelds mit dem Kalibrierungsparameter beschrieben werden. Dadurch, dass das erwartete Sichtfeld direkt bekannt ist, kann Zeit gespart und eine effiziente Kalibrierung bzw. Vermessung des Sichtfelds erreicht werden.In an advantageous embodiment, the processor unit is designed to determine the target position based on an expected field of view of the environmental sensor. An assumption regarding the field of view of the environmental sensor can be made and the unmanned aerial vehicle can be flown directly into a corresponding relevant area. The outer boundaries of the perceptible area are particularly interesting. These outer boundaries are to be detected and described with the calibration parameter in order to measure the field of view. Because the expected field of view is known directly, time can be saved and an efficient calibration or measurement of the field of view can be achieved.

In einer weiteren vorteilhaften Ausgestaltung ist die Prozessoreinheit zum Ermitteln einer Zielposition in unmittelbarer Nähe der Flugfahrzeugposition ausgebildet, wenn das Sensorsignal des Umgebungssensors eine Position des Sensorziels am Rande des Sichtfelds des Umgebungssensors anzeigt. Das unbemannte Flugfahrzeug wird lediglich geringfügig weiterbewegt, wenn es sich bereits am Rande des Sichtfelds befindet. Die Grenze des Sensorsichtfelds wird sozusagen abgetastet. Hierdurch wird es möglich, eine präzise Ausmessung des Sichtfelds vorzunehmen. Eine hohe Genauigkeit kann erreicht werden.In a further advantageous embodiment, the processor unit is designed to determine a target position in the immediate vicinity of the aircraft position when the sensor signal of the environmental sensor indicates a position of the sensor target at the edge of the field of view of the environmental sensor. The unmanned aerial vehicle is only moved slightly further if it is already at the edge of the field of view. The limit of the sensor field of view is scanned, so to speak. This makes it possible to precisely measure the field of view to undertake. High accuracy can be achieved.

In einer vorteilhaften Ausgestaltung ist die Prozessoreinheit zum Ermitteln des Sichtfeldparameters basierend auf einer Ausrichtung des Fahrzeugs und der Position des Umgebungssensors ausgebildet. Insbesondere ist es vorteilhaft, wenn zusätzlich zum Sensorsignal des Umgebungssensors auch eine Ausrichtung des Fahrzeugs bzw. des Umgebungssensors im Fahrzeug bekannt ist und als weiterer Eingangsparameter verwendet werden kann. Hierdurch wird es möglich, dass eine Kalibrierung des Umgebungssensors bzw. eine Vermessung des Sichtfelds in mehr oder weniger beliebiger Fahrzeugposition vorgenommen werden kann. Insbesondere kann eine Vermessung im Einsatzszenario einer Bau- oder Landmaschine vorgenommen werden. Eine effiziente Vermessung bzw. Kalibrierung werden gewährleistet.In an advantageous embodiment, the processor unit is designed to determine the field of view parameter based on an orientation of the vehicle and the position of the environmental sensor. In particular, it is advantageous if, in addition to the sensor signal of the environment sensor, an orientation of the vehicle or the environment sensor in the vehicle is known and can be used as a further input parameter. This makes it possible for the environment sensor to be calibrated or the field of view to be measured in more or less any vehicle position. In particular, a measurement can be carried out in the deployment scenario of a construction or agricultural machine. Efficient measurement and calibration are guaranteed.

In einer vorteilhaften Ausgestaltung umfasst die Positioniervorrichtung eine Inertialmesseinheit, einen Satellitennavigationsempfänger und/oder einen Höhenmesser innerhalb des unbemannten Flugfahrzeugs. Zusätzlich oder alternativ umfasst die Positioniervorrichtung eine Time-of-Flight-Kamera außerhalb des unbemannten Flugfahrzeugs mit bekannter und fester Position relativ zu der Position des Umgebungssensors des Fahrzeugs. Weiterhin zusätzlich oder alternativ umfasst die Positioniervorrichtung eine Kamera innerhalb des unbemannten Flugfahrzeugs und eine mit der Kamera erfassbare Referenzanordnung mit bekannter und fester Position relativ zu der Position des Umgebungssensors des Fahrzeugs. Durch eine Verwendung einer Positioniervorrichtung innerhalb des unbemannten Flugfahrzeugs kann ein mehr oder weniger autarker Betrieb gewährleistet werden. Hierdurch ergeben sich Effizienz- und Kostenvorteile. Oft ist es jedoch auch vorteilhaft, eine außerhalb des unbemannten Flugfahrzeugs befindliche Positioniervorrichtung zu verwenden. Durch die Verwendung einer Time-of-Flight-Kamera kann eine präzise Lokalisierung des unbemannten Flugfahrzeugs erfolgen. Die Kombination einer Kamera innerhalb des unbemannten Flugfahrzeugs mit einer Referenzanordnung mit bekannter und fester Position erlaubt ebenfalls eine effiziente und hochpräzise Lokalisierung des unbemannten Flugfahrzeugs. Eine präzise Vermessung des Sichtfelds wird erreicht.In an advantageous embodiment, the positioning device comprises an inertial measuring unit, a satellite navigation receiver and / or an altimeter within the unmanned aerial vehicle. Additionally or alternatively, the positioning device comprises a time-of-flight camera outside the unmanned aerial vehicle with a known and fixed position relative to the position of the vehicle's environmental sensor. Furthermore, additionally or alternatively, the positioning device comprises a camera inside the unmanned aerial vehicle and a reference arrangement that can be detected with the camera and has a known and fixed position relative to the position of the environmental sensor of the vehicle. By using a positioning device within the unmanned aircraft, a more or less self-sufficient operation can be guaranteed. This results in efficiency and cost advantages. However, it is often also advantageous to use a positioning device located outside the unmanned aerial vehicle. By using a time-of-flight camera, the unmanned aerial vehicle can be precisely localized. The combination of a camera within the unmanned aerial vehicle with a reference arrangement with a known and fixed position likewise allows an efficient and highly precise localization of the unmanned aerial vehicle. A precise measurement of the field of view is achieved.

In einer weiteren vorteilhaften Ausgestaltung umfasst das Sensorziel des unbemannten Flugfahrzeugs einen Kugelreflektor, einen Corner-Reflektor und/oder einen reflektierenden Ring um das unbemannte Flugfahrzeug. Je nach Art des auszumessenden Umgebungssensors (beispielsweise Radar- oder Linarsensor) bieten unterschiedliche Sensorziele unterschiedliche Vorteile. Ein Kugelreflektor hat den Vorteil, dass eine mehr oder weniger omnidirektionale Reflexionscharakteristik bzw. Sichtbarkeit erreicht wird. Ein Corner-Reflektor reflektiert sehr stark, muss jedoch eine bestimmte Ausrichtung in Bezug zum Umgebungssensor aufweisen. Ein reflektierender Ring reflektiert sehr stark, ist jedoch abhängig von der Höhenlage des unbemannten Flugfahrzeugs in Bezug zu dem Umgebungssensor. Je nach Anwendung können die verschiedenen Sensorziele Vorteile bringen, die zu einer genaueren Vermessung führen.In a further advantageous embodiment, the sensor target of the unmanned aerial vehicle includes a spherical reflector, a corner reflector and / or a reflective ring around the unmanned aerial vehicle. Depending on the type of environmental sensor to be measured (for example radar or linear sensor), different sensor targets offer different advantages. A spherical reflector has the advantage that a more or less omnidirectional reflection characteristic or visibility is achieved. A corner reflector is very reflective, but must have a certain orientation in relation to the ambient sensor. A reflective ring reflects very strongly, but is dependent on the altitude of the unmanned aerial vehicle in relation to the environmental sensor. Depending on the application, the various sensor targets can bring advantages that lead to more precise measurements.

In einer vorteilhaften Ausgestaltung ist das unbemannte Flugfahrzeug als Drohne, vorzugsweise als Quadrokopter, ausgebildet. Ein Quadrokopter erlaubt eine präzise Navigation auch unter ungünstigeren Umgebungsbedingungen (Wind, leichter Regen etc.). Eine präzise Ansteuerung der Zielposition wird möglich. Hierdurch ergibt sich eine hohe Aussagekraft bezüglich des Sichtfelds des Umgebungssensors.In an advantageous embodiment, the unmanned aerial vehicle is designed as a drone, preferably as a quadrocopter. A quadrocopter allows precise navigation even under less favorable environmental conditions (wind, light rain, etc.). A precise control of the target position is possible. This results in a high level of significance with regard to the field of view of the environmental sensor.

In einer vorteilhaften Ausgestaltung umfasst das System eine Anzeigevorrichtung zum Visualisieren der Flugfahrzeugposition und einer basierend auf dem Sensorsignal des Umgebungssensors ermittelten Wahrnehmungsposition des unbemannten Flugfahrzeugs. Durch die Verwendung einer Anzeigevorrichtung kann ein direkter Soll- und Ist-Vergleich der Wahrnehmungsposition, also der Position, wie sie basierend auf dem Sensorsignal rekonstruiert wird, und der Flugfahrzeugposition, also der Position, wie sie mittels der Positioniervorrichtung ermittelt wird, erfolgen. Hierdurch kann beispielsweise beim Austauschen eines defekten Umgebungssensors eine effiziente Vermessung des Sichtfelds erfolgen. Der Austausch wird erleichtert und kann damit kostengünstiger realisiert werden.In an advantageous embodiment, the system comprises a display device for visualizing the aircraft position and a perceptual position of the unmanned aircraft determined based on the sensor signal of the environmental sensor. By using a display device, a direct target and actual comparison of the perceived position, i.e. the position as reconstructed based on the sensor signal, and the aircraft position, i.e. the position as determined by means of the positioning device, can be made. In this way, for example, when a defective environmental sensor is replaced, an efficient measurement of the field of view can take place. The exchange is made easier and can thus be implemented more cost-effectively.

In einer bevorzugten Ausgestaltung ist die Prozessoreinheit innerhalb eines Mobilgeräts angeordnet. Das Mobilgerät kann beispielsweise durch Wartungspersonal bedient werden. Zudem kann als unbemanntes Flugfahrzeug ein Standardprodukt verwendet werden, das in Kommunikation mit dem Mobilgerät und der darin befindlichen Prozessoreinheit steht. Eine kosteneffiziente Implementierung des erfindungsgemäßen Systems wird ermöglicht.In a preferred embodiment, the processor unit is arranged within a mobile device. The mobile device can be operated by maintenance personnel, for example. In addition, a standard product that is in communication with the mobile device and the processor unit located therein can be used as an unmanned aircraft. A cost-efficient implementation of the system according to the invention is made possible.

Ein Sichtfeld eines Umgebungssensors ist ein Bereich, der vom Umgebungssensor aus wahrgenommen werden kann. Innerhalb des Sichtfelds befindliche Objekte können detektiert werden. Unter einem Vermessen eines Sichtfelds versteht sich insbesondere eine Bestimmung der Größe und der Ausrichtung (der Geometrie) des Sichtfelds. Ein Kalibrierungsparameter kann ein ein- oder mehrdimensionaler alphanumerischer Wert sein. Insbesondere kann ein Zahlenvektor verwendet werden, der eine geometrische Beschreibung beinhaltet. Beispielsweise kann ein Kalibrierungsparameter eine aktuelle bzw. gewünschte Ausrichtung und Einstellung des Sensors beschreiben. Insbesondere kann als Kalibrierungsparameter ein Sichtfeldparameter verwendet werden, der die räumliche Ausdehnung des Sensorsichtfelds des Umgebungssensors beschreibt. Ein unbemanntes Flugfahrzeug kann insbesondere eine Drohne sein. Ebenfalls ist es jedoch möglich, eine andere Art von Flugobjekt zu verwenden. Eine Positionsangabe kann in absoluten oder relativen Koordinaten erfolgen. Relative Koordinaten beziehen sich auf ein Koordinatensystem, in dem dem unbemannten Flugfahrzeug sowie dem Umgebungssensor jeweils eine Position zugeordnet ist. Ein Nullpunkt eines derartigen Koordinatensystems ist frei wählbar.A field of view of an environmental sensor is an area that can be perceived by the environmental sensor. Objects located within the field of view can be detected. A measurement of a field of view is understood to mean, in particular, a determination of the size and the alignment (the geometry) of the field of view. A calibration parameter can be a one- or multi-dimensional alphanumeric value. In particular, a number vector can be used which contains a geometric description. For example, a calibration parameter can be a current or desired alignment and setting of the Describe the sensor. In particular, a field of view parameter that describes the spatial extent of the sensor field of view of the environmental sensor can be used as the calibration parameter. An unmanned aircraft can in particular be a drone. However, it is also possible to use a different type of flying object. A position can be specified in absolute or relative coordinates. Relative coordinates refer to a coordinate system in which the unmanned aerial vehicle and the environmental sensor are each assigned a position. A zero point of such a coordinate system can be freely selected.

Die Erfindung wird nachfolgend anhand einiger ausgewählter Ausführungsbeispiele im Zusammenhang mit den beiliegenden Zeichnungen näher beschrieben und erläutert. Es zeigen:

  • 1 eine schematische Darstellung eines erfindungsgemäßen Systems;
  • 2 eine vergrößerte schematische Darstellung eines unbemannten Flugfahrzeugs und einer Zielposition des unbemannten Flugfahrzeugs;
  • 3 eine schematische perspektivische Darstellung einer Positioniervorrichtung;
  • 4 eine weitere schematische Darstellung einer Positioniervorrichtung; und
  • 5 eine schematische Darstellung eines erfindungsgemäßen Verfahrens.
The invention is described and explained in more detail below with reference to a few selected exemplary embodiments in connection with the accompanying drawings. Show it:
  • 1 a schematic representation of a system according to the invention;
  • 2 an enlarged schematic illustration of an unmanned aerial vehicle and a target position of the unmanned aerial vehicle;
  • 3 a schematic perspective illustration of a positioning device;
  • 4th a further schematic representation of a positioning device; and
  • 5 a schematic representation of a method according to the invention.

In der 1 ist schematisch ein erfindungsgemäßes System 10 zum Vermessen eines Sichtfelds 12 eines Umgebungssensors 14 in einem Fahrzeug 16 dargestellt. Das System 10 bildet zusammen mit dem Umgebungssensor 14 eine Kalibrierungsanordnung 18. Das System umfasst ein unbemanntes Flugfahrzeug 20, eine Positioniervorrichtung 22 sowie eine Prozessoreinheit 24. Über den Umgebungssensor 14 des Fahrzeugs 16 kann eine Umgebung des Fahrzeugs erfasst werden. Insbesondere kann das Fahrzeug 16 dabei eine große Land- oder Baumaschine sein, bei der mehrere Sensoren an verschiedenen Positionen um das Fahrzeug 16 angeordnet sind. Die mehreren Sensoren ermöglichen eine Modellierung einer Umgebung des Fahrzeugs 16 und haben insbesondere ein in vertikaler Richtung vergleichsweise weit ausgedehntes Sensorsichtfeld. Basierend auf einer derartigen Modellierung ist es beispielsweise möglich, dass einzelne Funktionen des Fahrzeugs 16 autonom gesteuert werden oder einem Fahrzeugführer Zusatzinformationen zur Umgebung des Fahrzeugs zur Verfügung gestellt werden.In the 1 is schematically a system according to the invention 10 for measuring a field of view 12th an environmental sensor 14th in a vehicle 16 shown. The system 10 forms together with the environmental sensor 14th a calibration arrangement 18th . The system includes an unmanned aerial vehicle 20th , a positioning device 22nd and a processor unit 24 . Via the environmental sensor 14th of the vehicle 16 an environment of the vehicle can be detected. In particular, the vehicle 16 be a large agricultural or construction machine with multiple sensors in different positions around the vehicle 16 are arranged. The multiple sensors enable the surroundings of the vehicle to be modeled 16 and in particular have a sensor field of view that is comparatively wide in the vertical direction. Based on such a modeling, it is possible, for example, that individual functions of the vehicle 16 can be controlled autonomously or additional information about the surroundings of the vehicle can be made available to a vehicle driver.

Bei großen Fahrzeugen (Traktoren, Baggern, Mähdreschern, Radladern, Dampfwalzen etc.) ist es oft problematisch, eine Vermessung des Sichtfelds eines Sensors vorzunehmen, da es keine geeigneten Testkammern gibt bzw. der Aufwand zum Überführen des Fahrzeugs 16 in eine solche Kalibrierungskammer groß wäre. Zudem sind regelmäßig Vermessungs- bzw. Kalibrierungsvorgänge notwendig, da Sensoren aufgrund des Feldeinsatzes Defekte aufweisen können. Mittels des erfindungsgemäßen Systems 10 ist es möglich, eine Vermessung des Sichtfelds 12 des Umgebungssensors 14 im Feld vorzunehmen. Es ist nicht notwendig, das Fahrzeug 16 zur Neukalibrierung bzw. zur Vermessung des Sichtfelds in eine entsprechende Testkammer zu überführen.In large vehicles (tractors, excavators, combine harvesters, wheel loaders, steam rollers, etc.) it is often problematic to measure the field of view of a sensor because there are no suitable test chambers or the effort involved in moving the vehicle 16 in such a calibration chamber would be large. In addition, regular measurement and calibration processes are necessary, since sensors can have defects due to their use in the field. By means of the system according to the invention 10 is it possible to measure the field of view 12th of the environmental sensor 14th in the field. It is not necessary to use the vehicle 16 to be transferred to a corresponding test chamber for recalibration or for measuring the field of view.

Erfindungsgemäß ist es vorgesehen, dass an dem unbemannten Flugfahrzeug 20 ein Sensorziel 26 befestigt ist, das vom Umgebungssensor 14 erfasst (detektiert) werden kann. Das Sensorziel 26 kann insbesondere ein Kugelreflektor, ein Corner-Reflektor oder ein reflektierender Ring, der um das unbemannte Flugfahrzeug 20 angeordnet ist, sein. Derartige Ziele eignen sich zum Detektieren mittels eines Radarsensors. Erfindungsgemäß ist es aber auch möglich, ein Sensorziel zu verwenden, das sich zur Detektion durch einen Lidarsensor oder einen anderen Sensor eignet.According to the invention it is provided that on the unmanned aircraft 20th a sensor target 26th attached by the environmental sensor 14th can be captured (detected). The sensor target 26th can in particular be a spherical reflector, a corner reflector or a reflective ring that surrounds the unmanned aerial vehicle 20th is arranged to be. Such targets are suitable for detection by means of a radar sensor. According to the invention, however, it is also possible to use a sensor target that is suitable for detection by a lidar sensor or another sensor.

Als unbemanntes Flugfahrzeug 20 kann insbesondere eine Drohne verwendet werden. Beispielsweise kann ein Quadrokopter verwendet werden. Beispielsweise kann ein Standard-Quadrokopter mit einem Sensorziel 26 ausgestattet werden und als unbemanntes Flugfahrzeug 20 im erfindungsgemäßen System 10 verwendet werden. As an unmanned aerial vehicle 20th a drone in particular can be used. For example, a quadrocopter can be used. For example, a standard quadrocopter with a sensor target 26th equipped and as an unmanned aerial vehicle 20th in the system according to the invention 10 be used.

Im dargestellten Beispiel wird als Positioniervorrichtung 22 ein Sensor verwendet, der in das unbemannte Flugfahrzeug 20 integriert ist. Insbesondere kann eine Inertialmesseinheit mit mehreren Beschleunigungs- und Drehratensensoren verwendet werden. Zudem kann ein Satellitennavigationsempfänger (GPS, GLONASS, Galileo, Beidou) verwendet werden. Basierend auf derartiger Sensorik ist es möglich, die Flugfahrzeugposition des unbemannten Flugfahrzeugs 20 zu ermitteln. Die Flugfahrzeugposition umfasst insbesondere eine Angabe der Position des unbemannten Flugfahrzeugs 20 relativ zum Umgebungssensor 14.In the example shown, the positioning device 22nd a sensor used in the unmanned aerial vehicle 20th is integrated. In particular, an inertial measuring unit with several acceleration and rotation rate sensors can be used. A satellite navigation receiver (GPS, GLONASS, Galileo, Beidou) can also be used. Based on such sensors, it is possible to determine the aircraft position of the unmanned aircraft 20th to investigate. The aircraft position includes in particular an indication of the position of the unmanned aircraft 20th relative to the environmental sensor 14th .

Basierend auf dieser Flugfahrzeugposition und dem Signal des Umgebungssensors 14 kann dann ein Sichtfeldparameter ermittelt werden. Insbesondere kann das unbemannte Flugfahrzeug 20 durch das Sichtfeld 12 des Umgebungssensors 14 geflogen werden. Ausgehend von einer Auswertung der Messwerte des Umgebungssensors 14 kann dann festgestellt werden, ob der Umgebungssensor 14 das Sensorziel 26 detektiert. Insbesondere kann eine Detektionsposition festgestellt werden. Basierend auf dieser Information kann dann eine Kalibrierung des Sensors bzw. eine Vermessung des Sichtfelds des Umgebungssensors 14 erfolgen.Based on this aircraft position and the signal from the environmental sensor 14th a field of view parameter can then be determined. In particular, the unmanned aerial vehicle 20th through the field of view 12th of the environmental sensor 14th be flown. Based on an evaluation of the measured values of the environmental sensor 14th can then be determined whether the environmental sensor 14th the sensor target 26th detected. In particular, a detection position can be established. Based on this information, a calibration of the sensor or a measurement of the field of view of the environmental sensor can then be carried out 14th respectively.

Die Prozessoreinheit 24 ist im dargestellten Beispiel in ein Mobilgerät 28 integriert, das von einer Person 30 mit entsprechender Ausbildung für die Vermessung des Sichtfelds des Umgebungssensors 14 verwendet wird. Insbesondere kann die Prozessoreinheit 24 als Software ausgeführt sein, die auf einem Mobilgerät 28 läuft (App). In anderen Ausführungsformen kann es aber auch möglich sein, dass die Prozessoreinheit vollständig oder teilweise ebenfalls in das unbemannte Flugfahrzeug 20 integriert ist und mit dem ermittelten Sichtfeldparameter per drahtloser Kommunikation kommuniziert. The processing unit 24 is in the example shown in a mobile device 28 integrated that by one person 30th with appropriate training for measuring the field of view of the environmental sensor 14th is used. In particular, the processor unit 24 run as software running on a mobile device 28 running (app). In other embodiments, however, it may also be possible that the processor unit is also completely or partially also in the unmanned aircraft 20th is integrated and communicates with the determined field of view parameters via wireless communication.

Für die Kommunikation zwischen Umgebungssensor 14 und Prozessoreinheit zum Übermitteln des Signals des Umgebungssensors 14 an die Prozessoreinheit 24 kann ebenfalls eine drahtlose Verbindung verwendet werden. Insbesondere kann eine Niedrigenergie-Kurzstrecken-Kommunikation verwendet werden (Bluetooth, ZigBee, WiFi, ...).For communication between environmental sensors 14th and processor unit for transmitting the signal from the environmental sensor 14th to the processor unit 24 a wireless connection can also be used. In particular, low-energy short-range communication can be used (Bluetooth, ZigBee, WiFi, ...).

Dabei ist es möglich, dass das System 18 zusätzlich eine Anzeigevorrichtung 32 umfasst, die dazu ausgebildet ist, die Flugfahrzeugposition sowie eine basierend auf dem Sensorsignal des Umgebungssensors 14 ermittelte Wahrnehmungsposition des unbemannten Flugfahrzeugs zu visualisieren. Als Anzeigevorrichtung 32 kann beispielsweise ein Display des Mobilgeräts 28 dienen. Durch eine Visualisierung der tatsächlichen Position des Flugfahrzeugs, wie sie basierend auf der Positioniervorrichtung 22 ermittelt wurde, und der Wahrnehmungsposition, wie sie basierend auf dem Sensorsignal des Umgebungssensors 14 ermittelt wurde, wird eine Echtzeitdarstellung möglich. Beispielsweise kann durch eine manuelle Ausrichtung des Umgebungssensors durch Bedienpersonal nach einem Einbau eine Überdeckung der visualisierten Flugfahrzeugposition und Wahrnehmungsposition erfolgen. Sobald diese Überdeckung erreicht ist, kann der Umgebungssensor 14 beispielsweise durch Festschrauben fixiert werden. Der Sensor wird also sozusagen manuell ausgerichtet. Ebenfalls ist es möglich, eine softwaremäßige Vermessung des Sichtfelds bzw. Kalibrierung des Umgebungssensors 14 vorzunehmen.It is possible that the system 18th additionally a display device 32 which is designed to include the aircraft position and based on the sensor signal of the environmental sensor 14th to visualize the determined perceptual position of the unmanned aerial vehicle. As a display device 32 can for example be a display of the mobile device 28 serve. By visualizing the actual position of the aircraft as it is based on the positioning device 22nd was determined, and the perceptual position based on the sensor signal of the environmental sensor 14th has been determined, a real-time display is possible. For example, by manually aligning the environmental sensor by operating personnel after installation, the visualized aircraft position and the perceptual position can be covered. As soon as this overlap is reached, the environmental sensor can 14th be fixed, for example, by screwing. The sensor is aligned manually, so to speak. It is also possible to measure the field of view or calibrate the environmental sensor using software 14th to undertake.

Hierbei versteht es sich, dass die Positioniervorrichtung 22 sowie die Prozessoreinheit 24 vollständig oder teilweise in Soft- und/oder Hardware ausgeführt sein können. Insbesondere ist es möglich, dass die Positioniervorrichtung 22 sowie die Prozessoreinheit 24 als Mikroprozessoren, Module für einen Mikroprozessor oder Software für einen Mikroprozessor ausgebildet sind.It goes without saying that the positioning device 22nd as well as the processor unit 24 can be implemented completely or partially in software and / or hardware. In particular, it is possible that the positioning device 22nd as well as the processor unit 24 are designed as microprocessors, modules for a microprocessor or software for a microprocessor.

In der 2 ist schematisch eine Vermessung des Sichtfelds 12 eines Umgebungssensors 14 dargestellt. Zunächst befindet sich das unbemannte Flugfahrzeug 20 in einer Flugfahrzeugposition 34. Dann wird in der Prozessoreinheit eine Zielposition 36 ermittelt und ein Antrieb des unbemannten Flugfahrzeugs 20 entsprechend angesteuert, um das unbemannte Flugfahrzeug 20 in die Zielposition 36 zu bewegen. Die Zielposition 36 kann dabei beispielsweise basierend auf einem erwarteten Sichtfeld des Umgebungssensors 14 ermittelt werden. In anderen Worten wird also das unbemannte Flugfahrzeug 20 direkt in einen relevanten Bereich überführt, um innerhalb dieses relevanten Bereichs durch weitere Bewegungen eine möglichst präzise Vermessung des Sichtfelds 12 zu ermöglichen. Es kann in einem weiteren Schritt also eine neue Zielposition 36 in unmittelbarer Nähe der aktuellen Flugfahrzeugposition 34 festgelegt werden, um zu prüfen, ob der Rand des Sichtfelds 12 des Umgebungssensors bereits erreicht ist oder noch nicht.In the 2 is a schematic measurement of the field of view 12th an environmental sensor 14th shown. First there is the unmanned aerial vehicle 20th in an aircraft position 34 . A target position is then set in the processor unit 36 determined and a drive of the unmanned aerial vehicle 20th controlled accordingly to the unmanned aerial vehicle 20th in the target position 36 to move. The target position 36 can for example be based on an expected field of view of the environmental sensor 14th be determined. In other words, it becomes the unmanned aerial vehicle 20th transferred directly to a relevant area in order to measure the field of view as precisely as possible within this relevant area through further movements 12th to enable. A new target position can be created in a further step 36 in the immediate vicinity of the current aircraft position 34 set to check whether the edge of the field of view 12th of the environmental sensor has already been reached or not yet.

Hierbei ist es zumindest vorteilhaft, wenn die Prozessoreinheit Kenntnis über eine Ausrichtung des Fahrzeugs und eine Position des Umgebungssensors 14 am Fahrzeug hat. Hierdurch kann auf die Ausrichtung und Position des Umgebungssensors 14 rückgeschlossen werden. Basierend auf der Ausrichtung und Position des Umgebungssensors wird es möglich, ein Sichtfeld des Umgebungssensors 14 präzise zu vermessen und eine entsprechende Kalibrierungseinstellung am Umgebungssensor 14 vorzunehmen.It is at least advantageous here if the processor unit has knowledge of an orientation of the vehicle and a position of the environmental sensor 14th on the vehicle. This can affect the orientation and position of the environmental sensor 14th be inferred. Based on the orientation and position of the environmental sensor, it becomes possible to establish a field of view of the environmental sensor 14th precisely measured and a corresponding calibration setting on the environmental sensor 14th to undertake.

Für die Positionierung bzw. Positionsermittlung der Flugfahrzeugposition des unbemannten Flugfahrzeugs 20 kann wie zuvor beschrieben auf Sensorik bzw. eine Positioniervorrichtung innerhalb des unbemannten Flugfahrzeugs 20 zurückgegriffen werden. Ebenfalls ist es aber möglich, dass eine zumindest teilweise außerhalb des unbemannten Flugfahrzeugs 20 befindliche Positioniervorrichtung verwendet wird.For the positioning or position determination of the aircraft position of the unmanned aircraft 20th can, as described above, on sensors or a positioning device within the unmanned aircraft 20th can be used. It is also possible, however, that one is at least partially outside of the unmanned aircraft 20th located positioning device is used.

In der 3 ist eine Positioniervorrichtung 22 dargestellt, die eine Kamera 38 innerhalb des unbemannten Flugfahrzeugs 20 sowie eine mit dieser Kamera 38 erfassbare Referenzanordnung 40 mit bekannter und fester Position relativ zu der Position des Umgebungssensors 14 des Fahrzeugs 16 aufweist. Als Referenzanordnung 40 kann beispielsweise ein auf einem Untergrund eingezeichnetes oder ausgelegtes Muster oder auch eine andere ausfaltbare bzw. ausbringbare graphische Anordnung verwendet werden. Durch die Kamera 38 am unbemannten Flugfahrzeug 20 wird diese Referenzanordnung 40 erfasst. Durch eine Auswertung der von der Kamera 38 erfassten Bilder kann eine genaue Bestimmung der Position der Kamera 38 bzw. des unbemannten Flugfahrzeugs 20 erfolgen. Es versteht sich, dass es hierzu erforderlich ist, dass die Position des Umgebungssensors 14 in Bezug zur Referenzanordnung 40 bekannt ist.In the 3 is a positioning device 22nd shown holding a camera 38 inside the unmanned aerial vehicle 20th as well as one with this camera 38 detectable reference arrangement 40 with a known and fixed position relative to the position of the environmental sensor 14th of the vehicle 16 having. As a reference arrangement 40 For example, a pattern drawn in or laid out on a surface or another graphic arrangement that can be folded out or deployed can be used. Through the camera 38 on the unmanned aerial vehicle 20th becomes this reference arrangement 40 detected. By evaluating from the camera 38 Captured images can accurately determine the position of the camera 38 or the unmanned aerial vehicle 20th respectively. It goes without saying that this requires that the position of the environmental sensor 14th in relation to the reference arrangement 40 is known.

In der 4 ist ein weiteres Beispiel für eine Positioniervorrichtung 22 dargestellt. Die Positioniervorrichtung 22 umfasst in diesem Fall eine Time-of-Flight-Kamera 42, die außerhalb des unbemannten Flugfahrzeugs 20 angeordnet ist. Durch die Time-of-Flight-Kamera wird das unbemannte Flugfahrzeug 20 erfasst. Eine Ausrichtung der Time-of-Flight-Kamera ist bekannt und ein Abstand von der Positioniervorrichtung 22 zum unbemannten Flugfahrzeug 20 ist mittels der Time-of-Flight-Kamera messbar. Daher ist die Verwendung einer einzelnen Time-of-Flight-Kamera ausreichend, um eine genaue Positionsermittlung des unbemannten Flugfahrzeugs 20 zu ermöglichen. Erneut ist es notwendig, dass eine Position der Time-of-Flight-Kamera in Bezug zum Umgebungssensor 14 als bekannt vorausgesetzt werden kann.In the 4th is another example of a positioning device 22nd shown. The positioning device 22nd in this case comprises a time-of-flight camera 42 that is outside the unmanned aerial vehicle 20th is arranged. The time-of-flight camera makes the unmanned aircraft 20th detected. An alignment of the time-of-flight camera and a distance from the positioning device are known 22nd to the unmanned aerial vehicle 20th can be measured using the time-of-flight camera. Therefore, the use of a single time-of-flight camera is sufficient to determine the exact position of the unmanned aerial vehicle 20th to enable. Again it is necessary to have a position of the time-of-flight camera in relation to the environmental sensor 14th can be assumed to be known.

In der 5 ist schematisch ein erfindungsgemäßes Verfahren zum Kalibrieren eines Sichtfelds eines Umgebungssensors in einem Fahrzeug dargestellt. Das Verfahren umfasst Schritte des Erfassens S12 eines Sensorziels, des Ermittelns S14 einer Flugfahrzeugposition und des Ermittelns S16 eines Kalibrierungsparameters. Das erfindungsgemäße Verfahren kann beispielsweise als Smartphone-App oder als Software für ein Tablet oder einen tragbaren Computer ausgeführt sein.In the 5 a method according to the invention for calibrating a field of view of an environmental sensor in a vehicle is shown schematically. The method includes steps of acquiring S12 a sensor target, the determination S14 an aircraft position and the determination S16 a calibration parameter. The method according to the invention can be implemented, for example, as a smartphone app or as software for a tablet or a portable computer.

Die Erfindung wurde anhand der Zeichnungen und der Beschreibung umfassend beschrieben und erklärt. Die Beschreibung und Erklärung sind als Beispiel und nicht einschränkend zu verstehen. Die Erfindung ist nicht auf die offenbarten Ausführungsformen beschränkt. Andere Ausführungsformen oder Variationen ergeben sich für den Fachmann bei der Verwendung der vorliegenden Erfindung sowie bei einer genauen Analyse der Zeichnungen, der Offenbarung und der nachfolgenden Patentansprüche.The invention has been comprehensively described and explained with reference to the drawings and the description. The description and explanation are to be understood as examples and not restrictive. The invention is not limited to the disclosed embodiments. Other embodiments or variations will become apparent to those skilled in the art after using the present invention and after carefully analyzing the drawings, the disclosure and the following claims.

In den Patentansprüchen schließen die Wörter „umfassen“ und „mit“ nicht das Vorhandensein weiterer Elemente oder Schritte aus. Der undefinierte Artikel „ein“ oder „eine“ schließt nicht das Vorhandensein einer Mehrzahl aus. Ein einzelnes Element oder eine einzelne Einheit kann die Funktionen mehrerer der in den Patentansprüchen genannten Einheiten ausführen. Ein Element, eine Einheit, eine Schnittstelle, eine Vorrichtung und ein System können teilweise oder vollständig in Hard- und/oder in Software umgesetzt sein. Die bloße Nennung einiger Maßnahmen in mehreren verschiedenen abhängigen Patentansprüchen ist nicht dahingehend zu verstehen, dass eine Kombination dieser Maßnahmen nicht ebenfalls vorteilhaft verwendet werden kann. Ein Computerprogramm kann auf einem nichtflüchtigen Datenträger gespeichert/vertrieben werden, beispielsweise auf einem optischen Speicher oder auf einem Halbleiterlaufwerk (SSD). Ein Computerprogramm kann zusammen mit Hardware und/oder als Teil einer Hardware vertrieben werden, beispielsweise mittels des Internets oder mittels drahtgebundener oder drahtloser Kommunikationssysteme. Bezugszeichen in den Patentansprüchen sind nicht einschränkend zu verstehen.In the claims, the words “comprising” and “having” do not exclude the presence of further elements or steps. The undefined article “a” or “an” does not exclude the presence of a plural. A single element or a single unit can perform the functions of several of the units mentioned in the patent claims. An element, a unit, an interface, a device and a system can be implemented partially or completely in hardware and / or in software. The mere mention of some measures in several different dependent patent claims should not be understood to mean that a combination of these measures cannot also be used advantageously. A computer program can be stored / distributed on a non-volatile data carrier, for example on an optical memory or on a semiconductor drive (SSD). A computer program can be distributed together with hardware and / or as part of hardware, for example by means of the Internet or by means of wired or wireless communication systems. Reference signs in the claims are not to be understood as restrictive.

BezugszeichenlisteList of reference symbols

1010
Systemsystem
1212th
SichtfeldField of view
1414th
UmgebungssensorEnvironmental sensor
1616
Fahrzeugvehicle
1818th
KalibrierungsanordnungCalibration arrangement
2020th
unbemanntes Flugfahrzeugunmanned aerial vehicle
2222nd
PositioniervorrichtungPositioning device
2424
ProzessoreinheitProcessor unit
2626th
SensorzielSensor target
2828
MobilgerätMobile device
3030th
Personperson
3232
AnzeigevorrichtungDisplay device
3434
FlugfahrzeugpositionAircraft position
3636
ZielpositionTarget position
3838
Kameracamera
4040
ReferenzanordnungReference arrangement
4242
Time-of-Flight-KameraTime-of-flight camera

Claims (15)

System (10) zum Kalibrieren eines Umgebungssensors (14) in einem Fahrzeug (16), mit: einem unbemannten Flugfahrzeug (20) mit einem Sensorziel (26), das dazu ausgebildet ist, von dem Umgebungssensor des Fahrzeugs erfasst zu werden; einer Positioniervorrichtung (22) zum Ermitteln einer Flugfahrzeugposition (34) des unbemannten Flugfahrzeugs relativ zu einer Position des Umgebungssensors des Fahrzeugs; und einer Prozessoreinheit (24) zum Ermitteln eines Kalibrierungsparameters mit Informationen zu einer Kalibrierung des Umgebungssensors basierend auf dem Signal des Umgebungssensors und der Flugfahrzeugposition.System (10) for calibrating an environmental sensor (14) in a vehicle (16), comprising: an unmanned aerial vehicle (20) having a sensor target (26) which is configured to be detected by the vehicle's environmental sensor; a positioning device (22) for determining an aircraft position (34) of the unmanned aircraft relative to a position of the environmental sensor of the vehicle; and a processor unit (24) for determining a calibration parameter with information on a calibration of the environmental sensor based on the signal of the environmental sensor and the aircraft position. System (10) nach Anspruch 1, wobei die Prozessoreinheit (24) zum Ermitteln des Kalibrierungsparameters mit Informationen zu einem Sichtfeld (12) des Umgebungssensors ausgebildet ist.System (10) Claim 1 wherein the processor unit (24) is designed to determine the calibration parameter with information on a field of view (12) of the environmental sensor. System (10) nach Anspruch 2, wobei die Prozessoreinheit (24) zum Ermitteln einer Zielposition (36) des unbemannten Flugfahrzeugs (20) basierend auf einem Sensorsignal des Umgebungssensors (14) des Fahrzeugs (16) und der Flugfahrzeugposition (34) ausgebildet ist; und zum Ansteuern eines Antriebs des unbemannten Flugfahrzeugs ausgebildet ist, um das unbemannte Flugfahrzeug in die Zielposition zu bewegen.System (10) Claim 2 , wherein the processor unit (24) is designed to determine a target position (36) of the unmanned aerial vehicle (20) based on a sensor signal from the environmental sensor (14) of the vehicle (16) and the aircraft position (34); and is designed to control a drive of the unmanned aerial vehicle in order to move the unmanned aerial vehicle into the target position. System (10) nach Anspruch 3, wobei die Prozessoreinheit (24) zum Ermitteln der Zielposition (36) basierend auf einem erwarteten Sichtfeld (12) des Umgebungssensors (14) ausgebildet ist.System (10) Claim 3 , wherein the processor unit (24) is designed to determine the target position (36) based on an expected field of view (12) of the environmental sensor (14). System (10) nach einem der Ansprüche 3 oder 4, wobei die Prozessoreinheit (24) zum Ermitteln einer Zielposition (36) in unmittelbarer Nähe der Flugfahrzeugposition (34) ausgebildet ist, wenn das Sensorsignal des Umgebungssensors (14) eine Position des Sensorziels (26) am Rande des Sichtfelds (12) des Umgebungssensors anzeigt.System (10) according to one of the Claims 3 or 4th , wherein the processor unit (24) is designed to determine a target position (36) in the immediate vicinity of the aircraft position (34) when the sensor signal of the environmental sensor (14) indicates a position of the sensor target (26) at the edge of the field of view (12) of the environmental sensor . System (10) nach einem der vorstehenden Ansprüche, wobei die Prozessoreinheit (24) zum Ermitteln des Kalibrierungsparameters basierend auf einer Ausrichtung des Fahrzeugs (16) und der Position des Umgebungssensors (14) ausgebildet ist.System (10) according to one of the preceding claims, wherein the processor unit (24) is designed to determine the calibration parameter based on an orientation of the vehicle (16) and the position of the environmental sensor (14). System (10) nach einem der vorstehenden Ansprüche, wobei die Positioniervorrichtung (22) eine Inertialmesseinheit, einen Satellitennavigationsempfänger und/oder einen Höhenmesser innerhalb des unbemannten Flugfahrzeugs (20) umfasst; eine Time-of-Flight-Kamera (42) außerhalb des unbemannten Flugfahrzeugs mit bekannter und fester Position relativ zu der Position des Umgebungssensors (14) des Fahrzeugs (16) umfasst; und/oder eine Kamera (38) innerhalb des unbemannten Flugfahrzeugs und eine mit der Kamera (40) erfassbare Referenzanordnung mit bekannter und fester Position relativ zu der Position des Umgebungssensors des Fahrzeugs umfasst.System (10) according to one of the preceding claims, wherein the positioning device (22) comprises an inertial measuring unit, a satellite navigation receiver and / or an altimeter within the unmanned aerial vehicle (20); a time-of-flight camera (42) outside of the unmanned aerial vehicle having a known and fixed position relative to the position of the environmental sensor (14) of the vehicle (16); and or a camera (38) within the unmanned aerial vehicle and a reference arrangement detectable with the camera (40) and having a known and fixed position relative to the position of the environmental sensor of the vehicle. System (10) nach einem der vorstehenden Ansprüche, wobei das Sensorziel (26) des unbemannten Flugfahrzeugs (20) einen Kugelreflektor, einen Corner-Reflektor und/oder einen reflektierenden Ring um das unbemannten Flugfahrzeug umfasst.The system (10) according to any one of the preceding claims, wherein the sensor target (26) of the unmanned aerial vehicle (20) comprises a spherical reflector, a corner reflector and / or a reflective ring around the unmanned aerial vehicle. System (10) nach einem der vorstehenden Ansprüche, wobei das unbemannte Flugfahrzeug (20) als Drohne, vorzugsweise als Quadrocopter, ausgebildet ist.System (10) according to one of the preceding claims, wherein the unmanned aircraft (20) is designed as a drone, preferably as a quadrocopter. System (10) nach einem der vorstehenden Ansprüche, mit einer Anzeigevorrichtung (32) zum Visualisieren der Flugfahrzeugposition (34) und einer basierend auf dem Sensorsignal des Umgebungssensors (14) ermittelten Wahrnehmungsposition des unbemannten Flugfahrzeugs (20).System (10) according to one of the preceding claims, with a display device (32) for visualizing the aircraft position (34) and a perceptual position of the unmanned aircraft (20) determined based on the sensor signal of the environmental sensor (14). System (10) nach einem der vorstehenden Ansprüche, wobei die Prozessoreinheit (24) innerhalb eines Mobilgeräts (28) angeordnet ist.System (10) according to one of the preceding claims, wherein the processor unit (24) is arranged within a mobile device (28). Verwendung einer Drohne als unbemanntes Flugfahrzeug (20) in einem System (10) nach einem der Ansprüche 1 bis 11.Use of a drone as an unmanned aerial vehicle (20) in a system (10) according to one of the Claims 1 to 11 . Kalibrierungsanordnung (18) mit: einem System (10) nach einem der Ansprüche 1 bis 10; und einem Umgebungssensor (14) an einer bekannten Position in einem Fahrzeug (16).Calibration arrangement (18) comprising: a system (10) according to one of the Claims 1 to 10 ; and an environmental sensor (14) at a known location in a vehicle (16). Verfahren zum Kalibrieren eines Umgebungssensors (14) in einem Fahrzeug (16), mit den Schritten: Erfassen (S10) eines Sensorziels (26) eines unbemannten Flugfahrzeugs (20) mit dem Umgebungssensor des Fahrzeugs erfasst; Ermitteln (S12) einer Flugfahrzeugposition des unbemannten Flugfahrzeugs (20) relativ zu einer Position des Umgebungssensors des Fahrzeugs; und Ermitteln (S14) eines Kalibrierungsparameters mit Informationen zu einer Kalibrierung des Umgebungssensors basierend auf dem Signal des Umgebungssensors und der Flugfahrzeugposition.Method for calibrating an environment sensor (14) in a vehicle (16), comprising the steps: Detecting (S10) a sensor target (26) of an unmanned aerial vehicle (20) with the environmental sensor of the vehicle; Determining (S12) an aircraft position of the unmanned aircraft (20) relative to a position of the environmental sensor of the vehicle; and Determining (S14) a calibration parameter with information on a calibration of the environmental sensor based on the signal of the environmental sensor and the aircraft position. Computerprogrammprodukt mit Programmcode zum Durchführen der Schritte des Verfahrens nach Anspruch 13, wenn der Programmcode auf einem Computer ausgeführt wird.Computer program product with program code for performing the steps of the method according to Claim 13 when the program code is executed on a computer.
DE102019201635.9A 2019-02-08 2019-02-08 System and method for measuring a field of view of an environmental sensor in a vehicle Withdrawn DE102019201635A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019201635.9A DE102019201635A1 (en) 2019-02-08 2019-02-08 System and method for measuring a field of view of an environmental sensor in a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019201635.9A DE102019201635A1 (en) 2019-02-08 2019-02-08 System and method for measuring a field of view of an environmental sensor in a vehicle

Publications (1)

Publication Number Publication Date
DE102019201635A1 true DE102019201635A1 (en) 2020-08-13

Family

ID=71739208

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019201635.9A Withdrawn DE102019201635A1 (en) 2019-02-08 2019-02-08 System and method for measuring a field of view of an environmental sensor in a vehicle

Country Status (1)

Country Link
DE (1) DE102019201635A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112489118A (en) * 2020-12-15 2021-03-12 中国人民解放军国防科技大学 Method for quickly calibrating external parameters of airborne sensor group of unmanned aerial vehicle

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6927725B2 (en) * 2003-12-12 2005-08-09 The Boeing Company System and method for radar detection and calibration
DE102009001742A1 (en) * 2009-03-23 2010-09-30 Robert Bosch Gmbh Method and device for determining the position and orientation of a driver assistance system camera of a vehicle to the vehicle
EP2511781A1 (en) * 2011-04-14 2012-10-17 Hexagon Technology Center GmbH Method and system for controlling an unmanned aircraft
US20160161602A1 (en) * 2014-12-09 2016-06-09 Toyota Motor Engineering & Manufacturing North America, Inc. Sensor calibration for autonomous vehicles
US9541633B2 (en) * 2016-04-29 2017-01-10 Caterpillar Inc. Sensor calibration system
EP3454008A1 (en) * 2017-09-06 2019-03-13 Topcon Corporation Survey data processing device, survey data processing method, and survey data processing program
WO2019133231A1 (en) * 2017-12-28 2019-07-04 Lyft, Inc. Mobile sensor calibration

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6927725B2 (en) * 2003-12-12 2005-08-09 The Boeing Company System and method for radar detection and calibration
DE102009001742A1 (en) * 2009-03-23 2010-09-30 Robert Bosch Gmbh Method and device for determining the position and orientation of a driver assistance system camera of a vehicle to the vehicle
EP2511781A1 (en) * 2011-04-14 2012-10-17 Hexagon Technology Center GmbH Method and system for controlling an unmanned aircraft
US20160161602A1 (en) * 2014-12-09 2016-06-09 Toyota Motor Engineering & Manufacturing North America, Inc. Sensor calibration for autonomous vehicles
US9541633B2 (en) * 2016-04-29 2017-01-10 Caterpillar Inc. Sensor calibration system
EP3454008A1 (en) * 2017-09-06 2019-03-13 Topcon Corporation Survey data processing device, survey data processing method, and survey data processing program
WO2019133231A1 (en) * 2017-12-28 2019-07-04 Lyft, Inc. Mobile sensor calibration

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112489118A (en) * 2020-12-15 2021-03-12 中国人民解放军国防科技大学 Method for quickly calibrating external parameters of airborne sensor group of unmanned aerial vehicle
CN112489118B (en) * 2020-12-15 2022-06-14 中国人民解放军国防科技大学 Method for quickly calibrating external parameters of airborne sensor group of unmanned aerial vehicle

Similar Documents

Publication Publication Date Title
EP2515101B1 (en) Methods for planning an inspection path and determining the sections to be inspected
EP3001137B1 (en) Method for monitoring a calibration of multiple environment sensors of a motor vehicle and motor vehicle
EP1376051B1 (en) Calibration of an image sensing system on a vehicle with a calibration object and a relative position sensor
EP3775783B1 (en) Method for calibrating a position sensor in a vehicle, computer program, storage means, control device and calibration route
DE102016219455B4 (en) Method and active infrastructure for checking a detection of the surroundings of a motor vehicle
DE102017105305A1 (en) METHOD FOR AUTOMATIC DETERMINATION OF A SENSOR POSITION
DE102018125676A1 (en) Three-dimensional alignment of radar and camera sensors
DE102014207523A1 (en) METHOD FOR CALIBRATING A RADAR SENSOR AND RADAR SYSTEM
DE102012110595A1 (en) Method and device for detecting traffic signs for a vehicle
EP2385508A2 (en) Method for testing the calibration of a remote sensor for a motor vehicle
DE102020118629B4 (en) Computer-implemented method for determining the validity of an estimated position of a vehicle
DE102015005570A1 (en) Method for adjusting and / or calibrating an environmental sensor, environment sensor and motor vehicle
DE112019000388T5 (en) DEVICE FOR PROVIDING INFORMATION ABOUT AN INSTALLATION POSITION AND METHOD FOR PROVIDING INFORMATION ABOUT THE INSTALLATION POSITION
DE102014210752A1 (en) Method and device for monitoring a target trajectory of a vehicle
EP3707569B1 (en) Calibration of a stationary camera system for detecting the position of a mobile robot
WO2020169607A1 (en) Method for calibrating a mobile camera unit of a camera system for a motor vehicle
DE102019201635A1 (en) System and method for measuring a field of view of an environmental sensor in a vehicle
DE102022110052A1 (en) SYSTEM AND METHOD OF INSPECTION OF ADVANCED DRIVER ASSISTANCE SYSTEM USING MOBILE MANIPULATOR
DE102016201814A1 (en) Method and device for sensory environment detection in a vehicle
DE102022104880A1 (en) Method for calibrating a portable reference sensor system, portable reference sensor system and use of the portable reference sensor system
EP2998764A1 (en) Method of tracking of measuring points
DE102018130867A1 (en) Method and device for calibrating an environmental sensor of a vehicle
DE102016215501B4 (en) Landmark tag detection method and apparatus
DE102007046288B4 (en) Method and sensor arrangement for measuring optical characteristics
DE102020103903B4 (en) Method for providing a recommended course of action in response to an alleged damage to a motor vehicle, telematics device, and server device

Legal Events

Date Code Title Description
R163 Identified publications notified
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee