DE202014104937U1 - Navigation system for flying objects - Google Patents
Navigation system for flying objects Download PDFInfo
- Publication number
- DE202014104937U1 DE202014104937U1 DE202014104937.1U DE202014104937U DE202014104937U1 DE 202014104937 U1 DE202014104937 U1 DE 202014104937U1 DE 202014104937 U DE202014104937 U DE 202014104937U DE 202014104937 U1 DE202014104937 U1 DE 202014104937U1
- Authority
- DE
- Germany
- Prior art keywords
- flying object
- shadow
- image data
- navigation system
- flying
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims abstract description 17
- 238000011156 evaluation Methods 0.000 claims abstract description 14
- 230000002093 peripheral effect Effects 0.000 claims description 2
- 238000001454 recorded image Methods 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 8
- 238000000034 method Methods 0.000 description 4
- 230000001010 compromised effect Effects 0.000 description 3
- 238000003672 processing method Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000007794 visualization technique Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/04—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by terrestrial means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Navigation (AREA)
Abstract
Navigationssystem (1) für Flugobjekte mit
a) mindestens einer an dem Flugobjekt anordbaren Kamera (2), die zum Erfassen von das überfliegende Gelände enthaltenen Bilddaten innerhalb eines Erfassungsbereiches (3) ausgebildet ist, und
b) einer Navigationseinheit (4), die zum Ermitteln einer Eigenbewegung des Flugobjektes über Grund in Abhängigkeit von einer Auswertung der das überfliegende Gelände enthaltenen Bilddaten eingerichtet ist,
dadurch gekennzeichnet, dass
c) eine Schattenberechnungseinheit (5) vorgesehen ist, die zum Berechnen eines Schattenwurfes des Flugobjektes auf das überfliegende Gelände in Abhängigkeit von einer aktuellen Flughöhe des Flugobjektes und einem ermittelten Sonnenstand an der aktuellen Position des Flugobjektes eingerichtet ist, und
d) die Navigationseinheit (4) zum Ermitteln der Eigenbewegung durch Auswertung der Bilddaten unter Berücksichtigung des berechneten Schattenwurfes des Flugobjektes eingerichtet ist.Navigation system (1) for flying objects with
a) at least one camera (2) which can be arranged on the flying object and which is designed to detect image data contained in the flying terrain within a detection area (3), and
b) a navigation unit (4), which is set up to determine a self-movement of the flying object over ground as a function of an evaluation of the image data containing the over-flying terrain,
characterized in that
c) a shadow calculation unit (5) is provided, which is set up for calculating a shadow cast of the flying object on the overlying terrain as a function of a current altitude of the flying object and a determined position of the sun at the current position of the flying object, and
d) the navigation unit (4) is designed to determine the proper motion by evaluating the image data taking into account the calculated shadow of the flying object.
Description
Die Erfindung betrifft ein Navigationssystem für Flugobjekte mit einer an dem Flugobjekt anordenbaren Kamera und einer Navigationseinheit zum Auswerten von Bilddaten. The invention relates to a navigation system for flying objects with a camera that can be arranged on the flying object and a navigation unit for evaluating image data.
Die Ortung von Fahrzeugen gleich welcher Art spielt heutzutage eine wichtige Rolle. So muss insbesondere bei unbemannten Flugobjekten eine rein technische Möglichkeit gegeben werden, die aktuelle Position des Flugobjektes bestimmen zu können. The location of vehicles of any kind plays an important role nowadays. Thus, especially for unmanned aerial vehicles a purely technical possibility must be given to be able to determine the current position of the flying object.
Die Berechnung der aktuellen Ortsposition mit Hilfe eines satellitengestützten Positionsermittlungsverfahrens (oft auch als GNSS: Global Navigation Satellite System bezeichnet) erfolgt dabei anhand einer Laufzeitberechnung von Signalen zwischen dem Empfänger, dessen Position bestimmt werden soll, und mehreren zeitlich synchronisierten Satelliten. Aus der Laufzeitermittlung des Signals zwischen dem Empfänger und dem jeweiligen Satelliten lässt sich die Entfernung bestimmen, sodass bei einer hinreichenden Anzahl von Satellitenentfernungen aufgrund einer Schnittpunktberechnung die exakte Position des Empfängers ermittelbar ist. Hierfür ist es jedoch erforderlich, dass zumindest vier Satelliten uneingeschränkt empfangbar sind, wobei der Empfang durch Abschattung oder Reflexion gestört sein kann und so eine hinreichend genaue Ortspositionsermittlung nicht mehr gewährleistet werden kann. The calculation of the current spatial position using a satellite-based position determination method (often referred to as GNSS: Global Navigation Satellite System) takes place on the basis of a transit time calculation of signals between the receiver whose position is to be determined, and a plurality of temporally synchronized satellite. From the transit time determination of the signal between the receiver and the respective satellite, the distance can be determined, so that at a sufficient number of satellite distances due to an intersection calculation, the exact position of the receiver can be determined. For this purpose, however, it is necessary that at least four satellites are unrestricted receivable, the reception may be disturbed by shading or reflection and so a sufficiently accurate location determination can no longer be guaranteed.
Es ist daher neben dieser sehr einfachen und kostengünstigen Positionsermittlung insbesondere im Bereich der unbemannten Flugobjekte notwendig, Redundanzsysteme zu schaffen, die bei Ausfall des Hauptsystems oder bei einer zumindest nur temporär vorliegenden Störung eine hinreichend genaue Positionsermittlung zur Verfügung stellen, die den Betrieb des unbemannten Flugobjektes zumindest innerhalb der gewährleisteten Systemgrenzen ermöglichen. Neben klassischen navigationsunterstützenden Systemen, wie bspw. Radarsysteme zur Ermittlung der Flughöhe über Grund kommen auch vermehrt visuelle Systeme zum Einsatz, bei denen Bilddaten der Umgebung des Flugobjektes erfasst, ausgewertet und anhand einer Auswertung der zeitlich aufeinander folgenden Bilddaten bzw. Bilder dann eine Eigenbewegung des Flugobjektes ermittelt wird. It is therefore necessary in addition to this very simple and cost-effective position determination, especially in the field of unmanned aerial vehicles to provide redundancy systems that provide a sufficiently accurate position determination in case of failure of the main system or at least temporarily present fault, the operation of the unmanned aerial object at least within the guaranteed system boundaries. In addition to classical navigation-supporting systems, such as radar systems for determining the altitude over ground also increasingly visual systems are used in which recorded image data of the environment of the flying object, evaluated and based on an evaluation of temporally successive image data or images then own motion of the flying object is determined.
Derartige visuelle Verfahren sind auch unter dem Begriff der visuellen Odometrie bekannt, bei der saliente Merkmale innerhalb von aufgenommenen Bilddaten erkannt und aufgrund einer Bewegung dieser salienten Merkmale innerhalb des Bildes dann auf eine Eigenbewegung des Flugobjektes in Bezug auf die Objekte und/oder den Grund geschlossen wird. Ein derartiges Verfahren zur visuellen Odometrie ist bspw. aus der
Ein Problem der visuellen Odometrie besteht jedoch darin, dass bei Aufnahme der Bilddaten die Bereiche der salienten Merkmale möglichst störungsfrei aufgenommen werden sollten. Denn aufgrund von störenden Einflüssen in Bezug auf die Ausleuchtung des aufgenommenen Bereiches besteht die Wahrscheinlichkeit, dass die Bildverarbeitung zur Auswertung der Bilddaten saliente Merkmale nicht erkennt oder fehlerhaft berechnet, wodurch sich eine fehlerhafte Eigenbewegung ergibt. Das Ergebnis ist dann eine unzureichende Navigation auf Basis visueller Daten. A problem of visual odometry, however, is that when taking the image data, the areas of the salient features should be recorded as smoothly as possible. Because of disturbing influences with respect to the illumination of the recorded area, there is the probability that the image processing for evaluating the image data does not recognize salient features or calculates them incorrectly, resulting in a faulty proper motion. The result is insufficient navigation based on visual data.
Es ist daher Aufgabe der vorliegenden Erfindung ein verbessertes Navigationssystem für Flugobjekte zu schaffen, mit dem derartige Störeinflüsse, insbesondere selbstverschuldete, verringert oder vermieden werden können. It is therefore an object of the present invention to provide an improved navigation system for flying objects with which such disturbing influences, in particular self-inflicted, can be reduced or avoided.
Die Aufgabe wird mit dem Navigationssystem der eingangs genannten Art gemäß Anspruch 1 erfindungsgemäß gelöst. The object is achieved with the navigation system of the type mentioned according to
Demnach wird erfindungsgemäß ein Navigationssystem für Flugobjekte vorgeschlagen, das eine an dem Flugobjekt anordenbare Kamera hat, die zum Erfassen von das überfliegende Gelände enthaltenen Bilddaten von Bildern innerhalb eines Erfassungsbereiches ausgebildet ist. Darüber hinaus ist eine Navigationseinheit vorgesehen, die zum Ermitteln einer Eigenbewegung des Flugobjektes über Grund in Abhängigkeit von einer Auswertung der das überfliegende Gelände enthaltenen Bilddaten der Bilder eingerichtet ist. According to the invention, a navigation system for flying objects is proposed which has a camera which can be arranged on the flying object and which is designed to detect image data of images contained within the flying terrain in a detection area. In addition, a navigation unit is provided, which is set up for determining a proper movement of the flying object over ground as a function of an evaluation of the image data of the images containing the overlying terrain.
Demnach wird zunächst vorgeschlagen, dass das Navigationssystem mindestens eine Kamera und eine Navigationseinheit hat, sodass auf Basis einer Bildauswertung aufgenommener Bilder eine Eigenbewegung des Flugobjektes berechnet werden kann. Die Navigationseinheit ist somit zum Ausführen eines Verfahrens zur visuellen Odometrie ausgebildet. Das Navigationssystem kann dabei auch ein Kamerasystem mit mehreren Kameras sein, um so bspw. zusätzliche Tiefeninformationen der Szene zu ermitteln. Denkbar ist aber auch, dass weitere Sensoren vorgesehen sind, die zum Ermitteln einer Tiefe der aufgenommenen Szene ausgebildet sind. Accordingly, it is first proposed that the navigation system has at least one camera and a navigation unit, so that a self-motion of the flying object can be calculated on the basis of an image analysis of recorded images. The navigation unit is thus designed to carry out a method for visual odometry. The navigation system can also be a camera system with several cameras in order to determine, for example, additional depth information of the scene. It is also conceivable that further sensors are provided, which are designed to determine a depth of the recorded scene.
Um Störeinflüsse innerhalb der Bilddaten zu vermeiden bzw. erkennen zu können, ist erfindungsgemäß eine Schattenberechnungseinheit vorgesehen, die zum Berechnen eines Schattenwurfes des Flugobjektes auf das überfliegende Gelände in Abhängigkeit von einer aktuellen Flughöhe des Flugobjektes und einem ermittelten Sonnenstand an der aktuellen Position des Flugobjektes eingerichtet ist. Zumindest unter Kenntnis der Flughöhe sowie eines an der Position des Flugobjektes ermittelten Sonnenstandes lässt sich der Schattenwurf des Flugobjektes berechnen, der aufgrund der Sonneneinstrahlung auf das Flugobjekt zu einem entsprechenden Schatten am Boden führen würde. In order to be able to avoid or detect disturbing influences within the image data, a shadow calculation unit is provided according to the invention which is set up for calculating a shadow cast of the flying object on the overlying terrain as a function of a current flying height of the flying object and a determined position of the sun at the current position of the flying object , At least with knowledge of the altitude and a determined at the position of the flying object position of the sun, the shadow of the flying object can be calculated, which would lead to a corresponding shadow on the ground due to the sunlight on the flying object.
Die Navigationseinheit ist erfindungsgemäß zum Ermitteln der Eigenbewegung durch Auswertung der Bilddaten unter Berücksichtigung des Schattenwurfes des Flugobjektes eingerichtet, sodass insbesondere diejenigen Bildbereiche unberücksichtigt bleiben, in denen der berechnete Schattenwurf des Flugobjektes angenommen wird. The navigation unit is inventively designed to determine the proper motion by evaluating the image data, taking into account the shadow of the flying object, so that in particular those image areas remain unconsidered in which the calculated shadow of the flying object is assumed.
Dadurch wird es möglich, dass die Auswertung der Bilddaten der aufgenommenen Bilder auf diejenigen Bilddaten beschränkt wird, die von einem Schattenwurf des Flugobjektes nicht betroffen sind. Dadurch können fehlerhafte saliente Merkmale, die insbesondere in Randbereichen des Schattenwurfes aufgrund eines Kontrastverlaufes entstehen können, eliminiert. This makes it possible that the evaluation of the image data of the recorded images is limited to those image data that are not affected by a shadow of the flying object. As a result, faulty salient features, which can arise in particular in the peripheral areas of the shadow cast due to a contrast course, are eliminated.
Der Sonnenstand bezeichnet dabei die Position der Sonne, bspw. in Form eines Höhenwinkels und Azimuts (Horizontalwinkel). Der Sonnenstand ist dabei die scheinbare, momentane Position der Sonne über dem Horizont. The sun's position designates the position of the sun, for example in the form of an elevation angle and azimuth (horizontal angle). The position of the sun is the apparent, instantaneous position of the sun over the horizon.
Aufgrund der Tatsache, dass sich bspw. ein Hubschrauber als Flugobjekt bewegt und nicht fix stehen bleibt, entsteht an den Schattenkanten des Schattenwurfes auf den Boden ein falscher Bewegungseindruck, der an und für sich von der Navigationseinheit detektiert werden würde. Gerade in unmittelbarer Bodennähe, wenn der Schatten einen großen Teil des Bildes einnimmt, kann der Fall eintreten, dass die Bewegung der Schattenkante von den Bildverarbeitungsmethoden als Hubschrauberbewegung in Bezug auf den feststehenden Boden gewertet wird. Der dadurch entstehende verfälschte Geschwindigkeitseindruck kann bei der Landung zu einer Beschädigung des Fluggerätes führen. Mit Hilfe der vorliegenden Schattenberechnungseinheit und der Kombination der Ermittlung der Eigenbewegung unter Berücksichtigung des berechneten Schattenwurfes des Flugobjektes kann dieses Problem beseitigt werden. Due to the fact that, for example, a helicopter moves as a flying object and does not remain fixed, a false impression of movement arises at the shadow edges of the shadow cast on the ground, which would in and of itself be detected by the navigation unit. Especially in the immediate vicinity of the ground, when the shadow occupies a large part of the image, it may happen that the movement of the shadow edge is considered by the image processing methods to be a helicopter movement with respect to the fixed ground. The resulting falsified speed impression can lead to damage to the aircraft when landing. This problem can be eliminated with the help of the present shadow calculation unit and the combination of the determination of the proper motion taking into account the calculated shadow cast of the flying object.
Gemäß einer vorteilhaften Ausführungsform ist die Schattenberechnungseinheit eingerichtet, eine digitale 3D-Szene zu erstellen, in der der Sonnenstand als künstliche Lichtquelle verwendet wird, mit der dann ein künstliches Flugmodell als Flugobjekt beleuchtet wird. Der aus der Beleuchtung des künstlichen Flugobjektes mittels der künstlichen Lichtquelle berechnete Schatten wird dann bspw. auf eine Ebene projiziert, die dem Blickfeld der Kamera des Flugobjektes vorteilhafter Weise entsprechen sollte. In Abhängigkeit von dem berechneten Schatten wird dann der Schattenwurf des Flugobjektes berechnet. Die Erstellung der 3D-Szene kann bspw. mit Hilfe bekannter Visualisierungsverfahren, wie bspw. OpenGL gelöst werden. Aufgrund der großen Entfernung der Sonne wird hierbei bspw. eine orthografische Projektion verwendet. According to an advantageous embodiment, the shadow calculation unit is set up to create a digital 3D scene in which the sun's position is used as an artificial light source, with which an artificial flying model is then illuminated as a flying object. The shadow calculated from the illumination of the artificial flying object by means of the artificial light source is then, for example, projected onto a plane which should advantageously correspond to the field of view of the camera of the flying object. Depending on the calculated shadow, the shadow of the flying object is calculated. The creation of the 3D scene can be solved, for example, with the aid of known visualization methods, such as, for example, OpenGL. Due to the great distance of the sun, an orthographic projection is used here, for example.
Gemäß einer weiteren vorteilhaften Ausführungsform ist die Schattenberechnungseinheit eingerichtet, den Sonnenstand in Abhängigkeit von der aktuellen Position des Flugobjektes sowie der aktuellen Uhrzeit an der aktuellen Position des Flugobjektes und dem aktuellen Datum an der aktuellen Position des Flugobjektes zu berechnen. Sowohl aus der Position (Latitude, Longitude) als auch aus der aktuellen Uhrzeit und dem vorliegenden Datum lässt sich exakt der Sonnenstand ermitteln, bspw. aus Sonnenstandstabellen oder mittels Berechnung auf Basis von Formeln. According to a further advantageous embodiment, the shadow calculation unit is set up to calculate the position of the sun depending on the current position of the flying object and the current time at the current position of the flying object and the current date at the current position of the flying object. From the position (latitude, longitude) as well as from the current time and date, the exact position of the sun can be determined, for example, from solar altitude tables or by calculation based on formulas.
Gemäß einer weiteren vorteilhaften Ausführungsform ist die Schattenberechnungseinheit eingerichtet, den Schattenwurf weiterhin unter Berücksichtigung einer aktuellen Orientierung des Flugobjektes (Pitch, Roll, Yaw), einer Geometrie des Flugobjektes, einer Kameraposition am Flugobjekt und/oder einer Kameraorientierung in Bezug auf das Flugobjekt zu berechnen. Die Orientierung des Flugobjektes stellt dabei die Lage in Bezug auf die horizontale Ebene dar und kann somit die Berechnung des Schattenwurfes verfeinern, da je nach Lage eine unterschiedliche Schattenprojektion auf die Oberfläche erfolgt. Auch die Geometrie des Flugobjektes kann in die Berechnung des Schattenwurfes mit einfließen. Auch Kameraposition sowie Kameraorientierung können mit einfließen, da sich hieraus der Erfassungsbereich der Kamera ableiten lässt und so feststellbar ist, ob der berechnete Schatten für die aufgenommenen Bilddaten relevant ist oder nicht. According to a further advantageous embodiment, the shadow calculation unit is set up to further calculate the shadow cast taking into account a current orientation of the flying object (pitch, roll, yaw), a geometry of the flying object, a camera position on the flying object and / or a camera orientation with respect to the flying object. The orientation of the flying object thereby represents the position with respect to the horizontal plane and can thus refine the calculation of the shadow cast, since, depending on the position, a different shadow projection takes place on the surface. The geometry of the flying object can also be included in the calculation of the shadow cast. The camera position as well as the camera orientation can also be taken into account, since the camera's coverage area can be deduced therefrom and thus it can be determined whether the calculated shadow is relevant for the recorded image data or not.
Gemäß einer weiteren vorteilhaften Ausführungsform ist die Navigationseinheit eingerichtet, einen Schattenbereich in den Erfassungsbereich in Abhängigkeit von dem berechneten Schattenwurf zu ermitteln und die Bilddaten zumindest eines Teils des Schattenbereiches bei der Auswertung der erfassten Bilddaten zur Ermittlung der Eigenbewegung unberücksichtigt zu lassen. So lässt sich mit Hilfe des berechneten Schattens ermitteln, welcher Teil des Bildes der erfassten Bilddaten von einem möglichen Schattenwurf des Flugobjektes kompromittiert ist oder nicht. Dabei können diejenigen Bilddaten, die nicht in dem Teil des Bildes liegen, der von dem berechneten Schatten kompromittiert ist, ausschließlich zur Ermittlung der Eigenbewegung herangezogen werden, während diejenigen Daten, die in dem Schattenbereich (Bereich des Bildes, der von dem berechneten Schatten kompromittiert ist) liegen, unberücksichtigt bleiben. Einer konkreten Erfassung des Schattens innerhalb des Bildes bedarf es bei dieser Ausführungsform daher nicht. According to a further advantageous embodiment, the navigation unit is set up to determine a shadow area in the detection area as a function of the calculated shadow and to disregard the image data of at least part of the shadow area in the evaluation of the acquired image data for determining the proper motion. Thus it can be determined with the help of the calculated shadow, which part of the image of the captured image data from a possible shadow of the flying object is compromised or not. In this case, those image data that are not in the part of the image that is compromised by the calculated shadow can be used exclusively for determining the proper motion, while those data in the shadow region (region of the image that is compromised by the calculated shadow ) are disregarded. A concrete acquisition the shadow within the image is therefore not required in this embodiment.
In einer weiteren Ausführungsform ist die Navigationseinheit eingerichtet, in Abhängigkeit von dem berechneten Schattenwurf diejenigen Bilddaten im Erfassungsbereich zu ermitteln, die in einem Randbereich eines in den Bilddaten enthaltenen erfassten Schattenwurfes des Flugobjektes liegen. Hierdurch wird der konkrete Schatten des Flugobjektes, der sich in den aufgenommenen Bilddaten befindet, mit Hilfe des berechneten Schattens lokalisiert, sodass diejenigen Bildpunkte, die klar zu dem aufgenommenen Schatten des Flugobjektes gehören, bei der Auswertung der Bilddaten zum Zwecke der Ermittlung der Eigenbewegung unberücksichtigt bleiben. Insbesondere in Randbereichen des Schattens entstehen Kontrastsprünge, die zu einer fehlerhaften Berechnung der Eigenbewegung des Flugobjektes führen, sodass insbesondere gerade diese Bereiche bei der Auswertung der Bilddaten ausgeklammert werden. In a further embodiment, the navigation unit is set up to determine, as a function of the calculated shadowing, those image data in the detection area that are located in an edge region of a captured shadow of the flying object contained in the image data. As a result, the concrete shadow of the flying object, which is located in the recorded image data, located using the calculated shadow, so that those pixels that are clearly associated with the recorded shadow of the flying object, disregarded in the evaluation of the image data for the purpose of determining the proper motion , In particular in edge regions of the shadow arise jumps in contrast, which lead to an incorrect calculation of the intrinsic motion of the flying object, so that especially these areas are excluded in the evaluation of the image data.
Hierbei ist es vorteilhaft, wenn die Navigationseinheit zum Erkennen eines Randbereiches in Abhängigkeit von einem Kontrastverlauf im Bereich des berechneten Schattenwurfes eingerichtet ist. In this case, it is advantageous if the navigation unit is set up to detect an edge area as a function of a contrast course in the area of the calculated shadow.
Die Erfindung wird anhand der beigefügten Figuren beispielhaft näher erläutert. Es zeigen:The invention will be explained in more detail by way of example with reference to the attached figures. Show it:
Dabei ist die Kamera
Die Kamera
Die erfassten Bilddaten der Kamera
Die Navigationseinheit
Der berechnete Schattenwurf wird nun mit den aufgenommenen Bilddaten verglichen, um zunächst erst einmal festzustellen, ob der Schattenwurf überhaupt im Erfassungsbereich der Kamera liegt. Ist dies der Fall, so ist es bspw. denkbar, dass die Navigationseinheit
In einer vorteilhaften Ausführungsform ist es dabei auch denkbar, dass die Navigationseinheit
Merkmale, die sich in dem entfernten Randbereich
BezugszeichenlisteLIST OF REFERENCE NUMBERS
- 11
- Navigationssystem navigation system
- 22
- Kamera camera
- 33
- Erfassungsbereich detection range
- 44
- Navigationseinheit navigation unit
- 55
- Schattenberechnungseinheit The Shadow Unit
- 1010
- projizierte Ebene projected level
- 1111
- Modell des Flugobjektes Model of the flying object
- 1212
- künstliche Lichtquelle artificial light source
- 1313
- künstlicher Schattenwurf artificial shadow
- 2121
- saliente Merkmale salient features
- 2222
- aufgenommener Schatten recorded shadow
- 2323
- Randbereich des Schattens Edge of the shadow
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- DE 102011054379 A1 [0005] DE 102011054379 A1 [0005]
Claims (8)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE202014104937.1U DE202014104937U1 (en) | 2014-10-16 | 2014-10-16 | Navigation system for flying objects |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE202014104937.1U DE202014104937U1 (en) | 2014-10-16 | 2014-10-16 | Navigation system for flying objects |
Publications (1)
Publication Number | Publication Date |
---|---|
DE202014104937U1 true DE202014104937U1 (en) | 2014-10-28 |
Family
ID=51900015
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE202014104937.1U Active DE202014104937U1 (en) | 2014-10-16 | 2014-10-16 | Navigation system for flying objects |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE202014104937U1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019213930A1 (en) * | 2019-09-12 | 2021-03-18 | Zf Friedrichshafen Ag | Method for optimizing the detection of the surroundings in a vehicle |
US11434004B2 (en) * | 2019-05-20 | 2022-09-06 | Sony Group Corporation | Controlling a group of drones for image capture |
RU2809930C1 (en) * | 2023-10-13 | 2023-12-19 | Акционерное общество научно-внедренческое предприятие "ПРОТЕК" | Integrated complex of on-board equipment for unmanned aerial vehicle |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011054379A1 (en) | 2011-10-11 | 2013-04-11 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Method for determining position information of mobile vehicle e.g. unmanned aircraft, involves calculating relative movement of vehicle based on determined feature movement and self-determined relative movement information |
-
2014
- 2014-10-16 DE DE202014104937.1U patent/DE202014104937U1/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011054379A1 (en) | 2011-10-11 | 2013-04-11 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Method for determining position information of mobile vehicle e.g. unmanned aircraft, involves calculating relative movement of vehicle based on determined feature movement and self-determined relative movement information |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11434004B2 (en) * | 2019-05-20 | 2022-09-06 | Sony Group Corporation | Controlling a group of drones for image capture |
DE102019213930A1 (en) * | 2019-09-12 | 2021-03-18 | Zf Friedrichshafen Ag | Method for optimizing the detection of the surroundings in a vehicle |
DE102019213930B4 (en) * | 2019-09-12 | 2021-05-12 | Zf Friedrichshafen Ag | Method for optimizing the detection of surroundings in a vehicle |
RU2809930C1 (en) * | 2023-10-13 | 2023-12-19 | Акционерное общество научно-внедренческое предприятие "ПРОТЕК" | Integrated complex of on-board equipment for unmanned aerial vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3009794B1 (en) | Redundant determining of positional information for an automatic landing system | |
EP3049825B1 (en) | Determination of the position of a vehicle on or above a planet surface | |
DE102016220075A1 (en) | Motor vehicle and method for 360 ° field detection | |
EP3731187A1 (en) | Method and device for determining the geographical position and orientation of a vehicle | |
DE102009016819B4 (en) | Method for detecting at least one object and / or at least one object group, computer program, computer program product, stereo camera device, actively radiation-emitting image sensor system and monitoring device | |
EP2446298A1 (en) | Method for determining the geographic coordinates of pixels in sar images | |
DE102016123286B4 (en) | Method and apparatus for georeferencing aerial image data | |
DE102017205647A1 (en) | METHOD FOR DETERMINING A PATH ALONG AN OBJECT, SYSTEM AND METHOD FOR AUTOMATIC INSPECTION OF AN OBJECT | |
DE102012224104A1 (en) | Method for providing a GNSS signal | |
EP3387375B1 (en) | Method for producing a depth map | |
DE102009054214B4 (en) | Method and apparatus for generating a representation of an environment | |
EP2381207A1 (en) | 3D targeting and target designation from IR data | |
DE102011078746A1 (en) | Device for detecting object i.e. airplane, during docking of object at gate of airport, has measuring device for detecting distance pattern and detecting object in area when portion of distance pattern remains constant temporally | |
DE202014104937U1 (en) | Navigation system for flying objects | |
EP3811286A1 (en) | Method and assembly for detecting objects on systems | |
EP3435030A1 (en) | Method for creating a 3d model of an object | |
WO2020160874A1 (en) | Calibration unit for a monitoring device, monitoring device for man-overboard monitoring and method for calibration | |
WO2023083620A1 (en) | Testing the environment sensor system and/or environment perception of a vehicle | |
DE102011054379B4 (en) | Method and device for determining position information | |
DE102014115046B4 (en) | Method and assistance system for determining a flight parameter of a flying object during the flight | |
DE102019220616B4 (en) | PROCEDURE FOR SIMULTANEOUS LOCATION AND IMAGE | |
DE102013223995A1 (en) | Method of creating a depth map for a camera | |
DE102014000436A1 (en) | Method for determining the position data of a target object in a reference system and method for guiding an aircraft, which is preferably designed as a missile | |
WO2018108711A1 (en) | Method and device for determining the leading edges of two overlapping image captures of a surface | |
DE102016120196A1 (en) | Method and device for automatically determining position and / or movement-related status information of a vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R207 | Utility model specification |
Effective date: 20141204 |
|
R163 | Identified publications notified | ||
R082 | Change of representative |
Representative=s name: GRAMM, LINS & PARTNER PATENT- UND RECHTSANWAEL, DE |
|
R150 | Utility model maintained after payment of first maintenance fee after three years | ||
R151 | Utility model maintained after payment of second maintenance fee after six years | ||
R152 | Utility model maintained after payment of third maintenance fee after eight years |