DE102016120366A1 - Mobile device and method for displaying georeferenced data - Google Patents

Mobile device and method for displaying georeferenced data Download PDF

Info

Publication number
DE102016120366A1
DE102016120366A1 DE102016120366.1A DE102016120366A DE102016120366A1 DE 102016120366 A1 DE102016120366 A1 DE 102016120366A1 DE 102016120366 A DE102016120366 A DE 102016120366A DE 102016120366 A1 DE102016120366 A1 DE 102016120366A1
Authority
DE
Germany
Prior art keywords
image data
mobile unit
display
display surface
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102016120366.1A
Other languages
German (de)
Inventor
Hartmut Runge
Robert Klarner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsches Zentrum fuer Luft und Raumfahrt eV
Original Assignee
Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsches Zentrum fuer Luft und Raumfahrt eV filed Critical Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority to DE102016120366.1A priority Critical patent/DE102016120366A1/en
Publication of DE102016120366A1 publication Critical patent/DE102016120366A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)

Abstract

Die Erfindung betrifft eine mobile Einheit sowie ein Verfahren zum Betrieb einer ebensolchen Einheit. Die mobile Einheit umfasst ein Display (101) mit einer Displayfläche, ein erstes Mittel (102) zur Ermittlung der aktuellen Positionder mobilen Einheit, ein zweites Mittel (103) zur Ermittlung der aktuellen Orientierungder Displayfläche, wobei relativ zur Displayfläche eine Blickrichtungdefiniert ist, eine Schnittstelle (104), an der für eine Vielzahl von Positionengeoreferenzierte Bilddatenbereitgestellt werden, in denen jeweils eine Umgebungum die jeweiligen Positionenabgebildet ist, und ein drittes Mittel (105), das auf Basis der Bilddatenfür eine vonabhängige Positionund für die BlickrichtungBilddatenderart ermittelt, dass in den Bilddatendie Umgebungder Positionvonaus in Blickrichtungabgebildet ist, wobeivorgegeben ist und wobei die ermittelten Bilddatenauf dem Display dargestellt werden.The invention relates to a mobile unit and a method for operating a similar unit. The mobile unit comprises a display (101) having a display surface, a first means (102) for determining the current position of the mobile unit, a second means (103) for determining the current orientation of the display surface, wherein a viewing direction is defined relative to the display surface, an interface (104) on which a plurality of positions are provided georeferenced image data in each of which an environment is mapped around the respective positions; and third means (105) which determines, in the image data, the environment based on the image data for a dependent position and for the gaze direction image data type Position is shown in the viewing direction, where it is given, and the determined image data is displayed on the display.

Description

Die Erfindung betrifft eine mobile Einheit, die ein Display mit einer Displayfläche zur optischen Ausgabe von Informationen aufweist. Die Erfindung betrifft weiterhin: ein Verfahren zum Betrieb einer ebensolchen mobilen Einheit, ein Fahrzeug, ein Computersystem, ein digitales Speichermedium, ein Computer-Programm-Produkt und ein Computer-Programm und eine APP (engl. für „Application Software).The invention relates to a mobile unit having a display with a display surface for optically outputting information. The invention further relates to: a method of operating such a mobile unit, a vehicle, a computer system, a digital storage medium, a computer program product, and a computer program and an application software (APP).

Die Aufgabe der Erfindung ist es, eine mobile Einheit mit einem Display anzugeben, die zu einer intuitiven und einfachen handhabbaren Darstellung von Bilddaten, in denen ortsabhängige Umgebungen abgebildet sind, ausgeführt und eingerichtet ist.The object of the invention is to provide a mobile unit with a display that is designed and set up for an intuitive and easy to handle representation of image data in which location-dependent environments are mapped.

Weiterhin ist es Aufgabe der Erfindung, ein Verfahren zum Betrieb einer ebensolchen mobilen Einheit anzugeben, das eine intuitive und einfach handhabbare Darstellung von Bilddaten, in denen ortsabhängige Umgebungen abgebildet sind, ermöglicht.It is another object of the invention to provide a method for operating such a mobile unit, which allows an intuitive and easy to handle representation of image data in which location-dependent environments are mapped.

Weiterhin ist es Aufgabe der Erfindung, ein Computersystem, ein digitales Speichermedium, ein Computer-Programm-Produkt und ein Computer-Programm, und eine APP anzugeben, die ein eben solches Verfahren angeben.It is another object of the invention to provide a computer system, a digital storage medium, a computer program product and a computer program, and an APP, which specify just such a method.

Die Erfindung ergibt sich aus den Merkmalen der unabhängigen Ansprüche. Vorteilhafte Weiterbildungen und Ausgestaltungen sind Gegenstand der abhängigen Ansprüche. Weitere Merkmale, Anwendungsmöglichkeiten und Vorteile der Erfindung ergeben sich aus der nachfolgenden Beschreibung, sowie der Erläuterung von Ausführungsbeispielen der Erfindung, die in den Figuren dargestellt sind.The invention results from the features of the independent claims. Advantageous developments and refinements are the subject of the dependent claims. Other features, applications and advantages of the invention will become apparent from the following description, as well as the explanation of embodiments of the invention, which are illustrated in the figures.

Ein erster Aspekt der Erfindung betrifft eine mobile Einheit, umfassend: ein Display mit einer Displayfläche zur optischen Ausgabe von Informationen, ein erstes Mittel zur Ermittlung der aktuellen Position P

Figure DE102016120366A1_0020
der mobilen Einheit, ein zweites Mittel zur Ermittlung einer aktuellen Orientierung O
Figure DE102016120366A1_0021
der Displayfläche, wobei relativ zur Displayfläche eine Blickrichtung R ( O )
Figure DE102016120366A1_0022
definiert ist, eine Schnittstelle, an der für eine Vielzahl von Positionen p i
Figure DE102016120366A1_0023
georeferenzierte Bilddaten BD 0 ( p i )
Figure DE102016120366A1_0024
bereitgestellt werden, in denen jeweils eine Umgebung U ( p i )
Figure DE102016120366A1_0025
um die jeweiligen Positionen p i
Figure DE102016120366A1_0026
abgebildet ist, ein drittes Mittel, das auf Basis der Bilddaten BD 0 ( p i )
Figure DE102016120366A1_0027
für eine von P
Figure DE102016120366A1_0028
abhängige Position P s o l l = P s o l l ( P )
Figure DE102016120366A1_0029
und für die Blickrichtung R ( O )
Figure DE102016120366A1_0030
Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )
Figure DE102016120366A1_0031
derart ermittelt, dass in den Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )
Figure DE102016120366A1_0032
die Umgebung U ( P s o l l ( P ) )
Figure DE102016120366A1_0033
der Position P s o l l
Figure DE102016120366A1_0034
von P s o l l
Figure DE102016120366A1_0035
aus in Blickrichtung R ( O )
Figure DE102016120366A1_0036
abgebildet ist, wobei die Funktion P s o l l ( P )
Figure DE102016120366A1_0037
vorgegeben ist und wobei die ermittelten Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )
Figure DE102016120366A1_0038
auf dem Display dargestellt werden.A first aspect of the invention relates to a mobile unit, comprising: a display having a display surface for optically outputting information, a first means for determining the current position P
Figure DE102016120366A1_0020
the mobile unit, a second means of determining a current orientation O
Figure DE102016120366A1_0021
the display surface, wherein relative to the display surface a viewing direction R ( O )
Figure DE102016120366A1_0022
is defined, an interface on which for a variety of positions p i
Figure DE102016120366A1_0023
georeferenced image data BD 0 ( p i )
Figure DE102016120366A1_0024
be provided, each containing an environment U ( p i )
Figure DE102016120366A1_0025
around the respective positions p i
Figure DE102016120366A1_0026
pictured is a third remedy based on the image data BD 0 ( p i )
Figure DE102016120366A1_0027
for one of P
Figure DE102016120366A1_0028
dependent position P s O l l = P s O l l ( P )
Figure DE102016120366A1_0029
and for the line of sight R ( O )
Figure DE102016120366A1_0030
image data BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0031
determined such that in the image data BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0032
the environment U ( P s O l l ( P ) )
Figure DE102016120366A1_0033
the position P s O l l
Figure DE102016120366A1_0034
from P s O l l
Figure DE102016120366A1_0035
out in the direction R ( O )
Figure DE102016120366A1_0036
is shown, where the function P s O l l ( P )
Figure DE102016120366A1_0037
is predetermined and wherein the determined image data BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0038
be shown on the display.

Die mobile Einheit ist vorteilhaft ein Smartphone, ein Tablet PC, ein Navigationsdisplay eines Fahrzeugs, ein Display eines Infotainmentsystems eines Fahrzeugs oder eine Datenbrille oder VR-Brille (VR- = engl. „virtual reality“). Das Display ist vorteilhaft ein Farbdisplay (LCD-Display, LED-Display, Plasma-Display, etc.). Das Display kann als reine Anzeigeeinheit oder als Anzeige- und Eingabeeinheit (Touch-Screen) ausgeführt sein. Die Displayfläche ist vorteilhaft plan, d.h. nicht gebogen ausgeführt. Das Display kann auch zwei Displayflächen aufweisen, wie beispielsweise im Falle der Datenbrille, wobei für jedes Auge eine Displayfläche vorhanden ist. Vorteilhaft wird jede der Displayflächen der Datenbrille gemäß den vorstehenden Merkmalen angesteuert, die nur eine Displayfläche beschreiben.The mobile unit is advantageously a smartphone, a tablet PC, a navigation display of a vehicle, a display of an infotainment system of a vehicle or a data glasses or VR glasses (VR = English "virtual reality"). The display is advantageous a color display (LCD display, LED display, plasma display, etc.). The display can be designed as a pure display unit or as a display and input unit (touch screen). The display surface is advantageously flat, i. not bent. The display can also have two display surfaces, such as in the case of data glasses, with a display surface is available for each eye. Advantageously, each of the display surfaces of the data glasses is driven in accordance with the above features, which describe only one display surface.

Das erste Mittel zur Ermittlung der aktuellen Position P

Figure DE102016120366A1_0039
der mobilen Einheit umfasst vorteilhaft eine GPS-, Galileo-, GLONASS-Einheit, eine EGNOS-Einheit, eine Einheit zur Indoor-Navigation (bspw. Auf Basis vom W-LAN, UWB) und/oder eine Einheit zur Zellenortung in mobilen Telekommunikationsnetzen. Das erste Mittel ist vorteilhaft zur Indoor-Navigation ausgeführt. Weiterhin vorteilhaft ist das erste Mittel zur Ermittlung der aktuellen Position P
Figure DE102016120366A1_0040
via eines Datenzugriffs auf einen Server, der die aktuelle Position eines Fahrzeugs bereithält (bspw. „Bahn-Radar“ oder „Flightradar24“), in dem sich die mobile Einheit befindet, ausgeführt und eingerichtet.The first means of determining the current position P
Figure DE102016120366A1_0039
the mobile unit advantageously comprises a GPS, Galileo, GLONASS unit, an EGNOS unit, an indoor navigation unit (for example based on the W-LAN, UWB) and / or a unit for cell location in mobile telecommunication networks. The first means is advantageously designed for indoor navigation. Further advantageous is the first means for determining the current position P
Figure DE102016120366A1_0040
via a data access to a server which holds the current position of a vehicle (eg "rail radar" or "flight radar 24") in which the mobile unit is located, executed and set up.

Das zweite Mittel zur Ermittlung der aktuellen Orientierung O

Figure DE102016120366A1_0041
der Displayfläche ist vorteilhaft ein in der mobilen Einheit integrierter Lagesensor. Derartige Lagesensoren sind im Stand der Technik hinreichend bekannt. Vorteilhaft umfasst der Lagesensor einen Magnetkompasssensor. Weiterhin vorteilhaft wird der Lagesensor durch eine Bildkorrelationseinheit unterstützt, die eine Bildkorrelation eines von einer Kamera der mobilen Einheit aufgenommenen Bildes mit über die Schnittstelle bereitgestellten Bilddaten BD 0 ( p i )
Figure DE102016120366A1_0042
unterstützt. Die Bilddaten BD 0 ( p i )
Figure DE102016120366A1_0043
sind jeweils von einer bestimmten Position unter definierten Winkeln aufgenommen worden. Durch Korrelation des von der mobilen Einheit aufgenommenen aktuellen Bildes mit den entsprechenden Bilddaten BD 0 ( p i )
Figure DE102016120366A1_0044
kann unter Berücksichtigung der jeweiligen Positionen und der Blickwinkel die Orientierung O
Figure DE102016120366A1_0045
der Displayfläche bestimmt werden.The second means of determining the current orientation O
Figure DE102016120366A1_0041
the display surface is advantageously a position sensor integrated in the mobile unit. Such position sensors are well known in the art. Advantageously, the position sensor comprises a magnetic compass sensor. Furthermore, the position sensor is advantageously supported by an image correlation unit that performs an image correlation of an image recorded by a camera of the mobile unit with image data provided via the interface BD 0 ( p i )
Figure DE102016120366A1_0042
supported. The image data BD 0 ( p i )
Figure DE102016120366A1_0043
have each been taken from a certain position at defined angles. By correlating the current image captured by the mobile unit with the corresponding image data BD 0 ( p i )
Figure DE102016120366A1_0044
can orientation taking into account the respective positions and the viewing angles O
Figure DE102016120366A1_0045
the display surface can be determined.

Relativ zur Orientierung O

Figure DE102016120366A1_0046
der Displayfläche ist erfindungsgemäß eine Blickrichtung R ( O )
Figure DE102016120366A1_0047
definiert. Vorteilhaft steht die Blickrichtung R ( O )
Figure DE102016120366A1_0048
senkrecht auf der Displayfläche. Die Blickrichtung R ( O )
Figure DE102016120366A1_0049
gibt dabei eine Strahlrichtung an, die vorteilhaft die Displayfläche mittig „durchstößt“ und vorteilhaft in (senkrechter) Aufsichtsrichtung auf die Displayfläche verläuft. Für besondere Anwendungen kann die Blickrichtung R ( O )
Figure DE102016120366A1_0050
entgegengesetzt zur Aufsichtsrichtung auf die Displayfläche definiert sein/werden. Vorteilhaft sind die Blickrichtung R ( O )
Figure DE102016120366A1_0051
und die Richtung einer senkrechten Aufsicht auf die Displayfläche identisch. Alternativ sind die Blickrichtung R ( O )
Figure DE102016120366A1_0052
und die Richtung einer senkrechten Aufsicht auf die Displayfläche entgegengesetzt. Unter „Displayfläche“ wird vorliegend die Fläche des Displays verstanden, bei der ein Nutzer bei Aufsicht die dargestellten Informationen erkennt.Relative to orientation O
Figure DE102016120366A1_0046
The display surface is according to the invention a viewing direction R ( O )
Figure DE102016120366A1_0047
Are defined. The viewing direction is advantageous R ( O )
Figure DE102016120366A1_0048
perpendicular to the display surface. The direction of view R ( O )
Figure DE102016120366A1_0049
indicates a beam direction, which advantageously "pierces" the display surface in the middle and advantageously extends in the (vertical) supervisory direction onto the display surface. For special applications, the viewing direction R ( O )
Figure DE102016120366A1_0050
be defined on the display surface opposite to the direction of supervision. The viewing direction is advantageous R ( O )
Figure DE102016120366A1_0051
and the direction of a vertical view of the display surface is identical. Alternatively, the viewing direction R ( O )
Figure DE102016120366A1_0052
and the direction of a vertical view of the display surface opposite. In the present case, the term "display surface" is understood to mean the surface of the display in which a user recognizes the displayed information when supervised.

In einer vorteilhaften Ausführungsform wird auf der Displayfläche an der Stelle, an der die Strahlrichtung die Displayfläche „durchstößt“, ein Fadenkreuz angezeigt. Dies ermöglicht einem Nutzer eine Visualisierung und intuitive Erfassung der aktuellen Blickrichtung R ( O )

Figure DE102016120366A1_0053
In an advantageous embodiment, a crosshair is displayed on the display surface at the point at which the beam direction "pierces" the display surface. This allows a user to visualize and intuitively capture the current line of sight R ( O )
Figure DE102016120366A1_0053

Die Schnittstelle greift auf die georeferenzierten Bilddaten BD 0 ( p i )

Figure DE102016120366A1_0054
zu, die beispielsweise in einem Datenspeicher der mobilen Einheit oder einem externen Datenspeicher (beispielsweise einer Daten-Cloud, einem Daten-Server) gespeichert sind. Der Zugriff auf einen externen Datenspeicher erfolgt vorteilhaft drahtungebunden, d.h. als Funksignal, beispielsweise via mobiles Internet und/oder wahlweise mit Offline mit gespeicherten Bilddaten sowie deren Online-/Offline-Synchronisation, um in Lokalitäten mit eingeschränktem Netz sowie hohen Roaming-Gebühren trotzdem Bilddaten eigenständig nutzen zu können.The interface accesses the georeferenced image data BD 0 ( p i )
Figure DE102016120366A1_0054
for example, stored in a mobile unit data storage or external data storage (eg, a data cloud, a data server). The access to an external data storage is advantageously wirelessly, ie as a radio signal, for example via mobile Internet and / or optionally with offline image data stored and their online / offline synchronization, in localities with limited network and high roaming fees still image data independently to be able to use.

Die Bilddaten BD 0 ( p i )

Figure DE102016120366A1_0055
sind beispielsweise Bilddaten von Google StreetView oder Microsoft Bing Street Side, die insbesondere 360°-Ansichten einer Umgebung für eine Position p i
Figure DE102016120366A1_0056
zeigen. Die über die Schnittstelle bereitgestellten Bilddaten BD 0 ( p i )
Figure DE102016120366A1_0057
können insbesondere mittels optischer Sensoren, mittels Radarsensoren, mittels Lasersensoren und/oder mittels Ultraschall-Sensoren erfasste Daten sein.The image data BD 0 ( p i )
Figure DE102016120366A1_0055
are, for example, image data from Google StreetView or Microsoft Bing Street Side, in particular 360 ° views of an environment for a position p i
Figure DE102016120366A1_0056
demonstrate. The image data provided via the interface BD 0 ( p i )
Figure DE102016120366A1_0057
may be in particular by means of optical sensors, by means of radar sensors, by means of laser sensors and / or by means of ultrasonic sensors detected data.

Vorteilhaft umfassen die Bilddaten BD 0 ( p i )

Figure DE102016120366A1_0058
für eine Position p i
Figure DE102016120366A1_0059
mehrere mit unterschiedlichen Sensoren aufgenommene Bilddaten der Umgebung von p i .
Figure DE102016120366A1_0060
Advantageously, the image data includes BD 0 ( p i )
Figure DE102016120366A1_0058
for a position p i
Figure DE102016120366A1_0059
several image data taken with different sensors of the environment of p i ,
Figure DE102016120366A1_0060

Weiterhin vorteilhaft umfassen die Bilddaten B D 0 ( p i )

Figure DE102016120366A1_0061
für eine Position p i
Figure DE102016120366A1_0062
mehrere zu unterschiedlichen Zeiten aufgenommene Bilddaten der Umgebung von p i .
Figure DE102016120366A1_0063
So können sowohl aktuelle als auch historische Umgebungsansichten auf der mobilen Einheit angezeigt werden.Further advantageously, the image data includes B D 0 ( p i )
Figure DE102016120366A1_0061
for a position p i
Figure DE102016120366A1_0062
several image data taken at different times of the environment of p i ,
Figure DE102016120366A1_0063
This allows both current and historical environment views to be displayed on the mobile device.

Die mobile Einheit ist vorteilhaft dazu eingerichtet und ausgeführt, durch eine entsprechende Nutzereingabe aus unterschiedlichen Arten von darstellbaren Bilddaten BD 0 ( p i )

Figure DE102016120366A1_0064
auszuwählen.The mobile unit is advantageously set up and executed by an appropriate user input from different types of displayable image data BD 0 ( p i )
Figure DE102016120366A1_0064
select.

In einer besonders vorteilhaften Ausführungsform der vorgeschlagenen mobilen Einheit gilt: P s o l l ( P ) = P .

Figure DE102016120366A1_0065
Die mobile Einheit zeigt somit Bilder von der Umgebung der aktuellen Position der mobilen Einheit mit der Blickrichtung R ( O )
Figure DE102016120366A1_0066
auf dem Display an.In a particularly advantageous embodiment of the proposed mobile unit, the following applies: P s O l l ( P ) = P ,
Figure DE102016120366A1_0065
The mobile unit thus displays images of the surroundings of the current position of the mobile unit with the viewing direction R ( O )
Figure DE102016120366A1_0066
on the display.

Eine besonders vorteilhafte Ausführungsform der vorgeschlagenen mobilen Einheit weist eine Eingabeschnittstelle auf, mittels der ein Vektor D

Figure DE102016120366A1_0067
definierbar ist, wobei gilt: P s o l l ( P ) =
Figure DE102016120366A1_0068
P + D .
Figure DE102016120366A1_0069
Durch die Eingabe des Vektors D
Figure DE102016120366A1_0070
kann somit die Position P s o l l
Figure DE102016120366A1_0071
relativ zur Position P
Figure DE102016120366A1_0072
der mobilen Einheit beliebig verschoben werden. Da der Vektor D
Figure DE102016120366A1_0073
konstant ist, ändert sich P s o l l
Figure DE102016120366A1_0074
durch eine Änderung der Position P .
Figure DE102016120366A1_0075
A particularly advantageous embodiment of the proposed mobile unit has an input interface, by means of which a vector D
Figure DE102016120366A1_0067
is definable, where: P s O l l ( P ) =
Figure DE102016120366A1_0068
P + D ,
Figure DE102016120366A1_0069
By entering the vector D
Figure DE102016120366A1_0070
can thus position P s O l l
Figure DE102016120366A1_0071
relative to the position P
Figure DE102016120366A1_0072
the mobile unit can be moved anywhere. As the vector D
Figure DE102016120366A1_0073
is constant, changes P s O l l
Figure DE102016120366A1_0074
by changing the position P ,
Figure DE102016120366A1_0075

Abhängig von der aktuellen Orientierung O

Figure DE102016120366A1_0076
der Displayfläche der mobilen Einheit wird nun auf dem Display eine Umgebung bzw. ein Umgebungsausschnitt für die Position P s o l l
Figure DE102016120366A1_0077
aus der Blickrichtung R ( O )
Figure DE102016120366A1_0078
dargestellt. Beispielsweise kann als Position P s o l l
Figure DE102016120366A1_0079
eine Position gewählt werden, die auf der gegenüberliegenden Seite der Erdkugel liegt. Zur Unterstützung dieser Funktion sind vorteilhaft Geoid-Informationen in der mobilen Einheit hinterlegt, die dazu dienen, den entsprechenden Vektor D
Figure DE102016120366A1_0080
sinnvoll bzw. richtig zu wählen.Depending on the current orientation O
Figure DE102016120366A1_0076
The display surface of the mobile unit is now on the display an environment or an environmental section for the position P s O l l
Figure DE102016120366A1_0077
from the perspective R ( O )
Figure DE102016120366A1_0078
shown. For example, as a position P s O l l
Figure DE102016120366A1_0079
be chosen a position that lies on the opposite side of the globe. In order to support this function, geoid information is advantageously stored in the mobile unit, which serves the corresponding vector D
Figure DE102016120366A1_0080
make sense or choose correctly.

Sofern für die Position P s o l l ( P )

Figure DE102016120366A1_0081
keine Bilddaten in BD 0 ( p i )
Figure DE102016120366A1_0082
vorliegen, d.h.: P s o l l ( P ) { p i }
Figure DE102016120366A1_0083
ist, ermittelt das dritte Mittel Bilddaten BD 1 ( P s o l l ( P ) = p i * , R ( O ) )
Figure DE102016120366A1_0084
auf Basis von Bilddaten BD 0 ( p i * ) ,
Figure DE102016120366A1_0085
wobei p i *
Figure DE102016120366A1_0086
die zu P s o l l
Figure DE102016120366A1_0087
nächstliegende Position aus der Menge { p i }
Figure DE102016120366A1_0088
ist. Somit kann sichergestellt werden, dass entweder Bilddaten für die Position P s o l l
Figure DE102016120366A1_0089
oder zumindest Bilddaten für die dazu nächstliegende Position p i *
Figure DE102016120366A1_0090
Basis für die Darstellung auf dem Display sind. Vorteilhaft wird die Differenz p i * P s o l l
Figure DE102016120366A1_0091
oder P s o l l p i *
Figure DE102016120366A1_0092
auf dem Display ausgegeben, sodass ein Nutzer über die verschobene Darstellung informiert ist.Unless for the position P s O l l ( P )
Figure DE102016120366A1_0081
no image data in BD 0 ( p i )
Figure DE102016120366A1_0082
exist, ie: P s O l l ( P ) { p i }
Figure DE102016120366A1_0083
the third means determines image data BD 1 ( P s O l l ( P ) = p i * . R ( O ) )
Figure DE102016120366A1_0084
based on image data BD 0 ( p i * ) .
Figure DE102016120366A1_0085
in which p i *
Figure DE102016120366A1_0086
the too P s O l l
Figure DE102016120366A1_0087
nearest position from the crowd { p i }
Figure DE102016120366A1_0088
is. Thus, it can be ensured that either image data for the position P s O l l
Figure DE102016120366A1_0089
or at least image data for the next closest position p i *
Figure DE102016120366A1_0090
Basis for the representation on the display are. The difference becomes advantageous p i * - P s O l l
Figure DE102016120366A1_0091
or P s O l l - p i *
Figure DE102016120366A1_0092
displayed on the display so that a user is informed of the shifted representation.

Diese Funktion ermöglicht unter anderem eine automatische Korrektur von Eingaben des Vektors D ,

Figure DE102016120366A1_0093
so dass auch bei lückenhaften Bilddaten BD 0 ( p i )
Figure DE102016120366A1_0094
stets die Umgebung dargestellt werden kann, die der Wunschposition am nächsten liegt.Among other things, this function allows an automatic correction of inputs of the vector D .
Figure DE102016120366A1_0093
so that even with incomplete image data BD 0 ( p i )
Figure DE102016120366A1_0094
always the environment can be represented that is closest to the desired position.

Vorteilhaft ist das dritte Mittel derart ausgeführt und eingerichtet, dass die Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )

Figure DE102016120366A1_0095
die Umgebung U ( P s o l l ( P ) )
Figure DE102016120366A1_0096
aus der Blickrichtung R ( O )
Figure DE102016120366A1_0097
mit einem vorgebbaren Blickwinkel zeigen. Vorteilhaft ist die mobile Einheit dazu ausgeführt und eingerichtet den Blickwinkel variabel vorzugeben. Eine Veränderung des Blickwinkels ist vorteilhaft identisch mit einer Zoom-Funktion. Advantageously, the third means is designed and set up such that the image data BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0095
the environment U ( P s O l l ( P ) )
Figure DE102016120366A1_0096
from the perspective R ( O )
Figure DE102016120366A1_0097
show with a predefinable angle. Advantageously, the mobile unit is designed and furnished to set the viewing angle variable. A change in the viewing angle is advantageously identical to a zoom function.

Eine bevorzugte Weiterbildung der vorgeschlagenen mobilen Einheit zeichnet sich dadurch aus, dass die an der Schnittstelle bereitgestellten Bilddaten BD 0 ( p i )

Figure DE102016120366A1_0098
für in den Bilddaten BD 0 ( p i )
Figure DE102016120366A1_0099
abgebildete Objekte zugeordnete Attribute enthalten und die Attribute für die in den Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )
Figure DE102016120366A1_0100
dargestellten Objekte auf dem Display dann angezeigt oder anderweitig ausgegeben werden, wenn die Blickrichtung R ( O )
Figure DE102016120366A1_0101
auf das jeweilige Objekt ausgerichtet ist. Unter „anderweitig ausgegeben“ wird vorliegend insbesondere die Ausgabe von akustischen Informationen verstanden. Vorteilhaft verfügt die mobile Einheit hierzu über einen elektroakustischen Wandler.A preferred embodiment of the proposed mobile unit is characterized in that the image data provided at the interface BD 0 ( p i )
Figure DE102016120366A1_0098
for in the image data BD 0 ( p i )
Figure DE102016120366A1_0099
mapped objects contain attributes associated with them and the attributes for those in the image data BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0100
displayed objects on the display can then be displayed or otherwise output when the line of sight R ( O )
Figure DE102016120366A1_0101
is aligned to the respective object. In the present case, the term "otherwise spent" is understood in particular to mean the output of acoustic information. Advantageously, the mobile unit has this for an electro-acoustic transducer.

Die Attribute umfassen vorteilhaft: Textinformationen, Bildinformationen, akustische Informationen (Musik/Sprache), Live-Streaming Informationen und/oder Videoinformationen. Die Attribute können so bspw. die Art des Objekts beschreiben (beispielsweise Restaurant, Friseur, Museum, Kino etc.) und für die Objekte hinterlegte Bilder, Videos, Speisekarten, Werbung oder Kundenbewertungen umfassen. Vorteilhaft umfasst die mobile Einheit ein Eingabeinterface zur Aktivierung und zur Steuerung einer Ausgabe von Attributen. Für den Fachmann ergeben sich im Zusammenhang mit der Ausgabe von Attributen eine Vielzahl von möglichen Ausführungsformen und Anwendungen der mobilen Einheit, die allesamt vom Erfindungsgedanken umfasst sind.The attributes advantageously include: text information, image information, acoustic information (music / speech), live streaming information, and / or video information. For example, the attributes may describe the nature of the object (eg, restaurant, hairdresser, museum, cinema, etc.) and include images, videos, menus, advertisements, or customer reviews deposited with the objects. Advantageously, the mobile unit includes an input interface for activating and controlling an output of attributes. Persons skilled in the art will be aware of many possible embodiments and applications of the mobile unit associated with the output of attributes, all of which are within the spirit of the invention.

Die mobile Einheit ist vorteilhaft ein Smartphone oder ein Tablet-Computer oder ein Navigationssystem eines Fahrzeugs oder ein Infotainmentsystem eines Fahrzeugs.The mobile unit is advantageously a smartphone or a tablet computer or a navigation system of a vehicle or an infotainment system of a vehicle.

Ein weiterer Aspekt der Erfindung betrifft ein Verfahren zum Betrieb einer mobilen Einheit, die ein Display mit einer Displayfläche zur optischen Ausgabe von Informationen aufweist. Das vorgeschlagene Verfahren umfasst folgende Schritte. In einem ersten Schritt erfolgt ein Ermitteln der aktuellen Position P

Figure DE102016120366A1_0102
der mobilen Einheit. In einem zweiten Schritt erfolgt ein Ermitteln der aktuellen Orientierung O
Figure DE102016120366A1_0103
der Displayfläche, wobei relativ zur Displayfläche eine Blickrichtung R ( O )
Figure DE102016120366A1_0104
definiert ist. In einem dritten Schritt erfolgt für eine Vielzahl von Positionen p i
Figure DE102016120366A1_0105
ein Bereitstellen von georeferenzierten Bilddaten BD 0 ( p i )
Figure DE102016120366A1_0106
in denen jeweils eine Umgebung U ( p i )
Figure DE102016120366A1_0107
um die jeweiligen Positionen p i
Figure DE102016120366A1_0108
abgebildet ist. In einem vierten Schritt erfolgt auf Basis der Bilddaten BD 0 ( p i )
Figure DE102016120366A1_0109
für eine von P
Figure DE102016120366A1_0110
abhängige Position P s o l l = P s o l l ( P )
Figure DE102016120366A1_0111
und für die Blickrichtung R ( O )
Figure DE102016120366A1_0112
ein Ermitteln von Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )
Figure DE102016120366A1_0113
derart, dass in den Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )
Figure DE102016120366A1_0114
die Umgebung U ( P s o l l ( P ) )
Figure DE102016120366A1_0115
der Position P s o l l
Figure DE102016120366A1_0116
von P s o l l
Figure DE102016120366A1_0117
aus in Blickrichtung R ( O )
Figure DE102016120366A1_0118
abgebildet ist, wobei P s o l l ( P )
Figure DE102016120366A1_0119
vorgegeben ist. In einem fünften Schritt erfolgt ein Darstellen der Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )
Figure DE102016120366A1_0120
auf dem Display.Another aspect of the invention relates to a method of operating a mobile unit having a display with a display surface for optically outputting information. The proposed method comprises the following steps. In a first step, the current position is determined P
Figure DE102016120366A1_0102
the mobile unit. In a second step, the current orientation is determined O
Figure DE102016120366A1_0103
the display surface, wherein relative to the display surface a viewing direction R ( O )
Figure DE102016120366A1_0104
is defined. In a third step takes place for a variety of positions p i
Figure DE102016120366A1_0105
providing georeferenced image data BD 0 ( p i )
Figure DE102016120366A1_0106
in each case an environment U ( p i )
Figure DE102016120366A1_0107
around the respective positions p i
Figure DE102016120366A1_0108
is shown. In a fourth step, based on the image data BD 0 ( p i )
Figure DE102016120366A1_0109
for one of P
Figure DE102016120366A1_0110
dependent position P s O l l = P s O l l ( P )
Figure DE102016120366A1_0111
and for the line of sight R ( O )
Figure DE102016120366A1_0112
a determination of image data BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0113
such that in the image data BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0114
the environment U ( P s O l l ( P ) )
Figure DE102016120366A1_0115
the position P s O l l
Figure DE102016120366A1_0116
from P s O l l
Figure DE102016120366A1_0117
out in the direction R ( O )
Figure DE102016120366A1_0118
is shown, where P s O l l ( P )
Figure DE102016120366A1_0119
is predetermined. In a fifth step, the image data is displayed BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0120
on the display.

Vorteilhaft ist die Blickrichtung R ( O )

Figure DE102016120366A1_0121
als senkrecht auf der Displayfläche stehend definiert.The viewing direction is advantageous R ( O )
Figure DE102016120366A1_0121
defined as standing vertically on the display surface.

Vorteilhaft gilt: P s o l l ( P ) = P

Figure DE102016120366A1_0122
oder P s o l l ( P ) = P + D ,
Figure DE102016120366A1_0123
wobei der Vektor D
Figure DE102016120366A1_0124
vorgegeben ist.Advantageously: P s O l l ( P ) = P
Figure DE102016120366A1_0122
or P s O l l ( P ) = P + D .
Figure DE102016120366A1_0123
being the vector D
Figure DE102016120366A1_0124
is predetermined.

Eine Weiterbildung des vorgeschlagenen Verfahrens zeichnet sich dadurch aus, dass sofern für die Position P s o l l ( P )

Figure DE102016120366A1_0125
keine Bilddaten in BD 0 ( p i )
Figure DE102016120366A1_0126
vorliegen, d.h.: P s o l l ( P ) { p i }
Figure DE102016120366A1_0127
ist, Bilddaten BD 1 ( P s o l l * ( P ) = p i * , R ( O ) )
Figure DE102016120366A1_0128
auf Basis von Bilddaten BD 0 ( p i * )
Figure DE102016120366A1_0129
ermittelt werden, wobei p i *
Figure DE102016120366A1_0130
die zu P s o l l
Figure DE102016120366A1_0131
nächstliegende Position aus der Menge { p i }
Figure DE102016120366A1_0132
ist. Vorteilhaft wird die Differenz p i * P s o l l
Figure DE102016120366A1_0133
oder P s o l l p i *
Figure DE102016120366A1_0134
auf dem Display ausgegeben.A development of the proposed method is characterized by the fact that provided for the position P s O l l ( P )
Figure DE102016120366A1_0125
no image data in BD 0 ( p i )
Figure DE102016120366A1_0126
exist, ie: P s O l l ( P ) { p i }
Figure DE102016120366A1_0127
is, image data BD 1 ( P s O l l * ( P ) = p i * . R ( O ) )
Figure DE102016120366A1_0128
based on image data BD 0 ( p i * )
Figure DE102016120366A1_0129
be determined, where p i *
Figure DE102016120366A1_0130
the too P s O l l
Figure DE102016120366A1_0131
nearest position from the crowd { p i }
Figure DE102016120366A1_0132
is. The difference becomes advantageous p i * - P s O l l
Figure DE102016120366A1_0133
or P s O l l - p i *
Figure DE102016120366A1_0134
on the display.

Vorteilhaft umfassen die Bilddaten BD 0 ( p i )

Figure DE102016120366A1_0135
eine Vielzahl positionsabhängiger 360°-Bilddaten. In einer vorteilhaften Verfahrensvariante sind die Blickrichtung R ( O )
Figure DE102016120366A1_0136
und die Richtung einer senkrechten Aufsicht auf die Displayfläche identisch. In einer alternativen vorteilhaften Verfahrensvariante sind die Blickrichtung R ( O )
Figure DE102016120366A1_0137
und die Richtung einer senkrechten Aufsicht auf die Displayfläche entgegengesetzt. Vorteilhaft zeigen die Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )
Figure DE102016120366A1_0138
die Umgebung U ( P s o l l ( P ) )
Figure DE102016120366A1_0139
aus der Blickrichtung R ( O )
Figure DE102016120366A1_0140
mit einem variabel vorgebbaren Blickwinkel.Advantageously, the image data includes BD 0 ( p i )
Figure DE102016120366A1_0135
a variety of position-dependent 360 ° image data. In an advantageous variant of the method, the viewing direction R ( O )
Figure DE102016120366A1_0136
and the direction of a vertical view of the display surface is identical. In an alternative advantageous variant of the method, the viewing direction R ( O )
Figure DE102016120366A1_0137
and the direction of a vertical view of the display surface opposite. Advantageously show the image data BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0138
the environment U ( P s O l l ( P ) )
Figure DE102016120366A1_0139
from the perspective R ( O )
Figure DE102016120366A1_0140
with a variably definable angle.

In einer besonders bevorzugten Variante des vorgeschlagenen Verfahrens enthalten die bereitgestellten Bilddaten BD 0 ( p i )

Figure DE102016120366A1_0141
für in den Bilddaten BD0 ( p i )
Figure DE102016120366A1_0142
abgebildete Objekte zugeordnete Attribute, wobei die Attribute für die in den Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )
Figure DE102016120366A1_0143
dargestellten Objekte auf dem Display dann angezeigt werden, wenn die Blickrichtung R ( O )
Figure DE102016120366A1_0144
auf das jeweilige Objekt ausgerichtet ist.In a particularly preferred variant of the proposed method, the image data provided contain BD 0 ( p i )
Figure DE102016120366A1_0141
for in the image data BD0 ( p i )
Figure DE102016120366A1_0142
Attributes mapped to mapped objects, with the attributes for those in the image data BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0143
displayed objects on the display then appear when the line of sight R ( O )
Figure DE102016120366A1_0144
is aligned to the respective object.

Das vorgeschlagene Verfahren läuft vorteilhaft vollständig automatisiert ab, sodass ein Nutzer nach Aktivierung des Verfahrens und gegebenenfalls nach Vorgabe des Vektors D

Figure DE102016120366A1_0145
(der auch = 0 sein kann) lediglich seine mobile Einheit in eine bestimmte Lage (gleich Position und Orientierung) bringen muss, wobei die dadurch bestimmten Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )
Figure DE102016120366A1_0146
auf dem Display angezeigt werden.The proposed method advantageously runs completely automatically, so that a user after activation of the method and, where appropriate, after specification of the vector D
Figure DE102016120366A1_0145
(which can also be = 0) only has to bring its mobile unit into a certain position (same position and orientation), whereby the image data determined thereby BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0146
on the display.

Ein weiterer Aspekt der vorliegenden Erfindung betrifft ein Fahrzeug, insbesondere Kraftfahrzeug, Schienenfahrzeug, Wasserfahrzeug, Luftfahrzeug mit einer mobilen Einheit wie vorstehend beschrieben. Vorteilhaft ist das Display der mobilen Einheit mit dem Display eines Fahrzeugnavigationssystems oder eines Infotainmentsystems des Fahrzeugs identisch.Another aspect of the present invention relates to a vehicle, in particular motor vehicle, rail vehicle, watercraft, aircraft with a mobile unit as described above. The display of the mobile unit is advantageously identical to the display of a vehicle navigation system or an infotainment system of the vehicle.

Ein weiterer Aspekt der vorliegenden Erfindung betrifft ein Computersystem mit einer Datenverarbeitungsvorrichtung, wobei die Datenverarbeitungsvorrichtung derart ausgestaltet ist, dass ein Verfahren nach einem der vorhergehenden Ansprüche auf der Datenverarbeitungsvorrichtung ausgeführt wird.Another aspect of the present invention relates to a computer system having a data processing device, wherein the data processing device is configured such that a method according to one of the preceding claims is performed on the data processing device.

Ein weiterer Aspekt der vorliegenden Erfindung betrifft ein digitales Speichermedium mit elektronisch auslesbaren Steuersignalen, wobei die Steuersignale so mit einem programmierbaren Computersystem zusammenwirken können, dass ein Verfahren nach einem der vorhergehenden Ansprüche ausgeführt wird.Another aspect of the present invention relates to a digital storage medium having electronically readable control signals, wherein the control signals may interact with a programmable computer system such that a method according to any one of the preceding claims is performed.

Ein weiterer Aspekt der vorliegenden Erfindung betrifft ein Computer-Programm-Produkt mit auf einem maschinenlesbaren Träger gespeicherten Programmcode zur Durchführung des Verfahrens nach einem der vorhergehenden Ansprüche, wenn der Programmcode auf einer Datenverarbeitungsvorrichtung ausgeführt wird. Another aspect of the present invention relates to a computer program product having program code stored on a machine-readable medium for carrying out the method according to one of the preceding claims, when the program code is executed on a data processing device.

Ein weiterer Aspekt der vorliegenden Erfindung betrifft ein Computer-Programm oder eine APP mit Programmcodes zur Durchführung des Verfahrens nach einem der vorhergehenden Ansprüche, wenn das Programm auf einer Datenverarbeitungsvorrichtung abläuft. Dazu kann die Datenverarbeitungsvorrichtung als ein beliebiges aus dem Stand der Technik bekanntes Computersystem ausgestaltet sein.A further aspect of the present invention relates to a computer program or APP with program codes for carrying out the method according to one of the preceding claims, when the program runs on a data processing device. For this, the data processing device can be configured as any known from the prior art computer system.

Es werden im Folgenden einige Beispiele zur Verwendung der vorliegenden Erfindung angeführt. Dabei sei unterstellt, dass die mobile Einheit für die angegebenen Beispiele ein Smartphone ist.Some examples of the use of the present invention are given below. It is assumed that the mobile unit for the examples given is a smartphone.

Mit einer APP oder einer Online in einem Web-Browser ablaufenden Anwendung, die das erfindungsgemäße Verfahren realisiert, muss der Nutzer sein Smartphone nur noch vor sich in Blickrichtung halten, um auf dem Bildschirm automatisch die passenden Bildinformationen angezeigt zu bekommen. So ist es möglich, bei Dunkelheit oder schlechter Sicht, wie beispielsweise bei Nebel, komfortabel die eigene Umgebung zu sondieren. Dies unterstützt die eigene Orientierung und hilft, einen bestimmten Ort oder Details, wie bspw. Eine unbeleuchtete Eingangstüte an einem Ort zu finden. Die über die Schnittstelle bereitgestellten Bilddaten werden dabei automatisch in der gewünschten Ansicht (abhängig von der Orientierung der Displayfläche) angezeigt. Die mobile Einheit wird hierzu in die Richtung mit einer gewünschten Orientierung gehalten, in der eine Bildansicht gewünscht wird. Die mobile Einheit kann dabei ähnlich einer Nutzung eines Fernglases in verschiedene Richtungen Elevation und Azimut geschwenkt werden, um die Umgebung zu sondieren. Weiterhin vorteilhaft ist ein Zoomfaktor (Blickwinkel) und verschiedene andere Optionen, wie beispielsweise das Einblenden von Beschriftungen von auf dem Display dargestellten Objekten möglich.With an APP or an application running online in a web browser, which implements the method according to the invention, the user only has to hold his smartphone in front of him in order to automatically display the appropriate image information on the screen. Thus, it is possible in dark or poor visibility, such as in fog, comfortable to explore their own environment. This supports your own orientation and helps to find a specific location or details, such as an unlit entry-level bag in one place. The image data provided via the interface are automatically displayed in the desired view (depending on the orientation of the display area). For this purpose, the mobile unit is held in the direction with a desired orientation in which an image view is desired. The mobile unit can be pivoted in a variety of directions elevation and azimuth similar to a use of binoculars to probe the environment. Further advantageous is a zoom factor (angle of view) and various other options, such as the insertion of labels of objects displayed on the display possible.

Wird das Smartphone beispielsweise bei Bewölkung an ein Flugzeugfenster gehalten oder gar in Richtung Flugzeugunterseite gehalten, so wird ein Bild ( BD 1 ( P s o l l ( P ) , R ( O ) ) )

Figure DE102016120366A1_0147
des überflogenen Gebietes angezeigt. Der Nutzer kann dabei den Zoom-Faktor wählen und ein Übersichtsbild, bspw. von einer Satellitenaufnahme, ein höher aufgelöstes Luftbild oder ein Street View Bild von einer Straße angezeigt bekommen. Die mobile Einheit arbeitet daher ähnlich wie ein Fernglas mit Fadenkreuz, wobei sie vorzugsweise auf die in einer Cloud verfügbaren Datenbanken zugreift.If, for example, the smartphone is held against an aircraft window when it is cloudy, or if it is held in the direction of the underside of the aircraft, a picture will be taken ( BD 1 ( P s O l l ( P ) . R ( O ) ) )
Figure DE102016120366A1_0147
of the overflown area. The user can select the zoom factor and get an overview image, for example from a satellite image, a higher-resolution aerial image or a Street View image of a street. The mobile unit therefore operates in a manner similar to reticule-type binoculars, preferably accessing databases available in a cloud.

Steht ein Nutzer mit einer mobilen Einheit auf einer Straße ist es weiterhin möglich, durch verschiedene Entfernungsebenen zu klicken und auf diese Weise auch Umgebungsbilder von einer etwas entfernteren Position, beispielsweise eine Parallelstraße etc., angezeigt zu bekommen. Hierzu wird der Vektor D

Figure DE102016120366A1_0148
entsprechend vorgegeben oder automatisch entsprechend geändert, wie vorstehend beschrieben. Damit ist es möglich, auch hinter Gebäude zu blicken bzw. dahinterliegende Straßen zu betrachten. Richtet man das Smartphone mit seiner definierten Blickrichtung auf ein Restaurant oder ein Geschäft, können einem beispielsweise die vom Betreiber hinterlegten Bilder, Speisekarten, Werbung oder Kundenbewertungen angezeigt werden.If a user is standing on a street with a mobile unit, it is still possible to click through different levels of distance and in this way also display environment images from a somewhat more distant position, for example a parallel street etc. This is the vector D
Figure DE102016120366A1_0148
preset or automatically changed accordingly, as described above. This makes it possible to look behind buildings or to look behind the streets. If one directs the smartphone with its defined viewing direction to a restaurant or a shop, one can, for example, display the pictures, menus, advertisements or customer reviews deposited by the operator.

Befindet sich ein Nutzer des Smartphones in einem Fahrzeug oder einem Zug und möchte der Benutzer Bilder der aktuellen Umgebung in einer von ihm gewünschten Richtung angezeigt bekommen, ist dies mit einer erfindungsgemäßen mobilen Einheit ebenfalls möglich.If a user of the smartphone is in a vehicle or a train and if the user wishes to be shown images of the current environment in a desired direction, this is likewise possible with a mobile unit according to the invention.

Die vorgeschlagene erfindungsgemäße APP wird vorteilhaft immer dann eingesetzt, wenn die Sicht auf die lokale Umgebung eingeschränkt ist (beispielsweise bei Nacht, Nebel oder Regen), oder wenn sich Objekte zwischen dem Betrachter und der darzustellenden Umgebungsszene befinden, die die Sicht blockieren.The proposed APP according to the invention is advantageously used whenever the view of the local environment is restricted (for example at night, fog or rain) or when there are objects between the viewer and the surrounding scene to be displayed which block the view.

Ist der Nutzer der vorgeschlagenen mobilen Einheit beispielsweise mit einem Auto unterwegs und sucht er bei schlechter Sicht ein bestimmtes ihm vom Aussehen her bekanntes Gebäude, kann die APP genutzt werden, um automatisch und fortlaufend beispielsweise StreetView Bilder vom Straßenverlauf anzuzeigen, die unter optimalen Sichtbedingungen aufgenommen wurden.For example, if the user of the proposed mobile unit is traveling by car and is looking for a particular building known to him in bad visibility, the APP may be used to automatically and continuously display, for example, StreetView images of the road taken under optimal viewing conditions ,

Diese Funktion kann insbesondere vorteilhaft auch für ein Navigationsdisplay eines Fahrzeugs aktiviert werden. In diesem Fall ist die mobile Einheit im Fahrzeug verbaut und nutzt als Display das Navigationsdisplay. Der Nutzer kann dabei vorteilhaft auswählen, von welcher Straßenseite und unter welchem Elevationswinkel die Anzeige der StreetView Bilder (=Bilddaten) auf dem Navigationsdisplay des Fahrzeugs erscheinen sollen. Daraufhin wird bei Vorbeifahrt beispielsweise alle 2 Sekunden ein Bild des eingestellten Umgebungsausschnitts angezeigt. Die Bilddaten zur Erzeugung der angezeigten Bilder stammen vorteilhaft aus einem Archiv und geben die Ansicht bei optimalen Lichtverhältnissen wieder.This function can also be advantageously activated for a navigation display of a vehicle. In this case, the mobile unit is installed in the vehicle and uses the navigation display as a display. The user can advantageously choose from which side of the road and at which elevation angle the display of the StreetView images (= image data) should appear on the navigation display of the vehicle. When passing by, for example, an image of the selected environmental section is displayed every 2 seconds. The image data for generating the displayed images advantageously come from an archive and reflect the view in optimal lighting conditions.

Vorteilhaft ist das Display der mobilen Einheit eine Datenbrille, die zwei Displayflächen aufweist, eine für das linke Auge, eine andere für das rechte Auge. Da die Displayflächen fest mit der Datenbrille verbunden sind, lassen sich die Orientierungen der zwei Displayflächen leicht von einer bekannten Orientierung der Datenbrille ableiten. Die auf den Displayflächen angezeigten Umgebungsdaten zeigen bevorzugt Bilder einer Umgebung unter guten bis sehr guten Sichtbedingungen. Advantageously, the display of the mobile unit is a data glasses, which has two display surfaces, one for the left eye, another for the right eye. Since the display surfaces are firmly connected to the data glasses, the orientations of the two display surfaces can be easily derived from a known orientation of the data glasses. The environmental data displayed on the display surfaces preferably show images of an environment under good to very good viewing conditions.

Die vorgeschlagene mobile Einheit ermöglicht weiterhin die Darstellung von Umgebungen innerhalb von Gebäuden, Tunnelanlagen, etc. Dabei wird vorausgesetzt, dass über die Schnittstelle entsprechende Bildinhalte über Umgebungen innerhalb von geschlossenen Räumen/Gebäuden bereitgestellt werden. Weiterhin wird vorausgesetzt, dass durch eine entsprechende Indoor-Navigation die aktuelle Position P der mobilen Einheit durch das erste Mittel möglich ist. Entsprechende Indoor-Navigationsverfahren sind im Stand der Technik bekannt. Bei Notfalleinsätzen muss beispielsweise die Polizei oder die Feuerwehr nicht mehr die Gebäudepläne vorab sichten, sondern kann mit der APP vor Ort das Gebäude in allen Richtungen angezeigt bekommen, sofern entsprechendes Bildmaterial an der Schnittstelle bereitgestellt wird.The proposed mobile unit further enables the representation of environments within buildings, tunnels, etc. It is assumed that corresponding image contents are provided via the interface over environments within enclosed spaces / buildings. Furthermore, it is assumed that the current position P of the mobile unit by the first means is possible by a corresponding indoor navigation. Corresponding indoor navigation methods are known in the art. In emergency operations, for example, the police or the fire brigade no longer have to preview the building plans in advance, but can see the building in all directions with the APP on site, provided appropriate footage is provided at the interface.

Die vorgeschlagene APP ermöglicht weiterhin das intuitive Navigieren in Baumärkten, Lebensmittelgeschäften, etc., indem die von der aktuellen Position P der mobilen Einheit abhängige Umgebungsansicht auf dem Smartphone angezeigt wird, wobei durch Einblenden der Attribute oder dem Vorhandensein einer Suchfunktion für bestimmte Artikel im Baumarkt ein bestimmter Weg gewiesen werden kann.The proposed APP also allows for intuitive navigation in hardware stores, grocery stores, etc. by displaying the environment view dependent on the current position P of the mobile unit on the smartphone, by fading in the attributes or the presence of a search feature for particular items in the hardware store certain way can be shown.

Die vorgeschlagene APP ermöglicht beispielsweise einem Nutzer, der mit seinem Smartphone in der U-Bahn fährt, für seine auf die Erdoberfläche projizierte Position Umgebungsbilder und/oder Zwischengeschosse sowie Netzdaten verschiedener Gewerke, z.B. Gas- oder Fernwärmeleitungsnetz anzusehen.For example, the proposed APP allows a user traveling with their smartphone in the subway to display environmental images and / or mezzanines and network data of various trades, e.g. Gas or district heating network.

Vorteilhaft erfolgt durch die mobile Einheit eine Prädiktion einer weiteren Bewegung der mobilen Einheit, das heißt, es wird eine zukünftige Orts-Trajektorie prädiziert. Um den Datenverkehr über die Schnittstelle möglichst zu verteilen bzw. gering zu halten, werden auf Basis der prädizierten Orts-Trajektorie vorausschauend entsprechende zugehörige Bilddaten BD 0 * ( p i )

Figure DE102016120366A1_0149
in einen Zwischenspeicher der mobilen Einheit geladen. Dies reduziert die Latenzzeiten und ermöglicht ein Koppeln der auf dem Display gezeigten Szene (Bildansicht) mit der aktuellen Blickrichtung in Echtzeit.Advantageously, the mobile unit predicts a further movement of the mobile unit, that is to say it predicts a future location trajectory. In order to distribute or minimize the data traffic via the interface as far as possible, corresponding predefined image data are predicted on the basis of the predicted location trajectory BD 0 * ( p i )
Figure DE102016120366A1_0149
loaded into a cache of the mobile unit. This reduces the latency and allows coupling the scene shown on the display (image view) with the current viewing direction in real time.

Verfügt die mobile Einheit über eine eigene Kamera, so kann es für einige Anwendungen vorteilhaft sein, die ermittelten Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )

Figure DE102016120366A1_0150
mit dem Kamerabild zur Deckung zu bringen. Da die den Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )
Figure DE102016120366A1_0151
zugrunde liegenden Bilddaten BD 0 ( p i )
Figure DE102016120366A1_0152
typischerweise von diskreten Positionen aufgenommen wurden, die nicht mit der aktuellen Position der mobilen Einheit übereinstimmen müssen, kann eine Umrechnung der Bilder auf die aktuelle perspektivische Ansicht nötig sein. Eine gute Passung zwischen Kamerabild und den ermittelten Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )
Figure DE102016120366A1_0153
ermöglicht eine automatische Erkennung von Bildunterschieden (englisch „change detetion“). Mit dieser Funktion können Änderungen in der Bebauung, des Straßeninventars oder der Vegetation automatisch erkannt und bildlich hervorgehoben werden. In Räumen können so auch automatisch fehlende Gegenstände erkannt und bildlich hervorgehoben werden.If the mobile unit has its own camera, it may be advantageous for some applications to obtain the image data determined BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0150
to bring to coincidence with the camera image. Because the image data BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0151
underlying image data BD 0 ( p i )
Figure DE102016120366A1_0152
typically taken from discrete positions that do not have to match the current position of the mobile unit, it may be necessary to convert the images to the current perspective view. A good fit between camera image and the determined image data BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0153
allows automatic detection of image differences (English "change detetion"). With this function, changes in the development, the road inventory or the vegetation can be automatically detected and highlighted. In rooms so also missing missing objects can be recognized and highlighted.

Ein Nutzer eines Smartphones weiß oft nur ungenau, wo sich in seiner Umgebung interessante Objekte befinden. Um diese automatisch angezeigt zu bekommen, ist es sinnvoll, wenn er zunächst über eine entsprechende Eingabe in das Smartphone eine Vorauswahl für das gewünschte Thema trifft, zum Beispiel Restaurants, touristische Attraktionen, historische Orte, Baudenkmäler, Drehorte von Filmen, Webcams, Videos von Sportübertragungen etc. Der Nutzer stellt das Smartphone dann auf Weitwinkel und das Smartphone erkennt automatisch entsprechende Objekte in den dargestellten Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )

Figure DE102016120366A1_0154
und das Smartphone hebt diese Objekte in der Darstellung vorteilhaft auf dem Display optisch hervor. Vorteilhaft werden zusätzlich Attribut-Informationen (Bilder, Daten, Icons etc.) zu den jeweiligen Objekten je nach Einstellung ausgegeben. Durch ein auf dem Display eingeblendetes Fadenkreuz kann das Smartphone nun derart in seiner Lage verändert werden, dass die Mitte des Fadenkreuzes auf ein bestimmtes in den dargestellten Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )
Figure DE102016120366A1_0155
abgebildetes Objekt zeigt. Dan können gezielt vorhandene Attribut-Informationen zu diesem Objekt ausgegeben werden. Optische Attribut-Informationen werden auf dem Display akustische Attribut-Informationen werden durch einen im Smartphone vorhandenen Lautsprecher (elektroakustischen Wandler) ausgegeben. Hält man das Smartphone beispielsweise auf ein Fußballstadion, so würde man bspw. eine aktuelle Fernsehübertragung oder auf Wunsch auch historische Aufnahmen angezeigt bekommen.A user of a smartphone often knows only vaguely, where in his environment interesting objects are. In order to get these automatically displayed, it makes sense to first make a pre-selection for the desired topic via a corresponding entry in the smartphone, for example restaurants, tourist attractions, historical sites, architectural monuments, movie locations, webcams, videos of sports broadcasts etc. The user then sets the smartphone to wide-angle and the smartphone automatically detects corresponding objects in the displayed image data BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0154
and the smartphone visually highlights these objects in the display. Advantageously, additional attribute information (images, data, icons, etc.) are output to the respective objects depending on the setting. By means of a crosshair displayed on the display, the smartphone can now be changed in its position in such a way that the center of the crosshair points to a specific one in the displayed image data BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0155
shown object shows. It is possible to output specific attribute information for this object. Optical attribute information is displayed on the display. Acoustic attribute information is output through a speaker (electroacoustic transducer) provided in the smartphone. If you hold the smartphone, for example, on a football stadium, so you would, for example, get a current television broadcast or on request also historical recordings.

Weitere Vorteile, Merkmale und Einzelheiten ergeben sich aus der nachfolgenden Beschreibung, in der - gegebenenfalls unter Bezug auf die Zeichnung - zumindest ein Ausführungsbeispiel im Einzelnen beschrieben ist. Gleiche, ähnliche und/oder funktionsgleiche Teile sind mit gleichen Bezugszeichen versehen.Further advantages, features and details will become apparent from the following description in which - where appropriate, with reference to the drawings - at least one embodiment is described in detail. The same, similar and / or functionally identical parts are provided with the same reference numerals.

Es zeigen:

  • 1 einen schematisierten Aufbau einer erfindungsgemäßen mobilen Einheit,
  • 2 ein Ablaufschema eines erfindungsgemäßen Verfahrens.
Show it:
  • 1 a schematic structure of a mobile unit according to the invention,
  • 2 a flow chart of a method according to the invention.

1 zeigt einen schematisierten Aufbau einer erfindungsgemäßen mobilen Einheit, vorliegend eines Smartphones, umfassend: ein Display 101 mit einer Displayfläche zur optischen Ausgabe von Informationen; ein erstes Mittel 102 zur Ermittlung der aktuellen Position P

Figure DE102016120366A1_0156
der mobilen Einheit, vorliegend eine GPS-Einheit; und ein zweites Mittel 103 zur Ermittlung der aktuellen Orientierung O
Figure DE102016120366A1_0157
der Displayfläche, vorliegend einen drei Achsenlagesensor, wobei relativ zur Displayfläche eine Blickrichtung R ( O )
Figure DE102016120366A1_0158
definiert ist. 1 shows a schematic structure of a mobile unit according to the invention, in this case a smartphone, comprising: a display 101 with a display surface for optically outputting information; a first remedy 102 to determine the current position P
Figure DE102016120366A1_0156
the mobile unit, in this case a GPS unit; and a second means 103 to determine the current orientation O
Figure DE102016120366A1_0157
the display surface, in this case a three-axis position sensor, wherein a viewing direction relative to the display surface R ( O )
Figure DE102016120366A1_0158
is defined.

Die Blickrichtung R ( O )

Figure DE102016120366A1_0159
verläuft vorliegend in Richtung einer senkrechten Aufsicht auf die Displayfläche. Der die Blickrichtung R ( O )
Figure DE102016120366A1_0160
repräsentierende Strahl steht somit senkrecht auf der Displayfläche, „durchstößt“ die Displayfläche mittig und verlässt die Rückseite der Displayfläche.The direction of view R ( O )
Figure DE102016120366A1_0159
in this case runs in the direction of a vertical plan view of the display surface. The direction of view R ( O )
Figure DE102016120366A1_0160
thus representing beam is perpendicular to the display surface, "pierces" the display area in the middle and leaves the back of the display surface.

Die mobile Einheit umfasst weiterhin eine Daten-Schnittstelle 104, an der für eine Vielzahl von Positionen p i

Figure DE102016120366A1_0161
georeferenzierte Bilddaten BD 0 ( p i )
Figure DE102016120366A1_0162
bereitgestellt werden, in denen jeweils eine Umgebung U ( p i )
Figure DE102016120366A1_0163
um die jeweiligen Positionen p i
Figure DE102016120366A1_0164
abgebildet ist. Vorliegend sind dies sogenannte StreetView Bilddaten, in denen eine 360° Umgebungsaufnahme für alle 2 m eines Straßenverkehrswegenetzes vorliegt. Weiterhin umfassen die an der Schnittstelle bereitgestellten Bilddaten BD 0 ( p i )
Figure DE102016120366A1_0165
Bilddaten, in denen eine 360° Umgebungsaufnahme für alle 2 m oder 5 m oder 10 m voneinander beabstandeten Positionen innerhalb öffentlich zugänglicher Gebäude enthalten sind. Weiterhin umfassen die an der Schnittstelle bereit gestellten Bilddaten BD 0 ( p i )
Figure DE102016120366A1_0166
Satellitenaufnahmen der Erdoberfläche sowie hochaufgelöste Luftbildaufnahmen der Erdoberfläche.The mobile unit further comprises a data interface 104 , for a variety of positions p i
Figure DE102016120366A1_0161
georeferenced image data BD 0 ( p i )
Figure DE102016120366A1_0162
be provided, each containing an environment U ( p i )
Figure DE102016120366A1_0163
around the respective positions p i
Figure DE102016120366A1_0164
is shown. In the present case, these are so-called StreetView image data in which a 360 ° environmental image is available for every 2 m of a road network. Furthermore, the image data provided at the interface include BD 0 ( p i )
Figure DE102016120366A1_0165
Image data that contains a 360 ° environmental image for all 2 m or 5 m or 10 m spaced locations within publicly accessible buildings. Furthermore, the image data provided at the interface include BD 0 ( p i )
Figure DE102016120366A1_0166
Satellite images of the earth's surface and high-resolution aerial photographs of the earth's surface.

Schließlich umfassen die an der Schnittstelle bereitgestellten Bilddaten BD 0 ( p i )

Figure DE102016120366A1_0167
Attribute für die in den jeweiligen Bilddaten dargestellten Objekte. Die Attribute geben vorliegend die Namen und Arten der Objekte an. Beispielsweise: „Chinesisches Restaurant „Goldene Ente““.Finally, the image data provided at the interface includes BD 0 ( p i )
Figure DE102016120366A1_0167
Attributes for the objects displayed in the respective image data. In the present case, the attributes indicate the names and types of the objects. For example: "Chinese restaurant" Golden duck "".

Die mobile Einheit umfasst weiterhin ein drittes Mittel 105, das auf Basis der Bilddaten BD 0 ( p i )

Figure DE102016120366A1_0168
für eine von P
Figure DE102016120366A1_0169
abhängige Position P s o l l = P s o l l ( P )
Figure DE102016120366A1_0170
und für die Blickrichtung R ( O )
Figure DE102016120366A1_0171
Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )
Figure DE102016120366A1_0172
derart ermittelt, dass in den Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )
Figure DE102016120366A1_0173
die Umgebung U ( P s o l l ( P ) )
Figure DE102016120366A1_0174
der Position P s o l l
Figure DE102016120366A1_0175
von P s o l l
Figure DE102016120366A1_0176
aus in Blickrichtung R ( O )
Figure DE102016120366A1_0177
abgebildet ist, wobei P s o l l ( P )
Figure DE102016120366A1_0178
vorgegeben ist.The mobile unit also includes a third agent 105 based on the image data BD 0 ( p i )
Figure DE102016120366A1_0168
for one of P
Figure DE102016120366A1_0169
dependent position P s O l l = P s O l l ( P )
Figure DE102016120366A1_0170
and for the line of sight R ( O )
Figure DE102016120366A1_0171
image data BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0172
determined such that in the image data BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0173
the environment U ( P s O l l ( P ) )
Figure DE102016120366A1_0174
the position P s O l l
Figure DE102016120366A1_0175
from P s O l l
Figure DE102016120366A1_0176
out in the direction R ( O )
Figure DE102016120366A1_0177
is shown, where P s O l l ( P )
Figure DE102016120366A1_0178
is predetermined.

Die mobile Einheit umfasst weiterhin eine Eingabeschnittstelle (vorliegend der Touch Screen des Smartphones), mittels der ein Vektor D

Figure DE102016120366A1_0179
definierbar ist, wobei gilt: P s o l l ( P ) = P
Figure DE102016120366A1_0180
+ D .
Figure DE102016120366A1_0181
Die Eingabeschnittstelle ist mit der Datenschnittstelle verbunden und prüft, ob für die Position P s o l l ( P )
Figure DE102016120366A1_0182
Bilddaten BD 0 ( p i = P s o l l ( P ) )
Figure DE102016120366A1_0183
verfügbar sind. Ist dies nicht der Fall, d.h.: P s o l l ( P ) { p i } ,
Figure DE102016120366A1_0184
so wird an der Eingabeschnittstelle der Vektor D
Figure DE102016120366A1_0185
automatisch derart in einen Vektor D
Figure DE102016120366A1_0186
geändert, dass Bilddaten BD 0 ( p i * )
Figure DE102016120366A1_0187
ermittelt werden, wobei p i *
Figure DE102016120366A1_0188
die zu P s o l l
Figure DE102016120366A1_0189
nächstliegende Position aus der Menge { p i }
Figure DE102016120366A1_0190
ist. Schließlich werden die ermittelten Bilddaten BD 1 ( P s o l l * ( P ) = p i * , R ( O ) )
Figure DE102016120366A1_0191
auf dem Display dargestellt. An der Eingabeschnittstelle wird der geänderte Vektor D
Figure DE102016120366A1_0192
angezeigt.The mobile unit further comprises an input interface (in the present case the touch screen of the smartphone), by means of which a vector D
Figure DE102016120366A1_0179
is definable, where: P s O l l ( P ) = P
Figure DE102016120366A1_0180
+ D ,
Figure DE102016120366A1_0181
The input interface is connected to the data interface and checks for position P s O l l ( P )
Figure DE102016120366A1_0182
image data BD 0 ( p i = P s O l l ( P ) )
Figure DE102016120366A1_0183
Are available. If this is not the case, ie: P s O l l ( P ) { p i } .
Figure DE102016120366A1_0184
so the vector will be at the input interface D
Figure DE102016120366A1_0185
automatically into a vector like this D *
Figure DE102016120366A1_0186
changed that image data BD 0 ( p i * )
Figure DE102016120366A1_0187
be determined, where p i *
Figure DE102016120366A1_0188
the too P s O l l
Figure DE102016120366A1_0189
nearest position from the crowd { p i }
Figure DE102016120366A1_0190
is. Finally, the determined image data BD 1 ( P s O l l * ( P ) = p i * . R ( O ) )
Figure DE102016120366A1_0191
shown on the display. At the input interface becomes the changed vector D *
Figure DE102016120366A1_0192
displayed.

2 zeigt ein Ablaufschema eines erfindungsgemäßen Verfahrens zum Betrieb einer mobilen Einheit, die ein Display mit einer Displayfläche zur optischen Ausgabe von Informationen aufweist, mit folgenden Schritten: Ermitteln 201 der aktuellen Position P

Figure DE102016120366A1_0193
der mobilen Einheit, Ermitteln 202 der aktuellen Orientierung O
Figure DE102016120366A1_0194
der Displayfläche, wobei relativ zur Displayfläche eine Blickrichtung R ( O )
Figure DE102016120366A1_0195
definiert ist, für eine Vielzahl von Positionen p i ,
Figure DE102016120366A1_0196
Bereitstellen 203 von georeferenzierte Bilddaten BD 0 ( p i ) ,
Figure DE102016120366A1_0197
in denen jeweils eine Umgebung U ( p i )
Figure DE102016120366A1_0198
um die jeweiligen Positionen p i
Figure DE102016120366A1_0199
abgebildet ist, auf Basis der Bilddaten BD 0 ( p i )
Figure DE102016120366A1_0200
für eine von P
Figure DE102016120366A1_0201
abhängige Position P s o l l ( P ) = P
Figure DE102016120366A1_0202
und für die Blickrichtung R ( O ) ,
Figure DE102016120366A1_0203
Ermitteln 204 von Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )
Figure DE102016120366A1_0204
derart, dass in den Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )
Figure DE102016120366A1_0205
die Umgebung U ( P s o l l ( P ) )
Figure DE102016120366A1_0206
der Position P s o l l
Figure DE102016120366A1_0207
von P s o l l
Figure DE102016120366A1_0208
aus in Blickrichtung R ( O )
Figure DE102016120366A1_0209
abgebildet ist, wobei P s o l l ( P )
Figure DE102016120366A1_0210
vorgegeben ist, und Darstellen 205 der Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )
Figure DE102016120366A1_0211
auf dem Display. 2 1 shows a flowchart of a method according to the invention for operating a mobile unit, which has a display with a display surface for optically outputting information, with the following steps: determining 201 the current position P
Figure DE102016120366A1_0193
the mobile unit, determining 202 the current orientation O
Figure DE102016120366A1_0194
the display surface, wherein relative to the display surface a viewing direction R ( O )
Figure DE102016120366A1_0195
is defined for a variety of positions p i .
Figure DE102016120366A1_0196
Provide 203 of georeferenced image data BD 0 ( p i ) .
Figure DE102016120366A1_0197
in each case an environment U ( p i )
Figure DE102016120366A1_0198
around the respective positions p i
Figure DE102016120366A1_0199
is shown based on the image data BD 0 ( p i )
Figure DE102016120366A1_0200
for one of P
Figure DE102016120366A1_0201
dependent position P s O l l ( P ) = P
Figure DE102016120366A1_0202
and for the line of sight R ( O ) .
Figure DE102016120366A1_0203
Determining 204 of image data BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0204
such that in the image data BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0205
the environment U ( P s O l l ( P ) )
Figure DE102016120366A1_0206
the position P s O l l
Figure DE102016120366A1_0207
from P s O l l
Figure DE102016120366A1_0208
out in the direction R ( O )
Figure DE102016120366A1_0209
is shown, where P s O l l ( P )
Figure DE102016120366A1_0210
and representing 205 the image data BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0211
on the display.

Obwohl die Erfindung im Detail durch bevorzugte Ausführungsbeispiele näher illustriert und erläutert wurde, so ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt und andere Variationen können vom Fachmann hieraus abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen. Es ist daher klar, dass eine Vielzahl von Variationsmöglichkeiten existiert. Es ist ebenfalls klar, dass beispielhaft genannte Ausführungsformen wirklich nur Beispiele darstellen, die nicht in irgendeiner Weise als Begrenzung etwa des Schutzbereichs, der Anwendungsmöglichkeiten oder der Konfiguration der Erfindung aufzufassen sind. Vielmehr versetzen die vorhergehende Beschreibung und die Figurenbeschreibung den Fachmann in die Lage, die beispielhaften Ausführungsformen konkret umzusetzen, wobei der Fachmann in Kenntnis des offenbarten Erfindungsgedankens vielfältige Änderungen beispielsweise hinsichtlich der Funktion oder der Anordnung einzelner, in einer beispielhaften Ausführungsform genannter Elemente vornehmen kann, ohne den Schutzbereich zu verlassen, der durch die Ansprüche und deren rechtliche Entsprechungen, wie etwa weitergehenden Erläuterungen in der Beschreibung, definiert wird.Although the invention has been further illustrated and explained in detail by way of preferred embodiments, the invention is not limited by the disclosed examples, and other variations can be derived therefrom by those skilled in the art without departing from the scope of the invention. It is therefore clear that a multitude of possible variations exists. It is also to be understood that exemplified embodiments are really only examples that are not to be construed in any way as limiting the scope, applicability, or configuration of the invention. Rather, the foregoing description and description of the figures enable one skilled in the art to practice the exemplary embodiments, and those of skill in the knowledge of the disclosed inventive concept may make various changes, for example, to the operation or arrangement of particular elements recited in an exemplary embodiment, without Protection area defined by the claims and their legal equivalents, such as further explanations in the description.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

101101
Displaydisplay
102102
erstes Mittelfirst means
103103
zweites Mittelsecond means
104104
Schnittstelleinterface
105105
drittes Mittelthird means
201-205201-205
Verfahrensschrittesteps

Claims (10)

Mobile Einheit, umfassend: - ein Display (101) mit einer Displayfläche zur optischen Ausgabe von Informationen, - ein erstes Mittel (102) zur Ermittlung der aktuellen Position P
Figure DE102016120366A1_0212
der mobilen Einheit, - ein zweites Mittel (103) zur Ermittlung der aktuellen Orientierung O
Figure DE102016120366A1_0213
der Displayfläche, wobei relativ zur Displayfläche eine Blickrichtung R ( O )
Figure DE102016120366A1_0214
definiert ist, - eine Schnittstelle (104), an der für eine Vielzahl von Positionen p i
Figure DE102016120366A1_0215
georeferenzierte Bilddaten BD 0 ( p i )
Figure DE102016120366A1_0216
bereitgestellt werden, in denen jeweils eine Umgebung U ( p i )
Figure DE102016120366A1_0217
um die jeweiligen Positionen p i
Figure DE102016120366A1_0218
abgebildet ist, und - ein drittes Mittel (105), das auf Basis der Bilddaten BD 0 ( p i )
Figure DE102016120366A1_0219
für eine von P
Figure DE102016120366A1_0220
abhängige Position P s o l l = P s o l l ( P )
Figure DE102016120366A1_0221
und für die Blickrichtung R ( O )
Figure DE102016120366A1_0222
Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )
Figure DE102016120366A1_0223
derart ermittelt, dass in den Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )
Figure DE102016120366A1_0224
die Umgebung U ( P s o l l ( P ) )
Figure DE102016120366A1_0225
der Position P s o l l
Figure DE102016120366A1_0226
von P s o l l
Figure DE102016120366A1_0227
aus in Blickrichtung R ( O )
Figure DE102016120366A1_0228
abgebildet ist, wobei P s o l l ( P )
Figure DE102016120366A1_0229
vorgegeben ist und wobei die ermittelten Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )
Figure DE102016120366A1_0230
auf dem Display dargestellt werden.
Mobile unit, comprising: - a display (101) having a display surface for optically outputting information, - a first means (102) for determining the current position P
Figure DE102016120366A1_0212
the mobile unit, - a second means (103) for determining the current orientation O
Figure DE102016120366A1_0213
the display surface, wherein relative to the display surface a viewing direction R ( O )
Figure DE102016120366A1_0214
is defined, - an interface (104), at the for a variety of positions p i
Figure DE102016120366A1_0215
georeferenced image data BD 0 ( p i )
Figure DE102016120366A1_0216
be provided, each containing an environment U ( p i )
Figure DE102016120366A1_0217
around the respective positions p i
Figure DE102016120366A1_0218
and a third means (105) based on the image data BD 0 ( p i )
Figure DE102016120366A1_0219
for one of P
Figure DE102016120366A1_0220
dependent position P s O l l = P s O l l ( P )
Figure DE102016120366A1_0221
and for the line of sight R ( O )
Figure DE102016120366A1_0222
image data BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0223
determined such that in the image data BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0224
the environment U ( P s O l l ( P ) )
Figure DE102016120366A1_0225
the position P s O l l
Figure DE102016120366A1_0226
from P s O l l
Figure DE102016120366A1_0227
out in the direction R ( O )
Figure DE102016120366A1_0228
is shown, where P s O l l ( P )
Figure DE102016120366A1_0229
is predetermined and wherein the determined image data BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0230
be shown on the display.
Mobile Einheit nach Anspruch 1, bei der gilt: P s o l l ( P ) = P .
Figure DE102016120366A1_0231
Mobile unit after Claim 1 in which: P s O l l ( P ) = P ,
Figure DE102016120366A1_0231
Mobile Einheit nach Anspruch 1 oder 2, weiterhin umfassend eine Eingabeschnittstelle, mittels der ein Vektor D
Figure DE102016120366A1_0232
definierbar ist, wobei gilt: P s o l l ( P ) = P + D .
Figure DE102016120366A1_0233
Mobile unit after Claim 1 or 2 , further comprising an input interface by means of a vector D
Figure DE102016120366A1_0232
is definable, where: P s O l l ( P ) = P + D ,
Figure DE102016120366A1_0233
Mobile Einheit nach einem der Ansprüche 1 bis 3, bei der das dritte Mittel (105), sofern für die Position P s o l l ( P )
Figure DE102016120366A1_0234
keine Bilddaten in BD 0 ( p i )
Figure DE102016120366A1_0235
vorliegen, d.h.: P s o l l ( P ) { p i } ,
Figure DE102016120366A1_0236
die Bilddaten BD 1 ( P s o l l * ( P ) = p i * , R ( O ) )
Figure DE102016120366A1_0237
auf Basis von Bilddaten BD 0 ( p i * )
Figure DE102016120366A1_0238
ermittelt, wobei p i *
Figure DE102016120366A1_0239
die zu P s o l l
Figure DE102016120366A1_0240
nächstliegende Position aus der Menge { p i }
Figure DE102016120366A1_0241
ist.
Mobile unit after one of the Claims 1 to 3 in which the third means (105), if for the position P s O l l ( P )
Figure DE102016120366A1_0234
no image data in BD 0 ( p i )
Figure DE102016120366A1_0235
exist, ie: P s O l l ( P ) { p i } .
Figure DE102016120366A1_0236
the image data BD 1 ( P s O l l * ( P ) = p i * . R ( O ) )
Figure DE102016120366A1_0237
based on image data BD 0 ( p i * )
Figure DE102016120366A1_0238
determined, where p i *
Figure DE102016120366A1_0239
the too P s O l l
Figure DE102016120366A1_0240
nearest position from the crowd { p i }
Figure DE102016120366A1_0241
is.
Mobile Einheit nach einem der Ansprüche 1 bis 4, bei der die an der Schnittstelle bereitgestellten Bilddaten BD 0 ( p i )
Figure DE102016120366A1_0242
für in den Bilddaten BD 0 ( p i )
Figure DE102016120366A1_0243
abgebildete Objekte zugeordnete Attribute enthalten und die Attribute für die in den Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )
Figure DE102016120366A1_0244
dargestellten Objekte ausgegeben werden, wenn die Blickrichtung R ( O )
Figure DE102016120366A1_0245
auf das jeweilige Objekt ausgerichtet ist.
Mobile unit after one of the Claims 1 to 4 in which the image data provided at the interface BD 0 ( p i )
Figure DE102016120366A1_0242
for in the image data BD 0 ( p i )
Figure DE102016120366A1_0243
mapped objects contain attributes associated with them and the attributes for those in the image data BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0244
displayed objects are output when the line of sight R ( O )
Figure DE102016120366A1_0245
is aligned to the respective object.
Verfahren zum Betrieb einer mobilen Einheit, die ein Display mit einer Displayfläche zur optischen Ausgabe von Informationen aufweist, mit folgenden Schritten: - Ermitteln (201) der aktuellen Position P
Figure DE102016120366A1_0246
der mobilen Einheit, - Ermitteln (202) der aktuellen Orientierung O
Figure DE102016120366A1_0247
der Displayfläche, wobei relativ zur Displayfläche eine Blickrichtung R ( O )
Figure DE102016120366A1_0248
definiert ist, - für eine Vielzahl von Positionen p i
Figure DE102016120366A1_0249
Bereitstellen (203) von georeferenzierten Bilddaten BD 0 ( p i ) ,
Figure DE102016120366A1_0250
in denen jeweils eine Umgebung U ( p i )
Figure DE102016120366A1_0251
um die jeweiligen Positionen p i
Figure DE102016120366A1_0252
abgebildet ist, - auf Basis der Bilddaten BD 0 ( p i )
Figure DE102016120366A1_0253
für eine von P
Figure DE102016120366A1_0254
abhängige Position P s o l l =
Figure DE102016120366A1_0255
P s o l l ( P )
Figure DE102016120366A1_0256
und für die Blickrichtung R ( O )
Figure DE102016120366A1_0257
Ermitteln (204) von Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )
Figure DE102016120366A1_0258
derart, dass in den Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )
Figure DE102016120366A1_0259
die Umgebung U ( P s o l l ( P ) )
Figure DE102016120366A1_0260
der Position P s o l l
Figure DE102016120366A1_0261
von P s o l l
Figure DE102016120366A1_0262
aus in Blickrichtung R ( O )
Figure DE102016120366A1_0263
abgebildet ist, wobei P s o l l ( P )
Figure DE102016120366A1_0264
vorgegeben ist, und - Darstellen (205) der Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )
Figure DE102016120366A1_0265
auf dem Display.
A method of operating a mobile unit having a display with a display surface for optically outputting information, comprising the steps of: - determining (201) the current position P
Figure DE102016120366A1_0246
the mobile unit, - determining (202) the current orientation O
Figure DE102016120366A1_0247
the display surface, wherein relative to the display surface a viewing direction R ( O )
Figure DE102016120366A1_0248
is defined - for a variety of positions p i
Figure DE102016120366A1_0249
Providing (203) georeferenced image data BD 0 ( p i ) .
Figure DE102016120366A1_0250
in each case an environment U ( p i )
Figure DE102016120366A1_0251
around the respective positions p i
Figure DE102016120366A1_0252
is shown, - based on the image data BD 0 ( p i )
Figure DE102016120366A1_0253
for one of P
Figure DE102016120366A1_0254
dependent position P s O l l =
Figure DE102016120366A1_0255
P s O l l ( P )
Figure DE102016120366A1_0256
and for the line of sight R ( O )
Figure DE102016120366A1_0257
Determining (204) image data BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0258
such that in the image data BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0259
the environment U ( P s O l l ( P ) )
Figure DE102016120366A1_0260
the position P s O l l
Figure DE102016120366A1_0261
from P s O l l
Figure DE102016120366A1_0262
out in the direction R ( O )
Figure DE102016120366A1_0263
is shown, where P s O l l ( P )
Figure DE102016120366A1_0264
is predetermined, and - representing (205) the image data BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0265
on the display.
Verfahren nach Anspruch 6, bei dem ein Vektor D
Figure DE102016120366A1_0266
vorgebbar ist, wobei gilt: P s o l l ( P ) = P + D ,
Figure DE102016120366A1_0267
und sofern für die Position P s o l l ( P )
Figure DE102016120366A1_0268
keine Bilddaten in BD 0 ( p i )
Figure DE102016120366A1_0269
vorliegen, d.h.: P s o l l ( P ) { p i } ,
Figure DE102016120366A1_0270
die Bilddaten BD 1 ( P s o l l * ( P ) = p i * , R ( O ) )
Figure DE102016120366A1_0271
auf Basis von Bilddaten BD 0 ( p i * )
Figure DE102016120366A1_0272
ermittelt werden, wobei p i *
Figure DE102016120366A1_0273
die zu P s o l l
Figure DE102016120366A1_0274
nächstliegende Position aus der Menge { p i }
Figure DE102016120366A1_0275
ist.
Method according to Claim 6 in which a vector D
Figure DE102016120366A1_0266
can be specified, where: P s O l l ( P ) = P + D .
Figure DE102016120366A1_0267
and provided for the position P s O l l ( P )
Figure DE102016120366A1_0268
no image data in BD 0 ( p i )
Figure DE102016120366A1_0269
exist, ie: P s O l l ( P ) { p i } .
Figure DE102016120366A1_0270
the image data BD 1 ( P s O l l * ( P ) = p i * . R ( O ) )
Figure DE102016120366A1_0271
based on image data BD 0 ( p i * )
Figure DE102016120366A1_0272
be determined, where p i *
Figure DE102016120366A1_0273
the too P s O l l
Figure DE102016120366A1_0274
nearest position from the crowd { p i }
Figure DE102016120366A1_0275
is.
Verfahren nach einem der Ansprüche 6 oder 7, bei dem die bereitgestellten Bilddaten BD 0 ( p i )
Figure DE102016120366A1_0276
für in den Bilddaten BD 0 ( p i )
Figure DE102016120366A1_0277
abgebildete Objekte zugeordnete Attribute enthalten und die Attribute für die in den Bilddaten BD 1 ( P s o l l ( P ) , R ( O ) )
Figure DE102016120366A1_0278
dargestellten Objekte auf dem Display dann angezeigt werden, wenn die Blickrichtung R ( O )
Figure DE102016120366A1_0279
auf das jeweilige Objekt ausgerichtet ist.
Method according to one of Claims 6 or 7 in which the provided image data BD 0 ( p i )
Figure DE102016120366A1_0276
for in the image data BD 0 ( p i )
Figure DE102016120366A1_0277
mapped objects contain attributes associated with them and the attributes for those in the image data BD 1 ( P s O l l ( P ) . R ( O ) )
Figure DE102016120366A1_0278
displayed objects on the display then appear when the line of sight R ( O )
Figure DE102016120366A1_0279
is aligned to the respective object.
Fahrzeug, insbesondere Kraftfahrzeug, mit einer mobilen Einheit nach einem der Ansprüche 1 bis 5.Vehicle, in particular motor vehicle, with a mobile unit according to one of Claims 1 to 5 , Computer-Programm oder APP mit Programmcodes zur Durchführung des Verfahrens nach einem der vorhergehenden Ansprüche, wenn das Programm auf einer Datenverarbeitungsvorrichtung abläuft.Computer program or APP with program codes for carrying out the method according to one of the preceding claims, when the program runs on a data processing device.
DE102016120366.1A 2016-10-25 2016-10-25 Mobile device and method for displaying georeferenced data Ceased DE102016120366A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016120366.1A DE102016120366A1 (en) 2016-10-25 2016-10-25 Mobile device and method for displaying georeferenced data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016120366.1A DE102016120366A1 (en) 2016-10-25 2016-10-25 Mobile device and method for displaying georeferenced data

Publications (1)

Publication Number Publication Date
DE102016120366A1 true DE102016120366A1 (en) 2018-04-26

Family

ID=61865955

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016120366.1A Ceased DE102016120366A1 (en) 2016-10-25 2016-10-25 Mobile device and method for displaying georeferenced data

Country Status (1)

Country Link
DE (1) DE102016120366A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8160400B2 (en) * 2005-11-17 2012-04-17 Microsoft Corporation Navigating images using image based geometric alignment and object based controls
US20140286566A1 (en) * 2013-03-15 2014-09-25 Digimarc Corporation Cooperative photography
WO2015181827A1 (en) * 2014-05-28 2015-12-03 Elbit Systems Land & C4I Ltd. Method and system for image georegistration

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8160400B2 (en) * 2005-11-17 2012-04-17 Microsoft Corporation Navigating images using image based geometric alignment and object based controls
US20140286566A1 (en) * 2013-03-15 2014-09-25 Digimarc Corporation Cooperative photography
WO2015181827A1 (en) * 2014-05-28 2015-12-03 Elbit Systems Land & C4I Ltd. Method and system for image georegistration

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Dokumentation des Projekts "NAVIRE", University of Ottawa, im Internet am 2.6.2016 abrufbar unter dem URLhttps://web.archive.org/web/20160602150026/http://www.site.uottawa.ca/research/viva/projects/ibr/ , 10 Seiten, recherchiert am 16.10.2017. *
FIALA, M.: Immersive Panoramic Imagery. Proceedings of the Second Canadian Conference on Computer and Robot Vision (CRV’02), Victoria, Canada, 2005, 6 Seiten. DOI: 10.1109/CRV.2005.49 *
NUERNERGER, B. [et al.]: Design Space and Viewpoint Visualizations for Single-Click 3D Navigation. Report 2015-05, University of California at Santa Barbara, USA, im Internet am 24.6.2016 abrufbar unter dem URLhttps://web.archive.org/web/20160624183330/https://www.cs.ucsb.edu/research/tech-reports/2015-05 , 9 Seiten,recherchiert am 19.10.2017. *

Similar Documents

Publication Publication Date Title
DE102009037835B4 (en) Method for displaying virtual information in a real environment
EP1877731B1 (en) Method for controlling the display of a geographic map in a vehicle and display device therefor
DE102008052460B4 (en) Vehicle navigation system with real-time traffic image display
US10140770B2 (en) Three dimensional heads-up display unit including visual context for voice commands
DE202015009128U1 (en) Generate route guidance statement previews
DE112013003257T5 (en) Improved information transfer through a transparent display
DE102006007283A1 (en) Landmarks e.g. monument, information system for use in airplane, has landmark determination device providing geographical data of landmarks, which are parts of field of vision of observer that is viewable through window on landscape
DE102015201053A1 (en) SYSTEM AND METHOD FOR IMPROVED TIME-LAPSE VIDEO GENERATION BY USING PANORAMIC IMMEDIATE MATERIAL
DE202016006041U1 (en) Systems for generating and displaying location entity information associated with the current geographic location of a mobile device
EP1131603B1 (en) Navigation device for multimedia-assisted navigation
DE102012005471A1 (en) Traffic Information System
DE202007018605U1 (en) Improved navigation device
DE202010018512U1 (en) System for displaying images based on environmental conditions
DE202015009181U1 (en) Crossfade between street view and earth view
EP3365632B1 (en) Method for visually displaying the positions of selected destinations in maps in an altered manner
DE102017215161A1 (en) Method and device for selecting an environment object in the environment of a vehicle
DE102017215956A1 (en) A method of outputting information about an object in an environment of a vehicle, system and automobile
DE102013217223A1 (en) Monitoring system and method for displaying a monitoring area
DE102018204325A1 (en) Method, device and means of transport for a kinetosevermeidende, virtual representation of multimedia content in a means of transport
WO2007141051A1 (en) Method for providing a navigation system with information relating to the surroundings
DE102016120366A1 (en) Mobile device and method for displaying georeferenced data
DE102011084596A1 (en) Method for assisting a driver in a foreign environment
DE102006003363B4 (en) Method and arrangement for the location-dependent output of data by mobile terminals and a corresponding computer program and a corresponding computer-readable storage medium
DE102018106039A1 (en) Image reproduction device, image reproduction system and image reproduction method
EP4175281B1 (en) Method and device for producing a communication channel

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final