DE102007039669A1 - Anzeigeeinrichtung mit Bildfläche - Google Patents

Anzeigeeinrichtung mit Bildfläche Download PDF

Info

Publication number
DE102007039669A1
DE102007039669A1 DE102007039669A DE102007039669A DE102007039669A1 DE 102007039669 A1 DE102007039669 A1 DE 102007039669A1 DE 102007039669 A DE102007039669 A DE 102007039669A DE 102007039669 A DE102007039669 A DE 102007039669A DE 102007039669 A1 DE102007039669 A1 DE 102007039669A1
Authority
DE
Germany
Prior art keywords
display device
body part
image area
operating element
proximity sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102007039669A
Other languages
English (en)
Inventor
Johannes Angenvoort
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Garmin Switzerland GmbH
Original Assignee
Navigon AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Navigon AG filed Critical Navigon AG
Priority to DE102007039669A priority Critical patent/DE102007039669A1/de
Priority to PCT/DE2008/001156 priority patent/WO2009024112A2/de
Priority to EP08784339A priority patent/EP2181383A2/de
Publication of DE102007039669A1 publication Critical patent/DE102007039669A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/367Details, e.g. road map scale, orientation, zooming, illumination, level of detail, scrolling of road map or positioning of current position marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • G09B29/106Map spot or coordinate position indicators; Map reading aids using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Abstract

Die Erfindung betrifft eine Anzeigeeinrichtung (02) mit einer Bildfläche (04), an der Bildinhalte (05, 06, 07, 11, 12) elektronisch steuerbar anzeigbar sind, wobei die Bildfläche (04) eine zweidimensionale Ausdehnung in X-Richtung und in Y-Richtung aufweist, wobei die Anzeigeeinrichtung (02) mit einer Näherungssensorik zusammenwirkt, wobei durch die Näherungssensorik der Abstand und/oder die Abstandsänderung eines Bedienelements oder Körperteils (03) zur Bildfläche (04) in Z-Richtung und die Relativlage und/oder die Relativlageänderungen des Bedienelements oder des Körperteils (03) relativ zur Bildfläche (04) in X-Richtung und in Y-Richtung detektierbar ist und wobei der an der Bildfläche (04) angezeigte Bildinhalt (06, 07, 11, 12) in Abhängigkeit von der durch die Näherungssensorik detektierten Lage des Bedienelements oder Körperteils (03) programmgesteuert veränderbar ist.

Description

  • Die Erfindung betrifft eine Anzeigeeinrichtung mit einer Bildfläche nach dem Oberbegriff des Anspruchs 1.
  • Gattungsgemäße Anzeigeeinrichtungen weisen eine Bildfläche auf, an der Bildinhalte elektronisch steuerbar angezeigt werden können. Die Bildfläche weist dabei eine Ausdehnung in X-Richtung und in Y-Richtung auf. Derartige Anzeigeeinrichtungen werden an allen Arten von elektronischen Geräten eingesetzt, um dem Benutzer bestimmte Bildinhalte anzuzeigen. Beispielsweise sind Navigationsgeräte mit entsprechenden Anzeigeeinrichtungen ausgestattet.
  • Die Anzeigeeinrichtung dient dabei vielfach zusätzlich auch als Eingabeeinrichtung. Dazu ist die Anzeigeeinrichtung in der Art eines Touch Screens ausgebildet. Durch Berührung bestimmter Bereiche der Anzeigeeinrichtungen können den entsprechenden Bereichen zugeordnete Bedienbefehle ausgelöst werden. Dadurch ist es beispielsweise möglich, dass in einem bestimmten Bildbereich der Bildfläche ein Bedienungselement angezeigt und bei Berührung dieses Teilbereichs der dem Bedienungselement zugeordnete Bedienbefehl selektiert und ausgeführt wird.
  • Abhängig von der Größe der Anzeigeeinrichtung können an der Bildfläche nur eine begrenzte Anzahl von Bildinhalten mit begrenzter Größe dargestellt werden. Dies stellt insbesondere bei mobilen Geräten, beispielsweise mobilen Navigationsgeräten, ein Problem dar, da die an diesen mobilen Geräten vorhandenen Anzeigeeinrichtungen relativ klein gehalten sind, um die Mobilität nicht einzuschränken. Aufgrund der relativ kleinen Anzeigeeinrichtung können die dargestellten Bildinhalte nur mit relativ kleinem Maßstab angezeigt werden. Eine Veränderung des Anzeigemaßstabs der dargestellten Bildinhalte ist zwar möglich, erfordert jedoch die Bedienung entsprechender Bedienelemente, was umständlich ist und den Bedienkomfort begrenzt.
  • Ausgehend von diesem Stand der Technik ist es deshalb Aufgabe der vorliegenden Erfindung eine neue Anzeigeeinrichtung vorzuschlagen, mit der der Bedienkomfort erhöht werden kann.
  • Diese Aufgabe wird durch eine Anzeigeeinrichtung nach der Lehre des Anspruchs 1 gelöst.
  • Vorteilhafte Ausführungsformen der Erfindung sind Gegenstand der Unteransprüche.
  • Die erfindungsgemäße Anzeigeeinrichtung beruht auf dem Grundgedanken, dass die Anzeigeeinrichtung mit einer Näherungssensorik zusammenwirkt. Durch die Näherungssensorik kann der Abstand bzw. die Abstandsänderung eines Bedienelements beispielsweise eines Bedienstiftes, oder eines Körperteils beispielsweise eines Fingers, in Z-Richtung detektiert werden. Zugleich ermöglicht die Näherungssensorik die Detektion der Relativlage bzw. der Relativlageänderung des Bedienelements bzw. des Körperteils relativ zur Bildfläche in X-Richtung und in Y-Richtung. Abhängig vom Detektionsergebnis der Näherungssensorik wird der an der Bildfläche angezeigte Bildinhalt programmgesteuert verändert.
  • In welcher Art die programmgesteuerte Änderung des an der Bildfläche angezeigten Bildinhalts erfolgt, ist grundsätzlich beliebig. Nach einer bevorzugten Ausführungsform wird in Abhängigkeit von der durch die Näherungssensorik detektierten Lage des Bedienelements bzw. Körperteils eine Teilbildfläche der Bildfläche selektiert und nach der Selektion diese Teilbildfläche vergrößert dargestellt.
  • Es sind verschiedenste Strategien zur Auswahl der vergrößert darzustellenden Teilbildfläche denkbar. Um eine besonders einfache und intuitive Bedienung der Anzeigeeinrichtung zu ermöglichen, ist es besonders vorteilhaft, wenn die Bildfläche insgesamt in vordefinierte Teilflächen aufgeteilt ist. Bei Benutzung der Anzeigeeinrichtung wird dann immer die Teilbildfläche selektiert und vergrößert dargestellt, die den geringsten Abstand zum Bedienelement bzw. zum Körperteil in Z-Richtung aufweist. Damit ist es für den Benutzer intuitiv erkennbar, dass er durch die Annäherung des Bedienelements bzw. eines seiner Körperteile, beispielsweise seines Zeigefingers, jeweils die Teilbildfläche selektiert und zur vergrößerten Darstellung bringt, die den kleinsten Abstand zum Bedienelement bzw. zum Körperteil aufweist.
  • Nach einer weiteren bevorzugten Ausführungsform ist vorgesehen, dass auch der Vergrößerungsfaktor, um den die vergrößert darzustellende Teilbildfläche vergrößert wird, durch die Annäherung des Bedienelements bzw. Körperteils veränderbar ist. Dazu wird der Abstand des Bedienelements oder Körperteils zur Bildfläche in Z-Richtung durch die Näherungssensorik detektiert und aus diesem Abstand gemäß einer vorgegebenen Steuerstrategie der Vergrößerungsfaktor abgeleitet.
  • Besonders einfach und intuitiv wird die Bedienung der Anzeigeeinrichtung dabei, wenn der Vergrößerungsfaktor linear proportional vom Abstand des Bedienelements bzw. Körperteils zur Bildfläche in Z-Richtung abhängt.
  • Außerdem wird eine intuitive Benutzung der Anzeigeeinrichtung unterstützt, wenn der Vergrößerungsfaktor umso größer ist, je kleiner der Abstand des Bedienelements oder Körperteils zur Bildfläche in Z-Richtung ist. Dies bedeutet mit anderen Worten, dass durch zusätzliche Annäherung des Bedienelements oder Körperteils an die Bildfläche der Vergrößerungsfaktor vergrößert werden kann.
  • Bei Überschreiten eines bestimmten Grenzabstands zwischen Bedienelement bzw. Körperteil zur Bildfläche in Z-Richtung sollte eine Vergrößerung einzelner Teilbildflächen nicht mehr vorgenommen werden. Dies wird dadurch erreicht, dass der Vergrößerungsfaktor bei Überschreiten eines vordefinierten Grenzabstands gleich 1 ist.
  • Die konstruktive Ausbildung der Näherungssensorik zur Bestimmung der Relativlage des Bedienelements bzw. des Körperteils relativ zur Bildfläche ist grundsätzlich beliebig. Gemäß einer ersten bevorzugten Ausführungsform besteht die Näherungssensorik aus mehreren Näherungssensoren, die unter der Bildfläche angeordnet sind und jeweils genau einer vordefinierten Teilbildfläche zugeordnet werden. Jeder der einzelnen Näherungssensoren ist dabei dafür eingerichtet, den Abstand des Bedienelements oder des Körperteils zur Bildfläche zu detektieren. Anschließend wird in der Steuerung der Anzeigeeinrichtung ein Vergleich durchgeführt und der Näherungssensor bestimmt, der den kleinsten Abstand zum Bedienelement oder Körperteil detektiert hat. Anschließend wird die Teilbildfläche vergrößert dargestellt, die dem Näherungssensor mit dem kleinsten Abstand zugeordnet ist.
  • Alternativ kann die Näherungssensorik von einem optischen Stereokamerasystem gebildet werden. Zur Realisation der Näherungssensorik können dazu in der Anzeigeeinrichtung beispielsweise zwei Kameras vorgesehen sein, die als Stereokamera zusammenwirken.
  • Die Geometrie der vergrößert darzustellenden Teilbildfläche ist prinzipiell beliebig. Es sind beliebige Formen möglich, insbesondere solche, die der Form eines Bedienelements, wie z. B. eines Buttons, entsprechen Für die meisten Anwendungen ist es vorteilhaft, wenn die vergrößert darzustellende Teilbildfläche rechteckförmig oder kreisförmig ausgebildet ist.
  • Für die Art der Vergrößerung der vergrößert darzustellenden Teilbildfläche gibt es unterschiedliche Varianten. Nach einer ersten Variante wird die vergrößert darzustellende Teilbildfläche in X-Richtung und in Y-Richtung mit jeweils gleichgroßem Vergrößerungsfaktor vergrößert. Dadurch werden Verzerrungen im vergrößert dazustellenden Teilbild durch die Vergrößerung ausgeschlossen.
  • Alternativ dazu ist es auch denkbar, dass der Vergrößerungsfaktor in X-Richtung und in Y-Richtung jeweils unterschiedlich groß ist. Dadurch wird das vergrößert darzustellende Teilbild in einer Richtung gestreckt bzw. in einer Richtung gestaucht. Nach einer weiteren Alternative ist es denkbar, dass der Vergrößerungsfaktor jeweils von der Lage des entsprechenden Bildpunkts in der Teilbildfläche abhängt. Auf diese Weise kann der Vergrößerungsfaktor also in der Teilbildfläche variieren.
  • Zur Variation des Vergrößerungsfaktors in der vergrößert darzustellenden Teilbildfläche ist es beispielsweise denkbar, dass der Vergrößerungsfaktor im Zentrum der darzustellenden Teilbildfläche am größten und am Rand der darzustellenden Teilbildfläche am kleinsten ist. Dadurch lässt sich eine Vergrößerung realisieren, die einen linsenförmigen Bildeindruck beim Benutzer erweckt.
  • Welche Teilbildflächen der Bildflächen der Anzeigeeinrichtung vergrößert werden ist grundsätzlich beliebig. Besonders große Bedeutung hat die Vergrößerung von Teilbildflächen, die ein Schaltelement, ein Textfeld oder ein Graphikfeld darstellen. Schaltelemente zeichnen sich dabei dadurch aus, dass ihnen jeweils eine bestimmte Bedienfunktion zugeordnet ist. In Textfeldern werden Textinhalte dargestellt, wohingegen Graphikfelder zur Darstellung bestimmter Graphikinhalte vorgesehen sind.
  • Um die bevorzugte Vergrößerung bestimmter Teilbildflächen auch in den Fällen zu realisieren, in denen die Annäherung des Bedienelements bzw. Körperelements eine Vergrößerung der Teilbildfläche an sich noch nicht auslösen würde, kann diesen Teilbildflächen eine umgebende Ergänzungsfläche zugeordnet sein. Wird nun das Bedienelement oder das Körperteil an die Ergänzungsfläche angenähert, so bewirkt dies bereits eine vergrößerte Darstellung der der Ergänzungsfläche zugeordneten Teilbildfläche. Diese Art der bevorzugten Vergrößerung hat insbesondere Bedeutung bei häufig verwendeten Bedienelementen. Durch die Ergänzungsfläche wird den häufig verwendeten Bedienelementen ein vergrößertes Einzugsgebiet für die Detektion der Annäherung des Bedienelements bzw. Körperteils zugeordnet.
  • Zur Erweiterung der Funktion der erfindungsgemäßen Anzeigeeinrichtung kann diese Anzeigeeinrichtung als Teil einer Eingabeeinrichtung eingesetzt werden. Durch entsprechende Eingabeelemente bzw. Eingabefunktionen hat der Benutzer dann die Möglichkeit abhängig von den Bildinhalten an der Anzeigeeinrichtung bestimmte Eingaben zu machen.
  • Gemäß einer ersten Variante zur Integration der Anzeigeeinrichtung in eine Eingabeeinrichtung kann vorgesehen sein, dass unter der Bildfläche mehrere Kontaktsensoren abgeordnet sind. Durch die Kontaktsensoren kann der Kontakt des Bedienelements oder des Körperteils auf zugeordneten Teilbildflächen detektiert werden. Abhängig von der detektierten Teilbildfläche wird ein der Teilbildfläche zugeordneter Bedienbefehl selektiert bzw. ausgelöst. Dies entspricht letztendlich der Funktion eines klassischen Touch Screens.
  • Alternativ dazu ist es auch denkbar die Näherungssensorik selbst zur Selektion bzw. Auslösung des Bedienbefehls zu benutzen. Dabei wird zunächst die Lage des Bedienelements oder Körperteils durch die Nähe rungssensorik detektiert und dadurch eine bestimmte Teilbildfläche selektiert. Die selektierte Teilbildfläche kann dabei vorzugsweise vergrößert dargestellt werden, um dem Benutzer die entsprechende Selektion anzuzeigen. Außerdem wird der Abstand des Bedienelements oder Körperteils zur Bildfläche in Z-Richtung überwacht. Unterschreitet dieser Abstand einen vordefinierten Grenzabstand, so wird ein der selektierten Teilbildfläche zugeordneter Bedienbefehl ausgelöst. Dies bedeutet mit anderen Worten, dass durch die Annäherung des Bedienelements bzw. Körperteils ein selektierter Bedienbefehl, der der selektierten Teilbildfläche zugeordnet ist, durch den Benutzer bestätigt und damit ausgelöst werden kann.
  • In welche Geräteklasse die Anzeigeeinrichtung integriert ist, ist grundsätzlich beliebig. Besonders große Vorteile bietet die erfindungsgemäße Anzeigeeinrichtung bei Navigationssystemen, insbesondere mobilen Navigationsgeräten. Bei diesen Navigationsgeräten muss auf einem relativ kleinen Bildschirm eine Vielzahl von Bildinhalten dargestellt werden, so dass insbesondere die Vergrößerung einzelner Bildbestandteile von großer Bedeutung ist. Diese Vergrößerung einzelner Bildinhalte wird durch Einsatz der erfindungsgemäßen Anzeigeeinrichtung erheblich vereinfacht.
  • Insbesondere bei der Anzeige von Landkarten ist die erfindungsgemäße Anzeigeeinrichtung von Vorteil. Wird die Landkarte eines Navigationssystems an einer erfindungsgemäßen Anzeigeeinrichtung angezeigt, kann die Lage des Bedienelements oder Körperteils durch die Näherungssensorik detektiert und die Landkarte in Abhängigkeit von der detektierten Lage des Bedienelements oder Körperteils verschoben werden. Dadurch wird eine intuitive Bedienbarkeit des Navigationssystems bei der Anzeige und Verschiebung von Landkarten ermöglicht.
  • Alternativ bzw. additiv dazu ist es auch vorteilhaft, wenn der Zoomvergrößerungsfaktor von am Navigationssystem angezeigten Landkarten durch Annäherung bzw. Entfernung des Bedienelements bzw. Körperteils veränderbar ist. Dabei sollte der Zoomvergrößerungsfaktor bei Annäherung des Bedienelements bzw. Körperteils an die Bildfläche vergrößert und bei Entfernung verkleinert werden.
  • Verschiedene Teilaspekte der Erfindung sind in den Zeichnungen schematisch dargestellt und werden nachfolgend beispielhaft erläutert.
  • Es zeigen:
  • 1 ein Navigationsgerät mit erfindungsgemäßer Anzeigeeinrichtung bei Annäherung eines Körperteils an die Anzeigeeinrichtung;
  • 2 den Bildinhalt einer erfindungsgemäßen Anzeigeeinrichtung ohne vergrößerte Teilbildfläche;
  • 3 die Anzeigeeinrichtung gemäß 2 bei Annäherung eines Körperteils an eine Teilbildfläche zur Darstellung eines Bedienelements;
  • 4 die Anzeigeeinrichtung gemäß 2 bei Annäherung eines Körperteils an ein Graphikfeld;
  • 5 die Anzeigeeinrichtung gemäß 2 bei Annäherung eines Körperteils an ein Textfeld.
  • 1 zeigt schematisch ein Navigationsgerät 01 mit einer Anzeigeeinrichtung 02 zur programmgesteuerten elektronischen Anzeige von Bildinhalten. In das Navigationsgerät 01 ist eine Näherungssensorik, beispielsweise eine Stereobildkamera, eingebaut, mit der die Lage eines Körperteils, nämlich eines Zeigefingers 03, relativ zur Anzeigeeinrichtung 02 bestimmt werden kann. Dabei wird zum einen der Abstand in Z-Richtung und zum anderen die relative Lage des Zeigefingers 03 in X-Richtung und Y-Richtung detektiert.
  • Die Bildfläche 04 der Anzeigeeinrichtung 02 ist in eine Vielzahl von vordefinierten Teilbildflächen 05 aufgeteilt. Bei Annäherung des Zeigefingers 03 an die Anzeigeeinrichtung 02 gilt die Teilbildfläche 05 als selektiert, die den geringsten Abstand in Z-Richtung zum Zeigefinger 03 aufweist. Die jeweils selektierte Teilbildfläche 05 wird dann vergrößert dargestellt. Anhand der Beispiele in 2 bis 5 soll beispielhaft die Funktionsweise der Anzeigeeinrichtung 02 erläutert werden.
  • 2 stellt den Bildinhalt an der Bildfläche 04 der Anzeigeeinrichtung 02 ohne Annäherung des Zeigefingers 03 dar. Verschiedene Bedienelemente, Textfelder und Graphikfelder werden in üblicher Weise elektronisch angezeigt.
  • 3 stellt die Anzeigeeinrichtung 02 bei senkrechter Annäherung des Zeigefingers 03 an ein Bedienelement 06 dar. Das Bedienelement 06, das normalerweise (siehe 2) entsprechend der Größe der anderen Bedienelemente dargestellt wird, wird bei Annäherung des Zeigefingers 03 vergrößert und zugleich selektiert. Durch weitere Annäherung des Zeigefingers an das nun vergrößerte Bedienelement 06 bis zur Unterschreitung eines vordefinierten Grenzabstands kann der dem Bedienelement zugeordnete Bedienbefehl ausgelöst werden. Alternativ dazu ist es auch denkbar, dass die Anzeigeeinrichtung 02 in der Art eines Touch Screens ausgebildet ist und durch Berührung des vergrößerten Bedienelements 06 der dem Bedienelement 06 zugeordnete Bedienbefehl ausgelöst wird.
  • 4 stellt beispielhaft die Annäherung des Zeigefingers 03 an eine an der Anzeigeeinrichtung 02 angezeigten Landkarte 07 dar. Jeweils der Punkt 10 mit dem kürzesten Abstand zum Zeigefinger 03 bestimmt das Zentrum eines lupenartig vergrößerten Teilbildbereichs 11, der in 4 strichliniert angedeutet ist. Der Vergrößerungsfaktor im Teilbildbereich 11 variiert dabei in Abhängigkeit von der Lage. Der größte Vergrößerungsfaktor wird auf das Zentrum im Bereich des Mittelpunktes 10 angewendet, wohingegen der Vergrößerungsfaktor am Rand des Teilbild bereichs 11 am kleinsten ist. Auf diese Weise wird ein linsenartiger Vergrößerungseffekt erzielt.
  • 5 stellt die Annäherung des Zeigefingers 03 an ein Textfeld 12 dar. Das Textfeld 12 zur numerischen Anzeige der geographischen Lage des Navigationssystems wird bei Annäherung des Zeigefingers vergrößert an der Anzeigeeinrichtung 02 eingeblendet. In diesem Fall ist ein unterschiedlicher Vergrößerungsfaktor zwischen x- und y-Richtung vorgenommen worden, trotzdem bleibt die Lesbarkeit erhalten.
  • 01
    Navigationsgerät
    02
    Anzeigeeinrichtung
    03
    Zeigefinger
    04
    Bildfläche
    05
    Teilbildfläche
    06
    Bedienelement
    07
    Landkarte
    08
    09
    10
    Mittelpunkt
    11
    Graphikfeld
    12
    Textfeld

Claims (22)

  1. Anzeigeeinrichtung (02) mit einer Bildfläche (04), an der Bildinhalte (05, 06, 07, 11, 12) elektronisch steuerbar anzeigbar sind, wobei die Bildfläche (04) eine zweidimensionale Ausdehnung in X-Richtung und in Y-Richtung aufweist, dadurch gekennzeichnet, dass die Anzeigeeinrichtung (02) mit einer Näherungssensorik zusammenwirkt, wobei durch die Näherungssensorik der Abstand und/oder die Abstandsänderung eines Bedienelements oder Körperteils (03) zur Bildfläche (04) in Z-Richtung und die Relativlage und/oder die Relativlageänderungen des Bedienelements oder des Körperteils (03) relativ zur Bildfläche (04) in X-Richtung und in Y-Richtung detektierbar ist, und wobei der an der Bildfläche (04) angezeigten Bildinhalt (06, 07, 11, 12) in Abhängigkeit von der durch die Näherungssensorik detektierten Lage des Bedienelements oder Körperteils (03) programmgesteuert veränderbar ist.
  2. Anzeigeeinrichtung nach Anspruch 1, dadurch gekennzeichnet, dass in Abhängigkeit von der durch die Näherungssensorik detektierten Lage des Bedienelements oder Körperteils (03) eine Teilbildfläche (05, 06, 11, 12) selektiert und vergrößert dargestellt werden kann.
  3. Anzeigeeinrichtung nach Anspruch 2, dadurch gekennzeichnet, dass die Bildfläche in vordefinierte Teilbildflächen (05, 06, 11, 12) aufgeteilt ist, wobei die Teilbildfläche (05, 06, 11, 12) selektiert und vergrößert dargestellt wird, die den geringsten Abstand zum Bedienelement oder Körperteil (03) in Z-Richtung aufweist.
  4. Anzeigeeinrichtung nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass der Vergrößerungsfaktor, um den die vergrößert darzustellende Teilbildflächen (05, 06, 11, 12) vergrößert wird, vom durch die Näherungssensorik detektierten Abstand des Bedienelements oder Körperteils (03) zur Bildfläche (04) in Z-Richtung abhängt.
  5. Anzeigeeinrichtung nach einem der Ansprüche 2 bis 4, dadurch gekennzeichnet, dass der Vergrößerungsfaktor linear proportional vom Abstand des Bedienelements oder Körperteils (03) zur Bildfläche (04) in Z-Richtung abhängt.
  6. Anzeigeeinrichtung nach einem der Ansprüche 2 bis 5, dadurch gekennzeichnet, dass der Vergrößerungsfaktor umso größer ist, je kleiner der Abstand des Bedienelements oder Körperteils (03) zur Bildfläche (04) in Z-Richtung ist.
  7. Anzeigeeinrichtung nach einem der Ansprüche 2 bis 6, dadurch gekennzeichnet, dass der Vergrößerungsfaktor bei Überschreiten eines vordefinierten Grenzabstandes des Bedienelements oder Körperteils (03) zur Bildfläche (04) in Z-Richtung gleich 1 ist.
  8. Anzeigeeinrichtung nach einem der Ansprüche 2 bis 7, dadurch gekennzeichnet, dass unter der Bildfläche mehrere Näherungssensoren angeordnet sind, die jeweils genau einer vordefinierten Teilbildfläche zugeordnet sind, wobei mit jedem Näherungssensor der Abstand des Bedienelements oder Körperteils zur Bildfläche detektierbar ist, und wobei die Teilbildfläche vergrößert dargestellt wird, deren zugeordneter Näherungssensor den kleinsten Abstand zum Bedienelement oder Körperteil detektiert.
  9. Anzeigeeinrichtung nach einem der Ansprüche 2 bis 7, dadurch gekennzeichnet, dass Näherungssensorik von einem optischen Stereokamerasystem gebildet wird.
  10. Anzeigeeinrichtung nach einem der Ansprüche 2 bis 8, dadurch gekennzeichnet, dass die vergrößert darzustellende Teilbildflächen (05, 06, 11, 12) rechteckförmig oder kreisförmig ausgebildet ist.
  11. Anzeigeeinrichtung nach einem der Ansprüche 2 bis 10, dadurch gekennzeichnet, dass die vergrößert darzustellende Teilbildfläche (06, 12) in X-Richtung und in Y-Richtung mit jeweils gleich großem Vergrößerungsfaktor vergrößert wird.
  12. Anzeigeeinrichtung nach einem der Ansprüche 2 bis 10, dadurch gekennzeichnet, dass die vergrößert darzustellende Teilbildfläche in X-Richtung und in Y-Richtung mit jeweils unterschiedlich großem Vergrößerungsfaktor vergrößert wird.
  13. Anzeigeeinrichtung nach einem der Ansprüche 2 bis 10, dadurch gekennzeichnet, dass Vergrößerungsfaktor innerhalb der vergrößert darzustellende Teilbildfläche (11) variiert.
  14. Anzeigeeinrichtung nach Anspruch 13, dadurch gekennzeichnet, dass der Vergrößerungsfaktor im Zentrum der vergrößert darzustellende Teilbildfläche (11) am größten und am Rand der darzustellende Teilbildfläche am kleinsten ist.
  15. Anzeigeeinrichtung nach einem der Ansprüche 2 bis 14, dadurch gekennzeichnet, dass die vergrößerte Teilbildfläche – ein Bedienelement (06), der eine Bedienfunktion zugeordnet ist, und/oder – ein Textfeld (12), dem ein Textinhalt zugeordnet ist, und/oder – ein Grafikfeld (11), dem ein graphischer Bildinhalt zugeordnet ist, darstellt.
  16. Anzeigeeinrichtung nach einem der Ansprüche 2 bis 15, dadurch gekennzeichnet, dass der vergrößert darzustellenden Teilbildfläche eine die Teilbildfläche zumindest teilweise umgebende Ergänzungsfläche zugeordnet ist, wobei durch Annäherung des Bedienelements oder des Körperteils an die Ergänzungsfläche eine vergrößerte Darstellung der Teilbildfläche bewirkt wird.
  17. Anzeigeeinrichtung nach einem der Ansprüche 1 bis 16, dadurch gekennzeichnet, dass die Anzeigeeinrichtung Teil einer Eingabeeinrichtung ist, wobei unter der Bildfläche mehrere Kontaktsensoren angeordnet sind, die jeweils genau einer Teilbildfläche zugeordnet sind, und wobei mit den Kontaktsensoren der Kontakt des Bedienelements oder Körperteils auf der zugeordneten Teilbildfläche detektierbar ist, und wobei durch Detektion des Kontakt des Bedienelements oder Körperteils auf einer Teilbildfläche ein der Teilbildfläche zugeordneter Bedienbefehl selektiert und/oder ausgelöst werden kann.
  18. Anzeigeeinrichtung nach einem der Ansprüche 1 bis 16, dadurch gekennzeichnet, dass die Anzeigeeinrichtung Teil (02) einer Eingabeeinrichtung ist, wobei in Abhängigkeit von der durch die Näherungssensorik detektierten Lage des Bedienelements oder Körperteils (03) eine Teilbildfläche (05, 06, 11, 12) selektiert wird, und wobei durch Unterschreiten eines vordefinierten Grenzabstandes des Bedienelements oder Körperteils (03) zur Bildfläche (04) in Z-Richtung ein der selektiert Teilbildfläche (05, 06, 11, 12) zugeordneter Bedienbefehl ausgelöst werden kann.
  19. Anzeigeeinrichtung nach einem der Ansprüche 1 bis 18, dadurch gekennzeichnet, dass die Anzeigeeinrichtung (02) Teil eines Navigationssystems, insbesondere Teil eines mobilen Navigationsgerätes (01), ist.
  20. Anzeigeeinrichtung nach Anspruch 19, dadurch gekennzeichnet, dass an der Anzeigeeinrichtung (02) des Navigationssystems (01) der dargestellte Ausschnitt einer Landkarte (07) in Abhängigkeit von der durch die Näherungssensorik detektierten Lage des Bedienelements oder Körperteils (03) verschoben werden kann.
  21. Anzeigeeinrichtung nach Anspruch 19 oder 20, dadurch gekennzeichnet, dass an der Anzeigeeinrichtung (02) des Navigationssystems (01) der Zoomvergrößerungsfaktor, insbesondere eines Teils, eines dargestellten Ausschnitts einer Landkarte (07) in Abhängigkeit von der durch die Näherungssensorik detektierten Lage des Bedienelements oder Körperteils (03) verändert werden kann.
  22. Anzeigeeinrichtung nach Anspruch 21, dadurch gekennzeichnet, dass der Zoomvergrößerungsfaktor bei Annäherung des Bedienelements oder Körperteils (03) an die Bildfläche (04) vergrößert wird.
DE102007039669A 2007-08-22 2007-08-22 Anzeigeeinrichtung mit Bildfläche Withdrawn DE102007039669A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102007039669A DE102007039669A1 (de) 2007-08-22 2007-08-22 Anzeigeeinrichtung mit Bildfläche
PCT/DE2008/001156 WO2009024112A2 (de) 2007-08-22 2008-07-21 Anzeigeeinrichtung mit bildfläche
EP08784339A EP2181383A2 (de) 2007-08-22 2008-07-21 Anzeigeeinrichtung mit bildfläche

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102007039669A DE102007039669A1 (de) 2007-08-22 2007-08-22 Anzeigeeinrichtung mit Bildfläche

Publications (1)

Publication Number Publication Date
DE102007039669A1 true DE102007039669A1 (de) 2009-02-26

Family

ID=39970966

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007039669A Withdrawn DE102007039669A1 (de) 2007-08-22 2007-08-22 Anzeigeeinrichtung mit Bildfläche

Country Status (3)

Country Link
EP (1) EP2181383A2 (de)
DE (1) DE102007039669A1 (de)
WO (1) WO2009024112A2 (de)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2202626A2 (de) 2008-12-26 2010-06-30 Brother Kogyo Kabushiki Kaisha Eingabevorrichtung
EP2367095A2 (de) 2010-03-19 2011-09-21 Navigon AG Portables elektronisches Navigationsgerät
WO2012031606A1 (en) * 2010-09-06 2012-03-15 Valeo Schalter Und Sensoren Gmbh Method for operating a driver assistance device, driver assistance device and vehicle with a driver assistance device
EP2575006A1 (de) * 2011-09-27 2013-04-03 Elo Touch Solutions, Inc. Interaktion eines Benutzers mit einer Vorrichtung auf Berührungs- und berührungsloser Basis
EP2575007A1 (de) * 2011-09-27 2013-04-03 Elo Touch Solutions, Inc. Skalierung von Eingaben auf Gestenbasis
EP2533016A3 (de) * 2011-06-10 2015-05-13 The Boeing Company Verfahren und Systeme zur Durchführung von Bestandsaufnahmeaufgaben
EP3182250A1 (de) * 2015-12-18 2017-06-21 Delphi Technologies, Inc. System und verfahren zur überwachung eines 3d-raums vor einer ausgabeeinheit zur steuerung der ausgabeeinheit
DE102014216626B4 (de) 2014-08-21 2023-10-05 Volkswagen Aktiengesellschaft Verfahren zum Teilen von Daten in einem Fahrzeug sowie entsprechende Vorrichtung

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008032377A1 (de) 2008-07-09 2010-01-14 Volkswagen Ag Verfahren zum Betrieb eines Bediensystems für ein Fahrzeug und Bediensystem für ein Fahrzeug
US9658765B2 (en) * 2008-07-31 2017-05-23 Northrop Grumman Systems Corporation Image magnification system for computer interface
DE102011117289B4 (de) 2011-10-31 2017-08-24 Volkswagen Ag Verfahren zum Betreiben einer mobilen Vorrichtung in einem Fahrzeug, Koppelvorrichtung, Fahrzeug sowie System
DE102013013697B4 (de) * 2013-08-16 2021-01-28 Audi Ag Vorrichtung und Verfahren zum Eingeben von Schriftzeichen im freien Raum

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19958443A1 (de) * 1999-12-03 2001-06-07 Siemens Ag Bedieneinrichtung
EP1115091A2 (de) * 2000-01-06 2001-07-11 Canon Kabushiki Kaisha Datenverarbeitungsanlage, Drucker, Bildaufzeichnungssystem und Verfahren
JP2002342033A (ja) * 2001-05-21 2002-11-29 Sony Corp 非接触型ユーザ入力装置
US20030151592A1 (en) * 2000-08-24 2003-08-14 Dieter Ritter Method for requesting destination information and for navigating in a map view, computer program product and navigation unit
DE10322801A1 (de) * 2003-05-19 2004-12-09 Gate5 Ag Verfahren zur tastaturgestützten, einhändigen Steuerung einer digitalen Karte
DE102004023196A1 (de) * 2004-05-11 2005-12-08 Siemens Ag Verfahren zur visuellen Darstellung einer geographischen Karte auf einem Display eines mobilen Kommunikationsgerätes sowie mobiles Kommunikationsgerät zur Durchführung des Verfahrens

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08212005A (ja) * 1995-02-07 1996-08-20 Hitachi Ltd 3次元位置認識型タッチパネル装置
US8035612B2 (en) * 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
CA2494353A1 (en) * 2002-08-02 2004-02-12 Cirque Corporation Single-layer touchpad having touch zones
JP2004287168A (ja) * 2003-03-24 2004-10-14 Pioneer Electronic Corp 情報表示装置及び情報表示方法
GB2437988B (en) * 2004-03-15 2008-10-01 Tomtom Bv GPS navigation device
EP1769328A2 (de) * 2004-06-29 2007-04-04 Koninklijke Philips Electronics N.V. Herein-zoom-3d-berührungsinteraktion
US7653883B2 (en) * 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
JP4839603B2 (ja) * 2004-11-22 2011-12-21 ソニー株式会社 表示装置、表示方法、表示プログラム及び表示プログラムを記録した記録媒体
JP5007782B2 (ja) * 2005-11-17 2012-08-22 株式会社デンソー ナビゲーション装置および地図表示縮尺設定方法
DE202006003912U1 (de) * 2006-03-09 2007-07-19 Klicktel Ag Navigationsgerät mit Bedienfläche auf berührungsempfindlichem Bildschirm

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19958443A1 (de) * 1999-12-03 2001-06-07 Siemens Ag Bedieneinrichtung
EP1115091A2 (de) * 2000-01-06 2001-07-11 Canon Kabushiki Kaisha Datenverarbeitungsanlage, Drucker, Bildaufzeichnungssystem und Verfahren
US20030151592A1 (en) * 2000-08-24 2003-08-14 Dieter Ritter Method for requesting destination information and for navigating in a map view, computer program product and navigation unit
JP2002342033A (ja) * 2001-05-21 2002-11-29 Sony Corp 非接触型ユーザ入力装置
DE10322801A1 (de) * 2003-05-19 2004-12-09 Gate5 Ag Verfahren zur tastaturgestützten, einhändigen Steuerung einer digitalen Karte
DE102004023196A1 (de) * 2004-05-11 2005-12-08 Siemens Ag Verfahren zur visuellen Darstellung einer geographischen Karte auf einem Display eines mobilen Kommunikationsgerätes sowie mobiles Kommunikationsgerät zur Durchführung des Verfahrens

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JP-Abstract & JP 2002342033 A *
JP-Abstract 2002342033 A

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2202626A2 (de) 2008-12-26 2010-06-30 Brother Kogyo Kabushiki Kaisha Eingabevorrichtung
EP2202626A3 (de) * 2008-12-26 2011-01-05 Brother Kogyo Kabushiki Kaisha Eingabevorrichtung
US8271900B2 (en) 2008-12-26 2012-09-18 Brother Kogyo Kabushiki Kaisha Inputting apparatus
EP2367095A2 (de) 2010-03-19 2011-09-21 Navigon AG Portables elektronisches Navigationsgerät
WO2012031606A1 (en) * 2010-09-06 2012-03-15 Valeo Schalter Und Sensoren Gmbh Method for operating a driver assistance device, driver assistance device and vehicle with a driver assistance device
US9618360B2 (en) 2011-06-10 2017-04-11 The Boeing Company Methods and systems for performing charting tasks
EP2533016A3 (de) * 2011-06-10 2015-05-13 The Boeing Company Verfahren und Systeme zur Durchführung von Bestandsaufnahmeaufgaben
US9404767B2 (en) 2011-06-10 2016-08-02 The Boeing Company Methods and systems for performing charting tasks
EP2575007A1 (de) * 2011-09-27 2013-04-03 Elo Touch Solutions, Inc. Skalierung von Eingaben auf Gestenbasis
WO2013046030A3 (en) * 2011-09-27 2013-09-12 Elo Touch Solutions, Inc. Scaling of gesture based input
CN103403661A (zh) * 2011-09-27 2013-11-20 电子触控产品解决方案公司 手势基输入的缩放
US9448714B2 (en) 2011-09-27 2016-09-20 Elo Touch Solutions, Inc. Touch and non touch based interaction of a user with a device
EP2575006A1 (de) * 2011-09-27 2013-04-03 Elo Touch Solutions, Inc. Interaktion eines Benutzers mit einer Vorrichtung auf Berührungs- und berührungsloser Basis
DE102014216626B4 (de) 2014-08-21 2023-10-05 Volkswagen Aktiengesellschaft Verfahren zum Teilen von Daten in einem Fahrzeug sowie entsprechende Vorrichtung
EP3182250A1 (de) * 2015-12-18 2017-06-21 Delphi Technologies, Inc. System und verfahren zur überwachung eines 3d-raums vor einer ausgabeeinheit zur steuerung der ausgabeeinheit
CN106896913A (zh) * 2015-12-18 2017-06-27 戴尔菲技术公司 监测输出单元前面的3d空间以控制输出单元的系统和方法
US10031624B2 (en) 2015-12-18 2018-07-24 Delphi Technologies, Inc. System and method for monitoring 3D space in front of an output unit for the control of the output unit
CN106896913B (zh) * 2015-12-18 2019-11-22 戴尔菲技术公司 监测3d空间以控制输出单元的系统、方法和车辆

Also Published As

Publication number Publication date
EP2181383A2 (de) 2010-05-05
WO2009024112A2 (de) 2009-02-26
WO2009024112A3 (de) 2009-04-30

Similar Documents

Publication Publication Date Title
DE102007039669A1 (de) Anzeigeeinrichtung mit Bildfläche
EP1262740B1 (de) Fahrzeugrechner-System und Verfahren zur Steuerung eines Cursors für ein Fahrzeugrechner-System
EP2867762B1 (de) Verfahren zum empfangen einer eingabe auf einem berührungsempfindlichen feld
DE102012004793B4 (de) Kraftfahrzeug mit einem elektronischen Rückspiegel
DE102010027915A1 (de) Benutzer-Schnittstellen-Einrichtung zum Steuern eines Fahrzeug-Multimedia-Systems
EP2822814B1 (de) Kraftfahrzeug mit einem elektronischen rückspiegel
DE102007025530A1 (de) Informationsvermittlungsvorrichtung und Verfahren zur Vermittlung von Informationen
WO2006066742A1 (de) Bediensystem für ein fahrzeug
DE19824100A1 (de) Elektronisches Gerät mit einem Drehschalter und einem Anzeigebildschirm
EP3114554A1 (de) Verfahren und vorrichtung zum bereitstellen einer graphischen benutzerschnittstelle in einem fahrzeug
DE102012208931A1 (de) Vorrichtung zur gleichzeitigen Darstellung mehrerer Informationen
DE102005025887B4 (de) Bedieneinrichtung für ein Kraftfahrzeug und Verfahren zum Bedienen einer Bedieneinrichtung
DE202010017428U1 (de) Bedieneinheit
DE102005056459A1 (de) Bediensystem für ein Fahrzeug
DE10119648B4 (de) Anordnung zur Bedienung von fernsehtechnischen Geräten
WO2014040807A1 (de) Berührungseingaben entlang einer schwelle auf einer berührungsempfindlichen oberfläche
WO2014114428A1 (de) Verfahren und system zum blickrichtungsabhängigen steuern einer mehrzahl von funktionseinheiten sowie kraftwagen und mobiles endgerät mit einem solchen system
DE102018222124A1 (de) Verfahren und System zum Einstellen eines Wertes eines Parameters
DE102012208457A1 (de) Anzeige- und Bedienvorrichtung für eine Leitwarte
DE19941967B4 (de) Verfahren und Vorrichtung zur Bewegung eines Aktivierungselementes auf einer Anzeigeeinheit
DE102018205616A1 (de) Portable, mobile Bedienvorrichtung, bei welcher an zumindest zwei Oberflächenbereichen eine Anzeigefläche bereitgestellt ist
WO2018068821A1 (de) Verfahren zur anpassung der darstellung und bedienung einer grafischen benutzerschnittstelle
EP2331360B1 (de) Verfahren und vorrichtung zum anzeigen von information, insbesondere in einem fahrzeug
DE102015105433A1 (de) Gestensensitiver Bildschirm und Rechner
EP1830247B1 (de) Bewegungssensitive Interaktion mit technischen Geräten

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R082 Change of representative

Representative=s name: UEXKUELL & STOLBERG, DE

R081 Change of applicant/patentee

Owner name: GARMIN SWITZERLAND GMBH, CH

Free format text: FORMER OWNER: NAVIGON AG, 20251 HAMBURG, DE

Effective date: 20130110

R082 Change of representative

Representative=s name: UEXKUELL & STOLBERG, DE

Effective date: 20121016

Representative=s name: UEXKUELL & STOLBERG PARTNERSCHAFT VON PATENT- , DE

Effective date: 20130110

Representative=s name: UEXKUELL & STOLBERG PARTNERSCHAFT VON PATENT- , DE

Effective date: 20121016

Representative=s name: BIRD & BIRD LLP, DE

Effective date: 20121016

Representative=s name: BIRD & BIRD LLP, DE

Effective date: 20130110

Representative=s name: UEXKUELL & STOLBERG, DE

Effective date: 20130110

R082 Change of representative

Representative=s name: BIRD & BIRD LLP, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee