DE102007039669A1 - Anzeigeeinrichtung mit Bildfläche - Google Patents
Anzeigeeinrichtung mit Bildfläche Download PDFInfo
- Publication number
- DE102007039669A1 DE102007039669A1 DE102007039669A DE102007039669A DE102007039669A1 DE 102007039669 A1 DE102007039669 A1 DE 102007039669A1 DE 102007039669 A DE102007039669 A DE 102007039669A DE 102007039669 A DE102007039669 A DE 102007039669A DE 102007039669 A1 DE102007039669 A1 DE 102007039669A1
- Authority
- DE
- Germany
- Prior art keywords
- display device
- body part
- image area
- operating element
- proximity sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3664—Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3667—Display of a road map
- G01C21/367—Details, e.g. road map scale, orientation, zooming, illumination, level of detail, scrolling of road map or positioning of current position marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
- G09B29/10—Map spot or coordinate position indicators; Map reading aids
- G09B29/106—Map spot or coordinate position indicators; Map reading aids using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
Abstract
Description
- Die Erfindung betrifft eine Anzeigeeinrichtung mit einer Bildfläche nach dem Oberbegriff des Anspruchs 1.
- Gattungsgemäße Anzeigeeinrichtungen weisen eine Bildfläche auf, an der Bildinhalte elektronisch steuerbar angezeigt werden können. Die Bildfläche weist dabei eine Ausdehnung in X-Richtung und in Y-Richtung auf. Derartige Anzeigeeinrichtungen werden an allen Arten von elektronischen Geräten eingesetzt, um dem Benutzer bestimmte Bildinhalte anzuzeigen. Beispielsweise sind Navigationsgeräte mit entsprechenden Anzeigeeinrichtungen ausgestattet.
- Die Anzeigeeinrichtung dient dabei vielfach zusätzlich auch als Eingabeeinrichtung. Dazu ist die Anzeigeeinrichtung in der Art eines Touch Screens ausgebildet. Durch Berührung bestimmter Bereiche der Anzeigeeinrichtungen können den entsprechenden Bereichen zugeordnete Bedienbefehle ausgelöst werden. Dadurch ist es beispielsweise möglich, dass in einem bestimmten Bildbereich der Bildfläche ein Bedienungselement angezeigt und bei Berührung dieses Teilbereichs der dem Bedienungselement zugeordnete Bedienbefehl selektiert und ausgeführt wird.
- Abhängig von der Größe der Anzeigeeinrichtung können an der Bildfläche nur eine begrenzte Anzahl von Bildinhalten mit begrenzter Größe dargestellt werden. Dies stellt insbesondere bei mobilen Geräten, beispielsweise mobilen Navigationsgeräten, ein Problem dar, da die an diesen mobilen Geräten vorhandenen Anzeigeeinrichtungen relativ klein gehalten sind, um die Mobilität nicht einzuschränken. Aufgrund der relativ kleinen Anzeigeeinrichtung können die dargestellten Bildinhalte nur mit relativ kleinem Maßstab angezeigt werden. Eine Veränderung des Anzeigemaßstabs der dargestellten Bildinhalte ist zwar möglich, erfordert jedoch die Bedienung entsprechender Bedienelemente, was umständlich ist und den Bedienkomfort begrenzt.
- Ausgehend von diesem Stand der Technik ist es deshalb Aufgabe der vorliegenden Erfindung eine neue Anzeigeeinrichtung vorzuschlagen, mit der der Bedienkomfort erhöht werden kann.
- Diese Aufgabe wird durch eine Anzeigeeinrichtung nach der Lehre des Anspruchs 1 gelöst.
- Vorteilhafte Ausführungsformen der Erfindung sind Gegenstand der Unteransprüche.
- Die erfindungsgemäße Anzeigeeinrichtung beruht auf dem Grundgedanken, dass die Anzeigeeinrichtung mit einer Näherungssensorik zusammenwirkt. Durch die Näherungssensorik kann der Abstand bzw. die Abstandsänderung eines Bedienelements beispielsweise eines Bedienstiftes, oder eines Körperteils beispielsweise eines Fingers, in Z-Richtung detektiert werden. Zugleich ermöglicht die Näherungssensorik die Detektion der Relativlage bzw. der Relativlageänderung des Bedienelements bzw. des Körperteils relativ zur Bildfläche in X-Richtung und in Y-Richtung. Abhängig vom Detektionsergebnis der Näherungssensorik wird der an der Bildfläche angezeigte Bildinhalt programmgesteuert verändert.
- In welcher Art die programmgesteuerte Änderung des an der Bildfläche angezeigten Bildinhalts erfolgt, ist grundsätzlich beliebig. Nach einer bevorzugten Ausführungsform wird in Abhängigkeit von der durch die Näherungssensorik detektierten Lage des Bedienelements bzw. Körperteils eine Teilbildfläche der Bildfläche selektiert und nach der Selektion diese Teilbildfläche vergrößert dargestellt.
- Es sind verschiedenste Strategien zur Auswahl der vergrößert darzustellenden Teilbildfläche denkbar. Um eine besonders einfache und intuitive Bedienung der Anzeigeeinrichtung zu ermöglichen, ist es besonders vorteilhaft, wenn die Bildfläche insgesamt in vordefinierte Teilflächen aufgeteilt ist. Bei Benutzung der Anzeigeeinrichtung wird dann immer die Teilbildfläche selektiert und vergrößert dargestellt, die den geringsten Abstand zum Bedienelement bzw. zum Körperteil in Z-Richtung aufweist. Damit ist es für den Benutzer intuitiv erkennbar, dass er durch die Annäherung des Bedienelements bzw. eines seiner Körperteile, beispielsweise seines Zeigefingers, jeweils die Teilbildfläche selektiert und zur vergrößerten Darstellung bringt, die den kleinsten Abstand zum Bedienelement bzw. zum Körperteil aufweist.
- Nach einer weiteren bevorzugten Ausführungsform ist vorgesehen, dass auch der Vergrößerungsfaktor, um den die vergrößert darzustellende Teilbildfläche vergrößert wird, durch die Annäherung des Bedienelements bzw. Körperteils veränderbar ist. Dazu wird der Abstand des Bedienelements oder Körperteils zur Bildfläche in Z-Richtung durch die Näherungssensorik detektiert und aus diesem Abstand gemäß einer vorgegebenen Steuerstrategie der Vergrößerungsfaktor abgeleitet.
- Besonders einfach und intuitiv wird die Bedienung der Anzeigeeinrichtung dabei, wenn der Vergrößerungsfaktor linear proportional vom Abstand des Bedienelements bzw. Körperteils zur Bildfläche in Z-Richtung abhängt.
- Außerdem wird eine intuitive Benutzung der Anzeigeeinrichtung unterstützt, wenn der Vergrößerungsfaktor umso größer ist, je kleiner der Abstand des Bedienelements oder Körperteils zur Bildfläche in Z-Richtung ist. Dies bedeutet mit anderen Worten, dass durch zusätzliche Annäherung des Bedienelements oder Körperteils an die Bildfläche der Vergrößerungsfaktor vergrößert werden kann.
- Bei Überschreiten eines bestimmten Grenzabstands zwischen Bedienelement bzw. Körperteil zur Bildfläche in Z-Richtung sollte eine Vergrößerung einzelner Teilbildflächen nicht mehr vorgenommen werden. Dies wird dadurch erreicht, dass der Vergrößerungsfaktor bei Überschreiten eines vordefinierten Grenzabstands gleich 1 ist.
- Die konstruktive Ausbildung der Näherungssensorik zur Bestimmung der Relativlage des Bedienelements bzw. des Körperteils relativ zur Bildfläche ist grundsätzlich beliebig. Gemäß einer ersten bevorzugten Ausführungsform besteht die Näherungssensorik aus mehreren Näherungssensoren, die unter der Bildfläche angeordnet sind und jeweils genau einer vordefinierten Teilbildfläche zugeordnet werden. Jeder der einzelnen Näherungssensoren ist dabei dafür eingerichtet, den Abstand des Bedienelements oder des Körperteils zur Bildfläche zu detektieren. Anschließend wird in der Steuerung der Anzeigeeinrichtung ein Vergleich durchgeführt und der Näherungssensor bestimmt, der den kleinsten Abstand zum Bedienelement oder Körperteil detektiert hat. Anschließend wird die Teilbildfläche vergrößert dargestellt, die dem Näherungssensor mit dem kleinsten Abstand zugeordnet ist.
- Alternativ kann die Näherungssensorik von einem optischen Stereokamerasystem gebildet werden. Zur Realisation der Näherungssensorik können dazu in der Anzeigeeinrichtung beispielsweise zwei Kameras vorgesehen sein, die als Stereokamera zusammenwirken.
- Die Geometrie der vergrößert darzustellenden Teilbildfläche ist prinzipiell beliebig. Es sind beliebige Formen möglich, insbesondere solche, die der Form eines Bedienelements, wie z. B. eines Buttons, entsprechen Für die meisten Anwendungen ist es vorteilhaft, wenn die vergrößert darzustellende Teilbildfläche rechteckförmig oder kreisförmig ausgebildet ist.
- Für die Art der Vergrößerung der vergrößert darzustellenden Teilbildfläche gibt es unterschiedliche Varianten. Nach einer ersten Variante wird die vergrößert darzustellende Teilbildfläche in X-Richtung und in Y-Richtung mit jeweils gleichgroßem Vergrößerungsfaktor vergrößert. Dadurch werden Verzerrungen im vergrößert dazustellenden Teilbild durch die Vergrößerung ausgeschlossen.
- Alternativ dazu ist es auch denkbar, dass der Vergrößerungsfaktor in X-Richtung und in Y-Richtung jeweils unterschiedlich groß ist. Dadurch wird das vergrößert darzustellende Teilbild in einer Richtung gestreckt bzw. in einer Richtung gestaucht. Nach einer weiteren Alternative ist es denkbar, dass der Vergrößerungsfaktor jeweils von der Lage des entsprechenden Bildpunkts in der Teilbildfläche abhängt. Auf diese Weise kann der Vergrößerungsfaktor also in der Teilbildfläche variieren.
- Zur Variation des Vergrößerungsfaktors in der vergrößert darzustellenden Teilbildfläche ist es beispielsweise denkbar, dass der Vergrößerungsfaktor im Zentrum der darzustellenden Teilbildfläche am größten und am Rand der darzustellenden Teilbildfläche am kleinsten ist. Dadurch lässt sich eine Vergrößerung realisieren, die einen linsenförmigen Bildeindruck beim Benutzer erweckt.
- Welche Teilbildflächen der Bildflächen der Anzeigeeinrichtung vergrößert werden ist grundsätzlich beliebig. Besonders große Bedeutung hat die Vergrößerung von Teilbildflächen, die ein Schaltelement, ein Textfeld oder ein Graphikfeld darstellen. Schaltelemente zeichnen sich dabei dadurch aus, dass ihnen jeweils eine bestimmte Bedienfunktion zugeordnet ist. In Textfeldern werden Textinhalte dargestellt, wohingegen Graphikfelder zur Darstellung bestimmter Graphikinhalte vorgesehen sind.
- Um die bevorzugte Vergrößerung bestimmter Teilbildflächen auch in den Fällen zu realisieren, in denen die Annäherung des Bedienelements bzw. Körperelements eine Vergrößerung der Teilbildfläche an sich noch nicht auslösen würde, kann diesen Teilbildflächen eine umgebende Ergänzungsfläche zugeordnet sein. Wird nun das Bedienelement oder das Körperteil an die Ergänzungsfläche angenähert, so bewirkt dies bereits eine vergrößerte Darstellung der der Ergänzungsfläche zugeordneten Teilbildfläche. Diese Art der bevorzugten Vergrößerung hat insbesondere Bedeutung bei häufig verwendeten Bedienelementen. Durch die Ergänzungsfläche wird den häufig verwendeten Bedienelementen ein vergrößertes Einzugsgebiet für die Detektion der Annäherung des Bedienelements bzw. Körperteils zugeordnet.
- Zur Erweiterung der Funktion der erfindungsgemäßen Anzeigeeinrichtung kann diese Anzeigeeinrichtung als Teil einer Eingabeeinrichtung eingesetzt werden. Durch entsprechende Eingabeelemente bzw. Eingabefunktionen hat der Benutzer dann die Möglichkeit abhängig von den Bildinhalten an der Anzeigeeinrichtung bestimmte Eingaben zu machen.
- Gemäß einer ersten Variante zur Integration der Anzeigeeinrichtung in eine Eingabeeinrichtung kann vorgesehen sein, dass unter der Bildfläche mehrere Kontaktsensoren abgeordnet sind. Durch die Kontaktsensoren kann der Kontakt des Bedienelements oder des Körperteils auf zugeordneten Teilbildflächen detektiert werden. Abhängig von der detektierten Teilbildfläche wird ein der Teilbildfläche zugeordneter Bedienbefehl selektiert bzw. ausgelöst. Dies entspricht letztendlich der Funktion eines klassischen Touch Screens.
- Alternativ dazu ist es auch denkbar die Näherungssensorik selbst zur Selektion bzw. Auslösung des Bedienbefehls zu benutzen. Dabei wird zunächst die Lage des Bedienelements oder Körperteils durch die Nähe rungssensorik detektiert und dadurch eine bestimmte Teilbildfläche selektiert. Die selektierte Teilbildfläche kann dabei vorzugsweise vergrößert dargestellt werden, um dem Benutzer die entsprechende Selektion anzuzeigen. Außerdem wird der Abstand des Bedienelements oder Körperteils zur Bildfläche in Z-Richtung überwacht. Unterschreitet dieser Abstand einen vordefinierten Grenzabstand, so wird ein der selektierten Teilbildfläche zugeordneter Bedienbefehl ausgelöst. Dies bedeutet mit anderen Worten, dass durch die Annäherung des Bedienelements bzw. Körperteils ein selektierter Bedienbefehl, der der selektierten Teilbildfläche zugeordnet ist, durch den Benutzer bestätigt und damit ausgelöst werden kann.
- In welche Geräteklasse die Anzeigeeinrichtung integriert ist, ist grundsätzlich beliebig. Besonders große Vorteile bietet die erfindungsgemäße Anzeigeeinrichtung bei Navigationssystemen, insbesondere mobilen Navigationsgeräten. Bei diesen Navigationsgeräten muss auf einem relativ kleinen Bildschirm eine Vielzahl von Bildinhalten dargestellt werden, so dass insbesondere die Vergrößerung einzelner Bildbestandteile von großer Bedeutung ist. Diese Vergrößerung einzelner Bildinhalte wird durch Einsatz der erfindungsgemäßen Anzeigeeinrichtung erheblich vereinfacht.
- Insbesondere bei der Anzeige von Landkarten ist die erfindungsgemäße Anzeigeeinrichtung von Vorteil. Wird die Landkarte eines Navigationssystems an einer erfindungsgemäßen Anzeigeeinrichtung angezeigt, kann die Lage des Bedienelements oder Körperteils durch die Näherungssensorik detektiert und die Landkarte in Abhängigkeit von der detektierten Lage des Bedienelements oder Körperteils verschoben werden. Dadurch wird eine intuitive Bedienbarkeit des Navigationssystems bei der Anzeige und Verschiebung von Landkarten ermöglicht.
- Alternativ bzw. additiv dazu ist es auch vorteilhaft, wenn der Zoomvergrößerungsfaktor von am Navigationssystem angezeigten Landkarten durch Annäherung bzw. Entfernung des Bedienelements bzw. Körperteils veränderbar ist. Dabei sollte der Zoomvergrößerungsfaktor bei Annäherung des Bedienelements bzw. Körperteils an die Bildfläche vergrößert und bei Entfernung verkleinert werden.
- Verschiedene Teilaspekte der Erfindung sind in den Zeichnungen schematisch dargestellt und werden nachfolgend beispielhaft erläutert.
- Es zeigen:
-
1 ein Navigationsgerät mit erfindungsgemäßer Anzeigeeinrichtung bei Annäherung eines Körperteils an die Anzeigeeinrichtung; -
2 den Bildinhalt einer erfindungsgemäßen Anzeigeeinrichtung ohne vergrößerte Teilbildfläche; -
3 die Anzeigeeinrichtung gemäß2 bei Annäherung eines Körperteils an eine Teilbildfläche zur Darstellung eines Bedienelements; -
4 die Anzeigeeinrichtung gemäß2 bei Annäherung eines Körperteils an ein Graphikfeld; -
5 die Anzeigeeinrichtung gemäß2 bei Annäherung eines Körperteils an ein Textfeld. -
1 zeigt schematisch ein Navigationsgerät01 mit einer Anzeigeeinrichtung02 zur programmgesteuerten elektronischen Anzeige von Bildinhalten. In das Navigationsgerät01 ist eine Näherungssensorik, beispielsweise eine Stereobildkamera, eingebaut, mit der die Lage eines Körperteils, nämlich eines Zeigefingers03 , relativ zur Anzeigeeinrichtung02 bestimmt werden kann. Dabei wird zum einen der Abstand in Z-Richtung und zum anderen die relative Lage des Zeigefingers03 in X-Richtung und Y-Richtung detektiert. - Die Bildfläche
04 der Anzeigeeinrichtung02 ist in eine Vielzahl von vordefinierten Teilbildflächen05 aufgeteilt. Bei Annäherung des Zeigefingers03 an die Anzeigeeinrichtung02 gilt die Teilbildfläche05 als selektiert, die den geringsten Abstand in Z-Richtung zum Zeigefinger03 aufweist. Die jeweils selektierte Teilbildfläche05 wird dann vergrößert dargestellt. Anhand der Beispiele in2 bis5 soll beispielhaft die Funktionsweise der Anzeigeeinrichtung02 erläutert werden. -
2 stellt den Bildinhalt an der Bildfläche04 der Anzeigeeinrichtung02 ohne Annäherung des Zeigefingers03 dar. Verschiedene Bedienelemente, Textfelder und Graphikfelder werden in üblicher Weise elektronisch angezeigt. -
3 stellt die Anzeigeeinrichtung02 bei senkrechter Annäherung des Zeigefingers03 an ein Bedienelement06 dar. Das Bedienelement06 , das normalerweise (siehe2 ) entsprechend der Größe der anderen Bedienelemente dargestellt wird, wird bei Annäherung des Zeigefingers03 vergrößert und zugleich selektiert. Durch weitere Annäherung des Zeigefingers an das nun vergrößerte Bedienelement06 bis zur Unterschreitung eines vordefinierten Grenzabstands kann der dem Bedienelement zugeordnete Bedienbefehl ausgelöst werden. Alternativ dazu ist es auch denkbar, dass die Anzeigeeinrichtung02 in der Art eines Touch Screens ausgebildet ist und durch Berührung des vergrößerten Bedienelements06 der dem Bedienelement06 zugeordnete Bedienbefehl ausgelöst wird. -
4 stellt beispielhaft die Annäherung des Zeigefingers03 an eine an der Anzeigeeinrichtung02 angezeigten Landkarte07 dar. Jeweils der Punkt10 mit dem kürzesten Abstand zum Zeigefinger03 bestimmt das Zentrum eines lupenartig vergrößerten Teilbildbereichs11 , der in4 strichliniert angedeutet ist. Der Vergrößerungsfaktor im Teilbildbereich11 variiert dabei in Abhängigkeit von der Lage. Der größte Vergrößerungsfaktor wird auf das Zentrum im Bereich des Mittelpunktes10 angewendet, wohingegen der Vergrößerungsfaktor am Rand des Teilbild bereichs11 am kleinsten ist. Auf diese Weise wird ein linsenartiger Vergrößerungseffekt erzielt. -
5 stellt die Annäherung des Zeigefingers03 an ein Textfeld12 dar. Das Textfeld12 zur numerischen Anzeige der geographischen Lage des Navigationssystems wird bei Annäherung des Zeigefingers vergrößert an der Anzeigeeinrichtung02 eingeblendet. In diesem Fall ist ein unterschiedlicher Vergrößerungsfaktor zwischen x- und y-Richtung vorgenommen worden, trotzdem bleibt die Lesbarkeit erhalten. -
- 01
- Navigationsgerät
- 02
- Anzeigeeinrichtung
- 03
- Zeigefinger
- 04
- Bildfläche
- 05
- Teilbildfläche
- 06
- Bedienelement
- 07
- Landkarte
- 08
- 09
- 10
- Mittelpunkt
- 11
- Graphikfeld
- 12
- Textfeld
Claims (22)
- Anzeigeeinrichtung (
02 ) mit einer Bildfläche (04 ), an der Bildinhalte (05 ,06 ,07 ,11 ,12 ) elektronisch steuerbar anzeigbar sind, wobei die Bildfläche (04 ) eine zweidimensionale Ausdehnung in X-Richtung und in Y-Richtung aufweist, dadurch gekennzeichnet, dass die Anzeigeeinrichtung (02 ) mit einer Näherungssensorik zusammenwirkt, wobei durch die Näherungssensorik der Abstand und/oder die Abstandsänderung eines Bedienelements oder Körperteils (03 ) zur Bildfläche (04 ) in Z-Richtung und die Relativlage und/oder die Relativlageänderungen des Bedienelements oder des Körperteils (03 ) relativ zur Bildfläche (04 ) in X-Richtung und in Y-Richtung detektierbar ist, und wobei der an der Bildfläche (04 ) angezeigten Bildinhalt (06 ,07 ,11 ,12 ) in Abhängigkeit von der durch die Näherungssensorik detektierten Lage des Bedienelements oder Körperteils (03 ) programmgesteuert veränderbar ist. - Anzeigeeinrichtung nach Anspruch 1, dadurch gekennzeichnet, dass in Abhängigkeit von der durch die Näherungssensorik detektierten Lage des Bedienelements oder Körperteils (
03 ) eine Teilbildfläche (05 ,06 ,11 ,12 ) selektiert und vergrößert dargestellt werden kann. - Anzeigeeinrichtung nach Anspruch 2, dadurch gekennzeichnet, dass die Bildfläche in vordefinierte Teilbildflächen (
05 ,06 ,11 ,12 ) aufgeteilt ist, wobei die Teilbildfläche (05 ,06 ,11 ,12 ) selektiert und vergrößert dargestellt wird, die den geringsten Abstand zum Bedienelement oder Körperteil (03 ) in Z-Richtung aufweist. - Anzeigeeinrichtung nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass der Vergrößerungsfaktor, um den die vergrößert darzustellende Teilbildflächen (
05 ,06 ,11 ,12 ) vergrößert wird, vom durch die Näherungssensorik detektierten Abstand des Bedienelements oder Körperteils (03 ) zur Bildfläche (04 ) in Z-Richtung abhängt. - Anzeigeeinrichtung nach einem der Ansprüche 2 bis 4, dadurch gekennzeichnet, dass der Vergrößerungsfaktor linear proportional vom Abstand des Bedienelements oder Körperteils (
03 ) zur Bildfläche (04 ) in Z-Richtung abhängt. - Anzeigeeinrichtung nach einem der Ansprüche 2 bis 5, dadurch gekennzeichnet, dass der Vergrößerungsfaktor umso größer ist, je kleiner der Abstand des Bedienelements oder Körperteils (
03 ) zur Bildfläche (04 ) in Z-Richtung ist. - Anzeigeeinrichtung nach einem der Ansprüche 2 bis 6, dadurch gekennzeichnet, dass der Vergrößerungsfaktor bei Überschreiten eines vordefinierten Grenzabstandes des Bedienelements oder Körperteils (
03 ) zur Bildfläche (04 ) in Z-Richtung gleich 1 ist. - Anzeigeeinrichtung nach einem der Ansprüche 2 bis 7, dadurch gekennzeichnet, dass unter der Bildfläche mehrere Näherungssensoren angeordnet sind, die jeweils genau einer vordefinierten Teilbildfläche zugeordnet sind, wobei mit jedem Näherungssensor der Abstand des Bedienelements oder Körperteils zur Bildfläche detektierbar ist, und wobei die Teilbildfläche vergrößert dargestellt wird, deren zugeordneter Näherungssensor den kleinsten Abstand zum Bedienelement oder Körperteil detektiert.
- Anzeigeeinrichtung nach einem der Ansprüche 2 bis 7, dadurch gekennzeichnet, dass Näherungssensorik von einem optischen Stereokamerasystem gebildet wird.
- Anzeigeeinrichtung nach einem der Ansprüche 2 bis 8, dadurch gekennzeichnet, dass die vergrößert darzustellende Teilbildflächen (
05 ,06 ,11 ,12 ) rechteckförmig oder kreisförmig ausgebildet ist. - Anzeigeeinrichtung nach einem der Ansprüche 2 bis 10, dadurch gekennzeichnet, dass die vergrößert darzustellende Teilbildfläche (
06 ,12 ) in X-Richtung und in Y-Richtung mit jeweils gleich großem Vergrößerungsfaktor vergrößert wird. - Anzeigeeinrichtung nach einem der Ansprüche 2 bis 10, dadurch gekennzeichnet, dass die vergrößert darzustellende Teilbildfläche in X-Richtung und in Y-Richtung mit jeweils unterschiedlich großem Vergrößerungsfaktor vergrößert wird.
- Anzeigeeinrichtung nach einem der Ansprüche 2 bis 10, dadurch gekennzeichnet, dass Vergrößerungsfaktor innerhalb der vergrößert darzustellende Teilbildfläche (
11 ) variiert. - Anzeigeeinrichtung nach Anspruch 13, dadurch gekennzeichnet, dass der Vergrößerungsfaktor im Zentrum der vergrößert darzustellende Teilbildfläche (
11 ) am größten und am Rand der darzustellende Teilbildfläche am kleinsten ist. - Anzeigeeinrichtung nach einem der Ansprüche 2 bis 14, dadurch gekennzeichnet, dass die vergrößerte Teilbildfläche – ein Bedienelement (
06 ), der eine Bedienfunktion zugeordnet ist, und/oder – ein Textfeld (12 ), dem ein Textinhalt zugeordnet ist, und/oder – ein Grafikfeld (11 ), dem ein graphischer Bildinhalt zugeordnet ist, darstellt. - Anzeigeeinrichtung nach einem der Ansprüche 2 bis 15, dadurch gekennzeichnet, dass der vergrößert darzustellenden Teilbildfläche eine die Teilbildfläche zumindest teilweise umgebende Ergänzungsfläche zugeordnet ist, wobei durch Annäherung des Bedienelements oder des Körperteils an die Ergänzungsfläche eine vergrößerte Darstellung der Teilbildfläche bewirkt wird.
- Anzeigeeinrichtung nach einem der Ansprüche 1 bis 16, dadurch gekennzeichnet, dass die Anzeigeeinrichtung Teil einer Eingabeeinrichtung ist, wobei unter der Bildfläche mehrere Kontaktsensoren angeordnet sind, die jeweils genau einer Teilbildfläche zugeordnet sind, und wobei mit den Kontaktsensoren der Kontakt des Bedienelements oder Körperteils auf der zugeordneten Teilbildfläche detektierbar ist, und wobei durch Detektion des Kontakt des Bedienelements oder Körperteils auf einer Teilbildfläche ein der Teilbildfläche zugeordneter Bedienbefehl selektiert und/oder ausgelöst werden kann.
- Anzeigeeinrichtung nach einem der Ansprüche 1 bis 16, dadurch gekennzeichnet, dass die Anzeigeeinrichtung Teil (
02 ) einer Eingabeeinrichtung ist, wobei in Abhängigkeit von der durch die Näherungssensorik detektierten Lage des Bedienelements oder Körperteils (03 ) eine Teilbildfläche (05 ,06 ,11 ,12 ) selektiert wird, und wobei durch Unterschreiten eines vordefinierten Grenzabstandes des Bedienelements oder Körperteils (03 ) zur Bildfläche (04 ) in Z-Richtung ein der selektiert Teilbildfläche (05 ,06 ,11 ,12 ) zugeordneter Bedienbefehl ausgelöst werden kann. - Anzeigeeinrichtung nach einem der Ansprüche 1 bis 18, dadurch gekennzeichnet, dass die Anzeigeeinrichtung (
02 ) Teil eines Navigationssystems, insbesondere Teil eines mobilen Navigationsgerätes (01 ), ist. - Anzeigeeinrichtung nach Anspruch 19, dadurch gekennzeichnet, dass an der Anzeigeeinrichtung (
02 ) des Navigationssystems (01 ) der dargestellte Ausschnitt einer Landkarte (07 ) in Abhängigkeit von der durch die Näherungssensorik detektierten Lage des Bedienelements oder Körperteils (03 ) verschoben werden kann. - Anzeigeeinrichtung nach Anspruch 19 oder 20, dadurch gekennzeichnet, dass an der Anzeigeeinrichtung (
02 ) des Navigationssystems (01 ) der Zoomvergrößerungsfaktor, insbesondere eines Teils, eines dargestellten Ausschnitts einer Landkarte (07 ) in Abhängigkeit von der durch die Näherungssensorik detektierten Lage des Bedienelements oder Körperteils (03 ) verändert werden kann. - Anzeigeeinrichtung nach Anspruch 21, dadurch gekennzeichnet, dass der Zoomvergrößerungsfaktor bei Annäherung des Bedienelements oder Körperteils (
03 ) an die Bildfläche (04 ) vergrößert wird.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102007039669A DE102007039669A1 (de) | 2007-08-22 | 2007-08-22 | Anzeigeeinrichtung mit Bildfläche |
PCT/DE2008/001156 WO2009024112A2 (de) | 2007-08-22 | 2008-07-21 | Anzeigeeinrichtung mit bildfläche |
EP08784339A EP2181383A2 (de) | 2007-08-22 | 2008-07-21 | Anzeigeeinrichtung mit bildfläche |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102007039669A DE102007039669A1 (de) | 2007-08-22 | 2007-08-22 | Anzeigeeinrichtung mit Bildfläche |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102007039669A1 true DE102007039669A1 (de) | 2009-02-26 |
Family
ID=39970966
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102007039669A Withdrawn DE102007039669A1 (de) | 2007-08-22 | 2007-08-22 | Anzeigeeinrichtung mit Bildfläche |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP2181383A2 (de) |
DE (1) | DE102007039669A1 (de) |
WO (1) | WO2009024112A2 (de) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2202626A2 (de) | 2008-12-26 | 2010-06-30 | Brother Kogyo Kabushiki Kaisha | Eingabevorrichtung |
EP2367095A2 (de) | 2010-03-19 | 2011-09-21 | Navigon AG | Portables elektronisches Navigationsgerät |
WO2012031606A1 (en) * | 2010-09-06 | 2012-03-15 | Valeo Schalter Und Sensoren Gmbh | Method for operating a driver assistance device, driver assistance device and vehicle with a driver assistance device |
EP2575006A1 (de) * | 2011-09-27 | 2013-04-03 | Elo Touch Solutions, Inc. | Interaktion eines Benutzers mit einer Vorrichtung auf Berührungs- und berührungsloser Basis |
EP2575007A1 (de) * | 2011-09-27 | 2013-04-03 | Elo Touch Solutions, Inc. | Skalierung von Eingaben auf Gestenbasis |
EP2533016A3 (de) * | 2011-06-10 | 2015-05-13 | The Boeing Company | Verfahren und Systeme zur Durchführung von Bestandsaufnahmeaufgaben |
EP3182250A1 (de) * | 2015-12-18 | 2017-06-21 | Delphi Technologies, Inc. | System und verfahren zur überwachung eines 3d-raums vor einer ausgabeeinheit zur steuerung der ausgabeeinheit |
DE102014216626B4 (de) | 2014-08-21 | 2023-10-05 | Volkswagen Aktiengesellschaft | Verfahren zum Teilen von Daten in einem Fahrzeug sowie entsprechende Vorrichtung |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008032377A1 (de) | 2008-07-09 | 2010-01-14 | Volkswagen Ag | Verfahren zum Betrieb eines Bediensystems für ein Fahrzeug und Bediensystem für ein Fahrzeug |
US9658765B2 (en) * | 2008-07-31 | 2017-05-23 | Northrop Grumman Systems Corporation | Image magnification system for computer interface |
DE102011117289B4 (de) | 2011-10-31 | 2017-08-24 | Volkswagen Ag | Verfahren zum Betreiben einer mobilen Vorrichtung in einem Fahrzeug, Koppelvorrichtung, Fahrzeug sowie System |
DE102013013697B4 (de) * | 2013-08-16 | 2021-01-28 | Audi Ag | Vorrichtung und Verfahren zum Eingeben von Schriftzeichen im freien Raum |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19958443A1 (de) * | 1999-12-03 | 2001-06-07 | Siemens Ag | Bedieneinrichtung |
EP1115091A2 (de) * | 2000-01-06 | 2001-07-11 | Canon Kabushiki Kaisha | Datenverarbeitungsanlage, Drucker, Bildaufzeichnungssystem und Verfahren |
JP2002342033A (ja) * | 2001-05-21 | 2002-11-29 | Sony Corp | 非接触型ユーザ入力装置 |
US20030151592A1 (en) * | 2000-08-24 | 2003-08-14 | Dieter Ritter | Method for requesting destination information and for navigating in a map view, computer program product and navigation unit |
DE10322801A1 (de) * | 2003-05-19 | 2004-12-09 | Gate5 Ag | Verfahren zur tastaturgestützten, einhändigen Steuerung einer digitalen Karte |
DE102004023196A1 (de) * | 2004-05-11 | 2005-12-08 | Siemens Ag | Verfahren zur visuellen Darstellung einer geographischen Karte auf einem Display eines mobilen Kommunikationsgerätes sowie mobiles Kommunikationsgerät zur Durchführung des Verfahrens |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08212005A (ja) * | 1995-02-07 | 1996-08-20 | Hitachi Ltd | 3次元位置認識型タッチパネル装置 |
US8035612B2 (en) * | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
CA2494353A1 (en) * | 2002-08-02 | 2004-02-12 | Cirque Corporation | Single-layer touchpad having touch zones |
JP2004287168A (ja) * | 2003-03-24 | 2004-10-14 | Pioneer Electronic Corp | 情報表示装置及び情報表示方法 |
GB2437988B (en) * | 2004-03-15 | 2008-10-01 | Tomtom Bv | GPS navigation device |
EP1769328A2 (de) * | 2004-06-29 | 2007-04-04 | Koninklijke Philips Electronics N.V. | Herein-zoom-3d-berührungsinteraktion |
US7653883B2 (en) * | 2004-07-30 | 2010-01-26 | Apple Inc. | Proximity detector in handheld device |
JP4839603B2 (ja) * | 2004-11-22 | 2011-12-21 | ソニー株式会社 | 表示装置、表示方法、表示プログラム及び表示プログラムを記録した記録媒体 |
JP5007782B2 (ja) * | 2005-11-17 | 2012-08-22 | 株式会社デンソー | ナビゲーション装置および地図表示縮尺設定方法 |
DE202006003912U1 (de) * | 2006-03-09 | 2007-07-19 | Klicktel Ag | Navigationsgerät mit Bedienfläche auf berührungsempfindlichem Bildschirm |
-
2007
- 2007-08-22 DE DE102007039669A patent/DE102007039669A1/de not_active Withdrawn
-
2008
- 2008-07-21 WO PCT/DE2008/001156 patent/WO2009024112A2/de active Application Filing
- 2008-07-21 EP EP08784339A patent/EP2181383A2/de not_active Withdrawn
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19958443A1 (de) * | 1999-12-03 | 2001-06-07 | Siemens Ag | Bedieneinrichtung |
EP1115091A2 (de) * | 2000-01-06 | 2001-07-11 | Canon Kabushiki Kaisha | Datenverarbeitungsanlage, Drucker, Bildaufzeichnungssystem und Verfahren |
US20030151592A1 (en) * | 2000-08-24 | 2003-08-14 | Dieter Ritter | Method for requesting destination information and for navigating in a map view, computer program product and navigation unit |
JP2002342033A (ja) * | 2001-05-21 | 2002-11-29 | Sony Corp | 非接触型ユーザ入力装置 |
DE10322801A1 (de) * | 2003-05-19 | 2004-12-09 | Gate5 Ag | Verfahren zur tastaturgestützten, einhändigen Steuerung einer digitalen Karte |
DE102004023196A1 (de) * | 2004-05-11 | 2005-12-08 | Siemens Ag | Verfahren zur visuellen Darstellung einer geographischen Karte auf einem Display eines mobilen Kommunikationsgerätes sowie mobiles Kommunikationsgerät zur Durchführung des Verfahrens |
Non-Patent Citations (2)
Title |
---|
JP-Abstract & JP 2002342033 A * |
JP-Abstract 2002342033 A |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2202626A2 (de) | 2008-12-26 | 2010-06-30 | Brother Kogyo Kabushiki Kaisha | Eingabevorrichtung |
EP2202626A3 (de) * | 2008-12-26 | 2011-01-05 | Brother Kogyo Kabushiki Kaisha | Eingabevorrichtung |
US8271900B2 (en) | 2008-12-26 | 2012-09-18 | Brother Kogyo Kabushiki Kaisha | Inputting apparatus |
EP2367095A2 (de) | 2010-03-19 | 2011-09-21 | Navigon AG | Portables elektronisches Navigationsgerät |
WO2012031606A1 (en) * | 2010-09-06 | 2012-03-15 | Valeo Schalter Und Sensoren Gmbh | Method for operating a driver assistance device, driver assistance device and vehicle with a driver assistance device |
US9618360B2 (en) | 2011-06-10 | 2017-04-11 | The Boeing Company | Methods and systems for performing charting tasks |
EP2533016A3 (de) * | 2011-06-10 | 2015-05-13 | The Boeing Company | Verfahren und Systeme zur Durchführung von Bestandsaufnahmeaufgaben |
US9404767B2 (en) | 2011-06-10 | 2016-08-02 | The Boeing Company | Methods and systems for performing charting tasks |
EP2575007A1 (de) * | 2011-09-27 | 2013-04-03 | Elo Touch Solutions, Inc. | Skalierung von Eingaben auf Gestenbasis |
WO2013046030A3 (en) * | 2011-09-27 | 2013-09-12 | Elo Touch Solutions, Inc. | Scaling of gesture based input |
CN103403661A (zh) * | 2011-09-27 | 2013-11-20 | 电子触控产品解决方案公司 | 手势基输入的缩放 |
US9448714B2 (en) | 2011-09-27 | 2016-09-20 | Elo Touch Solutions, Inc. | Touch and non touch based interaction of a user with a device |
EP2575006A1 (de) * | 2011-09-27 | 2013-04-03 | Elo Touch Solutions, Inc. | Interaktion eines Benutzers mit einer Vorrichtung auf Berührungs- und berührungsloser Basis |
DE102014216626B4 (de) | 2014-08-21 | 2023-10-05 | Volkswagen Aktiengesellschaft | Verfahren zum Teilen von Daten in einem Fahrzeug sowie entsprechende Vorrichtung |
EP3182250A1 (de) * | 2015-12-18 | 2017-06-21 | Delphi Technologies, Inc. | System und verfahren zur überwachung eines 3d-raums vor einer ausgabeeinheit zur steuerung der ausgabeeinheit |
CN106896913A (zh) * | 2015-12-18 | 2017-06-27 | 戴尔菲技术公司 | 监测输出单元前面的3d空间以控制输出单元的系统和方法 |
US10031624B2 (en) | 2015-12-18 | 2018-07-24 | Delphi Technologies, Inc. | System and method for monitoring 3D space in front of an output unit for the control of the output unit |
CN106896913B (zh) * | 2015-12-18 | 2019-11-22 | 戴尔菲技术公司 | 监测3d空间以控制输出单元的系统、方法和车辆 |
Also Published As
Publication number | Publication date |
---|---|
EP2181383A2 (de) | 2010-05-05 |
WO2009024112A2 (de) | 2009-02-26 |
WO2009024112A3 (de) | 2009-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102007039669A1 (de) | Anzeigeeinrichtung mit Bildfläche | |
EP1262740B1 (de) | Fahrzeugrechner-System und Verfahren zur Steuerung eines Cursors für ein Fahrzeugrechner-System | |
EP2867762B1 (de) | Verfahren zum empfangen einer eingabe auf einem berührungsempfindlichen feld | |
DE102012004793B4 (de) | Kraftfahrzeug mit einem elektronischen Rückspiegel | |
DE102010027915A1 (de) | Benutzer-Schnittstellen-Einrichtung zum Steuern eines Fahrzeug-Multimedia-Systems | |
EP2822814B1 (de) | Kraftfahrzeug mit einem elektronischen rückspiegel | |
DE102007025530A1 (de) | Informationsvermittlungsvorrichtung und Verfahren zur Vermittlung von Informationen | |
WO2006066742A1 (de) | Bediensystem für ein fahrzeug | |
DE19824100A1 (de) | Elektronisches Gerät mit einem Drehschalter und einem Anzeigebildschirm | |
EP3114554A1 (de) | Verfahren und vorrichtung zum bereitstellen einer graphischen benutzerschnittstelle in einem fahrzeug | |
DE102012208931A1 (de) | Vorrichtung zur gleichzeitigen Darstellung mehrerer Informationen | |
DE102005025887B4 (de) | Bedieneinrichtung für ein Kraftfahrzeug und Verfahren zum Bedienen einer Bedieneinrichtung | |
DE202010017428U1 (de) | Bedieneinheit | |
DE102005056459A1 (de) | Bediensystem für ein Fahrzeug | |
DE10119648B4 (de) | Anordnung zur Bedienung von fernsehtechnischen Geräten | |
WO2014040807A1 (de) | Berührungseingaben entlang einer schwelle auf einer berührungsempfindlichen oberfläche | |
WO2014114428A1 (de) | Verfahren und system zum blickrichtungsabhängigen steuern einer mehrzahl von funktionseinheiten sowie kraftwagen und mobiles endgerät mit einem solchen system | |
DE102018222124A1 (de) | Verfahren und System zum Einstellen eines Wertes eines Parameters | |
DE102012208457A1 (de) | Anzeige- und Bedienvorrichtung für eine Leitwarte | |
DE19941967B4 (de) | Verfahren und Vorrichtung zur Bewegung eines Aktivierungselementes auf einer Anzeigeeinheit | |
DE102018205616A1 (de) | Portable, mobile Bedienvorrichtung, bei welcher an zumindest zwei Oberflächenbereichen eine Anzeigefläche bereitgestellt ist | |
WO2018068821A1 (de) | Verfahren zur anpassung der darstellung und bedienung einer grafischen benutzerschnittstelle | |
EP2331360B1 (de) | Verfahren und vorrichtung zum anzeigen von information, insbesondere in einem fahrzeug | |
DE102015105433A1 (de) | Gestensensitiver Bildschirm und Rechner | |
EP1830247B1 (de) | Bewegungssensitive Interaktion mit technischen Geräten |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
R082 | Change of representative |
Representative=s name: UEXKUELL & STOLBERG, DE |
|
R081 | Change of applicant/patentee |
Owner name: GARMIN SWITZERLAND GMBH, CH Free format text: FORMER OWNER: NAVIGON AG, 20251 HAMBURG, DE Effective date: 20130110 |
|
R082 | Change of representative |
Representative=s name: UEXKUELL & STOLBERG, DE Effective date: 20121016 Representative=s name: UEXKUELL & STOLBERG PARTNERSCHAFT VON PATENT- , DE Effective date: 20130110 Representative=s name: UEXKUELL & STOLBERG PARTNERSCHAFT VON PATENT- , DE Effective date: 20121016 Representative=s name: BIRD & BIRD LLP, DE Effective date: 20121016 Representative=s name: BIRD & BIRD LLP, DE Effective date: 20130110 Representative=s name: UEXKUELL & STOLBERG, DE Effective date: 20130110 |
|
R082 | Change of representative |
Representative=s name: BIRD & BIRD LLP, DE |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |