DE112009003521T5 - Anzeigeeingabevorrichtung - Google Patents

Anzeigeeingabevorrichtung Download PDF

Info

Publication number
DE112009003521T5
DE112009003521T5 DE112009003521T DE112009003521T DE112009003521T5 DE 112009003521 T5 DE112009003521 T5 DE 112009003521T5 DE 112009003521 T DE112009003521 T DE 112009003521T DE 112009003521 T DE112009003521 T DE 112009003521T DE 112009003521 T5 DE112009003521 T5 DE 112009003521T5
Authority
DE
Germany
Prior art keywords
display
touch panel
character symbols
image
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE112009003521T
Other languages
English (en)
Inventor
Mitsuo Shimotani
Tsutomu Matsubara
Takashi Sadahiro
Masako Ohta
Yuichi OKANO
Tsuyoshi Sempuku
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112009003521T5 publication Critical patent/DE112009003521T5/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04805Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Navigation (AREA)

Abstract

Eine Anzeigeeingabevorrichtung umfasst ein Touch-Panel 1 zum Ausführen einer Anzeige eines Bilds und einer Eingabe eines Bilds, einen Annäherungssensor 12 zum Erfassen einer Bewegung eines zu erfassenden Objekts, das sich gegenüber dem Touch-Panel 1 befindet, auf eine berührungslose Art und Weise, und eine Steuereinheit 3 zum Verarbeiten eines Bilds um einen Anzeigebereich mit einem festen Bereich auf dem Touch-Panel 1 in einer Nähe des zu erfassenden Objekts, wenn der Annäherungssensor 12 eine Annäherung des zu erfassenden Objekts in einem vorbestimmten Abstand von dem Touch-Panel 1 erfasst, und zum Anzeigen des Bilds im Unterschied von einem Bild in dem Anzeigebereich mit dem festen Bereich.

Description

  • Erfindungsgebiet
  • Die vorliegende Erfindung betrifft eine Anzeigeeingabevorrichtung, die besonders geeignet zur Verwendung in einer in einem Fahrzeug angebrachten Informationsausrüstung, wie zum Beispiel einem Navigationssystem, geeignet ist.
  • Hintergrund der Erfindung
  • Ein Touch-Panel ist ein elektronisches Bauelement, bei dem es sich um eine Kombination einer Anzeigeeinheit wie zum Beispiel eine Flüssigkristallanzeigetafel (engl. Liquid Crystal Panel) und eine Koordinatenpositions-Eingabeeinheit wie zum Beispiel ein Berührungsfeld bzw. Touch-Pad handelt, und bei dem es sich um eine Anzeigeeingabevorrichtung handelt, die es einem Nutzer ermöglicht, einen Bildbereich, wie zum Beispiel ein Zeichensymbol (engl. Icon), der auf der Flüssigkristallanzeigetafel angezeigt wird, zu berühren, und Informationen über die Position eines Teils des Bildbereichs erfasst, der durch den Nutzer berührt wurde, um die Ziel-Ausrüstung zu bedienen. Daher wird in vielen Fällen ein Touch-Panel in die Ausrüstung wie zum Beispiel ein in einem Fahrzeug angebrachten Navigationssystem aufgenommen, das im Wesentlichen den Bedarf eines Nutzers erfüllen soll, die Ausrüstung durch Folgen eines selbsterklärenden Verfahrens zu bedienen.
  • Viele Vorschläge zum Verbessern der Leichtigkeit der Verwendung und der Nutzerfreundlichkeit einer Mensch-Maschinen-Vorrichtung einschließlich einer solchen Berührungstafel, wie sie oben erwähnt wurde, sind für ein Patent angemeldet worden.
  • Zum Beispiel ist eine Anzeigeeingabevorrichtung bekannt, bei der, wenn ein Nutzer seinen Finger in die Nähe der Vorrichtung bringt, ein Tastenschalter, der in der Nähe des Fingers positioniert ist, vergrößert und angezeigt wird, um die Auswahloperation des Nutzers zu erleichtern (Verweis zum Beispiel auf Patentreferenz 1), eine CRT-Vorrichtung, die einen vertikalen Abstand eines Fingers erfasst und Informationen mit einem Vergrößerungsmaßstab anzeigt, der von dem Abstand abhängt (Verweis zum Beispiel auf Patentreferenz 2), und eine Anzeigevorrichtung und ein Anzeigeverfahren zum Rotieren von Symbolschaltflächen (engl. Button Icons), wenn eine Symbolschaltfläche niedergedrückt wird, die in einem Bereich angeordnet sind, der die niedergedrückte Symbolschaltfläche umgibt, und zum Versammeln und Anzeigen der Symbolschaltflächen um die niedergedrückte Symbolschaltfläche unter Verwendung einer Animationsfunktion (Verweis zum Beispiel auf Patentreferenz 3).
  • Dokument des Stands der Technik
    • Patentreferenz 1: JP 2006-31499 A
    • Patentreferenz 2: JP 04-1288877 A
    • Patentreferenz 3: JP 2004-259054 A
  • Zusammenfassung der Erfindung
  • Da gemäß der Technologie, die durch die oben erwähnet Patentreferenz 1 offenbart ist, wenn ein Nutzer seinen Finger in die Nähe des Touch-Panels bringt, eine vergrößerte Anzeige eines Zeichensymbols erzeugt wird, welches sich in der Umgebung der Position befindet, an der der Nutzerfinger in der Nähe des Touch-Panels ist, können Betriebsfehler verhindert werden und es wird ermöglicht, dass der Nutzer eine Operation zum Auswählen des Zeichensymbols (engl. Icon) leicht durchführen kann. Da jedoch die Größe des Zeichensymbols variiert, welches der Nutzer herunterdrücken wird, bevor dieser den Finger in die Nähe des Zeichensymbols bringt, hat der Nutzer das Gefühl, dass etwas bei der Durchführung der Operation nicht normal ist, und dies kann die Leichtigkeit der Verwendung der Vorrichtung gegenteilig beeinträchtigen. Wenn gemäß der in der Patentreferenz 2 offenbarten Technologie ferner die Position des Fingers zu weit von der Touch-Panel-Oberfläche entfernt ist, bei dem Versuch die Skalierung zu steuern, schwankt die Skalierung aufgrund der Vibration in der Z-Axialrichtung des Fingers, und daher kann die Steueroperation schwierig werden.
  • Darüber hinaus kann gemäß der in der Patentreferenz 3 offenbarten Technologie eine klare Bildanzeige auf dem Bildschirm eines Touch-Panels mit einem kleinen Anzeigeoberflächenbereich erzeugt werden. Ein Nachteil dieser Technologie besteht jedoch darin, dass Bildzeichen in einem Umgebungsbereich außer der heruntergedrückten Symbolschaltfläche schwer erkennbar sind.
  • Die vorliegende Erfindung dient zur Lösung der oben erwähnten Probleme, und eine Aufgabe der vorliegenden Erfindung besteht in der Bereitstellung einer Anzeigeeingabevorrichtung, die leicht steuerbar ist und die eine exzellente Einfachheit der Verwendung bereitstellt, die einem Nutzer nicht das Gefühl gibt, dass etwas bei der Durchführung einer Operation nicht normal ist.
  • Um die oben erwähnten Probleme zu lösen, umfasst eine Anzeigeeingabevorrichtung gemäß der vorliegenden Erfindung: ein Touch-Panel zum Ausführen einer Anzeige eines Bilds und einer Eingabe eines Bilds; ein Annäherungssensor zum Erfassen einer Bewegung eines zu erfassenden Objekts, das sich gegenüber dem Touch-Panel befindet, auf eine berührungslose Art und Weise; und eine Steuereinheit zum Verarbeiten eines Bilds um einen Anzeigebereich mit einem festen Bereich auf dem Touch-Panel in einer Nähe des zu erfassenden Objekts, wenn der Annäherungssensor eine Annäherung des zu erfassenden Objekts in einem vorbestimmten Abstand von dem Touch-Panel erfasst, und zum Anzeigen des Bilds im Unterschied von einem Bild in dem Anzeigebereich mit dem festen Bereich.
  • Daher kann die Anzeigeeingabevorrichtung gemäß der vorliegenden Erfindung leicht gesteuert werden, und stellt eine exzellente Einfachheit der Verwendung bereit, die einem Nutzer nicht das Gefühl gibt, dass etwas bei der Durchführung einer Operation nicht normal ist.
  • Kurze Beschreibung der Figuren
  • 1 ist ein Blockdiagramm zur Ansicht der internen Struktur einer Anzeigeeingabevorrichtung gemäß Ausführungsform 1 der vorliegenden Erfindung;
  • 2 ist ein Blockdiagramm zur Ansicht einer funktionalen Entwicklung der Programmstruktur einer Navigations-CPU, die die Anzeigevorrichtung gemäß Ausführungsform 1 der vorliegenden Erfindung aufweist;
  • 3 ist ein Blockdiagramm zur Ansicht der internen Struktur einer Zeichnungsschaltung, die die Anzeigeeingabevorrichtung gemäß Ausführungsform 1 der vorliegenden Erfindung aufweist;
  • 4 ist ein Flussdiagramm zur Ansicht des Betriebs der Anzeigeeingabevorrichtung gemäß Ausführungsform 1 der vorliegenden Erfindung;
  • 5 ist eine Bildschirmübergangsansicht zur schematischen Ansicht eines Beispiels des Betriebs der Anzeigeeingabevorrichtung gemäß Ausführungsform 1 der vorliegenden Erfindung auf einem Touch-Panel;
  • 6 ist eine Bildschirmübergangsansicht zur schematischen Darstellung eines anderen Beispiels des Betriebs der Anzeigeeingabevorrichtung gemäß Ausführungsform 1 der vorliegenden Erfindung auf dem Touch-Panel;
  • 7 ist ein Blockdiagramm zur Ansicht einer funktionalen Entwicklung der Programmstruktur einer Navigations-CPU, die eine Anzeigeeingabevorrichtung gemäß Ausführungsform 2 der vorliegenden Erfindung aufweist;
  • 8 ist ein Flussdiagramm zur Ansicht des Betriebs der Anzeigeeingabevorrichtung gemäß Ausführungsform 2 der vorliegenden Erfindung;
  • 9 ist eine Bildschirmübergangsansicht zur schematischen Darstellung eines Beispiels des Betriebs der Anzeigeeingabevorrichtung gemäß Ausführungsform 2 der vorliegenden Erfindung auf einem Touch-Panel;
  • 10 ist ein Flussdiagramm zur Ansicht des Betriebs einer Anzeigeeingabevorrichtung gemäß Ausführungsform 3 der vorliegenden Erfindung; und
  • 11 ist eine Ansicht zur Darstellung einer graphischen Repräsentation des Betriebs der Anzeigeeingabevorrichtung gemäß Ausführungsform 3 der vorliegenden Erfindung.
  • Ausführungsformen der Erfindung
  • Um diese Erfindung detailliert zu erläutern, werden im Folgenden die bevorzugten Ausführungsformen der vorliegenden Erfindung mit Bezug auf die begleitenden Zeichnungen beschrieben.
  • Ausführungsform 1
  • 1 ist ein Blockdiagramm zur Darstellung der Struktur einer Anzeigeeingabevorrichtung gemäß Ausführungsform 1 der vorliegenden Erfindung. Wie in 1 gezeigt, umfasst die Anzeigeeingabevorrichtung gemäß Ausführungsform 1 der vorliegenden Erfindung eine berührungsempfindliche Anzeigeeinheit (im Folgenden als ein Touch-Panel bezeichnet) 1, externe Sensoren 2 und eine Steuereinheit 3.
  • Das Touch-Panel 1 führt eine Anzeige von Informationen und eine Eingabe der Informationen aus. Zum Beispiel ist das Touch-Panel 1 derart konstruiert, dass ein Berührungssensor 11 zum Eingeben von Informationen auf einem LCD-Panel 10 zum Anzeigen von Informationen laminiert ist. In dieser Ausführungsform ist das Touch-Panel 1 und eine Vielzahl von Annäherungssensoren 12, die jeweils eine berührungslose Erfassung in zwei Dimensionen einer Bewegung eines zu erfassenden Objekts ausführen, wie zum Beispiel ein Finger oder ein Stift, die gegenüber dem Touch-Panel 1 positioniert sind, einem peripheren Abschnitt außerhalb des Berührungssensors 11 in einer pro Zellen Basis angebracht.
  • In einem Fall, bei dem jeder der Annäherungssensoren 12 einen Infrarotstrahl verwendet, werden Infrarotstrahlemissions-LEDs (Light Emitted Diodes) und Lichtempfangstransistoren angeordnet, als Erfassungszellen, gegenüber voneinander auf dem peripheren Bereich außerhalb des Berührungssensors 11 in der Form eines Arrays. Jeder der Annäherungssensoren 12 erfasst einen Block von Licht, das davon emittiert wird, oder reflektiertes Licht, das durch eine Annäherung eines zu erfassenden Objekts verursacht wird, um die Annäherung zu erfassen, und erfasst auch die Koordinatenposition des Objekts.
  • Die Erfassungszellen des Annäherungssensors 12 sind nicht auf die oben erwähnten beschränkt, die jeweils einen Infrarotstrahl verwenden. Zum Beispiel können kapazitätsartige Sensoren alternativ verwendet werden, die jeweils eine Annäherung eines zu erfassenden Objekts aus einer Änderung dessen Kapazität erfasst, die zwischen zwei Platten auftritt, die wie in einem Kondensator parallel angeordnet sind. In diesem Fall dient eine der zwei Platten als ein Masseanschlussebene, der zu dem zu erfassenden Objekt hin orientiert ist, und die andere Plattenseite dient als eine Sensorerfassungsebene, und jeder der kapazitätsartigen Sensoren kann eine Annäherung des zu erfassenden Objekts aus einer Änderung dessen Kapazität, die zwischen den zwei Platten ausgebildet ist, erfassen, und kann auch die Koordinatenposition des Objekts erfassen.
  • Andererseits können die externen Sensoren 2 an jeder Position in einem Fahrzeug angebracht werden, und umfassen zumindest einen GPS-(Global Positioning System)Sensor 21, einen Geschwindigkeitssensor 22 und einen Beschleunigungssensor 23.
  • Der GPS-Sensor 21 empfängt Funkwellen von GPS-Satelliten, erzeugt ein Signal, das es der Steuereinheit 3 ermöglicht, den Breitengrad und Längengrad des Fahrzeugs zu messen, und gibt das Signal an die Steuereinheit 3 aus. Der Geschwindigkeitssensor 23 misst Fahrzeuggeschwindigkeitspulse zum Bestimmen, ob oder ob nicht das Fahrzeug fährt, und gibt die Fahrzeuggeschwindigkeitspulse an die Steuereinheit 3 aus. Der Beschleunigungssensor 23 misst zum Beispiel eine Auslenkung eines Gewichts, das an einer Feder angebracht ist, um eine Beschleunigung zu schätzen, die an das Gewicht angelegt wird. In einem Fall, bei dem der Beschleunigungssensor 23 ein dreiachsiger ist, folgt der Beschleunigungssensor einer Beschleunigungsvariation, die zum Beispiel von 0 Hz (nur die Gravitationsbeschleunigung) bis mehrere 100 Hz reicht, und misst die Richtung (Stellung) des Gewichts mit Bezug auf die Grundoberfläche aus der gesamten Summe der Beschleunigungsvektoren in X- und Y-Richtung und übermittelt die Richtung an die Steuereinheit 3.
  • Die Steuereinheit 3 weist eine Funktion auf, wenn die Annäherungssensoren 12 eine Annäherung eines zu erfassenden Objekts erfassen, wie zum Beispiel ein Finger oder ein Stift, innerhalb eines vorbestimmten Abstands von dem Touch-Panel 1, zum Verarbeiten eines Bilds außerhalb eines Anzeigebereichs, der einen festen Bereich aufweist, der auf dem Touch-Panel 1 angezeigt wird, und zum Anzeigen des Bilds im Unterschied zu einem Bild in dem Anzeigebereich, der den festen Bereich aufweist. In dieser Ausführungsform verarbeitet die Steuereinheit, wie im Folgenden erwähnt wird, das Bild außerhalb des Anzeigebereichs, der den festen Bereich aufweist, durch Ausführen eines Bilderzeugungsprozesses mit einer Reduktion, eines Anzeigedekorationssteuerprozesses mit einem Farbton, einer Farbe, einem Schimmer, einem Schwerpunkt oder dergleichen, und zeigt das Bild im Unterschied von dem Bild in dem Anzeigebereich mit dem festen Bereich an.
  • Dazu umfasst die Steuereinheit 3 eine CPU (im Folgenden als eine Navigations-CPU 30 bezeichnet), die im Wesentlichen eine Navigationsverarbeitung ausführt und das Touch-Panel 1 steuert, eine Zeichnungsschaltung 31, einen Speicher 32 und eine Karten-DB (Karten-Datenbank) 33.
  • Unter der Annahme eines Falls, bei dem eine Software-Tastatur in einem Anzeigebereich des Touch-Panels 1 angezeigt wird, bedeutet in dieser Beschreibung, wenn ein zu erfassendes Objekt, wie zum Beispiel ein Finger, in die Nähe des Touch-Panels 1 gebracht wird, ein Bild in „dem Anzeigebereich mit dem festen Bereich” eine Anordnung einiger Kandidaturtasten, wobei eine davon durch das zu erfassende Objekt niedergedrückt wird, und ein Bild „außerhalb des Bereichs mit dem festen Bereich” bedeutet eine Anordnung aller Tasten außer der oben erwähnten Kandidaturtasten. Daher wird in der folgenden Beschreibung zur Vereinfachung ein Bild, das in dem Anzeigebereich mit dem festen Bereich angezeigt wird, als „internes Zeichensymbol” bezeichnet, und ein Bild, das außerhalb des Anzeigebereichs mit dem festen Bereich angezeigt wird, und das verarbeitet wird, um das bild von internen Zeichensymbolen zu unterscheiden, als „externe Zeichensymbole” bezeichnet.
  • Die Navigations-CPU 30 führt einen Navigationsprozess aus, wenn ein Navigationsmenü, wie zum Beispiel ein Routensuchmenü, das auf dem Touch-Panel 1 angezeigt wird, durch einen Nutzer ausgewählt wird, zum Bereitstellen einer dem Menü folgenden Navigation. Beim Ausführen des Navigationsprozesses bezieht sich die Navigations-CPU 30 auf Karteninformationen, die in der Karten-DB 33 gespeichert sind, und führt eine Routensuche, eine Zielführung oder dergleichen gemäß verschiedener Sensorsignale aus, die von den externen Sensoren 2 erfasst werden.
  • Um die Funktion der Steuereinheit 3 zu Implementieren, wenn die Annäherungssensoren 12 eine Annäherung eines zu erfassenden Objekts erfassen, wie zum Beispiel ein Finger oder ein Stift, innerhalb des vorbestimmten Abstands von dem Touch-Panel 1, zum Verarbeiten der externen Zeichensymbole, die auf dem Touch-Panel 1 angezeigt sind und zum Anzeigen der externen Zeichensymbole im Unterschied zu den internen Zeichensymbolen, erzeugt die Navigations-CPU 30 ferner Bildinformationen und steuert die Zeichnungsschaltung 31 gemäß eines Programms, das in der Speichereinheit 32 gespeichert ist. Die Struktur des Programms, das die Navigations-CPU 30 in diesem Fall ausführt, ist in 2 gezeigt, und Details der Struktur werden im Folgenden erwähnt.
  • Die Zeichnungsschaltung 31 erweitert die Bildinformationen, die durch die Navigations-CPU 30 erzeugt sind, in einer Bitmap-Speichereinheit, die darin eingebaut ist, oder außerhalb der Zeichnungsschaltung angebracht ist, bei einer festen Geschwindigkeit, liest Bildinformationen, die in der Bitmap-Speichereinheit erweitert wurden, durch eine Anzeigesteuereinheit, die vergleichbar darin eingebraut ist, synchron mit dem Anzeigezeitpunkt des Touch-Panels 1 (dem LCD-Panel 10) und zeigt die Anzeigeinformation auf dem Touch-Panel 1 an.
  • Die oben erwähnte Bitmap-Speichereinheit und die oben erwähnte Anzeigesteuereinheit sind in 3 gezeigt, und Details dieser Komponenten werden im Folgenden erwähnt.
  • Ein Bildinformations-Speicherbereich und dergleichen werden einem Arbeitsbereich der Speichereinheit 32 zugewiesen, der zusätzlich zu einem Programmbereich bereitgestellt wird, indem das oben genannte Programm gespeichert wird, und Bildinformationen werden in der Speichereinheit 32 gespeichert.
  • Fernen werden Karten, Einrichtungsinformationen und dergleichen, die zur Navigation erforderlich sind, einschließlich einer guten Suche und Führung, in der Karten-Datenbank 33 gespeichert.
  • 2 ist ein Blockdiagramm zur Darstellung einer funktionalen Entwicklung der Struktur des Programms, das die Navigations-CPU 30 der 1, die die Anzeigeeingabevorrichtung (die Steuereinheit 3) gemäß Ausführungsform 1 der vorliegenden Erfindung aufweist, ausführt.
  • Wie in 2 gezeigt, umfasst die Navigations-CPU 30 eine Hauptsteuereinheit 300, eine Annäherungskoordinatenpositions-Berechnungseinheit 301, eine Berührungskoordinatenpositions-Berechnungseinheit 302, eine Bildinformations-Erzeugungseinheit 303, eine Bildinformations-Transfereinheit 304, eine UI-(User Interface bzw. Nutzerschnittstelle)Bereitstellungseinheit 305 und eine Betriebsinformationsverarbeitungseinheit 306.
  • Die Annäherungskoordinatenpositions-Berechnungseinheit 301 weist eine Funktion auf zum Berechnen der XY-Koordinatenposition des Fingers und zur Versorgung der XY-Koordinatenposition an die Hauptsteuereinheit 300, wenn die Annäherungssensoren 12 eine Annäherung eines Fingers an das Touch-Panel 1 erfassen.
  • Die Berührungskoordinatenpositions-Berechnungseinheit 302 weist eine Funktion auf zum Berechnen der XY-Koordinatenposition der Berührung und zum Versorgen der XY-Koordinatenposition an die Hauptsteuereinheit 300, wenn der Berührungssensor 11 eine Berührung eines zu erfassenden Objekts, wie zum Beispiel ein Finger, auf dem Touch-Panel erfasst.
  • Die Bildinformations-Erzeugungseinheit 303 weist eine Funktion auf zum Erzeugen von Bildinformationen, die auf dem Touch-Panel 1 (dem LCD-Panel 10) unter Steuerung der Hauptsteuereinheit 300 angezeigt werden, und zum Ausgeben der Bildinformationen an die Bildinformationsübertragungseinheit 4.
  • Die Bildinformationserzeugungseinheit 303 verarbeitet ein Bild externer Zeichensymbole, die auf dem Touch-Panel 1 angezeigt werden und zeigt das Bild im Unterschied zu den internen Zeichensymbolen an. Wenn sich zum Beispiel ein Finger an das Touch-Panel 1 annähert, lässt die Bildinformationserzeugungseinheit 303 eine Anordnung einiger Kandidatentasten (interne Zeichensymbole), wobei eine davon durch den Finger niedergedrückt wird, genauso wie diese ist, und erzeugt ein reduziertes Bild externer Zeichensymbole durch Ausdünnen der Pixel eines Bilds, das eine Tastaturanordnung mit Ausnahme der Kandidatentasten konstruiert, bei festen Intervallen einiger Pixel. Die Bildinformationserzeugungseinheit gibt Bildinformationen aus, wobei die Bildinformationserzeugungseinheit die externen Zeichensymbole, die durch Ausdünnen der Pixel des originalen Bilds bei festen Intervallen aktualisiert wurden, und die internen Zeichensymbole zusammenfasst und dann zusammen mit einer Zeichnungsanweisung die Zeichnungsschaltung 31 erzeugt. Ferner weist die Bildinformationsübertragungseinheit 304 eine Information zum Übertragen der Bildinformationen, die durch die Bildinformationserzeugungseinheit 303 erzeugt wurden, an die Zeichnungsschaltung 31 auf, unter der Zeitsteuerung der Hauptsteuerung 300. Obwohl das Verfahren zum Reduzieren des originalen Bitmap-Bilds durch Ausdünnen des originalen Bitmap-Bilds als ein Beispiel erläutert wurde, kann in einem Fall der Verarbeitung eines Vektorbilds anstelle eines Bit-Bilds, das Vektorbild durch eine vorbestimmte Reduzierungsberechnung in ein schöneres Bild reduziert werden. Ferner kann ein Bild mit einer reduzierten Größe vorab bereitgestellt werden und angezeigt werden.
  • Zu dem Zeitpunkt, wenn die Konfigurationseinstellungen durchgeführt werden, weist die UI-Bereitstellungseinheit 305 eine Funktion auf, zum Anzeigen eines Einstellbildschirms an dem Touch-Panel 1 und zum Erfassen einer Nutzereinstellung, die darin über das Touch-Panel 1 eingegeben wird, um eine Reduktionsverhältnisvariable zum Zeitpunkt der Einstellung des Prozesses zum Reduzieren des Bilds außerhalb des Anzeigebereichs mit dem festen Bereich gemäß der Nutzereinstellung zu erzeugen.
  • Die Betriebsinformationsverarbeitungseinheit 306 weist eine Funktion auf zum Erzeugen von Betriebsinformationen, die für ein Zeichensymbol definiert sind, was auf der Koordinatenposition der Berührung basiert, die durch die Berührungskoordinatenpositions-Berechnungseinheit 302 berechnet wird, zum Ausgeben der Betriebsinformationen an die Bildinformationsübertragungseinheit 304, und dann zum Anzeigen der Betriebsinformationen auf dem Touch-Panel 1 (dem LCD-Monitor 10) unter der Steuerung der Hauptsteuereinheit 300. Wenn zum Beispiel das Zeichensymbol eine Taste einer Softwaretastatur ist, erzeugt die Betriebsinformationsverarbeitungseinheit 304 Bildinformationen auf Grundlage der berührten Taste, gibt die Bildinformationen an die Bildinformationsübertragungseinheit 304 aus, und zeigt dann die Bildinformationen auf dem Touch-Panel 1 an. Wenn das Zeichensymbol eine Symbolschaltfläche ist, führt die Betriebsinformationsverarbeitungseinheit 306 einen Navigationsprozess durch, der für die Symbolschaltfläche definiert ist, wie zum Beispiel eine Zielsuche, erzeugt Bildinformationen, gibt die Bildinformationen an die Bildinformationsübertragungseinheit 304 aus, und zeigt dann die Bildinformationen auf dem Touch-Panel 1 an.
  • Der Arbeitsbereich mit einer vorbestimmten Speichergröße wird zusätzlich zu dem Programmbereich 321, in dem das oben erwähnte Programm gespeichert ist, der Speichereinheit 32 zugewiesen. In diesem Arbeitsbereich ist der Bildinformationsspeicherbereich 322 enthalten, in dem die durch die Bildinformationserzeugungseinheit 303 erzeugten Bildinformationen temporär gespeichert werden.
  • 3 ist ein Blockdiagramm zur Darstellung der internen Struktur der Zeichnungsschaltung 31, die in 1 gezeigt ist. Wie in 3 gezeigt, umfasst die Zeichnungsschaltung 31 eine Zeichnungssteuereinheit 310, eine Bildpuffereinheit 311, eine Zeichnungseinheit 312, die Bitmap-Speichereinheit 313 und die Anzeigesteuereinheit 314. Diese sind gemeinsam zueinander über einen lokalen Bus 315 verbunden, der aus einer Vielzahl von Leitungen besteht, die zum Adressieren für Daten und zur Steuerung verwendet werden.
  • In dem oben erwähnten Aufbau decodiert die Zeichnungssteuereinheit 310 eine Zeichnungsanweisung und führt eine Vorverarbeitung bezüglich des Zeichnens einer geraden Linie, des Zeichnens eines Rechtecks, dem Anstieg einer Linie oder dergleichen vor einem Zeichnungsprozess aus. Die Zeichnungseinheit 312, die durch die Zeichnungssteuereinheit 310 gestartet wird, überträgt und schreibt (zeichnet) die durch die Zeichnungssteuereinheit 310 decodierten Bildinformationen mit hoher Geschwindigkeit in die Bitmap-Speichereinheit 313.
  • Die Anzeigesteuereinheit 314 liest dann die Bildinformationen, die durch die Bitmap-Speichereinheit 310 gehalten werden, synchron mit dem Anzeigezeitpunkt des LCD-Panels 10 des Touch-Panels 1 über den lokalen Bus 315, und erzeugt eine gewünschte Anzeige des Bilds.
  • 4 ist ein Flussdiagramm zur Ansicht des Betriebs der Anzeigeeingabevorrichtung gemäß Ausführungsform 1 der vorliegenden Erfindung und 5 und 6 sind Ansichten, die Beispiele der Änderung der Anzeige eines Software-Tastaturbilds darstellt, das auf dem Touch-Panel 1 angezeigt wird.
  • Im Folgenden wird der Betrieb der Anzeigeeingabevorrichtung gemäß Ausführungsform 1 der vorliegenden Erfindung, die in den 13 gezeigt ist, detailliert mit Bezug auf 46 erläutert.
  • In 4 wird zum Beispiel eine Softwaretastatur, die zu diesem Zeitpunkt für eine Einrichtungssuche verwendet wird, wie in 5(a) gezeigt, in einem Anzeigebereich des Touch-Panels 1 angezeigt (Schritt ST41). Wenn in diesem Zustand ein Nutzer seinen Finger, bei dem es sich um ein zu erfassendes Objekt handelt, zuerst in die Nähe des Touch-Panels 1 bringt, erfassen die Annäherungssensoren 12 diese Annäherung des Fingers (bei „JA” im Schritt ST42), und startet einen XY-Koordinatenberechnungsprozess durch die Annäherungskoordinatenpositions-Berechnungseinheit 301 der Navigation-CPU 30.
  • Die Annäherungskoordinatenpositions-Berechnungseinheit 301 berechnet die Fingerkoordinaten (X, Y) an dem Touch-Panel 1 des in die Nähe des Touch-Panels 1 gebrachten Fingers, und gibt die Fingerkoordinaten an die Hauptsteuereinheit 300 aus (Schritt ST43).
  • Die Hauptsteuereinheit 300, die die Fingerkoordinaten erfasst hat, startet einen Bildinformationserzeugungsprozess durch die Bildinformationserzeugungseinheit 303, und die Bildinformationserzeugungseinheit 303, die durch die Hauptsteuereinheit gestartet wird, führt einen Reduktionsprozess zum Reduzieren des Bilds der externen Zeichensymbole auf dem Bildschirm mit Ausnahme eines Teilbereichs der Softwaretastatur aus, der in der Nähe der Fingerkoordinaten positioniert ist, und stellt das Bild mit einem Bild der internen Zeichensymbole zusammen, um das auf dem Touch-Panel angezeigte Bild zu aktualisieren (Schritt ST44).
  • Zur Ausführung des Reduktionsprozesses zum Reduzieren des Bilds der externen Zeichensymbole, die auf dem Touch-Panel 1 angezeigt werden, liest die Bildinformationserzeugungseinheit 303 insbesondere die Bildinformationen (die externen Zeichensymbole) über das Bild des benachbarten Umgebungsbereichs außer des Teilbereichs (der internen Zeichensymbole) des bereits erzeugten Softwaretastaturbilds, wie in einem Kreis der 5(a) gezeigt, aus dem Bildinformationsspeicherbereich 322 der Speichereinheit 32, während das Bild in festen Intervallen von einigen Pixeln ausgedünnt wird. Die Bildinformationserzeugungseinheit 303 stellt dann das reduzierte Bild mit den Bildinformationen über den Teilbereich zusammen, um Softwaretastatur-Bildinformationen zu erzeugen, in denen die Informationen über den Teilbereich in der Nähe der Fingerkoordinatenposition hervorgehoben ist.
  • Die Anzeigeeingabevorrichtung ermöglicht es dem Nutzer, das Reduktionsverhältnis einzustellen, mit dem die Bildinformationserzeugungseinheit das Bild der externen Zeichensymbole reduziert. Die Anzeigeeingabevorrichtung macht es somit möglich, den Reduktionsprozess flexibel auszuführen und stellt einen Komfort für den Nutzer bereit.
  • Konkret zeigt unter der Steuerung der Hauptsteuereinheit 300 die UI-Bereitstellungseinheit 305 einen Einstellbildschirm auf dem Touch-Panel 1 an, und erfasst eine Betriebseingabe, die durch den Nutzer erfolgt, um das Reduktionsverhältnis zu variieren und zu steuern, mit dem die Bildinformationserzeugungseinheit 303 den Reduktionsprozess ausführt. Die Einstellung des Reduktionsverhältnisses kann zu dem Zeitpunkt ausgeführt werden, wenn die Konfigurationseinstellungen vorab durchgeführt werden, kann dynamisch ausgeführt werden, je nachdem wie die Anzeigeeingabevorrichtung verwendet wird.
  • Im Übrigen werden die Bildinformationen, die durch die Bildinformationserzeugungseinheit 303 erzeugt werden, an die Bildinformationsübertragungseinheit 304 ausgegeben, während die Bildinformationen in dem Bildinformationsspeicherbereich 322 der Speichereinheit 32 werden.
  • Die Bildinformationsübertragungseinheit 304 empfängt die aktualisierten Bildinformationen und überträgt diese Bildinformationen sowie eine Zeichnungsanweisung an die Zeichnungsschaltung 31, und in der Zeichnungsschaltung 31 erweitert die Zeichnungseinheit 312 die übertragenen Bildinformationen, die die Zeichnungsschaltung 31 empfangen hat, und zeichnet die erweiterten Bildinformationen bei einer hohen Geschwindigkeit in die Bitmap-Speichereinheit 313, unter der Steuerung der Zeichnungssteuereinheit 310. Die Anzeigesteuereinheit 314 liest dann das Bild, das in die Bitmap-Speichereinheit 313 gezeichnet wurde, wie zum Beispiel ein aktualisiertes Softwaretastaturbild, wie in 5(a) gezeigt, und zeigt das Bild auf dem Touch-Panel 1 (dem LCD-Panel 10) an.
  • Wenn das Touch-Panel 1 (der Touch-Sensor 11) erfasst, dass der Finger eines der Zeichensymbole berührt hat (bei „JA” im Schritt ST45), berechnet die Berührungskoordinatenpositions-Berechnungseinheit 302 die Koordinatenposition der Berührung und startet die Betriebsinformationsverarbeitungseinheit 306. Die Betriebsinformationsverarbeitungseinheit 306 führt dann einen Betriebsprozess auf Grundlage der Taste aus, die mit den Koordinaten der Berührung zusammenhängt, die durch die Berührungskoordinatenpositions-Berechnungseinheit 302 berechnet wurde (Schritt ST46). In diesem Fall bedeutet der Betriebsprozess auf Grundlage der Taste, die mit den Koordinaten der Berührung zusammenhängt, dass in dem Fall, in dem das berührte Zeichensymbol eine Taste der Softwaretastatur ist, die Betriebsinformationsverarbeitungseinheit Bildinformationen auf Grundlage der berührten Taste erzeugt, die Bildinformationen an die Bildinformationsübertragungseinheit 304 ausgibt, und die Bildinformationen auf dem Touch-Panel 1 (dem LCD-Monitor 10) anzeigt. In dem Fall, bei dem das berührte Zeichensymbol eine Symbolschaltfläche ist, bedeutet der Betriebsprozess auf Grundlage der Taste, die mit den Koordinaten der Berührung zusammenhängt, dass die Betriebsinformationsverarbeitungseinheit einen Navigationsprozess ausführt, der für die Symbolschaltfläche definiert ist, wie zum Beispiel eine Zielsuche, die Bildinformationen erzeugt, die Bildinformationen an die Bildinformationsübertragungseinheit 304 überträgt, und dann die Bildinformationen auf dem Touch-Panel 1 (dem LCD-Monitor 10) anzeigt.
  • Wenn, wie oben erläutert, in der Anzeigeeingabevorrichtung gemäß der oben erwähnten Ausführungsform 1 der vorliegenden Erfindung die Annäherungssensoren 12 eine Annäherung eines zu erfassende Objekts, wie zum Beispiel einen Finger oder einen Stift, erfassen, in einem vorbestimmten Abstand vor dem Touch-Panel 1, verarbeitet die Steuereinheit 3 (die Navigations-CPU 30) ein Bild (externe Zeichensymbole) außerhalb eines Anzeigebereichs mit einem festen Bereich, der auf dem Touch-Panel 1 angezeigt wird, durch Reduzierung des Bilds, und zeigt dann das Bild im Unterschied von einem Bild (interne Zeichensymbole) in dem Anzeigebereich mit dem festen Bereich an. Da die Anzeigeeingabevorrichtung die internen Zeichensymbole hervorheben kann, ohne dass eine große Verarbeitungslast erforderlich ist, ermöglicht die Anzeigeeingabevorrichtung es dem Nutzer als Ergebnis, eine Eingabeoperation leicht durch zu führen, wodurch die Leichtigkeit der Verwendung dieser verbessert wird.
  • In Übereinstimmung mit der oben erwähnten Ausführungsform 1 reduziert die Steuereinheit das Bild außerhalb des Anzeigebereichs mit dem festen Bereich und zeigt dann das Bild im Unterschied von dem Bild in dem Anzeigebereich mit dem festen Bereich an. Zum Beispiel kann, wie in 5(b) gezeigt, die Steuereinheit alternativ die Form von jedem der externen Zeichensymbole, die auf dem Touch-Panel 1 angezeigt sind, von einer viereckigen in eine kreisförmige ändern, um die externen Zeichensymbole im Unterschied von dem Bild der internen Zeichensymbole anzuzeigen.
  • Wie in 6(a) gezeigt, kann die Steuereinheit alternativ einen Prozess ausführen zum Verringern des Raums (Tastenraum) zwischen zwei oder mehr Bildern der externen Zeichensymbole, die auf dem Touch-Panel 1 angezeigt werden, um die zwei oder mehr Bilder im Unterschied von dem Bild in dem Anzeigebereich mit dem festen Bereich anzuzeigen. Wie in 6(b) gezeigt, kann die Steuereinheit alternativ den Raum zwischen zwei oder mehr Bildern in dem Anzeigebereich mit dem festen Bereich vergrößern, und die zwei oder mehr Bilder im Unterschied von dem Bild außerhalb des Anzeigebereichs mit dem festen Bereich anzeigen. In beiden von diesen Varianten kann die Steuereinheit den Prozess implementieren, indem bewirkt wird, dass die oben erwähnte Bildinformationserzeugungseinheit 303 den Reduktions- oder Vergrößerungsprozess an dem Bild an der Position, an der der Raum zwischen den externen Zeichensymbolen verändert wird, durchführen, um das Bild zu aktualisieren.
  • Anstelle des Erzeugens im Schritt ST44 einer reduzierten Anzeige der externen Zeichensymbole in einem Moment, und, in den Schritten von ST42 bis ST41 einer normalen Suchanzeige nach der temporären Erzeugung einer reduzierten Anzeige, der Erzeugung von Reduktions- und Vergrößerungsanzeigen der externen Zeichensymbole in einem Moment, kann die Steuereinheit die Größe von jedem der externen Zeichensymbole graduell ändern, wie in dem Fall eines Animationseffekts, wodurch diese ein nutzerfreundliches Betriebsgefühl für den Nutzer bereitstellen kann. Anstelle einer Rückkehr der Anzeigegröße auf normal, unmittelbar nachdem der Finger von dem Touch-Panel weit entfernt ist, kann die Steuereinheit ferner die Anzeigegröße nach Ablauf eines bestimmten Zeitintervalls (zum Beispiel ca. 0,5 Sekunden) auf eine normale zurück bringen. Wenn jedoch der Nutzer seinen Finger in der X, Y-Ebene bewegt, wobei der Finger in der Nähe des Touch-Panels ist, ändert die Steuereinheit bevorzugt die angezeigten Informationen in einem Moment, sodass der Nutzer ein besseres Betriebsempfinden hat.
  • Obwohl in der oben erwähnten Ausführungsform die Touch-Panel-Anzeige verwendet wird, die eine Annäherung eines Fingers und eine Berührung eines Fingers erfasst, kann alternativ eine Touch-Panel-Anzeige verwendet werden, die einen Kontakt eines Fingers und ein Herunterdrücken durch einen Finger erfasst, und die Anzeigeeingabevorrichtung kann derart konstruiert werden, dass, wenn eine Berührung eines Fingers durch die Touch-Panel-Anzeige erfasst wird, die externen Zeichensymbole reduziert und angezeigt werden, und wenn die Berührung dann freigegeben wird, die Anzeigegröße zu einer normalen zurück zu setzten, und wenn ein Herunterdrücken eines Zeichensymbols durch die Touch-Panel-Anzeige erfasst wird, eine vorbestimmte Operation gemäß diesem Zeichensymbol auszuführen.
  • Ausführungsform 2
  • 7 ist ein Blockdiagramm zur Ansicht einer funktionalen Entwicklung der Struktur eines Programms, das eine Navigations-CPU 30 ausführt, die eine Anzeigeeingabevorrichtung (eine Steuereinheit 3) gemäß Ausführungsform 2 der vorliegenden Erfindung aufweist.
  • Die Anzeigeeingabevorrichtung gemäß Ausführungsform 2 der vorliegenden Erfindung unterscheidet sich von der gemäß Ausführungsform 1, die in 2 gezeigt ist, darin, dass eine Anzeigeeigenschafts-Informationserzeugungseinheit 307 der Programmstruktur der Navigations-CPU 30 gemäß Ausführungsform 1 hinzugefügt wird, aus der die UI-Bereitstellungseinheit 305 ausgenommen ist.
  • Um die externen Zeichensymbole zu verarbeiten, die auf dem Touch-Panel 1 angezeigt sind, um die externen Zeichensymbole im Unterschied von den internen Zeichensymbolen anzuzeigen, erzeugt die Anzeigekennzeichen-Informationserzeugungseinheit 307 Kennzeicheninformationen, die verwendet werden, um eine Anzeigedekorationssteuerung eines Bilds gemäß einem Anzeigekennzeichen auszuführen, wie zum Beispiel Farbton, Farbe, Blinken, Invertierung oder Hervorhebung, für alle Bildinformationen, die unter der Steuerung einer Hauptsteuereinheit 300 durch eine Bildinformationserzeugungseinheit 303 erzeugt werden.
  • Die Anzeigekennzeichen-Informationserzeugungseinheit 307 schreibt und speichert die Anzeigekennzeicheninformationen, die dadurch erzeugt werden in einen Bildinformationsspeicherbereich 322 einer Speichereinheit 32, während die Anzeigekennzeicheninformationen mit allen Bildinformationen, die durch die Bildinformationserzeugungseinheit 303 erzeugt werden, gepaart werden. Daher überträgt eine Bildinformationsübertragungseinheit 304 das Paar von jedem der Bildinformationen, die durch die Bildinformationserzeugungseinheit 303 erzeugt werden, und der Anzeigekennzeicheninformationen, die durch die Anzeigekennzeicheninformations-Erzeugungseinheit 307 erzeugt werden an eine Zeichnungsschaltung 31 gemäß der Zeitsteuerung durch die Hauptsteuereinheit 300.
  • 8 ist ein Flussdiagramm zur Ansicht des Betriebs der Anzeigeeingabevorrichtung gemäß Ausführungsform 2 der vorliegenden Erfindung, und 9 ist eine Ansicht zur Darstellung eines Beispiels eines Software-Tastatur Bilds, das auf dem Touch-Panel 1 angezeigt wird. Im Folgenden wird der Betrieb der Anzeigeeingabevorrichtung gemäß Ausführungsform 2 der vorliegenden Erfindung mit Bezug auf die 8 und 9 erläutert mit einem besonderen Fokus auf die Differenz zwischen dem Betrieb der Anzeigeeingabevorrichtung gemäß Ausführungsform 2 und dem gemäß Ausführungsform 1.
  • In 8 wird zum Beispiel ein Normalsuch-Anzeigebildschirm, wie in 9(a) gezeigt, auf dem Touch-Panel 1 angezeigt. Ca die Prozesse (Schritt ST81 bis ST83), die dann durchgeführt werden, nachdem ein Nutzer seinen Finger in die Nähe des Touch-Panels 1 bringt bis die Koordinaten (X, Y) des Fingers an die Hauptsteuereinheit 300 ausgegeben werden, die gleichen wie jene der Schritte ST41 bis ST43 sind, die in Ausführungsform 1 erläutert wurden, wird im Folgenden die Erläuterung dieser Prozesse weggelassen, um eine doppelte Erläuterung zu vermeiden.
  • Als nächstes führt die Steuereinheit 3 (die Navigations-CPU 30) eine Anzeigedekorationssteuerung auf Grundlage der Anzeigekennzeicheninformationen von externen Zeichensymbolen durch, die auf dem Touch-Panel 1 angezeigt sind und zeigt die externen Zeichensymbole im Unterschied von den internen Zeichensymbolen an (Schritt ST84).
  • Konkret steuert die Hauptsteuereinheit 300, die die Fingerkoordinaten aus einer Annäherungskoordinatenpositionsberechnungseinheit 301 erfasst hat, die Bildinformationserzeugungseinheit 303 und die Anzeigekennzeicheninformations-Erzeugungseinheit 307 derart, dass die Bildinformationserzeugungseinheit 303 Bildinformationen erzeugt, in denen externe Zeichensymbole einer Software-Tastatur, die in der Nähe der Fingerkoordinaten positioniert ist, und interne Zeichensymbole gemäß der erfassten Fingerkoordinaten zusammengefügt werden, und die Anzeigekennzeicheninformations-Erzeugungseinheit 307 erzeugt Anzeigekennzeicheninformationen, die zum Durchführen eines Grau-Skalierungs-Prozesses an den externen Zeichensymbolen verwendet werden, die auf dem Touch-Panel 1 angezeigt werden, unter den Bildinformationen, die durch die Bildinformationserzeugungseinheit 303 erzeugt werden.
  • Die Bildinformationen, die durch die Bildinformationserzeugungseinheit 303 erzeugt werden, und die Anzeigekennzeicheninformationen, die durch die Anzeigekennzeicheninformations-Erzeugungseinheit 307 erzeugt werden, werden an die Bildinformations-Übertragungseinheit 304 ausgegeben, während diese gespeichert werden als ein Paar in dem Bildinformationsspeicherbereich 322 der Speichereinheit 32.
  • Als nächstes werden die Bildinformationen und die Anzeigekennzeicheninformationen, die von der Bildinformationsübertragungseinheit 304 übertragen werden sowie eine Zeichnungsanweisung an die Zeichnungsschaltung 31 übertragen, und die Zeichnungsschaltung 31 (eine Zeichnungssteuereinheit 310), die die Zeichnungsanweisung empfangen hat, decodiert die Anweisung, wie zum Beispiel eine Zeichnungsanweisung für eine gerade Linie oder eine Anweisung zum Zeichnen eines Rechtecks, und startet eine Zeichnungseinheit 312, wobei die Zeichnungseinheit 312 eine Hochgeschwindigkeitszeichnung der durch die Zeichnungssteuereinheit 310 decodierten Bildinformationen in eine Bitmap-Speichereinheit 313 ausführt.
  • Als nächstes liest die Anzeigesteuereinheit 314 die Bildinformationen, die durch die Bitmap-Speichereinheit 313 gehalten werden, synchron mit der Anzeigezeit eines LCD-Panels 10 des Touch-Panels 1. Die Anzeigesteuereinheit 314 führt ferner einen Anzeigedekorationsprozess mit einer Grau-Skalierung (Abstufungssteuerung) an den externen Zeichensymbolen durch gemäß den Anzeigekennzeicheninformationen, die durch die Anzeigekennzeicheninformations-Erzeugungseinheit 307 erzeugt wurden, und die durch die Bildinformationsübertragungseinheit 304 ausgegeben wurden, und zeigt die externen Zeichensymbole auf dem Touch-Panel 1 (dem LCD-Panel 10) an.
  • Ein Beispiel der Software-Tastatur, die zu diesem Zeitpunkt angezeigt wird, ist in 9 gezeigt.
  • Wenn das Touch-Panel 1 (der Touch-Sensor 11) erfasst, dass der Finger einen der Zeichensymbole berührt hat (bei „JA” im Schritt ST85), berechnet eine Berührungskoordinatenpositions-Berechnungseinheit 302 die Koordinatenposition der Berührung und startet die Betriebsinformationsverarbeitungseinheit 306. Die Betriebsinformationsverarbeitungseinheit 306 führt dann einen Betriebsprozess auf Grundlage der Taste aus, die mit den Koordinaten der Berührung zusammenhängen, die durch die Berührungskoordinatenpositions-Berechnungseinheit 302 berechnet wurde, und beendet die Reihe der oben erwähnten Prozesse (Schritt ST86).
  • Wenn, wie oben erläutert, in der Anzeigeeingabevorrichtung gemäß der oben erwähnten Ausführungsform der vorliegenden Erfindung die Annäherungssensoren 12 eine Annäherung eines zu erfassenden Objekts erfassen, wie zum Beispiel einen Finger in einem vorbestimmten Abstand von dem Touch-Panel 1, verarbeitet die Steuereinheit 3 (die Navigations-CPU 30) ein Bild (externe Zeichensymbole) außerhalb eines Anzeigebereichs mit einem fasten Bereich, der auf dem Touch-Panel 1 angezeigt ist, in dem zum Beispiel ein Grau-Skalierungsprozess an dem Bild durchgeführt wird, und zeigt das Bild im Unterschied von einem Bild (interne Zeichensymbole) in dem Anzeigebereich mit dem festen Bereich an, wobei die Anzeigeeingabevorrichtung die internen Zeichensymbole hervorheben kann, und es dem Nutzer ermöglicht, eine Eingabeoperation leicht durchzuführen, wodurch die Leichtigkeit dessen Verwendung verbessert wird.
  • Obwohl die Anzeigeeingabevorrichtung gemäß der oben erwähnten Ausführungsform 2 die externen Zeichensymbole im Unterschied von den internen Zeichensymbolen anzeigt, in dem der Grau-Skalierungsprozess an den externen Zeichensymbolen durchgeführt wird, muss die Anzeigeeingabevorrichtung nicht notwendigerweise die Abstufungssteuerung durchführen, und kann alternativ die Steuerung eines anderen Anzeigekennzeichens durchführen, wie zum Beispiel die Farbe, das Blinken, die Invertierung oder das Hervorheben.
  • Ausführungsform 3
  • 10 ist ein Flussdiagramm zur Ansicht des Betriebs der Anzeigeeingabevorrichtung gemäß Ausführungsform 3 der vorliegenden Erfindung. Es wird angenommen, dass die Anzeigeeingabevorrichtung gemäß Ausführungsform 3, die im Folgenden erläutert wird, die gleiche Struktur wie die Anzeigeeingabevorrichtung aufweist, die in 1 gezeigt ist und die gleiche Programmstruktur verwendet, wie jene in 2, in Übereinstimmung mit Ausführungsform 1.
  • Die Anzeigeeingabevorrichtung gemäß Ausführungsform 3, die im Folgenden erläutert wird, wird auf ein dreidimensionales Touch-Panel angewendet, das auch den Abstand in eine Z-Richtung zwischen dessen Panel-Oberfläche und einem Finger messen kann. Insbesondere wird das Touch-Panel 1, das in 1 gezeigt ist, das die Position eines Objekts in der X- und Y-Richtung erfassen kann durch das dreidimensionale Touch-Panel ersetzt, dass auch einen Abstand in die Z-Richtung messen kann. Da eine Technologie zum Messen eine dreidimensionalen Position durch die oben erwähnte Patentreferenz 2 offenbart ist, erfolgt eine Erläuterung unter der Annahme, dass diese Technologie einfach auf diese Ausführungsform angewendet wird.
  • In dem Flussdiagramm der 10 wird eine Softwaretastatur, die zum Zeitpunkt einer Einrichtungssuche verwendet wird, auf dem Touch-Panel 1 angezeigt, wie in dem Fall der Ausführungsform 1 und der Ausführungsform 2.
  • Wenn in diesem Zustand ein Nutzer seinen Finger in die Nähe des Touch-Panels 1 bringt, erfassen Annäherungssensoren 12 diese Annäherung des Fingers (bei „JA” im Schritt ST102), und eine Annäherungskoordinatenpositions-Berechnungseinheit 301 einer Navigations-CPU 30 startet. Zu diesem Zeitpunkt berechnet die Annäherungskoordinatenpositions-Berechnungseinheit 301 die Koordinaten (X, Y, Z) des Fingers, einschließlich der in der Richtung der Z-Achse, und gibt die Koordinaten an eine Hauptsteuereinheit 300 aus (Schritt ST103).
  • Die Hauptsteuereinheit 300, die die dreidimensionalen Fingerkoordinaten erfasst hat, bestimmt ein Reduktionsverhältnis in Abhängigkeit von dem Abstand in der Richtung der Z-Achse (in eine senkrechte Richtung) zwischen dem Finger, der sich gegenüber dem Touch-Panel befindet, und dem Touch-Panel, der durch die Annäherungssensoren 12 gemessen wird, und erzeugt eine reduzierte Anzeige eines Bilds außerhalb eines Anzeigebereichs mit einem festen Bereich, das auf dem Touch-Panel angezeigt wird (Schritt ST104).
  • Insbesondere führt die Bildinformationserzeugungseinheit 303 einen Reduzierungsprozess zum Reduzieren externer Zeichensymbole durch, die in einem Bereich mit der Ausnahme eines Teilbereichs einer Softwaretastatur angeordnet ist, der in der Nähe der Fingerkoordinaten positioniert ist auf der Grundlage der erfassten Koordinaten in der XY-Richtung des Fingers und gemäß dem Reduktionsverhältnis, das aus der Koordinate in der Z-Richtung des Fingers bestimmt ist, und stellt die externen Zeichensymbole mit den internen Zeichensymbolen zusammen, um das Bild, das auf dem Touch-Panel angezeigt wird, zu aktualisieren. Eine Beziehung zwischen dem Abstand in die Z-Axialrichtung (die horizontale Achse) zwischen der Panel-Oberfläche des Touch-Panels 1 und dem Finger und dem Reduktionsverhältnis (der vertikalen Achse), die zu diesem Zeitpunkt verwendet wird, ist in einem Graph der 11 gezeigt. Wie in 11 gezeigt, erreicht das Reduktionsverhältnis sein Maximum (1: Anzeige mit einer gewöhnlichen Größe), wenn der Abstand in die Z-Axialrichtung 4 cm ist, wird graduell geringer, wenn der Abstand in die Z-Axialrichtung von 4 cm auf 1 cm abfällt, und somit der Finger in die Nähe der Panel-Oberfläche gelangt, wobei das Reduktionsverhältnis der externen Zeichensymbole sich kaum verändert, wenn der Abstand von 1 cm bis 0 cm reicht, und bleibt bei 0,5 oder weniger. Das Reduktionsverhältnis von 1,0 in 11 bedeutet, dass die Originalgröße aufrechterhalten bleibt, und das Reduktionsverhältnis von 0,5 bedeutet, dass die Größe von jeder Seite durch einen Faktor von 0,5 multipliziert wird.
  • Wenn das Touch-Panel 1 (ein Touch-Sensor 11) erfasst, dass der Finger einen der Zeichensymbole berührt hat (bei „JA” im Schritt ST105), berechnet eine Berührungskoordinatenpositions-Berechnungseinheit 302 die Koordinatenposition der Berührung und startet eine Betriebsinformationsverarbeitungseinheit 306, und die Betriebsinformationsverarbeitungseinheit 306 führt dann einen Betriebsprozess auf Grundlage der Tastatur aus, die mit den Koordinaten der Berührung zusammenhängt, die durch die Berührungskoordinatenpositions-Berechnungseinheit 302 berechnet werden (Schritt ST106). Diese Prozesse sind die gleichen wie jede der Ausführungsform 1, die in 4 gezeigt sind.
  • In der Anzeigeeingabevorrichtung gemäß der oben erwähnten Ausführungsform 3 der vorliegenden Erfindung reduziert die Steuereinheit 3 (die Navigations-CPU 30), wenn die Annäherungssensoren 12 einer Annäherung eines zu erfassenden Objekts, wie zum Beispiel ein Finger, in einem vorbestimmten Abstand von dem Touch-Panel 1 erfassen, ein Bild (externe Zeichensymbole) außerhalb eines Anzeigebereichs mit einem festen Bereich, das auf dem Touch-Panel 1 angezeigt ist, gemäß dem Reduktionsverhältnis, das von dem vertikalen Abstand des zu erfassenden Objekts abhängt, das sich gegenüber dem Touch-Panel befindet, und zeigt das reduzierte Bild an, wobei die Anzeigeeingabevorrichtung die internen Zeichensymbole hervorheben kann und es somit ermöglicht, dass der Nutzer eine Eingabeoperation leicht durchführen kann, wodurch die Leichtigkeit der Verwendung verbessert wird.
  • Die externen Zeichensymbole müssen dem Reduktionsprozess nicht unterworfen werden, und der Pegel eines Anzeigekennzeichens der externen Zeichensymbole wie zum Beispiel eine Grau-Skalierung, kann gemäß dem Abstand in der Z-Axialrichtung des zu erfassenden Objekts geändert werden.
  • Wie vorab erläutert, verarbeitet in der Anzeigeeingabevorrichtung gemäß irgendeiner der Ausführungsformen 1 bis 3, wenn die Annäherungssensoren 12 eine Annäherung eines zu erfassenden Objekts innerhalb des vorbestimmten Abstands von dem Touch-Panel erfassen, die Steuereinheit 3 ein Bild (externe Zeichensymbole) außerhalb eines Anzeigebereichs mit einem festen Bereich, dass auf dem Touch-Panel 1 angezeigt ist, und zeigen das Bild im Unterschied von einem Bild (interne Zeichensymbole) in dem Anzeigebereich mit dem festen Bereich an, wodurch die Anzeigeeingabevorrichtung es dem Nutzer ermöglicht, eine Eingabeoperation leicht durchzuführen, ohne dass erforderlich ist, dass die Steuereinheit 3 eine zu große Verarbeitungslast aufweist und kann dadurch eine ausgezeichnete Leichtigkeit der Verwendung bereit stellen, wodurch der Nutzer nicht das Gefühl hat, dass bei der Durchführung einer Operation etwas unnormal ist.
  • Obwohl in der Anzeigeeingabevorrichtung gemäß irgendeiner der oben erwähnten Ausführungsformen 1 bis 3 nur die Softwaretastatur als ein Beispiel von Informationen erläutert ist, die in einem oder mehreren Anzeigebereichen angezeigt sind, die jeweils einen festen Bereich aufweisen, ist die Information nicht auf die Softwaretastatur beschränkt und kann alternativ eine bestimmte Information sein, die in einem willkürlichen Anzeigebereich des Touch-Panels 1 angezeigt ist. Obwohl ferner nur ein Finger als ein Beispiel eines zu erfassenden Objekts erläutert wurde, kann das zu erfassende Objekt ein Stift oder dergleichen sein. Selbst in diesem Fall werden die gleichen Vorteile bereitgestellt.
  • Obwohl ferner in Ausführungsform 1 bis 3 der vorliegenden Erfindung nur der Fall gezeigt ist, bei dem die Anzeigeeingabevorrichtung für eine in einem Fahrzeug angebrachte Informationsausrüstung verwendet wird, kann die Anzeigeeingabevorrichtung gemäß irgendeiner der Ausführungsformen 1 bis 3 nicht nur für eine in einem Fahrzeug angebrachte Informationsausrüstung angewendet werden, sondern auch für ein Eingabe-/Ausgabemittel für einen Personalcomputer oder einen FA-(engl. Factory Automation)Computer und für ein Führungssystem, das in einer öffentlichen Einrichtung, dem Ort eines Events oder dergleichen verwendet wird.
  • Die Funktionen der Steuereinheit 3 (der Navigations-CPU 30), die in 2 oder 7 gezeigt sind, können alle über eine Hardware implementiert werden, oder zumindest einen Teil der Funktionen kann über eine Software implementiert werden.
  • Zum Beispiel kann, wenn die Annäherungssensoren 12 eine Annäherung eines zu erfassenden Objekts in dem vorbestimmten Abstand von dem Touch-Panel 1 erfassen, der Datenprozess zum Verarbeiten eines Bildes (externe Zeichensymbole) außerhalb eines Anzeigebereichs mit einem festen Bereich, das auf dem Touch-Panel 1 angezeigt wird, und ein Anzeigen des Bilds im Unterschied von einem Bild (interne Zeichensymbole) in dem Anzeigebereich mit dem festen Bereich, das durch die Steuereinheit 3 ausgeführt wird über ein oder mehrere Programme in einem Computer implementiert werden, oder zumindest ein Teil des Datenprozesses kann über ein Hardware implementiert werden.
  • Industrielle Anwendbarkeit
  • Da die Anzeigeeingabevorrichtung gemäß der vorliegenden Erfindung leicht gesteuert werden kann und eine exzellente Einfachheit der Verwendung bereitstellt, sodass der Nutzer nicht den Eindruck gewinnt, dass etwas beim Durchführen einer Operation unnormal ist, ist die Anzeigeeingabevorrichtung gemäß der vorliegenden Erfindung zur Verwendung in einer in einem Fahrzeug angebrachten Ausrüstung, wie zum Beispiel ein Navigationssystem usw. geeignet.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2006-31499 A [0005]
    • JP 04-1288877 A [0005]
    • JP 2004-259054 A [0005]

Claims (8)

  1. Anzeigeeingabevorrichtung, mit: einem Touch-Panel zum Ausführen einer Anzeige eines Bilds und einer Eingabe eines Bilds; einem Annäherungssensor zum Erfassen einer Bewegung eines zu erfassenden Objekts, das sich gegenüber dem Touch-Panel befindet, auf eine berührungslose Art und Weise; und eine Steuereinheit zum, wenn der Annäherungssensor eine Annäherung des zu erfassenden Objekts in einem vorbestimmten Abstand von dem Touch-Panel erfasst, Verarbeiten externer Zeichensymbole, bei denen es sich um ein Bild handelt, das in einem Bereich mit Ausnahme eines Anzeigebereichs mit einem festen Bereich von dem in einem Anzeigebereich des Touch-Panels zu erfassenden Objekt angezeigt wird, jedoch nicht zum Verarbeiten interner Zeichensymbole, bei denen es sich um ein Bild handelt, das in dem Anzeigebereich mit dem festen Bereich angezeigt wird, und zum Anzeigen der internen Zeichensymbole und der verarbeiteten externen Zeichensymbole in dem Anzeigebereich des Touch-Panels.
  2. Anzeigeeingabevorrichtung gemäß Anspruch 1, wobei die Steuereinheit einen Prozess ausführt zum Reduzieren der externen Zeichensymbole durchführt, und die externen Zeichensymbole im Unterschied zu den internen Zeichensymbolen anzeigt.
  3. Anzeigeeingabevorrichtung gemäß Anspruch 2, wobei die Steuereinheit ein Reduktionsverhältnis ändert, das die Steuereinheit verwendet beim Ausführen des Prozesses zum Reduzieren der externen Zeichensymbole gemäß einer Nutzereinstellung, die über das Touch-Panel darin eingegeben wird.
  4. Anzeigeeingabevorrichtung gemäß Anspruch 1, wobei das Touch-Panel eine Vielzahl von Betriebstasten anzeigt, und die Steuereinheit einen Prozess zum Verringern eines Abstands unter jenen der Vielzahl von Betriebstasten in einem Bereich mit Ausnahme des Anzeigebereich mit dem festen Bereich von dem in einem Anzeigebereich des Touch-Panels zu erfassenden Objekts ausführt, und jene im Unterschied von den internen Zeichensymbolen anzeigt.
  5. Anzeigeeingabevorrichtung gemäß Anspruch 1, wobei die Steuereinheit eine Form von jedem der externen Zeichensymbole ändert, und die externen Zeichensymbole im Unterschied zu den internen Zeichensymbolen anzeigt.
  6. Anzeigeeingabevorrichtung gemäß Anspruch 1, wobei die Steuereinheit einen Dekorationsprozess durchführt auf Grundlage eines Anzeigekennzeichens der externen Zeichensymbole, und die externen Zeichensymbole im Unterschied zu den internen Zeichensymbolen anzeigt.
  7. Anzeigeeingabevorrichtung gemäß Anspruch 1, wobei die Steuereinheit einen vertikalen Abstand des zu erfassenden Objekts erfasst, das sich gegenüber dem Touch-Panel befindet unter Verwendung des Annäherungssensors, und einen Prozess zum Reduzieren und Anzeigen der externen Zeichensymbole gemäß einem Reduktionsverhältnis ausführt, was in Abhängigkeit von dem vertikalen Abstand variiert.
  8. Navigationsvorrichtung, das mit einem Touch-Panel zum Ausführen einer Eingabe von Informationen und zum Anzeigen einer Anzeige eines Bildes verbunden werden kann, wobei das Touch-Panel einen Annäherungssensor aufweist zum Erfassen einer Annäherung eines zu erfassenden Objekts, auf eine berührungslose Art und Weise, und auch zum Erfassen einer Bewegung des zu erfassenden Objekts, auf eine berührungslose Art und Weise, wobei die Navigationsvorrichtung umfasst: eine Steuereinheit zum, wenn eine Annäherung des zu erfassenden Objekts in einem vorbestimmten Abstand von dem Touch-Panel erfasst wird, Verarbeiten externer Zeichensymbole, bei denen es sich um ein Bild handelt, das in einem Bereich mit Ausnahme eines Anzeigebereichs mit einem festen Bereich von dem in einem Anzeigebereich des Touch-Panels zu erfassenden Objekt angezeigt wird, jedoch nicht zum Verarbeiten interner Zeichensymbole, bei denen es sich um ein Bild handelt, das in dem Anzeigebereich mit dem festen Bereich angezeigt wird, und zum Anzeigen der internen Zeichensymbole und der verarbeiteten externen Zeichensymbole in dem Anzeigebereich des Touch-Panels.
DE112009003521T 2008-12-04 2009-11-26 Anzeigeeingabevorrichtung Ceased DE112009003521T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2008309789 2008-12-04
JP2008-309789 2008-12-04
PCT/JP2009/006391 WO2010064388A1 (ja) 2008-12-04 2009-11-26 表示入力装置

Publications (1)

Publication Number Publication Date
DE112009003521T5 true DE112009003521T5 (de) 2013-10-10

Family

ID=42233047

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112009003521T Ceased DE112009003521T5 (de) 2008-12-04 2009-11-26 Anzeigeeingabevorrichtung

Country Status (5)

Country Link
US (1) US20110221776A1 (de)
JP (2) JP5231571B2 (de)
CN (1) CN102239470B (de)
DE (1) DE112009003521T5 (de)
WO (1) WO2010064388A1 (de)

Families Citing this family (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US20120249463A1 (en) * 2010-06-04 2012-10-04 Smart Technologies Ulc Interactive input system and method
JP5293691B2 (ja) * 2010-06-28 2013-09-18 ブラザー工業株式会社 入力装置、複合機および入力制御プログラム
WO2012005005A1 (ja) * 2010-07-07 2012-01-12 パナソニック株式会社 端末装置およびgui画面生成方法
JP5625586B2 (ja) * 2010-07-28 2014-11-19 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
US20120050007A1 (en) * 2010-08-24 2012-03-01 Babak Forutanpour Methods and apparatus for interacting with an electronic device application by moving an object in the air over an electronic device display
FR2971066B1 (fr) 2011-01-31 2013-08-23 Nanotec Solution Interface homme-machine tridimensionnelle.
JP2012190261A (ja) * 2011-03-10 2012-10-04 Panasonic Corp 近接操作支援装置
JP5557780B2 (ja) * 2011-03-25 2014-07-23 株式会社Nttドコモ 携帯端末および画面表示変更方法
JP2012208633A (ja) * 2011-03-29 2012-10-25 Ntt Docomo Inc 情報端末、表示制御方法及び表示制御プログラム
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
TWI461990B (zh) * 2011-08-30 2014-11-21 Wistron Corp 光學影像式觸控裝置與觸控影像處理方法
JP5978592B2 (ja) * 2011-10-26 2016-08-24 ソニー株式会社 ヘッド・マウント・ディスプレイ及び表示制御方法
CN102508604A (zh) * 2011-11-08 2012-06-20 中兴通讯股份有限公司 一种终端显示界面的控制方法及终端
JP5880024B2 (ja) * 2011-12-22 2016-03-08 株式会社バッファロー 情報処理装置及びプログラム
KR20130081593A (ko) * 2012-01-09 2013-07-17 삼성전자주식회사 디스플레이 장치 및 그 아이템 선택 방법
US9594499B2 (en) * 2012-02-21 2017-03-14 Nokia Technologies Oy Method and apparatus for hover-based spatial searches on mobile maps
US9378581B2 (en) * 2012-03-13 2016-06-28 Amazon Technologies, Inc. Approaches for highlighting active interface elements
JP5949010B2 (ja) * 2012-03-16 2016-07-06 富士通株式会社 入力制御装置、入力制御プログラム、及び入力制御方法
KR20130115737A (ko) * 2012-04-13 2013-10-22 삼성전자주식회사 디스플레이장치 및 그 제어방법
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
CN104487928B (zh) 2012-05-09 2018-07-06 苹果公司 用于响应于手势而在显示状态之间进行过渡的设备、方法和图形用户界面
WO2013169846A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying additional information in response to a user contact
JP2015519656A (ja) 2012-05-09 2015-07-09 アップル インコーポレイテッド ユーザインタフェースオブジェクトを移動し、ドロップするためのデバイス、方法及びグラフィカルユーザインタフェース
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
EP3185116B1 (de) 2012-05-09 2019-09-11 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zur bereitstellung von taktilem feedback für auf einer benutzeroberfläche durchgeführte operationen
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
CN104471521B (zh) 2012-05-09 2018-10-23 苹果公司 用于针对改变用户界面对象的激活状态来提供反馈的设备、方法和图形用户界面
EP3096218B1 (de) 2012-05-09 2018-12-26 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zur auswahl von benutzerschnittstellenobjekten
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US11073959B2 (en) 2012-06-08 2021-07-27 Apple Inc. Simulating physical materials and light interaction in a user interface of a resource-constrained device
CN102915206B (zh) * 2012-09-19 2015-08-12 东莞宇龙通信科技有限公司 屏幕键盘的按键大小调整方法和系统
US9411510B2 (en) * 2012-12-07 2016-08-09 Apple Inc. Techniques for preventing typographical errors on soft keyboards
AU2013368441B2 (en) 2012-12-29 2016-04-14 Apple Inc. Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
KR102000253B1 (ko) 2012-12-29 2019-07-16 애플 인크. 사용자 인터페이스 계층을 내비게이션하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
CN105144057B (zh) 2012-12-29 2019-05-17 苹果公司 用于根据具有模拟三维特征的控制图标的外观变化来移动光标的设备、方法和图形用户界面
CN107831991B (zh) 2012-12-29 2020-11-27 苹果公司 用于确定是滚动还是选择内容的设备、方法和图形用户界面
EP2939098B1 (de) 2012-12-29 2018-10-10 Apple Inc. Vorrichtung, verfahren und grafische benutzerschnittstelle zum übergang zwischen berührungseingabe und anzeigenausgabe
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
KR20140087731A (ko) * 2012-12-31 2014-07-09 엘지전자 주식회사 포터블 디바이스 및 사용자 인터페이스 제어 방법
EP2759921B1 (de) * 2013-01-25 2020-09-23 Morpho, Inc. Bildanzeigevorrichtung, Bildanzeigeverfahren und Programm
FR3002052B1 (fr) 2013-02-14 2016-12-09 Fogale Nanotech Procede et dispositif pour naviguer dans un ecran d'affichage et appareil comprenant une telle navigation
US20140240242A1 (en) * 2013-02-26 2014-08-28 Honeywell International Inc. System and method for interacting with a touch screen interface utilizing a hover gesture controller
JP5933468B2 (ja) * 2013-03-04 2016-06-08 三菱電機株式会社 情報表示制御装置、情報表示装置および情報表示制御方法
US10120540B2 (en) * 2013-03-14 2018-11-06 Samsung Electronics Co., Ltd. Visual feedback for user interface navigation on television system
US9870147B2 (en) * 2013-03-27 2018-01-16 Hyon Jo Ji Touch control method in mobile terminal having large screen
US10275084B2 (en) 2013-03-27 2019-04-30 Hyon Jo Ji Touch control method in mobile terminal having large screen
US20140327645A1 (en) * 2013-05-06 2014-11-06 Nokia Corporation Touchscreen accessory attachment
JP6198581B2 (ja) * 2013-11-18 2017-09-20 三菱電機株式会社 インターフェース装置
US9921739B2 (en) 2014-03-03 2018-03-20 Microchip Technology Incorporated System and method for gesture control
KR101655810B1 (ko) * 2014-04-22 2016-09-22 엘지전자 주식회사 차량용 디스플레이 장치
KR102324083B1 (ko) * 2014-09-01 2021-11-09 삼성전자주식회사 화면 확대 제공 방법 및 그 전자 장치
US10042445B1 (en) * 2014-09-24 2018-08-07 Amazon Technologies, Inc. Adaptive display of user interface elements based on proximity sensing
JP6452409B2 (ja) * 2014-11-28 2019-01-16 キヤノン株式会社 画像表示装置、画像表示方法
KR102337216B1 (ko) 2015-01-05 2021-12-08 삼성전자주식회사 영상 표시 장치 및 영상 표시 방법
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US10152208B2 (en) 2015-04-01 2018-12-11 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
JP6520817B2 (ja) * 2016-05-10 2019-05-29 株式会社デンソー 車両用操作装置
KR20170138279A (ko) * 2016-06-07 2017-12-15 엘지전자 주식회사 이동 단말기 및 그 제어방법
CN106201306B (zh) * 2016-06-27 2019-11-26 联想(北京)有限公司 一种控制方法及电子设备
CN109416612A (zh) * 2016-08-05 2019-03-01 京瓷办公信息系统株式会社 显示输入装置、图像形成装置、显示输入装置的控制方法
US10146495B2 (en) * 2016-12-21 2018-12-04 Curt A Nizzoli Inventory management system
JP6359165B2 (ja) * 2017-08-24 2018-07-18 三菱電機株式会社 端末用プログラム
JP2020107031A (ja) * 2018-12-27 2020-07-09 株式会社デンソー 指示ジェスチャ検出装置、およびその検出方法
JP6568331B1 (ja) * 2019-04-17 2019-08-28 京セラ株式会社 電子機器、制御方法、及びプログラム
JP6816798B2 (ja) * 2019-08-22 2021-01-20 富士ゼロックス株式会社 表示装置及びプログラム
FR3124872A1 (fr) * 2021-07-02 2023-01-06 Faurecia Interieur Industrie Dispositif électronique et procédé d'affichage de données sur un écran d’affichage, système d’affichage, véhicule et programme d’ordinateur associés

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004259054A (ja) 2003-02-26 2004-09-16 Sony Corp 表示装置及び表示方法
JP2006031499A (ja) 2004-07-20 2006-02-02 Denso Corp 情報入力表示装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5963671A (en) * 1991-11-27 1999-10-05 International Business Machines Corporation Enhancement of soft keyboard operations using trigram prediction
TWI238348B (en) * 2002-05-13 2005-08-21 Kyocera Corp Portable information terminal, display control device, display control method, and recording media
KR20030097310A (ko) * 2002-06-20 2003-12-31 삼성전자주식회사 디스플레이장치의 화상크기조절방법 및 그화상크기조절시스템과 화상크기조절방법을 수행하는프로그램이 저장된 기록매체
WO2004051392A2 (en) * 2002-11-29 2004-06-17 Koninklijke Philips Electronics N.V. User interface with displaced representation of touch area
US6990637B2 (en) * 2003-10-23 2006-01-24 Microsoft Corporation Graphical user interface for 3-dimensional view of a data collection based on an attribute of the data
US7432911B2 (en) * 2004-02-26 2008-10-07 Research In Motion Limited Keyboard for mobile devices
JP4037378B2 (ja) * 2004-03-26 2008-01-23 シャープ株式会社 情報処理装置、画像出力装置、情報処理プログラムおよび記録媒体
EP1596271A1 (de) * 2004-05-11 2005-11-16 Hitachi Europe S.r.l. Verfahren zur Anzeige von Informationen und Informationsanzeigesystem
JP4649931B2 (ja) * 2004-09-30 2011-03-16 マツダ株式会社 車両用情報表示装置
US7443316B2 (en) * 2005-09-01 2008-10-28 Motorola, Inc. Entering a character into an electronic device
US20070209025A1 (en) * 2006-01-25 2007-09-06 Microsoft Corporation User interface for viewing images
JP4876982B2 (ja) * 2007-03-07 2012-02-15 日本電気株式会社 表示装置および携帯情報機器

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004259054A (ja) 2003-02-26 2004-09-16 Sony Corp 表示装置及び表示方法
JP2006031499A (ja) 2004-07-20 2006-02-02 Denso Corp 情報入力表示装置

Also Published As

Publication number Publication date
CN102239470A (zh) 2011-11-09
JP5430782B2 (ja) 2014-03-05
JP5231571B2 (ja) 2013-07-10
WO2010064388A1 (ja) 2010-06-10
CN102239470B (zh) 2018-03-16
US20110221776A1 (en) 2011-09-15
JP2013146095A (ja) 2013-07-25
JPWO2010064388A1 (ja) 2012-05-10

Similar Documents

Publication Publication Date Title
DE112009003521T5 (de) Anzeigeeingabevorrichtung
DE112009003647B4 (de) Fahrzeug-montierte Informationsvorrichtung
DE112009002612B4 (de) Anzeige-Eingabevorrichtung, Navigationssystem mit einer Anzeige-Eingabevorrichtung sowie Fahrzeuginformationssystem mit einer Anzeige-Eingabevorrichtung
DE112010001445T5 (de) Anzeigeeingabegerät
DE112009002462T5 (de) Anzeigeeingabeeinrichtung
DE69725525T2 (de) Informationsverarbeitungsvorrichtung und -verfahren für die Eingabe von Information durch Bedienung der gesamten Vorrichtung von Hand
DE102009032637B4 (de) Bildvergrößerungssystem für eine Computerschnittstelle
DE112010002760B4 (de) Benutzerschnittstelle
DE112007000074T5 (de) System zum Erfassen einer Gierrate unter Verwendung eines Magnetfeldsensors sowie tragbare elektronische Vorrichtungen unter Verwendung hiervon
DE112012002931T5 (de) Verfahren, Vorrichtung, Computer und Mobilvorrichtung zum Anzeigen und Fahrzeug mit der Vorrichtung
DE112007001143T5 (de) Anzeigesystem und Verfahren zum Beschränken dessen Bedienung
DE202007019347U1 (de) Bildschirm-Tastfeld-Anzeigevorrichtung
DE102014204320A1 (de) Informationsabfrage durch Zeigen
CN103154858A (zh) 操作输入装置与方法及程序
DE202008007940U1 (de) Benutzerschnittstelle für eine modusabhängige Verarbeitung von Berührungsdaten
DE112012006746T5 (de) Kartenanzeigevorrichtung
DE112012006892T5 (de) Mobiles Endgerät, Fahrzeugvorrichtung und Fahrzeugsystem
DE102012112456A1 (de) Display-System, Display-Vorrichtung, Bedienvorrichtung und Funktionsauswahlvorrichtung
EP2977961B1 (de) Verfahren und Kommunikationseinrichtung zum Erstellen und/oder Ändern virtueller Objekte
DE112011101209T5 (de) Warnmeldungs-Anzeige auf einer tragbaren elektronischen Vorrichtung
DE112014006934T5 (de) Tastempfindung-Steuersystem und Tastempfindung-Steuerverfahren
US10466745B2 (en) Operational control method for flexible display device
DE102017121342A1 (de) Anzeigesteuerungsvorrichtung, anzeigesteuerungssystem und anzeigesteuerungsverfahren
EP2668557B1 (de) Verfahren zum bedienen eines matrix-touchscreens
EP0714057B1 (de) Verfahren und Gerät, um einen Zeiger entlang einer zweidimensionalen Darstellung einer rechnererzeugten dreidimensionalen Fläche darzustellen

Legal Events

Date Code Title Description
R409 Internal rectification of the legal status completed
R409 Internal rectification of the legal status completed
R012 Request for examination validly filed
R016 Response to examination communication
R084 Declaration of willingness to licence
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final