DE112013005777T5 - Bedienungsvorrichtung und Bedienungslehrverfahren für die Bedienungsvorrichtung - Google Patents

Bedienungsvorrichtung und Bedienungslehrverfahren für die Bedienungsvorrichtung Download PDF

Info

Publication number
DE112013005777T5
DE112013005777T5 DE112013005777.8T DE112013005777T DE112013005777T5 DE 112013005777 T5 DE112013005777 T5 DE 112013005777T5 DE 112013005777 T DE112013005777 T DE 112013005777T DE 112013005777 T5 DE112013005777 T5 DE 112013005777T5
Authority
DE
Germany
Prior art keywords
image area
movement
display screen
display
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112013005777.8T
Other languages
English (en)
Inventor
Shigeaki Nishihashi
Satomi Hosokawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of DE112013005777T5 publication Critical patent/DE112013005777T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04809Textured surface identifying touch areas, e.g. overlay structure for a virtual keyboard

Abstract

Eine Bedienungsvorrichtung (100) umfasst eine Erfassungsschaltung (31) und eine Bedienungssteuerschaltung (33), um einen Bedienungskörperabstand (d) von einer Bedienungsoberfläche (70) zu einem Finger (F) eines Bedieners einzubeziehen. Die Bedienung in einem ersten Bedienungsraum (Sp1) mit dem Bedienungskörperabstand, der kleiner als ein erster Schwellwertabstand (Dth1) ist, ist einer Bewegung eines Zeigers (62) zugeordnet, und unterscheidet sich von der Bedienung in einem zweiten Bedienungsraum (Sp2) mit dem Bedienungskörperabstand, der gleich oder größer als der erste Schwellwertabstand (Dth1) ist. Ein haptisches Muster (71) ist an der Bedienungsoberfläche ausgebildet, wohingegen ein visuelles Muster (67) um den Zeiger angezeigt wird, wobei das visuelle Muster die Form aufweist, die dem haptischen Muster entspricht. Die Kombination aus Haptik und Visualität lehrt bzw. vermittelt dem Bediener, dass der Zeiger durch eine Berührungsbedienung auf der Bedienungsoberfläche beweglich ist.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNG
  • Die vorliegende Offenbarung basiert auf einer japanischen Patentanmeldung JP 2012-264481 , die am 3. Dezember 2012 eingereicht wurde und deren Offenbarung durch Bezugnahme hierin miteingebunden ist.
  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft eine Bedienungsvorrichtung zum Bedienen eines Bildbereichs, der übereinstimmend mit einer Eingabe an einer Bedienungsoberfläche auf einem Anzeigeschirm angezeigt wird.
  • HINTERGRUND DER ERFINDUNG
  • Beispielsweise offenbart eine Patentliteratur 1 eine Technik zum Bewegen eines Bildbereichs, wie z. B. einen Zeiger für ein Navigations- oder Radiohauptfenster, das in Übereinstimmung mit einer Bedienung eines entfernten Touchpad-Bereichs auf einem Anzeigeschirm angezeigt wird. Eine Benutzerschnittstellenvorrichtung, die in der Patentliteratur 1 offenbart ist, umfasst (i) einen entfernten Touchpad-Bereich, der eine Bewegungsbedienung eines Fingers eines Bedieners erfasst und (ii) einen Steuerbereich, der die Fingerbedienung, die durch den entfernten Touchpad-Bereich erfasst wird, einer Bewegung einer Karte oder eines Zeigers zuordnet.
  • Der Steuerabschnitt erlangt ferner einen Abstand von dem entfernten Touchpad-Abschnitt zu dem Finger. Wenn der Abstand zu dem Finger, der durch den Steuerabschnitt erlangt wird, kleiner als eine vorbestimmte Höhe ist, beispielsweise drei Zentimeter (cm), ordnet der Steuerabschnitt die Fingerbedienung, die durch den entfernten Touchpad-Bereich erfasst wird, der Bewegung des Zeigers auf dem Anzeigeschirm zu. Wenn hingegen der erlangte Abstand des Fingers in einer vorbestimmten Höhe liegt, beispielsweise in dem Bereich von 5 cm bis 7 cm, ordnet der Steuerabschnitt eine Fingerbedienung, die durch den entfernten Touchpad-Bereich erfasst wird, einem Schalter von dem Radiohauptfenster zu einem Bedienungsbereitschaftsfenster zu.
  • LITERATUR AUS DEM STAND DER TECHNIK
  • PATENTLITERATUR
    • Patentliteratur 1: JP 2011-118857 A
  • KURZFASSUNG DER ERFINDUNG
  • Die Erfinder der vorliegenden Offenbarung haben die Bedienungsvorrichtung aus der Patentliteratur wiederholt analysiert und fanden heraus, dass in dem folgenden Punkt Verbesserungsbedarf besteht. Das heißt, jede Bedienung wird in jedem von mehreren Räumen durchgeführt, die in Abhängigkeit eines Abstands zu dem Finger definiert sind; hierdurch wird einem Bediener ein Bildbereich gezielt für jede Bedienung nicht auf einfache Weise gelehrt. Erst nachdem der Bediener tatsächlich eine Bedienung in einem Raum, welcher dem entfernten Touchpad-Bereich gegenüberliegt, durchführt, kann der Bediener den Bildbereich gezielt für die Bedienung identifizieren.
  • Eine Aufgabe der vorliegenden Offenbarung besteht darin, eine Technik zu schaffen, die es einem Bediener ermöglicht, in einem Raum, der einer Bedienungsoberfläche gegenüberliegt, auf einfache Weise einen Bildbereich gezielt für eine Bedienung zu identifizieren.
  • Um die oben genannte Aufgabe zu lösen, wird gemäß einem Beispiel der vorliegenden Offenbarung eine Bedienungsvorrichtung wie folgt vorgeschlagen. Die Bedienungsvorrichtung bedient einen Bildbereich, der übereinstimmend mit einer Eingabe durch einen Bedienungskörper an einer Bedienungsoberfläche auf einem Anzeigeschirm angezeigt wird. Die Bedienungsvorrichtung umfasst einen Erfassungsabschnitt, einen Acquisitionabschnitt, einen Zuordnungsabschnitt und einen Anzeigesteuerabschnitt. Der Erfassungsabschnitt erfasst eine Bewegung des Bedienungskörpers. Der Acquisitionabschnitt bezieht einen Bezugskörperabstand ein, der sich von der Bedienungsoberfläche zu dem Bedienungskörper erstreckt. Der Zuordnungsabschnitt unterscheidet zwischen (i) einer ersten Bewegung des Bedienungskörpers, die in einem ersten Bedienungsraum erfasst wird, falls der Bedienungskörperabstand kleiner als ein vorbestimmter Schwellwertabstand ist, und einer zweiten Bewegung des Bewegungskörpers, die in einem zweiten Bedienungsraum erfasst wird, falls der Bedienungskörperabstand größer als der Schwellwertabstand ist, und er ordnet die erste Bewegung in dem ersten Bedienungsraum und die zweite Bewegung in dem zweiten Bedienungsraum jeweils einem ersten Bildbereich und einem zweiten Bildbereich, die auf dem Anzeigeschirm angezeigt werden, zu, wobei sich der zweite Bildbereich von dem ersten Bildbereich unterscheidet. Der Anzeigesteuerbereich ändert in Reaktion auf die Bewegung des Bedienungskörpers eine Anzeigeform entweder von dem ersten Bildbereich, welcher der Bewegung zugeordnet ist, oder von dem zweiten Bildbereich, welcher der Bewegung zugeordnet ist. Die Bedienungsoberfläche ist dazu bereitgestellt, mit wenigstens einem von Vertiefungen und Vorsprüngen ein haptisches Muster zu bilden; und der Anzeigesteuerabschnitt zeigt zumindest auf oder um den ersten Bildbereich ein visuelles Muster, das einer Form des haptischen Musters entspricht, auf dem Anzeigeschirm an.
  • Gemäß einem anderen Beispiel der vorliegenden Offenbarung wird ein Bedienungslehrverfahren wie folgt vorgeschlagen. Das Bedienungslehrverfahren lehrt eine Bedienung an einer Bedienungsvorrichtung, die einen Bildbereich bedient, der übereinstimmend mit einer Eingabe durch einen Bedienungskörper an einer Bedienungsoberfläche auf einem Anzeigeschirm angezeigt wird,. Das Bedienungslehrverfahren umfasst ein Erfassen, ein Beziehen, ein Zuordnen und eine Anzeigesteuerung. Beim Erfassen wird eine Bewegung des Bedienungskörpers erfasst. Beim Beziehen wird ein Bedienungsköperabstand (d) bezogen, der sich von der Bedienungsoberfläche zu dem Bedienungskörper erstreckt. Beim Zuordnen wird zwischen (i) einer ersten Bewegung des Bewegungskörpers, der in einem ersten Bewegungsraum erfasst wird, falls der Bewegungskörperabstand kleiner als ein vorbestimmter Schwellwertabstand ist, und (ii) einer zweiten Bewegung des Bedienungskörpers, die in einem zweiten Bedienungsraum erfasst wird, falls der Bedienungskörperabstand größer als der Schwellwertabstand ist, unterschieden, und die erste Bewegung in dem ersten Bedienungsraum und die zweite Bewegung in dem zweiten Bedienungsraum wird jeweils mit einem ersten Bildbereich und einem zweiten Bildbereich (64, 264) in Beziehung gesetzt, die auf dem Anzeigeschirm angezeigt werden, wobei sich der zweite Bildbereich von dem ersten Bildbereich unterscheidet. Die Anzeigesteuerung ändert in Reaktion auf die Bewegung des Bedienungskörpers eine Anzeigeform entweder von dem ersten Bildbereich oder dem zweiten Bildbereich. Hierbei wird in der Anzeigesteuervorrichtung zumindest auf oder um den ersten Bildbereich ein visuelles Muster auf dem Anzeigeschirm angezeigt, wobei das visuelle Muster einer Form eines haptischen Musters entspricht, das mit wenigstens einem von Vertiefungen und Vorsprüngen an der Bedienungsoberfläche ausgebildet ist.
  • Gemäß den Beispielen der vorliegenden Offenbarung kann ein Bediener, der eine Eingabe an einer Bedienungsoberfläche unter Verwendung eines Bedienungskörpers durchführt, zumindest durch eines von Vertiefungen oder Vorsprüngen an der Bedienungsoberfläche durch Haptik ein haptisches Muster wahrnehmen. Zudem wird ein visuelles Muster, das der Form des haptischen Musters entspricht, zumindest an einem ersten Bildbereich oder um den ersten Bildbereich angezeigt. Eine solche Kombination von Haptik und Visualität lehrt den bzw. vermittelt dem Bediener das haptische Muster mit dem visuellen Muster, das durch Ansicht wahrgenommen wird, in Beziehung zu setzen, sodass der erste Bildbereich gezielt für eine Bedienung in einem ersten Bedienungsraum auf einfache Weise von der Mehrzahl von Bildbereichen, die auf dem Anzeigeschirm angezeigt werden, identifiziert wird.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Das oben Genannte und andere Aufgaben, Merkmale und Vorteile der vorliegenden Offenbarung werden aus der nachfolgenden ausführlichen Beschreibung mit Bezug auf die begleitenden Zeichnungen besser verständlich. In den Zeichnungen zeigen:
  • 1 ein Diagramm zum Erklären eines Aufbaus eines Anzeigesystems, das eine entfernte Bedienungsvorrichtung einer ersten Ausführungsform der vorliegenden Offenbarung umfasst;
  • 2 ein Diagramm zum Erklären einer Anordnung eines Anzeigeschirms und einer Bedienungsoberfläche in einem Fahrgastraum eines Fahrzeugs;
  • 3 ein Diagramm zum Erklären eines Beispiels eines Anzeigebilds, das auf einem Anzeigeschirm angezeigt wird;
  • 4 ein Diagramm zum Erklären eines Anzeigebilds, das aus überlagerten Wiedergabeebenen gebildet wird;
  • 5 eine Draufsicht, welche die entfernte Bedienungsvorrichtung der ersten Ausführungsform schematisch darstellt;
  • 6 ein Diagramm zum Erklären eines Aufbaus der entfernten Bedienungsvorrichtung der ersten Ausführungsform, und eine Schnittansicht, die aus 5 entlang der Linie VI-VI entnommen ist;
  • 7 ein Diagramm zum Erklären eines Bildbereichs gezielt für eine Bedienungsänderung in Abhängigkeit eines Bedienungskörperabstands in der entfernten Bedienungsvorrichtung der ersten Ausführungsform;
  • 8 ein Flussdiagramm, das eine Hauptverarbeitung darstellt, die durch die Bedienungssteuerschaltung in der entfernten Bedienungsvorrichtung der ersten Ausführungsform durchgeführt wird;
  • 9 ein Flussdiagramm, das eine Touch-Sensor-Eingabe darstellt, die durch die Bedienungssteuerschaltung der ersten Ausführungsform durchgeführt wird;
  • 10 ein Diagramm zum Erklären eines Verhältnisses zwischen Empfindlichkeitswerten, die durch einen Touch-Sensor erfasst werden und Bedienungszuständen, die durch die Bedienungssteuerschaltung in der entfernten Bedienungsvorrichtung der ersten Ausführungsform bestimmt werden;
  • 11 ein Listendiagramm, das jeden Empfindlichkeitsschwellwert darstellt, der in der Bedienungssteuerschaltung der ersten Ausführungsform gespeichert ist;
  • 12 ein Flussdiagramm, das eine Bedienungsschichtbestimmung darstellt, die durch die Bedienungssteuerschaltung der ersten Ausführungsform durchgeführt wird;
  • 13 eine Draufsicht, die eine entfernte Bedienungsvorrichtung einer zweiten Ausführungsform schematisch darstellt;
  • 14 ein Diagramm zum Erklären eines Bildbereichs gezielt für eine Bedienungsänderung in Abhängigkeit von einem Bedienungskörperabstand in der entfernten Bedienungsvorrichtung der zweiten Ausführungsform;
  • 15 ein Diagramm, das ein Beispiel einer Modifikation aus 5 darstellt;
  • 16 ein Diagramm, das eine Modifikation aus 3 darstellt;
  • 17 ein Diagramm, das eine Modifikation aus 16 darstellt;
  • 18 ein Diagramm, das eine andere Modifikation aus 5 darstellt;
  • 19 eine Schnittansicht aus 18, die entlang der Linie XIX-XIX entnommen ist;
  • 20 ein Diagramm, das eine andere Modifikation als 3 darstellt;
  • 21 ein Diagramm, das eine Modifikation aus 19 darstellt; und
  • 22 ein Diagramm, das eine Modifikation aus 10 darstellt.
  • AUSFÜHRUNGSFORMEN ZUR DURCHFÜHRUNG DER ERFINDUNG
  • Ausführungsformen der vorliegenden Offenbarung werden nachstehend basierend auf den Figuren beschrieben. Da vergleichbare Bauteile in den jeweiligen Ausführungsformen mit denselben Bezugszeichen versehen sind, werden Erklärungen hierzu nicht wiederholt. Wenn lediglich ein bestimmter Teil eines Aufbaus in jeder Ausführungsform erklärt wird, kann der andere Teil, der bereits erklärt wurde, auf einen Aufbau einer anderen Ausführungsform angewendet werden. Solange keine Schwierigkeiten beim Kombinieren auftreten, ist nicht nur eine erwähnte Kombination des Aufbaus in einer Erklärung von jeder Ausführungsform, sondern ebenso eine nicht erwähnte Unterkombination der Aufbauten der Ausführungsformen möglich. Eine nicht erwähnte Kombination derjenigen Aufbauten, die in den Ausführungsformen und Modifikationen beschrieben sind, ist in der nachfolgenden Erklärung ebenso offenbart.
  • (Erste Ausführungsform)
  • Eine entfernte Bedienungsvorrichtung 100 einer ersten Ausführungsform der vorliegenden Offenbarung ist an einem Fahrzeug angebracht und arbeitet mit einer Navigationsvorrichtung 50 zusammen, um ein Anzeigesystem 10 zu bilden, wie in 1 gezeigt ist. Wie in 2 gezeigt ist, ist die entfernte Bedienungsvorrichtung 100 neben einer Handballenauflage 39 an einer Mittelkonsole des Fahrzeugs installiert und umfasst eine Bedienungsoberfläche 70, die so exponiert ist, dass sie durch einen Bediener erreichbar ist. Die Bedienung durch einen Zeigefinger (nachstehend lediglich „Finger” genannt) F des Bedieners wird an der Bedienungsoberfläche 70 eingegeben. Die Navigationsvorrichtung 50 ist in einer Instrumententafel des Fahrzeugs derart installiert, dass ein Anzeigeschirm 42 so exponiert ist, dass er für den Bediener sichtbar ist und zu dem Fahrersitz ausgerichtet ist. Auf dem Anzeigeschirm 52 werden verschiedene Anzeigebilder 60 angezeigt. Der Bediener kann ebenso als Anwender bezeichnet werden. Bedienen kann ebenso als Betätigen oder Eingeben bezeichnet werden. Das Displaybild 60, das in 3 gezeigt ist, ist eines der Anzeigebilder, die auf dem Anzeigeschirm 52 angezeigt werden, und ist ein Navigationsbild, das Routen zu einem Ziel anzeigt, das durch den Bediener eingestellt wird. Die Anzeigebilder 60 umfassen eine Mehrzahl von Symbolen 63 und eine Karte 64, die Formen von Routen um das Fahrzeug anzeigt. Zudem umfasst das Anzeigebild 60 einen Fokus 66, der das Symbol 63 mit dem Zeiger 62 überlagert. Der Ort zum Anzeigen des Zeigers 62 auf dem Anzeigeschirm 52 entspricht dem Ort, an dem der Finger F die Bedienungsoberfläche 70, die in 2 gezeigt ist, berührt.
  • Wie in 4 gezeigt ist, werden die Anzeigebilder 60 erzeugt, wenn die Navigationsvorrichtung 50 (siehe 1) eine Mehrzahl von Wiedergabeebenen miteinander überlagert. Insbesondere werden die Anzeigebilder 60 erzeugt, indem eine Kartenebene L2 zur Wiedergabe einer Karte 64, eine Objektebene L3 zur Wiedergabe der Symbole 63 und eine Anzeigeebene L1 zur Wiedergabe des Zeigers 62 überlagert werden. Jede Ebene L1 bis L3 ist so definiert, dass sie auf den Anzeigeschirm 62 zugeschnitten ist.
  • Als Nächstes werden Aufbauten der entfernten Bedienungsvorrichtung 100 und eine Navigationsvorrichtung 50, die in 1 gezeigt ist, ausführlich beschrieben.
  • Die entfernte Bedienungsvorrichtung 100 ist mit einem Controller-Area-Network-(CAN)-Bus 90 und einer externen Batterie 95 verbunden. Der CAN-Bus 90 ist ein Übertragungsweg, der zur Datenübertragung zwischen jeder im Fahrzeug angebrachten Vorrichtung in einem fahrzeuginternen Kommunikationsnetzwerk verwendet wird, das eine Mehrzahl von im Fahrzeug angebrachten Vorrichtungen miteinander verbindet. Die entfernte Bedienungsvorrichtung 100 kann über den CAN-Bus 90 mit der Navigationsvorrichtung 50, die von der Vorrichtung entfernt ist, durch CAN-Kommunikation kommunizieren.
  • Die entfernte Bedienungsvorrichtung 100 umfasst Leistungsschnittstellen 21 und 22, eine Kommunikationssteuerschaltung 23, eine Kommunikationsschnittstelle 24, eine Erfassungsschaltung 31 und eine Bedienungssteuerschaltung 33. Die Leistungsschnittstellen 21 und 22 stabilisieren eine elektrische Leistungszufuhr von der Batterie 95, um der Bedienungssteuerschaltung 33 Leistung zuzuführen. Der Leistungsschnittstelle 21 wird jederzeit Leistung von der Batterie 95 zugeführt. Wenn ein Schalter 93 auf ein Einschalten einer Zubehör-(ACC)-Leistung des Fahrzeugs elektrisch durchleitet, wird der Leistungsschnittstelle 22 von der Batterie 95 Leistung zugeführt.
  • Die Kommunikationssteuerschaltung 23 und die Kommunikationsschnittstelle 24 geben Informationen, die durch die Bedienungssteuerschaltung 33 verarbeitet werden, an den CAN-Bus 90 aus, und sie erlangen Informationen, die von anderen im Fahrzeug verbauten Vorrichtungen an den CAN-Bus 90 ausgegeben werden. Die Kommunikationssteuerschaltung 23 und die Kommunikationsschnittstelle 24 sind durch eine Signalleitung TX zum Übertragen und eine Signalleitung RX zum Empfangen miteinander verbunden.
  • Die vorliegende Anwendung verwendet „Informationen” nicht nur als ein nicht zählbares Nomen, sondern ebenso als ein zählbares Nomen.
  • Wie in den 1 und 2 gezeigt ist, umfasst die Erfassungsschaltung 31 einen Touch-Sensor 31a, einen Tiefpassfilter 31b und eine elektrostatische Erfassungs-IC bzw. -Integrierte Schaltung 31c. Der Touch-Sensor 31a ist in einer rechteckigen Form entlang der Bedienungsoberfläche 70 ausgebildet und speichert Ladung zwischen sich selbst und dem Finger F. Der Touch-Sensor 31a ist durch eine Anordnung von (i) Elektroden, die sich in der X-Achserrichtung erstrecken und (ii) Elektroden, die sich in der Y-Achsenrichtung erstrecken, in einer Gitterform in 5 ausgebildet. Der Tiefpassfilter 31b aus 1 umfasst einen passiven Widerstand, eine Spule und einen Kondensator. Der Tiefpassfilter 31b unterdrückt, dass Rauschanteile einer hohen Frequenz, die in dem Touch-Sensor 31a erzeugt werden, in die elektrostatische Erfassungs-IC 31c eingegeben werden. Die elektrostatische Erfassungs-IC 31c ist mit dem Touch-Sensor 31a und einer Bedienungssteuerschaltung 33 verbunden. Zwischen dem Finger F und dem Touch-Sensor 31a, die, wie in 6 gezeigt ist, zueinander benachbart sind, wird Ladung gespeichert. Die elektrostatische Erfassungs-IC 31c aus 1 erlangt einen Empfindlichkeitswert (siehe 10), der in Reaktion auf eine Kapazität zwischen dem Finger F (siehe
  • 6) und jeder Elektrode variiert, und gibt den Wert an die Bedienungssteuerschaltung 33 aus.
  • Die Bedienungssteuerschaltung 33 umfasst einen Prozessor, der verschiedene Berechnungen durchführt, einen RAM, der als ein Arbeitsspeicher dient, und einen Flash-Speicher, der ein Programm für Berechnungen speichert. Zudem ist die Bedienungssteuerschaltung 33 mit Leistungsschnittstellen 21 und 22, einer Kommunikationssteuerschaltung 23 und einer Erfassungsschaltung 31 verbunden.
  • Die Bedienungssteuerschaltung 33 erlangt durch Ausführen eines vorbestimmten Programms einen Empfindlichkeitswert, der von der Erfassungsschaltung 31 ausgegeben wird. Die Bedienungssteuerschaltung 33 erfasst eine X-Koordinate und eine Y-Koordinate, die einen relativen Ort des Fingers F zu der Bedienungsoberfläche 70 zeigen (siehe 6), und eine Z-Koordinate, die zu einem Abstand (nachstehend als „Bedienungskörperabstand d bezeichnet” (siehe A aus 7)) von der Bedienungsoberfläche 70 zu dem Finger F durch eine Berechnungen basierend auf dem Empfindlichkeitswert äquivalent ist. Somit gibt die Bedienungssteuerschaltung 33 die X-Koordinate und die Y-Koordinate, welche den relativen Ort des Fingers F zeigen, durch die Kommunikationssteuerschaltung 23 und die Kommunikationsschnittstelle 24 an den CAN-Bus 90 aus.
  • Die Navigationsvorrichtung 50, die in den 1 und 2 gezeigt ist, ist mit dem CAN-Bus 90 verbunden, um mit der entfernten Bedienungsvorrichtung 100 zu kommunizieren. Die Navigationsvorrichtung 50 umfasst eine Anzeigesteuerschaltung 53 und eine Flüssigkristallanzeige 51.
  • Die Anzeigesteuerschaltung 53 umfasst einen Prozessor, der verschiedene Berechnungen durchführt, einen RAM, der als ein Arbeitsspeicher für die Berechnungen dient, einen Grafikprozessor, der Bilder wiedergibt, und einen Grafik-RAM, der als ein Arbeitsspeicher für Wiedergabebilder dient. Zudem umfasst die Anzeigesteuerschaltung 53 einen Flash-Speicher, der Daten speichert, die zur Berechnung und Wiedergabe verwendet werden, eine Kommunikationsschnittstelle, die mit dem CAN-Bus 90 verbunden ist, und eine Bildausgabeschnittstelle, die wiedergegebene Bilddaten an die Flüssigkristallanzeige 51 ausgibt. Die Anzeigesteuerschaltung 53 gibt die Anzeigebilder 60, die auf dem Anzeigeschirm 52 angezeigt werden, basierend auf den Informationen wieder, die von dem CAN-Bus 90 erlangt werden. Die Anzeigesteuerschaltung 53 gibt aufeinanderfolgend wiedergegebene Bilddaten der Anzeigebilder 60 durch die Bildausgabeschnittstelle an die Flüssigkristallanzeige 51 aus.
  • Die Flüssigkristallanzeige 51 ist eine Punktmatrixanzeige zur Umsetzung einer Farbanzeige durch Steuern einer Mehrzahl von Pixeln, die in den Anzeigeschirmen 52 angeordnet sind. Die Flüssigkristallanzeige 51 zeigt Bilder durch eine kontinuierliche Ausformung von Bilddaten, die aufeinanderfolgend von der Anzeigesteuerschaltung 53 erlangt werden, auf dem Anzeigeschirm 52 an.
  • Bedienungsmodi werden in Reaktion auf den Bedienungskörperabstand d des Fingers F, der eine Bewegungsbedienung in der entfernten Bedienungsvorrichtung 100, die vorstehend beschrieben ist, eingibt, umgeschaltet. Dies ändert den Bildbereich, welcher der Bewegungsbedienung des Fingers F zugeordnet ist, unter den Anzeigebildern 60 zu, die in 7 gezeigt sind. Nachfolgend werden Bedienungsmodi (1) bis (3), die in der entfernten Bedienungsvorrichtung 100 vordefiniert sind, ausführlich beschrieben.
  • (1) Berührungsbedienungsmodus
  • In dem Berührungsbedienungsmodus, der in B aus 7 gezeigt ist, ist die Bewegungsbedienung durch den Finger F einem Zeiger zugeordnet, um die Anzeigeposition des Zeigers 62, der auf dem Anzeigeschirm 52 angezeigt wird, zu bewegen. In einem solchen Berührungsbedienungsmodus befindet sich der Finger F in einem ersten Bedienungsraum Sp1. Der erste Bedienungsraum Sp1 ist ein Raum, in dem der Bewegungskörperabstand d (siehe A aus 7) kleiner als ein erster Schwellwertabstand Dth1 in der Fläche ist, die der Bedienungsoberfläche 70 gegenüberliegt. Der erste Schwellwertabstand Dth1 ist beispielsweise auf etwa 0,5 bis 1 cm eingestellt. Die Bewegungsbedienung, die den Finger F entlang einer X-Y-Ebene in dem ersten Bedienungsraum Sp1 bewegt, ist als eine „Berührungsbedienung” definiert. Das heißt, die Berührungsbedienung, die hier definiert ist, umfasst (i) eine Bedienung durch den Bedienungskörper des Bedieners in einem tatsächlichen Berührungszustand und (ii) eine Bedienung durch den Bedienungskörper in einem sehr nahen Zustand.
  • (2) In-der-Luft-Bedienungsmodus
  • Bei dem In-der-Luft-Bedienungsmodus, der in C aus 7 gezeigt ist, ist die Bewegungsbedienung durch den Finger F einer Scroll-Steuerung der Karte 64 zugeordnet, die auf dem Anzeigeschirm 52 angezeigt wird, um die Karte 64 in jeder Richtung des Anzeigeschirms 52 zu bewegen (nachstehend „scrollen” genannt). In einem solchen In-der-Luft-Bedienungsmodus befindet sich der Finger F in einem zweiten Bedienungsraum Sp2. Der zweite Bedienungsraum Sp2 ist ein Raum, in dem der Bedienungskörperabstand d gleich oder größer als der erste Schwellwertabstand Dth1 und kleiner als ein zweiter Schwellwertabstand Dth2 in der Fläche ist, die der Bedienungsoberfläche 70 gegenüberliegt. Der zweite Schwellwertabstand Dth2 ist beispielsweise auf 2 bis 3 cm eingestellt. Die Bewegungsbedienung, welche den Finger F entlang der X-Y-Ebene in dem zweiten Bedienungsraum Sp2 bewegt, ist als eine „In-der-Luft-Bedienung” definiert.
  • (3) Nicht-angrenzender Modus
  • In dem nicht-angrenzenden Modus, der in A aus 7 gezeigt ist, ist die Bewegungsbedienung durch den Finger F keinem Bildbereich des Anzeigeschirms 52 zugeordnet. In einem solchen nicht-angrenzenden Modus befindet sich der Finger F weder in dem ersten Bedienungsbereich Sp1 (siehe B aus 7) noch in dem zweiten Bedienungsbereich Sp2 (siehe C aus 7). Somit ist der Raum, ausgenommen von dem ersten Bedienungsraum Sp1 und dem zweiten Bedienungsraum Sp2, ein nicht-angrenzender Raum.
  • Nachfolgend werden ein haptisches Muster 71 und ein visuelles Muster 67 erklärt, die zur Verbesserung der Bedienung in dem Aufbau ausgebildet sind, der die Bewegung des Fingers F, die in dem ersten Bedienungsraum Sp1 (siehe B aus 7) erfasst wird, von der Bewegung des Fingers F, die in den zweiten Bedienungsraum Sp2 (siehe C aus 7) erfasst wird, unterscheidet.
  • Wie in den 5 und 6 gezeigt ist, ist das haptische Muster 71 in einer äußeren Oberfläche ausgebildet, die von einer Außenseite der Bedienungsoberfläche 70 zugänglich ist. Das haptische Muster 71 ist aus einem Punktmuster aus angeordneten punktförmigen Punkten ausgebildet. Jeder Punkt des haptischen Musters 71 ist aus einem vertieften Bereich 72 ausgebildet, der durch eine Vertiefung der Bedienungsoberfläche 70 in einer im Wesentlichen kreisrunden Form ausgebildet ist. Eine Mehrzahl von vertieften Bereichen 72 ist in vorbestimmten Abständen in der X-Achserrichtung, der Y-Achsenrichtung und der Zwischenrichtung zwischen der X-Achsen- und Y-Achsenrichtung angeordnet; diese Richtungen sollen Hauptrichtungen der Bewegung des Fingers F sein. Eine solche Anordnung von Vertiefungsbereichen 72 ermöglicht dem haptischen Muster 71 wiederholte, im Wesentlichen einheitliche Vertiefungen in einer Mehrzahl von Richtungen entlang der Bedienungsoberfläche 70 aufzuweisen.
  • Wie in 6 gezeigt ist, ist das haptische Muster 71 ferner derart bereitgestellt, dass ein innerer Durchmesser d einer Öffnung 73 des Vertiefungsbereichs 72 kleiner gestaltet ist als eine minimale Länge Lt der Form einer vorgesehenen Berührungsoberfläche zwischen der Bedienungsoberfläche 70 und dem Finger F. Auf diese Weise ermöglicht das haptische Muster 71 dem Bediener, der die Bedienungsoberfläche 70 mit dem Finger F anfasst, die Form von einem kreisförmigen Vertiefungspunkt durch Haptik leicht zu fühlen. Ein Abstand p zwischen den zueinander benachbarten vertieften Bereichen 72 ist ähnlich oder leicht kleiner als die minimale Länge Lt der Berührungsoberfläche definiert. Der Bediener, der darauf gefasst ist, auf der Bedienungsoberfläche 70 entlang zu fahren, kann dadurch mit Sicherheit jeden der Punkte des haptischen Musters 71 anfassen.
  • Das visuelle Muster 67, das in 3 gezeigt ist, wird auf dem Anzeigeschirm 52 entsprechend dem haptischen Muster 71 angezeigt. Das visuelle Muster 67 weist ein Punktmuster auf, das der Form des haptischen Musters 71 entspricht (siehe 5). Das visuelle Muster 67 ist der Form des haptischen Musters 71 ähnlich. Das visuelle Muster 67 ist in der Fläche eines Bereitschaftsbildbereichs 68 mit einer kreisrunden Form angezeigt. Der Bereitschaftsbildbereich 68 weist eine größere Fläche als der Zeiger 62 auf. Der Bereitschaftsbildbereich 68 ist beispielsweise in dem unteren linken Eckbereich des Schirms 52 angeordnet, um die Mitte des Anzeigeschirms 52 zu vermeiden. Wenn der Finger F von dem ersten Bedienungsraum Sp1 getrennt wird (siehe B aus 7), wird der Zeiger 62 so angezeigt, dass er sich mit dem Bereitschaftsbildbereich 68 überlagert (siehe A aus 7). Das visuelle Muster 67 wird daher um den Zeiger 62 angezeigt.
  • Mit Bezug auf 7 wird nachfolgend eine aufeinanderfolgende Serie von Symbolauswahlen erklärt, während das Bedienungsverfahren durch die Muster 71 und 67 in dem oben beschriebenen Anzeigesystem 10 (siehe 1) gelehrt wird, bis der Bediener ein beliebiges Symbol 63 auswählt.
  • Hierbei zeigt A aus 7 einen Zustand an, bei dem der Bediener eine Handlung beginnt, um den Finger F an die Bedienungsoberfläche 70 anzunähern. Der Bediener, der mit einer Symbolauswahl beginnt, bewegt den Finger F, der sich durch einen Abstand, der größer als der zweite Schwellwertabstand Dth2 von der Bedienungsoberfläche 70 entfernt befindet, zu der Bedienungsoberfläche 70. In dem Zustand von A aus 7, der voraussetzt, dass der Bedienungsmodus als der nicht-angrenzende Modus dient, ordnet die entfernte Bedienungsvorrichtung 100 die Bedienung durch den Finger F nicht den Bildbereichen zu. Auf dem Anzeigeschirm 52 wird der Zeiger 62 auf dem Bereitschaftsbildbereich 68 überlagert; das visuelle Muster 67 wird somit um den Zeiger 62 angezeigt.
  • Hierbei zeigt B aus 7 einen Zustand an, bei dem der Finger F von dem nicht-angrenzenden Raum zu dem ersten Bedienungsraum Sp1 bewegt worden ist. Der Bediener, der die Bedienungsoberfläche 70 angefasst hat, kann sich auf das haptische Muster 71 und das visuelle Muster 67 zueinander beziehen, indem er das haptische Muster 71 durch die Haptik mit dem Finger F fühlt. Mit einem solchen Bedienungslehrverfahren wird der Bediener gelehrt, dass der Zeiger 71, der sich auf dem visuellen Muster 67 überlagert, gezielt für die Berührungsbedienung vorhanden ist.
  • Ferner wird nun der Bedienungsmodus der entfernten Bedienungsvorrichtung 100 von dem nicht-angrenzenden Modus zu dem Berührungsbedienungsmodus umgeschaltet. Wenn die Bewegungsbedienung der Zeigersteuerung zugeordnet wird, wird auf diese Weise der Zeiger 62 von dem Bereitschaftsbildbereich 68 getrennt, um sich an einem Ort auf dem Anzeigeschirm 52 zu bewegen, der einem Ort des Fingers F in Bezug zu der Bedienungsoberfläche 70 entspricht.
  • Es ist zu beachten, dass die Zuordnung zwischen der Bewegungsbedienung des Fingers F und einer Zeigersteuerung unterdrückt werden kann, bis eine Berührung (nachstehend ”Antippen” genannt) durch den Finger F, der sich in den ersten Bedienungsraum Sp1 bewegt hat, auf der Bedienungsoberfläche 70 eingegeben wird. Ferner kann ein Anzeigen des Bereitschaftsbildbereichs 68 auf dem Anzeigebild 60 gestoppt werden, wenn der Zeiger 62 von diesem getrennt wird.
  • Hierbei zeigt C aus 7 den Zustand an, bei dem der Finger F von dem ersten Bedienungsraum Sp1 (siehe B aus 7) zu dem zweiten Bedienungsbereich Sp2 bewegt worden ist. In Reaktion auf diese Bewegung wird der Bedienungsmodus der entfernten Bedienungsvorrichtung 100 von dem Berührungsbedienungsmodus zu dem In-der-Luft-Bedienungsmodus umgeschaltet. Hierdurch wird die Bewegungsbedienung der Scroll-Steuerung zugeordnet; der Bediener kann die Karte 64 in der vertikalen und horizontalen Richtung durch Bewegung des Fingers F scrollen. Zudem bewegt sich der Zeiger 62 in den Bereitschaftsbildbereich 68, wo er mit dem Bildbereich 68 überlagert wird.
  • Durch Kombinieren der oben genannten Berührungsbedienung und der In-der-Luft-Bedienung, kann der Bediener den Zeiger 62 mit dem beliebigen Symbol 63 überlagern. Danach kann der Bediener das beliebige Symbol 63 auswählen, indem er ein Antippen auf der Bedienungsoberfläche 70 in dem Zustand einer Überlagerung des Zeigers 62 mit dem beliebigen Symbol 63 eingibt.
  • Danach bewegt der Bediener, der das beliebige Symbol 63 ausgewählt hat, den Finger F zu dem nicht-angrenzenden Raum, wie in A aus 7 gezeigt ist. Hierdurch wird der Bedienungsmodus zu dem nicht-angrenzenden Modus umgeschaltet und bewirkt, dass die entfernte Bedienungsvorrichtung 100 auf eine nachfolgende Symbolwahl durch den Bediener in einen Zustand des Wartens eintritt.
  • Jeder Vorgang, der durch die Bedienungssteuerschaltung 33 durchgeführt wird, um die oben genannte Symbolauswahl (siehe 1) umzusetzen, wird basierend auf den 8 bis 12 ausführlich beschrieben. Die Hauptverarbeitung, wie in 8 gezeigt ist, beginnt durch die Bedienungssteuerschaltung 33, wenn die ACC-Leistung des Fahrzeugs eingeschaltet wird.
  • Es ist zu beachten, dass ein Flussdiagramm oder die Verarbeitung des Flussdiagramms in der vorliegenden Anmeldung Abschnitte umfasst (ebenso als Schritte bezeichnet), von denen jeder beispielsweise als S101 dargestellt wird. Ferner kann jeder Abschnitt in mehrere Unterabschnitte unterteilt werden, wohingegen mehrere Abschnitte zu einem einzelnen Abschnitt kombiniert werden können. Darüber hinaus kann jeder dieser konfigurierten Abschnitte ebenso als eine Vorrichtung, ein Modul oder ein Mittel bezeichnet werden. Jeder oder jede beliebige Kombination der Abschnitte, die obenstehend beschrieben ist, kann (i) als ein Softwareabschnitt in Kombination mit einer Hardwareeinheit (z. B. Computer) oder (ii) als ein Hardwareabschnitt, der eine Funktion einer in einer Beziehung stehenden Vorrichtung umfasst oder nicht umfasst, erreicht werden; ferner kann der Hardwareabschnitt (z. B. eine integrierte Schaltung, eine hartverdrahtete logische Schaltung) innerhalb eines Mikrocomputers ausgestaltet sein.
  • In S101 wird eine Initialisierung des Flash-Speichers durchgeführt; danach setzt der Ablauf bei S102 fort. In S102 wird bestimmt, ob die ACC-Leistung des Fahrzeugs in dem eingeschalteten Zustand ist. Wenn bestimmt wird, dass die ACC-Leistung in S102 nicht eingeschaltet worden ist, setzt der Ablauf bei S106 fort, wo vor dem Ende ein Ablauf durchgeführt wird, so dass die Ausgabe beendet wird. Danach wird die Hauptverarbeitung beendet.
  • Wenn hingegen bestimmt wird, dass in S102 die ACC-Leistung eingeschaltet worden ist, setzt der Ablauf bei S103 fort. In S103 wird der Touch-Sensor-Eingabevorgang, der später beschrieben wird, durchgeführt, um den Zustand der Bedienung durch den Finger F an der Bedienungsoberfläche 70 auf einen von der ”Berührungsbedienung”, ”In-der-Luft-Bedienung”, und den ”nicht-angrenzenden Zustand” einzustellen und den eingestellten Zustand einzubeziehen; danach setzt der Ablauf bei S104 fort. Wenn zudem in S103 der Betätigungszustand in der ”Berührungsbedienung” oder ”In-der-Luft-Bedienung” ist, werden die Informationen zu der X-Koordinate, Y-Koordinate und Z-Koordinate (nachstehend ”Eingabeortskoordinate”), die den relativen Ort des Fingers F zu der Bedienungsoberfläche 70 zeigen, bezogen.
  • In S104 wird die Bedienungsebenenbestimmung, die später ausführlich beschrieben wird, durchgeführt, um eine Wiedergabeebene gezielt für eine Bedienung (nachstehend ebenso eine ”Auswahlebene” genannt) einer der Ebenen L1, L2 und L3 einzustellen und die ausgewählte Ebene einzubeziehen; danach setzt der Ablauf bei S105 fort. Die ausgewählte Ebene umfasst den Bildbereich, welcher der Bedienung durch den Finger F zugeordnet ist.
  • In S105 wird das visuelle Muster 67 angezeigt, und die Kommunikationssteuerung wird durchgeführt, um die Anzeigeform des Bildbereichs zu ändern, welcher der Bewegung des Fingers F zugeordnet ist. Die Anzeigeform kann ein Anzeigemodus oder Anzeigeweise sein, und umfasst ebenso verschiedene Spezifikationen von Farben, Formen, Größen und Inhalten, die in Bezug zu der Anzeige oder deren Design stehen, und Spezifikationen einer zeitlichen Änderung der Anzeigespezifikationen. Somit werden Signale, welche die in S103 und S104 bezogenen Informationen zeigen, an den CAN-Bus 90 ausgegeben; danach kehrt der Ablauf zu S102 zurück. Die Informationen, die in S105 ausgegeben werden, umfassen Koordinateninformationen, die den relativen Ort des Fingers F zeigen und Informationen, welche die ausgewählte Ebene zeigen. Während dem eingeschalteten Zustand der ACC-Leistung werden die Vorgänge in S102 bis S105 wiederholt.
  • Als nächstes wird der Touch-Sensor-Eingabevorgang, der in S103 durchgeführt wird, basierend auf den 9 bis 11 ausführlich erklärt.
  • In S121 wird der Bezugsvorgang durchgeführt, um den Empfindlichkeitswert, der in jeder Elektrode des Touch-Sensors 31a erfasst wird, einzubeziehen; danach setzt der Ablauf bei S122 fort. In S122 wird eine Eingabeortkoordinate basierend auf dem Empfindlichkeitswert, der in S121 bezogen wird, berechnet; danach setzt der Ablauf bei S123 fort.
  • Wie in dem Listendiagramm gezeigt ist, das in 11 gezeigt ist, sind ein Empfindlichkeitsschwellwert Hth1, der dem ersten Schwellwertabstand Dth1 entspricht, und ein Empfindlichkeitsschwellwert Hth2, der dem zweiten Schwellwertabstand Dth2 entspricht, vorab in der Bedienungssteuerschaltung 33 (siehe 1) gespeichert. In der Verarbeitung nach S123 in 9 vergleicht die Bedienungssteuerschaltung 33 einen maximalen Empfindlichkeitswert, der in S122 bezogen wird, mit jedem der Empfindlichkeitsschwellwerte Hth1 und Hth2.
  • In S123 wird basierend darauf, ob der Empfindlichkeitswert gleich oder größer als der erste Empfindlichkeitswert Hth1 ist oder nicht bestimmt, ob sich der Finger F in dem ersten Bedienungsraum Sp1 befindet. Wenn in S123 eine positive Bestimmung vorgenommen wird, setzt der Ablauf bei S124 fort. In S124 wird der Bedienungszustand auf die ”Berührungsbedienung” eingestellt; danach wird die Touch-Sensor-Eingabeverarbeitung beendet.
  • In S125 wird, nachdem in S123 eine negative Bestimmung vorgenommen worden ist, basierend darauf, ob der Empfindlichkeitswert gleich oder größer als der Empfindlichkeitsschwellwert Hth2 ist, und kleiner als der erste Empfindlichkeitsschwellwert Hth1 ist, bestimmt, ob sich der Finger F in dem zweiten Bedienungsraum Sp2 befindet. Wenn eine positive Bestimmung in S125 vorgenommen wurde, setzt der Ablauf bei S126 fort. In S126 wird der Bedienungszustand auf die ”In-der-Luft-Bedienung” eingestellt, und die Touch-Sensor-Eingabeverarbeitung wird beendet. Nachdem in S125 eine negative Bestimmung vorgenommen worden ist, wird hingegen in S127 der Bedienungszustand auf die ”nicht-angrenzende Bedienung” eingestellt; danach wird die Touch-Sensor-Eingabeverarbeitung beendet.
  • Als Nächstes wird die Bedienungsebenenbestimmung, die in S104 (siehe 8) durchgeführt wird, basierend auf 12 ausführlich beschrieben.
  • In S131 wird der letzte Bedienungszustand, der durch die Touch-Sensor-Eingabeverarbeitung (siehe 9) eingestellt wurde, bezogen; danach setzt der Ablauf bei S132 fort. In S132 wird bestimmt, ob der Bedienungszustand, der in S131 bezogen wurde, in der ”Berührungsbedienung” ist. Wenn in S132 eine positive Bestimmung vorgenommen wird, setzt der Ablauf bei S133 fort, wo die Zeigerebene L1 als die ausgewählte Ebene eingestellt wird, um die Bedienung entsprechend dem Berührungsbedienungsmodus in der Navigationsvorrichtung 50 durchzuführen. Danach wird die Bedienungsebenenbestimmung beendet.
  • Nachdem in S132 eine positive Bestimmung vorgenommen worden ist, wird in S134 bestimmt, ob der Bedienungszustand, der in S131 bezogen wurde, in dem ”In-der-Luft-Bedienung” ist. Wenn in S134 eine positive Bestimmung vorgenommen wird, setzt der Ablauf bei S135 fort. In S135 wird die Kartenebene L2 als die ausgewählte Ebene eingestellt, um die Bedienung entsprechend der In-der-Luft-Bedienung in der Navigationsvorrichtung 50 durchzuführen. Danach wird die Bedienungsebenenbestimmung beendet. Wenn hingegen eine negative Bestimmung in S134 vorgenommen wird, setzt der Ablauf bei S136 fort, wo die ausgewählte Ebene als ”keine” eingestellt wird. Danach wird die Bedienungsebenenbestimmung beendet.
  • Durch die oben genannte Verarbeitung bezieht die Anzeigesteuerschaltung 53 in 1 jedes Signal ein, das von der Bedienungssteuerschaltung 33 über den CAN-Bus 90 durch Wiederholung von S105 ausgibt. Die Anzeigesteuerschaltung 350 zeigt den Bereitschaftsbildbereich 68 an, der das visuelle Muster 67, das in 7 gezeigt ist, auf dem Anzeigeschirm 52 bildet, und bestimmt den Bildbereich gezielt für eine Bedienung basierend auf einem die Ebene spezifizierenden Signal, das die ausgewählte Ebene zeigt. Die Anzeigesteuerschaltung 53 (siehe 1) steuert den Bildbereich gezielt für eine Bedienung in Reaktion auf ein Koordinatensignal, das den relativen Ort des Fingers F zeigt. Somit ändert sich die Anzeigeform des Zeigers 62 und der Karte 64 mit der Bewegung des Fingers F.
  • Übereinstimmend mit der oberen ersten Ausführungsform fühlt durch Haptik der Bediener, der insbesondere die Berührungsbedienung unter Verwendung des Fingers F durchführt während er eine Berührung des Fingers F mit der Bedienungsoberfläche 70 vornimmt, das Punktmuster, das durch das haptische Muster 71 gebildet wird. Zudem kann der Bediener das Punktmuster, das durch das visuelle Muster 67 um den Zeiger 62 angezeigt wird, durch Ansicht wahrnehmen. Durch die Lehre bzw. Vermittlung einer solchen Kombination aus Haptik und Ansicht kann der Bediener das haptische Muster 71 und das visuelle Muster 67, deren Formen einander entsprechen, selbst miteinander in Bezug setzen. Der Bediener kann daher den Zeiger 62 gezielt für die Berührungsbedienung leicht aus einer Mehrzahl von Anzeigeabschnitten, die auf dem Anzeigeschirm 52 angezeigt werden, identifizieren.
  • Da das haptische Muster 71 und das visuelle Muster 67 in der Form ähnlich sind, kann zudem der Bediener die Muster 71 und 67 in der ersten Ausführungsform leichter in Bezug zueinander setzen. Hierdurch wird die vorteilhafte Wirkung erzielt, dass der Zeiger 62 einfacher, mit hoher Sicherheit identifiziert wird.
  • Gemäß der ersten Ausführungsform kann der Bediener das visuelle Muster 67 in dem Bereitschaftsbildbereich 68 selbst dann wahrnehmen, während der Finger F von dem ersten Bedienungsraum Sp1 (siehe A und C aus 7) getrennt ist. Bevor der Finger F den ersten Bedienungsraum Sp1 erreicht, kann daher der Bediener durch das Anzeigebild 60 gelehrt werden, dass der Zeiger 62 gezielt für die Berührungsbedienung ist. Vor einem Beginn der Berührungsbedienung kann der Bediener den Zeiger 62 daher mit ausreichendem Spielraum identifizieren.
  • Ferner umfasst das haptische Muster 71 der ersten Ausführungsform wiederholte Vertiefungen in jeder Richtung entlang der Bedienungsoberfläche 70. Hierdurch kann das Gefühl bei der Bedienung davor bewahren, dass die Bewegungsrichtung des Fingers F beim Ziehen über die Bedienungsoberfläche 70 geändert wird. Da zudem das haptische Muster 71 aus den Vertiefungsbereichen 72 ausgebildet ist, wird die Bewegung des Fingers F beim Ziehen der Bedienungsoberfläche leicht durch das haptische Muster 71 unterbrochen. Selbst wenn das haptische Muster 71 auf der Bedienungsoberfläche 70 ausgebildet ist, kann ein Gefühl beim Bedienen, das mit dem Finger F in Berührung mit der Bedienungsoberfläche 70 durchgeführt wird, auf einem hohen Level aufrechterhalten werden.
  • Da zudem der innere Durchmesser ϕd der Öffnung 73 kleiner als die minimale Länge Lt der Berührungsoberfläche des Fingers F ausgestaltet ist, nimmt der Bediener die Form des haptischen Musters 71 leichter wahr. Der Bediener kann somit den Zeiger 62 schnell identifizieren.
  • Ferner weist der Zeiger 62 eine kleine Fläche auf, die auf dem Anzeigeschirm 52 eingenommen wird; hierdurch ist es für den Bediener schwierig, das visuelle Muster 67 zu finden, selbst wenn das visuelle Muster 67 in dem Zeiger 62 angezeigt wird. Gemäß der ersten Ausführungsform wird, nachdem das visuelle Muster 67 auf der Fläche in dem Bereitschaftsbildbereich 68 angezeigt wird, der Zeiger 62 so angezeigt, dass er sich mit dem Bereitschaftsbildbereich 68 überlagert. Eine solche Anzeigeform erlaubt es, das visuelle Muster 67 um den Zeiger 62 herum anzuordnen; der Zeiger 62, der gezielt für die Berührungsbedienung ist, ist besser lehrbar bzw. vermittelbar. Der Bediener kann somit den Zeiger 62 schneller identifizieren.
  • In der ersten Ausführungsform können die Erfassungsschaltung 31 und die Bedienungssteuerschaltung 33 als ein Erfassungsabschnitt und ein Acquisitionabschnitt mit gemeinsamer Zuordnung dienen. Die Bedienungssteuerschaltung 33 kann als ein Acquisitionabschnitt und ein Anzeigesteuerabschnitt dienen. Der Zeiger 62 kann ebenso als ein erster Bildbereich und ein Zeigerbereich bezeichnet werden. Die Karte 64 kann ebenso als ein zweiter Bildbereich bezeichnet werden. Der erste Schwellwertabstand Dth1 kann ebenso als ein Schwellwertabstand bezeichnet werden. Der innere Durchmesser ϕd der Öffnung 73 kann ebenso als eine maximale innere Dimension bezeichnet werden. Der Finger F des Bedieners kann ebenso als ein Bedienungskörper bezeichnet werden. S121 und S122 der Touch-Sensor-Eingabeverarbeitung können ebenso als ein Erfassungsschritt und ein Bezugsschritt bezeichnet werden. S123 bis 126 der Touch-Sensor-Eingabeverarbeitung und S132 bis S135 der Bedienungsebenenbestimmung können ebenso als ein Bezugsschritt bezeichnet werden. S105 der Hauptverarbeitung kann ebenso als ein Anzeigesteuerschritt bezeichnet werden. Die entfernte Bedienungsvorrichtung 100 kann ebenso einfach als Bedienungsvorrichtung bezeichnet werden.
  • (Zweite Ausführungsform)
  • Eine zweite Ausführungsform der vorliegenden Offenbarung, die in den 13 und 14 gezeigt ist, ist eine Modifikation der ersten Ausführungsform. In einer entfernten Bedienungsvorrichtung 200 der zweiten Ausführungsform unterscheiden sich ein haptisches Muster 217 und ein visuelles Muster 267 jeweils von der Form des Musters 71 und des Musters 67 (siehe A aus 7) der ersten Ausführungsform. Nachstehend wird jedes der Muster 271, 267 der zweiten Ausführungsform unter Verwendung der Beispielanzeigeuntermenübilder 264 als das Anzeigebild 60 ausführlich beschrieben.
  • Zunächst wird eine Serie von Symbolauswahlen erklärt, die durch den Bediener durchgeführt wird, um die Untermenübilder 264 und Symbole 63 aufeinanderfolgend auszuwählen.
  • Hierbei zeigt A aus 14 einen Zustand, bei dem der Finger F zu dem zweiten Bedienungsraum Sp2 bewegt wurde. Zu diesem Zeitpunkt wird der Bedienungsmodus der entfernten Bedienungsvorrichtung 200 in den In-der-Luft-Bedienungsmodus umgeschaltet. Dabei wird der Anzeigeschirm 52 in den Zustand umgeschaltet, der es ermöglicht, eine Mehrzahl von Untermenübildern 264 in der vertikalen und horizontalen Richtung zu scrollen. Die Bewegungsbedienung durch den Finger F ist der Scrollsteuerung zugeordnet, die wie in der In-der-Luft-Bedienung die Mehrzahl der Untermenübilder 264 scrollt.
  • Hierbei zeigt B aus 14 den Zustand, bei dem der Finger F an eine Bedienungsoberfläche 270 in dem ersten Bedienungsraum Sp1 bewegt wurde. Zu diesem Zeitpunkt wird der Bedienungsmodus der entfernten Bedienungsvorrichtung 200 in den Berührungsbedienungsmodus umgeschaltet. Dabei wird das Untermenübild 264, das in der Mitte des Anzeigeschirms 52 angezeigt wird, ausgedehnt und auf den gesamten Anzeigeschirm 52 angezeigt. Als Berührungsbedienung wird die Bewegung des Fingers F der Symbolsteuerung zugeordnet, die das Symbol 63 ändert, auf welchem der Fokus 66 überlagert ist.
  • Ein Kombinieren der oben genannten In-der-Luft-Bedienung und Berührungsbedienung ermöglicht dem Bediener, (i) zuerst aus den Untermenübildern 264, die ein beliebiges Symbol 63 umfassen, auszuwählen, und (ii) zweitens den Fokus 66 auf dem Symbol 63 in dem Bild 264 zu überlagern. In einem solchen Zustand kann der Bediener das beliebige Symbol 63 durch Eingabe eines Antippens auf der Bedienungsoberfläche 270 auswählen.
  • Nachfolgend werden das haptische Muster 271 und das visuelle Muster 267 der zweiten Ausführungsform ausführlich beschrieben.
  • Wie in 13 und B aus 14 gezeigt ist, weist das haptische Muster 271, das auf der Bedienungsoberfläche 270 ausgebildet ist, eine Form aus angeordneten rechten Sechsecken auf. Dadurch ist jedes der rechten Sechsecke, die sich als Mosaik auf der Bedienungsoberfläche 270 befinden, mittels Nuten 272 durch Ausstechungen an der Bedienungsoberfläche 270 ausgebildet. Die jeweiligen rechten Sechsecke sind wiederholt in der X-Achsenrichtung angeordnet, wobei angenommen wird, dass diese eine Hauptrichtung des Fingers F ist, und in zwei Richtungen, die jeweils die X-Achsenrichtung in einem Winkel von 60° schneiden. Eine Länge Lh einer Diagonallinie von einem rechten Sechseck ist kleiner als die minimale Länge Lt der vorgesehenen Berührungsoberfläche zwischen dem Finger F und der Bedienungsoberfläche 270. Der Bediener kann die Form von jedem rechten Sechseck aufgrund einer solchen Form des haptischen Musters 271 leicht wahrnehmen.
  • Im Gegensatz hierzu weist das visuelle Muster 267 eine ähnliche Form wie das haptische Muster 271 auf, und es ist dazu ausgestaltet, ähnlich wie das haptische Muster 271 rechte Sechsecke mosaikartig aufzuweisen. Bei dem In-der-Luft-Bedienungsmodus, wie in A aus 14 gezeigt ist, wird das visuelle Muster 267 als ein Hintergrund 265 des Untermenübildes 264, das sich in der Mitte des Anzeigeschirms 52 befindet, angezeigt. Wie in B aus 14 gezeigt ist, wird das visuelle Muster 267 fortlaufend angezeigt, während der Hintergrund 265 des Untermenübilds 264 auf den gesamten Anzeigeschirm 52 ausgedehnt wird, wenn ein Umschalten des Berührungsbedienungsmodus vorgenommen wird. Die Mehrzahl von Symbolen 63 wird somit auf dem Hintergrund 265 überlagert; das visuelle Muster 267 wird um jedes Symbol 63 angezeigt.
  • Die oben genannten Muster 271, 267 bieten auch eine ähnliche vorteilhafte Wirkung wie die Muster 71, 67 der ersten Ausführungsform (siehe A aus 7), und ermöglichen die Kombination aus Haptik und Ansicht zum Lehren bzw. Vermitteln des Bedieners. Der Bediener kann somit auf einfache Weise das Symbol 63 gezielt für die Bedienung in dem Berührungsbedienungsmodus aus der Mehrzahl von Bildbereichen, die auf dem Anzeigeschirm 52 angezeigt werden, identifizieren.
  • Zudem wird gemäß der zweiten Ausführungsform das visuelle Muster 267 als Hintergrund 265 der Symbole 63 angezeigt; hierdurch kann die Anzeigefläche des visuellen Musters 267 in dem In-der-Luft-Bedienungsmodus leicht ausgedehnt werden. Daher kann die Form des visuellen Musters 267 in dem In-der-Luft-Bedienungsmodus leichter wahrgenommen werden; der Bediener kann das Symbol 62 gezielt für eine Bedienung vor einem Umschalten zu dem Berührungsbedienungsmodus leicht vorab identifizieren.
  • In der zweiten Ausführungsform kann das Symbol 63 ebenso als ein erster Bildbereich oder ein ausgewählter Bildbereich bezeichnet werden. Das Untermenübild 264 kann ebenso als ein zweiter Bildbereich bezeichnet werden. Der Hintergrund 265 kann ebenso als ein Hintergrundbildbereich bezeichnet werden. Die entfernte Bedienungsvorrichtung 200 kann ebenso einfach als eine Bedienungsvorrichtung bezeichnet werden.
  • (Eine andere Ausführungsform)
  • Obwohl die Ausführungsformen der vorliegenden Offenbarung obenstehend erklärt sind, ist die vorliegende Offenbarung nicht auf diese beschränkt, sondern kann auf verschiedene Ausführungsformen und die Kombinationen derselben angewendet werden, ohne von dem Inhalt der vorliegenden Offenbarung abzuweichen.
  • Mit Bezug auf die 15 bis 17 bildet eine Modifikation 1 der oben genannten Ausführungsformen ein haptisches Muster 371, bei dem auf einer Bedienungsoberfläche 370 Rechtecke angeordnet sind; die Rechtecke weisen Längsrichtungen auf, die relativ zu der X-Achse und der Y-Achse geneigt angeordnet sind. In diesem haptischen Muster 371 sind die Abstände der Nuten 372, welche jedes Rechteck definieren, zwischen den X-Achsen- und Y-Achsenrichtungen unterschiedlich, welche als die Bewegungsrichtungen des Fingers F angenommen werden (siehe 6). Wie in der Modifikation 1 können die Vertiefungen und Vorsprünge, welche das haptische Muster bilden, eine anisotropische Form verwenden, in der Intervalle und Stufen wiederholt in deren Größe in Abhängigkeit von der Bewegungsrichtung des Fingers F variieren. Im Gegensatz hierzu können die Vertiefungen und Vorsprünge, die das haptische Muster bilden, wie in der ersten und zweiten Ausführungsform, eine isotropische Form verwenden, wenn die wiederholten Abstände und Stufen eine einheitliche Größe in den Bewegungsrichtungen des Fingers F aufweisen.
  • In der Modifikation 1 wird die Anzeigefläche, die das Symbol 63 gezielt für eine Bedienung umfasst, geändert, wenn der Bedienungsmodus zwischen dem In-der-Luft-Bedienungsmodus und dem Berührungsbedienungsmodus geändert. In einer solchen Form kann ein visuelles Muster 367, das dem haptischen Muster 371 entspricht, als ein Hintergrund 365 der Anzeigefläche angezeigt werden, die das Symbol 63 gezielt für eine Bedienung umfasst, wie in 16 gezeigt ist. Anderenfalls kann, wie in 17 gezeigt ist, das visuelle Muster 367 auf dem Symbol 63 gezielt für die Bedienung angezeigt werden. Ferner kann, solange die Identitäten der Symbole sichergestellt sind, das visuelle Muster sowohl auf den Symbolen, als auch um die Symbole angezeigt werden.
  • In der Modifikation 1 kann das Seitenverhältnis von jedem Rechteck, welches das haptische Muster 371 bildet, von dem Seitenverhältnis von jedem Rechteck, welches das visuelle Muster 367 bildet, abweichen. Solange die Formen der haptischen Muster und visuellen Muster, die durch den Bediener wahrgenommen werden, hinsichtlich des Musters und des Designs in der Wahrnehmung vereinbar sind, müssen das haptische Muster und das visuelle Muster somit nicht die exakt gleichen Formen zueinander aufweisen. Das horizontale zu dem vertikalen Verhältnis (d. h. Seitenverhältnis) und wiederholte Abstände können in geeigneter Weise geändert werden.
  • Wenn das haptische Muster und das visuelle Muster in ihrer Form ähnlich zueinander sind, kann das haptische Muster größer als das visuelle Muster ausgebildet sein, oder das visuelle Muster kann größer als das haptische Muster sein. Um eine Verwirrung mit dem Design der Symbole zu vermeiden, ist ein Design, welches das visuelle Muster bildet, wünschenswerterweise nicht mit zumindest einem Design des Symbols ähnlich.
  • Mit Bezug auf die 18 bis 20 bildet eine Modifikation 2 der oben genannten Ausführungsformen ein haptisches Muster 471, bei dem hervorstehende Bereiche 472 angeordnet sind, die sich auf einer Bedienungsoberfläche 470 schräg zu der X-Achse und Y-Achse erstrecken. In diesem haptischen Muster 471 sind die Höhen der hervorstehenden Bereiche 472 wünschenswerterweise gleichbleibend, um durch den Finger F wahrgenommen zu werden, während diese davon abgehalten werden, die Bewegung des Fingers F zu hemmen. Ein Abhalten der Höhen der hervorstehenden Bereiche 472 hilft dabei zu verhindern, dass eine Luftschicht zwischen der Bedienungsoberfläche 470 und dem Finger F erzeugt wird; dies kann ebenso eine Verringerung der Wahrnehmbarkeit des Touch-Sensors 31a aufgrund der Luftschicht abhalten.
  • In dem In-der-Luft-Bedienungsmodus in der Modifikation 2 sind Register bzw. Tabulatoren 466 auswählbar, wie in 20 gezeigt ist. Im Gegensatz hierzu sind in dem Berührungsbedienungsmodus in der Modifikation 2 die Symbole 63, die in den ausgewählten Tabulatoren 466 enthalten sind, auswählbar. In einer solchen Form wird ein visuelles Muster 467, das dem haptischen Muster 471 entspricht (siehe 18), als ein Design angezeigt, das sich horizontal in einer Gürtelform auf der Anzeigefläche erstreckt, auf der die Symbole 63 angeordnet sind.
  • Eine andere Form der Modifikation 2, die beispielsweise in 21 gezeigt ist, bildet ein haptisches Muster 471 einer Bedienungsoberfläche 570 durch abwechselndes Ausbilden von hervorstehenden Bereichen 472 und Nuten 572 in der ausgerichteten Erstreckungsrichtung.
  • In einer Modifikation der oben genannten Ausführungsform wird das visuelle Muster auf dem Anzeigeschirm angezeigt, wenn sich der Finger F von dem nicht-angrenzenden Raum zu dem zweiten Bedienungsraum Sp2 bewegt hat. Somit muss das visuelle Muster in dem nicht-angrenzenden Modus nicht angezeigt werden. In einer anderen Modifikation wird das visuelle Muster nach einem Umschalten des Berührungsbedienungsmodus von dem Anzeigeschirm entfernt, um die Symbole sichtbar zu machen. In einer anderen Modifikation kann der Bildbereich gezielt für eine Bedienung leichter gelehrt bzw. vermittelt werden, indem die Anzeige des visuellen Musters mit der Steuerung kombiniert wird, welche die Helligkeit und Leuchtkraft der Symbole und des Zeigers erhöht.
  • In einer Modifikation der oben genannten Ausführungsformen kann ein druckempfindlicher Touch-Sensor als der Erfassungsabschnitt oder Vorrichtung verwendet werden; der druckempfindliche Touch-Sensor erfasst eine Bedienung durch den Finger F, indem ein Druck erfasst wird, der durch den Finger F aufgebracht wird. Im Gegensatz hierzu wird ein Infrarotsensor als der Acquisitionabschnitt oder Vorrichtung verwendet; der Infrarotsensor misst den Bedienungskörperabstand d durch das Infrarotlicht. In einer anderen Ausführungsform werden eine Kamera und eine Bildanalyseschaltung als der Acquisitionabschnitt oder Vorrichtung verwendet; die Kamera nimmt eine Umgebung von jeder Bedienungsoberfläche auf, während die Bildanalyseschaltung Bilder analysiert, die durch die Kamera aufgenommen werden, um den Bedienungskörperabstand d einzubeziehen.
  • In einer Modifikation der oben genannten Ausführungsform bildet eine Anzeige unter Verwendung einer Plasmaanzeigetafel oder einer Anzeige unter Verwendung einer organischen elektrolumineszierenden Form den Anzeigeschirm. In einer anderen Modifikation projiziert eine Projektionsvorrichtung, wie ein Projektor, Bilder auf einen Anzeigeschirm, der eine Windschutzscheibe oder einen Kombinator, der auf der oberen Oberfläche der Instrumententafel bereitgestellt ist, umfasst. Eine Anzeigevorrichtung mit einer solchen Projektionsvorrichtung kann in einer Navigationsvorrichtung als eine Komponente, die den Anzeigeschirm bildet, umfasst sein.
  • Eine Modifikation der oben genannten Ausführungsform, die in 22 gezeigt ist, sind für den ersten Schwellwertabstand Dth1 und den zweiten Schwellwertabstand Dth2 Hysteresen bzw. Kennlinien bereitgestellt. Basierend auf der Tatsache, dass sich der Finger F in dem ersten Bedienungsraum Sp1 befunden hat, wird insbesondere der erste Schwellwertabstand von einer oberen Grenze des ersten Schwellwertabstands Dth1U, der dem Dth1 der oben genannten Ausführungsform entspricht, auf einen unteren Grenzwert des ersten Schwellwertabstands Dth1D ausgedehnt, der länger als der obere Grenzwert der ersten Schwellwertabstands ist. Eine solche Steuerung wird möglich, indem der erste Empfindlichkeitsschwellwert von einer oberen Grenze eines ersten Empfindlichkeitsschwellwerts Hth1U, der dem Hth1 der oben genannten Ausführungsform entspricht, auf eine untere Grenze des ersten Empfindlichkeitsschwellwerts Hth1D geändert wird (z. B. 180), die niedriger als die obere Grenze des ersten Empfindlichkeitsschwellwerts ist. In ähnlicher Weise wird basierend auf der Tatsache, dass der Finger F sich in dem zweiten Bedienungsraum Sp2 befunden hat, der zweite Schwellwertabstand von einer oberen Grenze des zweiten Schwellwertabstands Dth2U, der dem Dth2 der oben genannten Ausführungsform entspricht, auf eine untere Grenze des zweiten Schwellwertabstands Dth2D ausgedehnt, die langer als die obere Grenze des zweiten Schwellwertabstands ist. Eine Steuerung wird möglich, indem der zweite Empfindlichkeitsschwellwert von einer oberen Grenze des zweiten Empfindlichkeitsschwellwerts Hth2U, der dem Hth2 der oben genannten Ausführungsform entspricht, auf eine untere Grenze des zweiten Empfindlichkeitsschwellwerts Hth2D geändert wird. (beispielsweise 80), die niedriger als die obere Grenze des zweiten Empfindlichkeitsschwellwerts ist. Dies vereinfacht die Bedienung durch den Finger F in jedem Raum Sp1, Sp2.
  • In den oben genannten Ausführungsformen kann die Mehrzahl der Funktionen, die durch die Bedienungssteuerschaltung 33 bereitgestellt sind, um Programme auszuführen, durch eine Hardware bereitgestellt werden, die sich von der oben genannten Steuervorrichtung oder einer Software, oder der Kombination der Hardware und Software unterscheidet. Beispielsweise können die Funktionen der zugeordneten Abschnitte und eines Anzeigesteuerabschnitts durch eine analoge Schaltung bereitgestellt werden, die vorbestimmte Funktionen ohne Programme erzielt.
  • Die oben genannten Ausführungsformen werden unter Verwendung der Beispiele erklärt, bei denen die vorliegende Offenbarung auf die entfernte Bedienungsvorrichtung angewendet werden, die in dem Anzeigensystem verwendet wird, das in dem Fahrzeug angebracht ist. Allerdings ist die vorliegende Offenbarung ebenso an der sogenannten Touchpanel-Bedienungsvorrichtung, die in einem Anzeigeschirm integriert ist, anwendbar. Eine Bedienungsvorrichtung, welche die vorliegende Offenbarung anwendet, ist im Allgemeinen in Anzeigesystemen einsetzbar, die in verschiedenen Transportvorrichtungen und verschiedenen Informationsterminals verwendet werden.
  • Obwohl die vorliegende Offenbarung mit Bezug auf die Ausführungsformen derselben beschrieben worden ist, ist es verständlich, dass die Offenbarung nicht auf die Ausführungsformen und Konstruktionen beschränkt ist. Die vorliegende Offenbarung ist dazu gedacht, verschiedene Modifikationen und gleichwertige Anordnungen abzudecken. Trotz der verschiedenen Kombinationen und Aufbauten, liegen andere Kombinationen und Aufbauten, die mehr, weniger oder nur ein einzelnes Element umfassen, ebenso innerhalb des Kerns und des Umfangs der vorliegenden Offenbarung.

Claims (9)

  1. Bedienungsvorrichtung zum Bedienen eines Bildbereichs, der übereinstimmend mit einer Eingabe durch einen Bedienungskörper (F) an einer Bedienungsoberfläche (70, 270, 370, 470, 570) auf einem Anzeigeschirm (52) angezeigt wird, wobei die Bedienungsvorrichtung aufweist: einen Erfassungsabschnitt (31, 33, S121, S122), der eine Bewegung des Bedienungskörpers erfasst; einen Acquisitionabschnitt (31, 33, S121, S122), der einen Bedienungskörperabstand (d), der sich von der Bedienungsoberfläche zu dem Bedienungskörper erstreckt, bezieht; einen Zuordnungsabschnitt (33, S132 bis S135), der zwischen (i) einer ersten Bewegung des Bedienungskörpers, die in einem ersten Bedienungsraum (Sp1) erfasst wird, falls der Bedienungskörperabstand kleiner als ein vorbestimmter Schwellwertabstand (Dth1) ist, und (ii) einer zweiten Bewegung des Bedienungskörpers, die in einem zweiten Bedienungsraum (Sp2) erfasst wird, falls der Bedienungskörperabstand größer als der Schwellwertabstand (S123 bis S126) ist, unterscheidet, und die erste Bewegung in dem ersten Bedienungsraum und die zweite Bewegung in dem zweiten Bedienungsraum jeweils einem ersten Bildbereich (62, 63) und einem zweiten Bildbereich (64, 264), die auf dem Anzeigeschirm angezeigt werden, zuordnet, wobei sich der zweite Bildbereich von dem ersten Bildbereich unterscheidet; und einen Anzeigesteuerabschnitt (33, S105), der in Reaktion auf die Bewegung des Bedienungskörpers eine Anzeigeform entweder von dem ersten Bildbereich, welcher der Bewegung zugeordnet ist, oder von dem zweiten Bildbereich, welcher der Bewegung zugeordnet ist, ändert, wobei: die Bedienungsoberfläche derart bereitgestellt ist, dass sie mit wenigstens einem von Vertiefungen und Vorsprüngen ein haptisches Muster (71, 271, 371, 471) ausbildet; und der Anzeigesteuerabschnitt zumindest auf oder um den ersten Bildbereich ein visuelles Muster (67, 267, 367, 467), das einer Form des haptischen Musters entspricht, auf dem Anzeigeschirm anzeigt.
  2. Bedienungsvorrichtung nach Anspruch 1, wobei der Anzeigesteuerabschnitt das visuelle Muster auf dem Anzeigeschirm anzeigt, wenn der Bedienungskörper von dem ersten Bedienungsraum getrennt ist.
  3. Bedienungsvorrichtung nach Anspruch 1 oder 2, wobei das haptische Muster in einer Mehrzahl von Richtungen entlang der Bedienungsoberfläche wiederholt im Wesentlichen einheitliche Formen bereitstellt, die entweder vertieft sind oder hervorstehen.
  4. Bedienungsvorrichtung nach einem der Ansprüche 1 bis 3, wobei: das haptische Muster aus vertieften Bereichen (72) ausgebildet ist, die auf der Bedienungsoberfläche bereitgestellt sind.
  5. Bedienungsvorrichtung nach Anspruch 4, wobei die vertieften Bereiche eine Öffnung (73) mit einer maximalen inneren Dimension (ϕd) umfassen, die kleiner als eine minimale Länge (Lt) einer Form von einer vorgesehenen Berührungsoberfläche zwischen der Bedienungsoberfläche und dem Bedienungskörper ist.
  6. Bedienungsvorrichtung nach einem der Ansprüche 1 bis 5, wobei der Anzeigesteuerabschnitt anzeigt, einen Zeigerbereich (62) als der erste Bildbereich, wobei der Zeigerbereich einen Ort des Anzeigeschirms zeigt, der einem Ort des Bedienungskörpers auf der Bedienungsoberfläche entspricht, und einen Bereitschaftsbildbereich (68), der aus einem visuellen Muster gebildet wird, so dass eine Mitte des Anzeigeschirms vermieden wird, wobei der Bereitschaftsbildbereich eine Fläche aufweist, die größer als der Zeigerbereich ist, und den Zeigerbereich und den Bereitschaftsbildbereich überlagert, wenn der Bedienungskörper von dem ersten Bedienungsraum getrennt ist.
  7. Bedienungsvorrichtung nach einem der Ansprüche 1 bis 6, wobei der Anzeigesteuerabschnitt auf dem Anzeigeschirm anzeigt, einen ausgewählten Bildbereich (63), der durch Bedienung in dem ersten Bedienungsraum ausgewählt wird, und einen Hintergrundbildbereich (265), der aus dem visuellen Muster gebildet wird, wobei der Hintergrundbildbereich einen Hintergrund des ausgewählten Bildbereichs bereitstellt.
  8. Bedienungsvorrichtung nach einem der Ansprüche 1 bis 7, wobei das visuelle Muster eine Form aufweist, die einer Form des haptischen Musters ähnlich ist.
  9. Bedienungslehrverfahren zum Lehren einer Bedienung an einer Bedienungsvorrichtung, die einen Bildbereich bedient, der übereinstimmend mit einer Eingabe durch einen Bedienungskörper (F) an einer Bedienungsoberfläche (70, 270, 370, 470, 570) auf einem Anzeigeschirm (52) angezeigt wird, wobei das Bedienungslehrverfahren aufweist: ein Erfassen (S121, S122), das eine Bewegung des Bedienungskörpers erfasst; ein Beziehen (S121, S122), bei dem ein Bedienungskörperabstand (d) bezogen wird, der sich von der Bedienungsoberfläche zu dem Bedienungskörper erstreckt; ein Zuordnen, das zwischen (i) einer ersten Bewegung des Bewegungskörpers, die in einem ersten Bewegungsraum (Sp1) erfasst wird, falls der Bewegungskörperabstand kleiner als ein vorbestimmter Schwellwertabstand (Dth1) ist, und (ii) einer zweiten Bewegung des Bewegungskörpers, die in einem zweiten Bedienungsraum (Sp2) erfasst wird, falls der Bewegungskörperabstand größer als der Schwellwertabstand (S123 bis S126) ist, unterscheidet, und die erste Bewegung im ersten Bedienungsraum und die zweite Bewegung im zweiten Bedienungsraum jeweils in Beziehung zu einem ersten Bildbereich (62, 63) und einem zweiten Bildbereich (64, 264) setzt, die auf dem Anzeigeschirm (S132 bis S135) angezeigt werden, wobei sich der zweite Bildbereich von dem ersten Bildbereich unterscheidet; eine Anzeigesteuerung (33, S105), die in Reaktion auf die Bewegung des Bedienungskörpers eine Anzeigeform entweder von dem ersten Bildbereich oder dem zweiten Bildbereich ändert, wobei in der Anzeigesteuerung zumindest auf oder um den ersten Bildbereich ein visuelles Muster (67, 267, 367, 467) auf dem Anzeigeschirm angezeigt wird, wobei das visuelle Muster einer Form eines haptischen Musters (71, 271, 371, 471) entspricht, das mit wenigstens einem von Vertiefungen und Vorsprüngen an der Bedienungsoberfläche ausgebildet ist.
DE112013005777.8T 2012-12-03 2013-11-27 Bedienungsvorrichtung und Bedienungslehrverfahren für die Bedienungsvorrichtung Withdrawn DE112013005777T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012264481A JP5772804B2 (ja) 2012-12-03 2012-12-03 操作デバイス、及び操作デバイスの操作教示方法
JP2012-264481 2012-12-03
PCT/JP2013/006957 WO2014087604A1 (ja) 2012-12-03 2013-11-27 操作装置、及び操作装置の操作教示方法

Publications (1)

Publication Number Publication Date
DE112013005777T5 true DE112013005777T5 (de) 2015-08-13

Family

ID=50883046

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112013005777.8T Withdrawn DE112013005777T5 (de) 2012-12-03 2013-11-27 Bedienungsvorrichtung und Bedienungslehrverfahren für die Bedienungsvorrichtung

Country Status (5)

Country Link
US (1) US9753563B2 (de)
JP (1) JP5772804B2 (de)
CN (1) CN104823149B (de)
DE (1) DE112013005777T5 (de)
WO (1) WO2014087604A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5790578B2 (ja) * 2012-04-10 2015-10-07 株式会社デンソー 表示システム、表示装置、及び操作装置
KR102568710B1 (ko) * 2016-03-30 2023-08-21 삼성전자주식회사 전자장치 및 그 동작 방법
JP6991684B2 (ja) * 2018-09-12 2022-01-12 アルパイン株式会社 接触操作装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11338629A (ja) 1998-05-27 1999-12-10 Nec Corp ポインティングデバイス
JP3792920B2 (ja) * 1998-12-25 2006-07-05 株式会社東海理化電機製作所 タッチ操作入力装置
EP1930800A1 (de) * 2006-12-05 2008-06-11 Electronics and Telecommunications Research Institute Taktile und visuelle Anzeigevorrichtung
US8816961B2 (en) * 2008-04-01 2014-08-26 Koninklijke Philips N.V. Pointing device for use on an interactive surface
JP5110438B2 (ja) 2008-10-23 2012-12-26 トヨタ自動車株式会社 入力装置
JP5448427B2 (ja) 2008-11-27 2014-03-19 三菱電機株式会社 入力装置
JP5164930B2 (ja) * 2009-06-05 2013-03-21 株式会社ジャパンディスプレイウェスト タッチパネル、表示パネル、および表示装置
KR101092722B1 (ko) * 2009-12-02 2011-12-09 현대자동차주식회사 차량의 멀티미디어 시스템 조작용 사용자 인터페이스 장치
JP2012190185A (ja) 2011-03-09 2012-10-04 Nippon Seiki Co Ltd 制御装置
JP5812054B2 (ja) 2012-08-23 2015-11-11 株式会社デンソー 操作デバイス

Also Published As

Publication number Publication date
JP2014109941A (ja) 2014-06-12
JP5772804B2 (ja) 2015-09-02
CN104823149B (zh) 2017-11-24
US9753563B2 (en) 2017-09-05
CN104823149A (zh) 2015-08-05
US20150346851A1 (en) 2015-12-03
WO2014087604A1 (ja) 2014-06-12

Similar Documents

Publication Publication Date Title
DE102012112456B4 (de) Display-System, Display-Vorrichtung, Bedienvorrichtung und Funktionsauswahlvorrichtung
WO2014075962A1 (de) Informationswiedergabesystem und verfahren zur informationswiedergabe
EP3507681B1 (de) Verfahren zur interaktion mit bildinhalten, die auf einer anzeigevorrichtung in einem fahrzeug dargestellt werden
WO2015110227A1 (de) Anwenderschnittstelle und verfahren zur anpassung einer ansicht auf einer anzeigeeinheit
DE102017218120A1 (de) Verfahren zur Bereitstellung einer haptischen Rückmeldung an einen Bediener einer berührungssensitiven Anzeigeeinrichtung
DE112013001994T5 (de) Anzeigesystem, Anzeigevorrichtung und Bedienvorrichtung
DE102012206247A1 (de) Verfahren und Vorrichtung zur Anzeige einer Hand eines Bedieners eines Bedienelements eines Fahrzeugs
WO2010026044A1 (de) Verfahren und vorrichtung zum anzeigen von information, insbesondere in einem fahrzeug
DE112013004843T5 (de) Manipulationsvorrichtung
WO2010125119A1 (de) Verfahren und vorrichtung zum anzeigen von in listen geordneter information
DE112013005777T5 (de) Bedienungsvorrichtung und Bedienungslehrverfahren für die Bedienungsvorrichtung
WO2013053529A1 (de) Bediensystem und verfahren zur darstellung einer bedienfläche
WO2017054894A1 (de) Interaktives bediensystem und verfahren zum durchführen einer bedienhandlung bei einem interaktiven bediensystem
DE102016218003B4 (de) Verfahren und Vorrichtung zur Optimierung der Darstellung auf mehreren Displays in einem Fahrzeug
DE112015001323T5 (de) Bedieneingabevorrichtung und Bedieneingabeverfahren
DE102009039114B4 (de) Bedienvorrichtung für ein Fahrzeug
DE102009010830A1 (de) Verfahren zum Anzeigen einer hierarchischen Struktur in einem Fahrzeug
DE102021120856B3 (de) Verfahren zum Betreiben einer Anzeigevorrichtung eines Kraftfahrzeugs, Kraftfahrzeug, und Steuereinrichtung
EP3426516B1 (de) Bedienvorrichtung und verfahren zum erfassen einer benutzerauswahl zumindest einer bedienfunktion der bedienvorrichtung
DE102015201722A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
DE102013223518A1 (de) Anzeigevorrichtung und Verfahren zur Steuerung einer Anzeigevorrichtung
WO2014040807A1 (de) Berührungseingaben entlang einer schwelle auf einer berührungsempfindlichen oberfläche
DE102012218155A1 (de) Erleichtern der Eingabe auf einer berührungsempfindlichen Anzeige in einem Fahrzeug
DE102011121585B4 (de) Kraftfahrzeug
DE102014118796A1 (de) System und Verfahren zur Ebenenfeldaktivierung für ein gestenbasiertes Steuersystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee