DE102012102939A1 - Betätigungseingabevorrichtung und Verfahren zum Steuern derselben - Google Patents

Betätigungseingabevorrichtung und Verfahren zum Steuern derselben Download PDF

Info

Publication number
DE102012102939A1
DE102012102939A1 DE201210102939 DE102012102939A DE102012102939A1 DE 102012102939 A1 DE102012102939 A1 DE 102012102939A1 DE 201210102939 DE201210102939 DE 201210102939 DE 102012102939 A DE102012102939 A DE 102012102939A DE 102012102939 A1 DE102012102939 A1 DE 102012102939A1
Authority
DE
Germany
Prior art keywords
unit
touch
control
movement
touch operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE201210102939
Other languages
English (en)
Inventor
Kunihiro Nakagawa
Koji Tamai
Norio Sanma
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of DE102012102939A1 publication Critical patent/DE102012102939A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Eine Berührungsbetätigungseinheit (14) weist eine behandelte Oberfläche (141) auf, die eine Berührungsbetätigung annimmt. Eine Betätigungserfassungseinheit (12) erfasst eine Berührungsbetätigung auf der behandelten Oberfläche (141). Eine Bewegungseinheit (13) bewegt die Berührungsbetätigungseinheit (14). Eine Bewegungssteuereinheit (11) steuert die Bewegungseinheit (13) an, um eine Bewegung der Berührungsbetätigungseinheit (14) zu steuern, wenn die Betätigungserfassungseinheit (12) eine Berührungsbetätigung erfasst, um einen vorbestimmten erregbaren bzw. stimulierbaren Zustand bzw. Stimulationsbedingung zu erfüllen, der eine Stimulierung eines hautsensorischen Rezeptors ermöglicht. Die Stimulationsbedingung bzw. der stimulierbare Zustand ist ein Zustand einer Bewegungsgröße der Berührungsbetätigungseinheit (14) und einer Bewegungsgeschwindigkeit der Berührungsbetätigungseinheit (14) oder ein Zustand der Bewegungsgröße der Berührungsbetätigungseinheit (14) und einer Beschleunigung der Berührungsbetätigungseinheit (14).

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft eine Betätigungseingabevorrichtung, die konfiguriert ist, eine Berührungsbetätigung anzunehmen. Die vorliegende Offenbarung betrifft ein Verfahren zum Steuern der Betätigungseingabevorrichtung.
  • HINTERGRUND DER ERFINDUNG
  • In den vergangenen Jahren wurden vermehrt Touch-Panels bzw. Berührungspanele zur Verwendung von zum Beispiel elektronischen Einrichtungen in Betätigungseingabevorrichtungen eingebaut. In der Automobilindustrie ist es absehbar, dass mechanische Schaltvorrichtungen, die zum Betätigen von Klimaanlagen und Navigationsvorrichtungen vorgesehen sind, in Zukunft von Berührungssensoren ersetzt werden. Für gewöhnlich ist es schwierig, ein Betätigungsgefühl, wie beispielsweise ein Klickgefühl, auf existierenden Berührungspanelen und Berührungssensoren in Erwiderung auf eine Berührungsbetätigung zu erzeugen bzw. zu vermitteln. Somit wird bei der Betätigung solcher Vorrichtungen ein höherer Komfort und eine größere Genauigkeit gefordert. Genauer gesagt ist es bei einer Betätigungseingabevorrichtung einschließlich beispielsweise eines Berührungspanels, das konfiguriert ist, eine Berührungsbetätigung anzunehmen, erwünscht, in Erwiderung auf eine Berührungsbetätigung ein taktiles Gefühl bzw. Tastgefühl (taktiles Feedback) zu vermitteln, um die Betriebsweise zu verbessern.
  • Die US 2010/0156814 A1 ( JP 2010-152889 A ) offenbart zum Beispiel eine portable elektronische Vorrichtung einschließlich eines Berührungserfassungsdisplays. Die portable elektronische Vorrichtung gemäß der US 2010/0156814 A1 bewegt das Berührungserfassungsdisplay in Reaktion auf eine Berührungsbetätigung, und gibt dadurch taktiles Feedback. Genauer gesagt ist das Berührungserfassungsdisplay relativ zum Gehäuse beweglich und die Hinterseite des Berührungserfassungsdisplays ist mit einem piezoelektrischen Aktor ausgestattet. Ferner steuert der piezoelektrische Aktor die Bewegung des Berührungserfassungsdisplays in vertikaler Richtung in Reaktion auf die Berührungsbetätigung gemäß der äußeren Kraft, die auf das Berührungserfassungsdisplay aufgebracht wird, um dadurch das Niederdrücken und Lösen einer Schaltvorrichtung zu simulieren.
  • Zum Beispiel offenbart die JP 2003-58321 A eine Berührungspanelvorrichtung, die konfiguriert ist, deren Berührungspanel in zweidimensionaler Richtung entlang der Bildschirmoberfläche durch Vibrationen zu oszillieren, wenn eine Berührungsbetätigung empfangen wird, wodurch dem Bediener mit Tastsinn über den Berührungspanelbildschirm verschiedene Informationen vermittelt werden. Genauer gesagt enthält die Berührungspanelvorrichtung bzw. Touch-Panel-Vorrichtung gemäß der JP 2003-58321 A eine Horizontalrichtungsbewegungseinheit zum Bewegen des Berührungspanels in Horizontalrichtung des Bildschirms und eine Vertikalrichtungsbewegungseinheit zum Bewegen des Berührungspanels in Vertikalrichtung des Bildschirms. Die Berührungspanelvorrichtung gemäß der JP 2003-58321 A steuert den Zeitpunkt bzw. das Timing, wenn die Horizontalrichtungsbewegungseinheit und die Vertikalrichtungsbewegungseinheit aktiviert werden, und die Bewegungsgeschwindigkeit und die Bewegung (Bewegungsgröße) der Horizontalrichtungsbewegungseinheit und der Vertikalrichtungsbewegungseinheit, wodurch verschiedene Vibrationsmuster erzeugt werden.
  • Die JP 2004-58695 A offenbart eine Vibrationsvorrichtung, die konfiguriert ist, eine Vibration zu verursachen, wenn eine Berührungsbetätigung empfangen wird, und zwar gemäß eines optimalen Vibrationsmusters, das dem Nutzer durch eine entsprechende Beschleunigung und Frequenz der Vibration angenehm erscheint.
  • In Anbetracht der Anforderungen an zukünftige berührungsempfindliche Betätigungseingabevorrichtungen ist es denkbar, eine taktile Wahrnehmung bzw. ein Tastgefühl noch besser zu simulieren, wenn eine mechanische Schaltvorrichtung betätigt wird. Genauer gesagt ist es denkbar, ein Tastgefühl entsprechend einer Härte einer Schaltvorrichtung zu simulieren, wie beispielsweise einer Schaltvorrichtung mit einem harten Tastgefühl und einer Schaltvorrichtung mit einem weichen Tastgefühl. Jedes der vorstehend beschriebenen Dokumente US 2010/0156814 A1 , JP 2003-58321 A und JP 2004-58695 A ist konfiguriert, in Erwiderung auf eine Berührungsbetätigung ein Tastgefühl zu vermitteln. Dennoch ist gemäß keinem dieser Dokumente eine Konfiguration vorgesehen, bei welcher ein Tastgefühl entsprechend der Härte einer Schaltvorrichtung übertragen wird. Daher kann gemäß der herkömmlichen Konfiguration auch ein unerwartetes Tastgefühl, wie beispielsweise ein hartes Tastgefühl, übertragen werden, obwohl der Benutzer ein weiches Tastgefühl erwartet.
  • KURZFASSUNG DER ERFINDUNG
  • Es ist die Aufgabe der vorliegenden Offenbarung bzw. Erfindung, eine Betätigungseingabevorrichtung zu schaffen, die konfiguriert ist, ein Tastgefühl (Betätigungsgefühl) entsprechend einer Härte und einer Weiche vorzusehen, wenn eine Berührungsbetätigung angenommen wird. Es ist eine weitere Aufgabe der vorliegenden Erfindung ein Verfahren zum Steuern der Betätigungseingabevorrichtung zu schaffen.
  • Die Erfinder haben herausgefunden, dass der hautsensorische Rezeptor, wie beispielsweise das Meissner-Körperchen und das Pacinian-Körperchen, in einen Zustand stimuliert werden können, in dem die Haut, wie zum Beispiel die am Finger eines Nutzers, in Kontakt mit einem Objekt ist, und wenn der Betrag bzw. die Größe des Gleitens der Haut (Bewegung der Haut in horizontaler Richtung auf dem Objekt) und die Bewegungsgeschwindigkeit oder die Beschleunigung, welche die momentane Veränderung der Bewegungsgeschwindigkeit ist, eine vorbestimmte Bedingung erfüllt bzw. einen vorbestimmten Zustand erreicht. Ferner haben die Erfinder herausgefunden, dass die Veränderung des Bewegungswerts (Bewegungsgröße) der Haut und die Veränderung des Werts der Bewegungsgeschwindigkeit oder der Beschleunigung das Vermitteln eines Tastgefühls entsprechend unterschiedlicher Härte ermöglicht.
  • Unter Berücksichtigung der Ergebnisse der Erfinder weist eine Betätigungseingabevorrichtung gemäß eines Aspekts der vorliegenden Offenbarung eine Berührungsbetätigungseinheit mit einer behandelten Oberfläche auf, die konfiguriert ist, eine Berührungsbetätigung anzunehmen. Die Betätigungseingabevorrichtung weist ferner eine Betätigungserfassungseinheit auf, die konfiguriert ist, eine Berührungsbetätigung auf der behandelten Oberfläche zu erfassen. Die Betätigungseingabevorrichtung weist ferner eine Bewegungseinheit auf, die konfiguriert ist, die Berührungsbetätigungseinheit zu bewegen. Die Betätigungseingabevorrichtung weist ferner eine Bewegungssteuereinheit auf, die konfiguriert ist, die Bewegungseinheit anzusteuern, um eine Bewegung der Berührungsbetätigungseinheit zu steuern, wenn die Betätigungserfassungseinheit eine Berührungsbetätigung erfasst, um eine vorbestimmte stimulierbare Bedingung bzw. Stimulationsbedingung zu erfüllen bzw. einen entsprechenden stimulierbaren Zustand zu erreichen, der die Stimulation eines hautsensorischen Rezeptors ermöglicht, wobei der stimulierbare Zustand bzw. die stimulierbare Bedingung ein Zustand einer Bewegungsgröße der Berührungsbetätigungseinheit und einer Bewegungsgeschwindigkeit der Bewegungsbetätigungseinheit, oder ein Zustand der Bewegungsgröße der Berührungsbetätigungseinheit und einer Beschleunigung der Berührungsbetätigungseinheit ist.
  • Gemäß eines weiteren Aspekts der vorliegenden Offenbarung weist ein Verfahren zum Steuern einer Betätigungseingabevorrichtung das Erfassen einer Berührungsbetätigung auf, die auf einer behandelten Oberfläche der Betätigungseingabevorrichtung implementiert ist bzw. durchgeführt wird. Das Verfahren weist ferner das Ansteuern, gemäß der Erfassung einer Berührungsbetätigung, einer Bewegungseinheit der Betätigungseingabevorrichtung auf, um die Berührungsbetätigungseinheit zu bewegen und eine Bewegung der Berührungsbetätigungseinheit zu steuern, um eine vorbestimmte Stimulationsbedingung zu erfüllen bzw. einen vorbestimmten stimulierbaren Zustand zu erreichen, um eine Stimulation eines hautsensorischen Rezeptors zu ermöglichen, wobei die Bedingung bzw. der stimulierbare Zustand eine Bedingung für eine bzw. ein Zustand einer Bewegungsgröße der Berührungsbetätigungseinheit und für eine bzw. einer Bewegungsgeschwindigkeit der Berührungsbetätigungseinheit, oder eine Bedingung für eine bzw. ein Zustand der Bewegungsgröße der Berührungsbetätigungseinheit und einer Beschleunigung der Berührungsbetätigungseinheit ist.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die vorstehenden und andere Aufgaben, Eigenschaften und Vorteile der vorliegenden Erfindung werden anhand der nachfolgenden detaillierten Beschreibung bezüglich der beigefügten Zeichnungen deutlicher ersichtlich. In den Zeichnungen zeigen:
  • 1 eine Ansicht, die eine Fahrzeugkabine darstellt;
  • 2 ein Blockdiagramm, das eine elektronische Konfiguration einer Eingabebetätigungsvorrichtung darstellt;
  • 3A und 3B Ansichten, die die Konfiguration der Eingabebetätigungsvorrichtung darstellen;
  • 4 eine Ansicht, die ein Beispiel der Eingabebetätigungsvorrichtung darstellt, die anstelle eines Aktors mit einer Feder vorgesehen ist;
  • 5 eine Ansicht, die eine Veränderung der taktilen Intensität bezüglich einer Bewegung (Bewegungsgröße) und einer Bewegungsgeschwindigkeit eines vorderen Panels der Eingabebetätigungsvorrichtung darstellt;
  • 6 eine Ansicht, die ein Kennfeld bezüglich eines hautsensorischen Rezeptors darstellt;
  • 7 eine Ansicht, die eine Korrespondenztabelle darstellt, die in einer Bewegungsparameterspeichereinheit der Eingabebetätigungsvorrichtung gespeichert ist;
  • 8 ein Flussdiagramm, das einen Prozessablauf darstellt, der bei einer Steuereinheit gemäß der ersten Ausführungsform ausgeführt wird;
  • 9 eine Ansicht, die bezüglich der Veränderung der Zeit eine Bewegungsveränderung des Frontpanels bei einer Tastsinnsteuerung darstellt;
  • 10 eine Ansicht, die eine Tastsinnsteuerung gemäß einer Modifikation darstellt;
  • 11 ein Flussdiagramm, das einen Prozessablauf darstellt, der bei einer Steuereinheit gemäß der zweiten Ausführungsform ausgeführt wird;
  • 12A, 12B und 12C erläuternde Ansichten, die einen Eingabebildschirm der Betätigungseingabevorrichtung darstellen, und das Tastgefühl bei einem Tracing-Betrieb bzw. Verfolgungsbetrieb erläutern;
  • 13A, 13B und 13C Ansichten, die eine Veränderung einer Kontaktfläche eines Fingers beim Niederdrückprozess einer Schaltvorrichtung darstellen;
  • 14 eine Ansicht, die die Taststeuerung darstellt, die im Niederdrückprozessablauf der Schaltvorrichtung implementiert ist;
  • 15A, 15B und 15C Ansichten, die eine Veränderung der Kontaktfläche des Fingers bei einem Pushback-Prozessablauf der Schaltvorrichtung darstellen; und
  • 16 eine Ansicht, die eine Taststeuerung darstellt, die im Pushback-Prozessablauf der Schaltvorrichtung implementiert ist.
  • DETAILLIERTE BESCHREIBUNG
  • (Erste Ausführungsform)
  • Nachfolgend wird die erste Ausführungsform einer Betätigungseingabevorrichtung mit Bezug auf die Zeichnungen beschrieben. Gemäß der ersten Ausführungsform ist die Betätigungseingabevorrichtung zum Vorsehen einer Anweisung zum Betätigen bzw. Betreiben einer Fahrzeugvorrichtung, die in einem Fahrzeug vorgesehen ist, geschaffen. 1 stellt Fahrzeuginterieur 700 dar, das mit der Betätigungseingabevorrichtung gemäß der vorliegenden Ausführungsform ausgestattet ist. Wie in 1 dargestellt, ist eine Mittelkonsole 720 zwischen einem Fahrersitz 701 und einem Beifahrersitz 702 vorgesehen. Ein Mittelkonsolenteil 710 ist auf der Vorderseite der Mittelkonsole 720 vorgesehen und einem Vordersitzbereich entgegengesetzt. Der Mittelkonsolenteil 710 ist mit einer Schaltvorrichtung (nicht dargestellt) zum Vorsehen einer Anweisung zum Betätigen verschiedener Fahrzeugvorrichtungen ausgestattet. Genauer gesagt ist der Mittelkonsolenteil 710 mit Konfigurationsschaltvorrichtungen für eine Klimaanlage, welche ein Beispiel einer Fahrzeugvorrichtung ist, wie zum Beispiel einem Temperaturkonfigurationsschalter, einem Gebläsevolumenkonfigurationsschalter und einem Gebläserichtungskonfigurationsschalter ausgestattet. Diese Schaltvorrichtungen können eine Druckschaltervorrichtung enthalten, welcher betätigt wird, wenn sie niedergedrückt wird, und/oder eine Drehschaltvorrichtung, welche betätigt wird bzw. eine Betätigung ausführt, wenn sie gedreht wird.
  • Der obere Abschnitt des Mittelkonsolenteils 710 ist mit einem Flüssigkristalldisplay 21 (Displayvorrichtung) als Navigationsvorrichtung ausgestattet, welche ein Beispiel einer Fahrzeugvorrichtung ist. Die Displayvorrichtung 21 ist in ihrer Vorderansicht rechtecksförmig. Die Horizontalrichtung der Displayvorrichtung 21 geht entlang der Breiterichtung des Fahrzeugs. Die Vertikalrichtung der Displayvorrichtung 21 verläuft entlang der Vertikalrichtung des Mittelkonsolenteils 710. Die Displayvorrichtung 21 ist konfiguriert, eine Umgebungskarte um die gegenwärtige Position des Fahrzeugs und verschiedene Konfigurationsbildschirme bzw. Bildausschnitte, wie zum Beispiel ein eingestelltes Ziel, darzustellen. Die gesamte Oberfläche der Displayvorrichtung 21 ist als Berührungspanel mit einem Berührungsdetektor 12 und einem Frontpanel 14, dargestellt in 3A, ausgestattet. Einem Nutzer wird es ermöglicht, eine Berührungsbetätigung auf dem Berührungspanel einzugeben, um eine Schaltvorrichtung zu betätigen, die auf der Displayvorrichtung 21 angezeigt wird. Die Mittelkonsole 720 ist ferner mit einem Touchpad 81 als Fernbedienungseingabevorrichtung ausgestattet. Einem Nutzer wird es außerdem ermöglicht, eine Berührungsbetätigung auf dem Touchpad 81 einzugeben, um einem Cursor zu bewegen, der auf der Displayvorrichtung 21 angezeigt wird, und um eine Schaltvorrichtung zu betätigen, die auf der Displayvorrichtung 21 angezeigt wird. Die Betätigungseingabevorrichtung gemäß der vorliegenden Ausführungsform ist im Berührungspanel der Displayvorrichtung 21 vorgesehen.
  • 2 zeigt ein Blockdiagramm, das eine elektrische Konfiguration der Betätigungseingabevorrichtung 1 gemäß der vorliegenden Ausführungsform darstellt. 3A und 3B zeigen erläuternde Ansichten, welche jeweils die Konfiguration der Betätigungseingabevorrichtung 1 darstellen. Genauer gesagt zeigt 3A eine Querschnittsansicht entlang der Linie A-A in 1 und stellt die Betätigungseingabevorrichtung 1 dar. 3B zeigt eine erläuternde Ansicht, die eine Montageposition eines horizontal beweglichen Mechanismusteils 13 (Aktoren 131 und 132), von der Vorderseite mit dem Frontpanel 14 von 3A betrachtet, darstellt. Die Linie A-A in 1 erstreckt sich parallel zur Horizontalrichtung der Displayvorrichtung 21. Wie in 2, 3A und 3B dargestellt, enthält die Betätigungseingabevorrichtung 1 ein Gehäuse 10, eine Steuereinheit 11, den Berührungsdetektor 12, das horizontal bewegliche Mechanismusteil 13, das Frontpanel 14, eine Bewegungsparameterspeichereinheit 15 und eine Bewegungsparameterkonfigurationseinheit 16.
  • Wie in 3A dargestellt, weist die Vorderseite des Gehäuses 10 entsprechend der Form (Rechtecksform) der Displayvorrichtung 21 eine Öffnung 101 auf. Ein Aufnahmeabschnitt 102 ist im Gehäuse 10 ausgebildet und steht mit der Öffnung 101 in Verbindung. Die Displayvorrichtung 21 ist im Aufnahmeabschnitt 102 aufgenommen und an einer Position entgegengesetzt zur Öffnung 101 angeordnet. Bezüglich 3A steuert eine Navigationssteuereinheit 20 die Anzeige der Displayvorrichtung 21. Die Navigationssteuereinheit 20 implementiert Prozessabläufe, um als Navigationsvorrichtung zu funktionieren. Genauer gesagt liest die Navigationssteuereinheit 20 zum Beispiel Umgebungskartendaten, die einen Bezug zur gegenwärtigen Position des Fahrzeugs haben, aus einem Kartendatenspeicher (nicht dargestellt) und steuert die Displayvorrichtung 21, Informationen über die gelesenen Daten anzuzeigen. Die Navigationssteuereinheit 20 veranlasst ferner, dass die Displayvorrichtung 21 verschiedene Bildschirmflächen bzw. Screens, wie zum Beispiel einen Betätigungsscreen einschließlich eines Bildes von einer Schaltvorrichtung und einen Zielkonfigurationsscreen darstellt. Wenn vom Berührungsdetektor 12 eine Benachrichtigung erhalten wird, dass eine Berührungsbetätigung auf einem Bild der Schaltvorrichtung, das auf der Displayvorrichtung 21 dargestellt wird, durchgeführt wird, implementiert die Navigationssteuereinheit 20 einen Prozessablauf wie beispielsweise einen Empfangsprozessablauf, bzw. führt diesen durch, um gemäß der betätigten Schaltvorrichtung ein Zeichen (zum Beispiel Buchstaben, Zahlen, etc.) zum Bestimmen eines Ziels zu Empfangen. Bei der vorliegenden Ausführungsform unterscheidet sich die Navigationssteuereinheit 20, welche zum Steuern der Anzeige der Displayvorrichtung 21 vorgesehen ist, von der Steuereinheit 11, welche die Bewegung des Frontpanels 14 steuert. Es ist zu beachten, dass diese Funktionen aber auch durch eine einzelne Steuereinheit ausgeführt werden können.
  • Der plattenförmige (plattenähnliche) Berührungsdetektor 12 und das Frontpanel 14 sind auf der Displayvorrichtung 21 im Aufnahmeabschnitt 102 vorgesehen und in dieser Reihenfolge von der Seite der Displayvorrichtung 21 angeordnet. Ähnlich zur Displayvorrichtung 21 sind in den Vorderansichten auch der Berührungsdetektor 12 und das Frontpanel 14 rechtecksförmig, um die gesamte Bildschirmoberfläche der Displayvorrichtung 21 zu umgeben. Der Berührungsdetektor 12 und das Frontpanel 14 sind ineinander integriert.
  • Das Frontpanel 14 ist aus transparentem Material, wie zum Beispiel Glas oder Harz, ausgebildet, und direkt unter der Öffnung 101 angeordnet. Das Frontpanel 14 weist eine flache Oberfläche 141 auf, die als behandelte Oberfläche funktioniert, auf welcher die Berührungsbetätigung durch einen Nutzer implementiert bzw. ausgeführt wird. Der Berührungsdetektor 12 ist auf der Hinterseite des Frontpanels 14 angeordnet, um die Berührungsbetätigung (Berührungsposition) auf der behandelten Oberfläche 141 des Frontpanels 14 zu erfassen. Genauer gesagt ist der Berührungsdetekor 12 ein Berührungssensor mit einer bereits bekannten Erfassungskonfiguration, um eine physikalische Größe, wie zum Beispiel eine Kapazität oder einen Widerstand zu erfassen. Der Berührungsdetektor 12 kann gemäß einer Resistivfilmkonfiguration ausgebildet sein. Genauer gesagt ist es denkbar, einen kapazitiven Sensor vom Projektionstyp als den Berührungsdetektor 12 vorzusehen. Gemäß solch einer Konfiguration kann der Bewegungsdetektor 12 eine Elektrodenschicht enthalten, die mit einer Anzahl von transparenten Elektroden ausgestattet ist, die aus einem Material wie zum Beispiel Indium-Zinoxid (ITO) ausgestaltet ist, und in Matrixform vorliegt. In diesem Fall, wenn ein Finger die behandelte Oberfläche 141 des Frontpanels 14 berührt, tritt eine Kapazitätsänderung in der Elektrode herum auf. Der Berührungsdetektor 12 ist konfiguriert, ein Signal gemäß der Positionselektrode, in welcher die Kapazitätsänderung auftritt, zu senden. Das heißt, der Berührungsdetektor 12 sendet sein Erfassungssignal gemäß der Berührungsposition. Die Steuereinheit 11 und die Navigationssteuereinheit 20 empfangen das Erfassungssignal, das vom Berührungsdetektor 12 gesendet wird. Das Frontpanel 14 unterscheidet sich gemäß der vorliegenden Ausführungsform vom Berührungsdetektor 12. Dabei ist zu erwähnen, dass das Frontpanel 14 und der Berührungsdetektor 12 in ein Frontpanel mit einer Berührungserfassungsfunktion integriert sind.
  • Das Gehäuse 10 weist Räume 103 und 104 auf, die um das rechte Ende und das linke Ende des Frontpanels 14 entsprechend angeordnet sind und vom Aufnahmeabschnitt 102 vertieft sind. Die Räume 103 und 104 sind jeweils mit einem Aktor 131 und 132 versehen. Die Aktoren 131 und 132 bilden den horizontal beweglichen Mechanismusteil 13, der in 2 dargestellt ist. Genauer gesagt ist der Aktor (rechtsseitiger Aktor) 131 im Raum 103 auf der rechten Seite vorgesehen und der Aktor (linksseitiger Aktor) 132 ist im Raum 104 auf der linken Seite vorgesehen. Bezüglich 3B sind die Aktoren 131 und 132 durch das Frontpanel 14 einander gegenüber vorgesehen. Genauer gesagt ist der rechtsseitige Aktor 131 um das Zentrum eines rechten Endstücks 142 des Frontpanels 14 verbunden und konfiguriert, das Frontpanel 14 zum linksseitigen Aktor 132 nach links zu drücken (zu verschieben). Der linksseitige Aktor 132 ist um das Zentrum eines linken Endstücks 143 des Frontpanels 14 verbunden und konfiguriert, das Frontpanel 14 zum rechtsseitigen Aktor 131 nach rechts zu drücken (zu verschieben). Gemäß der vorliegenden Konfiguration werden die Aktoren 131 und 132 abwechselnd angesteuert, um das Frontpanel 14 und den Berührungsdetektor 12, welcher mit dem Frontpanel 14 integriert ist, in Lateralrichtung (Horizontalrichtung) des Frontpanels 14 inversiv zu bewegen, um eine Oszillation zu erzeugen. Die Aktoren 131 und 132 können zum Beispiel als piezoelektrische Elemente oder elektromagnetische Solenoide ausgestaltet sein.
  • Wie in 4, dargestellt können die Aktoren 131 und 132 auch durch ein Vorspannelement wie eine Feder 133 ersetzt werden. Gemäß dem Beispiel von 4 wird der rechtsseitige Aktor 132 durch die Feder 133 ersetzt. In diesem Fall wird, wenn der rechtsseitige Aktor 131 betätigt wird, die Feder 133 komprimiert, um das Frontpanel 14 nach links zu bewegen. Danach, wenn die Betätigung des rechtsseitigen Aktors 131 abgeschlossen ist, verursacht die Vorspannkraft der komprimierten Feder 133, dass das Frontpanel 14 nach rechts bewegt wird. Gemäß der vorliegenden Konfiguration mit der Feder 133 kann das Frontpanel 14 in Horizontalrichtung oszilliert werden. In diesem Fall bilden der rechtsseitige Aktor 131 und die Feder 133 den horizontal beweglichen Mechanismusteil 13 von 1. Die Konfiguration gemäß 4 ist, abgesehen von der Feder 133, gleich der Konfiguration von 3A.
  • Gemäß dem Beispiel von 3A werden das Frontpanel 14 und die Aktoren 131 und 132 auf gleicher Höhe angeordnet. Dabei ist zu erwähnen, dass die Aktoren 131 und 132 auch auf anderen Positionen angeordnet werden können. Gemäß dieser Konfiguration können die Aktoren 131 und 132 über einen Verbindungsmechanismus Kraft auf das Frontpanel 14 übertragen. Gemäß der vorliegenden Konfiguration können, selbst in einem Fall, in dem kein Raum zum Aufnehmen der Aktoren 131 und 132 um das Frontpanel 14 gewährleistet werden kann, die Aktoren 131 und 132 das Frontpanel 14 in Horizontalrichtung bewegen. Gemäß dem Beispiel von 3B sind die Aktoren 131 und 132 jeweils nahe den Mittelabschnitten des rechten Endes 142 und des linken Endes 143 des Frontpanels 14 vorgesehen. Ferner ist zu erwähnen, dass das rechte Ende 142 und das linke Ende 143 an verschiedenen Positionen angeordnet sein kann, solange das rechte Ende 142 und das linke Ende 143 das Frontpanel 14 in Horizontalrichtung bewegen können. Ferner ist zu erwähnen, dass Aktoren jeweils an einem oberen Ende 144 und einem unteren Ende 145 des Frontpanels 14 (3B) vorgesehen werden können, um die Bewegung des Frontpanels 14 in Vertikalrichtung zu ermöglichen.
  • Mit Bezug auf 2 ist die Steuereinheit 11 durch elektronische Vorrichtungen wie eine CPU, einen ROM und einen RAM konfiguriert. Die Steuereinheit 11 ist konfiguriert, um die CPU zu veranlassen, verschiedene Prozessabläufe zu implementieren bzw. auszuführen, um Programme, die im ROM gespeichert sind, auszuführen. Die Steuereinheit 11 ist mit dem Berührungsdetektor 12, dem horizontal beweglichen Mechanismusteil 13, der Bewegungsparameterspeichereinheit 15 und der Bewegungsparameterkonfigurationseinheit 16 elektronisch verbunden. Die Steuereinheit 11 führt gemäß dem Erfassungssignal, das vom Berührungsdetektor 12 gesendet wird, einen Prozessablauf zum Ansteuern des horizontal beweglichen Mechanismusteils 13 einschließlich der Aktoren 131 und 132 aus, wodurch das Frontpanel 14 bewegt wird. Der Prozessablauf wird später im Detail beschrieben.
  • Hier wird die Betätigung bzw. der Betrieb der Steuereinheit 11 zum Bewegen des Frontpanels 14 beschrieben. 5 zeigt eine Ansicht, die ein Versuchsergebnis (einer subjektiven Evaluation) darstellt, das eine Veränderung einer Berührungsintensität (Härte) relativ zur Bewegung (Vertikalachse) des Frontpanels 14 und relativ zur Bewegungsgeschwindigkeit (Horizontalachse) des Frontpanels 14 darstellt. In 5 stellt jede Hintergrundfarbe bzw. Schattierung eine entsprechende Berührungsintensität bzw. taktile Intensität dar. Genauer gesagt wird die Berührungsintensität umso stärker, desto dunkler die Hintergrundfarbe bzw. Schattierung des Bereichs wird. Genauer gesagt liegt im Bereich 301 mit der dunkelsten Hintergrundfarbe der härteste taktile Bereich vor, welcher die stärkste Berührungsintensität, das heißt, das härteste Berührungsgefühl, aufweist. Das harte Berührungsgefühl ist z. B. ein Betätigungsgefühl, das verursacht wird, wenn eine Tastatur eines PCs bedient wird, und dabei beispielsweise ein Klickgeräusch verursacht.
  • Der Bereich 302, der durch die zweitdunkelste Hintergrundfarbe definiert ist, stellt den zweithärtesten Berührungsbereich dar, der eine weichtaktile Intensität darstellt, das heißt, ein weiches Berührungsgefühl. Das weiche Berührungsgefühl ist zum Beispiel ein Betätigungsgefühl, das verursacht wird, wenn eine filmähnliche Schaltvorrichtung betätigt wird. Genauer gesagt ist das weiche Berührungsgefühl ein Tief- und Langsamniederdrückgefühl, das verursacht wird, wenn zum Beispiel ein Timer-Konfigurationsschalter einer Vorrichtung, wie beispielsweise einer Mikrowelle oder eines elektrischen Reiskochers betätigt wird. Ein dicker Rahmen 200 definiert einen Bereich 300 einschließlich des harttaktilen Bereichs 301 und des weichtaktilen Bereichs 302, die durch das Betätigungsgefühl (Klickgefühl) einer Schaltvorrichtung gekennzeichnet sind, das verursacht wird, wenn die Berührungsbetätigung auf der behandelten Oberfläche 141 des Frontpanels 14 stattfindet. Der Bereich 300 stellt einen taktilen Gefühlsbereich dar. Ein Bereich 311 mit der drittdunkelsten Hintergrundfarbe bzw. Schattierung, ein Bereich 312 mit der viertdunkelsten Hintergrundfarbe bzw. Schattierung und ein Bereich ohne Hintergrundfarbe (mit der geringsten Hintergrundfarbe 313) sind durch leicht taktile Gefühle oder im Wesentlichen nicht-taktile Gefühle gekennzeichnet. Die Bereiche 311 bis 313 stellen nicht-taktile Gefühlsbereiche dar.
  • Die Punkte P in 5 stellen die tatsächlichen Evaluierungspunkte dar. Die Bereiche 301, 302, 310 werden gemäß den tatsächlichen Evaluierungspunkten P bestimmt. Genauer gesagt ist der harttaktile Bereich 301 gemäß den Evaluierungspunkten P11 bis P14 mit Evaluierungsergebnissen der harttaktilen Gefühle gekennzeichnet. Der weichtaktile Bereich 302 ist gemäß den Evaluierungspunkten P21 bis P27 mit Evaluierungsergebnissen der weichtaktilen Gefühle gekennzeichnet. Der nicht-taktile Bereich 310 ist gemäß den Evaluierungspunkten P30 durch Evaluierungsergebnisse der nicht-taktilen Gefühle gekennzeichnet.
  • Bezüglich 5 ist, im taktilen Gefühlsbereich 300, die Bewegung (Bewegungsgröße) des Frontpanels 14 größer oder gleich 10 Mikrometer und die Bewegungsgeschwindigkeit des Frontpanels 14 größer oder gleich 0,025 μm/ms. Es ist zu erwähnen, dass ein Bereich, der in 5 nicht dargestellt ist, in dem die Bewegungsgeschwindigkeit größer oder gleich 0,14 μm/ms ist, und die Bewegung größer oder gleich 60 μm ist, auch im taktilen Gefühlsbereich 300 enthalten ist. Wenn die Bewegung des Frontpanels 14 zu groß wird, kann die Bewegung sichtbar werden. Somit kann die Bewegung des Frontpanels 14 auf einen Bereich festgelegt werden, der nicht sichtbar ist, obwohl das Panel bewegt wird. Genauer gesagt kann die obere Grenze der Bewegung z. B. auf 200 μm festgelegt werden. Noch genauer gesagt kann die obere Grenze der Bewegung auch auf 100 μm festgelegt werden. Im harttaktilen Bereich 301 der taktilen Gefühlsbereiche 300 ist die Bewegung größer oder gleich 25 μm und die Bewegungsgeschwindigkeit ist größer oder gleich 0,06 μm/μs. Im nicht-taktilen Gefühlsbereich 310 ist die Bewegung kleiner oder gleich 10 μm und die Bewegungsgeschwindigkeit kleiner oder gleich 0,025 μm/μs.
  • Grundsätzlich ist es denkbar, das festgelegte taktile Gefühl bzw. das Berührungsgefühl selbst im gleichen harttaktilen Bereich 301 zu verändern, wenn sich die Bewegung und/oder die Bewegungsgeschwindigkeit verändert. Ähnlich ist es denkbar, das festgelegte Berührungsgefühl selbst im gleichen harttaktilen Bereich 301 zu verändern, wenn sich die Bewegung und/oder die Bewegungsgeschwindigkeit verändern. Genauer gesagt haben die Erfinder festgestellt, dass ein harttaktiles Gefühl verursacht werden kann, wenn die Bewegungsgeschwindigkeit groß wird und eine konstante Bewegung bzw. Bewegungsgröße vorliegt.
  • Nachfolgend wird das Versuchsergebnis von 5 bezüglich der Eigenschaft eines sensorischen Rezeptors einer Haut beschrieben. Wie in 6 dargestellt, enthält der hautsensorische Rezeptor die Merkel-Zelle, das Meissner-Körperchen und das Pacinian-Körperchen. Genauer gesagt zeigen die Linien 401 bis 403 in 6 die minimalen Oszillationseigenschaften (Frequenz f, Amplitude A) der Merkel-Zelle, des Meissner-Körperchens und des Pacinian-Körperchens, welche erforderlich sind, um die entsprechenden sensorischen Rezeptoren zu stimulieren. Die Linie 401 stellt die Kennlinie der Merkel-Zelle dar, die Linie 402 die Kennlinie des Meissner-Körperchens und die Linie 403 die Kennlinie des Pacinian-Körperchens. Wie durch Linie 401 dargestellt, ist, um die Merkel-Zelle zu stimulieren, eine Oszillation mit einer Amplitude größer oder gleich 100 μm erforderlich. Wie durch die Linie 402 dargestellt, ist, um das Meissner-Körperchen zu stimulieren, eine Oszillation einer Amplitude von ca. 10 μm bei einer relativ niedrigen Frequenz f im Bereich von 1 Hz bis 100 Hz erforderlich. Wie durch die Linie 403 dargestellt, ist, um das Pacinian-Körperchen zu stimulieren, eine Oszillation mit einer Amplitude größer als die Amplitude, wenn das Meissner-Körperchen stimuliert wird, in einem niedrigen Frequenzbereich erforderlich. Demhingegen ist es bei einem hohen Frequenzbereich größer oder gleich 200 Hz ausreichend, eine Oszillation mit der Amplitude kleiner als die Amplitude, wenn das Meissner-Körperchen. stimuliert wird, anzulegen. Im taktilen Gefühlsbereich 300 von 5 ist es denkbar, dass hauptsächlich dass Meissner-Körperchen und das Pacinian-Körperchen stimuliert werden. Zudem ist es im nicht-taktilen Gefühlsbereich 310 in 5 denkbar, dass keiner der sensorischen Rezeptoren stimuliert wird.
  • Mit Bezug auf 2 bewegt die Steuereinheit 11 das Frontpanel 14, um die Bedingungen bzw. Zustände (stimulierbare Zustände) der Bewegung (Bewegungsgröße) und der Bewegungsgeschwindigkeit, die im taktilen Gefühlsbereich 300 von 5 liegen, zu erreichen. Genauer gesagt speichert die Bewegungsparameterspeichereinheit 15 numerische Werte (Bewegungsparameter) der Bewegung und der Bewegungsgeschwindigkeit, welche den stimulierbaren Zustand erreichen und dem taktilen Gefühlsbereich 300 entsprechen bzw. in diesem liegen. Die Steuereinheit 11 liest die Bewegungsparameter, die in der Bewegungsparameterspeichereinheit 15 gespeichert sind und bewegt das Frontpanel 14 gemäß dem ausgelesenen Bewegungsparameter.
  • Die Bewegungsparameterspeichereinheit 15 ist eine Speichervorrichtung, wie beispielsweise eine Festplatteneinheit, ein Flash-Speicher, etc., die wie vorstehend beschrieben schon vorher einen Bewegungsparameter gespeichert hat. Gemäß der vorliegenden Ausführungsform speichert die Bewegungsparameterspeichereinheit 15 mehrere sich voneinander unterscheidende Bewegungsparameter. 7 stellt eine Korrespondenztabelle 160, einschließlich den Bewegungsparametern, die in der Bewegungsparameterspeichereinheit 15 gespeichert sind, dar. Die Korrespondenztabelle 160 in 7 enthält eine Modusspalte 161 und eine Bewegungsparameterspalte 162. Die Modusspalte 161 speichert entsprechend verschiedenen Fällen und Nutzern verschiedene Modi, wenn die Berührungsbetätigung auf der behandelten Oberfläche 141 des Frontpanels 14 bei Verwendung des Fahrzeugs ausgeführt wird. Genauer gesagt speichert die Modusspalte 161 einen normalen Modus, der von einem normalen Reisefall ausgeht, einen Sportmodus, der von einem sportlichen Reisefall ausgeht, einen männlichen Modus, der von einem männlichen Nutzer ausgeht, einen weiblichen Modus, der von einem weiblichen Nutzer ausgegangen wird, etc.
  • Die Bewegungsparameterspalte 162 speichert die jeweiligen Bewegungsparameter entsprechend den in der Modusspalte 161 gespeicherten Modi. Genauer gesagt speichert die Bewegungsparameterspalte 162 z. B. einen Bewegungsparameter P23 entsprechend dem Normalmodus, der einem weichtaktilen Gefühl bezüglich der Bewegung und der Bewegungsgeschwindigkeit zu einem Punkt P23 in 5 entspricht. Die Bewegungsparameterspalte 162 speichert ferner z. B. einen Bewegungsparameter P11 entsprechend dem Sportmodus, der einem harttaktilen Gefühl bezüglich der Bewegung und der Bewegungsgeschwindigkeit zum Punkt P11 in 5 entspricht. Entsprechend speichert die Bewegungsparameterspalte 162 ferner z. B. einen Bewegungsparameter P12 entsprechend dem männlichen Modus, der einem harttaktilen Gefühl zum Punkt P12 in 5 entspricht. Die Bewegungsparameterspalte 162 speichert z. B. ferner einen Bewegungsparameter P24, der dem weiblichen Modus entspricht und ein weichtaktiles Gefühl zum Punkt P24 in 5 darstellt.
  • Die Bewegungsparameterkonfigurationseinheit 16 in 2 wird verwendet, um einen der Modi, die in der Modusspalte 161 der Korrespondenztabelle 160 in 7 gespeichert sind, zu konfigurieren. Genauer gesagt stellt die Bewegungsparameterkonfigurationseinheit 16 mechanische Schaltvorrichtungen dar, die z. B. im Mittelkonsolenteil 710 in 1 entsprechend den jeweiligen Modi vorgesehen sind. Alternativ kann die Bewegungsparameterkonfigurationseinheit 16 ein Konfigurationsbildschirm bzw. Konfigurationsscreen einschließlich Bildern der Schaltvorrichtungen sein, die auf der Displayvorrichtung 21 entsprechend den jeweiligen Modi angezeigt werden. Bei der Konfiguration, in der die Bewegungsparameterkonfigurationseinheit 16 der Konfigurationsscreen ist, der auf der Displayvorrichtung 21 angezeigt wird, stellt die Steuereinheit 11 vorher die Positionen der Bilder der Schaltvorrichtungen auf der Displayvorrichtung 21 fest. Zudem bestimmt die Steuereinheit 11 gemäß dem Erfassungssignal, das vom Berührungsdetektor 12 gesendet wird, welches der Bilder der Schaltvorrichtungen durch die Berührungsbetätigung implementiert bzw. dargestellt wird. Somit konfiguriert die Steuereinheit 11 den Modus entsprechend der betätigten Schaltvorrichtung.
  • Nachfolgend wird der Prozessablauf, der durch die Steuereinheit 11 ausgeführt wird, wenn das Frontpanel 14 zum Zeitpunkt der Berührungsbetätigung bewegt wird, beschrieben. 8 zeigt ein Flussdiagramm, das den Prozessablauf darstellt. Der Prozessablauf des Flussdiagramms in 8 wird aktiviert, wenn z. B. die Verbrennungsmaschine des Fahrzeugs gestartet wird, um die Steuereinheit 11 zu aktivieren. Danach wird der Prozessablauf wiederholt in konstanten Intervallen implementiert bzw. ausgeführt. Gemäß der nachfolgenden Beschreibung wird angenommen, dass einer der Modi durch die Bewegungsparameterkonfigurationseinheit 16 vorher eingestellt wird. Zudem wird davon ausgegangen, dass die Displayvorrichtung 21 einen Screen anzeigt, wie beispielsweise einen Screen eines eingestellten Ziels, einschließlich eines Bilds einer Schaltvorrichtung zum Anweisen der Betätigung der Navigationsvorrichtung.
  • Zuerst bestimmt die Steuereinheit 11 gemäß des Erfassungssignals vom Berührungsdetektor 12, ob die Berührungsbetätigung auf der behandelten Oberfläche 141 des Frontpanels 14 durchgeführt wurde (S11). Wenn die Berührungsbetätigung nicht durchgeführt wurde (S11: Nein), wird der Prozessablauf des Flussdiagramms in 8 beendet. Wenn die Berührungsbetätigung hingegen durchgeführt wird (S11: Ja), bestimmt die Steuereinheit 11 gemäß dem Erfassungssignal vom Berührungsdetektor 12, ob die Berührungsposition die Position (Schaltvorrichtungsposition) des Bilds der Schaltvorrichtung ist, die auf der Displayvorrichtung 21 angezeigt wird (S12). Wenn die Berührungsbetätigung an einer Position anders als der Schaltvorrichtungsposition durchgeführt wird (S12: Nein), wird der Prozessablauf des Flussdiagramms in 8 beendet. Wenn hingegen die Berührungsbetätigung auf der Schaltvorrichtungsposition durchgeführt wird (S12: Ja), schreitet der Prozessablauf zu S13 voran.
  • Bei S13 führt die Steuereinheit 1 eine Tastsinnsteuerung (S13) durch, um die Ansteuerbetätigung der Aktoren 131 und 132 des horizontalbeweglichen Mechanismusteils 13 zu steuern, wodurch das Frontpanel 14 in Horizontalrichtung bewegt wird. 9 stellt eine Tastsinnsteuerlinie (Tastsinnsteuerung) 50 dar, die die Veränderung der Bewegung des Frontpanels 14 entlang der Vertikalachse bezüglich der vergangenen Zeit entlang der Horizontalachse darstellt. In 9 wird die Position (Anfangs- bzw. Ursprungsposition) des Frontpanels 14 zu Beginn der Tastsinnsteuerung auf Null gestellt. Der Bereich 61 (erster Bewegungsbereich) oberhalb der Horizontalachse (Zeitachse) stellt dar, dass sich das Frontpanel 14 bezüglich der Ursprungsposition eine Seite (z. B. die rechte Seite) in Horizontalrichtung erreicht bzw. dieser annähert. Der Bereich 62 (zweiter Bewegungsbereich) unterhalb der Horizontalachse stellt dar, dass sich das Frontpanel 14 bezüglich der Ursprungsposition der anderen Seite (z. B. der linken Seite) in Horizontalrichtung annähert. Die Steigung der Linie 50 in 9 entspricht der Bewegungsgeschwindigkeit (Bewegung/Bewegungszeit) des Frontpanels 14. Die Richtung der Steigung der Linie 50 entspricht der Bewegungsrichtung des Frontpanels 14. Genauer gesagt entsprechen die Steigung nach oben und nach rechts und die Steigung nach unten und nach rechts Bewegungsrichtungen, welche sich entgegengesetzt sind. In der nachfolgenden Beschreibung ist davon auszugehen, dass wenn die Linie 50 (Linie 511 in 9) nach oben und nach rechts ansteigt, sich das Frontpanel 14 nach rechts in Richtung des rechtsseitigen Aktors 131 (3) bewegt. Demhingegen ist davon auszugehen, dass wenn die Linie 50 (Linie 512 in 9) nach rechts abfällt, sich das Frontpanel 14 nach links in Richtung des linksseitigen Aktors 132 (3) bewegt.
  • In 9 zeigt die Linie 50 der Tastsinnsteuerung eine Form eines „One-Shot”-Impulses. Im Detail enthält die Linie 50 drei Linien, 511, 52, 512. Gemäß der Tastsinnsteuerung 50, wie durch die Linie 511 dargestellt, wird der linksseitige Aktor 132 zuerst angesteuert, um das Frontpanel 14 nach rechts zu bewegen. In diesem Fall wird das Frontpanel 14 aus der Ursprungsposition in den ersten Bewegungsbereich 61 bewegt. Zu dieser Zeit wird das Frontpanel 14 bewegt, um insbesondere durch den Bewegungsparameter kein taktiles Gefühl hervorzurufen, was dem nicht-taktilen Gefühlsbereich 310 5 entspricht. Genauer gesagt wird das Frontpanel 14 in 5 mit dem Bewegungsparameter, der durch die Bewegung kleiner als 10 μm und der Bewegungsgeschwindigkeit kleiner als 0,025 μm pro μs gekennzeichnet ist, bewegt. Daher ist die Steigung bzw. Neigung (Bewegungsgeschwindigkeit) der Linie 511 im Vergleich zur Linie 52, welche später beschrieben wird, nur gering.
  • Anschließend wird die Tastsinnsteuerung 50 ausgeführt, um den rechtsseitigen Aktor 131 anzusteuern, wodurch das Frontpanel 14 nach links bewegt wird, wie durch die Linie 52 dargestellt. Somit wird das Frontpanel 14, welches im ersten Bewegungsbereich 61 bewegt wird, zum zweiten Bewegungsbereich 62 jenseits der ursprünglichen Ausgangsposition (Bewegungs-Null-Position) bewegt. Zu diesem Zeitpunkt wird das Frontpanel 14 insbesondere gemäß dem Bewegungsparameter (stimulierbarer Zustand) bewegt, welcher dem taktilen Gefühlsbereich 300 in 5 entspricht. Ferner wird zu diesem Zeitpunkt das Frontpanel 14 gemäß einem konstanten Bewegungsparameter bewegt, wodurch gemäß der Linie 52 eine konstante Steigung verursacht wird. Genauer gesagt liest die Steuereinheit 11 den Bewegungsparameter, welcher dem Modus entspricht, der durch die Bewegungsparameterkonfigurationseinheit 16 eingestellt wird, von der Bewegungsparameterspeichereinheit 15 (Korrespondenztabelle 160 in 7). Anschließend bewegt die Steuereinheit 11 das Frontpanel 14 entsprechend dem ausgelesenen Bewegungsparameter. Zum Beispiel bewegt, wenn der Bewegungsparameter im Punkt P12 in 5 verwendet wird, die Steuereinheit 11 das Frontpanel 14 um 50 μm bei einer Bewegungsgeschwindigkeit von 0,08 μm/μs. In diesem Fall wird in 9 die Höhe der Linie 52 auf 50 μm eingestellt, und die Neigung bzw. Steigung der Linie 52 auf 0,08 μm/μs. Mit dieser Konfiguration kann ein konstantes taktiles Gefühl gemäß des Bewegungsparameters für den Nutzer einmal (ein einziges Mal) vorgesehen werden. In der nachfolgenden Beschreibung kann die Steuerung, die durch die Linie 52 dargestellt wird, als taktile Gefühlssteuerung bezeichnet werden, und die Linie 52 vereinfacht als taktile Gefühlssteuerung 52.
  • Anschließend wird die Tastsinnsteuerung 50 weiter durchgeführt, um den linksseitigen Aktor 132 anzusteuern, wodurch das Frontpanel 14 nach rechts bewegt wird, wie durch die Linie 512 dargestellt. Somit wird das Frontpanel 14, welches im zweiten Bewegungsbereich 62 bewegt worden ist, in die ursprüngliche Ausgangsposition (Bewegungs-Null-Position) bewegt. Zu dieser Zeit wird das Frontpanel 14 insbesondere gemäß dem Bewegungsparameter bewegt, welcher dem nicht-taktilen Gefühlsbereich 310 in 5 entspricht. Es ist zu erwähnen, dass der Bewegungsparameter, der durch die Linie 511 dargestellt wird und der Bewegungsparameter, der durch die Linie 512 dargestellt wird, zueinander gleich sein oder sich voneinander unterscheiden können. In der nachfolgenden Beschreibung kann die Steuerung, die durch die Linien 511, 512 dargestellt wird, als nicht-taktile Gefühlssteuerung bezeichnet werden, und die Linien 511, 512 können vereinfacht als nicht-taktile Gefühlssteuerung 51 bezeichnet werden.
  • Gemäß der vorliegenden Konfiguration ist die Tastsinnsteuerung 50 eine Kombination aus einer taktilen Gefühlssteuerung 52, welche den hautsensorischen Rezeptor stimuliert, um das taktile Gefühl bzw. Tastgefühl zu vermitteln und zwei nicht-taktilen Gefühlssteuerungen 51, welche kein taktiles Gefühl vermitteln. Daher kann das Frontpanel 14 nach der Tastsinnsteuerung 50 mit der einmaligen Anwendung bzw. Übertragung des konstanten taktilen Gefühls in die Ursprungsposition zurückgeführt werden. Zusätzlich weist die Tastsinnsteuerung 50 vor und nach der taktilen Gefühlssteuerung 52 die nicht-taktilen Gefühlssteuerungen 51 auf. Daher ist es möglich, die Bewegung bezüglich der Ursprungsposition, in der die Bewegung in 9 Null ist, zu unterdrücken. Somit ist es möglich, dass ein Nutzer die Bewegung des Frontpanels 14 kaum wahrnimmt. Nach der Tastsinnsteuerung bei S13 wird der Prozessablauf gemäß dem Flussdiagramm in 8 beendet.
  • Wie vorstehend beschrieben, wird in der vorliegenden Ausführungsform das taktile Gefühl zum Zeitpunkt einer Berührungsbetätigung übertragen, wobei die Härte gemäß des Modus im Voraus eingestellt wird. Daher kann das Betätigungsgefühl (Klick-Gefühl), als wenn eine mechanische Schaltvorrichtung niedergedrückt wird, genau simuliert werden. Gemäß der vorliegenden Ausführungsform wird eine Konfiguration des Bewegungsparameters auf der Bewegungsparameterkonfigurationseinheit 16 ermöglicht. Es ist zu erwähnen, dass ein vorbestimmter konstanter Bewegungsparameter verwendet werden kann.
  • Gemäß der vorliegenden Ausführungsform wird die Tastsinnsteuerung 50 (9) durchgeführt, um eine taktile Gefühlssteuerung 52 und die insgesamt zwei nicht-taktile Gefühlssteuerungen 51 vor und nach der einen taktilen Gefühlssteuerung 52 durchzuführen. Es ist zu erwähnen, dass die vorliegende Offenbarung nicht auf die Tastsinnsteuerung 50 gemäß 9 beschränkt ist, solange das konstante taktile Gefühl einmal übertragen werden kann. 10 stellt eine Tastsinnsteuerung 50 gemäß einer Modifikation dar. In 10 sind Elemente mit Funktionen gleich denen in 9 mit gleichen Bezugszeichen versehen. Gemäß der Tastsinnsteuerung 500 in 10 wird das Frontpanel 14 nur auf der Seite des ersten Bewegungsbereichs 61 bewegt. Genauer gesagt wird gemäß der Tastsinnsteuerung 500 die taktile Gefühlssteuerung 52 zuerst einmal auf der Seite des ersten Bewegungsbereichs 61 durchgeführt. Anschließend wird, wie durch die Linie 53 dargestellt, der Nicht-Steuerzustand erstellt und das Frontpanel 14 wird nicht für eine festgelegte Zeit dauerbewegt. Anschließend wird die Bewegungsrichtung des Frontpanels 14 invertiert und die nicht-taktile Gefühlssteuerung 51 wird einmal durchgeführt, um das Frontpanel 14 in die Ursprungsposition zurückzuführen, wobei kein taktiles Gefühl übertragen wird. Gemäß der vorliegenden Konfiguration kann das Frontpanel 14 mit der Übermittlung eines einmaligen konstanten taktilen Gefühls in die Ursprungsposition zurückgeführt werden. Außerdem ist es ausreichend, die nicht-taktile Gefühlssteuerung 51 nur einmal durchzuführen. Somit kann die Steuerung vereinfacht werden. Ferner kann durch Einführen des Nicht-Steuerzustands zwischen der taktilen Gefühlssteuerung 52 und der nicht-taktilen Gefühlssteuerung 51 die Empfindlichkeit des taktilen Gefühls bei der taktilen Gefühlssteuerung 52 verbessert werden. Es ist zu erwähnen, dass die Steigung gemäß der nicht-taktilen Gefühlssteuerung 51 auch nicht, wie in 10 dargestellt, konstant sein kann, solange die nicht-taktile Gefühlssteuerung 51 kein taktiles Gefühl überträgt. Außerdem kann das Frontpanel 14 nur auf der Seite des zweiten Bewegungsbereichs 62 bewegt werden. Die nicht-taktile Gefühlssteuerung 51 kann zuerst durchgeführt werden, und anschließend kann die taktile Gefühlssteuerung 52 durchgeführt werden.
  • Gemäß der vorliegenden Ausführungsform wird die Tastsinnsteuerung einschließlich der nicht-taktilen Gefühlssteuerung durchgeführt. Es ist zu erwähnen, dass die Tastsinnsteuerung durchgeführt werden kann und dabei nur einmal die taktile Gefühlssteuerung aufweist. Außerdem kann, gemäß der vorliegenden Konfiguration, das konstante taktile Gefühl einmal vermittelt werden, ohne Durchführen der nicht-taktilen Gefühlssteuerung. Somit kann die Steuerung vereinfacht werden. In diesem Fall kann das Frontpanel 14 zum Ende der Tastsinnsteuerung nicht in die Ursprungsposition zurückbewegt werden. Daher kann die Bewegungsrichtung des Frontpanels 14 bei jeder Tastsinnsteuerung von der letzten Bewegungsrichtung invertiert werden. Gemäß der vorliegenden Konfiguration ist es möglich, das Frontpanel 14 von einer großen Bewegung an der vorherigen Ursprungsposition weg zu hindern.
  • In der vorliegenden Ausführungsform wird die Tastsinnsteuerung durchgeführt, wobei die taktile Gefühlssteuerung einmal durchgeführt wird. Es ist zu erwähnen, dass die Tastsinnsteuerung auch durchgeführt werden kann, wenn die taktile Gefühlssteuerung zweimal oder öfters durchgeführt wird. Wenn die Tastsinnsteuerung durchgeführt wird, während die taktilen Gefühlssteuerungen zwei- oder mehrmals durchgeführt werden, ist es möglich, wiederholt taktile Gefühle in kombinierter Form zu übertragen, um zum Beispiel eine Vibration hervorzurufen.
  • (Zweite Ausführungsform)
  • Anschließend wird die Betätigungseingabevorrichtung gemäß der zweiten Ausführungsform der vorliegenden Offenbahrung beschrieben. In der nachfolgenden Beschreibung wird hauptsächlich der Unterschied zur ersten Ausführungsform beschrieben. Die Konfiguration der Betätigungseingabevorrichtung gemäß der zweiten Ausführungsform ist äquivalent zu der der ersten Ausführungsform, die in den 2 und 3 dargestellt ist. In der vorliegenden Ausführungsform unterscheidet sich der Prozessablauf, der gemäß der Steuereinheit 11 durchgeführt wird, von dem der ersten Ausführungsform. 11 zeigt ein Flussdiagramm, das den Prozessablauf darstellt, der durch die Steuereinheit 11 der vorliegenden Ausführungsform durchgeführt wird. Der Prozessablauf gemäß des Flussdiagramms in 11 wird aktiviert, wenn z. B. die Verbrennungsmaschine des Fahrzeugs gestartet wird, um die Steuereinheit 11 zu aktivieren. Danach wird der Prozessablauf wiederholt in konstanten Intervallen durchgeführt. In der folgenden Beschreibung wird davon ausgegangen, dass die Displayvorrichtung 21 einen Zeicheneingabescreen 22, der in 12A dargestellt ist, anzeigt. Der Zeicheneingabescreen 22 ist durch eine Mehrzahl von Zeichenschaltvorrichtungen 23 konfiguriert, die in Horizontal- und Vertikalrichtung Reihen bilden, wobei keine Lücken dazwischen sind. Jede der Zeichenschaltvorrichtungen 23 ist mit einem entsprechenden Zeichen gekennzeichnet, wie beispielsweise einem Kana-Zeichen, einem numerischen Zeichen, einem Buchstaben, etc., um als eine Schaltvorrichtung zum Annehmen einer Eingabe des angegebenen Zeichens zu funktionieren. Jede der Zeichenschaltvorrichtungen 23 ist rechteckförmig mit Seiten, die eine Länge von mehreren Millimeter aufweisen. 12A stellt ferner einen Finger F1 dar, welcher die Berührungsbetätigung auf den Zeichenschaltvorrichtungen 23 durchführt. Einem Nutzer wird ermöglicht, die Berührungsbetätigung auf einer oder mehreren Zeichenschaltvorrichtungen 23 durchzuführen, um einen Zeichenstring, wie beispielsweise ein gewünschtes Ziel, einzugeben.
  • In dem in 11 dargestellten Flussdiagramm bestimmt die Steuereinheit 11 gemäß dem Erfassungssignal vom Berührungsdetektor 12 zuerst, ob die Berührungsbetätigung auf der behandelten Oberfläche 141 des Frontpanels 14 durchgeführt wurde (S21). Wenn die Berührungsbetätigung nicht durchgeführt wurde (S21: Nein), wird der Prozessablauf im Flussdiagramm von 11 beendet. Wenn die Berührungsbetätigung durchgeführt wurde (S21: Ja), wird bestimmt, ob die Berührungsbetätigung eine Betätigung zum Niederdrücken der Zeichenschaltvorrichtung 23 oder eine Verfolgungsbetätigung zum Verfolgen der Zeichenschaltvorrichtung 23 ist (S22). Die Verfolgungsbetätigung kann einen Zustand verursachen, in dem sich die Berührungsposition gemäß der Bewegung des Fingers F1 entlang des in 12A dargestellten Pfeils F2 kontinuierlich verändert. Bei S22 wird ferner insbesondere bestimmt, ob die Betätigung eine Verfolgungsbetätigung ist, gemäß der Kontaktfläche des Fingers F1 mit der behandelnden Oberfläche 141. Wenn die Verfolgungsbetätigung auf der Zeichenschaltvorrichtung 23 durchgeführt wird, kann davon ausgegangen werden, dass ein Nutzer nicht beabsichtigt, die Zeichenschaltvorrichtung 23 niederzudrücken. Daher kann in diesem Fall davon ausgegangen werden, dass die Kontaktfläche des Fingers F1 im Vergleich zu einem Fall, in dem die Zeichenschaltvorrichtung 23 niedergedrückt wird, kleiner wird. In Anbetracht dieser Tatsache, wird bei S22 gemäß einem Bestimmungsergebnis, ob die Kontaktfläche des Fingers F1 kleiner als ein vorbestimmter Schwellenwert ist, bestimmt, ob der Betrieb der Verfolgungsbetrieb ist. Es ist zu beachten, dass der Berührungsdetektor 12 die Erfassungssignale gemäß der Berührungsposition sendet, welche gleich der Kontaktfläche ist. Daher wird die Kontaktfläche des Fingers F1 bei S22 gemäß dem Erfassungssignal bestimmt.
  • Es ist zu erwähnen, dass die Bestimmung, ob die Verfolgungsbetätigung durchgeführt wird, auf diese Weise gemacht wird, das heißt, gemäß der Größe der Kontaktfläche des Fingers F1. Alternativ kann die Bestimmung, ob die Verfolgungsbetätigung durchgeführt wird, gemäß eines Bestimmungsergebnisses durchgeführt werden, ob sich die Berührungsposition kontinuierlich verändert. Dabei kann davon ausgegangen werden, dass die Kraft, die bei der Verfolgungsbetätigung auf das Frontpanel 14 aufgebracht wird, kleiner als die bei der Niederdrückbetätigung ist. Daher kann die Bestimmung, ob die Betätigung die Verfolgungsbetätigung ist, gemäß der aufgebrachten Kraft auf das Frontpanel 14 gemacht werden. In diesem Fall kann z. B. ein Drucksensor (durch Bezugszeichen 122 in 4 gekennzeichnet) auf der Hinterseite des Frontpanels 14 vorgesehen sein, um die Kraft, die auf das Frontpanel 14 aufgebracht wird, gemäß dem Erfassungssignal des Drucksensors zu erfassen.
  • Wenn die Berührungsbetätigung die Verfolgungsbetätigung ist (S22: Ja), schreitet der Prozessablauf zu S23 voran Bei S23 wird bestimmt, ob die Berührungsbetätigung eine Grenzposition entsprechend der Grenze der Zeichenschaltvorrichtung 23 ist (S23). Genauer gesagt, erhält die Steuereinheit 11 zuvor Displaypositionsinformationen zu jeder Zeichenschaltvorrichtung 23 von der Navigationssteuereinheit 20 (3A). Die Displaypositionsinformationen ermöglichen eine Identifizierung der Displayposition, der Grenze von jeder Zeichenschaltvorrichtung 23 und der Displayposition des Zentrums von jeder Zeichenschaltvorrichtung 23. Es wird bestimmt, ob sich die Berührungsposition auf einer Grenzposition der Zeichenschaltvorrichtung 23 befindet (S23), und zwar bezüglich der Displaypositionsinformationen. Wenn sich die Berührungsposition auf der Grenzposition der Zeichenschaltvorrichtung 23 befindet (S23: Ja), schreitet der Prozessablauf zu Schritt S25 voran.
  • Bei S25 wird die Tastsinnsteuerung durchgeführt, um das Frontpanel 14 zu bewegen (S25). 12B zeigt eine vergrößerte Ansicht, die Zeichenschaltvorrichtungen 231 um die Zeichenschaltvorrichtung 231 darstellt, die mit dem Zeichen ”ke” in 12A gekennzeichnet ist. Wenn sich die Berührungsposition z. B. auf den Grenzpositionen 231a und 231b der Zeichenschaltvorrichtung 231, die mit ”ke” gekennzeichnet ist, befindet, wird die Tastsinnsteuerung 50, die in 9 beschrieben ist, bei S25 einmal durchgeführt. Hier wird die taktile Gefühlssteuerung 52 (9) der Tastsinnsteuerung 50 durchgeführt, um das Frontpanel 14 gemäß dem Bewegungsparameter zu bewegen, was das weichtaktile Gefühl mit einer gewissen Tiefe überträgt. Genauer gesagt wird der Bewegungsparameter entsprechend dem weichtaktilen Bereich 302 in 5 verwendet. Genauer gesagt wird z. B. der Bewegungsparameter bei Punkt P22 in 5 verwendet, um die Bewegung mit 50 μm in einer Bewegungszeit von 1 ms zu verursachen. Nach S25 wird der Prozessablauf des Flussdiagramms in 11 beendet.
  • Wenn die Berührungsposition nicht die Grenzposition der Zeichenschaltvorrichtung 23 ist (S23: Nein), schreitet der Prozessablauf zu S24 voran. Bei S24 wird bestimmt, ob die Berührungsposition auf der zentralen Position um das Zentrum bzw. die Mitte der Zeichenschaltvorrichtung 23 ist, gemäß der Displaypositionsinformation auf der Zeichenschaltvorrichtung 23, die von der Navigationssteuereinheit 20 erhalten wird (S24). Wenn die Berührungsposition nicht auf der Mittelposition ist (S24: Nein), wird der Prozessablauf im Flussdiagramm von 11 beendet. In diesem Fall wird die Verfolgungsbetätigung bei einer Position anders als der Grenzposition und der Mittelposition der Zeichenschaltvorrichtung 23 durchgeführt. Wenn die Berührungsposition auf der Mittelposition der Zeichenschaltvorrichtung 23 ist (S24: Ja), wird die Tastsinnsteuerung ähnlich dem Fall, in dem die Berührungsposition auf der Grenzposition ist (S25), durchgeführt. 12C ist eine vergrößerte Ansicht, die die Zeichenschaltvorrichtungen 231 um die Zeichenschaltvorrichtung 231, die mit dem Bezugszeichen ”ke” in 12A gekennzeichnet ist, darstellt. Wie in 12C dargestellt, wird zum Beispiel, wenn die Berührungsposition auf der Mittelposition 231c der Zeichenschaltvorrichtung 231 ist, die Tastsinnsteuerung 50, die in 9 beschrieben wird, bei S25 einmal durchgeführt. Hier wird ähnlich zu dem Fall, in dem sich die Berührungsposition auf der Grenzposition befindet (S25), der Bewegungsparameter bezüglich dem weichtaktilen Bereich 302 in 5 angewandt und das Frontpanel 14 gemäß dem Bewegungsparameter bewegt, was das weichtaktile Gefühl mit einer gewissen Tiefe überträgt. Gemäß der vorliegenden Konfiguration wird das weichtaktile Gefühl bei der Verfolgungsbetätigung mit einer gewissen Tiefe auf die Grenzposition und die Mittelposition der Zeichenschaltvorrichtung 23 übertragen. Somit kann bei jeder der Zeichenschaltvorrichtungen 23 ein Überwindungsgefühl (engl: climbing-over feeling) und/oder ein Ziehgefühl vermittelt werden. Somit ist es möglich, die gewünschte Zeichenschaltvorrichtung 23 zu finden. Es ist zu erwähnen, dass das taktile Gefühl auf die Grenzposition der Zeichenschaltvorrichtung 23 oder die Mittelposition der Zeichenschaltvorrichtung 23 übertragen werden kann.
  • Bei S22 schreitet der Prozessablauf zu S26 voran, wenn die Berührungsbetätigung nicht die Verfolgungsbetätigung ist (S22: Nein). In diesem Fall kann davon ausgegangen werden, dass ein Nutzer die Zeichenschaltvorrichtung 23 nach unten drückt. Daher wird die Tastsinnsteuerung durch Ausführen des Prozessablaufs nach S26 durchgeführt, basierend auf der Annahme, dass die Zeichenschaltvorrichtung 23 nach unten gedrückt wird. Genauer gesagt wird bei S26 bestimmt, ob die vorliegende Betätigung ein Niederdrückprozess zum Niederdrücken der Zeichenschaltvorrichtung 23 ist (S26). 13A bis 13C sind erläuternde Ansichten, die den Bestimmungsprozess, ob die vorliegende Betätigung der Niederdrückprozess ist, darstellen. Genauer gesagt weist der Berührungsdetektor 12 gemäß des vorliegenden Beispiels eine Konfiguration auf, um seine Kapazität zu erfassen, und enthält eine Elektrodenschicht 120, die mit einer Anzahl von Elektroden 121 konfiguriert ist, die in einer Matrixstruktur angeordnet sind. Genauer gesagt stellt 13A den Finger F1 zu Beginn eines Niederdrückprozesses dar, 13B stellt den Finger F1 in der Mitte des Niederdrückprozesses dar und 13C stellt den Finger F1 am Ende des Niederdrückprozesses dar.
  • Die Elektrodenschicht 120, die in 13 dargestellt ist, ist durch drei Reihen x1 bis x3 und vier Spalten y1 bis y4 konfiguriert, welche jeweils mit mehreren Elektroden 121 entsprechend verbunden sind. Zudem sendet die Elektrode 121 entsprechend der Berührungsposition, die durch eine der Reihen x1 bis x3 und eine der Spalten y1 bis y4 festgelegt ist, ein Erfassungssignal.
  • Zu Beginn des vorliegenden Niederdrückprozesses ist die Kontaktfläche zwischen dem Finger F1 und der behandelten Oberfläche 141 nicht so groß. Daher reagiert die Elektrode 121 im Beispiel von 13A auf den Finger F1 entsprechend der Spalte y2. Danach wird der Kontaktzustand des Fingers F1 in 13A als Zustand T1 bezeichnet. Danach wird in der Mitte des Niederdrückprozesses, der in 13 dargestellt ist, die Kontaktfläche des Fingers F1 größer. Gemäß dem Beispiel von 13B reagieren die Elektrode 121 auf den Finger F1 entsprechend der Spalte y2 und die Elektrode 121 entsprechend der Reihe x2. Hiernach wird der Kontaktzustand des Fingers F1 in 13B als Zustand T2 bezeichnet. Ferner wird am Ende des Niederdrückprozesses, der in 13C dargestellt ist, die Kontaktfläche des Fingers F1 noch größer. Gemäß dem in 13C dargestellten Beispiel reagieren die Elektrode 121 entsprechend der Spalte y2, die Elektrode 121 entsprechend der Spalte y3 und die Elektrode 121 entsprechend der Reihe x2 auf den Finger F1. Hiernach wird der Kontaktzustand des Fingers F1 in 13C als Zustand T3 bezeichnet. Auf diese Weise wird, wenn der vorliegende Betätigungsprozess der Niederdrückprozess ist, die Kontaktfläche des Fingers F1 graduell größer. In Anbetracht dieser Tatsache wird bei S26 durch Bestimmung, dass die Kontaktfläche des Fingers F1 graduell größer wird bestimmt, dass der vorliegende Betätigungsprozess der Niederdrückprozess ist. Genauer gesagt kann z. B. die Bestimmung des Niederdrückprozesses durch die Bestimmung gemacht werden, dass die Veränderung der Kontaktfläche größer als ein vorbestimmter Schwellenwert wird.
  • Nachfolgend wird das Frontpanel 14 bewegt und die Tastsinnsteuerung wird einmal durchgeführt (S27). Grundsätzlich wird die Tastsinnsteuerung bei S27 parallel zur Bestimmung bei S26 durchgeführt. 14 stellt die Tastsinnsteuerung 50, die bei S27 durchgeführt wird, dar. Genauer gesagt, stellt 14 die Veränderung der Bewegung des Frontpanels 14 entlang der Vertikalachse relativ zur Veränderung der Kontaktfläche des Fingers F1 entlang der Horizontalachse dar. Die Tastsinnsteuerung 50 in 14 ist äquivalent zur Tastsinnsteuerung 50 in 9. Die Tastsinnsteuerung 50 in 14 enthält die erste nicht-taktile Gefühlssteuerung 511, die taktile Gefühlssteuerung 52 und die zweite nicht-taktile Gefühlssteuerung 512. Die Horizontalachse in 14 wird ferner durch die Kontaktzustände T1 bis T3 des Fingers F1 entsprechend den Stufen in 13A bis 13C entsprechend gekennzeichnet. Wie in 14 dargestellt, wird die Tastsinnsteuerung 50 bei S27 gestartet, wenn sich der Kontaktzustand im Zustand T1 befindet. Zuerst wird die erste nicht-taktile Gefühlssteuerung 511 durchgeführt, bis der Zustand in den Zustand T2 übergeht. Danach wird die taktile Gefühlssteuerung 52 um den Zustand T2 herum durchgeführt. In 14 wird die taktile Gefühlssteuerung 52 kurz vor dem Zustand T2 gestartet und die taktile Gefühlssteuerung 52 wird kurz nach dem Zustand T2 beendet. Danach wird die zweite nicht-taktile Gefühlssteuerung 512 durchgeführt, bis der Zustand in den Zustand T3 übergeht. Bei der vorliegenden Konfiguration kann das Tastgefühl bzw. taktile Gefühl im Niederdrückprozess einmal übertragen werden.
  • Wie in 11 dargestellt wird danach bestimmt, ob die gegenwärtige Betätigung ein Pushback-Prozess zum Lösen (Pushback) der Zeichenschaltvorrichtung 23 ist (S28). In diesem Fall wird die Bestimmung durch Anwenden des entgegengesetzten Prozessablaufs zu dem vorstehend beschriebenen Niederdrückprozess gemacht. 15A bis 15C zeigen erläuternde Ansichten, die die Kontaktzustände des Fingers F1 mit jeder Elektrode 121 des Berührungsdetektors 12 im Pushback-Prozess darstellen. Genauer gesagt stellt 15A den Finger F1 zu Beginn des Pushback-Prozesses, 15B den Finger F1 in der Mitte des Pushback-Prozesses und 15C den Finger F1 zum Ende des Pushback-Prozesses dar. 15A bis 15C stellen ferner die Kontaktflächen in jeweiligen Stufen, und die Reihe und die Spalte, zu welcher die Elektrode 121, die auf dem Finger F1 reagiert, gehört, dar. Wie in 15 dargestellt, wird die Kontaktfläche beim Pushback-Prozess graduell kleiner, wenn sich der Zustand vom Beginn des Pushback-Prozesses zum Ende des Pushback-Prozesses verändert. Demnach wird bei S28, gemäß der Bestimmung, dass die Kontaktfläche des Fingers F1 graduell kleiner wird, bestimmt, dass der gegenwärtige Betätigungsprozess der Pushback-Prozess ist. Hiernach wird der Kontaktzustand des Fingers F1 in 15A als Zustand T3 bezeichnet, wobei dieser der gleiche wie der Zustand. T3 in 13T ist. Entsprechend wird der Kontaktzustand des Fingers F1 in 15B als Zustand T2 bezeichnet, und der Kontaktzustand des Fingers F1 in 15C als Zustand T1.
  • Auf diese Weise kann gemäß der Veränderung der Kontaktfläche des Fingers F1 bestimmt werden, ob der vorliegende Zustand der Niederdrückprozess oder der Pushback-Prozess ist. Alternativ kann die Niederdrückkraft bzw. der Druck, der auf das Frontpanel 14 aufgebracht wird, mit einem Drucksensor oder dergleichen erfasst werden, und basierend auf der Veränderung der Niederdrückkraft bestimmt werden, ob der vorliegende Zustand der Niederdrückprozess oder der Pushback-Prozess ist. In diesem Fall kann der Drucksensor oder dergleichen, welche die Niederdrückkraft erfasst, gleich einer Niederdrückkrafterfassungseinheit der vorliegenden Offenbarung sein. Ferner kann in einer Konfiguration, in der der Druckdetektor 12 ein Berührungssensor ist, der konfiguriert ist, eine Kapazität zu erfassen, gemäß der Veränderung einer Kontaktkapazität zwischen dem Finger F1 und der Elektrode bestimmt werden, ob der vorliegende Zustand der Niederdrückprozess oder der Pushback-Prozess ist. In der vorliegenden Konfiguration ermöglicht es die Erfassung der Kontaktfläche des Fingers F1, unter Berücksichtigung, dass die Kontaktfläche des Fingers F1 mit der Kontaktkapazität korreliert, die Kontaktkapazität indirekt zu erfassen.
  • Danach wird das Frontpanel 14 bewegt und die Tastsinnsteuerung wird einmal durchgeführt (S29). Grundsätzlich wird die Tastsinnsteuerung bei S29 parallel zur Bestimmung bei S28 durchgeführt. 16 stellt die Tastsinnsteuerung 50, die bei S29 durchgeführt wird, dar. Genauer gesagt, stellt 16 die Veränderung der Bewegung des Frontpanels 14 entlang der Vertikalachse bezüglich der Veränderung der Kontaktfläche des Fingers F1 entlang der Horizontalachse dar. Bei dem Pushback-Prozess wird die Kontaktfläche graduell kleiner. Demnach wird in 16 die Tastsinnsteuerung 50 entlang der Horizontalachse von der Seite, wo die Kontaktfläche groß ist, zu der Seite, wo die Kontaktfläche klein ist, durchgeführt. Die Tastsinnsteuerung 50 in 16 ist gleich der Tastsinnsteuerung 50 in 9. Die Tastsinnsteuerung 50 in 16 weist die erste nicht-taktile Gefühlssteuerung 511, die taktile Gefühlssteuerung 52 und die zweite nicht-taktile Gefühlssteuerung 512 auf. Die Tastsinnsteuerung 50 von 16 wird von der nicht-taktilen Gefühlssteuerung 512 auf der rechten Seite der Zeichnung durchgeführt. Daher wird in diesem Fall diese nicht-taktile Gefühlssteuerung 512 auf der rechten Seite als die erste nicht-taktile Gefühlssteuerung bezeichnet, und die nicht-taktile Gefühlssteuerung 511 auf der linken Seite als die zweite nicht-taktile Gefühlssteuerung. Die Horizontalachse in 16 wird ferner durch die Zustände T1 bis T3 in den entsprechenden Stufen in 15A bis 15C gekennzeichnet.
  • Wie in 16 dargestellt, wird die Tastsinnsteuerung 50 bei S29 gemäß einem Prozessablauf entgegengesetzt dem der Tastsinnsteuerung (S27) im Niederdrückprozess durchgeführt. Genauer gesagt wird die Tastsinnsteuerung 50 gestartet, wenn der Zustand zum Beginn des Pushback-Prozesses schreitet (Zustand T3). Die erste nicht-taktile Gefühlssteuerung 512 wird solange durchgeführt, bis der Zustand in die Mitte des Pushback-Prozesses (Zustand T2) voranschreitet. Danach wird die taktile Gefühlssteuerung 52 um den Zustand T2 herum durchgeführt. Danach wird die zweite nicht-taktile Gefühlssteuerung 511 solange durchgeführt, bis der Zustand zum Ende des Pushback-Prozesses (Zustand T1) voranschreitet. Gemäß der vorliegenden Konfiguration kann das taktile Gefühl im Pushback-Prozess vermittelt werden. Nach S29 wird der Prozessablauf des Flussdiagramms in 11 beendet.
  • Wie vorstehend beschrieben, wird in der vorliegenden Ausführungsform, zusätzlich zum taktilen Gefühl bei der Verfolgungsbetätigung, während der Niederdrückbetätigung das taktile Gefühl in jedem Niederdrückprozess und dem Pushback-Prozess einmal übertragen. Das heißt, das taktile Gefühl wird während der Niederdrückbetätigung einschließlich dem Niederdrückprozess und dem Pushback-Prozesses insgesamt zweimal übertragen. Somit kann das Betätigungsgefühl (Klick-Gefühl) einer mechanischen Schaltvorrichtung genauer simuliert werden.
  • Die Betätigungseingabevorrichtung bezüglich der vorliegenden Offenbarung ist nicht auf die vorstehend beschriebenen Ausführungsformen beschränkt und kann auf verschiedene Arten und Weisen modifiziert werden. Zum Beispiel wird die vorliegende Offenbarung gemäß der vorstehenden Ausführungsformen bei einem Berührungspanel der Displayvorrichtung angewandt. Dabei ist zu beachten, dass die vorliegende Offenbarung auch bei anderen Berührungssensoren angewandt werden kann, die konfiguriert sind, eine Berührungsbetätigung anzunehmen. Genauer gesagt kann die vorliegende Offenbarung zum Beispiel bei einem Touchpad 81, das in 1 dargestellt ist, angewandt werden. In diesem Fall wird das Touchpad 81 in Reaktion auf die Berührungsbetätigung, die auf dem Touchpad 81 durchgeführt wird, bewegt. Es ist schwierig, eine Berührungsbetätigung bei einer erwünschten Position auf eine Fernbedienungseingabevorrichtung wie zum Beispiel einem Touchpad durchzuführen, im Vergleich zu der Berührungsbetätigung, die direkt auf der Displayvorrichtung durchgeführt wird. Daher ist es noch wirksamer, die vorliegende Offenbarung bei einer Fernbedienungseingabevorrichtung anzuwenden. Zusätzlich kann z. B. ein Berührungssensor im Mittelkonsolenteil 710 in 1 vorgesehen sein. In diesem Fall kann die vorliegende Offenbarung bei dem Berührungssensor des Mittelkonsolenteils 710 angewandt werden.
  • Gemäß den vorstehenden Ausführungsformen wird die Tastsinnsteuerung mit der Bewegung und der Bewegungsgeschwindigkeit des Frontpanels 14 als Parameter durchgeführt. Es ist zu erwähnen, dass die Tastsinnsteuerung auch mit der Bewegung und der Beschleunigung des Frontpanels 14 als Parameter durchgeführt werden kann. In Anbetracht der Tatsache, dass die Beschleunigung gleich der momentanen Veränderung der Bewegungsgeschwindigkeit ist, ist davon auszugehen, dass das taktile Gefühl gemäß der Beschleunigung in der Konfiguration, in der die Beschleunigung als Parameter verwendet wird, anstelle der Bewegungsgeschwindigkeit verwendet werden kann.
  • Gemäß den vorstehenden Ausführungsformen wird das Frontpanel 14 in Horizontalrichtung der behandelten Oberfläche 141 bewegt. Es ist zu erwähnen, dass das Frontpanel 14 auch in einer Richtung, wie beispielsweise der Vertikalrichtung der behandelten Oberfläche 141, die nicht die Horizontalrichtung ist, bewegt werden kann. Selbst bei der Konfiguration, in der das Frontpanel 14 in einer Richtung anders als die Horizontalrichtung der behandelten Oberfläche 141 bewegt wird, kann der hautsensorische Rezeptor stimuliert werden. In diesem Fall kann ein sensorischer Rezeptor wie z. B. die Merkel-Zelle, die nicht das Meissner-Körperchen und/oder das Pacinian-Körperchen ist, auch stimuliert werden, wenn das Frontpanel 14 in einer festgelegten Richtung bewegt wird. Daher kann der Bewegungsparameter in Anbetracht der Kernlinie des sensorischen Rezeptors konfiguriert werden.
  • Gemäß den vorstehend beschriebenen Ausführungsformen kann das Frontpanel 14 der Berührungsbetätigungseinheit der vorliegenden Offenbarung entsprechen. Der Berührungsdetektor 12 kann der Betätigungserfassungseinheit der vorliegenden Offenbarung entsprechend. Der horizontal bewegliche Mechanismusteil 13, welcher die Aktoren 131 und 132 und die Feder 133 enthält, kann einer Betätigungseinheitbewegungseinheit (Bewegungseinheit) der vorliegenden Offenbarung entsprechend. Die Steuereinheit 11 kann der Bewegungssteuereinheit der vorliegenden Offenbarung entsprechend. Die Bewegungsparameterkonfigurationseinheit 16 kann einer Zustandskonfigurationseinheit der vorliegenden Offenbarung entsprechend. Die Displayvorrichtung 21 kann gleich einer Displayeinheit der vorliegenden Offenbarung entsprechend. Der Abschnitt der Steuereinheit 11, der den Prozessablauf bei S23 in 11 durchführt, entspricht einer Grenzpositionsbestimmungseinheit der vorliegenden Offenbarung. Der Abschnitt der Steuereinheit 11, der den Prozessablauf bei S24 in 11 durchführt, entspricht einer Mittelpositionsbestimmungseinheit bzw. Zentralpositionsbestimmungseinheit der vorliegenden Offenbarung. Der Abschnitt der Steuereinheit 11, der den Prozessablauf bei S25 in 11 durchführt, entspricht einer Grenzbewegungssteuereinheit und einer Zentralbewegungssteuereinheit. Der Abschnitt der Steuereinheit 11, der den Prozessablauf bei S26 in 11 durchführt, entspricht der ersten Betätigungsprozessbestimmungseinheit der vorliegenden Offenbarung. Der Abschnitt der Steuereinheit 11, der den Prozessablauf bei S28 in 11 durchführt, entspricht der zweiten Betätigungsprozessbestimmungseinheit der vorliegenden Offenbarung.
  • Wie vorstehend beschrieben, kann die Betätigungseingabevorrichtung enthalten: die Berührungsbetätigungseinheit mit der behandelten Oberfläche, auf welcher die Eingabe durch die Berührungsbetätigung durchgeführt wird; die Betätigungserfassungseinheit, die konfiguriert ist, die Berührungsbetätigung auf der behandelten Oberfläche zu erfassen; die Betätigungseinheitbewegungseinheit (Bewegungseinheit), die konfiguriert ist, die Berührungsbetätigungseinheit zu bewegen; und die Bewegungssteuereinheit, die konfiguriert ist, die Bewegung der Berührungsbetätigungseinheit durch Ansteuern und Steuern der Betätigungseinheitbewegungseinheit zu steuern, wenn die Betätigungserfassungseinheit die Berührungsbetätigung erfasst. In diesem Fall kann die Bewegungssteuereinheit ferner konfiguriert sein, die Bewegung der Berührungsbetätigungseinheit zu steuern, um den Zustand der Bewegung (Bewegungsgröße) und die Bewegungsgeschwindigkeit der Berührungsbetätigungseinheit zur Ermöglichung der Stimulation des hautsensorischen Rezeptors, oder den stimulierbaren Zustand, der als Zustand der Bewegung (Bewegungsgröße) und der Beschleunigung der Berührungsbetätigungseinheit vorbestimmt ist, zu erreichen.
  • Die Erfinder haben herausgefunden, dass der hautsensorische Rezeptor, wie z. B. das Meissner-Körperchen oder das Pacinian-Körperchen in einem Zustand stimuliert werden können, in dem eine Haut wie z. B. die eines Fingers des Nutzers in Kontakt mit einem Objekt ist und wenn der Betrag bzw. der Umfang des Slides bzw. des Ziehens der Haut (Bewegung der Haut in horizontaler Richtung auf dem Objekt) und die Bewegungsgeschwindigkeit oder die Beschleunigung, welche die momentane Veränderung der Bewegungsgeschwindigkeit ist, einen vorbestimmten Zustand erreichen. Ferner haben die Erfinder herausgefunden, dass die Veränderung des Werts der Bewegung (Bewegungsgröße) der Haut und die Veränderung des Werts der Bewegungsgeschwindigkeit oder die Beschleunigung, das Vermitteln eines taktilen Gefühls mit unterschiedlicher Härte ermöglicht.
  • Gemäß der vorliegenden Offenbarung wird zu einem Zeitpunkt der Berührungsbetätigung die Berührungsbetätigungseinheit gemäß dem vorbestimmten stimulierbaren Zustand bewegt, welcher den hautsensorischen Rezeptor stimulieren kann, das heißt, dem Zustand der Bewegung (Bewegungsgröße) und der Bewegungsgeschwindigkeit oder der Beschleunigung der Berührungsbetätigungseinheit, was den hautsensorischen Rezeptor stimulieren kann. Daher kann dem Nutzer ein Betätigungsgefühl vermittelt werden. Außerdem kann dem Nutzer das taktile Gefühl der Härte gemäß der Bewegung (Bewegungsgröße) und der Bewegungsgeschwindigkeit oder der Beschleunigung der Berührungsbetätigungseinheit vermittelt werden. Daher kann das taktile Gefühl durch Steuern der Bewegung (Bewegungsgröße) und der Bewegungsgeschwindigkeit oder Beschleunigung der Berührungsbetätigungseinheit mit einer gewünschten Härte vermittelt werden.
  • Die Betätigungseinheitbewegungseinheit kann ferner konfiguriert sein, die Berührungsbetätigungseinheit in Horizontalrichtung der behandelten Oberfläche zu bewegen.
  • Bezüglich der vorliegenden Konfiguration bewegt die Berührungsbetätigungseinheit zum Zeitpunkt der Berührungsbetätigung die behandelte Oberfläche in Horizontalrichtung. Daher kann die Haut des Nutzers, die mit der behandelten Oberfläche in Kontakt steht, in die gleiche Richtung (Horizontalrichtung) bezüglich der behandelten Oberfläche bewegt werden. Daher kann der sensorische Rezeptor der Haut des Nutzers effektiv stimuliert werden.
  • Der stimulierbare Zustand kann sein, dass die Bewegung (Bewegungsgröße) der Berührungsbetätigungseinheit größer oder gleich 10 μm ist; und dass die Bewegungsgeschwindigkeit der Berührungsbetätigungseinheit größer oder gleich 0,025 μm/μs ist. Die Erfinder haben anhand eines subjektiven Evaluationsergebnisses herausgefunden, dass die Bewegung der Berührungsbetätigungseinheit im numerischen Wertebereich des stimulierbaren Zustands eine Stimulation des sensorischen Rezeptors ermöglicht. In Anbetracht des erhaltenen Wissens wird die Berührungsbetätigungseinheit durch die Bewegungsgröße und die Bewegungsgeschwindigkeit gemäß des nummerischen Wertebereichs bewegt, wodurch das Betätigungsgefühl während der Berührungsbetätigung übertragen wird.
  • Die Betätigungseingabevorrichtung kann ferner die Zustandskonfigurationseinheit enthalten, die konfiguriert ist, eine Mehrzahl verschiedener stimulierbarer Zustände einzustellen. In diesem Fall kann die Bewegungssteuereinheit ferner konfiguriert sein, die Bewegungssteuerung der Berührungsbetätigungseinheit gemäß dem stimulierbaren Zustand, der durch die Zustandskonfigurationseinheit eingestellt wird, durchzuführen. Die vorliegende Konfiguration ermöglicht das Einstellen verschiedener (unterschiedlicher) stimulierbarer Zustände. Daher kann das taktile Gefühl gemäß unterschiedlicher Härten übertragen werden.
  • Die Bewegungssteuereinheit kann ferner konfiguriert sein, die Tastsinnsteuerung durchzuführen, welche vorgesehen ist, um die Berührungsbetätigungseinheit bei einem konstanten stimulierbaren Zustand einmal oder öfters zu bewegen. Gemäß der vorliegenden Konfiguration ist der konstante stimulierbare Zustand während der Tastsinnsteuerung einmal vorgesehen. Daher kann das konstante taktile Gefühl während der Tastsinnsteuerung einmal (eine Anwendung) vermittelt werden. Die Bewegungssteuereinheit kann die Tastsinnsteuerung ein- oder mehrmals anwenden. Wenn die Tastsinnsteuerung einmal angewendet bzw. durchgeführt wird, kann das taktile Gefühl, das konstant ist, einmal vermittelt werden. Daher kann das taktile Gefühl nahe am Betätigungsgefühl (Klick-Gefühl) einer Schaltvorrichtung übertragen werden. Alternativ ist es möglich, wenn die Tastsinnsteuerung mehrere Male durchgeführt wird, die wiederholten taktilen Gefühle in kombinierter Form zu vermitteln, beispielsweise in Form einer Vibration.
  • Die Betätigungseinheitbewegungseinheit kann ferner konfiguriert sein, die Bewegungsrichtung der Berührungsbetätigungseinheit zu invertieren. In diesem Fall kann definiert sein, dass die taktile Gefühlssteuerung die Bewegungssteuerung der Berührungsbetätigungseinheit ist, bei welcher den stimulierbare Zustand erreicht wird, bzw. dass die nicht-taktile Gefühlssteuerung die Bewegungssteuerung der Berührungsbetätigungseinheit ist, bei welcher der stimulierbaren Zustand nicht erreicht wird. In diesem Fall kann die Tastsinnsteuerung einmal die Kombination aus der einmaligen taktilen Gefühlssteuerung, wobei der stimulierbare Zustand konstant ist, und der einmaligen oder mehrfachen nicht-taktilen Gefühlssteuerung, wobei die nicht-taktile Gefühlssteuerung bezüglich der Bewegungsrichtung der Berührungsbetätigungseinheit invertiert ist, wenn die taktile Gefühlssteuerung durchgeführt wird, sein.
  • Gemäß der vorliegenden Konfiguration wird die taktile Gefühlssteuerung mit dem konstanten stimulierbaren Zustand einmal durchgeführt, wenn die Tastsinnsteuerung einmal durchgeführt wird. Somit kann das konstante, taktile Gefühl einmal vermittelt werden. Zudem enthält die Tastsinnsteuerung bei einem Mal (ein einziges Mal) bzw. bei einem Durchlauf eine oder mehrere nicht-taktile Gefühlssteuerungen, die bezüglich der Bewegungsrichtung der Berührungsbetätigungseinheit zum Zeitpunkt der Betätigung bzw. des Betriebs der taktilen Gefühlssteuerung invertiert werden. Daher kann die Bewegung der Berührungsbetätigungseinheit während der gesamten Tastsinnsteuerung gehemmt werden. Daher kann die Bewegung während der taktilen Gefühlssteuerung mit dem stimulierbaren Zustand in einem breiten Bereich genommen werden. Dadurch kann ein noch stärkeres taktiles Gefühl vermittelt werden. Ferner ist die nicht-taktile Gefühlssteuerung vorgesehen, die Berührungsbetätigungseinheit gemäß dem Zustand zu bewegen, in welchem der stimulierbare Zustand nicht erreicht wird. Daher ist es möglich, nicht zu verursachen, dass der Nutzer das taktile Gefühl während des Betriebs bzw. der Betätigung der nicht-taktilen Gefühlssteuerung fühlt. Dadurch kann ein ungutes Gefühl aufgrund einer Übertragung eines unnötigen taktilen Gefühls verhindert werden.
  • Die Tastsinnsteuerung kann die Steuerung sein, in welche die Bewegung der Berührungsbetätigungseinheit zum Zeitpunkt der taktilen Gefühlssteuerung gleich der Bewegung der Berührungsbetätigungseinheit zum Zeitpunkt der nicht-taktilen Gefühlssteuerung ist. Gemäß dieser Konfiguration ist es möglich, die Positionsveränderungen der Berührungsbetätigungseinheit vor und nach dem Durchführen der Tastsinnsteuerung zu reduzieren.
  • Die Betätigungseinheitbewegungseinheit kann ferner konfiguriert sein, die Berührungsbetätigungseinheit in die erste und die zweite Richtung, welche zueinander entgegengesetzt sind, zu bewegen. In diesem Fall kann definiert sein, dass die Ursprungsposition die Position ist, bei welcher die Berührungsbetätigungseinheit angeordnet ist, wenn die Tastsinnsteuerung gestartet wird, wobei der erste Bewegungsbereich der Bewegungsbereich der Berührungsbetätigungseinheit ist, bei dem sich die Berührungsbetätigungseinheit der ersten Richtung bezüglich der Ursprungsposition als Referenz annähert, der zweite Bewegungsbereich der Bewegungsbereich der Berührungsbetätigungseinheit ist, bei dem sich die Berührungsbetätigungseinheit der zweiten Richtung bezüglich der Ursprungsposition als Referenz annähert. In diesem Fall kann die Tastsinnsteuerung die Steuerung sein, um: zuerst die nicht-taktile Gefühlssteuerung einmal in Richtung des ersten Bewegungsbereichs durchzuführen; danach die Bewegungsrichtung der Berührungsbetätigungseinheit zu invertieren und die taktile Gefühlssteuerung einmal von der Seite des ersten Bewegungsbereichs in Richtung des zweiten Bewegungsbereichs durchzuführen; und anschließend die Bewegungsrichtung der Berührungsbetätigungseinheit zu invertieren und die nicht-taktile Gefühlssteuerung einmal von der Seite des zweiten Bewegungsbereichs in Richtung der Ursprungsposition durchzuführen.
  • Gemäß der vorliegenden Konfiguration wird die taktile Gefühlssteuerung einmal von der Seite des ersten Bewegungsbereichs in Richtung der Seite des zweiten Bewegungsbereichs durchgeführt und passiert dabei die Ursprungsposition. Daher kann die Verschiebung der Berührungsbetätigungseinheit bezüglich der Ursprungsposition reduziert werden, im Vergleich zu einer Konfiguration, bei der die taktile Gefühlssteuerung nur auf einer Seite durchgeführt wird. Außerdem wird die nicht-taktile Gefühlssteuerung zu Beginn der taktilen Steuerung und zum Ende der taktilen Steuerung durchgeführt. Daher kann die vorstehend beschriebene taktile Gefühlssteuerung durchgeführt werden, um die Ursprungsposition zu passieren. Außerdem kann die Position der Berührungsbetätigungseinheit zum Ende der Tastsinnsteuerung in die Ursprungsposition zurückgeführt werden.
  • Die Betätigungseinheitbewegungseinheit kann ferner konfiguriert sein, die Berührungsbetätigungseinheit in die erste und die zweite Richtung, welche zueinander entgegengesetzt sind, zu bewegen. In diesem Fall kann definiert sein, dass die Ursprungsposition die Position ist, bei welcher die Berührungsbetätigungseinheit angeordnet ist, wenn die Tastsinnsteuerung gestartet wird, der erste Bewegungsbereich der Bewegungsbereich der Berührungsbetätigungseinheit ist, bei dem die Berührungsbetätigungseinheit sich der ersten Richtung bezüglich der Ursprungsposition als Referenz annähert, und der zweite Bewegungsbereich der Bewegungsbereich der Berührungsbetätigungseinheit ist, bei dem sich die Berührungsbetätigungseinheit der zweiten Richtung bezüglich der Ursprungsposition als Referenz annähert. In diesem Fall kann die Tastsinnsteuerung die Steuerung sein, um: zuerst die taktile Gefühlssteuerung einmal in Richtung des ersten Bewegungsbereichs und oder des zweiten Bewegungsbereichs durchzuführen; und anschließend die Bewegungsrichtung der Berührungsbetätigungseinheit zu invertieren und die nicht-taktile Gefühlssteuerung einmal in Richtung der Initialposition durchzuführen. Alternativ kann die Tastsinnsteuerung die Steuerung sein, um: zuerst die nicht-taktile Gefühlssteuerung einmal in Richtung des ersten Bewegungsbereichs oder des zweiten Bewegungsbereichs durchzuführen; und anschließend die Bewegungsrichtung der Berührungsbetätigungseinheit zu invertieren und die taktile Gefühlssteuerung einmal in Richtung der Ursprungsposition durchzuführen.
  • Gemäß der vorliegenden Konfiguration ist die Tastsinnsteuerung nur auf der Seite des ersten oder des zweiten Bewegungsbereichs implementiert bzw. wird auf dieser durchgeführt. Genauer gesagt wird die taktile Gefühlssteuerung einmal auf der Seite eines Bereichs durchgeführt und die nicht-taktile Gefühlssteuerung einmal auf der Seite des anderen Bereichs durchgeführt. Daher reicht es aus, die nicht-taktile Gefühlssteuerung nur einmal durchzuführen. Somit kann die Konfiguration der Steuerung im Vergleich zu einem Fall vereinfacht werden, in dem die Tastsinnsteuerung bei jedem Bewegungsbereich, das heißt, im ersten und im zweiten Bewegungsbereich, durchgeführt wird. Es ist zu erwähnen, dass die Reihenfolge der Durchführung der taktilen Gefühlssteuerung und der nicht-taktilen Gefühlssteuerung beliebig sein kann. Genauer gesagt kann die nicht-taktile Gefühlssteuerung vor der taktilen Gefühlssteuerung durchgeführt werden und anders herum, das heißt, die taktile Gefühlssteuerung kann vor der nicht-taktilen Gefühlssteuerung durchgeführt werden.
  • Die Bewegungssteuerung der Berührungsbetätigungseinheit, welche den stimulierbaren Zustand erreicht, kann die taktile Gefühlssteuerung sein. In diesem Fall kann die Tastsinnsteuerung die Steuerung sein, um die taktile Gefühlssteuerung nur einmal durchzuführen, wobei der stimulierbare Zustand konstant ist.
  • Selbst im vorliegenden Fall, in dem nur die taktile Gefühlssteuerung mit dem konstanten stimulierbaren Zustand einmal auf diese Weise durchgeführt wird, kann das konstante taktile Gefühl in der einmaligen Tastsinnsteuerung einmal vermittelt werden. In diesem Fall ist es nicht erforderlich, die nicht-taktile Gefühlssteuerung durchzuführen. Daher kann die Steuerung vereinfacht werden. In diesem Fall kann die Berührungsbetätigungseinheit am Ende der Tastsinnsteuerung nicht in die Ursprungsposition zurückkehren. Daher kann die Bewegungsrichtung der Berührungsbetätigungseinheit in der vorliegenden Tastsinnsteuerung bezüglich der vorherigen Tastsinnsteuerung invertiert werden.
  • Das heißt, die Betätigungseinheitbewegungseinheit kann ferner konfiguriert sein, die Bewegungsrichtung der Berührungsbetätigungseinheit zu invertieren. In diesem Fall kann die Bewegungssteuereinheit ferner konfiguriert sein, die Bewegungsrichtung der Bewegungsbetätigungseinheit in der vorherigen Tastsinnsteuerungsbetätigung zu invertieren, und die vorliegende Tastsinnsteuerung durchzuführen. Mit dieser Konfiguration ist es möglich, zu beschränken, dass die Berührungsbetätigungseinheit stark von der vorherigen Ursprungsposition abweicht bzw. davon weg bewegt wird.
  • Die behandelte Oberfläche kann mit dem Screen der Displayeinheit assoziiert sein, die konfiguriert ist, das Bild der Schaltvorrichtung zum Durchführen der Eingabe durch die Niederdrückbetätigung durchzuführen. In diesem Fall kann die Betätigungserfassungseinheit ferner konfiguriert sein, die Berührungsposition auf der behandelten Oberfläche zu erfassen. Die Betätigungseingabevorrichtung kann ferner die Bremspositionsbestimmungseinheit enthalten, die konfiguriert ist, zu bestimmen, ob die Berührungsposition, die mit der Betätigungserfassungseinheit erfasst wird, die Grenzposition entsprechend der Grenze des Bildes der Schaltvorrichtung ist. Die Bewegungssteuereinheit kann die Grenzbewegungssteuereinheit enthalten, die konfiguriert ist, die Tastsinnsteuerung durchzuführen, wenn die Grenzpositionsbestimmungseinheit bestimmt, dass die Berührungsposition auf der Grenzposition ist, zu einer Zeit, wenn der Verfolgungsbetrieb bzw. die Verfolgungsbetätigung, welche die Betätigung ist, bei welcher die Berührungsposition mit der Betätigungserfassungseinheit erfasst wird, sich kontinuierlich verändert.
  • Gemäß der vorliegenden Konfiguration kann das taktile Gefühl an der Grenzposition der Schaltvorrichtung zu einer Zeit der Verfolgungsbetätigung übertragen werden. Daher kann das Überwindungsgefühl bzw. Übersteigungsgefühl der Schaltvorrichtung, das heißt, das Ziehgefühl in der Schaltvorrichtung, übertragen werden. Daher kann die Position der gewünschten Schaltvorrichtung zum Zeitpunkt der Verfolgungsbetätigung einfach gefunden werden.
  • Die Betätigungseingabevorrichtung kann ferner die Mittelpositionsbestimmungseinheit enthalten, die konfiguriert ist, zu bestimmen, ob die Berührungsposition, die erfasst wird, während die Betätigungserfassungseinheit in der zentralen Position entsprechend dem Zentrum bzw. der Mitte des Bildes der Schaltvorrichtung ist. In diesem Fall enthält die Bewegungssteuereinheit anstelle der Grenzbewegungssteuereinheit oder zusätzlich zur Grenzbewegungssteuereinheit die Zentralbewegungssteuereinheit, die konfiguriert ist, die Tastsinnsteuerung durchzuführen, wenn die Zentralpositionsbestimmungseinheit bestimmt, dass die Berührungsposition die Zentralposition bzw. die Mittelposition zum Zeitpunkt der Verfolgungsbetätigung ist. Wie in der vorliegenden Konfiguration beispielhaft dargestellt, kann das taktile Gefühl an der zentralen Position bzw. Mittelposition der Schaltvorrichtung zum Zeitpunkt der Verfolgungsbetätigung vermittelt werden. Auf diese Weise kann auch das Überwindungsgefühl der Schaltvorrichtung, das heißt, auch das Ziehgefühl in die Schaltvorrichtung vermittelt werden.
  • Die behandelte Oberfläche kann mit dem Screen der Displayeinheit, die konfiguriert ist, das Bild der Schaltvorrichtung anzuzeigen, zum Durchführen der Eingabe durch die Niederdrückbetätigung verbunden sein. In diesem Fall kann die Betätigungseingabevorrichtung ferner enthalten: die erste Betätigungsprozessbestimmungseinheit, die konfiguriert ist, zu bestimmen, ob die Berührungsbetätigung auf der behandelten Oberfläche die Betätigung im Niederdrückprozess bezüglich der Schaltvorrichtung ist; und die zweite Betätigungsprozessbestimmungseinheit, die konfiguriert ist, nach der Betätigung im Niederdrückprozess zu bestimmen, ob die Berührungsbetätigung auf der behandelten Oberfläche die Betätigung im Pushback-Prozess bezüglich der Schaltvorrichtung ist. In diesem Fall kann die Bewegungssteuereinheit ferner konfiguriert sein, die Tastsinnsteuerung einmal durchzuführen, wenn die erste Betätigungsprozessbestimmungseinheit bestimmt, dass die Berührungsbetätigung die Betätigung im Niederdrückprozess ist; und die Tastsinnsteuerung einmal durchzuführen, wenn die zweite Betätigungsprozessbestimmungseinheit bestimmt, dass die Berührungsbetätigung die Betätigung im Pushback-Prozess ist.
  • Gemäß der vorliegenden Konfiguration wird das taktile Gefühl im Niederdrückprozess und das taktile Gefühl im Pushback-Prozess in Reaktion auf die Betätigung bzw. Berührung des Bilds der Schaltvorrichtung, das auf der Displayeinheit angezeigt wird, durch die behandelte Oberfläche der Berührungsbetätigungseinheit, einmal vermittelt. Daher kann das Betätigungsgefühl (Klick-Gefühl) zum Zeitpunkt der Schaltvorrichtungsbetätigung genauer vermittelt werden.
  • Die Betätigungserfassungseinheit kann ferner konfiguriert sein, die Berührungsposition auf der behandelten Oberfläche zu erfassen. In diesem Fall können die erste Betätigungsprozessbestimmungseinheit und die zweite Betätigungsprozessbestimmungseinheit ferner konfiguriert sein, gemäß der Veränderung der Kontaktfläche der behandelten Oberfläche, die durch die Berührungsposition, die durch die Betätigungserfassungseinheit erfasst wird, festgelegt wird, zu bestimmen, ob die Berührungsbetätigung die Betätigung im Niederdrückprozess oder die Betätigung im Pushback-Prozess ist.
  • Die Kontaktfläche zwischen dem Finger und der behandelten Oberfläche wird in dem Prozess, in welchem die Schaltvorrichtung niedergedrückt wird, graduell größer. Demhingegen wird die Kontaktfläche zwischen dem Finger und der behandelten Oberfläche in dem Prozess, in welchem die Schaltvorrichtung gelöst wird (Pushback), graduell kleiner. Das heißt, eine Veränderung tritt bezüglich der Kontaktfläche bei der Betätigung des Niederdrückprozesses der Schaltvorrichtung auf, sowie bei der Betätigung des Pushback-Prozesses der Schaltvorrichtung. Gemäß des vorliegenden Beispiels wird gemäß der Veränderung der Kontaktfläche bestimmt, ob die Berührungsbetätigung die Betätigung im Niederdrückprozess oder die Betätigung im Pushback-Prozess ist. Somit kann eine korrekte Bestimmung gemacht werden.
  • Die Betätigungserfassungseinheit kann ferner konfiguriert sein, die Kapazität, die zwischen der Elektrode, die auf der behandelten Oberflächenseite vorliegt, und einem Finger eines Nutzers verursacht wird, zu erfassen, wodurch die Berührungsbetätigung auf der behandelten Oberfläche erfasst werden kann. In diesem Fall können die erste Betätigungsprozessbestimmungseinheit und die zweite Betätigungsprozessbestimmungseinheit ferner konfiguriert sein, gemäß der Veränderung der Kapazität, die durch die Betätigungserfassungseinheit erfasst wird, zu bestimmen, ob die Berührungsbetätigung die Betätigung im Niederdrückprozess oder die Betätigung im Pushback-Prozess ist.
  • Gemäß der vorliegenden Konfiguration kann die Betätigungserfassungseinheit ein kapazitiver Berührungssensor sein. In solch einem kapazitiven Berührungssensor steigt mit der Vergrößerung der Kontaktfläche zwischen dem Finger und der behandelten Oberfläche während des Niederdrückprozesses der Schaltvorrichtung auch die Kapazität im Kontaktbereich an. Demhingegen fällt die Kapazität bei einer Verkleinerung der Kontaktfläche zwischen dem Finger und der behandelten Oberfläche im Pushback-Prozess der Schaltvorrichtung im Kontaktbereich bzw. der Kontaktfläche ab. Daher kann gemäß der Kapazitätsveränderung bestimmt werden, ob die Berührungsbetätigung die Betätigung im Niederdrückprozess oder die Betätigung im Pushback-Prozess ist.
  • Die Betätigungseingabevorrichtung kann ferner enthalten: die Niederdrückkrafterfassungseinheit, die konfiguriert ist, die Niederdrückkraft bzw. den Druck zu einer Zeit der Berührungsbetätigung auf der behandelten Oberfläche zu erfassen. In diesem Fall können die erste Betätigungsprozessbestimmungseinheit und die zweite Betätigungsprozessbestimmungseinheit ferner konfiguriert sein, um gemäß der Druckveränderung bzw. der Veränderung der Niederdrückkraft, die durch die Niederdrückkrafterfassungseinheit erfasst wird, zu bestimmen, ob die Berührungsbetätigung die Betätigung im Niederdrückprozess oder die Betätigung im Pushback-Prozess ist.
  • In dem Prozess, in welchem die Schaltvorrichtung niedergedrückt wird, tendiert der Nutzer dazu, die Schaltvorrichtung niederzudrücken, und daher kann davon ausgegangen werden, dass die Niederdrückkraft, die auf die behandelte Oberfläche aufgebracht wird, ansteigt. Demhingegen kann im Prozess, in welchem die Schaltvorrichtung gelöst wird (Pushback), davon ausgegangen werden, dass die Niederdrückkraft, die auf die behandelte Oberfläche aufgebracht wird, abnimmt. Demnach kann gemäß der Niederdrückkraftveränderung auf der behandelten Oberfläche bestimmt werden, ob die Berührungsbetätigung die Betätigung im Niederdrückprozess oder die Betätigung im Pushback-Prozess ist.
  • Die vorstehenden Prozessabläufe, wie z. B. die Berechnungen und Bestimmungen, sind nicht durch die Ausführungen durch die Steuereinheit 11 beschränkt. Die Steuereinheit kann verschieden ausgestaltet sein, wobei die Steuereinheit 11 nur beispielhaft dargestellt ist.
  • Die vorstehenden Prozessabläufe, wie beispielsweise die Berechnungen und Bestimmungen, können durch eine beliebige Software, elektrische Schaltungen, eine mechanische Vorrichtung und dergleichen durchgeführt werden. Die Software kann in einem Speichermedium gespeichert werden und durch eine Übermittlungsvorrichtung, wie eine Netzwerkvorrichtung, übertragen werden. Die elektrische Schaltung kann ein integrierter Kreis bzw. eine integrierte Schaltung sein, oder ein Schaltkreis wie eine Hardware-Logik, die elektrisch bzw. durch elektronische Elemente oder dergleichen konfiguriert ist. Die Elemente, die die vollständigen Prozessabläufe ermöglichen, können verschiedene Elemente sein und teilweise oder vollständig ineinander integriert sein.
  • Es ist darauf hinzuweisen, dass während die Prozessabläufe gemäß der Ausführungsformen der vorliegenden Offenbarung mit festgelegten Sequenzen bzw. Schritten beschrieben worden sind, auch weitere alternative Ausführungsformen einschließlich verschiedener anderer Sequenzen dieser Schritte und/oder zusätzlicher Schritte, die vorliegend nicht offenbart sind, in diesen Schritten der vorliegenden Offenbarung enthalten sind.
  • Während die vorliegende Offenbarung bezüglich verschiedener Ausführungsformen beschrieben worden ist, ist zu verstehen, dass die Offenbarung nicht auf die bevorzugten Ausführungsformen und Darstellungen beschränkt ist. Die vorliegende Offenbarung soll verschiedene Modifikationen und äquivalente Anordnungen abdecken. Zudem sind auch andere Kombinationen und Konfigurationen einschließlich mehrerer, weniger oder nur eines einzelnen Elements im Umfang und Geiste der vorliegenden Offenbarung enthalten, obwohl nur gewisse verschiedene Ausführungsformen und Konfigurationen bevorzugt beschrieben worden sind.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2010/0156814 A1 [0003, 0003, 0006]
    • JP 2010-152889 A [0003]
    • JP 2003-58321 A [0004, 0004, 0004, 0006]
    • JP 2004-58695 A [0005, 0006]

Claims (20)

  1. Betätigungseingabevorrichtung aufweisend: eine Berührungsbetätigungseinheit (14) mit einer behandelten Oberfläche (141), die konfiguriert ist, eine Berührungsbetätigung zu akzeptieren; eine Betätigungserfassungseinheit (12), die konfiguriert ist, eine Berührungsbetätigung auf der behandelten Oberfläche (141) zu erfassen; eine Bewegungseinheit (13), die konfiguriert ist, die Berührungsbetätigungseinheit (14) zu bewegen; und eine Bewegungssteuereinheit (11), die konfiguriert ist, die Bewegungseinheit (13) anzusteuern, um eine Bewegung der Berührungsbetätigungseinheit (14) zu steuern, wenn die Betätigungserfassungseinheit (12) eine Berührungsbetätigung erfasst, um einen vorbestimmten stimulierbaren Zustand zu erreichen, der eine Stimulation eines hautsensorischen Rezeptors ermöglicht, wobei der stimulierbare Zustand ist: ein Zustand einer Bewegungsgröße der Berührungsbetätigungseinheit (14) und einer Bewegungsgeschwindigkeit der Berührungsbetätigungseinheit (14); oder ein Zustand der Bewegungsgröße der Berührungsbetätigungseinheit (14) und einer Beschleunigung der Berührungsbetätigungseinheit (14).
  2. Betätigungseingabevorrichtung nach Anspruch 1, wobei die Bewegungseinheit (13) ferner konfiguriert ist, die Berührungsbetätigungseinheit (14) in Horizontalrichtung der behandelten Oberfläche (141) zu bewegen.
  3. Betätigungseingabevorrichtung nach Anspruch 1 oder 2, wobei der stimulierbare Zustand erreicht ist, wenn: die Bewegungsgröße der Berührungsbetätigungseinheit (14) größer oder gleich 10 μm ist; und die Bewegungsgeschwindigkeit der Berührungsbetätigungseinheit (14) größer oder gleich 0,025 μm/μs ist.
  4. Betätigungseingabevorrichtung nach einem der Ansprüche 1 bis 3, ferner aufweisend: eine Zustandskonfigurationseinheit (16), die konfiguriert ist, einen von einer Mehrzahl von verschiedenen stimulierbaren Zuständen einzustellen, wobei die Bewegungssteuereinheit (11) ferner konfiguriert ist, eine Bewegung der Berührungsbetätigungseinheit (14) zu steuern, wobei der stimulierbare Zustand durch die Zustandskonfigurationseinheit (16) eingestellt ist.
  5. Betätigungseingabevorrichtung nach einem der Ansprüche 1 bis 4, wobei die Bewegungssteuereinheit (11) ferner konfiguriert ist, eine Tastsinnsteuerung (S13) durchzuführen, welche vorgesehen ist, um die Berührungsbetätigungseinheit (14) einmal oder mehrere Male zu bewegen, während der stimulierbare Zustand konstant ist.
  6. Betätigungseingabevorrichtung nach Anspruch 5, wobei die Bewegungseinheit (13) ferner konfiguriert ist: eine Bewegungsrichtung der Berührungsbetätigungseinheit (14) zu invertieren; eine taktile Gefühlssteuerung (52) der Berührungsbetätigungseinheit (14) durchzuführen, um den stimulierbaren Zustand zu erreichen; und eine nicht-taktile Gefühlssteuerung (51) der Berührungsbetätigungseinheit (14) durchzuführen, um den stimulierbaren Zustand nicht zu erreichen, und die Tastsinnsteuerung (S13) zu einem Zeitpunkt eine Kombination aus einer einmaligen taktilen Gefühlssteuerung (52), während der stimulierbare Zustand konstant ist; und einer einmaligen oder mehrmaligen nicht-taktilen Gefühlssteuerung (51) in eine Bewegungsrichtung, die bezüglich der Bewegungsrichtung der Berührungsbetätigungseinheit (14) der taktilen Gefühlssteuerung (52) invertiert ist aufweist.
  7. Betätigungseingabevorrichtung nach Anspruch 6, wobei die Bewegungssteuereinheit (11) ferner konfiguriert ist, die Tastsinnsteuerung (S13) derart durchzuführen, dass eine Bewegungsgröße der Berührungsbetätigungseinheit (14) während der taktilen Gefühlssteuerung (52) gleich der Bewegungsgröße der Berührungsbetätigungseinheit (14) während der nicht-taktilen Gefühlssteuerung (51) ist.
  8. Betätigungseingabevorrichtung nach Anspruch 6 oder 7, wobei die Bewegungseinheit (13) ferner konfiguriert ist, die Berührungsbetätigungseinheit (14) in einer ersten und einer zweiten Richtung, welche zueinander entgegengesetzt sind, zu bewegen, die Berührungsbetätigungseinheit (14) in einer Ursprungsposition angeordnet ist, wenn die Tastsinnsteuerung (S13) gestartet wird, die Berührungsbetätigungseinheit (14) sich in einem ersten Bewegungsbereich (61) befindet, wenn sie sich in die erste Richtung bezüglich der Ursprungsposition als Referenz nähert, die Berührungsbetätigungseinheit (14) sich in einem zweiten Bewegungsbereich (62) befindet, wenn sie sich in die zweite Richtung bezüglich der Ursprungsposition als Referenz nähert, und die Bewegungseinheit (11) ferner konfiguriert ist, die Tastsinnsteuerung (S13) durchzuführen, wobei: zuerst die nicht-taktile Gefühlssteuerung (51) einmal in Richtung des ersten Bewegungsbereichs (61) durchgeführt wird; danach die Bewegungsrichtung der Berührungsbetätigungseinheit (14) zu invertieren und die taktile Gefühlssteuerung (52) einmal von dem ersten Bewegungsbereich (61) in Richtung des zweiten Bewegungsbereichs (62) durchgeführt wird; und anschließend die Bewegungsrichtung der Berührungsbetätigungseinheit (14) zu invertieren und die nicht-taktile Gefühlssteuerung (51) einmal von dem zweiten Bewegungsbereich (62) in Richtung der Ursprungsposition durchgeführt wird.
  9. Betätigungseingabevorrichtung nach Anspruch 6 oder 7, wobei die Bewegungseinheit (13) ferner konfiguriert ist, die Berührungsbetätigungseinheit (14) in einer ersten und einer zweiten Richtung, welche zueinander entgegengesetzt sind, zu bewegen, die Berührungsbetätigungseinheit (14) in einer Ursprungsposition angeordnet ist, wenn die Tastsinnsteuerung (S13) gestartet wird, die Berührungsbetätigungseinheit (14) sich in einem ersten Bewegungsbereich (61) befindet, wenn sie sich in die erste Richtung bezüglich der Ursprungsposition als Referenz bewegt, die Berührungsbetätigungseinheit (14) sich in einem zweiten Bewegungsbereich (62) befindet, wenn sie sich in die zweite Richtung bezüglich der Ursprungsposition als Referenz bewegt, die Bewegungssteuereinheit (11) ferner konfiguriert ist, die Tastsinnsteuerung (S13) durchzuführen, wobei: zuerst die taktile Gefühlssteuerung (52) einmal in Richtung des ersten Bewegungsbereichs (61) oder des zweiten Bewegungsbereichs (62) zu durchgeführt wird, und danach die Bewegungsrichtung der Berührungsbetätigungseinheit (14) zu invertiert wird und die nicht-taktile Gefühlssteuerung (51) einmal in Richtung der Ursprungsposition durchgeführt wird; oder zuerst die nicht-taktile Gefühlssteuerung (51) einmal in Richtung des ersten Bewegungsbereichs (61) oder des zweiten Bewegungsbereichs (62) durchgeführt wird, und danach die Bewegungsrichtung der Berührungsbetätigungseinheit (14) zu invertiert wird und die taktile Gefühlssteuerung (52) einmal in Richtung der Ursprungsposition durchgeführt wird.
  10. Betätigungseingabevorrichtung nach Anspruch 5, wobei die Bewegungssteuereinheit (11) ferner konfiguriert ist, die taktile Gefühlssteuerung (52) der Berührungsbetätigungseinheit (14) als Bewegungssteuerung durchzuführen, bei welcher der stimulierbare Zustand erreicht wird, und die Bewegungssteuereinheit (11) ferner konfiguriert ist, die Tastsinnsteuerung (S13) zu einem Zeitpunkt die taktile Gefühlssteuerung (52) lediglich einmal bei konstanten stimulierbaren Zustand durchzuführen.
  11. Betätigungseingabevorrichtung nach Anspruch 10, wobei die Bewegungseinheit (13) konfiguriert ist, die Bewegungsrichtung der Berührungsbetätigungseinheit (14) zu invertieren, und die Bewegungssteuereinheit (11) ferner konfiguriert ist: die Bewegungsrichtung der Berührungsbetätigungseinheit (14) bei einer vorherigen Tastsinnsteuerung (S13) zu invertieren; und eine augenblickliche Tastsinnsteuerung (S13) durchzuführen.
  12. Betätigungseingabevorrichtung nach einem der Ansprüche 5 bis 11, wobei die behandelte Oberfläche (141) mit einem Bildschirm einer Displayeinheit (21), die konfiguriert ist, ein Bild einer Schaltvorrichtung (23) zum Akzeptieren einer Niederdrückbetätigung anzuzeigen, assoziiert ist, die Betätigungserfassungseinheit (12) ferner konfiguriert ist, eine Berührungsposition auf der behandelten Oberfläche (141) zu erfassen, die Bewegungssteuereinheit (11) eine Grenzpositionsbestimmungseinheit (11, S23) enthält, die konfiguriert ist, zu bestimmen, ob die Berührungsposition, die mit der Betätigungserfassungseinheit (12) erfasst wird, eine Grenzposition entsprechend einer Grenze des Bildes der Schaltvorrichtung (23) ist, und die Bewegungssteuereinheit (11) ferner eine Grenzbewegungssteuereinheit (11, S25) enthält, die konfiguriert ist, die Tastsinnsteuerung (S13) durchzuführen, wenn die Grenzpositionsbestimmungseinheit (11, S23) bestimmt, dass die Berührungsposition auf der Grenzposition ist, und zwar bei einer Verfolgungsbetätigung, bei welcher sich die durch die Betätigungserfassungseinheit (12) erfasste Berührungsposition kontinuierlich verändert.
  13. Betätigungseingabevorrichtung nach einem der Ansprüche 5 bis 11, wobei die behandelte Oberfläche (141) mit einem Screen einer Displayeinheit (21), die konfiguriert ist, ein Bild einer Schaltvorrichtung (23) zum Akzeptieren einer Niederdrückbetätigung anzuzeigen, assoziiert ist, die Betätigungserfassungseinheit (12) ferner konfiguriert ist, eine Berührungsposition auf der behandelten Oberfläche (141) zu erfassen, die Bewegungssteuereinheit (11) ferner eine Zentralpositionsbestimmungseinheit (11, S24) enthält, die konfiguriert ist, zu bestimmen, ob die Berührungsposition, die durch die Betätigungserfassungseinheit (12) erfasst wird, eine Zentralposition entsprechend einem Zentrum des Bildes der Schaltvorrichtung (23) ist, und die Bewegungssteuereinheit (11) ferner eine Zentrumsbewegungssteuereinheit (11, S25) enthält, die konfiguriert ist, die Tastsinnsteuerung (S13) durchzuführen, wenn die Zentrumspositionsbestimmungseinheit (11; S24) bestimmt, dass die Berührungsposition die Zentralposition bei der Verfolgungsbetätigung ist.
  14. Betätigungseingabevorrichtung nach einem der Ansprüche 5 bis 13, wobei die behandelte Oberfläche (141) mit einem Bildschirm einer Displayeinheit (21), die konfiguriert ist, ein Bild einer Schaltvorrichtung (23) zum Akzeptieren einer Niederdrückbetätigung anzuzeigen, assoziiert ist, die Bewegungssteuereinheit (11) ferner eine erste Betätigungsprozessbestimmungseinheit (11, S26) enthält, die konfiguriert ist, zu bestimmen, ob eine Berührungsbetätigung auf der behandelten Oberfläche (141) eine Betätigung in einem Niederdrückprozess bezüglich der Schaltvorrichtung (23) ist, und die Bewegungssteuereinheit (11) ferner eine zweite Betätigungsprozessbestimmungseinheit (11, S28) enthält, die konfiguriert ist, nach der Betätigung im Niederdrückprozess zu bestimmen, ob eine Berührungsbetätigung auf der behandelnden Oberfläche (141) eine Betätigung in einem Pushback-Prozess bezüglich der Schaltvorrichtung (23) ist, und die Bewegungssteuereinheit (11) ferner konfiguriert ist: die Tastsinnsteuerung (S13) einmal durchzuführen, wenn die erste Betätigungsprozessbestimmungseinheit (11, S26) bestimmt, dass die Berührungsbetätigung die Betätigung im Niederdrückprozess ist; und die Tastsinnsteuerung (S13) einmal durchzuführen, wenn die zweite Betätigungsprozessbestimmungseinheit (11, S28) bestimmt, dass die Berührungsbetätigung die Betätigung im Pushback-Prozess ist.
  15. Betätigungseingabevorrichtung nach Anspruch 14, wobei die Betätigungserfassungseinheit (12) ferner konfiguriert ist, eine Berührungsposition auf der behandelten Oberfläche (141) zu erfassen, und die erste Betätigungsprozessbestimmungseinheit (11, S26) und die zweite Betätigungsprozessbestimmungseinheit (11, S28) ferner konfiguriert sind, gemäß einer Veränderung einer Kontaktfläche auf der behandelten Oberfläche (141), die durch die mit der Betätigungserfassungseinheit (12) erfassten Berührungsposition festgelegt wird, zu bestimmen, ob die Berührungsbetätigung die Betätigung im Niederdrückprozess oder die Betätigung im Pushback-Prozess ist.
  16. Betätigungseingabevorrichtung nach Anspruch 14, wobei die Betätigungserfassungseinheit (12) ferner konfiguriert ist, eine Kapazität zwischen einer Elektrode, die an einer behandelten Oberfläche (141) angeordnet ist, und einem Finger eines Nutzers zu erfassen, wodurch eine Berührungsbetätigung auf der behandelten Oberfläche (141) erfasst wird, und die erste Betätigungsprozessbestimmungseinheit (11, S26) und die zweite Betätigungsprozessbestimmungseinheit (11, S28) ferner konfiguriert sind, gemäß der Veränderung der durch die Betätigungserfassungseinheit (12) erfassten Kapazität, zu bestimmen, ob die Berührungsbetätigung die Betätigung im Niederdrückprozess oder die Betätigung im Pushback-Prozess ist.
  17. Betätigungseingabevorrichtung nach Anspruch 14, ferner aufweisend: eine Niederdrückkrafterfassungseinheit (122), die konfiguriert ist, auf der behandelten Oberfläche (141) eine Niederdrückkraft bei der Berührungsbetätigung zu erfassen, wobei die erste Betätigungsprozessbestimmungseinheit (11, S26) und die zweite Betätigungsprozessbestimmungseinheit (11, S28) ferner konfiguriert sind, gemäß einer Veränderung der durch die Niederdrückkrafterfassungseinheit (122) erfassten Niederdrückkraft, zu bestimmen, ob die Berührungsbetätigung die Betätigung im Niederdrückprozess oder die Betätigung im Pushback-Prozess ist.
  18. Betätigungseingabevorrichtung nach Anspruch 13, wobei die Bewegungssteuereinheit (11) eine Grenzpositionsbestimmungseinheit (11, S23) enthält, die konfiguriert ist, zu bestimmen, ob die durch die Betätigungserfassungseinheit (12) erfasste Berührungsposition, eine Grenzposition entsprechend einer Grenze des Bildes der Schaltvorrichtung (23) ist, und die Bewegungssteuereinheit (11) ferner eine Grenzbewegungsteuereinheit (11, S25) enthält, die konfiguriert ist, bei einer Verfolgungsbetätigung, bei welcher sich die Berührungsposition, die durch die Betätigungserfassungseinheit (12) erfasst wird, kontinuierlich verändert, die Tastsinnsteuerung (S13) durchzuführen, wenn die Grenzpositionsbestimmungseinheit (11, S23) bestimmt, dass die Berührungsposition auf der Grenzposition ist.
  19. Verfahren zum Steuern einer Betätigungseingabevorrichtung, wobei das Verfahren aufweist: Erfassen einer Berührungsbetätigung, die auf einer behandelten Oberfläche (141) der Betätigungseingabevorrichtung durchgeführt wird; und Ansteuern einer Bewegungseinheit (13) der Betätigungseingabevorrichtung gemäß der Erfassung einer Berührungsbetätigung, um die Berührungsbetätigungseinheit (14) zu bewegen und um eine Bewegung der Berührungsbetätigungseinheit (14) zu steuern, um eine vorbestimmte stimulierbaren Zustand zu erreichen, um die Stimulation eines hautsensorischen Rezeptors zu ermöglichen, wobei der stimulierbare Zustand ist: ein Zustand einer Bewegungsgröße der Berührungsbetätigungseinheit (14) und einer Bewegungsgeschwindigkeit der Berührungsbetätigungseinheit (14); oder ein Zustand der Bewegungsgröße der Berührungsbetätigungseinheit (14) und einer Beschleunigung der Berührungsbetätigungseinheit (14).
  20. Ein nicht-flüchtiges computerlesbares Medium, das Anweisungen aufweist, die durch einen Computer ausgeführt werden, wobei die Anweisungen das Verfahren gemäß Anspruch 19 enthalten.
DE201210102939 2011-04-13 2012-04-04 Betätigungseingabevorrichtung und Verfahren zum Steuern derselben Withdrawn DE102012102939A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011088784A JP5352619B2 (ja) 2011-04-13 2011-04-13 操作入力装置
JP2011-088784 2011-04-13

Publications (1)

Publication Number Publication Date
DE102012102939A1 true DE102012102939A1 (de) 2012-10-18

Family

ID=46935716

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201210102939 Withdrawn DE102012102939A1 (de) 2011-04-13 2012-04-04 Betätigungseingabevorrichtung und Verfahren zum Steuern derselben

Country Status (4)

Country Link
US (1) US8982067B2 (de)
JP (1) JP5352619B2 (de)
CN (1) CN102736791B (de)
DE (1) DE102012102939A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10019098B2 (en) 2014-12-19 2018-07-10 Audi Ag Input device for detecting a manual actuation

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4111278B2 (ja) 2003-11-20 2008-07-02 独立行政法人産業技術総合研究所 触力覚情報提示システム
JP2017073101A (ja) 2015-10-05 2017-04-13 株式会社ミライセンス 触力覚情報提示システム
JP2017073100A (ja) 2015-10-05 2017-04-13 株式会社ミライセンス 触力覚情報提示システム
US10936074B2 (en) 2003-11-20 2021-03-02 National Institute Of Advanced Industrial Science And Technology Haptic information presentation system and method
DE102005001332A1 (de) 2005-01-11 2006-07-20 Boehringer Ingelheim Pharma Gmbh & Co. Kg Zweiteilige Kapsel mit Vorverschluss zur Aufnahme von pharmazeutischen Zubereitungen für Pulverinhalatoren
JP6020083B2 (ja) * 2012-11-19 2016-11-02 アイシン・エィ・ダブリュ株式会社 操作支援システム、操作支援方法及びコンピュータプログラム
US9836150B2 (en) * 2012-11-20 2017-12-05 Immersion Corporation System and method for feedforward and feedback with haptic effects
US20140139451A1 (en) * 2012-11-20 2014-05-22 Vincent Levesque Systems and Methods For Providing Mode or State Awareness With Programmable Surface Texture
US10078384B2 (en) 2012-11-20 2018-09-18 Immersion Corporation Method and apparatus for providing haptic cues for guidance and alignment with electrostatic friction
JP2014157450A (ja) * 2013-02-15 2014-08-28 Nlt Technologies Ltd タッチセンサ付き表示装置並びにその制御システム及び制御方法
JP6143179B2 (ja) * 2013-06-26 2017-06-07 株式会社Soken 操作入力装置
DE102013019139A1 (de) 2013-11-15 2015-05-21 Audi Ag Kraftwagen mit einem Infotainmentsystem und Verfahren zum Betreiben eines Infotainmentsystems eines Kraftwagens
FR3015382B1 (fr) * 2013-12-19 2017-01-13 Dav Dispositif de controle pour vehicule automobile et procede de commande
FR3015383B1 (fr) * 2013-12-19 2017-01-13 Dav Dispositif de controle pour vehicule automobile et procede de commande
EP3611597B1 (de) * 2014-03-31 2023-06-07 Sony Group Corporation Vorrichtung zur präsentation von taktiler erfassung, signalerzeugungsvorrichtung, system zur präsentation von taktiler erfassung und verfahren zur präsentation von taktiler erfassung
US9829979B2 (en) * 2014-04-28 2017-11-28 Ford Global Technologies, Llc Automotive touchscreen controls with simulated texture for haptic feedback
JP6555268B2 (ja) * 2014-08-29 2019-08-07 ソニー株式会社 力覚提示デバイス、力覚提示システム、および力覚提示方法
JP6069282B2 (ja) * 2014-10-30 2017-02-01 本田技研工業株式会社 車両用操作装置
US9937839B2 (en) * 2014-12-31 2018-04-10 Harman International Industries, Incorporated Feedback by modifying stiffness
JP5950139B1 (ja) * 2015-03-04 2016-07-13 Smk株式会社 電子機器の振動発生装置
JP6386952B2 (ja) * 2015-03-18 2018-09-05 アルプス電気株式会社 電子機器及び振動制御方法
JP6598089B2 (ja) 2015-04-14 2019-10-30 華為技術有限公司 ジェスチャコントロール方法、装置、端末デバイス、およびストレージ媒体
KR102074380B1 (ko) 2015-06-02 2020-02-07 한국전자통신연구원 촉각전달장치 및 이를 구비한 촉각전달 디스플레이
JP6955229B2 (ja) * 2015-10-05 2021-10-27 株式会社村田製作所 触力覚情報提示システム
JP2018036959A (ja) * 2016-09-01 2018-03-08 株式会社デンソーテン 制御装置、入力装置、入力システム、表示装置および制御方法
DE102016116763A1 (de) * 2016-09-07 2018-03-08 Epcos Ag Vorrichtung zur Erzeugung einer haptischen Rückmeldung
JP6777497B2 (ja) * 2016-10-25 2020-10-28 株式会社東海理化電機製作所 力覚呈示装置
DE102017101669A1 (de) * 2017-01-27 2018-08-02 Trw Automotive Electronics & Components Gmbh Verfahren zum Betreiben einer Mensch-Maschinen-Schnittstelle sowie Mensch-Maschinen-Schnittstelle
JP7032048B2 (ja) * 2017-02-03 2022-03-08 株式会社デンソーテン 制御装置、入力システムおよび制御方法
JP6693478B2 (ja) * 2017-06-13 2020-05-13 株式会社デンソー 入力装置
US10977910B1 (en) * 2017-09-06 2021-04-13 Apple Inc. Tactile outputs for input structures of electronic devices
DE102018108061A1 (de) 2018-04-05 2019-10-10 Tdk Electronics Ag Vorrichtung zur Erzeugung einer haptischen Rückmeldung
JP2020042625A (ja) * 2018-09-12 2020-03-19 株式会社東海理化電機製作所 触覚呈示装置及び触覚呈示方法
CN111596754B (zh) 2019-02-20 2024-06-21 天马日本株式会社 触觉呈现装置
WO2020251280A1 (ko) * 2019-06-12 2020-12-17 주식회사 씨케이머티리얼즈랩 스테레오 촉각 제공 장치
KR102265399B1 (ko) * 2019-06-12 2021-06-15 주식회사 씨케이머티리얼즈랩 스테레오 촉각 제공 장치
JP2022002129A (ja) * 2020-03-10 2022-01-06 株式会社村田製作所 触力覚情報提示システム
US11726598B2 (en) * 2021-06-24 2023-08-15 Shanghai Tianma Micro-electronics Co., Ltd. Tactile presentation device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058321A (ja) 2001-08-17 2003-02-28 Fuji Xerox Co Ltd タッチパネル装置
JP2004058695A (ja) 2002-07-24 2004-02-26 Tokai Rika Co Ltd 振動デバイス及びその駆動方法並びにその振動加速度の決定方法
US20100156814A1 (en) 2008-12-23 2010-06-24 Research In Motion Limited Portable electronic device including tactile touch-sensitive input device and method of controlling same
JP2010152889A (ja) 2008-12-23 2010-07-08 Research In Motion Ltd 携帯型電子デバイスおよび制御方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4434609B2 (ja) * 2002-03-29 2010-03-17 株式会社東芝 表示入力システム
KR100769783B1 (ko) 2002-03-29 2007-10-24 가부시끼가이샤 도시바 표시 입력 장치 및 표시 입력 시스템
JP4860625B2 (ja) * 2004-10-08 2012-01-25 イマージョン コーポレーション タッチ式入力装置におけるボタンおよびスクロール動作シミュレーション用の触覚フィードバック
US10488926B2 (en) * 2007-11-21 2019-11-26 Immersion Corporation Method and apparatus for providing a fixed relief touch screen with locating features using deformable haptic surfaces
US20100207895A1 (en) * 2009-02-16 2010-08-19 Samsung Electro-Mechanics Co., Ltd. Tactile interface device and method for controlling the same
WO2011024434A1 (ja) 2009-08-27 2011-03-03 京セラ株式会社 触感呈示装置及び触感呈示装置の制御方法
JP4672075B2 (ja) * 2009-08-27 2011-04-20 京セラ株式会社 入力装置
JP2011048701A (ja) * 2009-08-27 2011-03-10 Kyocera Corp 入力装置
KR20110023032A (ko) * 2009-08-28 2011-03-08 삼성전기주식회사 터치스크린장치
JP5292244B2 (ja) * 2009-09-28 2013-09-18 京セラ株式会社 入力装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058321A (ja) 2001-08-17 2003-02-28 Fuji Xerox Co Ltd タッチパネル装置
JP2004058695A (ja) 2002-07-24 2004-02-26 Tokai Rika Co Ltd 振動デバイス及びその駆動方法並びにその振動加速度の決定方法
US20100156814A1 (en) 2008-12-23 2010-06-24 Research In Motion Limited Portable electronic device including tactile touch-sensitive input device and method of controlling same
JP2010152889A (ja) 2008-12-23 2010-07-08 Research In Motion Ltd 携帯型電子デバイスおよび制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10019098B2 (en) 2014-12-19 2018-07-10 Audi Ag Input device for detecting a manual actuation

Also Published As

Publication number Publication date
CN102736791A (zh) 2012-10-17
US8982067B2 (en) 2015-03-17
JP5352619B2 (ja) 2013-11-27
JP2012221387A (ja) 2012-11-12
US20120262394A1 (en) 2012-10-18
CN102736791B (zh) 2015-12-16

Similar Documents

Publication Publication Date Title
DE102012102939A1 (de) Betätigungseingabevorrichtung und Verfahren zum Steuern derselben
EP2100197B1 (de) Bedieneinheit mit touchscreen-tasten
EP3040816B1 (de) Verfahren und vorrichtung zur eingabe von daten mit zwei eingabearten und haptischer rückkopplung, insbesondere in einem kraftfahrzeug
DE10340188A1 (de) Bildschirm mit einer berührungsempfindlichen Bedienoberfläche zur Befehlseingabe
DE112014001380T5 (de) Adaptive Mensch-Maschine-Schnittstellen für druckempfindliche Steuerung in einer abgelenkten Betriebsumgebung und Verfahren zur Anwendung derselben
DE112014001371T5 (de) Mensch-Maschine-Schnittstellen für druckempfindliche Steuerung in einer abgelenkten Betriebsumgebung und Verfahren zur Anwendung derselben
DE102011011802A1 (de) Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle, insbesondere in einem Fahrzeug
EP2761399A1 (de) Datenhandschuh mit taktiler rückinformation und verfahren
DE102013114079A1 (de) Vorrichtungen zur haptischen Rückmeldung
DE102010011039A1 (de) Verfahren und Vorrichtung zum Betreiben einer Benutzerschnittstelle
DE102007005889A1 (de) Bedieneinheit
EP3508967B1 (de) Verfahren zum betreiben einer mensch-maschinen-schnittstelle sowie mensch-maschinen-schnittstelle
DE102013016491B4 (de) Kraftfahrzeug-Bedienvorrichtung mit haptischem Feedback, Kraftfahrzeug und Verfahren zum Betreiben einer solchen Bedienvorrichtung
DE102011012838A1 (de) Verfahren und Vorrichtung zum Bereitstellen einer Nutzerschnittstelle, insbesondere in einem Fahrzeug
EP3040817A1 (de) Vorrichtung und verfahren zur eingabe eines textes über virtuelle bedienelemente mit haptischer rückkopplung zur simulation einer tastenhaptik, insbesondere in einem kraftfahrzeug
EP3114554A1 (de) Verfahren und vorrichtung zum bereitstellen einer graphischen benutzerschnittstelle in einem fahrzeug
EP3508968A1 (de) Verfahren zum betreiben einer mensch-maschinen-schnittstelle sowie mensch-maschinen-schnittstelle
DE102016100214A1 (de) Mehrstufiger Schalter
DE102007039450A1 (de) Berührungsempfindlicher Bildschirm und Verfahren zum Betreiben eines berührungsempfindlichen Bildschirms
DE102015122600B4 (de) Verfahren und System zum Erfassen von Personalisierungsdaten für zumindest eine Einrichtung eines Fahrzeugs mithilfe eines Mobilgeräts eines Nutzers
WO2013053529A1 (de) Bediensystem und verfahren zur darstellung einer bedienfläche
DE102015008572B4 (de) Kraftfahrzeug-Bedienvorrichtung mit bewegbarem Bedienteil und definiertem Fugenmaß sowie Kraftfahrzeug
DE102015008184B4 (de) Kraftfahrzeugbedienvorrichtung mit blindbedienbarem Touchscreen und Verfahren zum Betreiben einer Bedienvorrichtung
EP3298477B1 (de) Verfahren zum betreiben einer bedienvorrichtung sowie bedienvorrichtung für ein kraftfahrzeug
DE112004001937T5 (de) Haptisches Eingabegerät zur Erzeugung von Steuerungsinformation

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R012 Request for examination validly filed

Effective date: 20140908

R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee