DE112017007916B4 - Bedienungseingabevorrichtung - Google Patents

Bedienungseingabevorrichtung Download PDF

Info

Publication number
DE112017007916B4
DE112017007916B4 DE112017007916.0T DE112017007916T DE112017007916B4 DE 112017007916 B4 DE112017007916 B4 DE 112017007916B4 DE 112017007916 T DE112017007916 T DE 112017007916T DE 112017007916 B4 DE112017007916 B4 DE 112017007916B4
Authority
DE
Germany
Prior art keywords
button
ladder
location
touch
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112017007916.0T
Other languages
English (en)
Other versions
DE112017007916T5 (de
Inventor
Atsushi Hori
Yuichi Sasaki
Daisuke Kisara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112017007916T5 publication Critical patent/DE112017007916T5/de
Application granted granted Critical
Publication of DE112017007916B4 publication Critical patent/DE112017007916B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/039Accessories therefor, e.g. mouse pads
    • G06F3/0393Accessories for touch pads or touch screens, e.g. mechanical guides added to touch screens for drawing straight lines, hard keys overlaying touch screens or touch pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0446Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a grid-like structure of electrodes in at least two directions, e.g. using row and column electrodes

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Bedienungseingabevorrichtung (100), die Folgendes umfasst:einen Knopf (4) für Bedienungen, der in einem Anzeigegebiet eines Berührungsbildschirms (1) angeordnet ist,mehrere Leitersäulen (13), die in dem Knopf bereitgestellt sind;eine Berührungspunktdetektionseinheit (21) zum Detektieren eines Berührungspunktes, der mindestens einer der Leitersäulen entspricht;eine Ortsbestimmungseinheit (22) zum Bestimmen eines Orts der mindestens einen der Leitersäulen unter Verwendung eines Ergebnisses der Detektion durch die Berührungspunktdetektionseinheit; undeine Ortsschätzungseinheit (23) zum Schätzen, wenn es eine Leitersäule gibt, die durch die Berührungspunktdetektionseinheit nicht als ein Berührungspunkt detektiert wurde, eines Orts der Leitersäule, der durch die Berührungspunktdetektionseinheit nicht als ein Berührungspunkt detektiert wurde, unter Verwendung von Positionsbeziehungsinformationen, die eine Positionsbeziehung zwischen den mehreren Leitersäulen in dem Knopf angeben, und Ortschronikinformationen, die eine Chronik von Orten der jeweiligen mehreren Leitersäulen angeben.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft eine Bedienungseingabevorrichtung.
  • STAND DER TECHNIK
  • Herkömmlicherweise wird ein sogenannter „Knopf-auf-Berührungsbildschirm“ als eine Bedienungseingabevorrichtung für eine elektronische Vorrichtung wie etwa eine fahrzeuginterne Informationsvorrichtung verwendet. Der Knopf-auf-Berührungsbildschirm beinhaltet ein wählscheibenartiges Glied (im Folgenden als „Knopf‟ bezeichnet), das in einem Gebiet einer Anzeigefläche eines Berührungsbildschirms angeordnet ist, in dem Bilder angezeigt werden können (im Folgenden als „Anzeigegebiet“ bezeichnet). Der Knopf ist so bereitgestellt, dass er in Bezug auf die Anzeigefläche des Berührungsbildschirms drehbar ist, oder er ist so bereitgestellt, dass er über die Anzeigefläche des Berührungsbildschirms geschoben werden kann. Wenn ein Benutzer die Anzeigefläche des Berührungsbildschirms mit seinen Fingern berührt oder den Knopf dreht oder schiebt, wenn ein Bild für Bedienungen auf dem Berührungsbildschirm angezeigt wird, werden Anforderungen zur Durchführung verschiedener Arten von Steuerungen, die diesen Bedienungen zugewiesen sind (im Folgenden als „Ereignisse“ bezeichnet), in die elektronische Vorrichtung eingegeben. Die Patentliteratur 1 offenbart ein Knopf-auf-Berührungsbildschirm, der einen kapazitiven Berührungsbildschirm verwendet.
  • Die Patentliteratur 2 beschreibt eine Bedieneinheit, bestehend aus einem Träger, einem relativ zum Träger beweglich gelagerten Betätigungselement, das eine Eingabefläche definiert, einer Berührungserfassungsmittel auf der Eingabefläche und mindestens einem Drehsteller, der auf der Eingabefläche angeordnet und relativ zur Eingabefläche drehbar gelagert ist.
  • Die Patentliteratur 3 beschreibt ein Bedienwerkzeug, das auf einem Touchpanel montiert ist und dessen Bedieneingabe als Änderung der Berührungsposition erkannt wird, sowie eine Eingabeeinrichtung und eine elektronische Einrichtung.
  • Patentliteratur 4 beschreibt eine berührungsempfindliche Vorrichtung, die eine Berührungsoberfläche mit Zeilen und Spalten und einen Signalgenerator zur Erzeugung eindeutiger orthogonaler Signale auf jeweils einer Vielzahl der Zeilen enthält.
  • Patentliteratur 5 beschreibt eine elektronische Vorrichtung mit einer Speichervorrichtung, einer Berührungserfassungseinheit und einem Prozessor, wobei die Speichervorrichtung voreingestellte Kontaktpunktinformationen entsprechend einem Steuerobjekt speichert, die Berührungserfassungseinheit ein Berührungsereignis entsprechend mindestens einem Berührungsobjekt erfasst und ein Berührungssignal ausgibt, der Prozessor das Berührungssignal empfängt und beurteilt, ob die Kontaktpunktinformationen des Berührungssignals mit den voreingestellten Kontaktpunktinformationen entsprechend dem Steuerobjekt übereinstimmen. Wenn der Prozessor feststellt, dass die Kontaktpunktinformation des Berührungssignals mit der voreingestellten Kontaktpunktinformation übereinstimmt, wird eine dem Steuerobjekt entsprechende Funktion freigegeben.
  • Patentliteratur 6 beschreibt, dass ein Objekt mit vier Kontakten, die in der Lage sind, sich elastisch zu verformen, vorbereitet wird, und dass eine Position und eine Lage des Objekts zu dem Zeitpunkt, zu dem die Kontakte des Objekts auf einem Berührungsfeld eines Eingabegeräts betätigt werden, berechnet werden, wobei die Berechnung in sechs Freiheitsgrade auf der Basis von Kontaktflächen der Kontakte durch einen Kontaktflächenerkennungsabschnitt und einen Kontaktpunkterkennungsabschnitt unterteilt wird, und dass auf der Grundlage der berechneten Position und Lage des Objekts eine Abbildungsposition und eine Lage einer Kamera oder eine Anzeigeposition und eine Lage eines dreidimensionalen Bildes, während es angezeigt wird, variabel gesteuert werden.
  • Patentliteratur 7 beschreibt eine Drehknopf-Steuervorrichtung zur Steuerung eines Touchpanels, wobei diese Vorrichtung eine Basis und einen Drehknopf umfasst, wobei die Basis eine Unterseite, eine Oberseite, eine Vielzahl von ersten Pads, die an der Unterseite angeordnet sind, und mindestens zwei zweite Pads, die an der Oberseite angeordnet sind, aufweist. Die zweiten Pads sind elektrisch mit Teilen der ersten Pads verbunden. Die Basis ist mit seiner Unterseite an das Touchpanel montiert, so dass die ersten Pads das Touchpanel berühren. Der an der Oberseite angeordnete Drehknopf ist um eine Drehachse drehbar. Der Drehknopf hat eine Vielzahl von dritten Pads, die die Drehachse umgeben. Wenn sich der Drehknopf entlang einer Richtung relativ zur Basis dreht, werden die dritten Pads nacheinander elektrisch mit den entsprechenden zweiten Pads verbunden.
  • REFERENZLISTE
  • PATENTLITERATUR
  • KURZFASSUNG DER ERFINDUNG
  • TECHNISCHES PROBLEM
  • Im Allgemeinen detektiert ein kapazitiver Berührungsbildschirm einen Punkt, der mit dem Finger eines Benutzers berührt wird, indem ein durch einen Berührungssensor erfasster Kapazitätswert mit einem Schwellenwert verglichen wird. In einem Zustand, in dem der Finger eines Benutzers eine Anzeigefläche des Berührungsbildschirms berührt, fungiert der menschliche Körper nämlich als eine elektrische Masse (im Folgenden als „GND“ bezeichnet), und somit ist der Kapazitätswert eines Punktes, der mit dem Finger des Benutzers berührt wird, größer als der von anderen Punkten. Durch das Einstellen eines Schwellenwerts, der einem Wert zwischen dem Kapazitätswert des mit dem Finger des Benutzers berührten Punktes und dem Kapazitätswert anderer Punkte entspricht, kann daher der mit dem Finger des Benutzers berührte Punkt detektiert werden.
  • Ein Knopf auf dem Knopf-auf-Berührungsbildschirm der Patentliteratur 1 enthält mehrere im Wesentlichen säulenförmige Leiter (nachstehend als „Leitersäulen“ bezeichnet). In einem Zustand, in dem der Knopf mit den Fingern des Benutzers berührt wird, weisen die Potenziale der Leitersäulen einen Wert auf, der dem Potenzial der GND entspricht, und Punkte, an denen die Leitersäulen angeordnet sind, können nach dem gleichen Prinzip wie ein Prinzip zum Detektieren eines Punktes, der mit dem Finger eines Benutzers berührt wird, detektiert werden. Auf dem Knopf-auf-Berührungsbildschirm zu detektierende Punkte, d. h. Punkte, die den Fingern des Benutzers entsprechen, Punkte, die den Leitersäulen in dem Knopf entsprechen, und dergleichen, werden nachstehend zusammenfassend als „Berührungspunkte“ bezeichnet.
  • Zusätzlich dazu können die Kapazitätswerte von Berührungspunkten, die den einzelnen Leitersäulen entsprechen, erhöht werden, indem die Grundflächen der einzelnen Leitersäulen vergrößert werden oder die Anzahl von Leitersäulen, die miteinander elektrisch durchgängig sind, erhöht wird. Auf diese Weise können selbst in einem Zustand, in dem der Knopf nicht mit den Fingern des Benutzers berührt wird, Berührungspunkte, die den Leitersäulen entsprechen, durch das oben beschriebene Prinzip detektiert werden.
  • Während des Betriebs des Knopf-auf-Berührungsbildschirms können jedoch einige der mehreren Leitersäulen vorübergehend nicht als Berührungspunkte detektiert werden, oder zwei oder mehr Leitersäulen, die einige der mehreren Leitersäulen sind, können aufgrund verschiedener Faktoren gemeinsam als ein einzelner Berührungspunkt detektiert werden. In diesem Fall können die Orte einiger der mehreren Leitersäulen nicht genau bestimmt werden, und daher nimmt die Genauigkeit der Detektion eines Knopforts ab. Infolgedessen besteht das Problem, dass die Position eines auf dem Berührungsbildschirm angezeigten Bildes dazu neigt, relativ zur Position des Knopfes verschoben zu sein.
  • Die vorliegende Erfindung soll ein Problem wie das oben beschriebene lösen, und eine Aufgabe der vorliegenden Erfindung besteht darin, einen Knopf-auf-Berührungsbildschirm bereitzustellen, der eine Verringerung der Genauigkeit der Detektion eines Knopforts unterdrücken kann, selbst wenn Orte einiger von mehreren Leitersäulen nicht genau bestimmt werden können.
  • LÖSUNG DES PROBLEMS
  • Eine Bedienungseingabevorrichtung der vorliegenden Erfindung beinhaltet einen Knopf für Bedienungen, der in einem Anzeigegebiet eines Berührungsbildschirms angeordnet ist; mehrere Leitersäulen, die in dem Knopf bereitgestellt sind; eine Berührungspunktdetektionseinheit zum Detektieren eines Berührungspunktes, der mindestens einer der mehreren Leitersäulen entspricht; eine Ortsbestimmungseinheit zum Bestimmen eines Orts der mindestens einen der mehreren Leitersäulen unter Verwendung eines Ergebnisses der Detektion durch die Berührungspunktdetektionseinheit; und eine Ortsschätzungseinheit zum Schätzen, wenn es eine Leitersäule gibt, die durch die Berührungspunktdetektionseinheit nicht als ein Berührungspunkt detektiert wurde, eines Orts der Leitersäule, die durch die Berührungspunktdetektionseinheit nicht als ein Berührungspunkt detektiert wurde, unter Verwendung von Positionsbeziehungsinformationen, die eine Positionsbeziehung zwischen den mehreren Leitersäulen in dem Knopf angeben, und Ortschronikinformationen, die eine Chronik von Orten der jeweiligen mehreren Leitersäulen angeben.
  • Alternativ dazu beinhaltet eine Bedienungseingabevorrichtung der vorliegenden Erfindung einen Knopf für Bedienungen, der in einem Anzeigegebiet eines Berührungsbildschirms angeordnet ist; mehrere Leitersäulen, die in dem Knopf bereitgestellt sind und eine erste Leitersäule enthalten, die als ein Berührungspunkt detektiert werden kann, unabhängig davon, ob sich der Knopf in einem Zustand befindet, in dem er mit den Fingern des Benutzers berührt wird oder nicht; und eine zweite Leitersäule, die als ein Berührungspunkt nur in einem Zustand detektiert werden kann, in dem der Knopf mit den Fingern des Benutzers berührt wird; eine Berührungspunktdetektionseinheit zum Detektieren eines Berührungspunktes, der der ersten Leitersäule entspricht, in einem Zustand, in dem der Knopf nicht mit den Fingern des Benutzers berührt wird; eine Ortsbestimmungseinheit zum Bestimmen eines Orts der ersten Leitersäule unter Verwendung eines Ergebnisses der Detektion durch die Berührungspunktdetektionseinheit in dem Zustand, in dem der Knopf nicht mit den Fingern des Benutzers berührt wird; und eine Ortsschätzungseinheit zum Schätzen eines Orts der zweiten Leitersäule unter Verwendung von Positionsbeziehungsinformationen, die eine Positionsbeziehung zwischen den mehreren Leitersäulen in dem Knopf angeben, und Ortschronikinformationen, die eine Chronik von Orten der jeweiligen mehreren Leitersäulen angeben, in dem Zustand, in dem der Knopf nicht mit den Fingern des Benutzers berührt wird.
  • Alternativ dazu beinhaltet eine Bedienungseingabevorrichtung der vorliegenden Erfindung einen Knopf für Bedienungen, der in einem Anzeigegebiet eines Berührungsbildschirms angeordnet ist; mehrere Leitersäulen, die in dem Knopf bereitgestellt sind; eine Berührungspunktdetektionseinheit zum Detektieren von Berührungspunkten, die den mehreren Leitersäulen entsprechen, in einem ersten Betriebsmodus in einem Zustand, in dem der Knopf mit den Fingern des Benutzers berührt wird, und Detektieren von Berührungspunkten, die den mehreren Leitersäulen entsprechen, in einem zweiten Betriebsmodus in einem Zustand, in dem der Knopf nicht mit den Fingern des Benutzers berührt wird, wobei der zweite Betriebsmodus eine höhere Detektionsempfindlichkeit aufweist als der erste Betriebsmodus; eine Ortsbestimmungseinheit zum Bestimmen von Orten der jeweiligen mehreren Leitersäulen unter Verwendung von Ergebnissen der im ersten Betriebsmodus erhaltenen Detektion in dem Zustand, in dem der Knopf mit den Fingern des Benutzers berührt wird; und eine Ortsschätzungseinheit zum Schätzen von Orten der jeweiligen mehreren Leitersäulen unter Verwendung von Ergebnissen der im zweiten Betriebsmodus erhaltenen Detektion in dem Zustand, in dem der Knopf nicht mit den Fingern des Benutzers berührt wird.
  • VORTEILHAFTE EFFEKTE DER ERFINDUNG
  • Gemäß der vorliegenden Erfindung kann durch das Einbeziehen der Ortsschätzungseinheit selbst dann, wenn Orte einiger der mehreren Leitersäulen nicht genau bestimmt werden können, eine Verringerung der Genauigkeit der Detektion eines Knopforts unterdrückt werden.
  • Figurenliste
    • 1 ist ein Blockdiagramm, das eine Hardwarekonfiguration einer Bedienungseingabevorrichtung gemäß einer ersten Ausführungsform der vorliegenden Erfindung zeigt.
    • 2A ist eine perspektivische Ansicht, die den Hauptteil eines Knopfes gemäß der ersten Ausführungsform der vorliegenden Erfindung zeigt, 2B ist eine Draufsicht, die den Hauptteil des Knopfes gemäß der ersten Ausführungsform der vorliegenden Erfindung zeigt, und 2C ist eine Querschnittsansicht, die einen Zustand einer Leitersäule und eines Teils einer Grundplatte in dem Knopf gemäß der ersten Ausführungsform der vorliegenden Erfindung zeigt, von der Seite aus gesehen.
    • 3 ist ein Blockdiagramm, das den Hauptteil einer Steuervorrichtung gemäß der ersten Ausführungsform der vorliegenden Erfindung zeigt.
    • 4 ist ein Flussdiagramm, das den Betrieb der Steuervorrichtung gemäß der ersten Ausführungsform der vorliegenden Erfindung zeigt.
    • 5 ist ein erläuterndes Diagramm, das eine Situation zeigt, in der beim Schieben des Knopfes zwei Leitersäulen unter drei Leitersäulen vorübergehend nicht als Berührungspunkte detektiert werden.
    • 6 ist ein erläuterndes Diagramm, das eine Situation zeigt, in der beim Drehen des Knopfes zwei Leitersäulen unter den drei Leitersäulen vorübergehend nicht als Berührungspunkte detektiert werden.
    • 7 ist ein erläuterndes Diagramm, das eine Situation zeigt, in der eine Leitersäule unter den drei Leitersäulen aufgrund einer Biegung der Grundplatte des Knopfes nicht als ein Berührungspunkt detektiert wird.
    • 8 ist ein Blockdiagramm, das den Hauptteil einer Steuervorrichtung gemäß der zweiten Ausführungsform der vorliegenden Erfindung zeigt.
    • 9A ist ein erläuterndes Diagramm, das einen Zustand zeigt, in dem ein Knopf nicht mit dem Finger eines Benutzers berührt wird, und 9B ist ein erläuterndes Diagramm, das einen Zustand zeigt, in dem der Knopf mit dem Finger eines Benutzers berührt wird.
    • 10A ist ein erläuterndes Diagramm, das einen Zustand zeigt, in dem Leitersäulen auf Elektrodenstrukturen eines Berührungssensors angeordnet sind, und 10B ist ein charakteristisches Diagramm, das ein Beispiel von Kapazitätswerten zeigt, die durch jede Elektrodenstruktur in dem in 10A gezeigten Zustand detektiert werden.
    • 11A ist ein charakteristisches Diagramm, das ein Beispiel von Kapazitätswerten zeigt, die durch Elektrodenstrukturen des Berührungssensors in einem Zustand detektiert werden, in dem der Knopf nicht mit den Fingern des Benutzers berührt wird, und 11B ist ein charakteristisches Diagramm, das ein Beispiel von Kapazitätswerten zeigt, die durch die Elektrodenstrukturen des Berührungssensors in einem Zustand detektiert werden, in dem der Knopf mit den Fingern des Benutzers berührt wird.
    • 12A ist eine perspektivische Ansicht, die den Hauptteil eines Knopfes gemäß einer dritten Ausführungsform der vorliegenden Erfindung zeigt, und 12B ist eine Draufsicht, die den Hauptteil des Knopfes gemäß der dritten Ausführungsform der vorliegenden Erfindung zeigt.
    • 13 ist ein Blockdiagramm, das den Hauptteil einer Steuervorrichtung gemäß der dritten Ausführungsform der vorliegenden Erfindung zeigt.
    • 14A ist ein erläuterndes Diagramm, das die Anordnung von drei Leitersäulen in einem Knopf gemäß der dritten Ausführungsform der vorliegenden Erfindung zeigt, 14B ist ein erläuterndes Diagramm, das eine Situation zeigt, in der erste Leitersäulen und eine zweite Leitersäule in einem Zustand als Berührungspunkte detektiert werden, in dem der Knopf mit den Fingern des Benutzers berührt wird, und 14C ist ein erläuterndes Diagramm, das eine Situation zeigt, in der die ersten Leitersäulen in einem Zustand als Berührungspunkte detektiert werden, in dem der Knopf nicht mit den Fingern des Benutzers berührt wird.
    • 15 ist ein Flussdiagramm, das den Betrieb der Steuervorrichtung gemäß der dritten Ausführungsform der vorliegenden Erfindung zeigt.
    • 16A ist eine perspektivische Ansicht, die den Hauptteil eines anderen Knopfes gemäß der dritten Ausführungsform der vorliegenden Erfindung zeigt, und 16B ist eine Draufsicht, die den Hauptteil eines anderen Knopfes gemäß der dritten Ausführungsform der vorliegenden Erfindung zeigt.
    • 17A ist eine perspektivische Ansicht, die den Hauptteil eines anderen Knopfes gemäß der dritten Ausführungsform der vorliegenden Erfindung zeigt, und 17B ist eine Draufsicht, die den Hauptteil eines anderen Knopfes gemäß der dritten Ausführungsform der vorliegenden Erfindung zeigt.
    • 18A ist eine perspektivische Ansicht, die den Hauptteil eines Knopfes gemäß einer vierten Ausführungsform der vorliegenden Erfindung zeigt, und 18B ist eine Draufsicht, die den Hauptteil des Knopfes gemäß der vierten Ausführungsform der vorliegenden Erfindung zeigt.
    • 19 ist ein Blockdiagramm, das den Hauptteil einer Steuervorrichtung gemäß der vierten Ausführungsform der vorliegenden Erfindung zeigt.
    • 20A ist ein erläuterndes Diagramm, das eine Situation zeigt, in der jede der drei Leitersäulen als ein einzelner Berührungspunkt detektiert wird, in einem ersten Betriebsmodus in einem Zustand, in dem der Knopf mit den Fingern des Benutzers berührt wird, und 20B ist ein erläuterndes Diagramm, das eine Situation zeigt, in der zwei nahe zueinander angeordnete Leitersäulen unter den drei Leitersäulen gemeinsam als ein einzelner Berührungspunkt detektiert werden, in einem zweiten Betriebsmodus in einem Zustand, in dem der Knopf nicht mit den Fingern des Benutzers berührt wird.
    • 21 ist ein Flussdiagramm, das den Betrieb der Steuervorrichtung gemäß der vierten Ausführungsform der vorliegenden Erfindung zeigt.
  • BESCHREIBUNG VON AUSFÜHRUNGSFORMEN
  • Um die Erfindung ausführlicher zu beschreiben, werden Ausführungsweisen der Erfindung nachstehend unter Bezugnahme auf die beigefügten Zeichnungen beschrieben.
  • Erste Ausführungsform.
  • 1 ist ein Blockdiagramm, das eine Hardwarekonfiguration einer Bedienungseingabevorrichtung gemäß einer ersten Ausführungsform zeigt. 2A ist eine perspektivische Ansicht, die den Hauptteil eines Knopfes gemäß der ersten Ausführungsform zeigt. 2B ist eine Draufsicht, die den Hauptteil des Knopfes gemäß der ersten Ausführungsform zeigt. 2C ist eine Querschnittsansicht, die einen Zustand einer Leitersäule und eines Teils einer Grundplatte in dem Knopf gemäß der ersten Ausführungsform zeigt, von der Seite aus gesehen. 3 ist ein Blockdiagramm, das den Hauptteil einer Steuervorrichtung gemäß der ersten Ausführungsform zeigt. Mit Bezug auf die 1 bis 3 wird eine Bedienungseingabevorrichtung 100 der ersten Ausführungsform beschrieben.
  • Wie in 1 gezeigt, enthält die Bedienungseingabevorrichtung 100 einen Berührungsbildschirm 1. Der Berührungsbildschirm 1 beinhaltet einen Bildschirm 2 und einen Berührungssensor 3. Der Bildschirm 2 ist beispielsweise aus einem Flüssigkristallbildschirm oder einem organischen Elektrolumineszenzbildschirm (EL-Bildschirm) gebildet. Der Berührungssensor 3 beinhaltet beispielsweise mehrere Elektrodenstrukturen, die über einer Anzeigefläche des Bildschirms 2 angeordnet sind. Nämlich ist der Berührungsbildschirm 1 kapazitiv. Es ist zu beachten, dass der Berührungssensor 3 ein Sensor mit Eigenkapazität oder ein Sensor mit gegenseitiger Kapazität sein kann.
  • Wie in 1 gezeigt, enthält die Bedienungseingabevorrichtung 100 einen Knopf 4. Der Knopf 4 ist an einem beliebigen Ort in einem Anzeigegebiet des Berührungsbildschirms 1 angeordnet. Der Knopf 4 ist drehbar an einer Anzeigefläche des Berührungsbildschirms 1 platziert oder montiert oder ist schiebbar an der Anzeigefläche des Berührungsbildschirms 1 platziert oder montiert. Es ist zu beachten, dass der Knopf 4 vom Berührungsbildschirm 1 abnehmbar sein kann oder der Ort des Knopfes 4 im Anzeigegebiet durch Abnehmen veränderbar sein kann.
  • Der Knopf 4 weist einen leitfähigen Teil auf, den die Finger des Benutzers berühren können, wenn ein Benutzer den Knopf 4 ergreift (im Folgenden als „leitfähiger Abschnitt zum Greifen“ bezeichnet). In einem in 2 gezeigten Beispiel beinhaltet der leitfähige Abschnitt zum Greifen einen im Wesentlichen zylindrischen äußeren leitfähigen Abschnitt 11. Der äußere leitfähige Abschnitt 11 ist aus einem Leiter oder aus Harz, das mit einem leitfähigen Material beschichtet ist, gebildet. Eine im Wesentlichen scheibenförmige Grundplatte 12 aus Harz ist an einem von zwei Öffnungsabschnitten des äußeren leitfähigen Abschnitts 11 bereitgestellt.
  • Der Knopf 4 enthält mehrere Leitersäulen 13, die senkrecht zur Grundplatte 12 bereitgestellt und in dem äußeren leitfähigen Abschnitt 11 enthalten sind. In dem in 2 gezeigten Beispiel sind drei Leitersäulen 131 bis 133 an Orten angeordnet, die den jeweiligen Eckpunkten eines gleichseitigen Dreiecks entsprechen, und die geradlinigen Abstände L1, L2 und L3 zwischen zwei Leitersäulen unter den Leitersäulen 131 bis 133 sind gleich (L1 ≈ L2 ≈ L3). Die Leitersäulen 131 bis 133 sind jeweils elektrisch durchgängig mit dem äußeren leitfähigen Abschnitt 11 und weisen eine so große Grundfläche auf, dass die Leitersäule als ein Berührungspunkt detektiert wird, unabhängig davon, ob sich der leitfähige Abschnitt zum Greifen in einem Zustand befindet oder nicht, in dem er mit den Fingern des Benutzers berührt wird. Ein unterer Abschnitt von jeder der Leitersäulen 131 bis 133 ist zu der Anzeigefläche des Berührungsbildschirms 1 zeigend angeordnet, wobei die Grundplatte 12 zwischen diesen liegt.
  • Es ist zu beachten, dass der leitfähige Abschnitt zum Greifen einen im Wesentlichen scheibenförmigen leitfähigen Abdeckungskörper (nicht gezeigt) beinhalten kann, der an dem anderen der beiden Öffnungsabschnitte des äußeren leitfähigen Abschnitts 11 bereitgestellt ist. Nämlich weist der Knopf 4 eine im Wesentlichen ringförmige Außenform auf, und ein im Wesentlichen säulenförmiger Hohlabschnitt 14 ist in dem Knopf 4 so bereitgestellt, dass er entlang eines axialen Kerns des Knopfes 4 verläuft.
  • Wie in 1 gezeigt, enthält die Bedienungseingabevorrichtung 100 eine Steuervorrichtung 5. Die Steuervorrichtung 5 beinhaltet einen Prozessor 6 und einen Speicher 7. Der Speicher 7 speichert ein Programm zum Implementieren von Funktionen einer Berührungspunktdetektionseinheit 21, einer Ortsbestimmungseinheit 22 und einer Ortsschätzungseinheit 23, die in 3 gezeigt sind. Durch das Lesen und Ausführen des im Speicher 7 gespeicherten Programms durch den Prozessor 6 werden die Funktionen der Berührungspunktdetektionseinheit 21, der Ortsbestimmungseinheit 22 und der Ortsschätzungseinheit 23 implementiert.
  • Der Prozessor 6 verwendet beispielsweise eine Zentralverarbeitungseinheit (CPU), eine Grafikverarbeitungseinheit (GPU), einen Mikroprozessor, einen Mikrocontroller oder einen Digitalsignalprozessor (DSP). Der Speicher 7 verwendet beispielsweise einen Halbleiterspeicher wie etwa einen Direktzugriffsspeicher (RAM), einen Nur-Lese-Speicher (ROM), einen Flash-Speicher, einen löschbaren programmierbaren Nur-Lese-Speicher (EPROM) oder einen elektrisch löschbaren programmierbaren Nur-Lese-Speicher (EEPROM), eine magnetische Platte, eine optische Platte oder eine magnetooptische Platte.
  • Hier sind in dem Speicher 7 im Voraus Informationen gespeichert, die eine Positionsbeziehung zwischen den mehreren Leitersäulen 13 in dem Knopf 4 angeben (nachstehend als „Positionsbeziehungsinformationen“ bezeichnet). Die Positionsbeziehungsinformationen beinhalten beispielsweise Informationen, die eine Anordnungsform angeben, die durch die mehreren Leitersäulen 13 definiert ist (in dem in 2 gezeigten Beispiel ein gleichseitiges Dreieck), und Informationen, die geradlinige Abstände angeben (in dem in 2 gezeigten Beispiel L1, L2 und L3) zwischen zwei Leitersäulen unter den mehreren Leitersäulen 13.
  • Zusätzlich dazu speichert der Speicher 7 Informationen, die eine Chronik von Orten der jeweiligen mehreren Leitersäulen 13 in dem Anzeigegebiet des Berührungsbildschirms 1 angeben (im Folgenden als „Ortschronikinformationen“ bezeichnet). Jeder durch die Ortschronikinformationen angegebene Ort wird in der Vergangenheit durch die Ortsbestimmungseinheit 22 bestimmt oder in der Vergangenheit durch die Ortsschätzungseinheit 23 geschätzt. Nämlich weist die Ortsbestimmungseinheit 22 eine Funktion zum Speichern von Informationen, die jeden Ort angeben, der durch die Ortsbestimmungseinheit 22 bestimmt wird, in dem Speicher 7 auf, wann immer dies erforderlich ist. Zusätzlich dazu weist die Ortsschätzungseinheit 23 eine Funktion zum Speichern von Informationen, die jeden durch die Ortsschätzungseinheit 23 geschätzten Ort angeben, in dem Speicher 7 auf, wann immer dies erforderlich ist.
  • Unter Bezugnahme auf 3 wird der Hauptteil der Steuervorrichtung 5 nachstehend beschrieben.
  • Die Berührungspunktdetektionseinheit 21 detektiert Berührungspunkte unter Verwendung von Signalen, die von dem Berührungssensor 3 ausgegeben werden. Insbesondere detektiert die Berührungspunktdetektionseinheit 21 beispielsweise Berührungspunkte, indem sie einen Schwellenwertbestimmungsprozess durchführt, der Kapazitätswerte verwendet, die durch vom Berührungssensor 3 ausgegebene Signale angegeben werden. Die Berührungspunktdetektionseinheit 21 gibt Informationen über die detektierten Berührungspunkte aus (nachstehend als „Berührungspunktinformationen“ bezeichnet).
  • Nämlich zeigen die Berührungsinformationen Ergebnisse der Detektion durch die Berührungspunktdetektionseinheit 21 an. Die Berührungspunktinformationen beinhalten beispielsweise Informationen, die den Kapazitätswert jedes Berührungspunktes angeben, Informationen, die die Koordinatenwerte jedes Berührungspunktes angeben, Informationen, die die Fläche jedes Berührungspunktes angeben, und Informationen, die eine Last an jedem Berührungspunkt angeben.
  • Normalerweise beinhalten die Ergebnisse der Detektion durch die Berührungspunktdetektionseinheit 21 einen Berührungspunkt, der mindestens einer der Leitersäulen 13 entspricht. Eine Leitersäule, die durch die Berührungspunktdetektionseinheit 21 als ein Berührungspunkt detektiert wird, unter den mehreren Leitersäulen 13 kann nachfolgend als „detektierte Leitersäule“ bezeichnet werden. Die Ortsbestimmungseinheit 22 bestimmt einen Berührungspunkt, der einer detektierten Leitersäule entspricht, unter den durch die Berührungspunktdetektionseinheit 21 detektierten Berührungspunkten unter Verwendung der von der Berührungspunktdetektionseinheit 21 ausgegebenen Berührungsinformationen. Auf diese Weise bestimmt die Ortsbestimmungseinheit 22 einen Ort der detektierten Leitersäule in dem Anzeigegebiet des Berührungsbildschirms 1.
  • Die Ortsschätzungseinheit 23 bestimmt unter Verwendung von Ergebnissen der Bestimmung durch die Ortsbestimmungseinheit 22, ob es eine Leitersäule gibt, die durch die Berührungspunktdetektionseinheit 21 nicht als ein Berührungspunkt detektiert wurde (auf die nachstehend als „nicht detektierte Leitersäule“ Bezug genommen werden kann), unter den mehreren Leitersäulen 13. Wenn es eine nicht detektierte Leitersäule gibt, schätzt die Ortsschätzungseinheit 23 einen Ort der nicht detektierten Leitersäule im Anzeigegebiet des Berührungsbildschirms 1 unter Verwendung der Positionsbeziehungsinformationen und Ortschronikinformationen, die in dem Speicher 7 gespeichert sind.
  • Es ist zu beachten, dass Faktoren für das Vorhandensein einer nicht detektierten Leitersäule, spezifische Beispiele eines Schätzprozesses, der durch die Ortsschätzungseinheit 23 durchgeführt wird, und dergleichen später unter Bezugnahme auf die 5 bis 7 beschrieben werden.
  • Die Berührungspunktdetektionseinheit 21, die Ortsbestimmungseinheit 22 und die Ortsschätzungseinheit 23 bilden den Hauptteil der Steuervorrichtung 5.
  • Als Nächstes wird unter Bezugnahme auf ein Flussdiagramm von 4 der Betrieb der Steuervorrichtung 5 beschrieben. Die Steuervorrichtung 5 führt wiederholt die folgenden Prozesse in den Schritten ST1 bis ST3 mit vorbestimmten Zeitintervallen aus.
  • Zunächst detektiert in Schritt ST1 die Berührungspunktdetektionseinheit 21 Berührungspunkte unter Verwendung von Signalen, die vom Berührungssensor 3 ausgegeben werden. Die Berührungspunktdetektionseinheit 21 gibt Berührungsinformationen über die detektierten Berührungspunkte aus.
  • Dann bestimmt in Schritt ST2 die Ortsbestimmungseinheit 22 Berührungspunkte, die detektierten Leitersäulen entsprechen, unter den Berührungspunkten, die durch die Berührungspunktdetektionseinheit 21 detektiert werden, unter Verwendung der von der Berührungspunktdetektionseinheit 21 ausgegebenen Berührungsinformationen. Auf diese Weise bestimmt die Ortsbestimmungseinheit 22 Orte der detektierten Leitersäulen in dem Anzeigegebiet des Berührungsbildschirms 1. Die Ortsbestimmungseinheit 22 speichert Informationen, die die bestimmten Orte angeben, im Speicher 7.
  • Dann bestimmt in Schritt ST3 die Ortsschätzungseinheit 23 unter Verwendung von Ergebnissen der Bestimmung durch die Ortsbestimmungseinheit 22, ob es eine nicht detektierte Leitersäule gibt. Falls es eine nicht detektierte Leitersäule gibt, schätzt die Ortsschätzungseinheit 23 einen Ort der nicht detektierten Leitersäule im Anzeigegebiet des Berührungsbildschirms 1 unter Verwendung der Positionsbeziehungsinformationen und Ortschronikinformationen, die in dem Speicher 7 gespeichert sind. Die Ortsschätzungseinheit 23 speichert Informationen, die die geschätzten Ort angeben, im Speicher 7.
  • Als Nächstes werden unter Bezugnahme auf die 5 bis 7 Faktoren für das Vorhandensein einer nicht detektierten Leitersäule, spezifische Beispiele eines Schätzprozesses, der durch die Ortsschätzungseinheit 23 durchgeführt wird, und dergleichen beschrieben.
  • Wenn ein Benutzer den Knopf 4 betätigt, indem der Benutzer den Knopf 4 schnell schiebt, kann der Knopf 4 bezüglich der Anzeigefläche des Berührungsbildschirms 1 geneigt sein. Abhängig von der Neigung nehmen die Abstände zwischen einigen der mehreren Leitersäulen 13 und dem Berührungssensor 3 zu, und einige Leitersäulen werden vorübergehend nicht als Berührungspunkte detektiert.
  • In einem Beispiel, das in 5 gezeigt ist, werden beispielsweise vor dem Beginn des Schiebens des Knopfes 4 die drei Leitersäulen 131 bis 133 alle als Berührungspunkte detektiert, wohingegen während des Schiebens in einer Richtung entlang eines Pfeils A1 nur eine Leitersäule 131 als ein Berührungspunkt P1 detektiert wird, d. h. die verbleibenden zwei Leitersäulen 132 und 133 werden nicht als Berührungspunkte detektiert. Selbst in einem solchen Fall können unter Verwendung von Positionsbeziehungsinformationen und Ortschronikinformationen die Orte der verbleibenden zwei Leitersäulen 132 und 133 geschätzt werden. Nämlich unter der Bedingung, dass die Anordnungsform ein gleichseitiges Dreieck mit L1 ≈ L2 ≈ L3 usw. ist, können die Orte der Leitersäulen 132 und 133 auf Basis des Orts der Leitersäule 131 geschätzt werden.
  • Gleichermaßen, wenn der Benutzer den Knopf 4 betätigt, indem der Benutzer den Knopf 4 schnell dreht, kann der Knopf 4 bezüglich der Anzeigefläche des Berührungsbildschirms 1 geneigt sein. Abhängig von der Neigung nehmen die Abstände zwischen einigen der mehreren Leitersäulen 13 und dem Berührungssensor 3 zu, und einige Leitersäulen werden vorübergehend nicht als Berührungspunkte detektiert.
  • In einem Beispiel, das in 6 gezeigt ist, werden beispielsweise vor dem Beginn des Drehens des Knopfes 4 die drei Leitersäulen 131 bis 133 alle als Berührungspunkte detektiert, wohingegen während des Drehens in einer Richtung entlang eines Pfeils A2 nur eine Leitersäule 131 als ein Berührungspunkt P1 detektiert wird, d. h. die verbleibenden zwei Leitersäulen 132 und 133 werden nicht als Berührungspunkte detektiert. Selbst in einem solchen Fall können unter Verwendung von Positionsbeziehungsinformationen und Ortschronikinformationen die Orte der verbleibenden zwei Leitersäulen 132 und 133 geschätzt werden. Nämlich unter der Bedingung, dass die Anordnungsform ein gleichseitiges Dreieck mit L1 ≈ L2 ≈ L3 usw. ist, können die Orte der Leitersäulen 132 und 133 auf Basis des Orts der Leitersäule 131 geschätzt werden.
  • Selbst wenn der Benutzer den Knopf 4 aufgrund eines Biegens der Grundplatte 12 nicht betätigt, können sich außerdem die Abstände zwischen einigen der mehreren Leitersäulen 13 und dem Berührungssensor 3 vergrößern. Auch in diesem Fall werden einige Leitersäulen nicht als Berührungspunkte detektiert.
  • In einem Beispiel, das in 7 gezeigt ist, nimmt aufgrund des Biegens der Grundplatte ein Abstand L zwischen einer Leitersäule 131 unter den drei Leitersäulen 131 bis 133 und dem Berührungssensor 3 zu. In diesem Fall können, da die verbleibenden zwei Leitersäulen 132 und 133 durch die Berührungspunktdetektionseinheit 21 (P in der Zeichnung) als Berührungspunkte detektiert werden, die Orte der Leitersäulen 132 und 133 durch die Ortsbestimmungseinheit 22 bestimmt werden. Andererseits wird die Leitersäule 131 durch die Berührungspunktdetektionseinheit 21 nicht als ein Berührungspunkt detektiert, aber unter Verwendung von Positionsbeziehungsinformation und Ortschronikinformationen kann der Ort der Leitersäule 131 auf Basis der Orte der Leitersäulen 132 und 133 geschätzt werden.
  • Es ist zu beachten, dass die Anordnung der Leitersäulen 131 bis 133 nicht auf Orte beschränkt ist, die den jeweiligen Eckpunkten eines gleichseitigen Dreiecks entsprechen, und Orte sein können, die den jeweiligen Eckpunkten beispielsweise eines rechtwinkligen Dreiecks oder eines gleichschenkligen Dreiecks entsprechen. Es ist auch zu beachten, dass die Anzahl der in dem Knopf 4 enthaltenen Leitersäulen 13 nicht auf drei beschränkt ist, und beispielsweise können vier Leitersäulen 13 an Orten angeordnet sein, die den jeweiligen Eckpunkten eines Vierecks entsprechen. Der Inhalt von Positionsbeziehungsinformationen ist nicht auf das oben beschriebene spezifische Beispiel beschränkt und kann beliebig sein, solange sich der Inhalt auf die Anzahl und Anordnung der Leitersäulen 13 in dem Knopf 4 bezieht.
  • Wie oben beschrieben, enthält die Bedienungseingabevorrichtung 100 der ersten Ausführungsform den Knopf 4 für Bedienungen, der in dem Anzeigegebiet des Berührungsbildschirms 1 angeordnet ist; die mehreren Leitersäulen 13, die in dem Knopf 4 bereitgestellt sind; die Berührungspunktdetektionseinheit 21, die einen Berührungspunkt detektiert, der mindestens einer der mehreren Leitersäulen 13 entspricht; die Ortsbestimmungseinheit 22, die einen Ort von mindestens einer der mehreren Leitersäulen 13 unter Verwendung eines Ergebnisses der Detektion durch die Berührungspunktdetektionseinheit 21 bestimmt; und die Ortsschätzungseinheit 23, die, wenn es eine Leitersäule gibt, die durch die Berührungspunktdetektionseinheit 21 nicht als ein Berührungspunkt detektiert wurde, einen Ort der Leitersäule schätzt, die durch die Berührungspunktdetektionseinheit 21 nicht als ein Berührungspunkt detektiert wurde, unter Verwendung von Positionsbeziehungsinformationen, die eine Positionsbeziehung zwischen den mehreren Leitersäulen 13 in dem Knopf 4 angeben, und Ortschronikinformationen, die eine Chronik von Orten der jeweiligen mehreren Leitersäulen 13 angeben. Durch das Einbeziehen der Ortsschätzungseinheit 23 kann eine Verringerung der Genauigkeit der Detektion eines Knopforts unterdrückt werden, selbst wenn einige Leitersäulen (nicht detektierte Leitersäulen) unter den mehreren Leitersäulen 13 nicht als Berührungspunkte detektiert wurden.
  • Zweite Ausführungsform.
  • 8 ist ein Blockdiagramm, das den Hauptteil einer Steuervorrichtung gemäß einer zweiten Ausführungsform zeigt. Mit Bezug auf 8 wird eine Bedienungseingabevorrichtung 100 der zweiten Ausführungsform beschrieben. Es ist zu beachten, dass eine Hardwarekonfiguration der Bedienungseingabevorrichtung 100 gemäß der zweiten Ausführungsform dieselbe ist wie die, die unter Bezugnahme auf 1 in der ersten Ausführungsform beschrieben wurde, und somit wird 1 aufgenommen und deren Beschreibung weggelassen. Es ist auch zu beachten, dass eine Struktur eines Knopfes 4 gemäß der zweiten Ausführungsform dieselbe ist wie die, die unter Bezugnahme auf 2 in der ersten Ausführungsform beschrieben wurde, und somit wird 2 aufgenommen und deren Beschreibung weggelassen. Es ist auch zu beachten, dass in 8 die gleichen Blöcke wie die in 3 gezeigten mit den gleichen Bezugszeichen gekennzeichnet sind und deren Beschreibung weggelassen wird.
  • Eine Fingerberührung-am-Knopf-Bestimmungseinheit 24 bestimmt, ob sich der Knopf 4 in einem Zustand befindet, in dem er mit den Fingern des Benutzers berührt wird. Die Ortsschätzungseinheit 23 schätzt einen Ort einer nicht detektierten Leitersäule in einem Zustand, in dem der Knopf 4 nicht mit den Fingern des Benutzers berührt wird.
  • Die Berührungspunktdetektionseinheit 21, die Ortsbestimmungseinheit 22 und die Ortsschätzungseinheit 23 bilden eine erste Steuereinheit 31. Die Fingerberührung-am-Knopf-Bestimmungseinheit 24 bildet eine zweite Steuereinheit 32. Die erste Steuereinheit 31 und die zweite Steuereinheit 32 bilden den Hauptteil der Steuervorrichtung 5.
  • Unter Bezugnahme auf die 9 bis 11 werden nachstehend spezifische Beispiele eines Verfahrens zur Bestimmung durch die Fingerberührung-am-Knopf-Bestimmungseinheit 24 beschrieben.
  • (Erstes spezifisches Beispiel)
  • In einem ersten spezifischen Beispiel wird bestimmt, ob sich der Knopf 4 in einem Zustand befindet, in dem er mit den Fingern des Benutzers berührt wird, indem ein Schwellenwertbestimmungsprozess durchgeführt wird, der die Kapazitätswerte von Berührungspunkten verwendet, die den Leitersäulen 13 entsprechen.
  • In einem in 9 gezeigten Beispiel ist der Berührungssensor 3 ein Typ mit gegenseitiger Kapazität. Nämlich sind über der Anzeigefläche des Bildschirms 2 mehrere Elektrodenstrukturen zum Ansteuern und mehrere Elektrodenstrukturen zum Empfangen angeordnet. Die Elektrodenstrukturen zum Ansteuern und die Elektrodenstrukturen zum Empfangen sind in einer im Wesentlichen orthogonalen Ausrichtung zueinander bereitgestellt und schneiden sich. Ein Signal zur Detektion wird an jede der Elektrodenstrukturen zum Ansteuern mit einem vorbestimmten Timing angelegt. In der Zeichnung gibt 41 eine der Elektrodenstrukturen zum Ansteuern an, 42 gibt eine der Elektrodenstrukturen zum Empfangen an und 43 gibt einen leitfähigen Abschnitt zum Greifen des Knopfes 4 an.
  • 9A zeigt einen Zustand, in dem der Knopf 4 nicht mit dem Finger eines Benutzers berührt wird. In einem in 9A gezeigten Beispiel sind von den drei Leitersäulen 131 bis 133, die in dem Knopf 4 bereitgestellt sind, zwei Leitersäulen 131 und 132 auf der Elektrodenstruktur zum Ansteuern 41 angeordnet, an die ein Signal zum Detektieren angelegt wird. Zusätzlich dazu ist die verbleibende eine Leitersäule 133 auf einer anderen Elektrodenstruktur zum Ansteuern (nicht gezeigt) angeordnet, an die kein Signal zum Detektieren angelegt wird. Weiterhin wird ein Abstand zwischen dem leitfähigen Abschnitt zum Greifen 43 und den Elektrodenstrukturen zum Antreiben auf einen ausreichend kleinen Wert eingestellt. Daher tritt eine parasitäre Kapazität C1 auf.
  • Andererseits zeigt 9B einen Zustand, in dem der Knopf 4 mit dem Finger eines Benutzers berührt wird. In diesem Zustand tritt zusätzlich zu der gleichen parasitären Kapazität C1 wie der in 9A gezeigten eine parasitäre Kapazität C2 auf, die daraus resultiert, dass der menschliche Körper als eine GND fungiert.
  • Nämlich tritt in dem Zustand, in dem der Knopf 4 mit dem Finger des Benutzers berührt wird, eine größere parasitäre Kapazität (C1 + C2) auf als die parasitäre Kapazität (C1), die in dem Zustand auftritt, in dem der Knopf 4 nicht mit dem Finger des Benutzers berührt wird. Daher beinhalten Berührungsinformationen die Kapazitätswerte von Berührungspunkten, die den Leitersäulen 13 entsprechen, und die Kapazitätswerte variieren zwischen dem Zustand, in dem der Knopf 4 nicht mit dem Finger eines Benutzers berührt wird (9A), und dem Zustand, in dem der Knopf 4 mit dem Finger eines Benutzers berührt wird (9B). Daher kann durch das Durchführen eines Schwellenwertbestimmungsprozesses unter Verwendung der Kapazitätswerte bestimmt werden, ob sich der Knopf 4 in einem Zustand befindet, in dem er mit dem Finger eines Benutzers berührt wird.
  • Wenn hier mehrere Berührungspunkte entsprechend den Leitersäulen 13 detektiert werden, ist es vorzuziehen, einen Gesamtwert oder einen Durchschnittswert der Kapazitätswerte von beliebigen zwei oder mehr der Berührungspunkte mit einem Schwellenwert zu vergleichen. Dadurch kann die Robustheit einer Positionsbeziehung zwischen den Elektrodenstrukturen und den Leitersäulen 131 bis 133 verbessert werden.
  • In einem in 10 gezeigten Beispiel ist der Berührungssensor 3 ein Typ mit Eigenkapazität. 441 bis 448 in 10A geben acht Elektrodenstrukturen unter mehreren Elektrodenstrukturen an, die in dem Berührungssensor 3 enthalten sind, und 451 bis 458 in 10B geben Kapazitätswerte an, die durch die Elektrodenstrukturen 441 bis 448 detektiert werden (die nachstehend als „detektierte Werte“ bezeichnet werden können).
  • In einem in 10A gezeigten Beispiel, während die Leitersäule 131 über drei Elektrodenstrukturen 441 bis 443 angeordnet ist, ist die Leitersäule 132 über zwei Elektrodenstrukturen 446 und 447 angeordnet. In diesem Fall unterscheiden sich, wie in 10B gezeigt, Kapazitätswerte, die durch die Elektrodenstrukturen 441 bis 443 detektiert werden (d. h. der Kapazitätswert eines Berührungspunktes, der der Leitersäule 131 entspricht) und Kapazitätswerte, die durch die Elektrodenstrukturen 446 und 447 detektiert werden (d. h. der Kapazitätswert eines Berührungspunktes, der der Leitersäule 132 entspricht), voneinander.
  • Nämlich können die Kapazitätswerte von Berührungspunkten, die den jeweiligen Leitersäulen 131 bis 133 entsprechen, in Abhängigkeit von einer Positionsbeziehung der Leitersäulen 131 bis 133 relativ zu den Elektrodenstrukturen 441 bis 448 variieren. Wenn daher der Kapazitätswert eines einzelnen Berührungspunktes mit dem Schwellenwert verglichen wird, variiert der Kapazitätswert in Abhängigkeit von dem Anordnungsort der Leitersäule 13, die dem einzelnen Berührungspunkt entspricht, und somit besteht die Möglichkeit einer Verringerung in der Genauigkeit eines Schwellenwertbestimmungsprozesses durch die Fingerberührung-am-Knopf-Bestimmungseinheit 24. Andererseits kann durch das Vergleichen eines Gesamtwerts oder eines Durchschnittswerts der Kapazitätswerte von zwei oder mehr Berührungspunkten mit dem Schwellenwert eine solche Verringerung der Genauigkeit eines Schwellenwertbestimmungsprozesses unterdrückt werden. Gleiches gilt auch für einen Fall der Verwendung des Berührungssensors 3 eines Typs mit gegenseitiger Kapazität.
  • (Zweites spezifisches Beispiel)
  • In einem zweiten spezifischen Beispiel wird auf Basis einer Verschiebung der Koordinatenwerte, die auftritt, wenn die Finger des Benutzers den Knopf 4 berühren, bestimmt, ob sich der Knopf 4 in einem Zustand befindet, in dem er mit den Fingern des Benutzers berührt wird.
  • In jeder der 11A und 11B geben numerische Werte, die an einer horizontalen Achse markiert sind, Zahlen an, die sieben Elektrodenstrukturen des Berührungssensors 3 zugeordnet sind, und 51 gibt den Ort der Leitersäule 131 in einer Anordnungsrichtung der sieben Elektrodenstrukturen an. 52A2 bis 52A6, gezeigt in 11A, geben Kapazitätswerte an, die durch die Elektrodenstrukturen Nr. 2 bis 6 unter den sieben Elektrodenstrukturen (die nachstehend als „detektierte Werte“ bezeichnet werden können) in einem Zustand detektiert werden, in dem der Knopf 4 nicht mit den Fingern des Benutzers berührt wird. 52B2 bis 52B6, gezeigt in 11B, geben detektierte Werte an, die durch die Elektrodenstrukturen Nr. 2 bis 6 unter den sieben Elektrodenstrukturen in einem Zustand detektiert werden, in dem der Knopf 4 mit den Fingern des Benutzers berührt wird. 53A in 11A gibt die Berührungskoordinatenwerte eines Berührungspunktes an, der der Leitersäule 131 in der Anordnungsrichtung der Elektrodenstrukturen in dem Zustand entspricht, in dem der Knopf 4 nicht mit den Fingern des Benutzers berührt wird. 53B in 11B gibt die Berührungskoordinatenwerte eines Berührungspunktes an, der der Leitersäule 131 in der Anordnungsrichtung der Elektrodenstrukturen in dem Zustand entspricht, in dem der Knopf 4 mit den Fingern des Benutzers berührt wird.
  • Wie in 11 gezeigt, erhöhen sich, wenn die Finger des Benutzers den Knopf 4 berühren, die detektierten Werte, die durch die jeweiligen Elektrodenstrukturen Nr. 2 bis 6 detektiert werden, und das Verhältnis zwischen einem detektierten Wert, der durch jede einzelne Elektrodenstruktur detektiert wird, und detektierten Werten, die durch andere Elektrodenstrukturen detektiert werden, ändert sich. Dadurch ändern sich die Berührungskoordinatenwerte des Berührungspunktes, der der Leitersäule 131 entspricht, in einer vorbestimmten Richtung in Bezug auf den Ort 51 der Leitersäule 131 (53A -> 53B in der Zeichnung). Gleichermaßen, wenn die Finger des Benutzers von dem Knopf 4 gelöst werden, ändern sich die Berührungskoordinatenwerte des Berührungspunktes, der der Leitersäule 131 entspricht, in einer entgegengesetzten Richtung in Bezug auf den Ort 51 der Leitersäule 131 (53B -> 53A in der Zeichnung).
  • Daher ist in dem Speicher 7 im Voraus eine Datentabelle gespeichert, in der Berührungskoordinatenwerte, die von Berührungspunkten entsprechend den Leitersäulen 13 in einem Zustand angenommen werden können, in dem der Knopf 4 nicht mit den Fingern des Benutzers berührt wird, mit vorhergesagten Werten des Änderungsbetrags der Berührungskoordinatenwerte assoziiert sind, die auftreten, wenn die Finger des Benutzers den Knopf 4 berühren. Zusätzlich dazu ist in dem Speicher 7 im Voraus eine Datentabelle gespeichert, in der Berührungskoordinatenwerte, die von Berührungspunkten entsprechend den Leitersäulen 13 in einem Zustand angenommen werden können, in dem der Knopf 4 mit den Fingern des Benutzers berührt wird, mit Werten des Änderungsbetrags der Berührungskoordinatenwerte assoziiert sind, die auftreten, wenn die Finger des Benutzers vom Knopf 4 gelöst werden.
  • Von der Berührungspunktdetektionseinheit 21 ausgegebene Berührungsinformationen beinhalten die Koordinatenwerte eines Berührungspunktes, der einer Leitersäule 13 entspricht. Die Fingerberührung-am-Knopf-Bestimmungseinheit 24 berechnet den Änderungsbetrag im Laufe der Zeit der Koordinatenwerte und vergleicht den berechneten Änderungsbetrag mit einem vorhergesagten Wert in der Datentabelle und detektiert, dass die Finger des Benutzers den Knopf 4 berührt haben, und dass die Finger des Benutzers vom Knopf 4 gelöst wurden. Die Fingerberührung-am-Knopf-Bestimmungseinheit 24 bestimmt unter Verwendung eines Ergebnisses der Detektion, ob sich der Knopf 4 in einem Zustand befindet, in dem er mit den Fingern des Benutzers berührt wird.
  • (Drittes spezifisches Beispiel)
  • In einem dritten spezifischen Beispiel wird bestimmt, ob sich der Knopf 4 in einem Zustand befindet, in dem er mit den Fingern des Benutzers berührt wird, basierend darauf, ob es eine sogenannte „Koordinatenabweichung“ gibt.
  • Normalerweise kann der kapazitive Berührungsbildschirm 1 einen Berührungspunkt genau detektieren, wenn das GND-Potenzial des menschlichen Körpers mit dem GND-Potenzial des Berührungssensors 3 übereinstimmt. Wenn hier das GND-Potenzial des menschlichen Körpers und das GND-Potenzial des Berührungssensors 3 aufgrund von Leistungsversorgungsrauschen nicht übereinstimmen, wird Rauschen zu einem durch den Berührungssensor 3 detektierten Wert hinzugefügt und der detektierte Wert schwankt in einer kurzen Zeitperiode. Infolgedessen schwanken auch die Berührungskoordinatenwerte jedes Berührungspunktes, der durch Berührungsinformationen angegeben wird, in einer kurzen Zeitperiode, und es tritt eine sogenannte Koordinatenabweichung auf.
  • Nach dem gleichen Prinzip wie diesem Prinzip schwankt in einem Zustand, in dem der Knopf 4 mit den Fingern des Benutzers berührt wird, der Kapazitätswert eines Berührungspunktes, der einer Leitersäule 13 entspricht, aufgrund des Leistungsversorgungsrauschens in einer kurzen Zeitperiode. Infolgedessen tritt eine Koordinatenabweichung auch in dem Berührungspunkt auf, der der Leitersäule 13 entspricht.
  • Daher bestimmt die Fingerberührung-am-Knopf-Bestimmungseinheit 24, ob es eine Koordinatenabweichung gibt, indem der folgende Schwellenwertbestimmungsprozess durchgeführt wird. Nämlich berechnet die Fingerberührung-am-Knopf-Bestimmungseinheit 24 den Änderungsbetrag über eine vorbestimmte Zeit für die Koordinatenwerte eines Berührungspunktes, der einer Leitersäule 13 entspricht. Die Fingerberührung-am-Knopf-Bestimmungseinheit 24 vergleicht den Wert des berechneten Änderungsbetrags mit einem vorbestimmten Schwellenwert. Zusätzlich dazu bestimmt die Fingerberührung-am-Knopf-Bestimmungseinheit 24 unter Verwendung des berechneten Änderungsbetrags, ob der Knopf 4 gedreht oder geschoben wird. Wenn der berechnete Änderungsbetrag einen Wert größer oder gleich dem Schwellenwert aufweist und der Knopf 4 weder gedreht noch geschoben wird, bestimmt die Fingerberührung-am-Knopf-Bestimmungseinheit 24, dass eine Koordinatenabweichung aufgetreten ist. Andernfalls bestimmt die Fingerberührung-am-Knopf-Bestimmungseinheit 24, dass keine Koordinatenabweichung aufgetreten ist.
  • Wenn die Fingerberührung-am-Knopf-Bestimmungseinheit 24 bestimmt, dass eine Koordinatenabweichung aufgetreten ist, oder wenn die Fingerberührung-am-Knopf-Bestimmungseinheit 24 bestimmt, dass der Knopf 4 gedreht oder geschoben wird, bestimmt die Fingerberührung-am-Knopf-Bestimmungseinheit 24, dass sich der Knopf 4 in einem Zustand befindet, in dem er mit den Fingern des Benutzers berührt wird. Wenn andererseits die Fingerberührung-am-Knopf-Bestimmungseinheit 24 bestimmt, dass der Knopf 4 weder gedreht noch geschoben wird, und keine Koordinatenabweichung aufgetreten ist, bestimmt die Fingerberührung-am-Knopf-Bestimmungseinheit 24, dass der Knopf 4 sich in einem Zustand befindet, in dem er nicht mit den Fingern des Benutzers berührt wird.
  • Es ist zu beachten, dass die Bedienungseingabevorrichtung 100 der zweiten Ausführungsform verschiedene Varianten annehmen kann, die die gleichen sind wie die in der ersten Ausführungsform beschriebenen. Beispielsweise ist die Anordnung der Leitersäulen 131 bis 133 nicht auf Orte beschränkt, die den jeweiligen Eckpunkten eines gleichseitigen Dreiecks entsprechen, und die Anzahl der Leitersäulen 13 ist nicht auf drei beschränkt.
  • Wie oben beschrieben, schätzt in der Bedienungseingabevorrichtung 100 der zweiten Ausführungsform die Ortsschätzungseinheit 23 einen Ort einer Leitersäule, die durch die Berührungspunktdetektionseinheit 21 in einem Zustand, in dem der Knopf 4 nicht mit den Fingern des Benutzers berührt wird, nicht als ein Berührungspunkt detektiert wurde. Selbst wenn einige Leitersäulen (nicht detektierte Leitersäulen) unter den mehreren Leitersäulen 13 nicht als Berührungspunkte in einem Zustand detektiert wurden, in dem der Knopf 4 nicht mit den Fingern des Benutzers berührt wird, kann dadurch eine Verringerung der Genauigkeit der Detektion eines Knopforts unterdrückt werden.
  • Dritte Ausführungsform.
  • 12A ist eine perspektivische Ansicht, die den Hauptteil eines Knopfes gemäß einer dritten Ausführungsform zeigt. 12B ist eine Draufsicht, die den Hauptteil des Knopfes gemäß der dritten Ausführungsform zeigt. 13 ist ein Blockdiagramm, das den Hauptteil einer Steuervorrichtung gemäß der dritten Ausführungsform zeigt. Mit Bezug auf die 12 und 13 wird eine Bedienungseingabevorrichtung 100 der dritten Ausführungsform beschrieben.
  • Es ist zu beachten, dass eine Hardwarekonfiguration der Bedienungseingabevorrichtung 100 gemäß der dritten Ausführungsform dieselbe ist wie die, die unter Bezugnahme auf 1 in der ersten Ausführungsform beschrieben wurde, und somit wird 1 aufgenommen und deren Beschreibung weggelassen. Es ist auch zu beachten, dass in 12 die gleichen Komponenten usw. wie die in 2 gezeigten mit den gleichen Bezugszeichen gekennzeichnet sind und deren Beschreibung weggelassen wird. Es ist auch zu beachten, dass in 13 die gleichen Blöcke wie die in 8 gezeigten mit den gleichen Bezugszeichen gekennzeichnet sind und deren Beschreibung weggelassen wird.
  • Wie in 12 gezeigt, weist jede der zwei Leitersäulen 131 und 132 unter drei Leitersäulen 131 bis 133 eine so große Grundfläche auf, dass die Leitersäule als ein Berührungspunkt detektiert wird, unabhängig davon, ob sich der leitfähige Abschnitt zum Greifen in einem Zustand befindet oder nicht, in dem er mit den Fingern des Benutzers berührt wird. Andererseits ist die Grundfläche der verbleibenden Leitersäule 133 kleiner als die von jeder der Leitersäulen 131 und 132, und die Leitersäule 133 wird nur in einem Zustand als ein Berührungspunkt detektiert, in dem der leitfähige Teil zum Greifen mit den Fingern des Benutzers berührt wird.
  • Auf diese Weise beinhalten die Ergebnisse der Detektion durch die Berührungspunktdetektionseinheit 21 Berührungspunkte P1 bis P3, die den jeweiligen drei Leitersäulen 131 bis 133 entsprechen, in einem Zustand, in dem der Knopf 4 mit den Fingern des Benutzers berührt wird (siehe 14B), und beinhalten die Berührungspunkte P1 und P2, die den jeweiligen zwei Leitersäulen 131 und 132 entsprechen, in einem Zustand, in dem der Knopf 4 nicht mit den Fingern des Benutzers berührt wird (siehe 14C).
  • Von den mehreren Leitersäulen 13, die in dem Knopf 4 bereitgestellt sind, kann eine Leitersäule, die als ein Berührungspunkt detektiert werden kann, unabhängig davon, ob sich der Knopf 4 in einem Zustand befindet, in dem er mit den Fingern des Benutzers berührt wird oder nicht, nachfolgend als „erste Leitersäule“ bezeichnet werden. Zusätzlich dazu kann von den mehreren Leitersäulen 13, die in dem Knopf 4 bereitgestellt sind, eine Leitersäule, die nur in einem Zustand als ein Berührungspunkt detektiert werden kann, in dem der Knopf 4 mit den Fingern des Benutzers berührt wird, als „zweite Leitersäule“ bezeichnet werden.
  • Die Ortsbestimmungseinheit 22 bestimmt Orte von ersten Leitersäulen und einer zweiten Leitersäule in einem Zustand, in dem der Knopf 4 mit den Fingern des Benutzers berührt wird, und bestimmt Orte der ersten Leitersäulen in einem Zustand, in dem der Knopf 4 nicht mit den Fingern des Benutzers berührt wird, unter Verwendung von Berührungsinformationen, die von der Berührungspunktdetektionseinheit 21 ausgegeben werden. Die Ortsschätzungseinheit 23 schätzt einen Ort der zweiten Leitersäule unter Verwendung von Positionsbeziehungsinformationen und Ortschronikinformationen, die in dem Speicher 7 gespeichert sind, in dem Zustand, in dem der Knopf 4 nicht mit den Fingern des Benutzers berührt wird.
  • Zusätzlich dazu bestimmt die Fingerberührung-am-Knopf-Bestimmungseinheit 24 auf Basis der Anzahl von Berührungspunkten, die den Leitersäulen 13 entsprechen, ob sich der Knopf 4 in einem Zustand befindet, in dem er mit den Fingern des Benutzers berührt wird, unter Verwendung der jüngsten vorherigen Bestimmungsergebnisse, die durch die Ortsbestimmungseinheit 22 erhalten wurden. Wenn zum Beispiel drei Berührungspunkte detektiert werden, die den Leitersäulen 13 entsprechen, bestimmt die Fingerberührung-am-Knopf-Bestimmungseinheit 24, dass sich der Knopf 4 in einem Zustand befindet, in dem er mit den Fingern des Benutzers berührt wird, und wenn zwei Berührungspunkte detektiert werden, die den Leitersäulen 13 entsprechen, bestimmt die Fingerberührung-am-Knopf-Bestimmungseinheit 24, dass sich der Knopf 4 in einem Zustand befindet, in dem er nicht mit den Fingern des Benutzers berührt wird.
  • Unter Bezugnahme auf ein Flussdiagramm von 15 wird als Nächstes der Betrieb der Steuervorrichtung 5 gemäß der zweiten Ausführungsform beschrieben. Die Steuervorrichtung 5 gemäß der zweiten Ausführungsform führt die folgenden Prozesse in den Schritten ST11 bis ST15 wiederholt mit vorbestimmten Zeitintervallen aus.
  • Zunächst detektiert in Schritt ST11 die Berührungspunktdetektionseinheit 21 Berührungspunkte unter Verwendung von Signalen, die vom Berührungssensor 3 ausgegeben werden. Die Berührungspunktdetektionseinheit 21 gibt Berührungsinformationen über die detektierten Berührungspunkte aus.
  • Dann bestimmt in Schritt ST12 die Fingerberührung-am-Knopf-Bestimmungseinheit 24, ob sich der Knopf 4 in einem Zustand befindet, in dem er mit den Fingern des Benutzers berührt wird, unter Verwendung der jüngsten vorherigen Bestimmungsergebnisse, die durch die Ortsbestimmungseinheit 22 erhalten wurden. Die Fingerberührung-am-Knopf-Bestimmungseinheit 24 gibt ein Ergebnis der Bestimmung an die Ortsbestimmungseinheit 22 und die Ortsschätzungseinheit 23 aus.
  • Falls sich der Knopf 4 in einem Zustand befindet, in dem er mit den Fingern des Benutzers berührt wird („JA“ in Schritt ST12), bestimmt in Schritt ST13 die Ortsbestimmungseinheit 22 Orte von ersten Leitersäulen und einer zweiten Leitersäule in dem Anzeigegebiet des Berührungsbildschirms 1 unter Verwendung der von der Berührungspunktdetektionseinheit 21 ausgegebenen Berührungsinformationen. Die Ortsbestimmungseinheit 22 speichert Informationen, die die bestimmten Orte angeben, im Speicher 7.
  • Falls sich andererseits der Knopf 4 in einem Zustand befindet, in dem er nicht mit den Fingern des Benutzers berührt wird („NEIN“ in Schritt ST12), bestimmt in Schritt ST14 die Ortsbestimmungseinheit 22 die Orte von ersten Leitersäulen in dem Anzeigegebiet des Berührungsbildschirms 1 unter Verwendung der von der Berührungspunktdetektionseinheit 21 ausgegebenen Berührungsinformationen. Die Ortsbestimmungseinheit 22 speichert Informationen, die die bestimmten Orte angeben, im Speicher 7. Dann schätzt in Schritt ST15 die Ortsschätzungseinheit 23 einen Ort einer zweiten Leitersäule in dem Anzeigegebiet des Berührungsbildschirms 1 unter Verwendung von Positionsbeziehungsinformationen und Ortschronikinformationen, die in dem Speicher 7 gespeichert sind. Die Ortsschätzungseinheit 23 speichert Informationen, die die geschätzten Ort angeben, im Speicher 7.
  • Es ist zu beachten, dass die Leitersäulen 13 beliebig sein können, solange die Leitersäulen 13 eine oder mehrere erste Leitersäulen und eine oder mehrere zweite Leitersäulen enthalten, und die Struktur des Knopfes 4 nicht auf das in 12 gezeigte Beispiel beschränkt ist. Mit Bezug auf die 16 und 17 werden Varianten des Knopfes 4 gemäß der dritten Ausführungsform nachstehend beschrieben.
  • (Erste Variante)
  • In einem in 16 gezeigten Beispiel ist ein äußerer leitfähiger Abschnitt 11 in zwei im Wesentlichen halbzylindrische leitfähige Abschnitte 111 und 112 geteilt. Die Leitersäulen 13 beinhalten drei Leitersäulen 131 bis 133, die elektrisch durchgängig mit einem leitfähigen Abschnitt 111 sind; und eine Leitersäule 134, die elektrisch durchgängig mit dem anderen leitfähigen Abschnitt 112 ist.
  • Hier weisen die Leitersäulen 131 bis 133 jeweils eine so große Grundfläche auf, dass die Leitersäule als ein Berührungspunkt detektiert wird, unabhängig davon, ob sich der leitfähige Teil 111 in einem Zustand befindet, in dem er mit dem Finger eines Benutzers berührt wird oder nicht, und jede ist eine erste Leitersäule. Andererseits ist die Grundfläche der zweiten Leitersäule 134 kleiner als die von jeder der ersten Leitersäulen 131 bis 133, und die zweite Leitersäule 134 ist nicht elektrisch durchgängig mit den ersten Leitersäulen 131 bis 133. Daher wird die zweite Leitersäule 134 nur in einem Zustand als ein Berührungspunkt detektiert, in dem der leitfähige Abschnitt 112 mit dem Finger eines Benutzers berührt wird, und ist eine zweite Leitersäule.
  • In einem Zustand, in dem der Knopf 4 nicht vom Benutzer ergriffen wird, berührt der Finger eines Benutzers nicht den leitfähigen Abschnitt 112, und somit werden von den vier Leitersäulen 131 bis 134 nur drei Leitersäulen 131 bis 133 als Berührungspunkte detektiert. Andererseits berührt in einem Zustand, in dem der Knopf 4 vom Benutzer ergriffen wird, der Finger eines Benutzers den leitfähigen Abschnitt 112, und somit werden die vier Leitersäulen 131 bis 134 alle als Berührungspunkte detektiert.
  • (Zweite Variante)
  • In dem Knopf 4 mit der in 16 gezeigten Struktur besteht in Abhängigkeit von einem Greifzustand durch den Benutzer die Möglichkeit, dass der Finger eines Benutzers den leitfähigen Abschnitt 112 nicht berührt und die Anzahl von Berührungspunkten nicht zunimmt, wenn der Knopf 4 ergriffen wird. 17 zeigt ein Beispiel eines Knopfs 4, bei dem dieser Nachteil verbessert ist, d. h. eines Knopfs 4, bei dem die Anzahl von Berührungspunkten unabhängig von einem Greifzustand zunimmt.
  • In dem in 17 gezeigten Beispiel beinhaltet ein im Wesentlichen zylindrischer äußerer leitfähiger Abschnitt 11 einen leitfähigen Abschnitt 111, der einem unteren Halbabschnitt des Zylinders entspricht; und leitfähige Abschnitte 112 bis 114, die den jeweiligen Teilen entsprechen, die durch Teilen eines oberen Halbabschnitts des Zylinders in drei im Wesentlichen gleiche Teile gebildet werden.
  • Die Leitersäulen 13 beinhalten drei Leitersäulen 131 bis 133, die elektrisch durchgängig mit dem leitfähigen Abschnitt 111 sind, der der untere Halbabschnitt ist. Die Leitersäulen 131 bis 133 haben eine geringere Höhe als die Leitersäulen 134 bis 136, die später beschrieben werden, und sind nicht elektrisch durchgängig mit den leitfähigen Abschnitten 112 bis 114, die der obere Halbabschnitt sind.
  • Zusätzlich dazu beinhalten die Leitersäulen 13 drei Leitersäulen 134 bis 136, die elektrisch durchgängig mit den drei leitfähigen Abschnitten 112 bis 114 sind. Nämlich ist die Leitersäule 134 elektrisch durchgängig mit dem leitfähigen Abschnitt 112, die Leitersäule 135 ist elektrisch durchgängig mit dem leitfähigen Abschnitt 113 und die Leitersäule 136 ist elektrisch durchgängig mit dem leitfähigen Abschnitt 114. Die Leitersäulen 134 bis 136 sind jeweils nicht elektrisch durchgängig mit dem leitfähigen Abschnitt 111, der der untere Halbabschnitt ist.
  • In einer solchen Struktur werden die drei ersten Leitersäulen 131 bis 133 als Berührungspunkte detektiert, unabhängig davon, ob der Finger eines Benutzers den leitfähigen Abschnitt 111 berührt oder nicht, und sind erste Leitersäulen. Eine Leitersäule 134 wird nur in einem Zustand als ein Berührungspunkt detektiert, in dem der leitfähige Abschnitt 112 mit dem Finger eines Benutzers berührt wird, und ist eine zweite Leitersäule. Eine Leitersäule 135 wird nur in einem Zustand als ein Berührungspunkt detektiert, in dem der leitfähige Abschnitt 113 mit dem Finger eines Benutzers berührt wird, und ist eine zweite Leitersäule. Eine Leitersäule 136 wird nur in einem Zustand als ein Berührungspunkt detektiert, in dem der leitfähige Abschnitt 114 mit dem Finger eines Benutzers berührt wird, und ist eine zweite Leitersäule.
  • In diesem Fall werden beispielsweise in einem Zustand, in dem der Knopf 4 nicht durch den Benutzer ergriffen wird, drei erste Leitersäulen 131 bis 133 als Berührungspunkte detektiert. Andererseits werden in einem Zustand, in dem der Knopf 4 vom Benutzer ergriffen wird, zusätzlich zu den drei ersten Leitersäulen 131 bis 133 zweite Leitersäulen, deren Anzahl der Anzahl von leitfähigen Abschnitten entspricht, die mit dem Finger des Benutzers berührt werden, unter den leitfähigen Abschnitten 112 bis 114, die der obere Halbabschnitt sind, als Berührungspunkte detektiert.
  • Hier variiert die Anzahl der leitfähigen Abschnitte, die mit den Fingern des Benutzers berührt werden, unter den leitfähigen Abschnitten 112 bis 114, die der obere Halbabschnitt sind, abhängig von einem Greifzustand des Knopfs 4 durch den Benutzer (z. B. der Anzahl von zum Greifen verwendeten Fingern). Nämlich weist der Knopf 4 eine Struktur auf, in der die Anzahl der zu detektierenden Berührungspunkte in Abhängigkeit von einem Greifzustand durch den Benutzer variiert. Somit wird es auch möglich, einen Greifzustand des Knopfs 4 durch den Benutzer auf Basis der Anzahl von Berührungspunkten zu bestimmen.
  • Wie oben beschrieben, beinhaltet die Bedienungseingabevorrichtung 100 der dritten Ausführungsform den Knopf 4 für Bedienungen, der in dem Anzeigegebiet des Berührungsbildschirms 1 angeordnet ist; die mehreren Leitersäulen 13, die in dem Knopf 4 bereitgestellt sind und eine erste Leitersäule enthalten, die als ein Berührungspunkt detektiert werden kann, unabhängig davon, ob sich der Knopf 4 in einem Zustand befindet, in dem er mit den Fingern des Benutzers berührt wird oder nicht; und eine zweite Leitersäule, die nur in einem Zustand als ein Berührungspunkt detektiert werden kann, in dem der Knopf 4 mit Fingern des Benutzers berührt wird; die Berührungspunktdetektionseinheit 21, die einen Berührungspunkt detektiert, der der ersten Leitersäule entspricht, in einem Zustand, in dem der Knopf 4 nicht mit Fingern des Benutzers berührt wird; eine Ortsbestimmungseinheit 22, die einen Ort der ersten Leitersäule unter Verwendung eines Ergebnisses der Detektion durch die Berührungspunktdetektionseinheit 21 in dem Zustand bestimmt, in dem der Knopf 4 nicht mit Fingern des Benutzers berührt wird; und die Ortsschätzungseinheit 23, die einen Ort der zweiten Leitersäule unter Verwendung von Positionsbeziehungsinformationen, die eine Positionsbeziehung zwischen den mehreren Leitersäulen 13 in dem Knopf 4 angeben, und Ortschronikinformationen, die eine Chronik von Orten der jeweiligen mehreren Leitersäulen 13 angeben, in dem Zustand schätzt, in dem der Knopf 4 nicht mit Fingern des Benutzers berührt wird. Durch das Einbeziehen der Ortsschätzungseinheit 23 kann eine Verringerung der Genauigkeit der Detektion eines Knopforts unterdrückt werden, obwohl einige Leitersäulen (zweite Leitersäulen) unter den mehreren Leitersäulen 13 nicht als Berührungspunkte in einem Zustand detektiert werden, bei dem der Knopf 4 nicht mit den Fingern des Benutzers berührt wird.
  • Vierte Ausführungsform.
  • 18A ist eine perspektivische Ansicht, die den Hauptteil eines Knopfs gemäß einer vierten Ausführungsform zeigt. 18B ist eine Draufsicht, die den Hauptteil des Knopfes gemäß der vierten Ausführungsform zeigt. 19 ist ein Blockdiagramm, das den Hauptteil einer Steuervorrichtung gemäß der vierten Ausführungsform zeigt. Mit Bezug auf die 18 und 19 wird eine Bedienungseingabevorrichtung 100 der vierten Ausführungsform beschrieben.
  • Es ist zu beachten, dass eine Hardwarekonfiguration der Bedienungseingabevorrichtung 100 gemäß der vierten Ausführungsform dieselbe ist wie die, die unter Bezugnahme auf 1 in der ersten Ausführungsform beschrieben wurde, und somit wird 1 aufgenommen und deren Beschreibung weggelassen. Es ist auch zu beachten, dass in 18 die gleichen Komponenten usw. wie die in 2 gezeigten mit den gleichen Bezugszeichen gekennzeichnet sind und deren Beschreibung weggelassen wird. Es ist auch zu beachten, dass in 19 die gleichen Blöcke wie die in 8 gezeigten mit den gleichen Bezugszeichen gekennzeichnet sind und deren Beschreibung weggelassen wird.
  • Eine Berührungspunktdetektionseinheit 21a weist zusätzlich zu einem normalen Betriebsmodus (nachstehend als „erster Betriebsmodus“ bezeichnet) einen Betriebsmodus (nachstehend als „zweiter Betriebsmodus“ bezeichnet) auf, dessen Detektionsempfindlichkeit höher ist als der erste Betriebsmodus. Die Detektionsempfindlichkeit für den ersten Betriebsmodus ist gleich der Detektionsempfindlichkeit der Berührungspunktdetektionseinheit 21 der ersten bis dritten Ausführungsform. Im zweiten Betriebsmodus kann beispielsweise ein sogenannter „Handschuhmodus“ verwendet werden.
  • Hier sind, wie in 18 gezeigt, drei Leitersäulen 131 bis 133 an Orten angeordnet, die den jeweiligen Eckpunkten eines gleichschenkligen Dreiecks entsprechen. Daher, während L1 ≈ L3, L2 < L1 und L2 < L3. Nämlich sind zwei Leitersäulen 132 und 133 unter den drei Leitersäulen 131 bis 133 nahe zueinander angeordnet.
  • Zusätzlich dazu ist die Grundfläche von jeder der drei Leitersäulen 131 bis 133 gleich der Grundfläche der in 12 gezeigten zweiten Leitersäule. Falls daher die Berührungspunktdetektionseinheit 21a im ersten Betriebsmodus arbeitet, unabhängig davon, ob sich der Knopf 4 in einem Zustand befindet, in dem er mit den Fingern des Benutzers berührt wird oder nicht, werden dann die Leitersäulen 13 nur in einem Zustand als Berührungspunkte detektiert, in dem der Knopf 4 wird mit den Fingern des Benutzers berührt wird.
  • Jedoch auch in einem Zustand, in dem der Knopf 4 nicht mit den Fingern des Benutzers berührt wird, wird es dadurch, dass die Berührungspunktdetektionseinheit 21a im zweiten Betriebsmodus arbeitet, mit einer Verbesserung der Detektionsempfindlichkeit möglich, die Leitersäulen 13 als Berührungspunkte zu detektieren. Es ist jedoch zu beachten, dass in diesem Fall die Möglichkeit besteht, dass eine Leitersäule 131 unter den drei Leitersäulen 131 bis 133 als ein einzelner Berührungspunkt detektiert wird, und zwei Leitersäulen 132 und 133, die nahe zueinander angeordnet sind, gemeinsam als ein einzelner Berührungspunkt detektiert werden.
  • 20A zeigt einen Zustand, in dem der Knopf 4 mit den Fingern des Benutzers berührt wird und die Berührungspunktdetektionseinheit 21a im ersten Betriebsmodus arbeitet. In der Zeichnung repräsentiert I1 ein Bild einer Wellenform eines Kapazitätswerts, der aufgrund des Vorhandenseins der einzelnen Leitersäulen 13 detektiert wird. ΔP1 gibt die Spitzenbreite der Wellenform an. In dem in 20A gezeigten Zustand ist die Spitzenbreite ΔP1 ausreichend klein für den Abstand L2 zwischen zwei nahe zueinander angeordneten Leitersäulen 132 und 133, und somit wird jede der drei Leitersäulen 131 bis 133 als ein einzelner Berührungspunkt detektiert. In diesem Fall kann unter Verwendung von Berührungsinformationen ein Ort von jeder der drei Leitersäulen 131 bis 133 bestimmt werden.
  • Andererseits Figur zeigt 20B einen Zustand, in dem der Knopf 4 nicht mit den Fingern des Benutzers berührt wird und die Berührungspunktdetektionseinheit 21a im zweiten Betriebsmodus arbeitet. In der Zeichnung repräsentiert 12 ein Bild einer Wellenform eines Kapazitätswerts, der aufgrund des Vorhandenseins der einzelnen Leitersäulen 13 detektiert wird. ΔP2 gibt die Spitzenbreite der Wellenform an.
  • In einem in 20B gezeigten Beispiel ist aufgrund einer Verbesserung der Detektionsempfindlichkeit ΔP2 größer als ΔP1, und zwei nahe zueinander angeordnete Leitersäulen 132 und 133 werden gemeinsam als ein einzelner Berührungspunkt detektiert. In der Zeichnung repräsentiert 13 ein Bild einer Wellenform mit einem Kapazitätswert, der als der einzelne Berührungspunkt detektiert wird, und ΔP3 gibt die Spitzenbreite der Wellenform an. Wie in 20B gezeigt, ΔP3 > ΔP2, und die Fläche eines einzelnen Berührungspunktes, der den beiden Leitersäulen 132 und 133 entspricht, ist größer als die Fläche eines einzelnen Berührungspunktes, der einer Leitersäule 131 entspricht.
  • Selbst in einem solchen Fall kann unter Verwendung von Berührungsinformationen, Positionsbeziehungsinformationen und Ortschronikinformationen ein Ort von jeder der drei Leitersäulen 131 bis 133 geschätzt werden. Beispielsweise kann ein Ort des Knopfes 4 auf der Anzeigefläche des Berührungsbildschirms 1 unter Verwendung von Berührungsinformationen geschätzt werden, und Orte der einzelnen Leitersäulen 13 am Ort des Knopfes 4 können unter Verwendung von Positionsbeziehungsinformationen und Ortschronikinformationen geschätzt werden.
  • Basierend auf der oben beschriebenen Beschreibung arbeitet die Steuervorrichtung 5 der vierten Ausführungsform wie folgt.
  • Insbesondere detektiert die Berührungspunktdetektionseinheit 21a Berührungspunkte in dem ersten Betriebsmodus in einem Zustand, in dem der Knopf 4 mit den Fingern des Benutzers berührt wird, und detektiert Berührungspunkte in dem zweiten Betriebsmodus in einem Zustand, in dem der Knopf 4 nicht mit den Fingern des Benutzers berührt wird.
  • Eine Ortsbestimmungseinheit 22a bestimmt einen Ort von j eder der drei Leitersäulen 131 bis 133 unter Verwendung von Berührungsinformationen, die von der Berührungspunktdetektionseinheit 21a ausgegeben werden (d. h. Ergebnisse der Detektion durch die Berührungspunktdetektionseinheit 21a) in dem Zustand, in dem der Knopf 4 mit den Fingern des Benutzers berührt wird.
  • Eine Ortsschätzungseinheit 23a schätzt einen Ort von jeder der drei Leitersäulen 131 bis 133 unter Verwendung von Berührungsinformationen, die von der Berührungspunktdetektionseinheit 21a ausgegeben werden (d. h. Ergebnisse der Detektion durch die Berührungspunktdetektionseinheit 21a) und Positionsbeziehungsinformationen und Ortschronikinformationen, die in dem Speicher 7 gespeichert sind, in dem Zustand, in dem der Knopf 4 nicht mit den Fingern des Benutzers berührt wird.
  • Eine Fingerberührung-am-Knopf-Bestimmungseinheit 24a bestimmt, ob sich der Knopf 4 in einem Zustand befindet, in dem er mit den Fingern des Benutzers berührt wird, unter Verwendung der Tatsache, dass, wenn die Berührungspunktdetektionseinheit 21a im ersten Betriebsmodus arbeitet, die Leitersäulen 13 nur in einem Zustand als Berührungspunkte detektiert werden, in dem der Knopf 4 mit den Fingern des Benutzers berührt wird. Wenn andererseits die Berührungspunktdetektionseinheit 21a im zweiten Betriebsmodus arbeitet, werden die Leitersäulen 13 als Berührungspunkte detektiert, unabhängig davon, ob sich der Knopf 4 in einem Zustand befindet, in dem er mit den Fingern des Benutzers berührt wird, und somit bestimmt die Fingerberührung-am-Knopf-Bestimmungseinheit 24a, ob sich der Knopf 4 in einem Zustand befindet, in dem er mit den Fingern des Benutzers berührt wird, durch das gleiche Verfahren wie das, das durch die Fingerberührung-am-Knopf-Bestimmungseinheit 24 gemäß der zweiten Ausführungsform verwendet wird. Diese Bestimmungen verwenden die jüngsten vorherigen Bestimmungsergebnisse, die durch die Ortsbestimmungseinheit 22a erhalten wurden, oder die jüngsten vorherigen Schätzergebnisse, die durch die Ortsschätzungseinheit 23a erhalten wurden.
  • Unter Bezugnahme auf ein Flussdiagramm von 21 wird als Nächstes der Betrieb der Steuervorrichtung 5 gemäß der vierten Ausführungsform beschrieben. Die Steuervorrichtung 5 gemäß der vierten Ausführungsform führt die folgenden Prozesse in den Schritten ST21 bis ST25 wiederholt in vorbestimmten Zeitintervallen aus.
  • Zunächst bestimmt in Schritt ST21 die Fingerberührung-am-Knopf-Bestimmungseinheit 24a, ob sich der Knopf 4 in einem Zustand befindet, in dem er mit den Fingern des Benutzers berührt wird, unter Verwendung der jüngsten vorherigen Bestimmungsergebnisse, die durch die Ortsbestimmungseinheit 22a erhalten wurden, oder der jüngsten vorherigen Schätzergebnisse, die durch die Ortsschätzungseinheit 23a erhalten wurden. Die Fingerberührung-am-Knopf-Bestimmungseinheit 24a gibt ein Ergebnis der Bestimmung an die Berührungspunktdetektionseinheit 21a, die Ortsbestimmungseinheit 22a und die Ortsschätzungseinheit 23a aus.
  • Falls sich der Knopf 4 in einem Zustand befindet, in dem er mit den Fingern des Benutzers berührt wird („JA“ in Schritt ST21), detektiert in Schritt ST22 die Berührungspunktdetektionseinheit 21a Berührungspunkte im ersten Betriebsmodus. Dann bestimmt in Schritt ST23 die Ortsbestimmungseinheit 22a einen Ort von jeder der drei Leitersäulen 131 bis 133 unter Verwendung von Berührungsinformationen, die von der Berührungspunktdetektionseinheit 21a ausgegeben werden.
  • Falls sich der Knopf 4 andererseits in einem Zustand befindet, in dem er nicht mit den Fingern des Benutzers berührt wird („NEIN“ in Schritt ST21), detektiert in Schritt ST24 die Berührungspunktdetektionseinheit 21a Berührungspunkte im zweiten Betriebsmodus. Dann schätzt in Schritt ST25 die Ortsschätzungseinheit 23a einen Ort von jeder der drei Leitersäulen 131 bis 133 unter Verwendung von Berührungsinformationen, die von der Berührungspunktdetektionseinheit 21a ausgegeben werden, und Positionsbeziehungsinformationen und Ortschronikinformationen, die in dem Speicher 7 gespeichert sind.
  • Es ist zu beachten, dass die Bedienungseingabevorrichtung 100 der vierten Ausführungsform verschiedene Varianten annehmen kann, die den in der ersten Ausführungsform beschriebenen ähnlich sind. Beispielsweise ist die Anordnung der Leitersäulen 131 bis 133 nicht auf Orte beschränkt, die den jeweiligen Eckpunkten eines gleichseitigen Dreiecks entsprechen, und die Anzahl der Leitersäulen 13 ist nicht auf drei beschränkt.
  • Wie oben beschrieben, enthält die Bedienungseingabevorrichtung 100 der vierten Ausführungsform den Knopf 4 für Bedienungen, der in dem Anzeigegebiet des Berührungsbildschirms 1 angeordnet ist; die mehreren Leitersäulen 13, die in dem Knopf 4 bereitgestellt sind; die Berührungspunktdetektionseinheit 21a, die Berührungspunkte detektiert, die den mehreren Leitersäulen 13 entsprechen, in einem ersten Betriebsmodus in einem Zustand, in dem der Knopf 4 mit den Fingern des Benutzers berührt wird, und Berührungspunkte detektiert, die den mehreren Leitersäulen 13 entsprechen, in einem zweiten Betriebsmodus, dessen Detektionsempfindlichkeit höher ist als der erste Betriebsmodus, in einem Zustand, in dem der Knopf 4 nicht mit den Fingern des Benutzers berührt wird; die Ortsbestimmungseinheit 22a, die Orte der mehreren Leitersäulen 13 unter Verwendung der Ergebnisse der Detektion bestimmt, die im ersten Betriebsmodus in dem Zustand erhalten wurden, in dem der Knopf 4 mit den Fingern des Benutzers berührt wird; und die Ortsschätzungseinheit 23a, die Orte der mehreren Leitersäulen 13 unter Verwendung von Ergebnissen der Detektion schätzt, die im zweiten Betriebsmodus in dem Zustand erhalten wurden, in dem der Knopf 4 nicht mit den Fingern des Benutzers berührt wird. Durch das Einbeziehen der Ortsschätzungseinheit 23a kann eine Verringerung der Genauigkeit der Detektion eines Knopforts unterdrückt werden, obwohl Orte einiger Leitersäulen (zwei oder mehr Leitersäulen, die gemeinsam als ein einzelner Berührungspunkt detektiert werden) in den mehreren Leitersäulen 13 in einem Zustand, in dem der Knopf 4 nicht mit den Fingern des Benutzers berührt wird, nicht genau bestimmt werden können.
  • Es ist zu beachten, dass bei der Erfindung der vorliegenden Anmeldung eine freie Kombination der Ausführungsformen, Modifikationen an einer beliebigen Komponente der Ausführungsformen oder Auslassungen einer beliebigen Komponente in den Ausführungsformen im Rahmen der Erfindung möglich sind.
  • INDUSTRIELLE ANWENDBARKEIT
  • Eine Bedienungseingabevorrichtung gemäß der vorliegenden Erfindung kann in einer elektronischen Vorrichtung wie etwa einer fahrzeuginternen Informationsvorrichtung verwendet werden.
  • Bezugszeichenliste
  • 1
    Berührungsbildschirm,
    2
    Bildschirm,
    3
    Berührungssensor,
    4
    Knopf,
    5
    Steuervorrichtung,
    6
    Prozessor,
    7
    Speicher,
    11
    Äußerer leitfähiger Abschnitt,
    12
    Grundplatte,
    13
    Leitersäule,
    14
    Hohlabschnitt,
    21 und 21a
    Berührungspunktdetektionseinheit,
    22 und 22a
    Ortsbestimmungseinheit,
    23 und 23a
    Ortsschätzungseinheit,
    24 und 24a
    Fingerberührung-am-Knopf-Bestimmungseinheit,
    31
    Erste Steuereinheit,
    32
    Zweite Steuereinheit, und
    100
    Bedienungseingabevorrichtung.

Claims (8)

  1. Bedienungseingabevorrichtung (100), die Folgendes umfasst: einen Knopf (4) für Bedienungen, der in einem Anzeigegebiet eines Berührungsbildschirms (1) angeordnet ist, mehrere Leitersäulen (13), die in dem Knopf bereitgestellt sind; eine Berührungspunktdetektionseinheit (21) zum Detektieren eines Berührungspunktes, der mindestens einer der Leitersäulen entspricht; eine Ortsbestimmungseinheit (22) zum Bestimmen eines Orts der mindestens einen der Leitersäulen unter Verwendung eines Ergebnisses der Detektion durch die Berührungspunktdetektionseinheit; und eine Ortsschätzungseinheit (23) zum Schätzen, wenn es eine Leitersäule gibt, die durch die Berührungspunktdetektionseinheit nicht als ein Berührungspunkt detektiert wurde, eines Orts der Leitersäule, der durch die Berührungspunktdetektionseinheit nicht als ein Berührungspunkt detektiert wurde, unter Verwendung von Positionsbeziehungsinformationen, die eine Positionsbeziehung zwischen den mehreren Leitersäulen in dem Knopf angeben, und Ortschronikinformationen, die eine Chronik von Orten der jeweiligen mehreren Leitersäulen angeben.
  2. Bedienungseingabevorrichtung (100) nach Anspruch 1, wobei die Ortsschätzungseinheit (23) einen Ort einer Leitersäule schätzt, die durch die Berührungspunktdetektionseinheit (21) nicht als ein Berührungspunkt in einem Zustand detektiert wurde, in dem der Knopf (4) nicht mit den Fingern des Benutzers berührt wird.
  3. Bedienungseingabevorrichtung (100), die Folgendes umfasst: einen Knopf (4) für Bedienungen, der in einem Anzeigegebiet eines Berührungsbildschirms (1) angeordnet ist; mehrere Leitersäulen (13), die in dem Knopf bereitgestellt sind und Folgendes beinhalten: eine erste Leitersäule, die als ein Berührungspunkt detektiert werden kann, unabhängig davon, ob sich der Knopf in einem Zustand befindet, in dem er mit den Fingern des Benutzers berührt wird oder nicht, und eine zweite Leitersäule, die als ein Berührungspunkt nur in einem Zustand detektiert werden kann, in dem der Knopf mit den Fingern des Benutzers berührt wird; eine Berührungspunktdetektionseinheit (21) zum Detektieren eines Berührungspunktes, der der ersten Leitersäule entspricht, in einem Zustand, in dem der Knopf nicht mit den Fingern des Benutzers berührt wird; eine Ortsbestimmungseinheit (22) zum Bestimmen eines Orts der ersten Leitersäule unter Verwendung eines Ergebnisses der Detektion durch die Berührungspunktdetektionseinheit in dem Zustand, in dem der Knopf nicht mit den Fingern des Benutzers berührt wird; und eine Ortsschätzungseinheit (23) zum Schätzen eines Orts der zweiten Leitersäule unter Verwendung von Positionsbeziehungsinformationen, die eine Positionsbeziehung zwischen den mehreren Leitersäulen in dem Knopf angeben, und Ortschronikinformationen, die eine Chronik von Orten der jeweiligen mehreren Leitersäulen in dem Zustand angeben, in dem der Knopf nicht mit den Fingern des Benutzers berührt wird.
  4. Bedienungseingabevorrichtung (100) nach Anspruch 3, wobei die Berührungspunktdetektionseinheit (21) Berührungspunkte detektiert, die der ersten Leitersäule und der zweiten Leitersäule entsprechen, in dem Zustand, in dem der Knopf (4) mit den Fingern des Benutzers berührt wird, und die Ortsbestimmungseinheit (22) die Orte der ersten Leitersäule und der zweiten Leitersäule unter Verwendung der Ergebnisse der Detektion durch die Berührungspunktdetektionseinheit (21) in dem Zustand bestimmt, in dem der Knopf (4) mit den Fingern des Benutzers berührt wird.
  5. Bedienungseingabevorrichtung (100), die Folgendes umfasst: einen Knopf (4) für Bedienungen, der in einem Anzeigegebiet eines Berührungsbildschirms (1) angeordnet ist; mehrere Leitersäulen (13), die in dem Knopf bereitgestellt sind; eine Berührungspunktdetektionseinheit (21a) zum Detektieren von Berührungspunkten, die den mehreren Leitersäulen entsprechen, in einem ersten Betriebsmodus in einem Zustand, in dem der Knopf mit den Fingern des Benutzers berührt wird, und Detektieren von Berührungspunkten, die den mehreren Leitersäulen entsprechen, in einem zweiten Betriebsmodus in einem Zustand, in dem der Knopf nicht mit den Fingern des Benutzers berührt wird, wobei der zweite Betriebsmodus eine höhere Detektionsempfindlichkeit aufweist als der erste Betriebsmodus; eine Ortsbestimmungseinheit (22a) zum Bestimmen von Orten der jeweiligen mehreren Leitersäulen unter Verwendung von Ergebnissen der im ersten Betriebsmodus erhaltenen Detektion in dem Zustand, in dem der Knopf mit den Fingern des Benutzers berührt wird; und eine Ortsschätzungseinheit (23a) zum Schätzen von Orten der jeweiligen mehreren Leitersäulen unter Verwendung von Ergebnissen der im zweiten Betriebsmodus erhaltenen Detektion in dem Zustand, in dem der Knopf nicht mit den Fingern des Benutzers berührt wird.
  6. Bedienungseingabevorrichtung (100) nach Anspruch 5, wobei im ersten Betriebsmodus jede der mehreren Leitersäulen (13) als ein einzelner Berührungspunkt detektiert wird und im zweiten Betriebsmodus zwei oder mehr Leitersäulen (13) gemeinsam als ein einzelner Berührungspunkt detektiert werden, wobei die zwei oder mehr Leitersäulen (13) einige der mehreren Leitersäulen sind.
  7. Bedienungseingabevorrichtung (100) nach einem der Ansprüche 1 bis 4, wobei jeder durch die Ortschronikinformationen angegebene Ort ein Ort ist, der in der Vergangenheit von der Ortsbestimmungseinheit (22) bestimmt wurde, oder ein Ort ist, der in der Vergangenheit von der Ortsschätzungseinheit (23) geschätzt wurde.
  8. Bedienungseingabevorrichtung (100) nach einem der Ansprüche 2 bis 6, die eine Fingerberührung-am-Knopf-Bestimmungseinheit (24; 24a) umfasst zum Bestimmen, ob sich der Knopf (4) in einem Zustand befindet, in dem er mit den Fingern des Benutzers berührt wird.
DE112017007916.0T 2017-10-11 2017-10-11 Bedienungseingabevorrichtung Active DE112017007916B4 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/036778 WO2019073545A1 (ja) 2017-10-11 2017-10-11 操作入力装置

Publications (2)

Publication Number Publication Date
DE112017007916T5 DE112017007916T5 (de) 2020-05-20
DE112017007916B4 true DE112017007916B4 (de) 2021-11-04

Family

ID=66100663

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017007916.0T Active DE112017007916B4 (de) 2017-10-11 2017-10-11 Bedienungseingabevorrichtung

Country Status (5)

Country Link
US (1) US10976835B2 (de)
JP (1) JP6687299B2 (de)
CN (1) CN111164547B (de)
DE (1) DE112017007916B4 (de)
WO (1) WO2019073545A1 (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6897746B2 (ja) * 2019-10-30 2021-07-07 Smk株式会社 静電容量式タッチパネルの操作ノブ
JP6758547B1 (ja) * 2019-12-05 2020-09-23 三菱電機株式会社 触覚提示パネル、触覚提示タッチパネル、触覚提示タッチディスプレイ、および触覚提示つまみ
CN114868098A (zh) * 2019-12-26 2022-08-05 三菱电机株式会社 触觉呈现面板、触觉呈现触摸面板以及触觉呈现触摸显示器
US11747907B2 (en) * 2020-01-07 2023-09-05 Mitsubishi Electric Corporation Tactile presentation panel, tactile presentation touch panel, and tactile presentation touch display
US11416089B2 (en) 2020-07-20 2022-08-16 Himax Technologies Limited Knob device applicable to touch panel
JP7088249B2 (ja) * 2020-09-17 2022-06-21 Smk株式会社 タッチパネルディスプレイ用操作入力装置
JP7273913B2 (ja) * 2021-01-27 2023-05-15 奇景光電股▲ふん▼有限公司 タッチパネルに適用可能なノブデバイス

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6425311A (en) 1987-07-21 1989-01-27 Sharp Kk Method for adjusting head position for rotary magnetic sheet recording and reproducing device
JPH0213A (ja) 1987-10-13 1990-01-05 Hitachi Chem Co Ltd 液晶表示素子の透明電極保護被膜形成用組成物
JP2013178678A (ja) 2012-02-28 2013-09-09 Nippon Telegr & Teleph Corp <Ntt> 操作情報入力システム及び操作情報入力システムによって実行されるコンテンツ検索方法
US20140042004A1 (en) 2012-08-13 2014-02-13 Wistron Corporation Controlling device of turning knob and controlling method of touch panel
DE102015118587A1 (de) 2015-10-30 2017-05-04 Preh Gmbh Bedienanordnung aus Betätigungsteil mit Eingabefläche und auf der Eingabefläche angeordnetem Drehsteller
US20170235410A1 (en) 2016-02-02 2017-08-17 Tactual Labs Co. Decimation supplementation strategies for input event processing
DE112015006440T5 (de) 2015-04-13 2017-12-28 Mitsubishi Electric Corporation Bedienwerkzeug, Eingabevorrichtung und elektronische Vorrichtung
CN108693989A (zh) 2017-04-12 2018-10-23 宏碁股份有限公司 电子装置以及使用者接口控制方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS575767B2 (de) 1973-03-16 1982-02-01
US8471811B2 (en) * 2004-12-23 2013-06-25 Avago Technologies General Ip (Singapore) Pte. Ltd. Puck-based pointing device that provides multiple buttons
JP2010257077A (ja) 2009-04-22 2010-11-11 Tokai Rika Co Ltd 操作入力装置
JP2012035782A (ja) 2010-08-09 2012-02-23 Clarion Co Ltd 車載装置
EP2645216B1 (de) * 2010-11-22 2019-10-02 YOSHIDA, Kenji Informationseingabesystem, programm, medium
JP2013114336A (ja) * 2011-11-25 2013-06-10 Panasonic Corp 入力情報処理装置
US9488460B2 (en) * 2012-07-30 2016-11-08 Continental Automotive Gmbh Capacitive sensing node integration to a surface of a mechanical part
GB201312978D0 (en) * 2013-07-19 2013-09-04 Ams Neve Plc Rotary control
JPWO2015174092A1 (ja) * 2014-05-15 2017-04-20 パナソニックIpマネジメント株式会社 操作つまみおよびそれを利用した表示装置
WO2016002202A1 (ja) * 2014-07-04 2016-01-07 パナソニックIpマネジメント株式会社 回転操作型入力装置
WO2016121205A1 (ja) * 2015-01-28 2016-08-04 アルプス電気株式会社 入力装置
JP6417251B2 (ja) * 2015-03-20 2018-11-07 アルプス電気株式会社 回転式入力装置
US10705629B1 (en) * 2016-08-03 2020-07-07 Apple Inc. Customizable control system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6425311A (en) 1987-07-21 1989-01-27 Sharp Kk Method for adjusting head position for rotary magnetic sheet recording and reproducing device
JPH0213A (ja) 1987-10-13 1990-01-05 Hitachi Chem Co Ltd 液晶表示素子の透明電極保護被膜形成用組成物
JP2013178678A (ja) 2012-02-28 2013-09-09 Nippon Telegr & Teleph Corp <Ntt> 操作情報入力システム及び操作情報入力システムによって実行されるコンテンツ検索方法
US20140042004A1 (en) 2012-08-13 2014-02-13 Wistron Corporation Controlling device of turning knob and controlling method of touch panel
DE112015006440T5 (de) 2015-04-13 2017-12-28 Mitsubishi Electric Corporation Bedienwerkzeug, Eingabevorrichtung und elektronische Vorrichtung
DE102015118587A1 (de) 2015-10-30 2017-05-04 Preh Gmbh Bedienanordnung aus Betätigungsteil mit Eingabefläche und auf der Eingabefläche angeordnetem Drehsteller
US20170235410A1 (en) 2016-02-02 2017-08-17 Tactual Labs Co. Decimation supplementation strategies for input event processing
CN108693989A (zh) 2017-04-12 2018-10-23 宏碁股份有限公司 电子装置以及使用者接口控制方法

Also Published As

Publication number Publication date
JP6687299B2 (ja) 2020-04-22
WO2019073545A1 (ja) 2019-04-18
CN111164547A (zh) 2020-05-15
DE112017007916T5 (de) 2020-05-20
US20200225765A1 (en) 2020-07-16
JPWO2019073545A1 (ja) 2020-04-02
US10976835B2 (en) 2021-04-13
CN111164547B (zh) 2023-05-16

Similar Documents

Publication Publication Date Title
DE112017007916B4 (de) Bedienungseingabevorrichtung
DE112017007920T5 (de) Bedienungseingabevorrichtung
DE4406668C2 (de) Verfahren und Vorrichtung zum Betreiben eines berührungsempfindlichen Anzeigegeräts
DE19737596B4 (de) Berührungserkennungsvorrichtung für eine berührungsempfindliche Eingabevorrichtung
DE112018006617B4 (de) Berührungsfeldvorrichtung
DE3507110C2 (de)
DE102017130379A1 (de) Sensoreinrichtung mit kapazitivem Sensor für Kraftfahrzeuge
DE102016101711A1 (de) Berührungs-Anzeigetafel und Anzeigevorrichtung
DE102014103677A1 (de) Berührungsabtastungsverfahren für einen Touchscreen, Berührungsabtastungs-Steuerschaltung und Anzeigevorrichtung
DE102015120639A1 (de) Integriertes Elektromagnetismus- und Kapazitäts-Tastfeld, Berührungsbildschirm und Berührungsanzeigevorrichtung
DE102018120576B3 (de) Eingabevorrichtung mit beweglicher Handhabe auf kapazitiver Detektionsfläche und redundanter kapazitiver Potenzialeinkopplung
DE112012003889T5 (de) Verfahren, Vorrichtung und Computerprogramm, die zum Zeigen auf ein Objekt dienen
DE102018125608A1 (de) Ausrichtverfahren zur Verwendung in einer Halbleiterinspektionsvorrichtung
DE112019002726T5 (de) Steuersystem für ein Fahrzeug
EP0967587B1 (de) Vorrichtung zum Eingeben und Auslesen von Daten
DE102005056256A1 (de) Detektionsverfahren für ein Touch-Panel
DE112017007915T5 (de) Bedienungseingabevorrichtung, informationsverarbeitungssystem und bedienungsbestimmungsverfahren
DE112017003952T5 (de) Bedienungseingabevorrichtung
DE102014012635A1 (de) Elektrische Presse, Biegepunkterfassungsverfahren und Programm
DE112020003523T5 (de) Steuervorrichtung, steuerverfahren und steuerprogramm
DE3843454C1 (de)
WO2020249285A1 (de) Eingabevorrichtung mit beweglicher handhabe auf kapazitiver detektionsfläche und kapazitiven koppeleinrichtungen
DE4243425A1 (de)
DE112018005281T5 (de) Betätigungsvorrichtung
DE112018007216B4 (de) Eingabesteuerungsvorrichtung, Anzeigeeingabevorrichtung und Eingabesteuerungsverfahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R084 Declaration of willingness to licence
R020 Patent grant now final