DE102016120075B4 - Bediensystem zur Bedienung eines Multifunktionssystems - Google Patents

Bediensystem zur Bedienung eines Multifunktionssystems Download PDF

Info

Publication number
DE102016120075B4
DE102016120075B4 DE102016120075.1A DE102016120075A DE102016120075B4 DE 102016120075 B4 DE102016120075 B4 DE 102016120075B4 DE 102016120075 A DE102016120075 A DE 102016120075A DE 102016120075 B4 DE102016120075 B4 DE 102016120075B4
Authority
DE
Germany
Prior art keywords
screen
operator
operating
designed
virtual functional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102016120075.1A
Other languages
English (en)
Other versions
DE102016120075A1 (de
Inventor
Tino JAKOWITZ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harman Becker Automotive Systems GmbH
Original Assignee
Harman Becker Automotive Systems GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harman Becker Automotive Systems GmbH filed Critical Harman Becker Automotive Systems GmbH
Priority to DE102016120075.1A priority Critical patent/DE102016120075B4/de
Priority to US15/786,951 priority patent/US10705719B2/en
Publication of DE102016120075A1 publication Critical patent/DE102016120075A1/de
Application granted granted Critical
Publication of DE102016120075B4 publication Critical patent/DE102016120075B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F4/00Methods or devices enabling patients or disabled persons to operate an apparatus or a device not forming part of the body 
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/162Interface to dedicated audio devices, e.g. audio drivers, interface to CODECs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04809Textured surface identifying touch areas, e.g. overlay structure for a virtual keyboard

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Business, Economics & Management (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Vascular Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Bediensystem (100) zum Bedienen eines Multifunktionssystems, das ausgebildet ist, in einem Blindbetriebsmodus, und in einem Sichtbetriebsmodus betrieben zu werden, wobei das Bediensystem aufweist:- einen berührungsempfindlichen Bildschirm (120), der ausgebildet ist, mehrere virtuelle Funktionselemente (310-340, 420, 501) zum Steuern verschiedener Funktionen des Multifunktionssystems anzuzeigen, wobei in dem Blindbetriebsmodus eine Bedienperson ohne Blick auf den Bildschirm virtuelle Funktionselemente betätigt, und in dem Sichtbetriebsmodus die Bedienperson mit Blick auf den Bildschirm die virtuelle Funktionselemente betätigt,- ein Führungselement (170, 510, 900), das mit dem Bildschirm in Verbindung steht- ein weiteres Bedienelement (230, 530, 905), das mit dem Bildschirm in Verbindung steht,- eine Steuereinheit (110), die ausgebildet ist, zumindest das Führungselement und das weitere Bedienelement zu steuern und im Blindbetriebsmodus bei Betätigung des Bildschirms (120) eine spür- oder hörbare Rückmeldung zu geben, wenn ein Körperteil der Bedienperson auf dem Bildschirm mit einem der virtuellen Funktionselemente in Berührung kommt, wobei, wenn die Steuereinheit (110) detektiert, dass das Körperteil der Bedienperson auf diesem einen virtuellen Funktionselement zu liegen kommt und eine erste vorbestimmte Betätigung dieses einen virtuellen Funktionselements durch das Körperteil vorliegt, der Bedienperson nichtvisuelle Informationen über das eine virtuelle Funktionselement bereitstellt werden, wobei die Steuereinheit 110 weiterhin ausgebildet ist, bei Betätigung diesen einen virtuellen Funktionselements durch das weitere Bedienelement mit einer zweiten vorbestimmten Betätigung eine bei dem einen virtuellen Funktionselement hinterlegte Funktion zu aktivieren,wobei die Steuereinheit (110) ausgebildet ist, zu unterscheiden, ob sich das Bediensystem im Blindbetriebsmodus oder im Sichtbetriebsmodus befindet, wobei die Steuereinheit (110) ausgebildet ist, im Sichtbetriebsmodus die Aktivierung der bei dem einen virtuellen Funktionselement hinterlegte Funktion nicht durch die Bedienung des weiteren Bedienelements mit der zweiten vorbestimmten Betätigung zu ermöglichen.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft ein Bediensystem zum Bedienen eines Multifunktionssystems, welches ausgebildet ist, in einem Blindbetriebsmodus und in einem Sichtbetriebsmodus betrieben zu werden.
  • Hintergrund
  • In der Vergangenheit wurden Multifunktionssysteme, insbesondere in einer Fahrzeugumgebung, mit mehreren Betätigungselementen versehen, um die verschiedenen Funktionen des Multifunktionssystems zu aktivieren und zu steuern. Durch die Anordnung der einzelnen Betätigungselemente relativ zueinander konnte eine Bedienperson bei Kenntnis des Multifunktionssystems mit den einzelnen Betätigungselementen diese fast blind bedienen durch Ertasten der Form und der Lage der Betätigungselemente. Berührungsempfindliche Bildschirme halten nun auch in der Fahrzeugumgebung Einzug. Diese berührungsempfindlichen Bildschirme werden verwendet, um die verschiedenen Funktionen in der Fahrzeugumgebung zu steuern, wobei es durch die Darstellung von virtuellen Funktionselementen auf dem Bildschirm möglich ist, die zugewiesene Funktion zu aktivieren, wenn ein virtuelles Funktionselement von der Bedienperson betätigt wird. In einer Fahrzeugumgebung ist es wichtig, dass die Bedienperson im Falle eines Fahrers nicht zu sehr vom Verkehrsgeschehen abgelenkt wird, so dass das Multifunktionssystem bedient werden soll, ohne den Blick auf den Bildschirm zu richten, auf dem die virtuellen Funktionselemente angezeigt sind. Mit einem herkömmlichen berührungsempfindlichen Bildschirm ist dies jedoch nicht möglich, da der Bildschirm in Abhängigkeit von dem gewählten Betriebsmodus verschiedene Anordnungen der virtuellen Funktionselemente hat und die Funktionselemente nicht ertastet werden können. Weiterhin soll es jedoch vorzugsweise möglich sein, bei Betrachtung des berührungsempfindlichen Bildschirms die virtuellen Funktionselemente möglichst unverändert auszuwählen, wenn die Bedienperson auf den Bildschirm schaut und durch einfaches Drücken eines virtuellen Funktionselements die zugehörige Funktion aktiviert.
  • Die DE 10 2012 102 749 A1 beschreibt eine Vorrichtung zur Bedienung eines Industrieroboters und eine Bedienungsschnittstelle mit einer berührungsempfindlichen Anzeige.
  • Die DE 10 2014 019 159 A1 offenbart eine Bedienvorrichtung für ein Kraftfahrzeug mit einer sensorischen Oberfläche und einem Führungselement, wobei durch Manipulation des Führungselements eine Funktion des Kraftfahrzeugs eingestellt werden kann.
  • Es ist eine Aufgabe der vorliegenden Erfindung, die obigen Nachteile zu vermeiden und ein System bereitzustellen, das bedient werden kann, ohne dass die Bedienperson den Bildschirm betrachten muss, wobei gleichzeitig in einem Sichtbetriebsmodus, wenn die Bedienperson den Bildschirm betrachtet, die virtuellen Funktionselemente mehr oder weniger unverändert aktiviert werden können.
  • Zusammenfassung
  • Diese Aufgabe wird durch die Merkmale des unabhängigen Anspruchs gelöst. In den abhängigen Ansprüchen sind weitere Ausführungsformen beschrieben.
  • Gemäß einem ersten Aspekt wird ein Bediensystem zum Bedienen eines Multifunktionssystems bereitgestellt, das ausgebildet ist, in einem Blindbetriebsmodus und einem Sichtbetriebsmodus betrieben zu werden. Das Betriebssystem weist einen berührungsempfindlichen Bildschirm auf, der ausgebildet ist, mehrere virtuelle Funktionselemente zum Steuern verschiedener Funktionen des Multifunktionssystems anzuzeigen. In einem Blindbetriebsmodus betätigt eine Bedienperson ohne Blick auf den Bildschirm die virtuellen Funktionselemente, während in dem Sichtbetriebsmodus die Bedienperson mit Blick auf den Bildschirm die virtuellen Funktionselemente betätigt. Das System weist weiterhin ein Führungselement auf, das mit dem Bildschirm in Verbindung steht und ein weiteres Bedienelement, das mit dem Bildschirm in Verbindung steht. Weiterhin weist das Bediensystem eine Steuereinrichtung auf, die ausgebildet ist, zumindest das Führungselement und das weitere Bedienelement zu steuern, und welche im Blindbetriebsmodus bei Betätigung des Bildschirms eine spür- oder hörbare Rückmeldung gibt, wenn ein Körperteil der Bedienperson auf dem Bildschirm mit einem der virtuellen Funktionselemente in Berührung kommt. Wenn die Steuereinrichtung detektiert, dass das Körperteil der Bedienperson auf diesem einen virtuellen Funktionselement zu liegen kommt und eine erste vorbestimmte Betätigung dieses einen virtuellen Funktionselements durch das Körperteil vorliegt, wird der Bedienperson eine nichtvisuelle Information über das eine virtuelle Funktionselement bereitgestellt. Die Steuereinrichtung ist weiterhin ausgebildet, bei Betätigung dieses einen virtuellen Funktionselements durch das weitere Bedienelement mit einer zweiten vorbestimmten Betätigung eine bei dem einen virtuellen Funktionselement hinterlegte Funktion zu aktivieren.
  • Durch das Führungselement und das Bewegen des Führungselements über den Bildschirm kann die Bedienperson nichtvisuelle Informationen über das virtuelle Funktionselement erhalten, beispielsweise welche Funktion das virtuelle Bedienelement gerade steuert, auf dem das Führungselement liegt. Das weitere Bedienelement kann dann dazu verwendet werden, die zu dem virtuellen Funktionselement zugehörige Funktion zu aktivieren. Dadurch kann das Bediensystem auch im Blindbetriebsmodus betrieben werden. Die Bedienperson muss nicht auf den Bildschirm schauen, um zu erfahren, welche Funktion auf einem virtuellen Funktionselement oder Icon hinterlegt ist, dies kann durch eine nichtvisuelle Information wie über eine Audioausgabe der Bedienperson erklärt werden.
  • Erfindungsgemäß kann die Steuereinrichtung unterscheiden kann, ob das Bediensystem sich im Blindbetriebsmodus oder im Sichtbetriebsmodus befindet.
  • Wenn das Bediensystem erkennt, dass es im Sichtbetriebsmodus betrieben wird, kann die Aktivierung der einzelnen Funktionen direkt wie bei einem berührungsempfindlichen Bildschirm üblich durch Berühren des zugehörigen virtuellen Funktionselements auf dem Bildschirm erfolgen. Im Blindbetriebsmodus wird die Funktion durch die oben genannte zweite vorbestimmte Betätigung betätigt. Die Steuereinrichtung ist dabei derart ausgebildet, im Sichtbetriebsmodus die Aktivierung der bei dem einen virtuellen Funktionselement hinterlegten Funktion nicht durch die Bedienung des weiteren Bedienelements mit der zweiten vorbestimmten Betätigung zu ermöglichen. Dies bedeutet, dass zur Aktivierung einer Funktion eines virtuellen Funktionselements im Sichtbetriebsmodus eine andere Betätigung notwendig ist als im Blindbetriebsmodus. Im Sichtbetriebsmodus kann eine Funktion beispielsweise durch Berühren des jeweiligen virtuellen Funktionselements sofort ausgewählt werden, während diese Betätigung im Blindbetriebsmodus die Funktionen nicht auswählt.
  • Die oben beschriebenen Eigenschaften, Merkmale und Vorteile der Erfindung sowie die Art und Weise, wie diese erreicht werden, werden klarer und deutlicher verständlich im Zusammenhang mit der folgenden Beschreibung der Ausführungsbeispiele, die im Zusammenhang mit den Zeichnungen näher erläutert werden.
  • Figurenliste
    • 1 zeigt schematisch ein Bediensystem, das im Blindbetriebsmodus und Sichtbetriebsmodus betrieben werden kann.
    • 2 zeigt schematisch eine Seitenansicht, in der ein Teilbereich des Bediensystems in einer ersten Ausführungsform dargestellt ist.
    • 3 zeigt schematisch den Bildschirm des Systems von 1 mit mehreren verschiedenen virtuellen Funktionselementen mit dem Bewegungsverlauf einer der Hand einer Bedienperson über die einzelnen virtuellen Funktionselemente.
    • 4 zeigt ein weiteres Beispiel des Bildschirms mit der Darstellung von virtuellen Funktionselementen, wie nach Drücken eines der virtuellen Funktionselemente von 3 im Blindbetriebsmodus die Temperatur geändert werden kann.
    • 5 zeigt den Bildschirm und einen Teilabschnitt des Bediensystems in einer weiteren Ausführungsform.
    • 6 zeigt das System von 5 in einer Seitenansicht.
    • 7 zeigt das System von 5 und 6 in einer Rückansicht.
    • 8 zeigt den Bildschirm des Bediensystems in einer weiteren Ausführungsform.
    • 9 zeigt den Bildschirm des Bediensystems in einer zusätzlichen Ausführungsform des Bediensystems.
    • 10 zeigt das Bediensystem von 9 in einer Seitenansicht.
  • Detaillierte Beschreibung
  • Nachfolgend wird die vorliegende Erfindung anhand bevorzugter Ausführungsformen unter Bezugnahme auf die Zeichnungen näher erläutert. In den Figuren bezeichnen gleiche Bezugszeichen gleiche oder ähnliche Elemente. Die Figuren sind schematische Darstellungen verschiedener Ausführungsformen. In den Figuren dargestellte Elemente sind nicht notwendigerweise maßstabsgetreu dargestellt. Vielmehr sind die verschiedenen in den Figuren dargestellten Elemente derart wiedergegeben, dass ihre Funktion und ihr Zweck dem Fachmann verständlich werden. In den Figuren dargestellte Verbindungen und Kopplungen zwischen funktionellen Einheiten und Elementen können auch als indirekte Verbindung oder Kopplung implementiert werden. Eine Verbindung oder Kopplung kann drahtgebunden oder drahtlos implementiert sein. Funktionale Einheiten können als Hardware, Software oder eine Kombination aus Hardware und Software implementiert werden.
  • 1 zeigt schematisch ein Bediensystem 100, das in einem Blindbetriebsmodus und einem Sichtbetriebsmodus betätigt werden kann. Das System 100 kann in einem Kraftfahrzeug angeordnet sein oder in einer anderen Umgebung, in der eine Bedienperson des Systems das System bedienen soll, ohne auf den im System vorhandenen Bildschirm 120 blicken zu müssen, wo virtuelle Funktionselemente angeordnet sind zur Aktivierung verschiedener Funktionen. Das System weist den berührungsempfindlichen Bildschirm 120 sowie ein Führungselement 130 auf. Wie später erläutert wird, dient das Führungselement 130 zur Führung auf dem Bildschirm 120 im Blindbetriebsmodus. Wie später erläutert wird, kann das Führungselement ein haptisches Betätigungselement sein oder es kann als Vibrationsmotor ausgebildet sein, wie der Motor 170, der entweder den Bildschirm oder ein anderes Element vibrieren lässt, wenn ein Körperteil der Bedienperson wie beispielsweise ein Finger über den Bildschirm bewegt wird, um auszukundschaften, wo welches virtuelle Funktionselement dargestellt ist, ohne den Bildschirm zu betrachten. Der Motor 170 ist derart ausgebildet, dass entweder der Bildschirm als solches vibriert oder ein mechanisches Betätigungselement, das auf dem Bildschirm vorhanden ist, wie weiter unten noch im Detail erläutert werden wird. Optional kann das System noch ein Spracherkennungsmodul 150 mit einem Mikrofon 151 aufweisen. Dieses Spracherkennungsmodul ist in der Lage, Sprechkommandos der Bedienperson zu detektieren und zu erkennen, wobei diese Befehle dann vom System 100 umgesetzt werden. Weiterhin ist optional ein Blickerkennungsmodul 160 vorgesehen mit einer Kamera 161. Dieses Blickerkennungsmodul ist in der Lage, die Blickrichtung und den Fokuspunkt der Bedienperson zu erkennen und ist insbesondere in der Lage, zu erkennen, ob die Bedienperson den Bildschirm 120 betrachtet oder im Blickfeld hat oder nicht. Weiterhin ist ein weiteres Bedienelement 140 vorgesehen, mit dem insbesondere im Blindbetriebsmodus eine Funktion eines virtuellen Funktionselements aufgerufen werden kann. Eine Steuereinheit 110 ist ausgebildet, die Funktionsweise des Systems 100 wie nachher noch im Detail erläutert werden wird zu steuern. Weiterhin ist eine Speichereinheit 180 vorgesehen, die beispielsweise Software speichern kann. Die Steuereinheit (110) kann einen oder mehrere Prozessoren aufweisen, und die in der Speichereinheit 180 gespeicherten Instruktionen können von der nicht gezeigten Prozessoreinheit in der Steuereinheit verarbeitet werden, um die nachfolgend noch im Detail erläuterte Funktionalität des Bediensystems (100) zu ermöglichen.
  • Selbstverständlich kann das System noch weitere nicht gezeigte Hardwareelemente oder funktionale Elemente aufweisen, die aber aus Übersichtlichkeitsgründen nicht erläutert werden.
  • Das in 1 dargestellte System kann in einem Blindbetriebsmodus betrieben werden. Dies bedeutet, dass die Bedienperson z.B. der Fahrer eines Fahrzeugs das System bedient, ohne auf den Bildschirm 120 zu schauen. Die Bedienperson kann sich somit auf andere Sachen konzentrieren wie beispielsweise den umliegenden Verkehr. Um der Bedienperson jedoch eine Rückkopplung bzw. ein Feedback zu geben, was die Bedienperson bzw. ein Körperteil der Bedienperson auf dem Bildschirm gerade berührt, kann das System eine hörbare oder fühlbare Rückkopplung erzeugen. Im Blindbetriebsmodus kann ein Erkundungsmodus aktiviert werden, indem der Bedienperson nichtvisuelle Informationen bereitgestellt werden, welche Funktion ausgeführt wird, wenn ein bestimmtes virtuelles Funktionselement aktiviert wird. Bei diesem Erkundungsmodus kann die Bedienperson den Ort auf dem Bildschirm finden, auf dem das zugehörige virtuelle Funktionselement dargestellt ist, ohne den Bildschirm zu betrachten. Eine Frage, die beispielsweise durch diesen Erkundungsmodus beantwortet wird, ist folgende Frage:
    • „Wo ist das Funktionselement, um die Innentemperatur oder die Temperatur des Sitzes zu verändern bzw. zu erhöhen?“ Dieser Erkundungsmodus kann z.B. aktiviert werden, wenn die Bedienperson für eine festgelegte erste Zeitspanne, (z.B. 2 Sekunden) auf einem Funktionselement verweilt und dieses berührt.
  • Weiterhin ist im Blindbetriebsmodus ein Erklärungsmodus möglich. Dieser Erklärungsmodus dient zur Erläuterung des gesamten Systems. Beispielsweise können in dem Erklärungsmodus die virtuellen Funktionselemente der Bedienperson erläutert werden, die gerade auf dem Bildschirm zu sehen sind. Zusätzlich zu dem Erkundungsmodus kann hier erläutert werden, welche Verwendung und Funktionalität die einzelnen virtuellen Bedienelemente haben. Eine mögliche Frage wäre hier die folgende Frage:
    • „Wie kann ich die Temperatur im Innenraum des Fahrzeugs bzw. die Sitztemperatur erhöhen?“ Dieser Erklärungsmodus kann z.B. aktiviert werden, wenn die Bedienperson für eine feste zweite Zweitspanne, die länger als die erste Zeitspanne ist, auf dem Funktionselement verweilt.
  • Nachfolgend werden verschiedene Ausführungsformen beschrieben. In 2 ist eine Ausführungsform gezeigt, bei der der berührungsempfindliche Bildschirm 120 durch Federelemente 220 beweglich in einer Halterung 210 gelagert ist. Weiterhin ist ein Schalter 230 vorgesehen, der die Funktion des weiteren Bedienelements in dieser Ausführungsform innehat. Dieser Schalter 230 wird verwendet, um unterscheiden zu können, ob die Bedienperson in dem Erkundungsmodus nur eine Information über ein virtuelles Funktionselement erhalten möchte oder ob die zugehörige Funktion aktiviert werden soll. Der Schalter wird nur betätigt, wenn der ganze Bildschirm 120 entgegen der Federelemente in Richtung des Schalters gedrückt wird. Durch die Passform des Bildschirms 120 und des Rahmens 210 erfolgt das Eindrücken des Bildschirms immer gleichzeitig auf der gesamten Oberfläche, so dass der Bildschirm 120 parallel zur Ruhelage von 2 in Richtung des Schalters 230 bewegt wird. Eine Funktion eines virtuellen Bedienelements wird hierbei nur betätigt, wenn die Bedienperson das zugehörige Funktionselement auf dem Bildschirm berührt und gleichzeitig der Bildschirm 120 nach hinten gedrückt wird, damit der Schalter 230 betätigt wird. Dies bedeutet, dass eine Ausführung der Funktion nur erfolgt, wenn der Schalter 230 betätigt wird und das zugehörige Funktionselement berührt wird. Dadurch kann unterschieden werden, ob eine Bedienperson nur in einem Erkundungsmodus ein Körperteil, d.h. einen Finger, über den Bildschirm bewegt, um z.B. Audioinformationen über die virtuellen Funktionselemente zu bekommen, die der Finger berührt. Weiterhin ist der Motor 170 schematisch dargestellt, durch den der Bildschirm in Vibration versetzt werden kann, um eine Rückkopplung an die Bedienperson zu geben, wenn die Bedienperson die Fläche, bzw. einen Rand eines virtuellen Funktionselements überquert.
  • In dieser Ausführungsform ist es möglich, dass das System nicht von alleine erkennt, ob es im Blindbetriebsmodus oder Sichtbetriebsmodus betätigt wird. Das System geht vielmehr davon aus, dass es im Blindbetriebsmodus arbeitet und bei Berühren des Bildschirms 120 ohne Niederdrücken des Bildschirms der Erkundungsmodus aktiviert wird, in welchem die Bedienperson nichtvisuelle, beispielsweise Audioinformationen erhält über das virtuelle Funktionselement, auf dem sich die Hand bzw. der Finger der Bedienperson befindet. In einer anderen Ausführungsform kann das System beispielsweise jedoch mit dem Blickerkennungsmodul 160 von 1 ausgestattet sein, so dass das Blickerkennungsmodul 160 erkennt, ob die Bedienperson den Bildschirm 120 betrachtet oder nicht. Falls erkannt wird, dass im Blindbetriebsmodus gearbeitet wird, d.h. die Bedienperson den Bildschirm nicht betrachtet, erfolgt bei Berühren des Bildschirms ohne Betätigung des Schalters 230 der Erkundungsmodus, während die Aktivierung der zugehörigen Funktion nur erfolgt, wenn der Bildschirm 120 gleichzeitig niedergedrückt wird und der Schalter 230 betätigt wird. Erkennt das Blickerkennungsmodul 160, dass der Bildschirm betrachtet wird, kann eine Funktion auch nur durch Berühren des Funktionselements ohne Niederdrücken des Bildschirms ausgelöst werden.
  • Die Arbeitsweise im Erkundungsmodus wird im Zusammenhang mit 3 erläutert. Der Bildschirm 120 zeigt mehrere virtuelle Funktionselemente 310 bis 340 an. Das virtuelle Funktionselement 310 ist beispielsweise dazu vorgesehen, dass in einem Audiobetriebsmodus das gerade gespielte Lied angezeigt wird, beispielsweise mit Namen des Sängers und Titel des Liedes. Mit 360 ist beispielsweise der Weg dargestellt, wie ein Körperteil der Bedienperson, beispielsweise ein Finger oder eine Hand, über den Bildschirm bewegt werden kann. Bei dem dargestellten Weg lässt die Bedienperson den Finger auf dem Bildschirm, jedoch wird dieser nicht nach hinten gedrückt, so dass der Schalter 230 nicht betätigt wird. Die Bedienperson startet ihren Weg auf dem Bildschirm, ohne diesen zu betrachten, am Punkt 361 und verweilt dort für eine bestimmte Zeitdauer, beispielsweise mehr als 2 s. Durch diese erste vorbestimmte Betätigung erkennt das System, dass in dem Erkundungsmodus der Bedienperson erläutert werden soll, auf welchem virtuellen Funktionselement sie sich gerade befindet. Dies kann durch eine Audioausgabe erfolgen, dass momentan das virtuelle Funktionselement der Mediawiedergabe berührt wird, wobei es sich um eine CD, DVD oder um eine sonstige Quelle zur Wiedergabe eines Liedes handeln kann. In 3 sind die Zeitpunkte des Wegs, bei denen die Bedienperson länger verharrt, mit Kreuzen dargestellt. Die Bedienperson weiß nun, welche Funktion im virtuellen Funktionselement 310 hinterlegt ist, da sie diese Information erhalten hat durch längeres Positionieren des Fingers im Punkt 361. Wenn nun die Bedienperson den Finger bewegt, so wird detektiert, dass der Finger im Punkt 362 den Bereich des virtuellen Funktionselements verlässt, was durch Vibration des Bildschirms durch den Motor der Bedienperson kenntlich gemacht werden kann. Im Punkt 363 erfolgt eine weitere Vibration, wodurch die Bedienperson informiert wird, dass sie auf einem weiteren virtuellen Funktionselement gelandet ist. An der Stelle 364 kann sie verweilen, beispielsweise länger als 2 s, wodurch wiederum der Erkundungsmodus aktiviert wird und der Bedienperson erläutert wird, dass das gerade berührte Funktionselement den Tuner betrifft. Da die Bedienperson durch die relative Lage der virtuellen Funktionselemente 310 und 320 ungefähr weiß, wo sie sich auf dem Bildschirm befindet, bewegt sie sich anschließend nach rechts, um das virtuelle Funktionselement 340 zu erreichen, wo die Temperatur eingestellt werden kann. In den Punkten 365 und 366 sowie 367 erfolgt wiederum eine Vibration beim Verlassen des Tunerelements und bei Durchqueren des Funktionselements, das die Navigationsfunktion darstellt. Im Punkt 368 erfolgt wiederum eine Vibration, so dass die Bedienperson erkennt, dass sie nun bei dem dritten Funktionselement in der Reihe angelangt ist. Im Punkt 369 kann sie wiederum eine Weile verharren, so dass der Bedienperson angesagt wird, dass es sich hier um die Temperaturregelung handelt. Durch Drücken des Punkts 369, dargestellt als Viereck, kann die zugehörige Funktion aktiviert werden. Dadurch wird gleichzeitig der Schalter 220 von 2 aktiviert, so dass unterschieden wird, ob es sich um einen Erkundungsmodus oder um eine Aktivierung der zugehörigen Funktion handelt. Die Vibration an den Punkten 362, 363 etc. kann beispielsweise 50 ms betragen. Wenn die Bedienperson den Aufbau der einzelnen Funktionselemente relativ zueinander sehr gut kennt, kann sie auch im Punkt 369 ohne abzuwarten direkt den Bildschirm drücken, um die zugehörige Funktion zu betätigen. Bei der Bewegung von Punkt 361 bis zum Punkt 369 muss die Bedienperson den Bildschirm nicht betrachten und kann daher im Blindbetriebsmodus arbeiten.
  • In 4 ist nun zu erkennen, wie der Bildschirm auf die Temperaturfunktion umgestellt hat nach dem Drücken bei Punkt 369 von 3. Der Bewegungsverlauf ist wiederum durch den Bewegungsverlauf 410 symbolisiert, wobei der Finger im Punkt 401 startet, wo er in 3 lag, bevor das zugehörige Funktionselement betätigt wurde. Die Bedienperson kann dort wiederum eine bestimmte Zeit verweilen, so dass der Bedienperson im Erkundungsmodus erläutert wird, dass der Bildschirm zur Steuerung der Temperatur erreicht wurde. Die Bedienperson kann beispielsweise die Anordnung der einzelnen virtuellen Funktionselemente auf dem Schirm kennen. Wenn sie die Temperatur erhöhen will, so weiß sie, dass das zugehörige virtuelle Funktionselement 420 links oben angeordnet ist. Sie bewegt daher ihren Finger auf der Linie 410, wobei wiederum an den Punkten 402 und 403 die Rückmeldung durch Vibration kommt, dass jeweils eine Grenze eines virtuellen Funktionselements überschritten wurde. Wenn die Bedienperson im Punkt 404 wiederum eine Weile verweilt, beispielsweise 2 s, so wird ihr mitgeteilt, dass die geltende Temperatur 20 °C beträgt. Wenn sie die Temperatur nun erhöhen will, wird der Finger weiter entlang der Bahn 410 bewegt mit weiteren Vibrationspunkten 405 und 406 beim Überschreiten der Grenze der jeweiligen Funktionselemente. Beim Überschreiten bei Punkt 406 weiß die Bedienperson nun, dass sie auf dem gewünschten Funktionselement zur Erhöhung der Temperatur angelangt ist und kann dieses drücken im Punkt 407, so dass die Temperatur dann erhöht wird.
  • Wie im Zusammenhang mit den 3 und 4 erläutert wurde, kann die Bedienperson ohne Blickkontakt mit dem Bildschirm 120 verschiedene Funktionen aktivieren.
  • Im Zusammenhang mit 5 bis 7 wird eine weitere Ausführungsform beschrieben. In 5 ist der Bildschirm 120 dargestellt, wie er in einem Rahmen 500 liegt. Als Führungselement, mit welchem der Erkundungsmodus aktiviert werden kann, ist ein Halteelement 510 vorgesehen. Dieses Halteelement 510 wird, wie in 6 gezeigt, auf dem Bildschirm durch ein auf der Rückseite des Bildschirms angeordnetes Magnetelement 520 gehalten. Das Halteelement 510 kann auf der Oberfläche des Bildschirms bewegt werden, wobei Führungsschienen 610 und 620 vorgesehen sind, die die Bewegung des Magnetelements 520 und damit des Halteelements führen. Durch die Bewegung des Magnetelements 520 wird auch das Halteelement 510 auf der Vorderseite des Bildschirms bewegt. Durch eine magnetische Kraft wird das Halteelement 510 auf dem Bildschirm gehalten. Das Halteelement 510 kann weiterhin ein Betätigungselement 530 als weiteres Bedienelement aufweisen, um die bei einem virtuellen Funktionselement hinterlegte Funktion zu aktivieren, wenn das Halteelement auf einem der virtuellen Funktionselemente zu liegen kommt, wie beispielsweise auf dem virtuellen Funktionselement 501 von 5, und wenn dann das Betätigungselement 530 gedrückt wird.
  • Wie in 5 und 6 zu erkennen ist, ist für das Halteelement 510 eine Parkposition 550 mit Kontakten 551 vorgesehen. Der Erkundungsmodus im Blindbetriebsmodus kann somit gestartet werden, wenn das Halteelement 510 aus der Parkposition herausbewegt wird in Richtung des Bildschirms 120. Die beiden Führungsschienen 610 und 620 von 7 sind an einer Steuerung derart angebracht, dass das Magnetelement und somit das Halteelement über den Bildschirm bewegt werden können. Automatisch kann beispielsweise die Steuerung die beiden Schienen 610 und 620 so bewegen, dass das Magnetelement 520 auf einem virtuellen Funktionselement wie dem Funktionselement 501 zu liegen kommt. Zunächst kann beispielsweise das Element 502 von 5 gewählt werden, das der Parkposition am nächsten liegt. Die Bedienperson kann dem System zu erkennen geben, dass andere Funktionselemente erkundet werden sollen durch Bewegen des Halteelements 510. Wenn die Bedienperson das Halteelement auf einem virtuellen Funktionselement mehr als eine bestimmte Zeitspanne hält, beispielswiese 2 s, so kann der Bedienperson die Funktionalität im Erkundungsmodus des zugehörigen Funktionselements erläutert werden. Der Erklärungsmodus kann beispielsweise gestartet werden, wenn das Halteelement eine Zeitspanne, die länger als die Zeitspanne zum Starten des Erkundungsmodus ist, beispielsweise 7 s, auf einem Funktionselement verbleibt. In dieser Ausführungsform weist das Führungselement das Magnetelement, die Führungsschienen und das Halteelement 510 auf. Das weitere Bedienelement zur Aktivierung der Funktion ist in dem Betätigungselement 530 verwirklicht. Will die Bedienperson eine Funktion aktivieren, so kann das Betätigungselement 530 gedrückt werden. Bei der Bewegung des Halteelements 510 über den Bildschirm ohne Drücken des Betätigungselements ist die Funktionalität die gleiche wie die im Zusammenhang mit 3 und 4 beschriebene Funktionalität, wenn der Schalter 220 nicht betätigt wird wobei hier beispielsweise das Halteelement 510 vibriert, wenn ein virtuelles Funktionselement verlassen wird bzw. das Halteelement in den Bereich eines virtuellen Funktionselements eintritt. Wenn sich das Magnetelement 520 und das Halteelement 510 in der Parkposition 550 befinden, so erkennt die Steuereinheit 110 von 1, dass das System im Sichtbetriebsmodus betrieben wird. Somit können die in 5 dargestellten virtuellen Funktionselemente wie die Funktionselemente 501 und 502 einfach durch direktes Betätigen mit dem Finger aktiviert werden. Im Blindbetriebsmodus erfolgt dies mithilfe des Betätigungselements 530. Durch die Position des Halteelements relativ zur Parkposition wird somit zwischen Blind- und Sichtbetriebsmodus unterschieden.
  • Im Zusammenhang mit 8 wird ein weiteres Merkmal dieser Ausführungsform erläutert. Wenn in einem Blindbetriebsmodus das Halteelement aus der Parkposition bewegt wird, berechnet das System, beispielsweise die Steuereinheit mit der zugehörigen Prozessoreinheit, über die Position der Führungsschienen 610, 620 die Position des Halteelements. Weiterhin sind die Positionen der virtuellen Funktionselemente auf dem Bildschirm bekannt. Die Steuerung des Halteelements kann nun derart erfolgen, dass, wenn die Bedienperson wie in 8 gezeigt das Halteelement in die gestrichelte Position 801 verfährt, eine sogenannte Einschnappfunktion aktiviert wird, wodurch das Halteelement automatisch bei dem virtuellen Funktionselement 810 zentriert wird. Das Halteelement wird somit von der gestrichelt dargestellten Position 801 automatisch in die Position 802 bewegt (mit Pfeil a in 8 dargestellt). Die Bedienperson fühlt diese Zentrierungs- oder Einschnappfunktion und kann entscheiden, ob sie dieser Kraft folgen will und die Führung dem System überlassen werden soll oder ob ein eigener Weg gewählt werden soll. Wenn beispielsweise die Bedienperson das Halteelement von der Position 802 in die Position 803 bewegt, die gestrichelt dargestellt ist, wird wiederum automatisch, wie durch Pfeile b dargestellt, das Halteelement in der Position 804 zentriert. Dies bedeutet, dass das Halteelement manuell bewegt werden kann sowie durch die Steuereinheit gesteuert zur Zentrierung auf den verschiedenen Funktionselementen wie durch die Pfeile a und b dargestellt.
  • In einer weiteren Ausführungsform kann das in den 5 bis 8 beschriebene System das Spracherkennungsmodul 150 mit dem Mikrofon 151 aufweisen. Hierbei kann die Bedienperson aussprechen, welches virtuelle Bedienelement sie erreichen will, und wenn das Spracherkennungsmodul den Sprachbefehl erkannt hat, so kann das Halteelement 510 auf die richtige Position bewegt werden. Dort kann dann beispielsweise die zugehörige Funktion aktiviert werden durch die Bedienperson durch Drücken des Betätigungselements 530. Auch in dieser Ausführungsform wird der Blindbetriebsmodus aktiviert, wenn das Halteelement aus der Parkposition 550 bewegt wird.
  • Im Zusammenhang mit 9 und 10 wird eine weitere Ausführungsform beschrieben Diese Ausführungsform ist ähnlich zu der Ausführungsform, die in den 5 bis 8 beschrieben wurde, jedoch ist hier das Halteelement frei beweglich und wird nur durch die Bedienperson bewegt. Wie in den 9 und 10 zu erkennen ist, ist ein Halteelement 900 vorgesehen, das beispielsweise weitere Betätigungselemente 901 und 902 aufweisen kann. Die Funktion der weiteren Betätigungselemente 901 und 902, 903 hängt davon ab, ob sich das Halteelement 900 in der Parkposition 550 befindet oder nicht. Wie in 10 dargestellt ist, kann das Halteelement 900 ein drehbares Rad 905 aufweisen, das in Richtung der Bildschirmoberfläche gedrückt werden kann. In der Parkposition 550 können die Bedienelement 901 und 902 beispielsweise die Funktion haben zur Änderung der Lautstärke oder zum Schalten zur nächsten Radiostation. Das Rad 905 kann hier beispielsweise als Lautstärkeregler verwendet werden. Ist das Halteelement 900 nicht in der Parkposition 550, so kann durch das Hinunterdrücken des drehbaren Rads 905 in Richtung des Bildschirms die zugehörige Funktion aktiviert werden, wenn das Halteelement auf einem virtuellen Funktionselement wie dem Funktionselement 910 angeordnet ist. Das Magnetelement 920 ist hier als Platte ausgebildet, wodurch das Halteelement 900 auf der Bildschirmoberfläche gehalten wird. Weiterhin kann ein Element 930 vorgesehen sein, mit dem die Position des Halteelements 900 auf dem Bildschirm bestimmt werden kann. Das Halteelement 900 kann mit dem Vibrationsmotor gekoppelt sein, so dass das Halteelement vibriert, wenn die Grenze eines virtuellen Funktionselements überschritten wird, wie es zu Beginn im Zusammenhang mit den 2 bis 4 erläutert wurde. Das Halteelement 900 wird nicht durch das System selbst, sondern nur durch die Bedienperson bewegt. In der Parkposition wird wiederum erkannt, dass sich das Halteelement in der Parkposition befindet und beispielsweise kann eine nicht gezeigte Batterie des Halteelements, falls notwendig, in der Parkposition aufgeladen werden. Der Vibrationsmotor kann hierbei innerhalb des Halteelements 900 angeordnet sein. Durch das Drücken des drehbaren Rads in Richtung der Bildschirmoberfläche wird die Aktivierung einer Funktion erreicht, d.h. das drehbare Rad arbeitet als das weitere Bedienelement, damit unterschieden werden kann, ob der Bedienperson eine Funktion eines virtuellen Funktionselements erläutert wird oder ob die Funktion aktiviert werden soll.
  • In einer weiteren Ausführungsform kann das Halteelement als Fahrzeugschlüssel ausgebildet sein. Fahrzeugschlüssel sind oft als Keyless-Go-Systeme ausgearbeitet, bei denen der Schlüssel nicht mehr in ein Zündschloss gesteckt werden muss, um das Fahrzeug zu starten. Das Fahrzeug erkennt vielmehr die Existenz des Schlüssels in der Nähe. Wenn dieser Schlüssel magnetisch ausgebildet ist und in die Parkposition 550 gesteckt wird, so kann der Fahrzeugschlüssel als Halteelement ausgebildet sein und durch Bewegen des Fahrzeugschlüssels über den Bildschirm kann das Bediensystem wie oben erläutert bedient werden, wobei der Fahrzeugschlüssel ein weiteres Element als Betätigungselement aufweist, mit dem eine Funktion aktiviert werden kann. Hierbei ist es möglich, dass das Bediensystem ohne den Fahrzeugschlüssel überhaupt nicht bedient werden kann, so dass dies gleichzeitig als Diebstahlsicherung für das Bediensystem bzw. für das dadurch bediente Multifunktionssystem dient.
  • Alle vorher beschriebenen Ausführungsformen können mit oder ohne das Blickerkennungsmodul 160 verwendet werden. Wenn beispielsweise detektiert wird, dass die Bedienperson den Bildschirm nicht betrachtet und ein bestimmtes virtuelles Funktionselement betätigt, so kann dies als das Starten des Blindbetriebsmodus interpretiert werden. Wenn erkannt wird, dass die Bedienperson den Bildschirm nicht betrachtet und die Oberfläche berührt wird, so kann automatisch in den Erkundungsmodus übergegangen werden, wobei das System in diesem Blindbetriebsmodus bleibt, solange die Bedienperson den Finger auf der Oberfläche lässt. Auch wenn die Bedienperson kurz auf den Bildschirm schaut, verlässt das System den Blindbetriebsmodus nicht. Für ein Umschalten zwischen dem Blindbetriebsmodus und dem Sichtbetriebsmodus kann beispielsweise der Finger kurz angehoben werden, während die Augen auf dem Bildschirm bleiben.

Claims (17)

  1. Bediensystem (100) zum Bedienen eines Multifunktionssystems, das ausgebildet ist, in einem Blindbetriebsmodus, und in einem Sichtbetriebsmodus betrieben zu werden, wobei das Bediensystem aufweist: - einen berührungsempfindlichen Bildschirm (120), der ausgebildet ist, mehrere virtuelle Funktionselemente (310-340, 420, 501) zum Steuern verschiedener Funktionen des Multifunktionssystems anzuzeigen, wobei in dem Blindbetriebsmodus eine Bedienperson ohne Blick auf den Bildschirm virtuelle Funktionselemente betätigt, und in dem Sichtbetriebsmodus die Bedienperson mit Blick auf den Bildschirm die virtuelle Funktionselemente betätigt, - ein Führungselement (170, 510, 900), das mit dem Bildschirm in Verbindung steht - ein weiteres Bedienelement (230, 530, 905), das mit dem Bildschirm in Verbindung steht, - eine Steuereinheit (110), die ausgebildet ist, zumindest das Führungselement und das weitere Bedienelement zu steuern und im Blindbetriebsmodus bei Betätigung des Bildschirms (120) eine spür- oder hörbare Rückmeldung zu geben, wenn ein Körperteil der Bedienperson auf dem Bildschirm mit einem der virtuellen Funktionselemente in Berührung kommt, wobei, wenn die Steuereinheit (110) detektiert, dass das Körperteil der Bedienperson auf diesem einen virtuellen Funktionselement zu liegen kommt und eine erste vorbestimmte Betätigung dieses einen virtuellen Funktionselements durch das Körperteil vorliegt, der Bedienperson nichtvisuelle Informationen über das eine virtuelle Funktionselement bereitstellt werden, wobei die Steuereinheit 110 weiterhin ausgebildet ist, bei Betätigung diesen einen virtuellen Funktionselements durch das weitere Bedienelement mit einer zweiten vorbestimmten Betätigung eine bei dem einen virtuellen Funktionselement hinterlegte Funktion zu aktivieren,wobei die Steuereinheit (110) ausgebildet ist, zu unterscheiden, ob sich das Bediensystem im Blindbetriebsmodus oder im Sichtbetriebsmodus befindet, wobei die Steuereinheit (110) ausgebildet ist, im Sichtbetriebsmodus die Aktivierung der bei dem einen virtuellen Funktionselement hinterlegte Funktion nicht durch die Bedienung des weiteren Bedienelements mit der zweiten vorbestimmten Betätigung zu ermöglichen.
  2. Bediensystem (100) nach Anspruch 1, wobei die Steuereinheit (110) ausgebildet ist durch Detektion einer Position des Führungselements relativ zu dem berührungsempfindlichen Bildschirm (120) zu erkennen, ob sich das Bediensystem im Blindbetriebsmodus oder im Sichtbetriebsmodus befindet.
  3. Bediensystem (100) nach Anspruch 2, wobei die Steuereinheit ausgebildet ist zu erkennen, dass sich das Bediensystem im Blindbetriebsmodus befindet, wenn detektiert wird, dass das Führungselement nicht in einer vorbestimmten Parkposition (550) relativ zum Bildschirm angeordnet ist.
  4. Bediensystem (100) nach Anspruch 2 oder 3, wobei die Steuereinheit (110) ausgebildet ist zu erkennen, dass sich das Bediensystem im Sichtbetriebsmodus befindet, wenn detektiert wird, dass das Führungselement in einer vorbestimmten Parkposition (550) relativ zum Bildschirm angeordnet ist.
  5. Bediensystem (100) nach einem der vorstehenden Ansprüche, weiterhin aufweisend eine Blickerkennungsmodul (160), das ausgebildet ist, die Blickrichtung der Bedienperson zu erkennen, wobei die Steuereinheit (110) erkennt, dass sich das Bediensystem im Blindbetriebsmodus befindet, wenn das Blickerkennungsmodul erkennt, dass die Bedienperson nicht auf den berührungsempfindlichen Bildschirm blickt.
  6. Bediensystem (100) nach einem der vorstehenden Ansprüche, wobei das Führungselement ein Vibrationselement aufweist, das ausgebildet ist, eine Vibration des Bildschirms oder des Führungselements zu initiieren, wenn der Körperteil der Bedienperson einen Rand eines virtuellen Bedienelements auf dem Bildschirm überquert.
  7. Bediensystem (100) nach einem der vorstehenden Ansprüche, wobei das weitere Bedienelement als Schaltelement (230) ausgebildet ist, das auf der Rückseite des berührungsempfindlichen Bildschirms (120) derart angeordnet ist, dass das Schaltelement (230) betätigt wird, wenn der berührungsempfindliche Bildschirm durch den Körperteil der Bedienperson in Richtung des Schaltelements verschoben wird, wobei die Steuereinheit (110) ausgebildet ist, die bei dem einen virtuellen Funktionselement hinterlegte Funktion zu aktivieren, wenn das eine virtuelle Funktionselement auf dem Bildschirm berührt wird, und das Schaltelement (230) durch Bewegen des Bildschirm in Richtung des Schaltelements betätigt wird.
  8. Bediensystem (100) nach einem der vorstehenden Ansprüche, wobei das Führungselement ein Magnetelement (520) aufweist, das ein auf einer, der Bedienperson zugewandten Seite des Bildschirms (120) angeordnetes Halteelement (510, 900) hält, das durch die Bedienperson greifbar ist und mit magnetischer Kraft durch das Magnetelement (520) auf dem Bildschirm gehalten wird.
  9. Bediensystem (100) nach Anspruch 8, dadurch gekennzeichnet, dass das weitere Bedienelement als Betätigungselement (530) auf dem Halteelement (510, 900) ausgebildet ist, wobei die Steuereinheit (110) ausgebildet ist, die bei dem einen virtuellen Funktionselement hinterlegte Funktion zu aktivieren, wenn das Halteelement (510) auf dem einen Funktionselement liegt und das Betätigungselement (530) durch die Bedienperson betätigt wird.
  10. Bediensystem (100) nach Anspruch 8 oder 9, wobei das Magnetelement (520) auf Führungsschienen (610, 620) geführt wird, wobei die Steuereinheit (110) ausgebildet ist, eine Position des Halteelements (510, 900) auf dem Bildschirm zu bestimmen und das Halteelement (510, 900) im Blindbetriebsmodus zu einem auf dem Bildschirm befindlichen nächstliegenden virtuellen Funktionselement zu bewegen, wobei wenn die Steuereinheit (110) bestimmt, dass das Halteelement (510, 900) über eine erste Zeitspanne nicht von dem nächstliegenden virtuellen Betriebselement fortbewegt wird, der Bedienperson nichtvisuelle Informationen über das nächstliegende virtuelle Funktionselement bereitstellt werden.
  11. Bediensystem (100) nach Anspruch 10, dadurch gekennzeichnet, dass die Steuereinheit (110) ausgebildet ist, das Halteelement (510) auf dem nächstliegenden virtuellen Funktionselement zu zentrieren, wenn es in Richtung des nächstliegenden virtuellen Funktionselements bewegt wird.
  12. Bediensystem (100) nach einem der Ansprüche 8 bis 11, wobei das Haltelement (510, 900) das weitere Bedienelement in Form eines drehbaren Rades (905) aufweist, das weiterhin senkrecht zur Drehrichtung in Richtung des Bildschirms (120) bewegbar gelagert ist, wobei die Steuereinheit (110) ausgebildet ist, die bei einem virtuellen Funktionselement hinterlegte Funktion zu aktivieren, wenn das drehbare Rad (905) in Richtung des Bildschirms bewegt wird.
  13. Bediensystem (100) nach einem der Ansprüche 8 bis 12, wobei das Halteelement (510, 900) weitere Betätigungselemente (901, 902) für eine Betätigung durch die Bedienperson aufweist, wobei die Steuereinheit (110) ausgebildet ist, den weiteren Betätigungselementen Funktionen zuzuweisen, die davon abhängen, ob das Halteelement in einer vorbestimmten Parkposition relativ zum Bildschirm angeordnet ist oder nicht, wobei sich die den weiteren Betätigungselementen zugewiesenen Funktionen in der vorbestimmten Parkposition von den zugewiesenen Funktionen außerhalb der Parkposition unterscheiden.
  14. Bediensystem (100) nach einem der Ansprüche 8 bis 13, wobei das Halteelement als Schlüssel ausgebildet ist, mit dem ein Motor eines Fahrzeugs gestartet werden kann, in dem das Bediensystem angeordnet ist, wobei die Steuereinrichtung ausgebildet ist, den Betrieb des Multifunktionssystems zu sperren, wenn der Schlüssel nicht auf dem Bildschirm oder in einer vorbestimmten Parkposition relativ zum Bildschirm angeordnet ist.
  15. Bediensystem (100) nach einem der vorstehenden Ansprüche, das weiterhin ein Spracherkennungsmodul (150) aufweist, das ausgebildet ist, eine Sprachbefehl der Bedienperson zu erkennen und den Name eines virtuellen Funktionselements in dem Sprachbefehl zu identifizieren, wobei die Steuereinheit (110) ausgebildet ist, das Führungselement auf dem Bildschirm auf das identifizierte virtuelle Funktionselement zu bewegen.
  16. Bediensystem (100) nach einem der vorstehenden Ansprüche, wobei die erste vorbestimmte Betätigung einen Verbleib des Körperteils auf diesem einen virtuellen Funktionselement über eine erste vorbestimmte Zeitspanne aufweist, wobei nach dieser ersten vorbestimmten Zeitspanne die Steuereinheit (110) einen Erkundungsmodus im Blindbetriebsmodus aktiviert, in welchem der Bedienperson nichtvisuelle Information bereitgestellt werden, welche Funktion ausgeführt wird, wenn dieses virtuelle Funktionselement aktiviert wird.
  17. Bediensystem (100) nach einem der vorstehenden Ansprüche, wobei die Steuereinheit (110) ausgebildet ist, nach Detektion einer dritten vorbestimmten Betätigung des einen virtuellen Funktionselements, die sich von der ersten und zweiten vorbestimmten Betätigung unterscheidet, im Blindbetriebsmodus ein Erklärungsmodus zu aktivieren, in welchem die Bedienperson Erklärungen über die bei diesem einem virtuellen Funktionselement hinterlegte Funktion erhält.
DE102016120075.1A 2016-10-21 2016-10-21 Bediensystem zur Bedienung eines Multifunktionssystems Active DE102016120075B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102016120075.1A DE102016120075B4 (de) 2016-10-21 2016-10-21 Bediensystem zur Bedienung eines Multifunktionssystems
US15/786,951 US10705719B2 (en) 2016-10-21 2017-10-18 Operating system for operating a multifunction system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016120075.1A DE102016120075B4 (de) 2016-10-21 2016-10-21 Bediensystem zur Bedienung eines Multifunktionssystems

Publications (2)

Publication Number Publication Date
DE102016120075A1 DE102016120075A1 (de) 2018-04-26
DE102016120075B4 true DE102016120075B4 (de) 2020-11-05

Family

ID=61866288

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016120075.1A Active DE102016120075B4 (de) 2016-10-21 2016-10-21 Bediensystem zur Bedienung eines Multifunktionssystems

Country Status (2)

Country Link
US (1) US10705719B2 (de)
DE (1) DE102016120075B4 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10983601B1 (en) * 2020-01-17 2021-04-20 Assa Abloy Ab Visually impaired mode keypad
DE102020107338B4 (de) * 2020-03-17 2022-09-29 Audi Aktiengesellschaft Bedienvorrichtung zum Bedienen eines Infotainmentsystems, Verfahren zum Bereitstellen eines akustischen Signals für eine Bedienvorrichtung und Kraftfahrzeug mit einer Bedienvorrichtung
DE102020115824A1 (de) 2020-06-16 2021-12-16 Audi Aktiengesellschaft Verfahren zum Unterstützen eines Insassen eines Fahrzeugs

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012102749A1 (de) * 2012-03-29 2013-10-02 Reis Group Holding Gmbh & Co. Kg Vorrichtung und Verfahren zur Bedienung eines Industrieroboters
DE102013013168A1 (de) * 2013-08-08 2015-02-12 Audi Ag Verfahren zum Betreiben eines Infotainment-Systems eines Kraftwagens und Infotainment-System für einen Kraftwagen
DE102013015204A1 (de) * 2013-09-13 2015-03-19 Audi Ag Verfahren und System zum Betreiben wenigstens einer Anzeigeeinrichtung eines Kraftwagens sowie Kraftwagen mit einem System zum Betreiben wenigstens einer Anzeigeeinrichtung
DE102014019159A1 (de) * 2014-12-19 2016-06-23 Audi Ag Bedienvorrichtung für ein Kraftfahrzeug mit einer sensorischen Oberfläche und einem Führungselement

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4218603A (en) 1975-08-29 1980-08-19 Sharp Kabushiki Kaisha Switching assembly equipped with display means installed behind the switching assembly
US6963762B2 (en) 2001-05-23 2005-11-08 Nokia Corporation Mobile phone using tactile icons
US9329719B2 (en) 2007-03-15 2016-05-03 Apple Inc. Hybrid force sensitive touch devices
US20100084249A1 (en) 2008-10-07 2010-04-08 Itt Manufacturing Enterprises, Inc. Snap-on, push button, rotary magnetic encoder knob assembly
JP5267229B2 (ja) * 2009-03-09 2013-08-21 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US10120438B2 (en) * 2011-05-25 2018-11-06 Sony Interactive Entertainment Inc. Eye gaze to alter device behavior
WO2014047674A1 (en) 2012-09-25 2014-04-03 Peter Vogel Instruments Pty Ltd Physical input devices for graphic displays
US9971495B2 (en) * 2013-01-28 2018-05-15 Nook Digital, Llc Context based gesture delineation for user interaction in eyes-free mode
KR20150012464A (ko) * 2013-07-25 2015-02-04 삼성전자주식회사 디스플레이 장치 및 개인화 서비스 제공 방법
JP6147656B2 (ja) * 2013-12-11 2017-06-14 株式会社東海理化電機製作所 入力装置
JP6425573B2 (ja) * 2015-02-04 2018-11-21 キヤノン株式会社 電子機器とその制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012102749A1 (de) * 2012-03-29 2013-10-02 Reis Group Holding Gmbh & Co. Kg Vorrichtung und Verfahren zur Bedienung eines Industrieroboters
DE102013013168A1 (de) * 2013-08-08 2015-02-12 Audi Ag Verfahren zum Betreiben eines Infotainment-Systems eines Kraftwagens und Infotainment-System für einen Kraftwagen
DE102013015204A1 (de) * 2013-09-13 2015-03-19 Audi Ag Verfahren und System zum Betreiben wenigstens einer Anzeigeeinrichtung eines Kraftwagens sowie Kraftwagen mit einem System zum Betreiben wenigstens einer Anzeigeeinrichtung
DE102014019159A1 (de) * 2014-12-19 2016-06-23 Audi Ag Bedienvorrichtung für ein Kraftfahrzeug mit einer sensorischen Oberfläche und einem Führungselement

Also Published As

Publication number Publication date
DE102016120075A1 (de) 2018-04-26
US20180113592A1 (en) 2018-04-26
US10705719B2 (en) 2020-07-07

Similar Documents

Publication Publication Date Title
EP3040816B1 (de) Verfahren und vorrichtung zur eingabe von daten mit zwei eingabearten und haptischer rückkopplung, insbesondere in einem kraftfahrzeug
EP1564107B1 (de) Lenkrad für ein Kraftfahrzeug
EP2200858B9 (de) Fahrzeugsystem mit hilfefunktionalität
EP2062121B1 (de) Touchpad oder -screen und stellelement für touchpad oder -screen
EP3574396A1 (de) Verfahren zum betreiben einer mensch-maschinen-schnittstelle sowie mensch-maschinen-schnittstelle
EP1545002B1 (de) Piezoschalter
DE102016120075B4 (de) Bediensystem zur Bedienung eines Multifunktionssystems
DE102011054848B4 (de) Steuer- und Überwachungseinrichtung für Fahrzeuge
WO2016096700A1 (de) Verfahren zum betreiben einer bedienanordnung für ein kraftfahrzeug mit zustandsabhängiger anzeige, bedienanordnung sowie kraftfahrzeug
EP3600939B1 (de) Fahrzeug mit smart touch
EP2883738B1 (de) Verfahren und Anordnung zum Steuern von Funktionen eines Kraftfahrzeugs
EP1031456A2 (de) Verfahren und Vorrichtung zur Unterstützung eines Benutzers eines Kraftfahrzeugs bei der Bedienung von Fahrzeugkomponenten
DE102018221662B4 (de) Haltegriff für ein Fahrzeug
DE102012012729A1 (de) Bedieneinrichtung für ein Fahrzeug und Verfahren zum Bedienen von Einrichtungen eines Fahrzeugs
DE102009037658A1 (de) Fahrzeug mit mehreren Funktionen und einer zugehörigen Auswahleinrichtung
DE102014011118B4 (de) Verfahren zum Bedienen einer Lichtfunktion von Kraftfahrzeugscheinwerfern und Kraftfahrzeug mit einer Anzeigeeinrichtung und einem Bedienelement für eine Bedienung der Lichtfunktion der Kraftfahrzeugscheinwerfer
WO2009056637A2 (de) Verfahren und vorrichtung zum bedienen einer einrichtung eines fahrzeugs mit einer sprachsteuerung
WO2016012464A1 (de) Bedieneinrichtung für ein kraftfahrzeug mit einem dreidimensionalen berührungsbildschirm
DE102017211524B4 (de) Bedienvorrichtung für ein Kraftfahrzeug und Kraftfahrzeug mit Bedienvorrichtung
DE102008011442A1 (de) Bedienvorrichtung für Einrichtungen eines Fahrzeugs
DE102018218225A1 (de) Lenkrad, Kraftfahrzeug und Verfahren zum Betrieb eines Kraftfahrzeuges
DE102007004250A1 (de) Haptisches Bedienelement und haptische Bedienvorrichtung
EP1544880A2 (de) Bedienvorrichtung
DE102020000696A1 (de) Verfahren zur Steuerung einer Mensch-Maschine-Schnittstelle, Computerprogrammprodukt sowie Kraftfahrzeug
DE102022105688A1 (de) Bedienvorrichtung mit einem Dreh-Drückstell-Bedienelement, Verfahren zum Betreiben eines Kraftfahrzeugs, Steuereinrichtung, und Kraftfahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final