DE102019212278A1 - Control system and method for operating the control system - Google Patents

Control system and method for operating the control system Download PDF

Info

Publication number
DE102019212278A1
DE102019212278A1 DE102019212278.7A DE102019212278A DE102019212278A1 DE 102019212278 A1 DE102019212278 A1 DE 102019212278A1 DE 102019212278 A DE102019212278 A DE 102019212278A DE 102019212278 A1 DE102019212278 A1 DE 102019212278A1
Authority
DE
Germany
Prior art keywords
input unit
operating
activated
shape
user interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019212278.7A
Other languages
German (de)
Inventor
Sarah Brauns
Eva BERNER
Carsten Temming
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102019212278.7A priority Critical patent/DE102019212278A1/en
Priority to PCT/EP2020/071934 priority patent/WO2021028274A1/en
Publication of DE102019212278A1 publication Critical patent/DE102019212278A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/128Axially displaceable input devices for instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1434Touch panels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Das Bediensystem umfasst eine Steuereinheit (2), die dazu eingerichtet ist, Ausgabedaten für eine grafische Bedienoberfläche zu erzeugen, eine Ausgabeeinheit (3) zum Ausgeben der Ausgabedaten und eine Eingabeeinheit (4; 34) zum Erfassen einer Betätigungshandlung. Dabei ist für die Bedienoberfläche zumindest ein erster und ein zweiter Bedienzustand aktivierbar. Dabei ist die Steuereinheit (2) dazu eingerichtet, in Abhängigkeit von dem aktivierten ersten oder zweiten Bedienzustand der Bedienoberfläche ein Form-Steuerungssignal zu erzeugen und an die Eingabeeinheit (4; 34) zu übertragen, wobei die Eingabeeinheit (4; 34) ein Verformungselement (6; 36a, 36b) aufweist, das dazu eingerichtet ist, anhand des Form-Steuerungssignals eine erste Form der Eingabeeinheit (4; 34) auszubilden, wenn der erste Bedienzustand aktiviert ist und eine zweite geometrische Form der Eingabeeinheit (4; 34) auszubilden, wenn der zweite Bedienzustand aktiviert ist. Vorgeschlagen wird ferner ein Verfahren zum Betreiben eines Bediensystems.

Figure DE102019212278A1_0000
The operating system comprises a control unit (2) which is set up to generate output data for a graphical user interface, an output unit (3) for outputting the output data and an input unit (4; 34) for detecting an actuation action. At least a first and a second operating state can be activated for the user interface. The control unit (2) is set up to generate a shape control signal as a function of the activated first or second operating state of the user interface and to transmit it to the input unit (4; 34), the input unit (4; 34) having a deformation element ( 6; 36a, 36b) which is set up to form a first form of the input unit (4; 34) based on the form control signal when the first operating state is activated and to form a second geometric form of the input unit (4; 34), when the second operating state is activated. A method for operating an operating system is also proposed.
Figure DE102019212278A1_0000

Description

Die vorliegende Erfindung betrifft ein Bediensystem, insbesondere für ein Fahrzeug, und ein Verfahren zum Betreiben des Bediensystems.The present invention relates to an operating system, in particular for a vehicle, and a method for operating the operating system.

In zunehmendem Maße halten Techniken der Erweiterten Realität (englisch Augmented Reality, AR) beziehungsweise der Virtuellen Realität (englisch: Virtual Reality, VR) Einzug in den Alltag, insbesondere auch in der Automobilindustrie. Bei Verfahren der Erweiterten Realität wird beispielsweise eine Wahrnehmung der Realität in einer Umgebung eines Nutzers um mittels eines Computers erzeugte, virtuelle Objekte ergänzt, die etwa zusätzliche Informationen ausgeben oder Interaktionsmöglichkeiten bereitstellen. Nachfolgend werden die Begriffe Erweiterte Realität und Virtuelle Realität als im Wesentlichen analog verwendet, da auch im üblichen Sprachgebrauch häufig keine klare Unterscheidung getroffen wird.Techniques of augmented reality (AR) or virtual reality (English: virtual reality, VR) are increasingly finding their way into everyday life, especially in the automotive industry. In the case of augmented reality methods, for example, a perception of reality in a user's environment is supplemented by virtual objects generated by means of a computer, which for example output additional information or provide options for interaction. In the following, the terms augmented reality and virtual reality are used as essentially analog, since no clear distinction is often made in common linguistic usage.

Es wird davon ausgegangen, dass AR-Anzeigegeräte wie Brillen, Kontaktlinsen oder Projektionslösungen flächendeckend verfügbar sein werden. So wird beispielsweise bereits der Einsatz von AR in fahrenden Fahrzeugen sowie darüber hinaus in anderen Situationen im Straßenverkehr erprobt, etwa bei der Fußgängernavigation. Allerdings fehlt derzeit noch ein geeignetes Bedienkonzept für die virtuellen Inhalte, die den Raum des Nutzers umgeben.It is assumed that AR display devices such as glasses, contact lenses or projection solutions will be available everywhere. For example, the use of AR in moving vehicles and also in other situations in road traffic, such as pedestrian navigation, is already being tested. However, there is currently no suitable operating concept for the virtual content that surrounds the user's space.

Beispielsweise ist es während einer manuellen Fahrt für den Fahrer schwierig, mithilfe eines Touchscreens oder ähnlicher Eingabemethoden AR-Inhalte zu steuern. Dies ist zudem mit Ablenkung verbunden. Im Falle der autonomen Fahrt ist jedoch ein manuell bedienbares Steuerelement, insbesondere ein Lenkrad oder eine Mittelkonsole, nicht mehr zwingend erforderlich, wodurch es eines alternativen Interaktionswegs bedarf, etwa mittels eines Handheld-Device.For example, during a manual drive it is difficult for the driver to control AR content using a touchscreen or similar input methods. This is also associated with distraction. In the case of autonomous driving, however, a manually operable control element, in particular a steering wheel or a center console, is no longer absolutely necessary, which means that an alternative interaction path is required, for example using a handheld device.

Es werden daher intuitiv zugängliche und innovative Bedienkonzepte für diese Technologie benötigt, die gleichzeitig sozial akzeptiert sind. Diese müssen einfach und schnell bedienbar sein sowie multifunktionelle Anwendungsfälle hinsichtlich der Interaktion mit verschiedensten AR-Inhalten abdecken können. Insbesondere im Kontext von eigener und geteilter Mobilität sollen diese Interaktionsgeräte darüber hinaus bestenfalls überall und beispielsweise von jedem beliebigen Platz im Fahrzeug verwendbar sein. Auf diese Weise wird ein eigener persönlicher Bereich eines Nutzers hergestellt.Therefore, intuitively accessible and innovative operating concepts are required for this technology that are socially accepted at the same time. These must be easy and quick to use and be able to cover multifunctional applications in terms of interaction with a wide variety of AR content. In particular, in the context of personal and shared mobility, these interaction devices should, at best, be usable anywhere and, for example, from any location in the vehicle. In this way, a user's own personal area is created.

Bei bekannten Eingabemöglichkeiten, etwa mittels Gesten oder Sprachbefehlen wird als nachteilig empfunden, dass diese für die Umwelt oft deutlich sicht- oder hörbar sind und störend wirken können.In the case of known input options, for example by means of gestures or voice commands, it is felt to be disadvantageous that these are often clearly visible or audible to the environment and can have a disruptive effect.

Aus der US 2013/0144482 A1 ist eine Vorrichtung zum Ergänzen einer Instrumententafel mittels Erweiterter Realität bekannt. Anhand der Blickrichtung eines Fahrers eines Fahrzeugs können Funktionen aktiviert und bestimmte Informationen angezeigt werden. Eingaben können beispielsweise mittels eines Touchscreens oder eine Sprachbedienung erfasst werden.From the US 2013/0144482 A1 a device for supplementing an instrument panel by means of augmented reality is known. Functions can be activated and certain information displayed based on the direction of view of a driver of a vehicle. Inputs can be recorded, for example, using a touchscreen or voice control.

Die DE 103 49 673 A1 schlägt eine Vorrichtung zur Dateneingabe in einem Kraftfahrzeug vor, bei der die eingegebenen Daten in einem Sichtfeld des Fahrers angezeigt werden. Die Eingabe erfolgt beispielsweise mittels eines Touch-Panels zur handschriftlichen Eingabe.The DE 103 49 673 A1 proposes a device for data input in a motor vehicle, in which the input data are displayed in a field of view of the driver. The input takes place, for example, by means of a touch panel for handwritten input.

In der KR 10-2013-0036934 wird ein Head-up-Display beschrieben, bei dem die Anzeige eines Mobiltelefons ins Sichtfeld des Fahrers projiziert wird.In the KR 10-2013-0036934 describes a head-up display in which the display of a mobile phone is projected into the driver's field of vision.

Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Bediensystem und ein Verfahren zu dessen Betrieb bereitzustellen, die eine besonders einfache und sozial akzeptierte Bedienung erlauben.The present invention is based on the object of providing an operating system and a method for its operation which allow particularly simple and socially acceptable operation.

Erfindungsgemäß wird diese Aufgabe durch ein Bediensystem mit den Merkmalen des Anspruchs 1 und ein Verfahren mit den Merkmalen des Anspruchs 10 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen ergeben sich aus den abhängigen Ansprüchen.According to the invention, this object is achieved by an operating system with the features of claim 1 and a method with the features of claim 10. Advantageous refinements and developments result from the dependent claims.

Das erfindungsgemäße Bediensystem umfasst eine Steuereinheit, die dazu eingerichtet ist, Ausgabedaten für eine grafische Bedienoberfläche zu erzeugen, eine Ausgabeeinheit zum Ausgeben der Ausgabedaten und eine Eingabeeinheit zum Erfassen einer Betätigungshandlung. Dabei ist für die Bedienoberfläche zumindest ein erster und ein zweiter Bedienzustand aktivierbar. Dabei ist die Steuereinheit dazu eingerichtet, in Abhängigkeit von dem aktivierten ersten oder zweiten Bedienzustand der Bedienoberfläche ein Form-Steuerungssignal zu erzeugen und an die Eingabeeinheit zu übertragen, wobei die Eingabeeinheit ein Verformungselement aufweist, das dazu eingerichtet ist, anhand des Form-Steuerungssignals eine erste Form der Eingabeeinheit auszubilden, wenn der erste Bedienzustand aktiviert ist, und eine zweite geometrische Form der Eingabeeinheit auszubilden, wenn der zweite Bedienzustand aktiviert ist.The operating system according to the invention comprises a control unit which is set up to generate output data for a graphical user interface, an output unit for outputting the output data and an input unit for detecting an actuation action. At least a first and a second operating state can be activated for the user interface. The control unit is set up to generate a shape control signal as a function of the activated first or second operating state of the user interface and to transmit it to the input unit, the input unit having a deformation element which is set up to generate a first shape control signal based on the shape control signal Form the shape of the input unit when the first operating state is activated, and to form a second geometric shape of the input unit when the second operating state is activated.

Bei diesem Bediensystem erhält der Nutzer vorteilhafterweise eine klare, insbesondere auch haptisch erfassbare Rückmeldung über den Bedienzustand der Bedienoberfläche mittels der Eingabeeinheit. Zudem können so neue Bedienweisen bereitgestellt werden, etwa um eine Bedienung in verschiedenen Kontexten durchführen zu können. Dies ist bei der Anwendung im Bereich der Erweiterten Realität besonders wichtig, da der Nutzer hier möglichst nahtlos in das Erlebnis einer virtuell erzeugten oder erweiterten Umgebung eintreten soll, in der Interaktionen mit bedienbaren Elementen sehr unterschiedlichen Bedienweisen folgen können.In this operating system, the user advantageously receives clear, in particular also haptically detectable, feedback about the operating state of the user interface by means of the input unit. In addition, new modes of operation can be provided, for example in order to be able to operate in different contexts. This is the case with the application in the area of augmented reality particularly important because the user should enter the experience of a virtually generated or expanded environment as seamlessly as possible, in which interactions with operable elements can follow very different operating modes.

Anders als bei bekannten Eingabegeräten können bei dem erfindungsgemäßen Bediensystem mittels der Eingabeeinheit bestimmte initiale Funktionen, etwa ein Scrollen oder Zoomen, durchgeführt werden, ohne dass hierzu zunächst ein separater Bedienschritt erfolgen muss, durch den beispielsweise ein „Tool“ oder eine Funktionsweise zur Bedienung ausgewählt werden muss.In contrast to known input devices, in the operating system according to the invention certain initial functions, such as scrolling or zooming, can be carried out by means of the input unit, without first having to perform a separate operating step through which, for example, a “tool” or a mode of operation can be selected got to.

Die Bedienoberfläche umfasst insbesondere eine grafische Darstellung für eine Mensch-Maschine-Schnittstelle. Dabei sind technische Einrichtungen mittels Steuerelementen bedienbar, wozu etwa Schaltflächen oder Symbole der Darstellung verwendet werden können. Insbesondere kann die Bedienoberfläche Schalt- und Bedienelemente umfassen, welche die Bedienung einer Funktionalität für einen Menschen erfassbar darstellen. Beispielsweise kann der Betrag eines Parameters dargestellt werden und seine Einstellung durch ein Einstellelement visualisiert werden. Die Bedienoberfläche kann ferner Elemente zur Informationsanzeige umfassen und damit eine durch einen Menschen interpretierbare Ausgabe ermöglichen. Sie ist insbesondere auf an sich bekannte Weise als grafische Bedienoberfläche ausgebildet.The user interface includes, in particular, a graphic representation for a man-machine interface. Technical facilities can be operated by means of control elements, for which purpose buttons or symbols of the display can be used. In particular, the user interface can include switching and control elements which represent the operation of a functionality in a manner that can be grasped by a person. For example, the amount of a parameter can be displayed and its setting can be visualized by a setting element. The user interface can also include elements for displaying information and thus enable output that can be interpreted by a human being. In particular, it is designed as a graphical user interface in a manner known per se.

Bei einer Ausbildung weist das Verformungselement der Eingabeeinheit eine Lage relativ zu weiteren Elementen der Eingabeeinheit auf und zum Ausbilden der ersten oder zweien geometrischen Form ist die relative Lage einstellbar. Dadurch ist die Form vorteilhafterweise besonders einfach veränderbar.In one embodiment, the deformation element of the input unit has a position relative to further elements of the input unit, and the relative position can be set in order to form the first or two geometric shape. As a result, the shape can advantageously be changed particularly easily.

Insbesondere wird beim Einstellen der geometrischen Form der Eingabeeinheit die Form ihrer Oberfläche eingestellt. Ferner kann die Lage des Schwerpunkts der Eingabeeinheit eingestellt werden. Beispielsweise kann das Verformungselement einen Aktuator umfassen oder mit einem Aktuator gekoppelt sein. Die relative Lage des Verformungselements betrifft dabei seine Anordnung relativ zu den weiteren Elementen der Eingabeeinheit. Die Lage kann beispielsweise durch Verschieben und/oder Rotieren des Verformungselements eingestellt werden. Das Verformungselement ist dabei insbesondere so ausgebildet, dass sich seine Ausdehnung in zumindest eine Richtung verändert. Beispielweise kann das Verformungselement länglich ausgebildet sein und seine Länge in Längserstreckungsrichtung verändern.In particular, when setting the geometric shape of the input unit, the shape of its surface is set. Furthermore, the position of the center of gravity of the input unit can be adjusted. For example, the deformation element can comprise an actuator or be coupled to an actuator. The relative position of the deformation element relates to its arrangement relative to the other elements of the input unit. The position can be adjusted, for example, by moving and / or rotating the deformation element. The deformation element is designed in particular in such a way that its extent changes in at least one direction. For example, the deformation element can be elongated and change its length in the longitudinal direction.

Der Bedienzustand der Bedienoberfläche kann auf verschiedene Weisen definiert sein. Er kann beispielweise die Verfügbarkeit bestimmter bedienbarer Funktionalitäten betreffen, sodass ein Bedienzustand aktiviert ist, wenn die Funktionalitäten verfügbar und mittels einer Betätigungshandlung bedienbar sind. Der Bedienzustand kann sich dabei auf die Bedienoberfläche als Ganzes oder auf einzelne Elemente oder Objekte beziehen.The operating state of the user interface can be defined in various ways. For example, it can relate to the availability of certain operable functionalities, so that an operating state is activated when the functionalities are available and can be operated by means of an actuation action. The operating status can relate to the user interface as a whole or to individual elements or objects.

Das heißt, der Bedienzustand kann auch durch den Zustand eines Objekts innerhalb der Bedienoberfläche definiert sein. Dieses Objekt kann beispielsweise ausgewählt werden, entweder automatisch oder mittels eines Auswahl-Bedienhandlung. In einem solchen Fall wird das Form-Steuerungssignal so ausgebildet, dass die Form der Eingabeeinheit in Abhängigkeit von dem aktivierten Zustand des Objekts gebildet wird.This means that the operating status can also be defined by the status of an object within the user interface. This object can be selected, for example, either automatically or by means of a selection operator action. In such a case, the shape control signal is designed so that the shape of the input unit is formed depending on the activated state of the object.

Der Bedienzustand kann ferner in Abhängigkeit von einem aktiven Bedienmodus definiert sein. Beispielsweise kann eine Bedienung mittels Scrollen entlang einer bestimmten Richtung oder Achse möglich sein und der Bedienmodus in Abhängigkeit von dieser Richtung oder Achse definiert sein. In einem weiteren Beispiel kann die Bedienung mittels einer Touch-Geste, mittels Verschiebens oder Ausübens von Drucks auf einen bestimmten Bereich der Eingabeeinheit ausführbar sein. In diesem Fall kann die Form der Eingabeeinheit so eingestellt werden, dass erfassbar ist, welcher Bedienmodus aktuell aktiv ist, etwa um ein bestimmtes Objekt oder die Bedienoberfläche zu bedienen.The operating state can also be defined as a function of an active operating mode. For example, operation by scrolling along a certain direction or axis can be possible and the operating mode can be defined as a function of this direction or axis. In a further example, the operation can be carried out by means of a touch gesture, by moving or exerting pressure on a specific area of the input unit. In this case, the shape of the input unit can be set in such a way that it is possible to detect which operating mode is currently active, for example to operate a specific object or the user interface.

Ferner kann ein Bedienzustand definiert sein, in dem keine Interaktion mit einem Objekt der Bedienoberfläche ausführbar ist, etwa bei einer reinen Informationsanzeige. Ferner kann ein Bedienzustand definiert sein, bei dem zu einer bestimmten Eingabe aufgefordert wird, etwa zu einer Bestätigung, einer Auswahl einer Option oder einem Betätigen einer Schaltfläche.Furthermore, an operating state can be defined in which no interaction with an object on the operating surface can be carried out, for example in the case of a pure information display. Furthermore, an operating state can be defined in which a specific input is requested, for example to confirm, select an option or press a button.

Ferner kann zum Beispiel der erste Bedienzustand ein Anzeigezustand und der zweite Bedienzustand ein Konfigurationszustand sein. Beispielsweise kann der Anzeigezustand so definiert sein, dass für ein bestimmtes Objekt der Bedienoberfläche ein Zustand zur Ausgabe bestimmter Informationen aktiviert ist. Ferner kann der Konfigurationszustand so definiert sein, dass dieses Objekt der Bedienoberfläche so ausgebildet wird, dass Einstellungen vorgenommen werden können. Beispielsweise können die im Anzeigezustand ausgegebenen Informationen ausgewählt oder anderweitig konfiguriert werden.Furthermore, for example, the first operating state can be a display state and the second operating state can be a configuration state. For example, the display state can be defined in such a way that a state for outputting specific information is activated for a specific object on the user interface. Furthermore, the configuration state can be defined in such a way that this object of the user interface is designed in such a way that settings can be made. For example, the information output in the display state can be selected or otherwise configured.

Der zweite Bedienzustand kann ferner ein Konfigurationszustand für die Bedienoberfläche als Ganzes sein, wobei beispielsweise Objekte ausgewählt werden können, die von der Bedienoberfläche umfasst sind, oder Parameter mittels der Bedienoberfläche oder der von ihr umfassten Objekte eingestellt werden können.The second operating state can also be a configuration state for the user interface as a whole, wherein, for example, objects can be selected that are included in the user interface, or parameters by means of the User interface or the objects it encompasses can be set.

Insbesondere ist die Eingabeeinheit dazu eingerichtet, ein Bedienzustands-Wechselsignal zu erzeugen, wenn eine Lageänderung der Eingabeeinheit erfasst wird, etwa ein Rotieren der Eingabeeinheit, wobei, wenn die Lageänderung eine Rotation oder ein Schwenken um einen bestimmten Winkel umfasst, der Winkel mit einem bestimmten Schwellenwert verglichen wird. Überschreitet der Winkel den Schwellenwert, so wird ein Bedienzustands-Wechselsignal zum Wechseln des Bedienzustands erzeugt. Zum Beispiel kann das Bedienzustands-Wechselsignal erzeugt werden, wenn die Eingabeeinheit um eine bestimmte Achse umgedreht wird.In particular, the input unit is set up to generate an operating state change signal when a change in position of the input unit is detected, for example a rotation of the input unit, wherein if the change in position includes a rotation or pivoting about a certain angle, the angle with a certain threshold value is compared. If the angle exceeds the threshold value, an operating state change signal is generated for changing the operating state. For example, the operating state change signal can be generated when the input unit is turned around a specific axis.

Insbesondere können die Ausgabedaten ein grafisches Objekt zum Hinweis auf die geometrische Form der Eingabeeinheit und/oder auf den aktivierten Bedienzustand umfassen. Beispielsweise umfasst die Ausgabe ein grafisches Objekt, dessen Geometrie zumindest schematisch einer Geometrie der Form der Eingabeeinheit entspricht.In particular, the output data can include a graphic object indicating the geometric shape of the input unit and / or the activated operating state. For example, the output includes a graphic object, the geometry of which corresponds at least schematically to a geometry of the shape of the input unit.

Das Bediensystem ist so eingerichtet, dass auf die Erfassung einer Betätigungshandlung in ein Steuersignal erzeugt wird. Dieses kann an die Steuereinheit übertragen werden und beispielsweise zu einer Interaktion mit der Bedienoberfläche oder einem von dieser umfassten Objekt führen. Zum Beispiel kann ein Objekt ausgewählt und eine dem Objekt zugeordnete Funktion aktiviert oder deaktiviert werden. Ferner kann in Abhängigkeit von dem Steuersignal ein einstellbarer Parameter an eine Einrichtung zur Einstellung übertragen werden.The operating system is set up in such a way that a control signal is generated upon the detection of an actuation action. This can be transmitted to the control unit and, for example, lead to an interaction with the user interface or an object encompassed by it. For example, an object can be selected and a function assigned to the object can be activated or deactivated. Furthermore, depending on the control signal, an adjustable parameter can be transmitted to a device for setting.

Bei einer weiteren Ausbildung ist die Form der Eingabeeinheit mittels einer Betätigungshandlung veränderbar, insbesondere durch eine äußere Krafteinwirkung, und in Abhängigkeit von der veränderten Form ist der erste oder zweite Bedienzustand der Eingabeeinheit aktivierbar. Dabei wird insbesondere die Lage und/oder Ausrichtung des Verformungselements verändert. Dadurch kann der Bedienzustand vorteilhafterweise besonders leicht eingestellt werden.In a further embodiment, the shape of the input unit can be changed by means of an actuation, in particular by an external force, and depending on the changed shape, the first or second operating state of the input unit can be activated. In particular, the position and / or alignment of the deformation element is changed. As a result, the operating state can advantageously be set particularly easily.

Das Aktivieren des Bedienzustands kann insbesondere die gesamte Bedienoberfläche oder ein von ihr umfasstes Objekt betreffen. Insbesondere kann dabei die grafische Darstellung der Bedienoberfläche oder eines von ihr umfassten Objekts verändert werden. Beispielsweise wird eine Scrollrichtung verändert, etwa indem eine Darstellung einer scrollbaren Liste von Listeneinträgen gekippt wird.The activation of the operating state can in particular relate to the entire user interface or to an object that it comprises. In particular, the graphical representation of the user interface or an object it encompasses can be changed. For example, a scrolling direction is changed, for example by tilting a representation of a scrollable list of list entries.

Dabei kann die Form der Eingabeeinheit sowohl aktiv mittels des Verformungselements und anhand des Form-Steuerungssignals, als auch passiv durch eine physische Einwirkung von außen verändert werden, insbesondere durch eine Krafteinwirkung auf die Eingabeeinheit beziehungsweise auf das Verformungselement. Beispielsweise kann die Lage des Verformungselements der Eingabeeinheit durch Verschieben und/oder Rotieren von außen verändert werden. Ferner kann die Form durch Ausüben eines Drucks auf einen bestimmten Bereich der Eingabeeinheit verändert werden, etwa bei einem nachgiebigen Bereich, der verformbar ausgebildet ist und dessen Verformung ferner erfassbar ist.The shape of the input unit can be changed both actively by means of the deformation element and on the basis of the shape control signal, as well as passively by physical action from the outside, in particular by a force acting on the input unit or on the deformation element. For example, the position of the deformation element of the input unit can be changed from the outside by moving and / or rotating. Furthermore, the shape can be changed by exerting pressure on a certain area of the input unit, for example in the case of a flexible area which is designed to be deformable and whose deformation can also be detected.

Beim Aktivieren des ersten oder zweiten Bedienzustands wird beispielsweise ein Anzeigebeziehungsweise Konfigurationsmodus eingestellt. Das heißt, durch Verändern der Form der Eingabeeinheit mittels einer äußeren Kraft kann der Bedienzustand gewechselt werden.When the first or second operating state is activated, a display or configuration mode is set, for example. That is, by changing the shape of the input unit by means of an external force, the operating state can be changed.

Insbesondere umfasst die Eingabeeinheit zumindest ein Sensorelement zum Erfassen einer Formänderung und/oder einer auf die Eingabeeinheit wirkenden Kraft. Das Sensorelement ist insbesondere dazu geeignet, eine Betätigungshandlung mittels verschiedener physikalischer Detektionsprinzipien zu erfassen. Beispielsweise kann eine Berührung oder Annäherung an einen Bereich der Oberfläche der Eingabeeinheit erfassbar sein, etwa mittels eines kapazitiven Sensors. Ferner kann eine Lage der Eingabeeinheit erfassbar sein, etwa mittels eines gyroskopischen Sensors oder eines Beschleunigungssensors oder eines Sensors zur Positionsbestimmung.In particular, the input unit comprises at least one sensor element for detecting a change in shape and / or a force acting on the input unit. The sensor element is particularly suitable for detecting an actuation action by means of different physical detection principles. For example, touching or approaching an area of the surface of the input unit can be detected, for example by means of a capacitive sensor. Furthermore, a position of the input unit can be detected, for example by means of a gyroscopic sensor or an acceleration sensor or a sensor for determining the position.

Eine Betätigungshandlung, die mittels der Eingabeeinheit erfasst werden kann, kann auf verschiedene Weisen erfolgen. Insbesondere wird die Betätigungshandlung so durchgeführt, dass sie in einem bestimmten Bezug zu einem Objekt der Bedienoberfläche beziehungsweise zu einer mit dem Objekt verknüpften Funktionalität steht. Eine Betätigungshandlung kann beispielsweise eine Berührung eines Bereichs auf der Oberfläche der Eingabeeinheit, ein Ausüben von Druck auf die Eingabeeinheit oder eine bestimmte Ausrichtung oder Positionierung der Eingabeeinheit umfassen. Sie kann ferner eine Änderung der Position der Berührung umfassen, etwa eine Wischgeste, die auf der Oberfläche der Eingabeeinheit ausgeführt wird, oder eine Veränderung der Position und/oder Ausrichtung, etwa indem die Eingabeeinheit entlang einer Trajektorie bewegt wird, wobei auch die Geschwindigkeit berücksichtigt werden kann. Insbesondere wird dabei eine dreidimensionale Geste durchgeführt. Eine Betätigungshandling kann etwa ein Rotieren oder Schwenken, eine bestimmte Ausrichtung, etwa zum Zeigen auf eine bestimmte Position oder in eine Richtung, umfassen. Die Betätigungshandlung kann ferner eine Kombination mehrerer Handlungselemente umfassen, etwa ein gleichzeitiges Bewegen entlang verschiedener Freiheitsgrade oder aufeinanderfolgende Bewegungen und weitere Betätigungen.An actuation action that can be detected by means of the input unit can take place in various ways. In particular, the actuation action is carried out in such a way that it has a specific relation to an object of the user interface or to a functionality linked to the object. An actuation action can include, for example, touching an area on the surface of the input unit, exerting pressure on the input unit or a specific orientation or positioning of the input unit. It can also include a change in the position of the touch, for example a swiping gesture that is executed on the surface of the input unit, or a change in the position and / or orientation, for example by moving the input unit along a trajectory, the speed also being taken into account can. In particular, a three-dimensional gesture is carried out. Actuation handling can include rotating or pivoting, a specific orientation, for example to point to a specific position or in a direction. The actuation action can furthermore comprise a combination of several action elements, for example a simultaneous movement along different ones Degrees of freedom or successive movements and other actuations.

Die Eingabeeinheit kann insbesondere so ausgebildet sein, dass beim Durchführen der Betätigungshandlung eine Rückmeldung erzeugt wird, beispielsweise durch eine haptisch erfassbare elastische Verformung der Eingabeeinheit und/oder eine akustisch wahrnehmbares Klicken bei der Betätigung, zum Beispiel beim Ausüben eines Drucks auf die Oberfläche der Eingabeeinheit.The input unit can in particular be designed so that a feedback is generated when the actuation action is carried out, for example through a haptically detectable elastic deformation of the input unit and / or an acoustically perceptible click during actuation, for example when a pressure is exerted on the surface of the input unit.

Bei einer Weiterbildung umfasst die Betätigungshandlung eine Bewegung der Eingabeeinheit entlang einer bestimmten Trajektorie, eine Beschleunigung, eine Lageänderung, eine Berührung oder eine Wischgeste entlang einer Oberfläche der Eingabeeinheit. Die Betätigung erfolgt dadurch vorteilhafterweise besonders einfach.In one development, the actuation action comprises a movement of the input unit along a specific trajectory, an acceleration, a change in position, a touch or a swiping gesture along a surface of the input unit. The actuation is thereby advantageously particularly simple.

Insbesondere wird die Eingabeeinheit bei der Betätigungshandlung in eine bestimmte Lage gebracht, wobei etwa eine Ausrichtung und/oder Positionen der Eingabeeinheit erfasst wird, um beispielsweise eine Zeigegeste durchzuführen. Zum Bestimmen der Lage kann dabei beispielsweise eine Ausrichtung in einem Schwerefeld erfasst werden. Eine Betätigungshandlung kann ferner eine Änderung der Lage betreffen, insbesondere in Abhängigkeit von der Zeit, etwa das Bewegen der Eingabeeinheit entlang einer Trajektorie in einem zwei- oder dreidimensionalen Raum, das Ausführen einer bestimmten Beschleunigung und/oder einer Rotation beziehungsweise einer Kippbewegung.In particular, the input unit is brought into a certain position during the actuation action, for example an alignment and / or positions of the input unit being detected in order to perform a pointing gesture, for example. To determine the position, an alignment in a gravitational field can be detected, for example. An actuation action can also relate to a change in position, in particular as a function of time, for example moving the input unit along a trajectory in a two- or three-dimensional space, executing a specific acceleration and / or a rotation or a tilting movement.

Bei einer Ausbildung ist ein bestimmter Oberflächenbereich der Eingabeeinheit als Interaktionsfläche ausgebildet, wobei in dem bestimmten Oberflächenbereich eine Berührung mittels eines Betätigungsobjekts erfassbar ist. Insbesondere ist das Betätigungsobjekt eine Hand eines Nutzers. Hierdurch können vorteilhafterweise besonders einfach Eingaben vorgenommen werden.In one embodiment, a specific surface area of the input unit is designed as an interaction surface, wherein a contact by means of an actuation object can be detected in the specific surface area. In particular, the actuation object is a hand of a user. In this way, entries can advantageously be made in a particularly simple manner.

Die Interaktionsfläche kann auf an sich bekannte Weise ausgebildet sein und insbesondere ein Sensorelement zum Erfassen einer Berührung oder Annäherung umfassen, etwa mittels kapazitiver oder resistive Sensoren. Beispielsweise wird die Position einer Berührung sowie gegebenenfalls eine Veränderung der Position in Abhängigkeit von der Zeit erfasst. Bei einer Bewegung des Betätigungsobjekts entlang der Interaktionsfläche, etwa bei einer Wischgeste, kann eine Richtung, Trajektorie und/oder Geschwindigkeit der Bewegung erfasst werden.The interaction surface can be configured in a manner known per se and in particular comprise a sensor element for detecting a touch or approach, for example by means of capacitive or resistive sensors. For example, the position of a contact and, if necessary, a change in the position as a function of time is recorded. When the actuating object moves along the interaction surface, for example with a swiping gesture, a direction, trajectory and / or speed of the movement can be recorded.

Die Eingabeeinheit ist insbesondere so ausgebildet, dass ein variabler Oberflächenbereich als Interaktionsfläche aktiviert werden kann. Die Eingabeeinheit kann dazu eine Grenzflächen aufweisen, die vollständig oder teilweise als Interaktionsflächen aktivierbar sind. Zum Beispiel kann die Eingabeeinheit hierzu eine polyedrische Form aufweisen.The input unit is designed in particular in such a way that a variable surface area can be activated as an interaction surface. For this purpose, the input unit can have boundary surfaces which can be fully or partially activated as interaction surfaces. For example, the input unit can have a polyhedral shape for this purpose.

Die Interaktionsfläche wird insbesondere in Abhängigkeit von dem aktivierten Bedienzustand gebildet, etwa gemeinsam mit der Veränderung der Form der Eingabeeinheit.The interaction surface is formed in particular as a function of the activated operating state, for example together with the change in the shape of the input unit.

Bei einer Ausbildung ist der bestimmte Oberflächenbereich mittels einer optischen Hervorhebung hervorhebbar. Der Oberflächenbereich der Interaktionsfläche wird beispielsweise mittels einer gegenüber der Umgebung veränderten Helligkeit oder Farbe hervorgehoben. Die Oberflächenbereich kann ferner optisch hervorgehoben werden, etwa durch eine Änderung der Form der Eingabeeinheit so, dass die Interaktionsfläche haptisch erfassbar ist, etwa als erhabener Bereich der Oberfläche.In one embodiment, the specific surface area can be highlighted by means of an optical highlight. The surface area of the interaction surface is emphasized, for example, by means of a brightness or color that is different from the surroundings. The surface area can also be highlighted optically, for example by changing the shape of the input unit in such a way that the interaction surface can be detected haptically, for example as a raised area of the surface.

Bei einer weiteren Ausbildung ist die Eingabeeinheit drahtlos mit der Steuereinheit gekoppelt und durch einen Nutzer bewegbar ausgebildet. Insbesondere ist die Eingabeeinheit verwendbar ohne eine feste Verbindung zu einer anderen Einheit. Die Eingabe kann dadurch vorteilhafterweise besonders flexibel erfolgen.In a further embodiment, the input unit is wirelessly coupled to the control unit and designed to be movable by a user. In particular, the input unit can be used without a fixed connection to another unit. The input can thereby advantageously take place in a particularly flexible manner.

Beispielsweise weist die Eingabeeinheit Dimensionen auf, die das Halten in einer Hand des Nutzers ermöglichen. Der Eingabeeinheit kann ferner einen Griffbereich aufweisen, der das Halten erleichtert. Ferner kann die Form der Eingabeeinheit so gebildet sein, dass das Halten in einer bestimmten Ausrichtung relativ zur Hand des Nutzers begünstigt wird, etwa bei einer länglichen Form, die eine Ausrichtung im Wesentlichen schräg zum Verlauf des Unterarms des Nutzers begünstigt. Die Eingabeeinheit kann ferner so ausgebildet sein, dass sie in keine Richtung größer als 10 cm ist, bevorzugt nicht größer als 7 cm, weiter bevorzugt nicht größer als 5 cm.For example, the input unit has dimensions that enable the user to hold it in one hand. The input unit can also have a grip area that makes it easier to hold. Furthermore, the shape of the input unit can be designed in such a way that holding it in a certain orientation relative to the hand of the user is favored, for example in the case of an elongated shape which favors an orientation essentially at an angle to the course of the user's forearm. The input unit can furthermore be designed such that it is not larger than 10 cm in any direction, preferably not larger than 7 cm, more preferably not larger than 5 cm.

Es kann eine Aufnahmeeinheit für die Eingabeeinheit vorgesehen sein, in der beispielsweise ein Ablegen der Eingabeeinheit so erfolgen kann, dass ein unabsichtliches Verrutschen oder Herunterfallen vermieden wird. Eine Aufnahmeeinheit kann ferner zum Aufladen eines Energiespeichers der Eingabeeinheit sein. Zum Aufladen kann beispielsweise ein induktives Verfahren verwendet werden oder es kann eine elektrisch leitende Verbindung zwischen der Eingabeeinheit und der Aufnahmeeinheit hergestellt werden.A receiving unit can be provided for the input unit in which, for example, the input unit can be put down in such a way that unintentional slipping or falling is avoided. A receiving unit can also be used to charge an energy store of the input unit. For example, an inductive method can be used for charging, or an electrically conductive connection can be established between the input unit and the receiving unit.

Beim Ausgeben der Ausgabedaten wird die Bedienoberfläche angezeigt, was ebenfalls auf an sich bekannte Weise erfolgen kann. Beispielsweise kann hierfür ein Anzeigefläche verwendet werden. Ferner können Mittel der Erweiterten oder Virtuellen Realität zur Ausgabe genutzt werden, wobei beispielsweise Elemente einer realen Umgebung mit virtuell erzeugten Elementen angereichert werden. Zum Beispiel kann die Ausgabe eine grafische Ausgabe von Bild- oder Videodaten umfassen, welche die reale Umgebung wiedergeben, wobei zusätzlich weitere grafische Elemente erzeugt werden und von der Ausgabe umfasst sind. Ferner kann die Ausgabe so erzeugt und ausgegeben werden, dass ein Nutzer die reale Umgebung direkt wahrnimmt, etwa durch eine Fahrzeugscheibe oder Brille, während gleichzeitig die Ausgabe so in sein Sichtfeld beziehungsweise in sein Auge projiziert wird, etwa bei einem Head-up-Display oder bei einer Brille mit einer entsprechenden Darstellungs- oder Projektionseinheit, dass die virtuellen Objekte aus Sicht des Nutzers in der Umgebung erscheinen.When outputting the output data, the user interface is displayed, which can also be done in a manner known per se. For example, a display area can be used for this. Furthermore, means of augmented or virtual reality can be used for output, with For example, elements of a real environment can be enriched with virtually generated elements. For example, the output can comprise a graphic output of image or video data which reproduce the real environment, with additional graphic elements being generated and included in the output. Furthermore, the output can be generated and output in such a way that a user perceives the real environment directly, for example through a vehicle window or glasses, while at the same time the output is projected into his field of vision or into his eye, for example in a head-up display or in the case of glasses with a corresponding display or projection unit, that the virtual objects appear in the environment from the perspective of the user.

Bei einer Weiterbildung ist die Ausgabeeinheit so gebildet, dass die Ausgabedaten beabstandet von der Eingabeeinheit ausgebbar sind. Dadurch kann vorteilhafterweise eine besonders flexible Ausgabe erfolgen.In a further development, the output unit is designed such that the output data can be output at a distance from the input unit. A particularly flexible output can thereby advantageously take place.

Die Ausgabe erfolgt insbesondere nicht mittels eines sogenannten Touchscreens, bei dem Eingaben im gleichen Bereich erfasst werden, in dem auch die Ausgabe erfolgt. Allerdings kann bei einer Ausbildung der Erfindung ein Touchscreen zur Ausgabe mit einer davon beabstandeten Eingabeeinheit kombiniert sein. Die Ausgabeeinheit kann so ausgebildet sein, dass die Ausgabe mit Mitteln der Erweiterten oder Virtuellen Realität erfolgt. Das Bediensystem kann ferner eine Kombination verschiedener Ausgabeeinheiten umfassen, etwa eine Kombination eines Touchscreens mit einer Ausgabeeinheit für Erweiterte Realität.In particular, the output does not take place by means of a so-called touchscreen, in which inputs are recorded in the same area in which the output takes place. However, in one embodiment of the invention, a touchscreen for output can be combined with an input unit spaced therefrom. The output unit can be designed in such a way that the output takes place with means of augmented or virtual reality. The operating system can furthermore comprise a combination of different output units, for example a combination of a touchscreen with an output unit for augmented reality.

Bei einer Ausbildung umfasst die Ausgabeeinheit ein Head-up-Display oder eine am Körper eines Nutzers getragene Anzeigeeinheit, zum Beispiel eine Brille. Das Verfahren kann dadurch vorteilhafterweise besonders einfach mit bekannten Verfahren der Erweiterten oder Virtuellen Realität verbunden werden.In one embodiment, the output unit comprises a head-up display or a display unit worn on the body of a user, for example glasses. The method can thereby advantageously be combined particularly easily with known methods of augmented or virtual reality.

Bei einer weiteren Ausbildung ist eine Blickrichtung eines Nutzers erfassbar, wobei in Abhängigkeit von der erfassten Blickrichtung eine echte Teilmenge von Bedienobjekten der Bedienoberfläche auswählbar ist. Insbesondere führt eine nachfolgende Betätigungshandlung zu einer Auswahl oder einem Betätigen eines einzelnen Bedienobjekts der Teilmenge. Dadurch wird vorteilhafterweise eine Auswahl zwischen mehreren Bedienobjekten der Bedienoberfläche erleichtert.In a further embodiment, a direction of view of a user can be recorded, with a real subset of operating objects of the user interface being selectable as a function of the recorded direction of view. In particular, a subsequent actuation action leads to a selection or actuation of an individual operating object of the subset. This advantageously facilitates a selection between a number of control objects on the user interface.

Die Erfassung der Blickrichtung kann auf an sich bekannte Weise erfolgen, insbesondere durch Verfolgen der Bewegung eines Auges und/oder einer Kopfhaltung. Das Auswählen der Teilmenge von Bedienobjekten erfolgt so, dass lediglich in einem bestimmten Teilbereich der Bedienoberfläche angeordnete Bedienobjekte ausgewählt werden, wobei der Teilbereich beispielsweise durch die Blickrichtung und einen vorgegebenen Radius oder eine in anderer Weise definierte Umgebung definiert ist. Insbesondere wird dadurch eine Vorauswahl durchgeführt.The direction of gaze can be detected in a manner known per se, in particular by following the movement of an eye and / or a head posture. The selection of the subset of operating objects takes place in such a way that operating objects arranged only in a certain sub-area of the user interface are selected, the sub-area being defined, for example, by the viewing direction and a predetermined radius or an environment defined in some other way. In particular, a preselection is thereby carried out.

Bei einer Ausbildung umfasst die Eingabeeinheit einen Aktuator zum Erzeugen einer Vibration. Die Steuereinheit ist dazu eingerichtet, ein Rückmeldungssignal zu erzeugen und an die Eingabeeinheit zu übertragen, wobei anhand des Rückmeldungssignals eine Vibration als Rückmeldung für eine Betätigungshandlung oder ein Ereignis der Bedienoberfläche ausgegeben wird. Zum Beispiel vibriert die Eingabeeinheit, um zu bestätigen, dass eine Betätigungshandlung erfasst wurde, wobei das Rückmeldungssignal in diesem Fall mit einer in Abhängigkeit von der Art der erfassten Betätigungshandlung abhängigen Vibration gebildet wird. Eine Vibration kann als Rückmeldungssignal auch signalisieren, dass ein bestimmtes Steuerungssignal erzeugt wurde, etwa eine Betätigung oder eine Auswahl eines Objekts der Bedienoberfläche oder eine Einstellung eines bestimmten Wertes.In one embodiment, the input unit comprises an actuator for generating a vibration. The control unit is set up to generate a feedback signal and to transmit it to the input unit, a vibration being output as feedback for an actuation action or an event of the user interface on the basis of the feedback signal. For example, the input unit vibrates in order to confirm that an actuation action has been detected, in which case the feedback signal is formed with a vibration that is dependent on the type of actuation action detected. A vibration can also be used as a feedback signal to signal that a specific control signal has been generated, for example an actuation or selection of an object on the user interface or a setting of a specific value.

Die Vibration kann dabei auf an sich bekannte Weise ausgebildet sein. Insbesondere können Vibrationen verschiedener Intensität oder Frequenz sowie gegebenenfalls mit verschiedenen Vibrationsrichtungen ausgegeben werden, um unterschiedliche Rückmeldungssignale zu erzeugen. Zum Beispiel kann ein Rückmeldungssignal beim Einstellen eines Parameters so erzeugt werden, dass die Vibration eine umso höhere Intensität aufweist, je größer der eingestellte Wert des Parameters ist. Umgekehrt kann die Vibration umso schwächer sein, je kleiner der eingestellte Wert ist.The vibration can be formed in a manner known per se. In particular, vibrations of different intensity or frequency and possibly with different vibration directions can be output in order to generate different feedback signals. For example, when a parameter is set, a feedback signal can be generated such that the greater the set value of the parameter, the greater the intensity of the vibration. Conversely, the lower the set value, the weaker the vibration.

Bei einer Ausbildung ist die Eingabeeinheit einem Nutzer zugeordnet. Beispielsweise kann die Eingabeeinheit ein Speicherelement umfassen, auf dem Einstellungen und/oder andere persönliche Daten eines Nutzers gespeichert werden, oder sie kann eine Identifikationsinformation umfassen, anhand derer der Nutzer identifizierbar ist und Einstellungen und andere Daten erfassbar sind. Dadurch kann vorteilhafterweise ein hoher Personalisierungsgrad erreicht werden und die Eingabeeinheit kann als persönliches Gerät eines Nutzers ausgebildet sein. Der Nutzer kann dann in unterschiedlichen Kontexten, verschiedenen Positionen und für verschiedene Bediensystemen eine Bedienung auf die gleiche oder ähnliche Weise vornehmen, beispielsweise indem virtuelle Objekte auf analoge Weise betätigt werden oder eine Anordnung virtueller Objekte auf ähnliche Weise erfolgt.In one embodiment, the input unit is assigned to a user. For example, the input unit can comprise a memory element on which settings and / or other personal data of a user are stored, or it can comprise identification information by means of which the user can be identified and settings and other data can be recorded. As a result, a high degree of personalization can advantageously be achieved and the input unit can be designed as a user's personal device. The user can then operate in the same or a similar manner in different contexts, in different positions and for different operating systems, for example by actuating virtual objects in an analogous manner or arranging virtual objects in a similar manner.

Insbesondere kann die Eingabeeinheit als einem Nutzer zugeordnetes Mobilgerät ausgebildet sein. Der Nutzer kann dieses beispielsweise mit sich führen, wenn er ein Fahrzeug in Betrieb nimmt oder um ein anderes Bediensystem zu bedienen, etwa im Bereich der Home Automation oder in öffentlichen Räumen. Er ist dann vorteilhafterweise bereits mit der Bedienung vertraut und kann diese anhand einer individuell eingerichteten Eingabeeinheit ausführen.In particular, the input unit can be designed as a mobile device assigned to a user. The user can carry this with him, for example, when he starts a vehicle or to operate another operating system, for example in the area of home automation or in public spaces. He is then advantageously already familiar with the operation and can carry it out using an individually configured input unit.

Das erfindungsgemäße Bediensystem erlaubt eine Interaktion mit einer Bedienoberfläche der Erweiterten Realität auf verschiedene Weisen. Als Betätigungshandlung kann beispielsweise eine Gestensteuerung durchgeführt werden, wobei eine Geste anhand einer berührungsempfindlichen Oberfläche der Eingabeeinheit und/oder mittels Sensoren zur Bestimmung der Lage, Geschwindigkeit oder Beschleunigung der Eingabeeinheit im dreidimensionalen Raum erfasst werden kann. Während mit großer Amplitude und Deutlichkeit ausgeführte Gesten im öffentlichen Raum Aufsehen erregen und auf Ablehnung stoßen können, kann die Betätigungshandlung bei dem Bediensystem diskret mittels kleiner Bewegungen und/oder anhand einer klein dimensionierten Eingabeeinheit ausgeführt werden.The operating system according to the invention allows interaction with a user interface of augmented reality in various ways. A gesture control can be carried out as an actuation action, for example, wherein a gesture can be detected using a touch-sensitive surface of the input unit and / or using sensors to determine the position, speed or acceleration of the input unit in three-dimensional space. While gestures carried out with great amplitude and clarity in public space can attract attention and meet with rejection, the actuation action in the operating system can be carried out discretely by means of small movements and / or using a small-sized input unit.

Bei einer Ausbildung des Bediensystems wird eine Bedienung implementiert, bei der anhand der Blickrichtung des Nutzers eine Vorauswahl von Objekten der Bedienoberfläche durchgeführt wird, die anschließend durch eine Betätigungshandlung mittels der Eingabeeinheit einzelnen ausgewählt oder betätigt werden, etwa durch ein Scrollen, eine Rotation, eine Wischgeste oder wiederholtes Betätigen. Dabei wird genutzt, dass die Auswahl anhand der Blickrichtung besonders einfach erfolgt, wobei jedoch eine detaillierte und genaue Auswahl beziehungsweise Bestimmung der Blickrichtung schwierig sein kann. Diese genauere Auswahl erfolgt daher mittels der Eingabeeinheit, wobei die Vorauswahl anhand der Blickrichtung dem Nutzer hier eine größere Anzahl von Bedienschritten erspart. Bei weiteren Ausführungen kann bei dem Bediensystem alternativ oder zusätzlich eine Sprachsteuerung genutzt werden, etwa zum Bestätigen einer Eingabe oder zum Ausführen einer Betätigung, Vorauswahl oder Auswahl. Dabei können Nachteile einer reinen Sprachbedienung umgangen werden, die in der Öffentlichkeit aus Gründen der Privatsphäre beziehungsweise wegen Störungen der Umgebung nur begrenzt eingesetzt werden kann.In one embodiment of the operating system, an operation is implemented in which a preselection of objects of the user interface is carried out based on the direction in which the user is looking, which objects are then individually selected or operated by an operating action using the input unit, for example by scrolling, rotating, or swiping or repeated actuation. This makes use of the fact that the selection is particularly simple on the basis of the viewing direction, although a detailed and precise selection or determination of the viewing direction can be difficult. This more precise selection is therefore made by means of the input unit, the preselection based on the viewing direction saving the user a greater number of operating steps here. In further embodiments, voice control can alternatively or additionally be used in the operating system, for example to confirm an input or to carry out an actuation, preselection or selection. This avoids the disadvantages of pure voice control, which can only be used to a limited extent in public for reasons of privacy or due to disturbances in the environment.

Bei dem erfindungsgemäßen Verfahren zum Betreiben eines Bediensystems, insbesondere für ein Fahrzeug, werden Ausgabedaten für eine grafische Bedienoberfläche erzeugt und ausgegeben und eine Betätigungshandlung wird erfasst. Dabei ist für die Bedienoberfläche zumindest ein erster und ein zweiter Bedienzustand aktivierbar. Dabei wird in Abhängigkeit von dem aktivierten ersten oder zweiten Bedienzustand der Bedienoberfläche ein Form-Steuerungssignal erzeugt und an die Eingabeeinheit übertragen, wobei ein Verformungselement anhand des Form-Steuerungssignals eine erste Form der Eingabeeinheit ausbildet, wenn der erste Bedienzustand aktiviert ist, und eine zweite geometrische Form der Eingabeeinheit ausbildet, wenn der zweite Bedienzustand aktiviert ist.In the method according to the invention for operating an operating system, in particular for a vehicle, output data for a graphical user interface are generated and output and an operating action is recorded. At least a first and a second operating state can be activated for the user interface. Depending on the activated first or second operating state of the user interface, a shape control signal is generated and transmitted to the input unit, a deformation element using the shape control signal to form a first shape of the input unit when the first operating state is activated, and a second geometric shape Forms the input unit when the second operating state is activated.

Das erfindungsgemäße Verfahren ist dazu ausgebildet, das vorstehend beschriebene erfindungsgemäße Bediensystem zu betreiben. Das Verfahren weist somit dieselben Vorteile auf wie das erfindungsgemäße Bediensystem.The method according to the invention is designed to operate the operating system according to the invention described above. The method thus has the same advantages as the operating system according to the invention.

Die Erfindung wird nun anhand von Ausführungsbeispielen mit Bezug zu den Zeichnungen erläutert.

  • 1 zeigt ein Ausführungsbeispiel des erfindungsgemäßen Bediensystems in einem Fahrzeug,
  • 2A und 2B zeigen Ausführungsbeispiele von bei dem erfindungsgemäßen Verfahren erzeugbaren Ausgaben,
  • 3A und 3B zeigen ein erstes Ausführungsbeispiel einer Formveränderung der Eingabeeinheit des Bediensystems,
  • 4A und 4B zeigen ein zweites Ausführungsbeispiel einer Formveränderung der Eingabeeinheit des Bediensystems und
  • 5A bis 5E zeigen ein drittes Ausführungsbeispiel einer Formveränderung der Eingabeeinheit des Bediensystems.
The invention will now be explained on the basis of exemplary embodiments with reference to the drawings.
  • 1 shows an embodiment of the control system according to the invention in a vehicle,
  • 2A and 2 B show exemplary embodiments of outputs that can be generated in the method according to the invention,
  • 3A and 3B show a first embodiment of a change in shape of the input unit of the operating system,
  • 4A and 4B show a second embodiment of a change in shape of the input unit of the operating system and
  • 5A to 5E show a third embodiment of a change in shape of the input unit of the operating system.

Mit Bezug zu 1 wird ein Ausführungsbeispiel des erfindungsgemäßen Bediensystems in einem Fahrzeug erläutert.In reference to 1 an embodiment of the control system according to the invention is explained in a vehicle.

Das Fahrzeug 1 umfasst eine Steuereinheit 2, mit der eine Ausgabeeinheit 3, bei dem Ausführungsbeispiel ein Head-up-Display 3, und eine Eingabeeinheit 4 gekoppelt sind. Die Eingabeeinheit 4 umfasst einen Sensor 5 und ein Verformungselement 6. Mit der Steuereinheit 2 ist ferner eine Einrichtung 7 des Fahrzeugs 1 gekoppelt, bei dem Ausführungsbeispiel eine Navigationseinheit 7.The vehicle 1 includes a control unit 2 , with which an output unit 3 , in the exemplary embodiment a head-up display 3 , and an input unit 4th are coupled. The input unit 4th includes a sensor 5 and a deformation element 6th . With the control unit 2 is also an institution 7th of the vehicle 1 coupled, in the exemplary embodiment a navigation unit 7th .

Die Eingabeeinheit 4 ist einem bestimmten Nutzer zugeordnet und für diesen personalisierte Einstellungen sind für die Eingabeeinheit 4 gespeichert. Die Speicherung erfolgt bei dem Ausführungsbeispiel in einem Speicherelement der Eingabeeinheit 4, alternativ oder zusätzlich kann die Eingabeeinheit 4 eine Identifikation speichern, anhand derer bei der Verwendung der Eingabeeinheit 4 die entsprechenden Einstellungen abrufbar sind.The input unit 4th is assigned to a specific user and the settings for the input unit are personalized for this user 4th saved. In the exemplary embodiment, the storage takes place in a memory element of the input unit 4th , alternatively or additionally, the input unit 4th store an identification based on which when using the input unit 4th the corresponding settings can be called up.

Mit Bezug zu den 2A und 2B werden Beispiele von bei dem erfindungsgemäßen Verfahren erzeugbaren Ausgaben erläutert. Dabei wird von dem oben erläuterten Ausführungsbeispiel des erfindungsgemäßen Bediensystems ausgegangen, welches durch die Beschreibung des Verfahrens weiter spezifiziert wird.With reference to the 2A and 2 B Examples of outputs that can be generated in the method according to the invention are explained. This is based on the exemplary embodiment of the operating system according to the invention explained above, which is further specified by the description of the method.

Bei dem Ausführungsbeispiel erzeugt die Steuereinheit 2 eine Ausgabe, die mittels der Ausgabeeinheit 3, beispielsweise des Head-up-Displays 3 oder einer Augmented-Reality-Brille, so in das Sichtfeld des Fahrers des Fahrzeugs 1 projiziert wird, dass sie zugleich mit der Ansicht der Umgebung des Fahrzeugs 1 überlagernd erscheint. In weiteren Beispielen erfolgt die Ausgabe mittels einer anderen Art von Ausgabeeinheit 3, insbesondere einer anderen Ausgabeeinheit für Virtuelle Realität. Dabei kann auch die gesamte für den Nutzer sichtbare Anzeige virtuell erzeugt werden, insbesondere indem eine reale Ansicht der Umgebung mittels der Ausgabeeinheit 3 abgebildet wird. Beispielsweise umfasst die Ausgabe in diesem Fall mittels einer Videokamera erfasste Bilder der Umgebung und zusätzlich dazu dargestellte virtuelle Objekte.In the exemplary embodiment, the control unit generates 2 an output generated by the output unit 3 , for example the head-up display 3 or augmented reality glasses, so in the field of vision of the driver of the vehicle 1 it is projected at the same time as the view of the surroundings of the vehicle 1 appears superimposed. In further examples the output takes place by means of a different type of output unit 3 , in particular another output unit for virtual reality. The entire display visible to the user can also be generated virtually, in particular by a real view of the surroundings by means of the output unit 3 is mapped. For example, the output in this case includes images of the surroundings captured by means of a video camera and virtual objects displayed in addition.

Bei dem in 2A gezeigten Fall ist die reale Umgebung des Fahrzeugs 1 durch die Fahrbahnmarkierungen 10 angedeutet, während durch die Ausgabeeinheit 3 zusätzlich dazu virtuelle Objekte 11 bis 15 in das Sichtfeld projiziert werden. Bei dem hier gezeigten Fall umfasst die Ausgabe als virtuelle Objekte eine Ausgabe einer Geschwindigkeitsbegrenzung 11, die als Darstellung eines Verkehrsschilds ausgegeben wird, eine zahlenmäßig dargestellte aktuelle Geschwindigkeit 12, eine Liste 13 mit Listeneinträgen 13a, ein Symbol als Markierung 14 sowie bei der Markierung 14 eine Informationsbox 15 mit einer Darstellung von Text.The in 2A The case shown is the real environment of the vehicle 1 through the lane markings 10 indicated while by the output unit 3 in addition, virtual objects 11 to 15th projected into the field of view. In the case shown here, the output as virtual objects includes an output of a speed limit 11 , which is output as a representation of a traffic sign, a numerically represented current speed 12 , a list 13 with list entries 13a , a symbol as a marker 14th as well as the marking 14th an information box 15th with a representation of text.

Bei dem in 2B gezeigten Fall ist ebenfalls die reale Umgebung 20, insbesondere eine Fahrbahnmarkierung 20 angedeutet. Zusätzlich sind in das Sichtfeld des Nutzers projizierte virtuelle Objekte 21, 22, 23 gezeigt, die aktive Widgets 21, 23 sowie inaktive Widgets 22 darstellen. Ferner ist ein weiteres virtuelles Objekt 24 gezeigt, welches eine Routenanzeige 24 darstellt. Diese sind im rechten und linken Bereich vertikal übereinander entlang einer Bogenstruktur angeordnet. Ferner können weitere virtuelle Objekte dargestellt sein, beispielsweise Informationsanzeigen zu weiteren Läufern auf der Strecke.The in 2 B The case shown is also the real environment 20th , especially a lane marking 20th indicated. In addition, there are virtual objects projected into the user's field of vision 21st , 22nd , 23 shown the active widgets 21st , 23 as well as inactive widgets 22nd represent. There is also another virtual object 24 shown which a route display 24 represents. These are arranged vertically one above the other along an arch structure in the right and left areas. Further virtual objects can also be displayed, for example information displays about other runners on the route.

Die in 2B gezeigten aktiven Widgets 21, 23 sind gegenüber den inaktiven Widgets 22 vergrößert dargestellt. Sie können ferner durch an sich bekannte grafische Hervorhebungen deutlicher hervorgehoben werden. Bei den aktiven Widgets 21, 23 werden ferner Textinformationen angezeigt, insbesondere mögliche Aktionen, die durch Betätigen des jeweiligen aktiven Widgets 21, 23 ausführbar sind. Zum Beispiel ist ein aktives Widget 21 dazu vorgesehen, eine Navigation entlang einer Laufroute zu steuern, die durch eine virtuelle Routenanzeige 24 ausgegeben wird. Durch eine Betätigung kann beispielsweise die Navigation beendet oder eine andere Aktion ausgelöst werden.In the 2 B active widgets shown 21st , 23 are opposite the inactive widgets 22nd shown enlarged. They can also be emphasized more clearly by means of graphic highlighting that is known per se. With the active widgets 21st , 23 text information is also displayed, in particular possible actions that can be initiated by pressing the respective active widget 21st , 23 are executable. For example is an active widget 21st provided to control navigation along a running route, which is indicated by a virtual route display 24 is issued. An actuation can, for example, end navigation or trigger another action.

Bei den beiden Fällen, die in den 2A und 2B beteiligt sind, können virtuelle Objekte zur Interaktion ausgewählt werden, beispielsweise mittels Blicksteuerung. Dabei wird eine Blickrichtung des Nutzers erfasst und bestimmt, auf welches virtuelle Objekt der Blick gerichtet ist. Dieses Objekt wird dann ausgewählt, beispielsweise nachdem der Blick für ein bestimmtes Zeitintervall ununterbrochen auf das virtuelle Objekt gerichtet war. Anschließend können Interaktionen mittels der Eingabeeinheit 4 ausgeführt werden. Zum Beispiel können virtuelle Objekte betätigt werden, um eine Aktion oder Funktionalität auszubilden oder zu aktivieren, oder die Anzeige kann verändert werden, etwa indem anzuzeigende Inhalte ausgewählt und konfiguriert werden. Die Eingabeeinheit 4 kann dabei auf verschiedene Weisen angeordnet sein; sie kann sich beispielsweise in der Hand des Nutzers befinden oder etwa im Fahrzeug 1 an einer bestimmten Position fest angebracht sein.In the two cases in the 2A and 2 B are involved, virtual objects can be selected for interaction, for example by means of gaze control. A viewing direction of the user is recorded and it is determined which virtual object the gaze is directed at. This object is then selected, for example after the gaze has been continuously directed at the virtual object for a certain time interval. Interactions can then be carried out using the input unit 4th are executed. For example, virtual objects can be actuated in order to develop or activate an action or functionality, or the display can be changed, for example by selecting and configuring content to be displayed. The input unit 4th can be arranged in different ways; it can, for example, be in the user's hand or in the vehicle 1 be fixed in a certain position.

Durch die Betätigung eines virtuellen Objekts oder Widgets kann ein Steuersignal für eine Einrichtung gebildet und ausgegeben werden, etwa für ein Navigationssystem 7 des Fahrzeugs 1.By actuating a virtual object or widget, a control signal for a device can be generated and output, for example for a navigation system 7th of the vehicle 1 .

Bei dem Beispiel ist ferner vorgesehen, dass anhand der Blickrichtung des Nutzers eine Vorauswahl getroffen wird. Die Blickrichtung wird bestimmt und in einem bestimmten Umkreis um einen Punkt innerhalb der Bedienoberfläche, auf den der Blick gerichtet ist, werden die dort angeordneten Objekte vorausgewählt, wobei es sich insbesondere um eine echte Teilmenge der virtuellen Objekte der gesamten Bedienoberfläche handelt. Durch eine weitere Bedienhandlung, etwa weiteres Richten des Blicks auf einen bestimmten Punkt oder durch Betätigen der Eingabeeinheit 4, kann anschließend ein bestimmtes virtuelles Objekt ausgewählt und/oder betätigt werden.In the example, provision is also made for a preselection to be made based on the user's viewing direction. The direction of view is determined and the objects arranged there are preselected in a certain radius around a point within the user interface at which the eye is directed, which is in particular a real subset of the virtual objects of the entire user interface. By means of a further operating action, for example further directing the view to a certain point or by actuating the input unit 4th , a specific virtual object can then be selected and / or operated.

Mit Bezug zu den 3A und 3B wird ein erstes Beispiel einer Formveränderung der Eingabeeinheit des Bediensystems erläutert. Dabei wird von den oben erläuterten Beispielen ausgegangen.With reference to the 3A and 3B a first example of a change in shape of the input unit of the operating system is explained. This is based on the examples explained above.

Bei diesem Beispiel umfasst die Eingabeeinheit 34 ein Verformungselement 36a, 36b, das in einer horizontalen Konfiguration 36a und in einer vertikalen Konfiguration 36b dargestellt ist. Das Verformungselement kann aktiv zwischen diesen Konfiguration 36a, 36b umschalten, die Konfiguration 36a, 36b kann jedoch auch passiv durch von außen auf das Verformungselement 36a, 36b wirkende Kräfte verändert werden. Die Eingabeeinheit 34 ist dabei fünfeckig ausgebildet, während das Verformungselement 36 länglich ausgebildet und mittig an der Oberfläche der Eingabeeinheit 34 angeordnet ist.In this example the input unit comprises 34 a deformation element 36a , 36b that is in a horizontal configuration 36a and in a vertical configuration 36b is shown. The deformation element can be active between these configurations 36a , 36b toggle the configuration 36a , 36b but can also passively through from the outside the deformation element 36a , 36b acting forces are changed. The input unit 34 is pentagonal, while the deformation element 36 is elongated and centered on the surface of the input unit 34 is arranged.

Auf einer Oberfläche der Eingabeeinheit 34 sind Interaktionsflächen 35a, 35b, 35c ausgebildet. Dabei ist eine der Interaktionsflächen 35c auf dem Verformungselement 36a ausgebildet und folgt dessen Konfiguration. Das heißt, bei einer horizontalen Konfiguration des Verformungselements 36a ist die Interaktionsfläche 35c ebenfalls länglich und horizontal ausgerichtet, bei einer vertikalen Konfiguration des Verformungselements 36b ist auch die Interaktionsfläche 35c in gleicher Weise vertikal angeordnet (nicht dargestellt).On a surface of the input unit 34 are interaction surfaces 35a , 35b , 35c educated. Thereby is one of the interaction surfaces 35c on the deformation element 36a formed and follows its configuration. That is, with a horizontal configuration of the deformation element 36a is the interaction surface 35c also aligned elongated and horizontally, with a vertical configuration of the deformation element 36b is also the interaction surface 35c arranged vertically in the same way (not shown).

Die Interaktionsflächen 35a, 35b, 35c sind bei dem Beispiel als berührungsempfindliche Oberflächenbereiche der Eingabeeinheit 34 ausgebildet. Ferner ist die Eingabeeinheit 35 so gebildet, dass sie im Bereich einer der Interaktionsflächen 35a durch Druck senkrecht zur Oberfläche leicht elastisch verformt werden kann, insbesondere nach Art eines Drucktasters. Dabei wird eine haptische und akustische Rückmeldung durch die Verformung und ein dabei hörbares Klicken hervorgerufen.The interaction areas 35a , 35b , 35c are in the example as touch-sensitive surface areas of the input unit 34 educated. Furthermore, the input unit 35 is formed in such a way that it is in the area of one of the interaction surfaces 35a can be easily elastically deformed by pressure perpendicular to the surface, in particular in the manner of a push button. Haptic and acoustic feedback is generated by the deformation and an audible click.

Bei weiteren Beispielen sind an der Oberfläche der Eingabeeinheit 34 ferner Beleuchtungselemente angeordnet und anhand eines optischen Parameters wird eine Rückmeldung über bedienbare Bereiche und/oder Flächen angezeigt, etwa indem diese mittels einer Helligkeit oder Farbe hervorgehoben werden. Der Nutzer kann so erkennen, in welchen Bereichen eine Betätigungshandlung durchgeführt werden kann. Bei weiteren Beispielen kann ferner während der Bedienung eine optische Rückmeldung ausgegeben werden, indem sich beispielsweise ein optischer Parameter verändert, etwa indem die Beleuchtung dem Verlauf einer Wischgeste folgt, ein Bereich nach einer Betätigung aufleuchtet oder bei einer Eingabeaufforderung alternativ betätigbare Flächen hervorgehoben werden. Verschiedene Flächen können dabei auch auf unterschiedliche Weise beleuchtet werden, etwa mit verschiedenen Farbe, Helligkeit oder Blinkfrequenz, um auf unterschiedliche Eingabemöglichkeiten hinzuweisen, etwa eine Annahme oder Ablehnung, Aktivierung oder Deaktivierung.In further examples are on the surface of the input unit 34 furthermore, lighting elements are arranged, and feedback on operable areas and / or surfaces is displayed on the basis of an optical parameter, for example by highlighting them by means of a brightness or color. The user can thus see in which areas an actuation can be carried out. In further examples, visual feedback can also be output during operation, for example by changing an optical parameter, for example by the lighting following the course of a swiping gesture, an area lighting up after an actuation or alternatively actuatable areas being highlighted when prompted. Different surfaces can also be illuminated in different ways, for example with different colors, brightness or flashing frequency, in order to indicate different input options, such as acceptance or rejection, activation or deactivation.

Ferner können Beleuchtungselemente am Rand der Eingabeeinheit 34 angeordnet sein. Insbesondere ist die Eingabeeinheit 34 mit zwei übereinanderliegenden Schichten ausgebildet und weist am Rand einen Spalt auf, bei dem eine Betätigung durch Druck und elastische Verformung der Schichten im Bereich des Spalt erfolgt. Durch eine Beleuchtung in dem Spalt kann dessen Bedienbarkeit angezeigt werden. Ferner kann sich die Beleuchtung bei einer Betätigung verändern, insbesondere um diese zu bestätigen.Furthermore, lighting elements on the edge of the input unit 34 be arranged. In particular, is the input unit 34 formed with two superimposed layers and has a gap at the edge, in which actuation takes place by pressure and elastic deformation of the layers in the area of the gap. Its operability can be indicated by lighting in the gap. Furthermore, the lighting can change when it is actuated, in particular to confirm this.

Bei dem Beispiel werden Berührungen, das Ausüben von Druck auf eine Position der Interaktionsflächen 35a, 35b, 35c oder mit der Eingabeeinheit 34 ausgeführte Gesten als Betätigungshandlungen erfasst. In Abhängigkeit hiervon kann ein Nutzer mit virtuellen Objekten der Bedienoberfläche interagieren, etwa indem er eine Auswahl oder Betätigung, ein Scrollen oder eine Verschiebung oder eine Eingabe durchführt.In the example, touches, the exertion of pressure on a position of the interaction surfaces 35a , 35b , 35c or with the input unit 34 gestures performed are recorded as actions. As a function of this, a user can interact with virtual objects of the user interface, for example by making a selection or actuation, scrolling or shifting or making an entry.

Bei dem Beispiel sind den Konfigurationen 36a, 36b verschiedene Bedienzustände zugeordnet. Diese sind im gezeigten Fall so definiert, dass die Bedienoberfläche im ersten Bedienzustand ein Menü mit Widgets zur Informationsausgabe und schnellen Bedienung einzelner Funktionalitäten umfasst, während die Bedienoberfläche im zweiten Bedienzustand eine Auswahl von anzeigbaren Widgets oder Bedienmöglichkeiten für Funktionalitäten umfasst. Das heißt, im ersten Bedienzustand kann ein Nutzer mittels der Anzeige Informationen erfassen und gegebenenfalls auf die Arbeitsweise von mit den Widgets verknüpften Funktionen einwirken; es handelt sich daher um einen Anzeigezustand. Dagegen ist es dem Nutzer im zweiten Bedienzustand möglich, die im ersten Bedienzustand angezeigten Informationen und Funktionen auszuwählen, etwa durch Auswahl aus einem Menü oder einer Liste; es handelt sich daher um einen Konfigurationszustand.In the example are the configurations 36a , 36b different operating states assigned. In the case shown, these are defined in such a way that the user interface in the first operating state includes a menu with widgets for information output and fast operation of individual functionalities, while the user interface in the second operating state includes a selection of displayable widgets or operating options for functionalities. That is, in the first operating state, a user can use the display to capture information and, if necessary, act on the operation of functions linked to the widgets; it is therefore a display state. In contrast, it is possible for the user in the second operating state to select the information and functions displayed in the first operating state, for example by selecting from a menu or a list; it is therefore a configuration state.

Bei einem weiteren Beispiel unterscheiden sich der erste und zweite Bedienzustand in einer für die Bedienung ausgezeichneten Richtung, insbesondere eine Richtung, in welcher eine Liste durch Scrollen oder Blättern durchsucht werden kann. Wenn die Elemente der zu durchsuchenden Liste in eine horizontale Richtung durchsuchbar sind, etwa mittels einer in eine horizontale Richtung durchgeführten Wischgeste, wird der erste Bedienzustand aktiviert und beispielsweise das Verformungselement 36a in einer horizontalen Konfiguration ausgerichtet. Dagegen kann eine vertikale Konfiguration 36b eingestellt werden, wenn die Elemente der Liste in eine vertikale Richtung durchsuchbar sind, etwa durch eine in horizontaler Richtung durchgeführte Wischgeste.In a further example, the first and second operating states differ in a direction marked for operation, in particular a direction in which a list can be searched through by scrolling or paging. If the elements of the list to be searched can be searched in a horizontal direction, for example by means of a swiping gesture carried out in a horizontal direction, the first operating state is activated and, for example, the deformation element 36a aligned in a horizontal configuration. In contrast, a vertical configuration 36b can be set if the elements of the list can be searched in a vertical direction, for example by a swiping gesture carried out in the horizontal direction.

Bei weiteren Beispielen sind andere Definitionen des ersten und zweiten Bedienzustand vorgesehen. Ferner ist eine größere Zahl an Bedienzuständen möglich, wobei beispielsweise verschiedene Winkel für das Verformungselement 36a, 36b eingestellt und/oder unterschiedliche Interaktionsflächen 35a, 35b, 35c ausgebildet werden können.In further examples, other definitions of the first and second operating status are provided. Furthermore, a larger number of operating states is possible, with different angles for the deformation element, for example 36a , 36b set and / or different interaction surfaces 35a , 35b , 35c can be trained.

Zwischen den Bedienzuständen wird bei dem Beispiel automatisch umgeschaltet, wenn ein Signal zur Umschaltung erfasst wird. Ein solches Signal kann automatisch erzeugt werden, beispielsweise beim Ausführen einer bestimmten Funktion. Ferner kann das Signal anhand einer Nutzereingabe erzeugt werden, etwa durch Auswählen eines bestimmten virtuellen Objekts. Der Bedienzustand kann auch dadurch verändert werden, dass durch eine äußere Kraft das Verformungselement 36a, 36b verlagert wird, etwa indem ein Nutzer das Verformungselement 36a, 36b rotiert. Der Nutzer kann hierdurch insbesondere zwischen einem Anzeige- und einem Konfigurationszustand umschalten.In the example, there is an automatic switchover between the operating states when a signal to switch is detected. Such a signal can be generated automatically, for example when performing a specific function. Furthermore, the signal can be generated on the basis of a user input, for example by selecting a specific virtual object. The operating state can also be changed in that the deformation element is activated by an external force 36a , 36b is shifted, for example by a user touching the deformation element 36a , 36b rotates. In this way, the user can switch between a display and a configuration state in particular.

Bei einem weiteren Beispiel umfasst die Ausgabe eine schematische Anzeige der aktuell eingestellten Konfiguration 36a, 36b der Eingabeeinheit 34 und/oder eine andere Anzeige des aktuell aktivierten Betriebsmodus.In a further example, the output includes a schematic display of the currently set configuration 36a , 36b the input unit 34 and / or another display of the currently activated operating mode.

Mit Bezug zu den 4A und 4B wird ein zweites Beispiel einer Formveränderung der Eingabeeinheit des Bediensystems erläutert. Dabei wird von den oben erläuterten Beispielen ausgegangen.With reference to the 4A and 4B a second example of a change in shape of the input unit of the operating system is explained. This is based on the examples explained above.

In diesem Fall weist die Eingabeeinheit 41 eine dreieckige Form auf, insbesondere die Form eines gleichseitigen Dreiecks. In einem mittleren Bereich ist ein ebenfalls als gleichseitiges Dreieck ausgebildetes Verformungselement 42a, 42b angeordnet, dessen Ausrichtung rotiert werden kann zwischen einer ersten Ausrichtung 42a, bei welcher die Spitzen des Verformungselements 42a zu den Seiten der dreieckigen Form der Eingabeeinheit 41 weisen, und einer zweiten Ausrichtung 42b, bei welcher die Seiten des Verformungselements 42b im Wesentlichen parallel zu den Seiten der dreieckigen Form der Eingabeeinheit 41 verlaufen. Dieses Rotieren kann aktiv durch die Eingabeeinheit 41 durchgeführt werden oder es kann passiv bei einer Ausübung einer Kraft auf das Verformungselement 42a, 42b von außen erfolgen.In this case, the input unit 41 has a triangular shape, particularly the shape of an equilateral triangle. In a central area there is a deformation element also designed as an equilateral triangle 42a , 42b arranged, the orientation of which can be rotated between a first orientation 42a at which the tips of the deformation element 42a to the sides of the triangular shape of the input unit 41 point, and a second orientation 42b , at which the sides of the deformation element 42b substantially parallel to the sides of the triangular shape of the input unit 41 run away. This rotation can be actively carried out by the input unit 41 or it can be carried out passively when a force is exerted on the deformation element 42a , 42b done from the outside.

Die Eingabeeinheit 41 weist bei dem Beispiel drei Interaktionsflächen 43, 44, 45 auf, die sich im Wesentlichen über die gesamte dem Nutzer zugewandte Oberfläche der Eingabeeinheit 41 jenseits des Verformungselements 42a, 42b erstrecken. Bei dem Beispiel sind die Interaktionsflächen 43, 44, 45 als berührungsempfindliche Oberflächen ausgebildet und ferner durch Ausüben eines Drucks senkrecht zur Oberfläche der Eingabeeinheit 41 betätigbar.The input unit 41 has three interaction areas in the example 43 , 44 , 45 which is essentially over the entire surface of the input unit facing the user 41 beyond the deformation element 42a , 42b extend. In the example are the interaction areas 43 , 44 , 45 designed as touch-sensitive surfaces and also by exerting pressure perpendicular to the surface of the input unit 41 operable.

Mit Bezug zu den 5A bis 5E wird ein drittes Beispiel einer Formveränderung der Eingabeeinheit des Bediensystems erläutert. Dabei wird von den oben erläuterten Beispielen ausgegangen.With reference to the 5A to 5E a third example of a change in shape of the input unit of the operating system is explained. This is based on the examples explained above.

Die Eingabeeinheit 51 ist dabei im Wesentlichen analog zu den oben erläuterten Beispielen ausgebildet. Es weist die Form eines abgerundeten gleichschenkligen Dreiecks auf, wobei die Spitze des Dreiecks nach oben gerichtet ist und die seitlich nach unten verlaufenden Seiten des Dreiecks länger sind als die horizontal verlaufende. Es wird davon ausgegangen, dass ein Nutzer die Eingabeeinheit 51 aus einer ursprünglichen Lage, wie sie in 5A gezeigt ist, um eine senkrecht zur Bildfläche verlaufende Achse rotiert, etwa um einen Winkel von 120°. Die 5A bis 5E zeigen eine gleichzeitig erfolgende Veränderung der Form der Eingabeeinheit 51 jeweils nach einem bestimmten Zeitschritt, wobei jeweils die frühere Form 52 der Eingabeeinheit 51 zum vorhergehenden Zeitschritt mit angedeutet ist.The input unit 51 is designed essentially analogously to the examples explained above. It has the shape of a rounded isosceles triangle, with the apex of the triangle pointing upwards and the laterally downwardly extending sides of the triangle being longer than the horizontally extending sides. It is assumed that a user is the input unit 51 from an original location as in 5A is shown, rotated about an axis perpendicular to the image surface, about an angle of 120 °. The 5A to 5E show a simultaneous change in the shape of the input unit 51 each after a certain time step, each with the earlier form 52 the input unit 51 is indicated with the previous time step.

Bei dem Beispiel verändert sich die Form der Eingabeeinheit 51 so, dass die Eingabeeinheit 51 am Endpunkt der Bewegung, gezeigt in 5E, gegenüber der Ausgangsform, gezeigt in 5A, um 180° verdreht ist. Das heißt, die Formveränderung suggeriert eine stärkere Drehung als tatsächlich durchgeführt wurde. Während der Veränderung der Form der Eingabeeinheit 51 verschieben sich die Verhältnisse der Seitenlängen so, dass die vormals kürzere Seite die Länge der beiden längeren Schenkel des Dreiecks annimmt, während eine der längeren Seiten verkürzt wird und am Ende der Bewegung oben angeordnet ist. Die Spitze des Dreiecks weist zum Ende der Bewegung, gezeigt in 5E, nach unten.In the example, the shape of the input unit changes 51 so that the input unit 51 at the end point of the movement, shown in 5E , compared to the original form, shown in 5A is rotated by 180 °. This means that the change in shape suggests a stronger rotation than was actually carried out. While changing the shape of the input unit 51 the proportions of the side lengths shift so that the formerly shorter side takes on the length of the two longer legs of the triangle, while one of the longer sides is shortened and is located at the top at the end of the movement. The apex of the triangle points towards the end of the movement, shown in 5E , downward.

Das hier gezeigte Beispiel kann ferner so ausgebildet sein, dass sich die Form der Eingabeeinheit 51 vollständig aktiv so verändert, dass die in den 5A bis 5E gezeigten Zustände erreicht werden. In diesem Fall erfolgt also keine Rotation durch einen Nutzer, sondern die scheinbare Drehung um 180° erfolgt ausschließlich durch das Verändern der Kantenlängen des Dreiecks. Insbesondere wird die Eingabeeinheit 51 dabei in einer Halterung gehalten oder sie ist auf andere Weise gelagert.The example shown here can also be designed so that the shape of the input unit 51 completely actively changed so that the in the 5A to 5E shown states can be achieved. In this case there is no rotation by a user, but the apparent rotation by 180 ° takes place exclusively by changing the edge lengths of the triangle. In particular, the input unit 51 while held in a holder or it is stored in another way.

Bei den oben erläuterten Beispielen ist ferner vorgesehen, dass die Eingabeeinheiten 4, 34, 41, 51 jeweils Sensoren zum Erfassen der Lage und eine Beschleunigung der Eingabeeinheit 4, 34, 41, 51 umfassen. Auf diese Weise ist beispielsweise erfassbar, wenn die Eingabeeinheit 4, 34, 41, 51 in eine Richtung rotiert wird. Ferner kann eine Ausrichtung der Eingabeeinheit 4, 34, 41, 51 detektiert werden, insbesondere um eine Zeigegeste zu implementieren, bei welcher anhand der Ausrichtung der Eingabeeinheit 4, 34, 41, 51 ein Punkt innerhalb der Bedienoberfläche bestimmt wird, etwa um diese Position zu markieren oder um ein dort angeordnetes virtuelles Objekt zu markieren, auszuwählen, zu betätigen oder in anderer Weise zu bedienen. Ferner können so Gesten erfasst werden, bei denen ein Nutzer die Eingabeeinheit 4, 34, 41, 51 im dreidimensionalen Raum entlang einer bestimmten Trajektorie bewegt, gegebenenfalls mit einer bestimmten Geschwindigkeit und/oder Beschleunigung.In the examples explained above, it is also provided that the input units 4th , 34 , 41 , 51 sensors for detecting the position and an acceleration of the input unit 4th , 34 , 41 , 51 include. In this way it can be detected, for example, when the input unit 4th , 34 , 41 , 51 is rotated in one direction. Furthermore, an alignment of the input unit 4th , 34 , 41 , 51 are detected, in particular to implement a pointing gesture, in which based on the orientation of the input unit 4th , 34 , 41 , 51 a point is determined within the user interface, for example to mark this position or to mark, select, operate or otherwise operate a virtual object located there. In addition, gestures can be recorded in which a user is using the input unit 4th , 34 , 41 , 51 moved in three-dimensional space along a certain trajectory, possibly with a certain speed and / or acceleration.

Bei einem weiteren Beispiel ist die Eingabeeinheit 4, 34, 41, 51 an einem Lenker des Fahrzeugs 1 angeordnet. Es kann sich beispielsweise um den Lenker oder eine vergleichbare Steuerungseinrichtungen eines Kraftfahrzeugs, eines Fahrrads, einer Drohne oder eines Rollers handeln. Die Eingabeeinheit 4, 34, 41, 51 ist dabei insbesondere beweglich und herausnehmbar gelagert. Ein Nutzer kann die Eingabeeinheit 4, 34, 41, 51, insbesondere wenn diese für ihn individuell personalisiert ist, zwischen verschiedenen Fahrzeugen 1 übertragen und damit eine ähnliche Bedienung in verschiedenen Kontexten erreichen.In another example is the input unit 4th , 34 , 41 , 51 on a handlebar of the vehicle 1 arranged. It can be, for example, the handlebar or a comparable control device of a motor vehicle, a bicycle, a drone or a scooter. The input unit 4th , 34 , 41 , 51 is particularly moveable and removable. A user can use the input unit 4th , 34 , 41 , 51 , especially if it is individually personalized for him, between different vehicles 1 and thus achieve a similar operation in different contexts.

BezugszeichenlisteList of reference symbols

11
Fahrzeugvehicle
22
SteuereinheitControl unit
33
Ausgabeeinheit, Head-up-DisplayOutput unit, head-up display
44th
EingabeeinheitInput unit
55
Sensorsensor
66
VerformungselementDeformation element
77th
Einrichtung; NavigationseinheitFacility; Navigation unit
1010
FahrbahnmarkierungLane marking
1111
Virtuelles Objekt; GeschwindigkeitsbegrenzungVirtual object; Speed limit
1212th
Virtuelles Objekt; Aktuelle GeschwindigkeitVirtual object; Current speed
1313
Virtuelles Objekt; ListeVirtual object; list
13a13a
Virtuelles Objekt; ListeneinträgeVirtual object; List entries
1414th
Virtuelles Objekt; MarkierungVirtual object; mark
1515th
Virtuelles Objekt; InformationsboxVirtual object; Information box
2020th
Fahrbahnmarkierung; reale UmgebungLane marking; real environment
2121st
Virtuelles Objekt; aktives WidgetVirtual object; active widget
2222nd
Virtuelles Objekt; inaktives WidgetVirtual object; inactive widget
2323
Virtuelles Objekt; aktives WidgetVirtual object; active widget
2424
Virtuelles Objekt; RoutenanzeigeVirtual object; Route display
3434
EingabeeinheitInput unit
35a, 35b, 35c35a, 35b, 35c
InteraktionsflächeInteraction surface
36a36a
Verformungselement (horizontal)Deformation element (horizontal)
36b36b
Verformungselement (vertikal)Deformation element (vertical)
4141
EingabeeinheitInput unit
42a, 42b42a, 42b
VerformungselementDeformation element
43, 44, 4543, 44, 45
InteraktionsflächeInteraction surface
5151
Eingabeeinheit (Umriss)Input unit (outline)
5252
Eingabeeinheit (früherer Umriss)Input unit (previous outline)

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • US 2013/0144482 A1 [0007]US 2013/0144482 A1 [0007]
  • DE 10349673 A1 [0008]DE 10349673 A1 [0008]
  • KR 1020130036934 [0009]KR 1020130036934 [0009]

Claims (10)

Bediensystem, umfassend eine Steuereinheit (2), die dazu eingerichtet ist, Ausgabedaten für eine grafische Bedienoberfläche zu erzeugen; eine Ausgabeeinheit (3) zum Ausgeben der Ausgabedaten; und eine Eingabeeinheit (4; 34) zum Erfassen einer Betätigungshandlung; wobei für die Bedienoberfläche zumindest ein erster und ein zweiter Bedienzustand aktivierbar ist; wobei die Steuereinheit (2) dazu eingerichtet ist, in Abhängigkeit von dem aktivierten ersten oder zweiten Bedienzustand der Bedienoberfläche ein Form-Steuerungssignal zu erzeugen und an die Eingabeeinheit (4; 34) zu übertragen; wobei die Eingabeeinheit (4; 34) ein Verformungselement (6; 36a, 36b) aufweist, das dazu eingerichtet ist, anhand des Form-Steuerungssignals eine erste Form der Eingabeeinheit (4; 34) auszubilden, wenn der erste Bedienzustand aktiviert ist, und eine zweite geometrische Form der Eingabeeinheit (4; 34) auszubilden, wenn der zweite Bedienzustand aktiviert ist.Control system, comprehensive a control unit (2) which is set up to generate output data for a graphical user interface; an output unit (3) for outputting the output data; and an input unit (4; 34) for detecting an operating action; wherein at least a first and a second operating state can be activated for the user interface; in which the control unit (2) is set up to generate a shape control signal as a function of the activated first or second operating state of the user interface and to transmit it to the input unit (4; 34); in which the input unit (4; 34) has a deformation element (6; 36a, 36b) which is configured to use the shape control signal to form a first shape of the input unit (4; 34) when the first operating state is activated, and a second shape Form the geometric shape of the input unit (4; 34) when the second operating state is activated. Bediensystem gemäß Anspruch 1, dadurch gekennzeichnet, dass das Verformungselement (6; 36a, 36b) der Eingabeeinheit eine Lage relativ zu weiteren Elementen der Eingabeeinheit aufweist und zum Ausbilden der ersten oder zweien geometrischen Form die relative Lage einstellbar istOperating system according to Claim 1 , characterized in that the deformation element (6; 36a, 36b) of the input unit has a position relative to further elements of the input unit and the relative position can be set in order to form the first or two geometrical shapes Bediensystem gemäß Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Form der Eingabeeinheit (4; 34) mittels der Betätigungshandlung veränderbar ist und in Abhängigkeit von der veränderten Form der erste oder zweite Bedienzustand der Eingabeeinheit (4; 34) aktivierbar ist.Operating system according to Claim 1 or 2 , characterized in that the shape of the input unit (4; 34) can be changed by means of the actuation action and, depending on the changed shape, the first or second operating state of the input unit (4; 34) can be activated. Bediensystem gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Betätigungshandlung eine Bewegung der Eingabeeinheit (4; 34) entlang einer bestimmten Trajektorie, eine Beschleunigung, eine Lageänderung, eine Berührung oder eine Wischgeste entlang einer Oberfläche der Eingabeeinheit (4; 34) umfasst.Operating system according to one of the preceding claims, characterized in that the actuation action comprises a movement of the input unit (4; 34) along a specific trajectory, an acceleration, a change in position, a touch or a swiping gesture along a surface of the input unit (4; 34). Bediensystem gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein bestimmter Oberflächenbereich der Eingabeeinheit als Interaktionsfläche (35a, 35b, 35c) ausgebildet ist, wobei in dem bestimmten Oberflächenbereich eine Berührung mittels eines Betätigungsobjekts erfassbar ist.Operating system according to one of the preceding claims, characterized in that a certain surface area of the input unit is designed as an interaction surface (35a, 35b, 35c), wherein a contact by means of an actuation object can be detected in the certain surface area. Bediensystem gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Eingabeeinheit (4; 34) drahtlos mit der Steuereinheit (2) gekoppelt und durch einen Nutzer bewegbar ausgebildet ist.Operating system according to one of the preceding claims, characterized in that the input unit (4; 34) is coupled wirelessly to the control unit (2) and is designed to be movable by a user. Bediensystem gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Ausgabeeinheit (3) so gebildet ist, dass die Ausgabedaten beabstandet von der Eingabeeinheit (4; 34) ausgebbar sind.Operating system according to one of the preceding claims, characterized in that the output unit (3) is formed such that the output data can be output at a distance from the input unit (4; 34). Bediensystem gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Ausgabeeinheit (3) ein Head-up-Display oder eine am Körper eines Nutzers getragene Anzeigeeinheit (3) umfasst.Operating system according to one of the preceding claims, characterized in that the output unit (3) comprises a head-up display or a display unit (3) worn on the body of a user. Bediensystem gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Blickrichtung eines Nutzers erfassbar ist; wobei in Abhängigkeit von der erfassten Blickrichtung eine echte Teilmenge von Bedienobjekten der Bedienoberfläche auswählbar ist.Operating system according to one of the preceding claims, characterized in that a viewing direction of a user can be recorded; a real subset of control objects of the user interface can be selected as a function of the detected viewing direction. Verfahren zum Betreiben eines Bediensystems, bei dem Ausgabedaten für eine grafische Bedienoberfläche erzeugt und ausgegeben werden; und eine Betätigungshandlung mittels einer Eingabeeinheit (4; 34) erfasst wird; wobei für die Bedienoberfläche zumindest ein erster und ein zweiter Bedienzustand aktivierbar ist; wobei in Abhängigkeit von dem aktivierten ersten oder zweiten Bedienzustand der Bedienoberfläche ein Form-Steuerungssignal erzeugt und an die Eingabeeinheit (4; 34) übertragen wird; wobei ein Verformungselement (6; 36a, 36b) der Eingabeeinheit (4; 34) anhand des Form-Steuerungssignals eine erste Form der Eingabeeinheit (4; 34) ausbildet, wenn der erste Bedienzustand aktiviert ist, und eine zweite geometrische Form der Eingabeeinheit (4; 34) ausbildet, wenn der zweite Bedienzustand aktiviert ist.Method for operating an operating system in which Output data for a graphical user interface are generated and output; and an operating action is detected by means of an input unit (4; 34); wherein at least a first and a second operating state can be activated for the user interface; in which Depending on the activated first or second operating state of the user interface, a shape control signal is generated and transmitted to the input unit (4; 34); in which a deformation element (6; 36a, 36b) of the input unit (4; 34) based on the shape control signal forms a first shape of the input unit (4; 34) when the first operating state is activated, and a second geometric shape of the input unit (4; 34) forms when the second operating state is activated.
DE102019212278.7A 2019-08-15 2019-08-15 Control system and method for operating the control system Pending DE102019212278A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102019212278.7A DE102019212278A1 (en) 2019-08-15 2019-08-15 Control system and method for operating the control system
PCT/EP2020/071934 WO2021028274A1 (en) 2019-08-15 2020-08-04 Operating system and method for operating the operating system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019212278.7A DE102019212278A1 (en) 2019-08-15 2019-08-15 Control system and method for operating the control system

Publications (1)

Publication Number Publication Date
DE102019212278A1 true DE102019212278A1 (en) 2021-02-18

Family

ID=71950637

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019212278.7A Pending DE102019212278A1 (en) 2019-08-15 2019-08-15 Control system and method for operating the control system

Country Status (2)

Country Link
DE (1) DE102019212278A1 (en)
WO (1) WO2021028274A1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2523172C2 (en) * 2009-12-18 2014-07-20 Хонда Мотор Ко., Лтд. Transformable panel for tactile control
KR101238210B1 (en) * 2011-06-30 2013-03-04 엘지전자 주식회사 Mobile terminal
EP2850509A4 (en) * 2012-05-16 2016-01-06 Tactus Technology Inc User interface and methods
US9898903B2 (en) * 2016-03-07 2018-02-20 Immersion Corporation Systems and methods for haptic surface elements

Also Published As

Publication number Publication date
WO2021028274A1 (en) 2021-02-18

Similar Documents

Publication Publication Date Title
EP2338106B1 (en) Multi-function display and operating system and method for controlling such a system having optimized graphical operating display
EP1998996B1 (en) Interactive operating device and method for operating the interactive operating device
DE102016219845B4 (en) Touch input device and vehicle incorporating the touch input device
DE102014116292A1 (en) System for transmitting information in a motor vehicle
EP3507681B1 (en) Method for interacting with image contents displayed on a display device in a vehicle
EP3009799A1 (en) Method for operating a motor vehicle employing a touch screen
DE102010048745A1 (en) Method of operating user interface in motor vehicle, involves representing predetermined object-specific target areas, graphically on display unit, upon detection of beginning of shift operation of first two selected objects
EP2883738B1 (en) Method and assembly for controlling functions of a motor vehicle
EP3418861B1 (en) Method for operating a display device, and a motor vehicle
EP3508968A1 (en) Human-machine interface and method for operating a human-machine interface
WO2014108147A1 (en) Zooming and shifting of image content of a display device
EP3508967A1 (en) Human-machine interface and method for operating a human-machine interface
DE102017121342A1 (en) DISPLAY CONTROL DEVICE, DISPLAY CONTROL SYSTEM AND DISPLAY CONTROL METHOD
DE102013022035B4 (en) Motor vehicle operating device with graphical user interface, and motor vehicle and method
DE202010017428U1 (en) operating unit
DE102013021814A1 (en) Control device with eyetracker
EP3025214B1 (en) Method for operating an input device, and input device
DE102019212278A1 (en) Control system and method for operating the control system
DE102015201722A1 (en) Method for operating an input device, input device
EP3143483B1 (en) Operating method and operating system in a vehicle
DE102013211046A1 (en) Method and device for obtaining a control signal from an operating gesture
DE102019210009A1 (en) Method for operating an operating system in a vehicle and operating system in a vehicle
DE102011121585B4 (en) motor vehicle
DE102019131944A1 (en) Method for controlling at least one display unit, motor vehicle and computer program product
DE102017210958A1 (en) A method for tactile interaction of a user with an electronic device and electronic device thereto

Legal Events

Date Code Title Description
R012 Request for examination validly filed