WO2013023751A1 - Verfahren zum bedienen einer elektronischen einrichtung oder einer applikation und entsprechende vorrichtung - Google Patents

Verfahren zum bedienen einer elektronischen einrichtung oder einer applikation und entsprechende vorrichtung Download PDF

Info

Publication number
WO2013023751A1
WO2013023751A1 PCT/EP2012/003335 EP2012003335W WO2013023751A1 WO 2013023751 A1 WO2013023751 A1 WO 2013023751A1 EP 2012003335 W EP2012003335 W EP 2012003335W WO 2013023751 A1 WO2013023751 A1 WO 2013023751A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
data
character
detecting
letter
Prior art date
Application number
PCT/EP2012/003335
Other languages
English (en)
French (fr)
Inventor
Christoph WÄLLER
Mark Peter CZELNIK
Linn Hackenberg
Lennart Bendewald
Manuel Joachim
Markus ABLAßMEIER
Michael Mischke
Original Assignee
Volkswagen Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen Aktiengesellschaft filed Critical Volkswagen Aktiengesellschaft
Priority to EP12746027.7A priority Critical patent/EP2745218A1/de
Priority to KR1020147006836A priority patent/KR20140063698A/ko
Priority to EP18208965.6A priority patent/EP3486805A1/de
Priority to KR1020167023788A priority patent/KR20160105936A/ko
Priority to CN201280051065.8A priority patent/CN103890760A/zh
Priority to US14/239,382 priority patent/US9817480B2/en
Publication of WO2013023751A1 publication Critical patent/WO2013023751A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/635Filtering based on additional data, e.g. user or group profiles
    • G06F16/636Filtering based on additional data, e.g. user or group profiles by using biological or physiological data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • B60K2360/11
    • B60K2360/143
    • B60K2360/1438
    • B60K2360/146
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0382Plural input, i.e. interface arrangements in which a plurality of input device of the same type are in communication with a PC
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Definitions

  • the present invention relates to methods for operating electronic devices and / or applications and corresponding devices, in particular in a vehicle such as a motor vehicle.
  • the present invention further relates to suitably equipped vehicles.
  • the amount of data retrievable for a driver of a motor vehicle has steadily increased in recent years.
  • an electronic device of a motor vehicle set up as an operating device larger amounts of data can be retrieved for audio or video playback or for navigation purposes and corresponding applications can be controlled, whereby media or contact data from Internet-based services can also be integrated. Therefore, it is necessary to provide operating methods and user interfaces, with which also easy access to such data is possible, for example, a desired piece of music or a desired navigation destination can be selected.
  • Control device such as an infotainment system of a vehicle to keep as low as possible.
  • US 2003/0093419 A1 discloses a system in which a user can input information by voice input or by pressing a touchscreen.
  • a method according to the invention comprises detecting an input of at least one character, for example a letter, a digit or a symbol, independently of a prompt, and displaying an amount of data, e.g. a list on a display device, e.g. a screen, depending on the at least one character.
  • operation of the electronic device can be accomplished by inputting characters without requiring an operator to wait for prompts, such as input fields, or
  • the input of the at least one character can optionally take place via at least two different input modalities, for example by a voice input or by a handwritten input on a touch-sensitive screen, also referred to as a touchscreen, or another touch-sensitive element,
  • a touchpad for example, a touchpad. This allows a great deal of flexibility.
  • Embodiments treated the different input modalities the same, so it makes no difference to a user how he selects the at least one character.
  • Displaying the amount of data includes, in some embodiments, modifying an already displayed amount of data based on the at least one character.
  • the data quantity initially displayed can be reduced on the basis of the at least one character so that only some elements of the data set initially displayed are displayed depending on the at least one character, or a displayed section of the data set can be changed as a function of the at least one character.
  • the input of the at least one character performs a search of all or part of the data present in or associated with the electronic device, and the amount of data includes a result of the search. If the displayed amount of data includes only one entry, some may show a
  • Embodiments automatically performed a function associated with the entry, otherwise an entry from the data set to perform a function can be selected, for example, by entering and detecting additional characters or by selection by means of a control element of the electronic device.
  • a corresponding device comprises a detection device for detecting an input of at least one character independently of a prompt, a
  • Display device and a control device which is set up to control the display device for displaying a data quantity as a function of the at least one letter.
  • the detection device may in particular comprise a microphone for detecting a voice input of the at least one character.
  • the display device may comprise a touch-sensitive screen, which is thus part of the
  • Detecting means for detecting a handwritten input is used, and / or the detection means may comprise a further screen which is touch-sensitive, or another touch-sensitive element.
  • the device may be arranged one or more of the above
  • Fig. 1 is a cockpit of a vehicle, which with a device according to a
  • Embodiment of the invention is equipped,
  • FIG. 2 shows a block diagram of an embodiment of a device according to the invention
  • FIG. 9 is a flowchart illustrating an embodiment of a
  • a cockpit of a vehicle 1 is shown, which is equipped with a device 2 according to an embodiment of the invention.
  • the device 2 is used in particular for the operation of functions of the vehicle 1.
  • a radio for example, with the device 2, a radio, a navigation system, a playback of stored
  • the device 2 has in the region of a center console of the vehicle 1, a display device in the form of a
  • touch-sensitive screen 8 also referred to as a touch screen, on which screen 8 can be well viewed and operated by both a driver of the vehicle 1 and a passenger of the vehicle 1.
  • touch screen 8 also referred to as a touch screen, on which screen 8 can be well viewed and operated by both a driver of the vehicle 1 and a passenger of the vehicle 1.
  • mechanical controls such as buttons, knobs or combinations thereof, such as rotary control dial, can be arranged.
  • Fig. 2 is a possible embodiment of the device 2 according to a schematically
  • the device 2 of the embodiment of Fig. 2 comprises various means and means for detecting user inputs, for example a microphone 6, which with a
  • Control device 5 is connected, wherein the control device 5 is set up by means of an analysis unit 4 for processing and analyzing voice input via the microphone 6.
  • the touch-sensitive screen 8 is provided for detecting inputs by touch.
  • another touch-sensitive screen 7 may be provided.
  • the further touch-sensitive screen 7 can also be a terminal that can be detachably connected to the vehicle and has a touch-sensitive surface, for example a so-called smartphone or a tablet computer. This terminal can be inserted for example in a designated holder in the vehicle and establish a data connection to the controller 5 of the device 2, for example, a wireless connection such as a Bluetooth connection or a wired connection.
  • a wireless connection such as a Bluetooth connection or a wired connection.
  • Screen 7 also another touch-sensitive element, such as a so-called touchpad, be provided.
  • a so-called touchpad As will be explained in more detail later, in particular graphic objects 12 and lists 15 can be displayed on the screen 8 or 7, wherein the display of the lists can be effected in dependence on inputs of a user, in particular a driver of the vehicle.
  • the control device 5 can optionally be connected to a camera system 9, which monitors an area around the screen 8.
  • the camera system 9 can, for example, next to the screen 8 or at a suitable location in the cockpit or in the sky of the
  • a data memory 3 is integrated in the illustrated embodiment, in which various information can be stored, for example
  • control unit 5 the analysis unit 4, which in particular analyzes inputs of a user and can trigger dependent functions in the vehicle, for example, change a display on the screen 8 or other functions, such as a playback of pieces of music can trigger.
  • the control device 5 is further connected to a data bus 10 in the vehicle 1, via which it can communicate with other functional devices 1 1A, 1 1 B in the vehicle 1, wherein the functional devices 1 1 A, 1 1 B have data memory 3A , 3B.
  • Such functional devices may, for example, a navigation system, a GPS system, a satellite communication system, a satellite communication system, a satellite communication system, a satellite communication system, a satellite communication system, a satellite communication system, a satellite communication system, a satellite communication system, a satellite communication system, a satellite communication system, a satellite communication system, a satellite communication system, a satellite communication system, a satellite communication system, a satellite communication system, a satellite communication system, a satellite communication system
  • map data in the case of a navigation system or music data such as MP3 files in the case of a music playback system may be stored.
  • Information about what data is in the data memories 3A, 3B may be stored in the memory 3 of the controller 5.
  • Control device 5 directly to the functional devices 1 1 A, 1 1 B to such
  • the device 2 in particular provides options with which an operator can easily find contents, for example contents stored in the memory 3 or in the data memories 3A and 3B, or from a larger number content.
  • contents for example contents stored in the memory 3 or in the data memories 3A and 3B, or from a larger number content.
  • selection in particular for selection in lists characters, such as letters, numbers or symbols be entered in handwriting on the screen 8 or the screen 7 or be entered as a voice on the microphone 6.
  • characters such as letters, numbers or symbols be entered in handwriting on the screen 8 or the screen 7 or be entered as a voice on the microphone 6.
  • FIG. 3 shows an example of a display on the touch-sensitive screen 8, which involves, for example, the selection of a music interpreter.
  • a list 30 different artists are displayed, which begin with Pete.
  • An operator may then handwrite another letter, for example, an "R" 31, to which the list 30 may be further substantiated Examples of concretizations of such lists will be discussed later
  • such a function may be provided when lists are displayed without that a separate input request is given or must be requested by an operator.
  • Such smaller screens may be, for example, screens such as the screen 7 of FIG.
  • Terminal device such as a smartphone are assigned.
  • Terminal device such as a smartphone
  • T Terminal device
  • Areas of a screen other data can be displayed so that an assignment of the character to a search in the list is then easily possible.
  • the analysis unit 4 of FIG. 2 may be arranged to distinguish between the writing of a letter and other operating gestures, for example a scrolling of a list. This can be done, for example, by reserving an area for such further gestures at the edge of the list, or by interpreting an input as an additional gesture if it is not to be assigned to a letter.
  • a character such as, e.g. one
  • Letter for example, a handwritten input, if no list or other amount of data is displayed, starting a search based on the letter and then display a corresponding amount of data, for example, in a list.
  • the search can be a global search of all contents of the electronic device and / or associated functional devices or a search only in part of the content. Which type of search is performed can be context-dependent. For example, on If a screen such as the screen 8 displays a music playback control surface, a search can be performed only on music-related data, such as a search for performers and / or pieces of music.
  • a screen display can not be assigned to a specific application (for example, a representation of a menu with which various applications such as music playback, navigation or
  • Vehicle settings can be called), for example, a global search can be performed on all content. Such a search can be triggered in particular when writing on a free area on the screen.
  • Character input explained. Additionally or alternatively, an input of characters can also be done by speaking the character, for example via the microphone 6 shown in FIG. 2. Preferably both possibilities are provided, so that different modalities for character input are available. In this case, handwritten characters and characters entered by speaking are preferably treated the same, i. they trigger the same reactions. This will now be explained with reference to FIGS. 5 and 6.
  • a list 50 is shown on the left.
  • the list is modified to list 52, in this case only list elements with the initial letter "M” are displayed.
  • the recognized character, in this case "M” may be briefly displayed as letter 53 on the list, for example in a transparent form.
  • FIG. 6 shows essentially the same procedure, except that instead of a handwritten input of a letter 51, a voice input of a character 54, likewise an "M”, takes place, otherwise the response of the system is exactly as shown in FIG like a handwritten input.
  • a list By entering a character, for example by writing a letter on the list or by voice input, a list can be modified in various ways. Two possibilities for this are shown in FIGS. 7 and 8.
  • a list 70 which, for example, is different
  • the input need not be limited to a single character, but also several characters, e.g. Letters can be specified one behind the other, for example as a word or part of a word. With enough space on one
  • Evaluation unit 4 may be configured to regard a plurality of consecutively entered characters as belonging together if no more than one between the input
  • Fig. 9 is a flowchart is shown, which is an embodiment of a
  • inventive method illustrated may be implemented in apparatus 2 of FIGS. 1 and 2, but may be used independently thereof.
  • step 91 a handwritten input of one or more characters.
  • step 92 input of one or more characters may be by voice.
  • voice recognition can optionally be activated in a preceding step 90, for example by an action of a user, in order to prevent, for example, normal conversations in a vehicle from being assessed as voice input.
  • step 93 the method continues in step 93 in the same manner in which it is checked in which context the character input occurred. If the character entry was made on a list, the list is modified in step 95, for example as explained with reference to FIGS. 7 and 8. If the character input has not been generated on a list and / or no list has been displayed, a search is performed on content in step 94 and the result of the search
  • search is global or just can be done over a part of available content, as already explained above.
  • Pictograms do not necessarily have to be arranged one below the other as shown in the figures.
  • a function associated with the remaining element may be performed, for example, playing a corresponding piece of music or navigating to a corresponding destination.
  • the invention may be generally applied to electronic devices, in particular electronic devices having a touch-sensitive screen or other touch-sensitive element and / or a microphone.

Abstract

Es werden Verfahren zum Bedienen elektronischer Geräte sowie entsprechend eingerichtete elektronische Geräte bereitgestellt, bei welchen eine Eingabe mindestens eines Buchstabens unabhängig von einer Eingabeaufforderung erfasst wird und eine Datenmenge (52) auf einem Bildschirm des elektronischen Geräts in Abhängigkeit von dem erfassten Buchstaben (51) angezeigt wird. Die Eingabe kann dabei beispielsweise handschriftlich oder durch Spracheingabe erfolgen.

Description

Beschreibung
Verfahren zum Bedienen einer elektronischen Einrichtung oder einer Applikation und entsprechende Vorrichtung
Die vorliegende Erfindung betrifft Verfahren zum Bedienen elektronischer Einrichtungen und/oder Applikationen sowie entsprechende Vorrichtungen, insbesondere in einem Fahrzeug wie beispielsweise einem Kraftfahrzeug. Die vorliegende Erfindung betrifft ferner entsprechend ausgerüstete Fahrzeuge.
Die für einen Fahrer eines Kraftfahrzeugs abrufbare Menge an Daten hat in den letzten Jahren stetig zugenommen. Beispielsweise können über ein als Bedieneinrichtung eingerichtete elektronische Einrichtung eines Kraftfahrzeuges größere Datenmengen für Audio- oder Videowiedergabe oder für Navigationszwecke abrufbar und entsprechende Applikationen steuerbar sein, wobei auch Medien oder Kontaktdaten aus Internetbasierten Diensten eingebunden werden können. Daher ist es nötig, Bedienverfahren und Nutzerschnittstellen bereitzustellen, mit welchem auch ein einfacher Zugriff auf derartige Daten möglich ist, beispielsweise ein gewünschtes Musikstück oder ein gewünschtes Navigationsziel ausgewählt werden kann.
Insbesondere in einem Kraftfahrzeug ist dabei wünschenswert, dass eine derartige Bedienung möglichst einfach gehalten und effizient ist, um eine Ablenkung eines Fahrers durch die Bedienung von Einrichtungen und/oder Applikationen, beispielsweise über eine
Bedieneinrichtung wie einem Infotainmentsystem eines Fahrzeugs, möglichst gering zu halten.
Aus der DE 100 42 983 B4 ist es beispielsweise bekannt, alphanumerische Zeichen in ein Navigationssystem einzugeben, um einen Zielort zu bestimmen. Ein solches Verfahren für ein Navigationssystem ist auch aus der DE 10 2008 049 636 A1 bekannt.
Aus der US 2003/0093419 A1 ist ein System bekannt, bei welchem ein Benutzer Informationen durch Spracheingaben oder durch Betätigen eines Touchscreens eingeben kann.
Es ist eine Aufgabe der vorliegenden Erfindung, Verfahren zum Bedienen einer elektronischen Einrichtung und/oder einer Applikation sowie entsprechend eingerichtete Vorrichtungen bereitzustellen, wodurch eine Bedienbarkeit des Geräts erleichtert wird und welche insbesondere zum Einsatz in einem Fahrzeug geeignet sind.
Diese Aufgabe wird gelöst durch ein Verfahren gemäß Anspruch 1 und eine Vorrichtung gemäß Anspruch 13. Die Unteransprüche definieren weitere Ausführungsbeispiele.
Ein erfindungsgemäßes Verfahren umfasst ein Erfassen einer Eingabe mindestens eines Zeichens, beispielsweise eines Buchstabens, einer Ziffer oder eines Symbols unabhängig von einer Eingabeaufforderung und ein Anzeigen einer Datenmenge, z.B. einer Liste auf einer Anzeigeeinrichtung, z.B. einem Bildschirm, in Abhängigkeit von dem mindestens einen Zeichen.
Indem auf diese Weise Eingaben unabhängig von Eingabeaufforderungen erfasst werden, kann eine Bedienung des elektronischen Geräts durch Eingabe von Zeichen erfolgen, ohne dass ein Bediener auf Eingabeaufforderungen, beispielsweise Eingabefelder, warten muss oder
Aktionen betätigen muss, um derartige Eingabeaufforderungen zu erzeugen. Auf diese Weise wird die Bedienung des elektronischen Gerätes vereinfacht.
Bevorzugt kann die Eingabe des mindestens einen Zeichens wahlweise über mindestens zwei verschiedene Eingabemodalitäten erfolgen, beispielsweise durch eine Spracheingabe oder durch eine handschriftliche Eingabe auf einem berührungsempfindlichen Bildschirm, auch als Touchscreen bezeichnet, oder einem anderen berührungsempfindlichen Element,
beispielsweise einem Touchpad. Dies ermöglicht eine große Flexibilität.
Bevorzugt ist das Anzeigen der Datenmenge unabhängig davon, mit welcher Eingabemodalität die Eingabe des Zeichens erfolgte. In anderen Worten, werden bei derartigen
Ausführungsbeispielen die verschiedenen Eingabemodalitäten gleich behandelt, sodass es für einen Benutzer keinen Unterschied macht, wie er das mindestens eine Zeichen auswählt.
Das Anzeigen der Datenmenge umfasst bei manchen Ausführungsbeispielen ein Modifizieren einer bereits angezeigten Datenmenge auf Basis des mindestens einen Zeichens.
Beispielsweise kann die zunächst angezeigte Datenmenge auf Basis des mindestens einen Zeichens verkleinert werden, sodass abhängig von dem mindestens einen Zeichen nur noch manche Elemente der zunächst angezeigten Datenmenge angezeigt werden, oder ein angezeigter Ausschnitt der Datenmenge kann in Abhängigkeit von dem mindestens einen Zeichen verändert werden. Bei anderen Ausführungsbeispielen wird durch die Eingabe des mindestens einen Zeichens eine Suche über alle oder einen Teil der in dem elektronischen Gerät vorhandenen oder mit diesen verknüpften Daten durchgeführt, und die Datenmenge beinhaltet ein Ergebnis der Suche. Umfasst die angezeigte Datenmenge nur einen Eintrag, kann bei manchen
Ausführungsbeispielen automatisch eine mit dem Eintrag verknüpfte Funktion ausgeführt werden, ansonsten kann ein Eintrag aus der Datenmenge zur Ausführung einer Funktion ausgewählt werden, beispielsweise durch Eingabe und Erfassen weiterer Zeichen oder durch Auswahl mittels eines Bedienelements des elektronischen Geräts.
Eine entsprechende Vorrichtung umfasst eine Erfassungseinrichtung zum Erfassen einer Eingabe mindestens eines Zeichens unabhängig von einer Eingabeaufforderung, eine
Anzeigeeinrichtung und eine Steuereinrichtung, welche eingerichtet ist, die Anzeigeeinrichtung zum Anzeigen einer Datenmenge in Abhängigkeit von dem mindestens einen Buchstaben anzusteuern. Die Erfassungseinrichtung kann insbesondere ein Mikrophon zum Erfassen einer Spracheingabe des mindestens einen Zeichens aufweisen. Zudem kann die Anzeigeeinrichtung einen berührungsempfindlichen Bildschirm umfassen, welcher somit als Teil der
Erfassungseinrichtung zum Erfassen einer handschriftlichen Eingabe dient, und/oder die Erfassungseinrichtung kann einen weiteren Bildschirm, welcher berührungsempfindlich ist, oder ein anderes berührungsempfindliches Element aufweisen.
Die Vorrichtung kann insbesondere eingerichtet sein, eines oder mehrer der oben
beschriebenen Verfahren durchzuführen.
Die Erfindung wird nachfolgend unter Bezugnahme auf die beigefügten Zeichnungen anhand von Ausführungsbeispielen näher erläutert. Es zeigen:
Fig. 1 ein Cockpit eines Fahrzeuges, welches mit einer Vorrichtung gemäß einem
Ausführungsbeispiel der Erfindung ausgestattet ist,
Fig. 2 ein Blockdiagramm eines Ausführungsbeispiels einer erfindungsgemäßen Vorrichtung,
Fig. 3-8 verschiedene Beispiele für Eingaben von Buchstaben gemäß Ausführungsbeispielen der Erfindung, und
Fig. 9 ein Flussdiagramm zur Veranschaulichung eines Ausführungsbeispiels eines
erfindungsgemäßen Verfahrens.
Im Folgenden werden verschiedene Ausführungsbeispiele der Erfindung näher erläutert. Es ist zu bemerken, dass Merkmale verschiedener Ausführungsbeispiele miteinander kombiniert werden können, sofern nichts anderes angegeben ist. Auf der anderen Seite ist eine Beschreibung eines Ausführungsbeispiels mit einer Vielzahl von Merkmalen nicht dahingehend auszulegen, dass alle diese Merkmale zur Ausführung der Erfindung nötig sind, da andere Ausführungsbeispiele weniger Merkmale oder alternative Merkmale aufweisen können.
In Fig. 1 ist ein Cockpit eines Fahrzeugs 1 dargestellt, welches mit einer Vorrichtung 2 gemäß einem Ausführungsbeispiel der Erfindung ausgestattet ist. Die Vorrichtung 2 dient dabei insbesondere zur Bedienung von Funktionen des Fahrzeugs 1. Beispielsweise können mit der Vorrichtung 2 ein Radio, ein Navigationssystem, eine Wiedergabe von gespeicherten
Musikstücken und/oder eine Klimaanlage, andere elektronische Einrichtungen oder andere Komfortfunktionen oder Applikationen des Fahrzeugs 1 gesteuert werden. Derartige
Vorrichtungen sind auch als Infotainmentsysteme bekannt. Die Vorrichtung 2 weist im Bereich einer Mittelkonsole des Fahrzeugs 1 eine Anzeigeeinrichtung in Form eines
berührungsempfindlichen Bildschirms 8, auch als Touchscreen bezeichnet, auf, wobei dieser Bildschirm 8 sowohl von einem Fahrer des Fahrzeugs 1 als auch von einem Beifahrer des Fahrzeugs 1 gut eingesehen und bedient werden kann. Unterhalb des Bildschirms 8 können zudem mechanische Bedienelemente, beispielsweise Tasten, Drehregler oder Kombinationen hiervon wie beispielsweise Drückdrehregler, angeordnet sein.
In Fig. 2 ist schematisch eine mögliche Ausführung der Vorrichtung 2 gemäß einem
Ausführungsbeispiel der Erfindung dargestellt. Komponenten der Vorrichtung 2, welche in Fig. 1 nicht dargestellt sind, können dennoch auch bei dem Ausführungsbeispiel der Fig. 1 vorhanden sein und an geeigneter Stelle im Fahrzeug 1 , beispielsweise im Cockpit des Fahrzeugs, angeordnet sein.
Die Vorrichtung 2 des Ausführungsbeispiels der Fig. 2 umfasst diverse Mittel und Einrichtungen zum Erfassen von Nutzereingaben, beispielsweise ein Mikrophon 6, welches mit einer
Steuereinrichtung 5 verbunden ist, wobei die Steuereinrichtung 5 mittels einer Analyseeinheit 4 zum Verarbeiten und Analysieren von über das Mikrophon 6 eingegebener Sprache eingerichtet ist. Zudem ist der berührungsempfindliche Bildschirm 8 zum Erfassen von Eingaben durch Berührungen vorgesehen. Des weiteren kann ein weiterer berührungsempfindlicher Bildschirm 7 bereitgestellt sein. Der weitere berührungsempfindliche Bildschirm 7 kann auch ein lösbar mit dem Fahrzeug verbindbares Endgerät mit einer berührungsempfindlichen Oberfläche sein, beispielsweise ein sogenanntes Smartphone oder ein Tabletcomputer. Dieses Endgerät kann beispielsweise in eine dafür vorgesehene Halterung im Fahrzeug eingelegt werden und eine Datenverbindung zu der Steuereinrichtung 5 der Vorrichtung 2 aufbauen, beispielsweise eine drahtlose Verbindung wie eine Bluetooth-Verbindung oder eine drahtgebundene Verbindung. Bei anderen Ausführungsbeispielen kann statt des weiteren berührungsempfindlichen
Bildschirms 7 auch ein anderes berührungsempfindliches Element, beispielsweise ein sogenanntes Touchpad, bereitgestellt sein. Wie später näher erläutert werden wird, können auf dem Bildschirm 8 oder 7 insbesondere graphische Objekte 12 sowie Listen 15 dargestellt werden, wobei die Anzeige der Listen in Abhängigkeit von Eingaben eines Benutzers, insbesondere eines Fahrers des Fahrzeugs, erfolgen kann.
Die Steuereinrichtung 5 kann optional mit einem Kamerasystem 9 verbunden sein, welches einen Bereich um den Bildschirm 8 überwacht. Das Kamerasystem 9 kann beispielsweise neben dem Bildschirm 8 oder an geeigneter Stelle im Cockpit oder am Himmel der
Fahrgastzelle angeordnet sein und kann insbesondere Gesten berührungslos auch schon vor der Anzeigefläche des Bildschirms erfassen, sodass hiermit eine weitere Eingabemodalität geschaffen wird.
In der Steuereinrichtung 5 ist bei dem dargestellten Ausführungsbeispiel ein Datenspeicher 3 integriert, in welchem verschiedene Informationen abgelegt sein können, beispielsweise
Informationen über zur Verfügung stehende Musikstücke oder Informationen bezüglich eines Navigationssystems. Zudem weist die Steuereinrichtung 5 die Analyseeinheit 4 auf, welche insbesondere Eingaben eines Benutzers analysiert und davon abhängig Funktionen in dem Fahrzeug auslösen kann, beispielsweise eine Darstellung auf dem Bildschirm 8 ändern kann oder andere Funktionen, beispielsweise eine Wiedergabe von Musikstücken, auslösen kann.
Die Steuereinrichtung 5 ist weiterhin mit einem Datenbus 10 in dem Fahrzeug 1 verbunden, über den sie mit anderen Funktionseinrichtungen 1 1A, 1 1 B im Fahrzeug 1 kommunizieren kann, wobei die Funktionseinrichtungen 1 1 A, 1 1 B Datenspeicher 3A bzw.3B aufweisen.
Derartige Funktionseinrichtungen können beispielsweise ein Navigationssystem, eine
Musikwiedergabeeinrichtung, oder eine Einrichtung zum Einstellen und Bedienen verschiedener Funktionen im Fahrzeug 1 umfassen. In den Datenspeichern 3A, 3B können dann
entsprechend beispielsweise Kartendaten im Falle eines Navigationssystems oder Musikdaten wie MP3-Dateien im Falle eines Musikwiedergabesystems abgelegt sein. Informationen darüber, welche Daten sich in den Datenspeichern 3A, 3B befinden, können in dem Speicher 3 der Steuereinrichtung 5 abgelegt sein. Bei anderen Ausführungsbeispielen greift die
Steuereinrichtung 5 direkt auf die Funktionseinrichtungen 1 1 A, 1 1 B zu, um derartige
Informationen zu erlangen.
Wie im Folgenden anhand von Beispielen näher erläutert werden wird, stellt die Vorrichtung 2 insbesondere Möglichkeiten bereit, mit welchem ein Bediener auf einfache Weise Inhalte, beispielsweise in dem Speicher 3 oder in dem Datenspeichern 3A und 3B abgelegte Inhalte, auffinden kann oder aus einer größeren Zahl von Inhalten auswählen kann. Hierzu können insbesondere zur Auswahl in Listen Zeichen, beispielsweise Buchstaben, Ziffern oder Symbole in Handschrift über den Bildschirm 8 oder den Bildschirm 7 eingegeben werden oder auch als Sprache über das Mikrofon 6 eingegeben werden. Verschiedene Beispiele hierfür werden im Folgenden unter Bezugnahme auf die Figuren 3 bis 8 erläutert.
In Fig. 3 ist ein Beispiel einer Anzeige auf dem berührungsempfindlichen Bildschirm 8 dargestellt, bei welcher es beispielsweise um die Auswahl eines Musikinterpreten geht. In einer Liste 30 sind verschiedene Interpreten angezeigt, welche mit Pete anfangen. Ein Bediener kann dann handschriftlich einen weiteren Buchstaben, beispielsweise ein„R" 31 , eingeben, worauf die Liste 30 weiter konkretisiert werden kann. Beispiele für Konkretisierungen derartiger Listen werden später erläutert. Eine derartige Funktion kann grundsätzlich bereitgestellt werden, wenn Listen angezeigt werden, ohne dass eine separate Eingabeanforderung gegeben wird oder von einem Bediener angefordert werden muss.
Insbesondere, bei kleineren Bildschirmen wie in Fig. 4 dargestellt kann das Schreiben eines Buchstabens 41 dabei direkt auf einer Liste 40 erfolgen. Derartige kleinere Bildschirme können beispielsweise Bildschirme wie der Bildschirm 7 aus Fig. 2 sein, welche einem mobilen
Endgerät wie beispielsweise einem Smartphone zuzuordnen sind. Im Beispiel der Fig. 4 wird als Zeichen oder Buchstabe T angegeben. Ein derartiges Schreiben direkt auf Listen oder in anderer Form dargestellten Datenmengen kann auch vorteilhaft sein, wenn in anderen
Bereichen eines Bildschirms andere Daten dargestellt werden, sodass eine Zuordnung des Zeichens zu einer Suche in der Liste dann problemlos möglich ist. Beim Schreiben direkt auf eine Liste kann beispielsweise die Analyseeinheit 4 der Fig. 2 eingerichtet sein, zwischen dem Schreiben eines Buchstabens und anderen Bediengesten, beispielsweise einem Scrollen einer Liste, zu unterscheiden. Dies kann beispielsweise dadurch geschehen, dass am Rand der Liste ein Bereich für derartige weitere Gesten reserviert wird, oder dass eine Eingabe als weitere Geste interpretiert wird, wenn sie keinem Buchstaben zuzuordnen ist.
Es ist zu bemerken, dass zusätzlich zur Bedienung oder Konkretisierung der Listen durch Zeichen die Liste auch mit anderen Bedienelementen, beispielsweise einem eingangs erwähnten Drückdrehelement, bedient werden.
Bei weiteren Ausführungsbeispielen kann bei Eingabe eines Zeichens, wie z.B. eines
Buchstabens, beispielsweise einer handschriftlichen Eingabe, falls keine Liste oder andere Datenmenge angezeigt wird, auf Basis des Buchstabens eine Suche gestartet werden und dann eine entsprechende Datenmenge beispielsweise in einer Liste angezeigt werden. Die Suche kann dabei eine globale Suche über alle Inhalte des elektronischen Geräts und/oder hiermit verknüpfte Funktionseinrichtungen oder eine Suche nur in einem Teil der Inhalte sein. Welche Art der Suche durchgeführt wird, kann kontextabhängig sein. Wird beispielsweise auf einem Bildschirm wie dem Bildschirm 8 eine Bedienoberfläche für Musikwiedergabe angezeigt, kann eine Suche nur über musikbezogene Daten, beispielsweise eine Suche nach Interpreten und/oder Musikstücken, durchgeführt werden. Ist eine Bildschirmdarstellung hingegen keiner spezifischen Anwendung zuzuordnen (beispielsweise eine Darstellung eines Menüs, mit welcher verschiedene Anwendungen wie Musikwiedergabe, Navigation oder
Fahrzeugeinstellungen aufgerufen werden können), kann beispielsweise eine globale Suche über sämtliche Inhalte durchgeführt werden. Eine derartige Suche kann insbesondere ausgelöst werden, wenn auf eine freie Fläche auf dem Bildschirm geschrieben wird.
Unter Bezugname auf die Fig. 3 und 4 wurde eine Bedienung durch handschriftliche
Zeicheneingabe erläutert. Zusätzlich oder alternativ kann eine Eingabe von Zeichen auch durch Sprechen des Zeichens erfolgen, beispielsweise über das in Fig. 2 dargestellte Mikrophon 6. Bevorzugt sind beide Möglichkeiten vorgesehen, sodass unterschiedliche Modalitäten zur Zeicheneingabe zur Verfügung stehen. Dabei werden bevorzugt handschriftlich eingegebene Zeichen und durch Sprechen eingegebene Zeichen gleich behandelt, d.h. sie lösen die gleichen Reaktionen aus. Dies wird nun unter Bezugnahme auf Fig. 5 und 6 erläutert.
In Fig. 5 ist links eine Liste 50 dargestellt. Durch handschriftliche Eingabe eines Zeichens 51 , hier ein„M" wird die Liste zur Liste 52 modifiziert, in diesem Fall nur Listenelemente mit dem Anfangsbuchstaben„M" angezeigt. Zudem kann das erkannte Zeichen, in diesem Fall„M" als Buchstabe 53 auf der Liste kurzzeitig angezeigt werden, beispielsweise in transparenter Form.
In Fig. 6 ist im Wesentlichen der gleiche Vorgang dargestellt, nur dass hier statt einer handschriftlichen Eingabe eines Buchstabens 51 eine Spracheingabe eines Zeichens 54, ebenfalls eines„M", erfolgt. Ansonsten ist die Reaktion des Systems wie in Fig. 6 dargestellt genau so wie bei einer handschriftlichen Eingabe.
Durch die Eingabe eines Zeichens, beispielsweise durch Schreiben eines Buchstabens auf die Liste oder durch eine Spracheingabe, kann eine Liste auf verschiedene Art und Weise modifiziert werden. Zwei Möglichkeiten hierfür sind in den Fig. 7 und 8 dargestellt.
Bei dem Beispiel der Fig. 7 wird auf eine Liste 70, welche beispielsweise verschiedene
Interpreten zeigt, ein Buchstabe 72, in diesem Fall ein„Z", geschrieben. Als Reaktion hierfür wird die Liste nunmehr als Liste 71 mit denjenigen Elementen angezeigt, welche mit„Z" beginnen, in diesem Fall nur noch ein einziges Element. Der Listeninhalt verändert sich also bei dieser Vorgehensweise. Bei dem Beispiel der Fig. 8 wird wiederum eine Liste 80 mit verschiedenen Interpreten angezeigt. Bei Eingabe eines Buchstabens 82, in diesem Fall ein„W", wird die Liste verschoben („gescrollt"), in diesem Beispiel ändert sich dann die Anzeige wie durch ein Bezugszeichen 81 angedeutet, d.h. der Beginn des angezeigten Abschnitts der Liste entspricht dem ersten Eintrag, welcher mit„W" beginnt. Der Inhalt der Liste selbst wird bei dieser Vorgehensweise nicht verändert, aber die angezeigten Listenpositionen ändern sich. Die Möglichkeit der Fig. 8 eignet sich dabei insbesondere für sortierte Listen.
Zu bemerken ist, dass die Eingabe nicht auf ein einziges Zeichen beschränkt sein muss, sondern auch mehrere Zeichen, z.B. Buchstaben, hintereinander angegeben werden können, beispielsweise als Wort oder Wortteil. Bei ausreichend Platz auf einem
berührungsempfindlichen Bildschirm kann dies als handschriftliche Eingabe nebeneinander erfolgen, oder es können mehrere Zeichen, z.B. als Wort oder Wortteil, hintereinander gesprochen werden. Bei wenig Platz, beispielsweise einer Eingabe auf einem Smartphone, können die Zeichen sukzessive übereinander geschrieben werden. Dabei kann die
Auswerteeinheit 4 eingerichtet sein, mehrere hintereinander eingegebene Zeichen als zusammengehörig zu betrachten, wenn zwischen den Eingabe nicht mehr als eine
vorgegebene Zeitspanne verstreicht.
In Fig. 9 ist ein Flussdiagramm dargestellt, welches ein Ausführungsbeispiel eines
erfindungsgemäßen Verfahrens veranschaulicht. Das Verfahren der Fig. 9 kann beispielsweise in der Vorrichtung 2 der Fig. 1 und 2 implementiert sein, kann jedoch auch unabhängig hiervon verwendet werden.
In Schritt 91 erfolgt eine handschriftliche Eingabe von einem oder mehreren Zeichen. Alternativ kann in Schritt 92 eine Eingabe von einem oder mehreren Zeichen durch Sprache erfolgen. Hierzu kann optional in einem vorhergehenden Schritt 90 eine Spracherkennung aktiviert werden, beispielsweise durch eine Handlung eines Benutzers, um zu verhindern, dass beispielsweise normale Gespräche in einem Fahrzeug als Spracheingabe bewertet werden.
Unabhängig davon, auf welche Art die Eingabe von ein oder mehreren Buchstaben erfolgt, wird das Verfahren in gleicher weise in Schritt 93 fortgesetzt, in welchem überprüft wird, in welchem Kontext die Zeicheneingabe erfolgte. Erfolgte die Zeicheneingabe auf einer Liste, wird in Schritt 95 die Liste modifiziert, beispielsweise wie unter Bezugnahme auf Fig. 7 und 8 erläutert. Falls die Zeicheneingabe nicht auf einer Liste erzeugt wurde und/oder keine Liste angezeigt wurde, wird eine Suche über Inhalte in Schritt 94 durchgeführt und das Ergebnis der Suche
beispielsweise als Liste angezeigt, wobei abhängig von dem Kontext die Suche global oder nur über einen Teil von zur Verfügung stehenden Inhalten erfolgen kann, wie bereits weiter oben erläutert.
Es ist zu bemerken, dass die oben dargestellten Ausführungsbeispiele nur zur Erläuterung dienen und nicht als einschränkend auszulegen sind. Insbesondere sind verschiedene
Modifikationen und Abwandlungen der oben beschriebenen Ausführungsbeispiele möglich. Beispielsweise können statt Listen auch andere Arten der Anzeige von Datenmengen verwendet werden, beispielsweise in Form von Piktogrammen, welche einzelne Daten repräsentieren. Die verschiedenen Daten, beispielsweise Elemente der Listen oder
Piktogramme, müssen nicht notwendigerweise untereinander angeordnet sein wie in den Figuren dargestellt.
Wenn durch Zeicheneingabe die Anzahl der Elemente einer Liste auf eins reduziert werden, kann bei manchen Ausführungsbeispielen ohne weitere Rückfrage mit einem Bediener eine mit dem verbliebenen Element verknüpfte Funktion ausgeführt werden, beispielsweise ein entsprechendes Musikstück gespielt werden oder eine Navigation zu einem entsprechendem Ziel gestartet werden.
Auch wenn die oben beschriebenen Ausführungsbeispiele sich auf einen Einsatz der Erfindung in einem Fahrzeug beziehen, kann die Erfindung generell für elektronische Geräte angewendet werden, insbesondere für elektronische Geräte, welche einen berührungsempfindlichen Bildschirm oder anderes berührungsempfindliches Element und/oder ein Mikrophon aufweisen.

Claims

Ansprüche
Verfahren zum Bedienen mindestens einer elektronischen Einrichtung und/oder Applikation umfassend:
Erfassen einer Eingabe mindestens eines Zeichens unabhängig von einer
Eingabeaufforderung, und
Anzeigen einer Datenmenge auf einer Anzeigeeinrichtung (7, 8) in Abhängigkeit von dem erfassten mindestens einen Buchstabens.
Verfahren nach Anspruch 1 , wobei das Erfassen einer Eingabe ein Erfassen einer Eingabe durch Sprache und/oder ein Erfassen einer handschriftlichen Eingabe auf einem berührungsempfindlichen Element (7, 8) umfasst.
Verfahren nach Anspruch 2, wobei das berührungsempfindliche Element ausgewählt ist aus der Gruppe umfassend die Anzeigeeinrichtung (7, 8) und ein Touchpad.
Verfahren nach einem der Ansprüche 1 -3, wobei das Erfassen der Eingabe des mindestens einen Zeichens wahlweise über mindestens zwei verschiedene
Eingabemodalitäten erfolgen kann.
Verfahren nach Anspruch 4, wobei das Anzeigen unabhängig von der verwendeten Eingabemodalität erfolgt.
Verfahren nach einem der Ansprüche 1-5, wobei die Datenmenge als Liste angezeigt wird.
Verfahren nach einem der Ansprüche 1-6, weiter umfassend:
Anzeigen einer vorhergehenden Datenmenge auf der Anzeigeeinrichtung (8) vor dem Erfassen der Eingabe des mindestens einen Buchstabens,
wobei das Anzeigen der Datenmenge durch Modifizieren der Anzeige der
vorhergehenden Datenmenge erfolgt.
Verfahren nach Anspruch 7, wobei die Anzeigeeinrichtung (7, 8) berührungsempfindlich ist, und wobei das Erfassen der Eingabe des mindestens einen Zeichens ein Erfassen einer handschriftlichen Eingabe des mindestens einen Zeichens auf der
Anzeigeeinrichtung am Ort der Anzeige der vorhergehenden Datenmenge umfasst.
9. Verfahren nach Anspruch 7 oder 8, wobei das Modifizieren der vorhergehenden
Datenmenge eine Reduzierung der Anzahl der Elemente der vorhergehenden
Datenmenge in Abhängigkeit von dem mindestens ein Zeichen umfasst.
10. Verfahren nach Anspruch 7 oder 8, wobei die Modifizierung der vorhergehenden
Datenmenge eine Änderung eines angezeigten Ausschnitts der vorhergehenden Datenmenge umfasst.
1 1. Verfahren nach einem der Ansprüche 1 -6, wobei das Anzeigen der Datenmenge ein Suchen von Daten in einem Datenspeicher (3, 3A, 3B) in Abhängigkeit von dem mindestens einen Zeichen und ein Erzeugen der Datenmenge in Abhängigkeit von den gefundenen Daten umfasst.
12. Verfahren nach einem der Ansprüche 1 -1 1 , wobei das mindestens eine Zeichen
mindestens einen Buchstaben, mindestens eine Ziffer und/oder mindestens ein Symbol umfasst.
13. Vorrichtung (2) umfassend:
eine Erfassungseinrichtung (6, 7, 8, 4) zum Erfassen einer Eingabe mindestens eines Zeichens unabhängig von einer Eingabeaufforderung,
eine Anzeigeeinrichtung (7, 8), und
eine Steuereinrichtung (5), welche eingerichtet ist, die Anzeigeeinrichtung (8) zur Anzeige einer Datenmenge in Abhängigkeit von dem mindestens einen Buchstaben anzusteuern.
14. Vorrichtung (2) nach Anspruch 13, wobei die Vorrichtung (2) zur Durchführung des
Verfahrens nach einem der Ansprüche 1-12 eingerichtet ist.
15. Fahrzeug (1 ) mit einer Vorrichtung (2) nach Anspruch 13 oder 14.
PCT/EP2012/003335 2011-08-18 2012-08-04 Verfahren zum bedienen einer elektronischen einrichtung oder einer applikation und entsprechende vorrichtung WO2013023751A1 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP12746027.7A EP2745218A1 (de) 2011-08-18 2012-08-04 Verfahren zum bedienen einer elektronischen einrichtung oder einer applikation und entsprechende vorrichtung
KR1020147006836A KR20140063698A (ko) 2011-08-18 2012-08-04 전자 유닛 또는 애플리케이션의 작동 방법,및 상응하는 장치
EP18208965.6A EP3486805A1 (de) 2011-08-18 2012-08-04 Verfahren zum bedienen einer elektronischen einrichtung oder einer applikation und entsprechende vorrichtung
KR1020167023788A KR20160105936A (ko) 2011-08-18 2012-08-04 전자 유닛 또는 애플리케이션의 작동 방법,및 상응하는 장치
CN201280051065.8A CN103890760A (zh) 2011-08-18 2012-08-04 用于操作电子装置或者应用程序的方法和相应的装置
US14/239,382 US9817480B2 (en) 2011-08-18 2012-08-04 Method for operating an electronic device or an application, and corresponding apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102011110978A DE102011110978A1 (de) 2011-08-18 2011-08-18 Verfahren zum Bedienen einer elektronischen Einrichtung oder einer Applikation und entsprechende Vorrichtung
DE102011110978.5 2011-08-18

Publications (1)

Publication Number Publication Date
WO2013023751A1 true WO2013023751A1 (de) 2013-02-21

Family

ID=46650488

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2012/003335 WO2013023751A1 (de) 2011-08-18 2012-08-04 Verfahren zum bedienen einer elektronischen einrichtung oder einer applikation und entsprechende vorrichtung

Country Status (6)

Country Link
US (1) US9817480B2 (de)
EP (2) EP3486805A1 (de)
KR (2) KR20160105936A (de)
CN (1) CN103890760A (de)
DE (1) DE102011110978A1 (de)
WO (1) WO2013023751A1 (de)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10592092B2 (en) 2009-07-02 2020-03-17 Uusi, Llc. User interface with proximity detection for object tracking
US9046967B2 (en) 2009-07-02 2015-06-02 Uusi, Llc Vehicle accessory control interface having capactive touch switches
US11216174B2 (en) 2009-07-02 2022-01-04 Uusi, Llc User interface with proximity detection for object tracking
US11726651B2 (en) 2009-07-02 2023-08-15 Uusi, Llc Vehicle occupant detection system
WO2014157839A1 (en) * 2013-03-26 2014-10-02 Samsung Electronics Co., Ltd. Terminal apparatus mountable in vehicle, mobile device for working with the terminal apparatus, and methods for providing service thereof
EP2829962A3 (de) * 2013-07-24 2015-05-27 Kyocera Document Solutions Inc. Abrufvorrichtung zum Abrufen von datenspezifischen Informationen zur Identifizierung von Daten von Datengruppe
EP2849033A3 (de) * 2013-09-17 2015-05-27 UUSI LLC D/b/a Nartron Benutzeroberfläche mit Näherungsdetektion zur Objektverfolgung
DE102013223972A1 (de) * 2013-11-25 2015-05-28 Bayerische Motoren Werke Aktiengesellschaft Systemweite Suche in Fahrerinformationssystemen
DE102014010341A1 (de) 2014-07-11 2016-01-14 Audi Ag Bedieneinrichtung für ein Kraftfahrzeug und Verfahren zum Betreiben einer Bedieneinrichtung
DE102014014340B4 (de) * 2014-09-27 2016-12-15 Audi Ag Bedienvorrichtung, Kraftfahrzeug und Verfahren zum Bedienen einer Bedienvorrichtung für ein Kraftfahrzeug
DE102014018407B4 (de) * 2014-12-11 2016-12-08 Audi Ag Bedienvorrichtung zum Steuern eines Geräts eines Kraftfahrzeugs sowie Kraftfahrzeug und Verfahren
US10209832B2 (en) 2016-07-25 2019-02-19 Google Llc Detecting user interactions with a computing system of a vehicle
DE102016218011A1 (de) * 2016-09-20 2018-03-22 Volkswagen Aktiengesellschaft Benutzerschnittstelle für den Zugriff auf eine Menge von Funktionen, Verfahren und computerlesbares Speichermedium zum Bereitstellen einer Benutzerschnittstelle für den Zugriff auf eine Menge von Funktionen
EP3404525A1 (de) 2017-05-17 2018-11-21 Volkswagen Aktiengesellschaft Verfahren und vorrichtung zum bedienen eines infotainment-systems sowie kraftfahrzeug und computerprogramm
US10719230B2 (en) * 2018-09-27 2020-07-21 Atlassian Pty Ltd Recognition and processing of gestures in a graphical user interface using machine learning

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030093419A1 (en) 2001-08-17 2003-05-15 Srinivas Bangalore System and method for querying information using a flexible multi-modal interface
WO2005003944A1 (en) * 2003-07-01 2005-01-13 Nokia Corporation Method and device for operating a user-input area on an electronic display device
DE10042983B4 (de) 2000-09-01 2006-06-01 Caa Ag Verfahren zum Bestimmen eines gewünschten Zielortes in einem rechnergestützten Navigationssystem sowie entsprechendes Navigationssystem
US20060227065A1 (en) * 2005-04-08 2006-10-12 Matsushita Electric Industrial Co. Ltd. Human machine interface system for automotive application
US20060262103A1 (en) * 2005-04-08 2006-11-23 Matsushita Electric Industrial Co., Ltd. Human machine interface method and device for cellular telephone operation in automotive infotainment systems
US20090055771A1 (en) * 2007-08-24 2009-02-26 Nokia Corporation Searching
DE102008049636A1 (de) 2008-09-30 2010-04-01 Volkswagen Ag Verfahren und Vorrichtung zum Eingeben eines Ziels für ein Navigationssystem

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2965093B2 (ja) 1991-05-01 1999-10-18 ソニー株式会社 文字入力装置及び方法
JPH0816313A (ja) * 1994-07-04 1996-01-19 Sanyo Electric Co Ltd 手書き入力方法及び装置
US6937984B1 (en) * 1998-12-17 2005-08-30 International Business Machines Corporation Speech command input recognition system for interactive computer display with speech controlled display of recognized commands
DE19914631A1 (de) * 1999-03-31 2000-10-12 Bosch Gmbh Robert Eingabeverfahren in ein Fahrerinformationssystem
DE10003737A1 (de) * 2000-01-28 2001-08-16 Bosch Gmbh Robert Verfahren zur Informationseingabe in ein elektrisches Gerät
DE102004010406B3 (de) 2004-03-01 2005-10-27 Siemens Ag Informations- oder Unterhaltungssystem eines Kraftfahrzeuges und Verfahren zur Auswahl eines Listeneintrags
JP2007102369A (ja) * 2005-09-30 2007-04-19 Toshiba Corp ジェスチャ認識装置およびジェスチャ認識方法
KR101652535B1 (ko) * 2008-06-18 2016-08-30 오블롱 인더스트리즈, 인크 차량 인터페이스를 위한 제스처 기반 제어 시스템
DE102009021124A1 (de) * 2009-05-13 2010-09-23 Audi Ag Bediensystem für ein Fahrzeug

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10042983B4 (de) 2000-09-01 2006-06-01 Caa Ag Verfahren zum Bestimmen eines gewünschten Zielortes in einem rechnergestützten Navigationssystem sowie entsprechendes Navigationssystem
US20030093419A1 (en) 2001-08-17 2003-05-15 Srinivas Bangalore System and method for querying information using a flexible multi-modal interface
WO2005003944A1 (en) * 2003-07-01 2005-01-13 Nokia Corporation Method and device for operating a user-input area on an electronic display device
US20060227065A1 (en) * 2005-04-08 2006-10-12 Matsushita Electric Industrial Co. Ltd. Human machine interface system for automotive application
US20060262103A1 (en) * 2005-04-08 2006-11-23 Matsushita Electric Industrial Co., Ltd. Human machine interface method and device for cellular telephone operation in automotive infotainment systems
US20090055771A1 (en) * 2007-08-24 2009-02-26 Nokia Corporation Searching
DE102008049636A1 (de) 2008-09-30 2010-04-01 Volkswagen Ag Verfahren und Vorrichtung zum Eingeben eines Ziels für ein Navigationssystem

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2745218A1

Also Published As

Publication number Publication date
EP2745218A1 (de) 2014-06-25
US20140300561A1 (en) 2014-10-09
DE102011110978A1 (de) 2013-02-21
KR20160105936A (ko) 2016-09-07
KR20140063698A (ko) 2014-05-27
DE102011110978A8 (de) 2013-05-16
CN103890760A (zh) 2014-06-25
US9817480B2 (en) 2017-11-14
EP3486805A1 (de) 2019-05-22

Similar Documents

Publication Publication Date Title
EP2745218A1 (de) Verfahren zum bedienen einer elektronischen einrichtung oder einer applikation und entsprechende vorrichtung
EP2350799B1 (de) Verfahren und vorrichtung zum anzeigen von in listen geordneter information
DE102016210288A1 (de) Bedienvorrichtung mit Eyetrackereinheit und Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung
EP3097468A1 (de) Anwenderschnittstelle und verfahren zur anpassung einer ansicht auf einer anzeigeeinheit
EP2941685B1 (de) Bedienverfahren und bediensystem in einem fahrzeug
EP2951663B1 (de) Systeminitiierte hilfefunktion für die bedienung von einer, einem fahrzeug zugeordneten vorrichtung - eingabe von leerzeichen
DE19932776A1 (de) Verfahren und Vorrichtung zur Darstellung von Eingabeoptionen
DE102011112445A1 (de) Multifunktionsbedieneinrichtung
DE102009040387A1 (de) Verfahren und Systeme zum Anzeigen von Inhaltsauswahlen in Fahrzeugen
EP2217992A2 (de) Verfahren und vorrichtung zum bedienen einer einrichtung eines fahrzeugs mit einer sprachsteuerung
DE102011121108B4 (de) Verfahren und Vorrichtungen zum Ausgeben von Informationen in einem Fahrzeug
DE102004002010B4 (de) Anordnung zur Sprachbedienung eines elektronischen Gerätes, insbesondere in einem Kraftfahrzeug
WO2017140569A1 (de) Kraftfahrzeug-bedienvorrichtung und verfahren zum betreiben einer bedienvorrichtung, um eine wechselwirkung zwischen einer virtuellen darstellungsebene und einer hand zu bewirken
DE102013016196B4 (de) Kraftfahrzeugbedienung mittels kombinierter Eingabemodalitäten
DE102008026030B4 (de) Informations- und Assistenzsystem sowie ein Verfahren zu dessen Steuerung
WO2013023752A2 (de) Verfahren und einrichtung zum bedienen einer elektronischen einrichtung und/ oder applikationen
WO2014117932A1 (de) Systeminitiierte hilfefunktion pro fahrt und/oder pro nutzer für die bedienung von einer, einem fahrzeug zugeordneten vorrichtung
EP3426516B1 (de) Bedienvorrichtung und verfahren zum erfassen einer benutzerauswahl zumindest einer bedienfunktion der bedienvorrichtung
DE102018202049B4 (de) Bedienvorrichtung sowie verfahren, computerlesbares speichermedium mit instruktionen zum einrichten einer bedienvorrichtung und kraftfahrzeug
DE102016219134B4 (de) Verfahren zum Zugriff auf ein fahrzeugexternes elektronisches Gerät
DE102021133986A1 (de) Verfahren zum Betreiben einer Anzeigevorrichtung, Bildschirmanpassungseinrichtung, Speichermedium, mobiles Gerät, Servervorrichtung, und Kraftfahrzeug
DE102021103690A1 (de) Verfahren zum Erhöhen der Sicherheit während des Bedienens einer Einrichtung
WO2013139359A1 (de) Verfahren zur wiedergabe von bedieneingaben in einem kraftfahrzeug
DE102014014340B4 (de) Bedienvorrichtung, Kraftfahrzeug und Verfahren zum Bedienen einer Bedienvorrichtung für ein Kraftfahrzeug
WO2020221571A1 (de) Fahrerinformationssystem mit verknüpfungen zu suchfunktionen einzelner dienste

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12746027

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012746027

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 20147006836

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14239382

Country of ref document: US