DE102013016196B4 - Motor vehicle operation using combined input modalities - Google Patents
Motor vehicle operation using combined input modalities Download PDFInfo
- Publication number
- DE102013016196B4 DE102013016196B4 DE102013016196.7A DE102013016196A DE102013016196B4 DE 102013016196 B4 DE102013016196 B4 DE 102013016196B4 DE 102013016196 A DE102013016196 A DE 102013016196A DE 102013016196 B4 DE102013016196 B4 DE 102013016196B4
- Authority
- DE
- Germany
- Prior art keywords
- motor vehicle
- user
- control
- operating interface
- depending
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000006870 function Effects 0.000 claims description 5
- 238000000034 method Methods 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 3
- 230000000052 comparative effect Effects 0.000 claims description 2
- 230000001960 triggered effect Effects 0.000 claims description 2
- 238000011161 development Methods 0.000 description 7
- 230000018109 developmental process Effects 0.000 description 7
- 230000007613 environmental effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/3608—Destination input or retrieval using speech input, e.g. using speech recognition
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/3623—Destination input or retrieval using a camera or code reader, e.g. for optical or magnetic codes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3664—Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/037—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
- B60R16/0373—Voice control
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/227—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Kraftfahrzeug (10) mit einer ersten Bedienschnittstelle (38), durch welche eine Sprachbedienung zumindest eines Geräts (28) des Kraftfahrzeugs (10) bereitgestellt ist, und mit einer weiteren Bedienschnittstelle (44), durch welche eine auf zumindest einer von Sprache verschiedenen, anderen Eingabemodalität basierende Bedienung des zumindest einen Geräts (28) bereitgestellt ist, wobei die erste Bedienschnittstelle (38) dazu ausgelegt ist, in einer Spracheingabe (26) eines Benutzers (20) zumindest einen Referenzbegriff (52) zu erkennen, welcher auf zumindest ein Objekt (18) hinweist, das der Benutzer (20) mittels der zumindest einen anderen Eingabemodalität beschreibt, wobei eine Steuereinrichtung (54) dazu ausgelegt ist, in Abhängigkeit von dem zumindest einen erkannten Referenzbegriff (52) und in Abhängigkeit von einer über die weitere Bedienschnittstelle (38) empfangenen Benutzereingabe (56) das zumindest eine Objekt (18) zu ermitteln und in Abhängigkeit von der Spracheingabe (26) und dem zumindest einen ermittelten Objekt (18) zumindest einen Steuerbefehl zu erzeugen und den zumindest einen Steuerbefehl an das zumindest eine Gerät (28) auszusenden, dadurch gekennzeichnet, dass zumindest ein Umfeldsensor bereitgestellt ist, über welchen die Steuereinrichtung (54) jeweils zumindest einen Ist-Zustand des zumindest einen Objekts (18) zu ermitteln ausgelegt ist, wobei die Steuereinrichtung (54) zusätzlich dazu ausgelegt ist, bei Erkennen einer relativen Angabe in der Spracheingabe (26) in Abhängigkeit von dem Ist-Zustand und der relativen Angabe den Steuerbefehl zu erzeugen.Motor vehicle (10) with a first operating interface (38), through which voice control of at least one device (28) of the motor vehicle (10) is provided, and with a further operating interface (44), through which one on at least one other than voice Input modality-based operation of the at least one device (28) is provided, wherein the first operating interface (38) is designed to recognize at least one reference term (52) in a voice input (26) from a user (20), which refers to at least one object ( 18) indicates that the user (20) describes using the at least one other input modality, a control device (54) being designed to, depending on the at least one recognized reference term (52) and depending on one via the further operating interface (38 ) received user input (56) to determine the at least one object (18) and to generate at least one control command depending on the voice input (26) and the at least one determined object (18) and to send the at least one control command to the at least one device (28 ), characterized in that at least one environment sensor is provided, via which the control device (54) is designed to determine at least one actual state of the at least one object (18), wherein the control device (54) is additionally designed to Recognizing a relative information in the voice input (26) to generate the control command depending on the actual state and the relative information.
Description
Die Erfindung betrifft ein Kraftfahrzeug mit zwei Bedienschnittstellen zum Eingeben von Bedieneingaben. Die erste Bedienschnittstelle stellt hierbei eine Sprachbedienung für zumindest ein Gerät des Kraftfahrzeugs bereit. Die zweite Bedienschnittstelle stellt für das zumindest eine Gerät eine Bedienung bereit, die auf einer anderen Eingabemodalität als Sprache, also beispielsweise Gesten oder Tastatureingaben basiert.The invention relates to a motor vehicle with two operating interfaces for entering operating inputs. The first operating interface provides voice control for at least one device of the motor vehicle. The second operating interface provides an operation for the at least one device that is based on an input modality other than speech, for example gestures or keyboard input.
Aus der
Aus der
Die
Die
Die
Bei Bedienschnittstellen aus dem Stand der Technik ist stets eine scharfe Trennung vorgesehen, indem mit einer ersten Eingabemodalität, beispielsweise Gesten, ein erster Teil einer Bedieneingabe festgelegt wird und mit einer zweiten Eingabemodalität, beispielsweise Sprache, ein ergänzender Befehl, wie beispielsweise „Aktivieren“, gegeben wird.In operating interfaces from the prior art, a sharp separation is always provided in that a first part of an operating input is specified with a first input modality, for example gestures, and a supplementary command, such as "Activate", is given with a second input modality, for example speech becomes.
Dagegen ist im Stand der Technik nicht bekannt, dass der Benutzer frei wählen kann, mit welcher Eingabemodalität er einzelne Elemente eines Steuerbefehls eingibt.In contrast, it is not known in the prior art that the user can freely choose which input modality he uses to enter individual elements of a control command.
Der Erfindung liegt die Aufgabe zugrunde, in einem Kraftfahrzeug dem Benutzer die Wahlmöglichkeit zu geben, über welche Eingabemodalität er einzelne Elemente eines Steuerbefehls festlegen möchte.The invention is based on the object of giving the user in a motor vehicle the opportunity to choose which input modality he would like to use to specify individual elements of a control command.
Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Weiterbildungen der Erfindung ergeben sich durch die abhängigen Patentansprüche.The task is solved by the subject matter of the independent patent claims. Advantageous developments of the invention result from the dependent patent claims.
Die Erfindung geht von dem eingangs beschriebenen Kraftfahrzeug mit der ersten Bedienschnittstelle für die Sprachbedienung und der weiteren Bedienschnittstelle für die Bedienung durch zumindest eine andere Eingabemodalität, beispielsweise eine Gestenerkennung oder eine Tastatureingabe, aus. Erfindungsgemäß ist bei dem Kraftfahrzeug die erste Bedienschnittstelle (Sprachbedienung) dazu ausgelegt, in einer Spracheingabe eines Benutzers zumindest einen Referenzbegriff zu erkennen, welcher auf zumindest ein Objekt hinweist, dass der Benutzer mittels der zumindest einen anderen Eingabemodalität beschreibt. Beispielsweise kann der Benutzer also folgende Spracheingabe äußern: „Zeige die Uhrzeit dort an!“, um festzulegen, auf welchem Bildschirm eine digitale Uhr angezeigt wird. Der Referenzbegriff stellt insbesondere nur einen Teil der Spracheingabe dar, d.h. zusätzlich zu dem Referenzbegriff umfasst die Sprachäußerung oder Spracheingabe noch weitere Begriffe, die insbesondere zum selben Bedienfehl gehören wie der Referenzbegriff.The invention is based on the motor vehicle described above with the first operating interface for voice control and the further operating interface for operation by at least one other input modality, for example gesture recognition or keyboard input. According to the invention, the first operating interface (voice control) in the motor vehicle is designed to recognize at least one reference term in a user's voice input, which refers to at least one object that the user describes using the at least one other input modality. For example, the user can voice the following: “Show the time there!” to determine which screen a digital clock is displayed on. In particular, the reference term represents only a part of the voice input, i.e. in addition to the reference term, the voice utterance or voice input also includes other terms which, in particular, belong to the same operating error as the reference term.
Durch die erste Bedienschnittstelle wird der Bedienbefehl erkannt, dass die Uhrzeit angezeigt werden soll. In der Spracheingabe ist aber der Begriff „dort“ enthalten, welcher auf einen Ort hinweist, den der Benutzer nicht ausgesprochen hat. Dafür bildet der Begriff „dort“ einen Referenzbegriff, der darauf hinweist, dass der Benutzer offenbar mit einer anderen Eingabemodalität den Ort beschreibt.The first operating interface recognizes the operating command that the time should be displayed. However, the voice input contains the term “there”, which refers to a place that the user did not pronounce. The term “there” forms a reference term that indicates that the user is apparently describing the location using a different input modality.
Entsprechend ist bei der Erfindung eine Steuereinrichtung dazu ausgelegt, in Abhängigkeit von dem zumindest einen erkannten Referenzbegriff und in Abhängigkeit von einer über eine weitere Bedienschnittstelle empfangenen Benutzereingabe das zumindest eine Objekt zu ermitteln. In dem beschriebenen Beispiel kann also beispielsweise eine Gestenerkennung ermitteln, wohin der Benutzer gerade zeigt, nämlich z.B. auf einen bestimmten Bildschirm. In Abhängigkeit von der Spracheingabe und dem zumindest einen ermittelten Ort erzeugt dann die Steuereinrichtung zumindest einen Steuerbefehl und sendet den zumindest einen Steuerbefehl an das zumindest eine Gerät aus, welches über die beiden Bedienschnittstellen bedient wird. In dem Beispiel kann also etwa ein Infotainmentsystem durch den zumindest einen Steuerbefehl dazu veranlasst werden, die aktuelle Uhrzeit auf dem durch Zeigen bestimmten Bildschirm anzuzeigen.Accordingly, in the invention, a control device is designed to determine the at least one object depending on the at least one recognized reference term and depending on a user input received via a further operating interface. By For example, a gesture recognition system can determine where the user is currently pointing, namely, for example, to a specific screen. Depending on the voice input and the at least one determined location, the control device then generates at least one control command and sends the at least one control command to the at least one device, which is operated via the two operating interfaces. In the example, an infotainment system can be caused by the at least one control command to display the current time on the screen determined by pointing.
Die Erfindung sieht des Weiteren vor, dass bei dem erfindungsgemäßen Kraftfahrzeug zumindest ein Umfeldsensor bereitgestellt ist, über welchen die Steuereinrichtung jeweils zumindest einen Ist-Zustand des zumindest einen Objekts zu ermitteln ausgelegt ist. Ein solcher Umfeldsensor kann beispielsweise ein Temperatursensor sein, eine Kamera, ein Ultraschallsensor, ein Radarsensor. Der Benutzer kann dann beispielsweise die folgende Spracheingabe äußern: „Mach es hier ein bisschen wärmer!“. Diese Sprachangabe enthält zwei Referenzbegriffe, nämlich „hier“ und „wärmer“ der erste Referenzbegriff kann von der Steuereinrichtung als der Aufenthaltsort des Benutzers interpretiert werden, was beispielsweise ein bestimmter Sitz im Kraftfahrzeug sein kann, wenn es um eine zonenspezifische Klimatisierung geht. Der zweite Referenzbegriff „wärmer“ weist darauf hin, dass die aktuelle Temperatur vergrößert werden soll.The invention further provides that in the motor vehicle according to the invention at least one environment sensor is provided, via which the control device is designed to determine at least one actual state of the at least one object. Such an environmental sensor can be, for example, a temperature sensor, a camera, an ultrasonic sensor, a radar sensor. The user can then say, for example, the following voice input: “Make it a little warmer in here!”. This language information contains two reference terms, namely “here” and “warmer.” The first reference term can be interpreted by the control device as the location of the user, which can be, for example, a specific seat in the motor vehicle when it comes to zone-specific air conditioning. The second reference term “warmer” indicates that the current temperature should be increased.
Hierdurch ist es der Steuereinrichtung möglich, die aktuelle Temperatur zu erfassen und eine relative Änderung vorzunehmen, beispielsweise die Temperatur um 10% zu erhöhen. Hierzu ist die Steuereinrichtung dazu ausgelegt, bei Erkennen einer relativen Angabe in der Spracheingabe in Abhängigkeit von dem Ist-Zustand und der relativen Angabe den Steuerbefehl zu erzeugen. In dem Beispiel ist also für einen Ist-Zustand von „20°C-Raumtemperatur“ ein Steuerbefehl erzeugbar, der die Temperatur im Bereich des Sitzes des Benutzers auf beispielsweise 22°C erhöht. Ein anderes Beispiel ist die Sitzsteuerung „Stelle die Rückenlehne flacher ein!“This makes it possible for the control device to detect the current temperature and make a relative change, for example increasing the temperature by 10%. For this purpose, the control device is designed to generate the control command when a relative information is detected in the voice input depending on the actual state and the relative information. In the example, for an actual state of "20°C room temperature", a control command can be generated that increases the temperature in the area of the user's seat to, for example, 22°C. Another example is the seat control “Adjust the backrest flatter!”
Die Erfindung weist den Vorteil auf, dass nun verschiedene Eingabemodalitäten nicht sequentiell hintereinander abgearbeitet werden, also nicht eine Vorauswahl einer Kategorie mit Sprache erfolgen muss, um dann beispielsweise einen Menüeintrag mittels einer Zeigergeste auszuwählen. Stattdessen kann der Benutzer gezielt durch Verwenden von Referenzbegriffen die Spracheingabe mittels der anderen Eingabemodalität ergänzen.The invention has the advantage that different input modalities are not processed sequentially one after the other, i.e. a category does not have to be preselected using language in order to then select a menu entry using a pointer gesture, for example. Instead, the user can specifically supplement the voice input using the other input modality by using reference terms.
Bedienungsfehler werden vermieden, wenn als Referenzbegriffe typische, auch in der natürlichen Sprache verwendete Referenzbegriffe genutzt werden. Hierzu sieht eine Weiterbildung der Erfindung vor, dass die erste Bedienschnittstelle dazu ausgelegt ist, als den zumindest einen Referenzbegriff jeweils zumindest ein Adverb des Ortes (beispielsweise „hier“, „dort“) und/oder ein Demonstrativpronomen (z. B. „dies“, „jenes“) und/oder einen Komparativ (z. B. „das größere“, „das kleinere“) und/oder ein Superlativ (z. B. „den größten“, „den kleinsten“) zu erkennen. Eine beispielhafte Spracheingabe mit einem Superlativ kann z.B. lauten: „Nimm aus dieser Liste die obersten drei Lieder“, worin die beiden Referenzbegriffe „dieser“ und „die obersten drei“ erkannt werden können.Operating errors are avoided if typical reference terms that are also used in natural language are used as reference terms. For this purpose, a further development of the invention provides that the first operating interface is designed to use at least one adverb of the location (for example “here”, “there”) and/or a demonstrative pronoun (for example “this”) as the at least one reference term. , “those”) and/or a comparative (e.g. “the larger”, “the smaller”) and/or a superlative (e.g. “the largest”, “the smallest”). An example speech input with a superlative can be, for example: “Take the top three songs from this list,” in which the two reference terms “this” and “the top three” can be recognized.
Durch die Erfindung ist es problemlos möglich, Sprache mit einer Vielzahl unterschiedlicher Eingabemodalitäten zu kombinieren. Entsprechend weist bei dem erfindungsgemäßen Kraftfahrzeug die weitere Bedienschnittstelle zumindest eine der folgenden Einrichtungen auf: eine Gestenerkennung, eine Handschrifterkennung, ein Touchpad, einen Touchscreen, einen Dreh-Drück-Steller, eine Tastatur, eine Blickrichtungserkennung.The invention makes it possible to easily combine speech with a variety of different input modalities. Accordingly, in the motor vehicle according to the invention, the further operating interface has at least one of the following devices: a gesture recognition, a handwriting recognition, a touchpad, a touchscreen, a rotary-push control, a keyboard, a viewing direction recognition.
Eine weitere Ausführungsform sieht vor, dass die Steuereinrichtung durch den zumindest einen Steuerbefehl eine Routenplanung in einem Navigationsgerät steuert. Der Benutzer kann also beispielsweise zu einer digitalen Navigationskarte, die auf einem Bildschirm angezeigt wird, die Spracheingabe äußern: „Ich möchte dorthin fahren!“ Mit dem Referenzbegriff „dorthin“ kann der Benutzer wieder beispielsweise auf die aktuelle Stellung eines Mauszeigers verweisen, durch die dann das Navigationsziel festgelegt werden kann.A further embodiment provides that the control device controls route planning in a navigation device using the at least one control command. The user can, for example, voice input to a digital navigation map that is displayed on a screen: “I want to go there!” With the reference term “there”, the user can again, for example, refer to the current position of a mouse cursor, which then the navigation destination can be set.
Eine andere Weiterbildung sieht vor, eine Datenbankabfrage zum Ermitteln von Ortsbeschreibungen zu steuern. Der Benutzer kann dann beispielsweise aus einem Fahrzeugfenster auf ein Gebäude in der Fahrzeugumgebung zeigen und die Spracheingabe äußern: „Was sieht man hier?“ Der Referenzbegriff „hier“ verweist dann wieder auf die Zeigegeste des Benutzers. Hierdurch kann dann für die Datenbankabfrage der Ort festgelegt werden, zu welchem in der Datenbank eine Ortsbeschreibung gefunden werden soll.Another further development envisages controlling a database query to determine location descriptions. The user can then, for example, point from a vehicle window to a building in the vehicle's surroundings and voice the input: "What do you see here?" The reference term "here" then refers again to the user's pointing gesture. In this way, the location for which a location description should be found in the database can then be specified for the database query.
Eine andere Weiterbildung sieht vor, dass eine Beschreibung einer Fahrzeugfunktion in einer digitalen Bedienungsanleitung des Kraftfahrzeugs ermittelt wird. Der Benutzer kann also mit der Spracheingabe: „Was bedeutet das?“ festlegen, dass ein Warnsymbol, das gerade angezeigt wird und auf das der Benutzer zeigt, die entsprechenden Beschreibungstexte aus der digitalen Bedienungsanleitung ermittelt werden.Another development provides that a description of a vehicle function is determined in a digital operating manual of the motor vehicle. The user can therefore use the voice input: “What does that mean?” to determine that a warning symbol that is currently displayed and that the user points to is determined by the corresponding descriptive texts from the digital operating instructions.
Ein weiterer Vorteil ergibt sich, wenn das Kraftfahrzeug dazu ausgelegt ist, auf einer Anzeigeeinrichtung eine durch den zumindest einen Steuerbefehl ausgelöste Ausgabe des zumindest einen Geräts an einem Ort anzuzeigen, so dass sich aus der Sicht des Benutzers das zumindest eine Objekt, das er mittels des zumindest einen Referenzbegriffs referenziert hat, und diese Ausgabe gemeinsam in einem Blickfeld des Benutzers befinden. Bevorzugt liegen das Objekt und die Ausgabe von einem Auge des Benutzers aus gemessen innerhalb eines Raumwinkels von 45°, insbesondere 30°. Zeigt der Benutzer also beispielsweise auf ein Gebäude im Kraftfahrzeugvorfeld vor dem Kraftfahrzeug und fragt: „Was sehe ich hier?“, so kann ihm beispielsweise in einem Scheibenwurzeldisplay, welches sich quer im Fahrzeug an einer unteren Kante der Frontscheibe zumindest über die halbe Fahrzeugbreite hinweg erstrecken kann, direkt unterhalb des Gebäudes im Blickfeld des Benutzers die Antwort eingeblendet werden. Es kann beispielsweise auch ein Head-up-Display genutzt werden, um direkt neben dem Gebäude im Blickfeld des Benutzers die Informationen zu dem Gebäude einzublenden.A further advantage arises if the motor vehicle is designed to display on a display device an output of the at least one device triggered by the at least one control command at a location, so that from the user's perspective, the at least one object that he or she can use by means of the has referenced at least one reference term, and this output is together in the user's field of vision. Preferably, the object and the output lie within a solid angle of 45°, in particular 30°, measured from one eye of the user. For example, if the user points to a building in front of the vehicle and asks: “What do I see here?”, he can, for example, see a window root display that extends across the vehicle on a lower edge of the windshield at least over half the width of the vehicle The answer can be displayed directly below the building in the user's field of vision. For example, a head-up display can also be used to display information about the building directly next to the building in the user's field of vision.
Durch die Erfindung ist auch ein Verfahren bereitgestellt, welches durch die Schritte gekennzeichnet ist, die bereits im Zusammenhang mit dem erfindungsgemäßen Kraftfahrzeug beschrieben worden sind. Gemäß dem Verfahren wird also durch die erste Bedienschnittstelle in einer Spracheingabe eines Benutzers zumindest ein Referenzbegriff erkannt, welcher auf zumindest ein Objekt hinweist, das der Benutzer mittels der zumindest einen anderen Eingabemodalität beschreibt. Eine Steuereinrichtung ermittelt in Abhängigkeit von dem zumindest einen erkannten Referenzbegriff und in Abhängigkeit von einer über die zumindest eine weitere Bedienschnittelle empfangenen Benutzereingabe das zumindest eine Objekt. In Abhängigkeit von der Spracheingabe und dem zumindest einen ermittelten Objekt wird durch die Steuereingabe zumindest ein Steuerbefehl erzeugt und dieser an das zumindest eine Gerät ausgesendet. Zu der Erfindung gehören auch Weiterbildungen des erfindungsgemäßen Verfahrens, welche Merkmale aufweisen, die bereits im Zusammenhang mit den Weiterbildungen des erfindungsgemäßen Kraftfahrzeugs erläutert worden sind. Aus diesem Grund werden die entsprechenden Weiterbildungen des erfindungsgemäßen Verfahrens hier nicht noch einmal erläutert.The invention also provides a method which is characterized by the steps that have already been described in connection with the motor vehicle according to the invention. According to the method, at least one reference term is recognized by the first operating interface in a user's voice input, which refers to at least one object that the user describes using the at least one other input modality. A control device determines the at least one object depending on the at least one recognized reference term and depending on a user input received via the at least one further operating interface. Depending on the voice input and the at least one determined object, at least one control command is generated by the control input and sent to the at least one device. The invention also includes further developments of the method according to the invention, which have features that have already been explained in connection with the further developments of the motor vehicle according to the invention. For this reason, the corresponding developments of the method according to the invention will not be explained again here.
Im Folgenden ist anhand der Figuren ein Ausführungsbeispiel der Erfindung erläutert. Es zeigt:
-
1 eine schematische Darstellung einer Ausführungsform des erfindungsgemäßen Kraftfahrzeugs in einer Umgebung; -
2 eine schematische Darstellung von zwei Kamerabildern, die von dem Kraftfahrzeug von1 erzeugt worden sind; und -
3 eine schematische Darstellung eines Fahrzeuginnenraums des Kraftfahrzeugs von1 .
-
1 a schematic representation of an embodiment of the motor vehicle according to the invention in an environment; -
2 a schematic representation of two camera images taken from the motor vehicle1 have been generated; and -
3 a schematic representation of a vehicle interior of the motor vehicle1 .
Bei dem im Folgenden erläuterten Ausführungsbeispiel handelt es sich um eine bevorzugte Ausführungsform der Erfindung. Bei dem Ausführungsbeispiel stellen aber die beschriebenen Komponenten der Ausführungsform jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden und damit auch einzeln oder in einer anderen als der gezeigten Kombination als Bestandteil der Erfindung anzusehen sind. Des Weiteren ist die beschriebene Ausführungsform auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.The exemplary embodiment explained below is a preferred embodiment of the invention. In the exemplary embodiment, however, the described components of the embodiment each represent individual features of the invention that can be viewed independently of one another, which also develop the invention independently of one another and are therefore also to be viewed as part of the invention individually or in a combination other than that shown. Furthermore, the described embodiment can also be supplemented by further features of the invention that have already been described.
In
Wie in
In dem Kraftfahrzeug 10 ist es dem Fahrer 20 ermöglicht, dass er mit dem Zeigen der Hand 24 und der Spracheingabe 26 in Kombination beispielsweise eine Suche in einer Datenbank 28 steuern kann, in welcher beispielsweise auch Informationen betreffend mögliche Fahrziele gespeichert sein können.In the
Anhand von
Das Kraftfahrzeug 10 weist eine erste Bedienschnittstelle 38 auf, welche eine Mikrofonanordnung 40 aus wenigstens einem Mikrofon sowie eine Spracherkennungseinrichtung 42 aufweisen kann, die in aus dem Stand der Technik bekannter Weise ausgestaltet sein kann. Eine weitere Bedienschnittstelle 44 des Kraftfahrzeugs 10 kann beispielsweise einen optischen Sensor 46, wie beispielsweise eine Einzelbildkamera, eine Videokamera, eine Time-of-flight-Kamera und/oder eine Infrarotkamera, aufweisen. Der optische Sensor 46 erzeugt beispielsweise Videodaten V die beispielsweise von einer Gestenerkennungseinrichtung 48 empfangen werden können. Durch die Gestenerkennungseinrichtung 48 kann auf Grundlage der Videodaten V eine Gestenerkennung einer vom Fahrer 20 ausgeführt Geste durchgeführt werden. Ein Umgebungssensor 50, beispielsweise ebenfalls eine Kamera, kann mit seinem Erfassungsbereich in das Blickfeld 22 des Fahrers gerichtet sein und Umgebungsdaten U der Kraftfahrzeugumgebung erzeugen. In
Die Spracherkennungseinrichtung 42 empfängt über die Mikrofoneinrichtung 40 die Spracheingabe 26. In der Spracheingabe 26 wird durch die Spracherkennungseinrichtung 42 erkannt, dass es einen Suchbefehl, hier „Restaurants“, und einen Referenzbegriff 52 gibt, der auf der Grundlage der Spracheingabe 26 allein nicht verstanden werden kann. Der Referenzbegriff „there“ (dort) weist auf ein Objekt hin, dass der Benutzer nicht in der Spracheingabe 26 selbst beschreibt, sondern mittels einer anderen Eingabemodalität, hier der Geste mit der Hand 24.The
Die Spracherkennungseinrichtung 42 überträgt die erkannte Spracheingabe 26 an eine Steuereinrichtung 54, welche aus der Spracheingabe 26 einen Steuerbefehl, beispielsweise einen Suchbefehl für die Datenbank 28, erzeugen kann. Die Steuereinrichtung 24 kann beispielsweise durch ein Programmmodul eines Steuergeräts oder einer zentralen Recheneinheit des Kraftfahrzeugs 10 bereitgestellt sein.The
Der in der Spracheingabe 26 enthaltene Referenzbegriff 52 muss zunächst inhaltlich übersetzt werden, das heißt in eine konkrete Objektangabe umgewandelt werden. Die Steuereinrichtung 24 empfängt von der Gestenerkennungseinrichtung 48 Koordinatendaten 56, die auf Grundlage der mit der Hand 24 vom Fahrer 20 ausgeführten Geste ermittelt worden sind.The
Die Gestenerkennungseinrichtung 48 hat in den Videodaten V mittels einer Gestenerkennung erkannt, dass der Fahrer 20 die Hand 24 mit ausgestreckten Zeigefinger gerade nach vorne gehalten hat und hierdurch eine Zeigelinie 58 auf ein Objekt außerhalb des Kraftfahrzeugs 10 ausgerichtet hat. Die Gestenerkennung kann in an sich aus dem Stand der Technik bekannter Weise durchgeführt werden. Beispielsweise kann hierzu auf die Funktionsbibliothek „Kinect“ des Unternehmens Microsoft zurückgegriffen werden.The
Die Gestenerkennungseinrichtung 48 kann die Zeigelinie 58 extrapolieren und auf Grundlage der Umfelddaten U ermitteln, dass die Zeigelinie 58 beispielsweise die in den Umfelddaten U abgebildeten Hinweisschilder 18 schneidet. Für den Schnittbereich, also die in dem Beispiel in den Umfelddaten U abgebildeten Hinweisschilder 18, kann deren geometrische Position XYZ beispielsweise aus der Fahrzeugeigenposition und einer Abstandsmessung ermittelt werden. Die Position XYZ wird durch Koordinaten 56 von der Gestenerkennungseinrichtung 48 an die Steuereinrichtung 54 übertragen. Die Position XYZ steht in der Datenbank 28 für ein ganzes Areal, hier z.B. das ganze Einkaufszentrum 12.The
Die Steuereinrichtung 54 kann nun allgemein erfindungsgemäß den Referenzbegriff 52 durch die über die anderen Eingabemodalität empfangene Benutzereingabe, hier also hier die Koordinaten 56, ersetzen und insgesamt einen Steuerbefehl mit folgenden Slots konstruieren: ein Bedienbefehl (hier Suchanfrage), ein Befehlsobjekt (hier der Ort XYZ) und Parameter für den Bedienbefehl (hier Restaurants). Konkret bedeutet dies hier, dass durch eine Suche für den Ort XYZ Informationen zu Restaurants ermittelt werden sollen. Zu dem Ort XYZ sind in der Datenbank 28 die Informationen zu dem Einkaufszentrum 12 gespeichert (sogenannter Point of Interest).According to the invention, the
Die anschließend von der Datenbank 28 durch die Steuereinrichtung 24 empfangenen Informationen zu den Restaurants im Einkaufszentrum 12 können den Fahrer 20 beispielsweise in seinem Blickfeld 22 mittels des Scheibenwurzeldisplays 26 als Informationsfelder 60 angezeigt werden.The information about the restaurants in the
Ein zweiter möglicher Referenzbegriff 52' kann der Begriff „good“ (gut) durch die Spracherkennungseinrichtung 52 erkannt werden. Die Steuereinrichtung 54 kann dazu ausgelegt sein, in dem Begriff „gut“ eine Referenz auf ein Nutzerprofil des Fahrers 20 zu sehen und dort dessen Vorliebe in Bezug auf Restaurants zu ermitteln oder aber eine Referenz auf ein Ranking und in der Datenbank 28 auch eine Rangliste von Nutzerempfehlungen zu den in dem Einkaufszentrum 12 befindlichen Restaurants ermitteln.A second possible reference term 52 ', the term "good" can be recognized by the
Es kann nun vorgesehen sein, dass der Fahrer 20 zu einem der Informationsfelder 60 die Spracheingabe „Welches Restaurant ist das?“ äußert und hierbei auf eines der Informationsfelder 60 zeigt. Der Referenzbegriff „das“ signalisiert der Steuereinrichtung 54 wieder, dass mittels einer Geste auf ein bestimmtes der Informationsfelder 60 vom Fahrer 20 gezeigt wird.It can now be provided that the
Genauso kann der Fahrer beispielsweise weitere Bedienfelder 62 auf dem Scheibenwurzeldisplay durch zeigen auswählen und hierzu die Spracheingabe äußern: „Aktiviere das“ oder „Welche Funktion hat dieses Bedienfeld?“.In the same way, the driver can, for example, select
Insgesamt ist durch die Kombination aus Sprache und einer weiteren Eingabemodalität, wie beispielsweise einer Geste, eine Kreuzmodalität oder Crossmodalität realisiert, indem Sprach- und Gestenbedienung verbunden werden durch Erfassen beider Eingaben also der Spracheingabe 26 und einer Bediengeste mit einer Hand 24, und in Abhängigkeit voneinander interpretiert werden. Der Benutzer kann somit durch einen Referenzbegriff in seiner Spracheingabe darauf hinweisen, dass die Spracheingabe durch Informationen aus der anderen Eingabemodalität zu ergänzen ist. Hierdurch ergibt sich in vorteilhafter Weise eine natürliche Kommunikation mit Sprache und beispielsweise Gestik. Neben der Gestik ist aber eine parallele Auswertung unterschiedlicher Interaktionsmodalitäten (Sprache, Anzeigen, Tasten/Dreh- Drück-Steller, Touchpad/Touchscreen, Gesten, Blicke) zueinander in Beziehung zu setzen, um die Bedeutung der Eingabemodalitäten zu erfassen und eine Ableitung einer einzeigen crossmodalen Äußerung und Handlungsaufforderung zu kombinieren.Overall, through the combination of speech and another input modality, such as a gesture, a cross-modality or cross-modality is realized by combining speech and gesture operation by detecting both inputs, i.e. the
Insgesamt ist so durch die Erfindung im automotiven Kontext die Verbindung von Zeigen auf ein realweltliches Objekt, z. B. ein Gebäude, und das Auslösen einer Funktion per Sprache realisiert.Overall, the invention in the automotive context enables the connection between pointing to a real-world object, e.g. B. a building, and triggering a function via voice.
Claims (6)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102013016196.7A DE102013016196B4 (en) | 2013-09-27 | 2013-09-27 | Motor vehicle operation using combined input modalities |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102013016196.7A DE102013016196B4 (en) | 2013-09-27 | 2013-09-27 | Motor vehicle operation using combined input modalities |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102013016196A1 DE102013016196A1 (en) | 2015-04-02 |
DE102013016196B4 true DE102013016196B4 (en) | 2023-10-12 |
Family
ID=52672796
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102013016196.7A Active DE102013016196B4 (en) | 2013-09-27 | 2013-09-27 | Motor vehicle operation using combined input modalities |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102013016196B4 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017212215B4 (en) | 2017-07-17 | 2022-01-20 | Audi Ag | Operating method for a device in a motor vehicle, operating device and motor vehicle |
DE102019131944A1 (en) * | 2019-11-26 | 2021-05-27 | Audi Ag | Method for controlling at least one display unit, motor vehicle and computer program product |
DE102022207082A1 (en) | 2022-07-11 | 2024-01-11 | Volkswagen Aktiengesellschaft | Location-based activation of voice control without using a specific activation term |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0594129A2 (en) | 1992-10-20 | 1994-04-27 | Hitachi, Ltd. | Display system capable of accepting user commands by use of voice and gesture inputs |
US20020135618A1 (en) | 2001-02-05 | 2002-09-26 | International Business Machines Corporation | System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input |
DE102006009291A1 (en) | 2006-03-01 | 2007-09-06 | Audi Ag | Method and device for operating at least two functional components of a system, in particular of a vehicle |
DE102006055252A1 (en) | 2006-11-23 | 2008-05-29 | Deutsche Telekom Ag | Telecommunication terminal e.g. mobile telephone, operation method, involves providing interactive operation of telecommunication terminal from combination of language statement and spatial movement of telecommunication terminal |
DE102010017931A1 (en) | 2009-04-27 | 2010-12-23 | GM Global Technology Operations, Inc., Detroit | Gesture-actuated information systems and methods for interesting details |
DE102009046376A1 (en) | 2009-11-04 | 2011-05-05 | Robert Bosch Gmbh | Driver assistance system for automobile, has input device including manually operated control element that is arranged at steering wheel and/or in area of instrument panel, where area lies in direct vicinity of wheel |
US20110115702A1 (en) | 2008-07-08 | 2011-05-19 | David Seaberg | Process for Providing and Editing Instructions, Data, Data Structures, and Algorithms in a Computer System |
DE102009058146A1 (en) | 2009-12-12 | 2011-06-16 | Volkswagen Ag | Method for determining action e.g. output of control command to vehicle system, in motor vehicle, involves seeing object groups as specified object groups when specifying data specifies only objects representing partial amount of objects |
-
2013
- 2013-09-27 DE DE102013016196.7A patent/DE102013016196B4/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0594129A2 (en) | 1992-10-20 | 1994-04-27 | Hitachi, Ltd. | Display system capable of accepting user commands by use of voice and gesture inputs |
US20020135618A1 (en) | 2001-02-05 | 2002-09-26 | International Business Machines Corporation | System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input |
DE102006009291A1 (en) | 2006-03-01 | 2007-09-06 | Audi Ag | Method and device for operating at least two functional components of a system, in particular of a vehicle |
DE102006055252A1 (en) | 2006-11-23 | 2008-05-29 | Deutsche Telekom Ag | Telecommunication terminal e.g. mobile telephone, operation method, involves providing interactive operation of telecommunication terminal from combination of language statement and spatial movement of telecommunication terminal |
US20110115702A1 (en) | 2008-07-08 | 2011-05-19 | David Seaberg | Process for Providing and Editing Instructions, Data, Data Structures, and Algorithms in a Computer System |
DE102010017931A1 (en) | 2009-04-27 | 2010-12-23 | GM Global Technology Operations, Inc., Detroit | Gesture-actuated information systems and methods for interesting details |
DE102009046376A1 (en) | 2009-11-04 | 2011-05-05 | Robert Bosch Gmbh | Driver assistance system for automobile, has input device including manually operated control element that is arranged at steering wheel and/or in area of instrument panel, where area lies in direct vicinity of wheel |
DE102009058146A1 (en) | 2009-12-12 | 2011-06-16 | Volkswagen Ag | Method for determining action e.g. output of control command to vehicle system, in motor vehicle, involves seeing object groups as specified object groups when specifying data specifies only objects representing partial amount of objects |
Also Published As
Publication number | Publication date |
---|---|
DE102013016196A1 (en) | 2015-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2350799B1 (en) | Method and device for displaying information sorted into lists | |
WO2009062677A2 (en) | Multimode user interface of a driver assistance system for inputting and presentation of information | |
DE102009008041A1 (en) | Method for operating a motor vehicle with a touchscreen | |
DE102006011288A1 (en) | Method for selecting functions using a user interface and user interface | |
EP3486805A1 (en) | Method for operating an electronic device or an application and corresponding device | |
DE102008008948A1 (en) | System architecture for dynamic adaptation of information display for navigation system of motor vehicle i.e. car, has input modalities with input interacting to modalities so that system inputs result about user interfaces of output module | |
DE102017122396A1 (en) | Vehicle-side actuator | |
EP2955614A1 (en) | User interface and method of adjusting the semantic scaling of a tile | |
DE102013016196B4 (en) | Motor vehicle operation using combined input modalities | |
EP3040808B1 (en) | Means of locomotion, user interface and method for defining a tile on a display device | |
EP2943866B1 (en) | Method and device for providing a user interface in a vehicle | |
EP2987066A1 (en) | Motor vehicle having a display and operating device and corresponding method | |
EP2030828B1 (en) | Multimodal operating system and method to operate components and functions in a vehicle | |
DE102012208733A1 (en) | Method for determining location of object e.g. shop by user of vehicle, involves determining direction vector and object position data with respect to predetermined reference point and absolute position in geographic coordinate system | |
DE102009030263A1 (en) | Method for controlling menu-based operation and information system of vehicle, involves displaying menu and forming controlling element for controlling menu | |
DE102013225736A1 (en) | User specific help | |
EP3074265B1 (en) | System-wide search in driver information systems | |
EP3108333B1 (en) | User interface and method for assisting a user in the operation of a user interface | |
EP3948493A1 (en) | Method and apparatus for interaction with an environment object in the surroundings of a vehicle | |
WO2017157542A1 (en) | Operating device and method for detecting a user selection of at least one operating function of the operating device | |
EP3718810A1 (en) | Method and device for operating electronically controllable components of a vehicle | |
EP3093182B1 (en) | Means of locomotion, working machine, user interface and method for displaying the content of a first display device on a second display device | |
WO2015010829A1 (en) | Method for operating an input device, and input device | |
DE102022118795A1 (en) | Method for detecting the viewing direction of a user of data glasses for execution in a vehicle | |
DE102015212850A1 (en) | User interface and method for assisting a user in interacting with a user interface |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |