WO2014005722A1 - Verfahren und steuerungssystem zum betreiben eines kraftwagens - Google Patents
Verfahren und steuerungssystem zum betreiben eines kraftwagens Download PDFInfo
- Publication number
- WO2014005722A1 WO2014005722A1 PCT/EP2013/002001 EP2013002001W WO2014005722A1 WO 2014005722 A1 WO2014005722 A1 WO 2014005722A1 EP 2013002001 W EP2013002001 W EP 2013002001W WO 2014005722 A1 WO2014005722 A1 WO 2014005722A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- gesture
- motor vehicle
- command
- control command
- vehicle occupant
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 238000012545 processing Methods 0.000 claims abstract description 31
- 238000001514 detection method Methods 0.000 claims abstract description 7
- 238000004891 communication Methods 0.000 claims description 18
- 230000005057 finger movement Effects 0.000 claims description 2
- 210000003811 finger Anatomy 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 150000001768 cations Chemical class 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 210000005224 forefinger Anatomy 0.000 description 1
- 238000012552 review Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3629—Guidance using speech or audio output, e.g. text-to-speech
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/10—Interpretation of driver requests or demands
-
- B60K35/10—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/037—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3664—Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- B60K2360/146—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/227—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
Definitions
- the invention relates to a method for operating a motor vehicle specified in the preamble of claim 1.
- the invention relates to a control system for operating a motor vehicle specified in the preamble of claim 0 way.
- Such a method and control system are from the US 2010 / 0274480 A1.
- the method comprises the following steps: detecting a gesture of a vehicle occupant directed to an object by means of a gesture recognition unit; Interpreting the gesture and identifying the object by means of a data processing unit; Generating a corresponding control command in dependence on the interpreted gesture and the identified object and driving an assistance system of the motor vehicle according to the control command by means of the data processing unit.
- the system disclosed therein serves to detect gestures of a vehicle occupant, by means of which the vehicle occupant points to so-called "points of interest", according to which corresponding information about the point of interest is output to the vehicle occupant.
- DE 10 2008 051 756 A1 discloses a method in which a vehicle occupant can point to a point of interest on a display of a motor vehicle, after which the display of the display is adjusted accordingly.
- CONFIRMATION COPY More than one million mobile devices present current road conditions and displayed 20,000 points of interest, reviews of restaurants and shopping, information on local events and the like.
- other functions of the vehicle such as an air conditioner, a radio and the like, can be controlled with the system shown there. The control takes place by means of gestures or with a finger pointer to corresponding objects.
- DE 10 2010 002 741 A1 shows an information system for a motor vehicle, by means of which personalized information with a corresponding location reference can be provided via objects located in an environment of the motor vehicle. For example, corresponding additional information may be displayed when approaching an object, such as a hotel or the like.
- An inventive method for operating a motor vehicle comprises the following steps:
- the method according to the invention is characterized by the following steps: Detecting a voice command of the vehicle occupant voiced before, during or after the detection of the gesture by means of a voice recognition unit;
- the vehicle occupant can point to corresponding objects with which he wishes to interact, and essentially at the same time make a corresponding voice command, from which it is possible in which form he would like to interact with the corresponding object.
- objects may be, for example, so-called points of interest, which are, for example, along a specific route that is traveled by the car.
- the objects can also be operating elements, such as an air conditioning control element, a navigation device within the motor vehicle or the like, with which the vehicle occupant can interact by means of a corresponding finger gesture or another gesture in combination with a corresponding voice command.
- the combined gesture and voice control can work with others So words can be applied both to objects inside and outside the vehicle.
- a further advantageous embodiment of the invention provides that as a gesture, a finger movement of the vehicle occupant is detected, by means of which is shown on the object.
- other gestures of the vehicle occupant can be detected, which can be compared for example with a database in which respective meanings of corresponding gestures are stored, so that an even more intuitive operation of the motor vehicle or its assistance system is made possible.
- identifying the object a motor vehicle position and a motor vehicle orientation determined and then the object is identified by a comparison with digital map information.
- an identification of corresponding objects can be carried out in a particularly simple manner, since with knowledge of the motor vehicle position in combination with the knowledge of the motor vehicle orientation, a correspondingly simple assignment to the corresponding digital map information can take place, so that no further expensive sensors for identifying corresponding objects, in particular Outside of the motor vehicle arranged objects, is required.
- a combined gesture and voice command recognition with subsequent generation of the control command only takes place if the gesture and the voice command are detected within a predetermined period.
- misinterpretation of the desire of the vehicle occupant to interact with a corresponding object is reliably prevented.
- a gesture directed to a further motor vehicle is detected and identified and, in combination with an interpreted voice command, by means of which a communication link with a communication device of the further motor vehicle is required.
- the cation device of the assistance system is controlled with a corresponding control command for establishing the communication connection.
- the communication connection may be, for example, a chat function, a telephone call or the like.
- a gesture directed to an object located outside the motor vehicle is detected and interpreted and, in combination with a voice command interpreted as an information request, a navigation unit of the assistance system is activated with a control command for providing information about the object ,
- This object may be a so-called point of interest, for example in the form of a hotel, a restaurant or the like, so that a corresponding information can be provided to the vehicle occupant by a combined evaluation of a gesture and a voice command of the vehicle occupant.
- a gesture directed to an object arranged outside the motor vehicle detects and interprets and, in combination with a voice command identified as a navigation command, drives a navigation unit of the assistance system with a corresponding control command for determining a route to the object becomes.
- Elaborate inputs to a navigation unit for determining a corresponding route to the desired object can thus be dispensed with, so that corresponding navigation functions can be requested and provided in a particularly simple manner by the vehicle occupant.
- an object arranged outside of the motor vehicle is highlighted in a contact-analogue head-up display of the motor vehicle as soon as a gesture directed to this object has been detected.
- This allows a particularly simple interaction of the vehicle occupant with corresponding objects in the environment of the motor vehicle.
- the vehicle occupant is immediately visualized which object he has selected with his gesture has, so that in the event of a misinterpretation of the gesture, this error for the vehicle occupants is directly recognizable.
- Advantageous embodiments of the method according to the invention are to be regarded as advantageous embodiments of the control system, in which case in particular the control system comprises means with which the method steps are feasible.
- An advantageous embodiment of the control system is characterized in that the gesture recognition unit is designed to monitor only a predeterminable interior region of the motor vehicle and to detect the gestures of the vehicle occupant which is arranged in this interior region.
- the gesture recognition unit is designed to monitor only a predeterminable interior region of the motor vehicle and to detect the gestures of the vehicle occupant which is arranged in this interior region.
- the gesture recognition unit is designed to monitor only a predeterminable interior region of the motor vehicle and to detect the gestures of the vehicle occupant which is arranged in this interior region.
- the gesture recognition unit is designed to monitor only a predeterminable interior region of the motor vehicle and to detect the gestures of the vehicle occupant which is arranged in this interior region.
- FIG. 1 shows a schematic representation of a motor vehicle with a control system for operating the motor vehicle, a contact-analogue head-up display, an object within the motor vehicle and a vehicle occupant arranged within an interior region of the motor vehicle;
- Fig. 2 is a schematic representation of the motor vehicle shown in Fig. 1 and another motor vehicle and arranged outside of the motor vehicle shown in Fig. 1 object.
- FIG. 10 A schematic representation of a motor vehicle 10 is shown in FIG.
- the motor vehicle 10 comprises a control system 12 having a gesture recognition unit 14, a speech recognition unit 16, a data processing unit 18 and an assistance system 20, which comprises a navigation unit 22 and a communication facility 24.
- the motor vehicle 10 comprises a contact-analogous head-up display 26, by means of which, for example, projections in the area of a windshield of the motor vehicle 10, not shown here, can be provided to a vehicle occupant 28, which sits inside an interior area 30 of the motor vehicle 10.
- the motor vehicle 10 also comprises an object 32, which is arranged in the interior of the motor vehicle 10.
- the object 32 may be, for example, an operating element, an automatic climate control, a display or the like.
- the object 32 may also be part of the assistance system 20, so that the object 32 by means of corresponding control commands can be controlled by the data processing device 18.
- the gesture recognition unit 14 is designed to detect a gesture of the vehicle occupant 28 directed toward the object 32 or to another object, which is not described here in detail, within the motor vehicle 10 or outside the motor vehicle 10. Furthermore, the gesture recognition unit 14 is designed to monitor only the interior area 30 of the motor vehicle 10 and to detect the gestures of the vehicle occupant 28, which is arranged in this interior area 30.
- the interior area 30 to be monitored may include, for example, an area around a driver's seat of the motor vehicle or other seats within the motor vehicle 10.
- the gesture recognition unit 14 may comprise, for example, a camera, not shown here, by means of which corresponding movements or gestures of the vehicle occupant 28 can be detected.
- the gestures of the vehicle occupant 28, which are directed to corresponding objects 32 or other objects it may be, for example, a finger pointer, another hand movement or the like, which are detected by the gesture recognition unit 14.
- the speech recognition unit 16 is configured to detect a spoken command of the vehicle occupant 28 before, during or after the detection of the gesture.
- the speech recognition unit 16 may use, for example, a separate, not shown here separate microphone or even, for example, an already installed in the car 10 microphone a hands-free system of the motor vehicle 10.
- voice commands of further, not shown here vehicle occupants of the motor vehicle 10 can be detected.
- the gesture recognition unit 14 and the speech recognition unit 16 are connected to the data processing unit 18, so that the correspondingly detected gestures or voice commands can be forwarded to the data processing unit 18.
- the data processing unit 18 is configured to interpret the detected gesture, to identify the object 32 or other objects pointed to by the gesture, as well as to interpret corresponding voice commands of the vehicle occupant 28.
- the data processing unit 8 is designed to interpret the gesture, the identified object and the voice command in combination. and generate a corresponding control command depending on the combined interpretation and to control the assistance system 20 according to the control command.
- a method of operating the motor vehicle 10 using the control system 12 will be explained.
- a motor vehicle 10 another motor vehicle 34 and another object 36 are shown in a schematic view of a.
- the object 36 may be, for example, a so-called point of interest in the form of a hotel, a restaurant or the like.
- the vehicle occupant 28 desires to interact with the object 32 within the motor vehicle 10.
- the object 32 is an automatic climate control unit, wherein the vehicle occupant 28 desires to increase the room temperature within the motor vehicle 10.
- the vehicle occupant 28 points with his forefinger to the object 32 and outputs a voice command "increase interior temperature by 2 ° C" from.
- the gesture recognition unit 14 recognizes this finger pointer to the object 32 and the voice recognition unit 16 simultaneously detects the voice command issued by the vehicle occupant 28. This information is forwarded to the data processing unit 18, which on the one hand interprets the finger pointing of the vehicle occupant 28 to the object 32 and on the basis of which the object 32, in the present case the automatic climate control unit, identifies. Furthermore, the data processing unit 18 interprets the voice command of the vehicle occupant 28, whereby the data processing unit 18 recognizes that the interior temperature within the motor vehicle 10 is to be increased by 2 ° C. In other words, a combined interpretation of the gesture, the identified object 32 and the voice command by the data processing unit 18 takes place, after which a corresponding control command is generated by the data processing unit 18 as a function of the combined interpretation.
- the data processing unit 18 then controls the object 32 with the control command accordingly.
- the room temperature within the motor vehicle 10 is increased by the desired 2 ° C or an unspecified automatic climate control of the motor vehicle 10 is controlled such that the room temperature is increased within the motor vehicle 10 as desired.
- the object 32 may essentially be any objects within the motor vehicle 10 with which an interaction between the vehicle occupant 28 for operating or operating the motor vehicle 10 or its functions is possible.
- the vehicle occupant 28 may also wish to establish a communication connection with the further motor vehicle 34 or a vehicle occupant 38, which drives the motor vehicle 34.
- a communication link between the communication device 24 of the motor vehicle 10 and a communication device 40 of the further motor vehicle 34 is to be produced.
- the vehicle occupant 28 points to the preceding vehicle 34 and shortly before, at the same time or shortly thereafter, issue a corresponding voice command, for example "establish a telephone connection with this motor vehicle".
- the gesture recognition unit 14 first detects the gesture of the vehicle occupant 28, which is directed to the motor vehicle 34. In order to even be able to recognize that the vehicle occupant 28 has pointed to the motor vehicle 34, after detecting the gesture, a motor vehicle position and a motor vehicle orientation are first determined. This can be done, for example, with the aid of the navigation unit 22, by means of which corresponding GPS information is provided. Furthermore, the motor vehicle 10 may include, for example, a compass or the like, by means of which the orientation of the motor vehicle 10 can be determined. In addition, odometry data, such as traveled distances and / or accelerations of the motor vehicle 10 can be used for position determination.
- the control system 12 or the gesture recognition unit 14 can be connected to a camera, not shown here, or to a plurality of cameras which are attached to the motor vehicle 10, by means of which or by means of which that the vehicle occupant 28 has just shown on the further motor vehicle 34.
- the data processing unit 18 evaluates the recognized gesture, the voice command and the identification of the further motor vehicle 34, after which a corresponding control command for establishing a communication connection between the communication device 24 of the motor vehicle 10 and the communication device 40 of the further motor vehicle 34 is generated. Subsequently, the vehicle occupant 28 can communicate with the vehicle occupant 38.
- the control system 12 can also be used to output information about corresponding objects outside the motor vehicle 10, in the present case via the object 36.
- the object 36 is a hotel, which is located in the field of vision of the vehicle occupant 28. The vehicle occupant 28 points to the object 36 and at the same time issues a voice command: "How much is the room in this hotel?".
- the Kraftwag enposition and the car orientation is determined and then the object 36 is identified by a comparison with an environment model, for example by comparison with digital map information.
- the data processing unit 18 evaluates the gesture, the identified object 36 and the corresponding voice command, after which the data processing unit 18 issues a corresponding control command to the navigation unit 22, which then outputs the desired price information to the vehicle occupant 28.
- the corresponding control command can also be output to the communication device 24, which, for example, establishes an Internet connection in order to search for the corresponding information and to make it available to the vehicle occupant 28.
- the vehicle occupant 28 may wish to navigate to the object 36.
- this information is in turn evaluated by the control system 12 in combination, so that the data processing unit 18 forwards a corresponding control command to the navigation unit 22 to control them accordingly such that the navigation unit 22 calculates a route 42 to the object 36 along which the vehicle occupant 28 is navigated until reaching the object 36.
- objects 36 or other objects arranged outside the motor vehicle 10 can be highlighted in the contact-analogous head-up display 26 as soon as a gesture directed to this object 36 has been detected.
- the vehicle occupant 28 receives appropriate support, so that interactions between the vehicle occupant 28 and such objects 36 are additionally facilitated.
- the combined gesture and voice command recognition with the subsequent generation of the control command only takes place if the gesture and the voice command are detected within a predetermined period.
- the control system 12 only generates corresponding control commands when a corresponding gesture and a corresponding voice command of the vehicle occupant 28 take place within a predetermined time window.
Abstract
Die Erfindung betrifft ein Verfahren zum Betreiben eines Kraftwagens (10), mit den Schritten: Erfassen einer auf ein Objekt (32, 36) gerichteten Geste eines Fahrzeuginsassen (28) mittels einer Gestenerkennungseinheit (14); Interpretieren der Geste und Identifizieren des Objekts (32, 36) mittels einer Datenverarbeitungseinheit (18); Generieren eines entsprechenden Steuerbefehls in Abhängigkeit von der interpretierten Geste und des identifizierten Objekts (32, 36) und Ansteuern eines Assistenzsystems (20) des Kraftwagens (20) gemäß dem Steuerbefehl mittels der Datenverarbeitungseinheit (18), wobei sich die Erfindung durch folgende Schritte auszeichnet: Erfassen eines vor, während oder nach dem Erfassen der Geste geäußerten Sprachbefehls des Fahrzeuginsassen (28) mittels einer Spracherkennungseinheit (16), und kombiniertes Interpretieren der Geste, des identifizierten Objekts (32, 36) und des Sprachbefehls sowie Generieren des Steuerbefehls in Abhängigkeit von der kombinierten Interpretation mittels der Datenverarbeitungseinheit (18). Des Weiteren betrifft die Erfindung ein Steuerungssystem (12) zum Betreiben eines Kraftwagens (10).
Description
Verfahren und Steuerungssystem zum Betreiben eines Kraftwagens
BESCHREIBUNG: Die Erfindung betrifft ein Verfahren zum Betreiben eines Kraftwagens der im Oberbegriff des Patentanspruchs 1 angegebenen Art. Des Weiteren betrifft die Erfindung ein Steuerungssystem zum Betreiben eines Kraftwagens der im Oberbegriff des Patentanspruchs 0 angegebenen Art. Ein solches Verfahren und Steuerungssystem sind aus der US 2010/0274480 A1 bekannt. Das Verfahren umfasst die folgenden Schritte: Erfassen einer auf ein Objekt gerichteten Geste eines Fahrzeuginsassens mittels einer Gestenerkennungseinheit; Interpretieren der Geste und Identifizieren des Objekts mittels einer Datenverarbeitungseinheit; Generieren eines entsprechenden Steuerbefehls in Abhängigkeit von der interpretierten Geste und des identifizierten Objekts und Ansteuern eines Assistenzsystems des Kraftwagens gemäß dem Steuerbefehl mittels der Datenverarbeitungseinheit. Das dort offenbarte System dient dazu, Gesten eines Fahrzeuginsassen zu erkennen, mittels welchen der Fahrzeuginsasse auf so genannte„Points of Interest" zeigt, wonach eine entsprechende Information über den Point of Interest an den Fahrzeuginsassen ausgegeben wird.
Die DE 10 2008 051 756 A1 offenbart ein Verfahren, bei welchem ein Fahrzeuginsasse auf einen Point of Interest auf einem Display eines Kraftwagens zeigen kann, wonach die Darstellung des Displays entsprechend angepasst wird.
In dem Artikel„AIDA 2.0 - Intelligente Navigationslösung mit Augmented Reality verknüpft" (http://www.zukunft- mobilitaet.net/5086/strassenverkehr/aida2-navigation-mit-vw-audi-3d/) wird ein Steuerungssystem zum Betreiben eines Kraftwagens offenbart, welches mithilfe einer Gestenbedienung gesteuert werden kann. Auf einer 3D-Karte werden nicht nur Straßenzüge dargestellt, sondern auch Informationen in Form von„Augmented Reality" eingeblendet. So werden aus den Daten von
BESTÄTIGUNGSKOPIE
mehr als einer Million Mobilfunkgeräten aktuelle Straßenverhältnisse abgebildet sowie 20000 Points of Interest, Bewertungen von Restaurants und Einkaufsmöglichkeiten, Informationen über lokale Veranstaltungen und dergleichen angezeigt. Darüber hinaus können mit dem dort gezeigten System auch andere Funktionen des Fahrzeugs, wie beispielsweise eine Klimaanlage, ein Radio und dergleichen, gesteuert werden. Die Steuerung erfolgt mittels Gesten bzw. mit einem Fingerzeig auf entsprechende Objekte.
Schließlich zeigt die DE 10 2010 002 741 A1 ein Informationssystem für ei- nen Kraftwagen, mittels welchem personalisierte Informationen mit einem entsprechenden Ortsbezug über in einem Umfeld des Kraftwagens befindliche Objekte bereitgestellt werden können. Beispielsweise können entsprechende Zusatzinformationen bei einer Annäherung an ein Objekt, wie beispielsweise an ein Hotel oder dergleichen, angezeigt werden.
Es ist die Aufgabe der vorliegenden Erfindung, ein Verfahren sowie ein Steuerungssystem zum Betreiben eines Kraftwagens bereitzustellen, mittels welchem eine vereinfachte und weniger fehleranfällige Bedienung eines Kraftwagens ermöglicht wird.
Diese Aufgabe wird durch ein Verfahren zum Betreiben eines Kraftwagens mit den Merkmalen des Patentanspruchs 1 und durch ein Steuerungssystem zum Betreiben eines Kraftwagens mit den Merkmalen des Patentanspruchs 10 gelöst. Vorteilhafte Ausgestaltungen mit zweckmäßigen und nicht-trivialen Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen angegeben.
Ein erfindungsgemäßes Verfahren zum Betreiben eines Kraftwagens um- fasst die folgenden Schritte:
- Erfassen einer auf ein Objekt gerichteten Geste eines Fahrzeuginsassens mittels einer Gestenerkennungseinheit;
- Interpretieren der Geste und Identifizieren des Objekts mittels einer Datenverarbeitungseinheit;
- Generieren eines entsprechenden Steuerbefehls in Abhängigkeit von der interpretierten Geste und des identifizierten Objekts und Ansteuern eines
Assistenzsystems des Kraftwagens gemäß dem Steuerbefehl mittels der
Datenverarbeitungseinheit;
wobei sich das erfindungsgemäße Verfahren durch folgende Schritte auszeichnet:
- Erfassen eines vor, während oder nach dem Erfassen der Geste geäußerten Sprachbefehls des Fahrzeuginsassen mittels einer Spracherken- nungseinheit;
- kombiniertes Interpretieren der Geste, des identifizierten Objekts und des Sprachbefehls sowie Generieren des Steuerbefehls in Abhängigkeit von der kombinierten Interpretation mittels der Datenverarbeitungseinheit.
Mit anderen Worten ist es also erfindungsgemäß vorgesehen, eine kombi- nierte Gesten- und Sprachsteuerung vorzusehen, mittels welchen der Kraftwagen bzw. entsprechende Funktionen des Kraftwagens gesteuert werden können. Der Fahrzeuginsasse kann beispielsweise auf entsprechende Objekte, mit welchen er interagieren möchte, zeigen und im Wesentlichen gleichzeitig einen entsprechenden Sprachbefehl tätigen, aus welchem her- vorgeht, in welcher Form er mit dem entsprechenden Objekt er interagieren möchte. Bei diesen Objekten kann es sich beispielsweise um so genannte Points of Interest handeln, welche sich beispielsweise entlang einer bestimmten Route befinden, die mit dem Kraftwagen befahren wird. Ebenso kann es sich bei den Objekten aber auch um Bedienelemente, wie bei- spielsweise ein Klimaanlagenbedienelement, eine Navigationseinrichtung innerhalb des Kraftwagens oder dergleichen handeln, mit welchen der Fahrzeuginsasse durch einen entsprechenden Fingerzeig oder eine andere Geste in Kombination mit einem entsprechenden Sprachbefehl interagieren kann.
Die Bedienung des Kraftwagens bzw. entsprechender Assistenzsysteme des Kraftwagens wird durch die kombinierte Gestik- und Sprachbedienung wesentlich intuitiver und damit vereinfacht. Des Weiteren werden Fehlinterpretationen von Wünschen des Fahrzeuginsassen bezüglich einer Interaktion mit den Objekten erheblich verringert, da eine kombinierte Interpretation entsprechender Gesten des Fahrzeuginsassen und seiner Sprachbefehle erfolgt.
Gemäß einer vorteilhaften Ausführungsform der Erfindung ist es vorgesehen, dass sowohl bei einer auf ein außerhalb des Kraftwagens angeordnetes Objekt als auch bei einer auf ein innerhalb des Kraftwagens angeordnetes Objekt gerichteten Geste diese erfasst und interpretiert sowie das Objekt identifiziert wird. Die kombinierte Gesten- und Sprachbedienung kann mit anderen
Worten also sowohl auf Objekte innerhalb als auch außerhalb des Fahrzeugs angewendet werden.
Eine weitere vorteilhafte Ausführungsform der Erfindung sieht vor, dass als Geste eine Fingerbewegung des Fahrzeuginsassen erfasst wird, mittels welcher auf das Objekt gezeigt wird. Alternativ können auch weitere Gesten des Fahrzeuginsassen erfasst werden, welche beispielsweise mit einer Datenbank abgeglichen werden können, in welcher jeweilige Bedeutungen entsprechender Gesten abgelegt sind, sodass eine noch intuitivere Bedienung des Kraftwagens bzw. von dessen Assistenzsystems ermöglicht wird.
In weiterer vorteilhafter Ausgestaltung der Erfindung ist es vorgesehen, dass zum Identifizieren des Objekts eine Kraftwagenposition sowie eine Kraftwagenorientierung ermittelt und anschließend das Objekt durch einen Vergleich mit digitalen Karteninformationen identifiziert wird. Dadurch kann auf besonders einfache Weise eine Identifikation entsprechender Objekte vorgenommen werden, da bei Kenntnis der Kraftwagenposition in Kombination mit der Kenntnis der Kraftwagenorientierung eine entsprechend einfache Zuordnung zu entsprechenden digitalen Karteninformationen erfolgen kann, sodass kei- ne weitere aufwändige Sensorik zur Identifizierung entsprechender Objekte, insbesondere von außerhalb des Kraftwagens angeordneten Objekten, erforderlich ist.
Vorzugsweise erfolgt eine kombinierte Gesten- und Sprachbefehlerkennung mit anschließender Generierung des Steuerbefehls nur dann, falls die Geste und der Sprachbefehl innerhalb einer vorgegebenen Dauer erfasst werden. Dadurch wird gewährleistet, dass ein entsprechender Steuerbefehl ausschließlich nach einer kombinierten Auswertung einer Geste und eines entsprechenden Sprachbefehls erfolgt, sodass eine Interpretation eines Wun- sches eines Fahrzeuginsassen auf besonders zuverlässige Art und Weise erfolgen kann. Mit anderen Worten wird einer Missinterpretation des Wunsches des Fahrzeuginsassen bezüglich einer Interaktion mit einem entsprechenden Objekt zuverlässig vorgebeugt. In weiterer vorteilhafter Ausgestaltung der Erfindung ist es vorgesehen, dass eine auf einen weiteren Kraftwagen gerichtete Geste erfasst und identifiziert sowie in Kombination mit einem interpretierten Sprachbefehl, mittels welchem eine Herstellung einer Kommunikationsverbindung mit einer Kommunikationseinrichtung des weiteren Kraftwagens gefordert wird, eine Kommuni-
kationseinrichtung des Assistenzsystems mit einem entsprechenden Steuerbefehl zum Herstellen der Kommunikationsverbindung angesteuert wird. Bei der Kommunikationsverbindung kann es sich beispielsweise um eine Chatfunktion, ein Telefonat oder dergleichen handeln. Somit kann auf besonders einfache Weise eine Kommunikationsverbindung zu einem weiteren Kraftwagen aus der Umgebung hergestellt werden, ohne dass der Fahrzeuginsasse beispielsweise eine Nummer wählen muss.
Gemäß einer weiteren vorteilhaften Ausführungsform der Erfindung ist es vorgesehen, dass eine auf ein außerhalb des Kraftwagens angeordnetes Objekt gerichtete Geste erfasst und interpretiert sowie in Kombination mit einem als Informationsanfrage interpretierten Sprachbefehl eine Navigationseinheit des Assistenzsystems mit einem Steuerbefehl zum Bereitstellen einer Information über das Objekt angesteuert wird. Bei diesem Objekt kann es sich um einen so genannten Point of Interest handeln, beispielsweise in Form eines Hotels, eines Restaurants oder dergleichen, sodass durch eine kombinierte Auswertung einer Geste und eines Sprachkommandos des Fahrzeuginsassen eine entsprechende Information dem Fahrzeuginsassen bereitgestellt werden kann.
Bei einer weiteren vorteilhaften Ausführungsform der Erfindung ist es vorgesehen, dass eine auf ein außerhalb des Kraftwagens angeordnetes Objekt gerichtete Geste erfasst und interpretiert sowie in Kombination mit einem als Navigationsbefehl identifizierten Sprachbefehl eine Navigationseinheit des Assistenzsystems mit einem entsprechenden Steuerbefehl zum Ermitteln einer Route zu dem Objekt angesteuert wird. Aufwändige Eingaben an einer Navigationseinheit zum Bestimmen einer entsprechenden Route zu dem gewünschten Objekt können somit entfallen, sodass entsprechende Navigationsfunktionen auf besonders einfache Art und Weise durch den Fahrzeugin- sassen angefordert und bereitgestellt werden können.
In weiterer vorteilhafter Ausgestaltung der Erfindung ist es vorgesehen, dass ein außerhalb des Kraftwagens angeordnetes Objekt in einem kontaktanalogen Head-Up-Display des Kraftwagens hervorgehoben wird, sobald eine auf dieses Objekt gerichtete Geste erkannt wurde. Dadurch wird eine besonders einfache Interaktion des Fahrzeuginsassen mit entsprechenden Objekten im Umfeld des Kraftwagens ermöglicht. Gleichzeitig wird dem Fahrzeuginsassen unmittelbar visualisiert, welches Objekt er mit seiner Geste angewählt
hat, sodass im Falle einer Fehlinterpretation der Geste dieser Fehler für den Fahrzeuginsassen direkt erkennbar ist.
Ein erfindungsgemäßes Steuerungssystem zum Betreiben eines Kraftwa- gens umfasst eine Gestenerkennungseinheit, welche dazu ausgelegt ist, eine auf ein Objekt gerichtete Geste eines Fahrzeuginsassen zu erkennen; eine Datenverarbeitungseinheit, welche dazu ausgelegt ist, die erfasste Geste zu interpretieren, das Objekt zu identifizieren und wenigstens einen Steuerbefehl in Abhängigkeit von der interpretierten Geste und des identifizierten Objekts zu generieren, sowie ein Assistenzsystem des Kraftwagens gemäß dem Steuerbefehl anzusteuern, wobei sich das erfindungsgemäße Steuerungssystem dadurch auszeichnet, dass das Steuerungssystem eine Spracherkennungseinheit umfasst, welche dazu ausgelegt ist, einen vor, während oder nach dem Erfassen der Geste geäußerten Sprachbefehl des Fahrzeuginsassen zu erfassen, und dass die Datenverarbeitungseinheit dazu ausgelegt ist, die Geste und den Sprachbefehl in Kombination zu interpretieren und den Steuerbefehl in Abhängigkeit von der kombinierten Interpretation der Geste und des Sprachbefehls zu generieren. Vorteilhafte Ausführungen des erfindungsgemäßen Verfahrens sind als vorteilhafte Ausführungen des Steuerungssystems anzusehen, wobei hier insbesondere das Steuerungssystem Mittel umfasst, mit welchen die Verfahrensschritte durchführbar sind.
Eine vorteilhafte Ausführungsform des Steuerungssystems zeichnet sich da- durch aus, dass die Gestenerkennungseinheit dazu ausgelegt ist, ausschließlich einen vorgebbaren Innenraumbereich des Kraftwagens zu überwachen und die Gesten des Fahrzeuginsassens, welcher in diesem Innenraumbereich angeordnet ist, zu erfassen. Mit anderen Worten ist es vorgesehen, dass ausschließlich die Gesten eines bestimmten Fahrzeuginsassen erfasst und in Kombination mit dessen Sprachbefehlen zu entsprechenden Steuerungsbefehlen umgesetzt werden. Dadurch wird gewährleistet, dass nicht eine Mehrzahl von Fahrzeuginsassen gleichzeitig beispielsweise unterschiedliche Gesten und entsprechende Sprachbefehle ausgeben können, welche zu widersprüchlichen Steuerungsbefehlen oder unterschiedlichen Steuerungsbefehlen führen würden.
Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele sowie anhand der Zeichnung. Die vorstehend in der Beschreibung genannten
Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Allein- Stellung verwendbar, ohne den Rahmen der Erfindung zu verlassen.
Ausführungsbeispiele der Erfindung werden nachfolgend anhand schemati- scher Zeichnungen näher erläutert. Es zeigen:
Fig. 1 eine schematische Darstellung eines Kraftwagens mit einem Steuerungssystem zum Betreiben des Kraftwagens, einem kontaktanalogen Head-Up-Display, einem Objekt innerhalb des Kraftwagens so- wie einem innerhalb eines Innenraumbereichs des Kraftwagens angeordneten Fahrzeuginsassen; und in
Fig. 2 eine schematische Darstellung des in Fig. 1 gezeigten Kraftwagens und eines weiteren Kraftwagens sowie ein außerhalb des in Fig. 1 gezeigten Kraftwagens angeordnetes Objekt.
In den Figuren sind gleiche oder funktionsgleiche Elemente mit gleichen Bezugszeichen versehen. Eine schematische Darstellung eines Kraftwagens 10 ist in Fig. 1 gezeigt. Der Kraftwagen 10 umfasst ein Steuerungssystem 12 mit einer Gestenerkennungseinheit 14, einer Spracherkennungseinheit 16, einer Datenverarbeitungseinheit 18 und einem Assistenzsystem 20, welches eine Navigationseinheit 22 und eine Kommunikationseinrichtung 24 umfasst. Ferner umfasst der Kraftwagen 10 ein kontaktanaloges Head-Up-Display 26, mittels welchem beispielsweise Projektionen im Bereich einer hier nicht dargestellten Windschutzscheibe des Kraftwagens 10 einem Fahrzeuginsassen 28, welcher innerhalb eines Innenraumbereichs 30 des Kraftwagens 10 sitzt, bereitgestellt werden können. Schließlich umfasst der Kraftwagen 10 noch ein Ob- jekt 32, welches im Innenraum des Kraftwagens 10 angeordnet ist. Bei dem Objekt 32 kann es sich beispielsweise um ein Bedienelement, eine Klimaautomatik, ein Display oder dergleichen handeln. Das Objekt 32 kann dabei ebenfalls Teil des Assistenzsystems 20 sein, sodass das Objekt 32 mittels
entsprechender Steuerbefehle durch die Datenverarbeitungsreinrichtung 18 angesteuert werden kann.
Die Gestenerkennungseinheit 14 ist dazu ausgelegt, eine auf das Objekt 32 oder auf ein weiteres, hier nicht näher bezeichnetes Objekt innerhalb des Kraftwagens 10 oder außerhalb des Kraftwagens 10 gerichtete Geste des Fahrzeuginsassen 28 zu erkennen. Ferner ist die Gestenerkennungseinheit 14 dazu ausgelegt, ausschließlich den Innenraumbereich 30 des Kraftwagens 10 zu überwachen und die Gesten des Fahrzeuginsassen 28, wel- eher in diesem Innenraumbereich 30 angeordnet ist, zu erfassen. Der zu überwachende Innenraumbereich 30 kann dabei beispielsweise einen Bereich rund um einen Fahrersitz des Kraftwagens oder andere Sitze innerhalb des Kraftwagens 10 umfassen. Zur Erkennung entsprechender Gesten des Fahrzeuginsassen 28 kann die Gestenerkennungseinheit 14 beispielsweise eine hier nicht gezeigte Kamera aufweisen, mittels welcher entsprechende Bewegungen bzw. Gesten des Fahrzeuginsassen 28 erfasst werden können. Bei den Gesten des Fahrzeuginsassen 28, welche auf entsprechende Objekte 32 oder weitere Objekte gerichtet sind, kann es sich beispielsweise um einen Fingerzeig, eine andere Handbewegung oder dergleichen handeln, welche mittels der Gestenerkennungseinheit 14 erfasst werden.
Die Spracherkennungseinheit 16 ist dazu ausgelegt, einen vor, während oder nach dem Erfassen der Geste geäußerten Sprachbefehl des Fahrzeuginsassen 28 zu erfassen. Dazu kann die Spracherkennungseinheit 16 beispiels- weise ein separates, hier nicht gezeigtes separates Mikrofon oder auch beispielsweise ein bereits in dem Kraftwagen 10 installiertes Mikrofon einer Freisprechanlage des Kraftwagens 10 nutzen. Mittels der Spracherkennungseinheit 16 können dabei auch Sprachbefehle weiterer, hier nicht gezeigter Fahrzeuginsassen des Kraftwagens 10 erfasst werden.
Die Gestenerkennungseinheit 14 und die Spracherkennungseinheit 16 sind mit der Datenverarbeitungseinheit 18 verbunden, sodass die entsprechend erfassten Gesten bzw. Sprachbefehle an die Datenverarbeitungseinheit 18 weitergeleitet werden können. Die Datenverarbeitungseinheit 18 ist dazu ausgelegt, die erfasste Geste zu interpretieren, das Objekt 32 oder weitere Objekte, auf welche mittels der Geste gezeigt wurde, zu identifizieren sowie entsprechende Sprachbefehle des Fahrzeuginsassen 28 zu interpretieren. Des Weiteren ist die Datenverarbeitungseinheit 8 dazu ausgelegt, die Geste, das identifizierte Objekt und den Sprachbefehl in Kombination zu interpre-
tieren und einen entsprechenden Steuerbefehl in Abhängigkeit von der kombinierten Interpretation zu generieren und das Assistenzsystem 20 gemäß dem Steuerbefehl anzusteuern. Nachfolgend wird ein Verfahren zum Betreiben des Kraftwagens 10 mithilfe des Steuerungssystems 12 erläutert.
In Fig. 2 sind in ein einer schematischen Ansicht der Kraftwagen 10, ein weiterer Kraftwagen 34 und ein weiteres Objekt 36 gezeigt. Bei dem Objekt 36 kann es sich beispielsweise um einen so genannten Point of Interest in Form eines Hotels, eines Restaurants oder dergleichen handeln. Zunächst wünscht der Fahrzeuginsasse 28 eine Interaktion mit dem Objekt 32 innerhalb des Kraftwagens 10. Im vorliegenden Fall handelt es sich bei dem Objekt 32 um ein Klimaautomatikbedienteil, wobei der Fahrzeuginsasse 28 eine Erhöhung der Raumtemperatur innerhalb des Kraftwagens 10 wünscht. Zunächst zeigt der Fahrzeuginsasse 28 mit seinem Zeigefinger auf das Objekt 32 und gibt einen Sprachbefehl„Innenraumtemperatur um 2°C erhöhen" aus.
Die Gestenerkennungseinheit 14 erkennt diesen Fingerzeig auf das Objekt 32 und die Spracherkennungseinheit 16 erfasst gleichzeitig den vom Fahrzeuginsassen 28 ausgegebenen Sprachbefehl. Diese Informationen werden an die Datenverarbeitungseinheit 18 weitergeleitet, welche zum einen den Fingerzeig des Fahrzeuginsassen 28 auf das Objekt 32 interpretiert und anhand dessen das Objekt 32, im vorliegenden Fall also das Klimaautomatikbedienteil, identifiziert. Des Weiteren interpretiert die Datenverarbeitungseinheit 18 den Sprachbefehl des Fahrzeuginsassen 28, wodurch die Datenverarbeitungseinheit 18 erkennt, dass die Innenraumtemperatur innerhalb des Kraftwagens 10 um 2°C erhöht werden soll. Mit anderen Worten erfolgt also ein kombiniertes Interpretieren der Geste, des identifizierten Objekts 32 und des Sprachbefehls durch die Datenverarbeitungseinheit 18, wonach ein entsprechender Steuerbefehl in Abhängigkeit von der kombinierten Interpretation mittels der Datenverarbeitungseinheit 18 generiert wird.
Die Datenverarbeitungseinheit 18 steuert anschließend das Objekt 32 mit dem Steuerbefehl entsprechend an. Infolgedessen wird schließlich die Raumtemperatur innerhalb des Kraftwagens 10 um die gewünschten 2°C erhöht bzw. eine hier nicht näher bezeichnete Klimaautomatik des Kraftwagens 10 derart angesteuert, dass die Raumtemperatur innerhalb des Kraftwagens 10 wie gewünscht erhöht wird. Bei dem Objekt 32 kann es sich dabei im Wesentlichen um beliebige Objekte innerhalb des Kraftwagens 10 handeln, mit welchen eine Interaktion zwischen dem Fahrzeuginsassen 28
zum Betreiben bzw. Bedienen des Kraftwagens 10 bzw. dessen Funktionen möglich ist.
Der Fahrzeuginsasse 28 kann zudem auch wünschen, eine Kommunikati- onsverbindung mit dem weiteren Kraftwagen 34 bzw. einem Fahrzeuginsassen 38, welcher den Kraftwagen 34 fährt, herzustellen. Mit anderen Worten soll eine Kommunikationsverbindung zwischen der Kommunikationseinrichtung 24 des Kraftwagens 10 und einer Kommunikationseinrichtung 40 des weiteren Kraftwagens 34 hergestellt werden. Der Fahrzeuginsasse 28 zeigt dazu auf das vorausfahrende Fahrzeug 34 und gibt kurz davor, gleichzeitig oder kurz danach einen entsprechenden Sprachbefehl, beispielsweise„Telefonverbindung mit diesem Kraftwagen herstellen" aus.
Die Gestenerkennungseinheit 14 erfasst zunächst die Geste des Fahrzeuginsassens 28, welche auf den Kraftwagen 34 gerichtet ist. Um überhaupt erkennen zu können, dass der Fahrzeuginsasse 28 auf den Kraftwagen 34 gezeigt hat, wird nach Erkennen der Geste zunächst eine Kraftwagenposition sowie eine Kraftwagenorientierung ermittelt. Dies kann beispielsweise unter Zuhilfenahme der Navigationseinheit 22 erfolgen, mit- tels welcher entsprechende GPS-lnformationen bereitgestellt werden. Des Weiteren kann der Kraftwagen 10 beispielsweise einen Kompass oder dergleichen umfassen, mittels welchem die Orientierung des Kraftwagens 10 ermittelt werden kann. Darüber hinaus können auch Odometriedaten, wie beispielsweise zurückgelegte Wegstrecken und/oder Beschleunigungen des Kraftwagens 10 zur Positionsermittlung herangezogen werden.
Um zu erkennen, dass es sich um den Kraftwagen 34 handelt, kann das Steuerungssystem 12 bzw. die Gestenerkennungseinheit 14 mit einer hier nicht gezeigten Kamera oder mehreren Kameras, welche am Kraftwagen 10 angebracht sind, verbunden sein, mittels welcher oder mittels welchen erkannt wird, dass der Fahrzeuginsasse 28 soeben auf den weiteren Kraftwagen 34 gezeigt hat. Die Datenverarbeitungseinheit 18 wertet nun die erkannte Geste, den Sprachbefehl und die Identifikation des weiteren Kraftwagens 34 aus, wonach ein entsprechender Steuerbefehl zum Herstellen einer Kommunikationsverbindung zwischen der Kommunikationseinrichtung 24 des Kraftwagens 10 und der Kommunikationseinrichtung 40 des weiteren Kraftwagens 34 generiert wird. Anschließend kann der Fahrzeuginsasse 28 mit dem Fahrzeuginsassen 38 kommunizieren.
Das Steuerungssystem 12 kann auch dazu genutzt werden, Informationen über entsprechende Objekte außerhalb des Kraftwagens 10, im vorliegenden Fall über das Objekt 36, auszugeben. Vorliegend handelt es sich bei dem Objekt 36 um ein Hotel, welches sich im Sichtbereich des Fahrzeuginsassen 28 befindet. Der Fahrzeuginsasse 28 zeigt auf das Objekt 36 und gibt gleichzeitig einen Sprachbefehl aus:„Wie teuer ist das Zimmer in diesem Hotel?".
Zum Identifizieren des Objekts 36 wird wiederum die Kraftwag enposition sowie die Kraftwagenorientierung ermittelt und anschließend wird das Objekt 36 durch einen Vergleich mit einem Umfeldmodell, beispielsweise durch einen Vergleich mit digitalen Karteninformationen, identifiziert. Die Datenverarbeitungseinheit 18 wertet wiederum die Geste, das identifizierte Objekt 36 und den entsprechenden Sprachbefehl aus, wonach die Datenverarbeitungseinheit 18 einen entsprechenden Steuerbefehl an die Navigationsein- heit 22 ausgibt, welche daraufhin die gewünschte Preisinformation an den Fahrzeuginsassen 28 ausgibt. Alternativ kann der entsprechende Steuerbefehl auch an die Kommunikationseinrichtung 24 ausgegeben werden, welche beispielsweise eine Internetverbindung aufbaut, um die entsprechenden Informationen zu suchen und dem Fahrzeuginsassen 28 zur Verfügung zu stel- len.
Darüber hinaus ist es auch möglich, dass der Fahrzeuginsasse 28 eine Navigation zu dem Objekt 36 wünscht. In Kombination mit einem entsprechenden Fingerzeig oder einer anderen Geste auf das Objekt 36 und einem Sprachbefehl in Form eines Navigationsbefehls werden diese Informationen durch das Steuerungssystem 12 wiederum in Kombination ausgewertet, sodass die Datenverarbeitungseinheit 18 einen entsprechenden Steuerbefehl an die Navigationseinheit 22 weiterleitet, um diese entsprechend anzusteuern, sodass die Navigationseinheit 22 eine Route 42 zu dem Objekt 36 berechnet, entlang welcher der Fahrzeuginsasse 28 bis zum Erreichen des Objekts 36 navigiert wird.
Zur Vereinfachung der Bedienung des Steuerungssystems 12 können dabei außerhalb des Kraftwagens 10 angeordnete Objekte 36 oder weitere Objekte in dem kontaktanalogen Head-Up-Display 26 hervorgehoben werden, sobald eine auf dieses Objekt 36 gerichtete Geste erkannt wurde. Dadurch erhält der Fahrzeuginsasse 28 eine entsprechende Unterstützung, sodass Interaktionen zwischen dem Fahrzeuginsassen 28 und solchen Objekten 36 zusätzlich erleichtert werden.
Des Weiteren erfolgt die kombinierte Gesten- und Sprachbefehlerkennung mit der anschließenden Generierung des Steuerbefehls nur dann, falls die Geste und der Sprachbefehl innerhalb einer vorgegebenen Dauer erfasst werden. Mit anderen Worten kann es vorgesehen sein, dass das Steuerungssystem 12 nur dann entsprechende Steuerbefehle generiert, wenn eine entsprechende Geste und ein entsprechender Sprachbefehl des Fahrzeuginsassen 28 innerhalb eines vorgegebenen Zeitfensters erfolgen. Dadurch wird die Interpretation von Wünschen des Fahrzeuginsassen 28 verbessert, da immer eine kombinierte Auswertung von Gesten und Sprachbefehlen erfolgt.
Insgesamt wird mithilfe des Steuerungssystems 12 eine besonders einfache und intuitive Interaktion zwischen dem Fahrzeuginsassen 28 und entsprechenden Objekten 32 bzw. 36 möglich, sodass ein Fahrzeuginsasse 28 eine Vielfalt von Funktionalitäten des Kraftwagens 10 auf besonders einfache Weise nutzen kann, ohne dass er zu sehr von seinen eigentlichen Fahraufgaben abgelenkt wird. Neben einer vereinfachten Bedienung des Kraftwagens 10 wird dadurch zusätzlich die Sicherheit beim Führen des Kraftwagens 10 im Straßenverkehr erheblich verbessert.
Claims
PATENTANSPRÜCHE:
Verfahren zum Betreiben eines Kraftwagens (10), mit den Schritten:
Erfassen einer auf ein Objekt (32, 36) gerichteten Geste eines Fahrzeuginsassen (28) mittels einer Gestenerkennungseinheit (14);
Interpretieren der Geste und Identifizieren des Objekts (32, 36) mittels einer Datenverarbeitungseinheit (18);
Generieren eines entsprechenden Steuerbefehls in Abhängigkeit von der interpretierten Geste und des identifizierten Objekts (32, 36) und Ansteuern eines Assistenzsystems (20) des Kraftwagens (20) gemäß dem Steuerbefehl mittels der Datenverarbeitungseinheit (18);
gekennzeichnet durch die Schritte:
Erfassen eines vor, während oder nach dem Erfassen der Geste geäußerten Sprachbefehls des Fahrzeuginsassen (28) mittels einer Spracherkennungseinheit (16);
kombiniertes Interpretieren der Geste, des identifizierten Objekts (32, 36) und des Sprachbefehls sowie Generieren des Steuerbefehls in Abhängigkeit von der kombinierten Interpretation mittels der Datenverarbeitungseinheit (18).
Verfahren nach Anspruch 1 ,
dadurch gekennzeichnet, dass
sowohl bei einer auf ein außerhalb des Kraftwagens angeordnetes Objekt (36) als auch bei einer auf ein innerhalb des Kraftwagens angeordnetes Objekt (32) gerichteten Geste diese erfasst und interpretiert sowie das Objekt (32, 36) identifiziert wird.
Verfahren nach Anspruch 1 oder 2,
dadurch gekennzeichnet, dass
als Geste eine Fingerbewegung des Fahrzeuginsassen (28) erfasst wird, mittels welcher auf das Objekt (32, 36) gezeigt wird.
Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
zum Identifizieren des Objekts (32, 36) eine Kraftwagenposition sowie eine Kraftwagenorientierung ermittelt und anschließend das Objekt
(32, 36) durch einen Vergleich mit digitalen Karteninformationen identifiziert wird.
Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
eine kombinierte Gesten- und Sprachbefehlerkennung mit anschließender Generierung des Steuerbefehls nur erfolgt, falls die Geste und der Sprachbefehl innerhalb einer vorgegebenen Dauer erfasst werden.
Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
eine auf einen weiteren Kraftwagen (34) gerichtete Geste erfasst und identifiziert sowie in Kombination mit einem interpretierten Sprachbefehl, mittels welchem eine Herstellung einer Kommunikationsverbindung mit einer Kommunikationseinrichtung (40) des weiteren Kraftwagens (34) gefordert wird, eine Kommunikationseinrichtung (24) des Assistenzsystems (20) mit einem entsprechenden Steuerbefehl zum Herstellen der Kommunikationsverbindung angesteuert wird.
Verfahren nach einem der Ansprüche 1 bis 6,
dadurch gekennzeichnet, dass
eine auf ein außerhalb des Kraftwagens angeordnetes Objekt (36) gerichtete Geste erfasst und interpretiert sowie in Kombination mit einem als Informationsanfrage interpretierten Sprachbefehl eine Navigationseinheit (22) des Assistenzsystems (20) mit einem entsprechenden Steuerbefehl zum Bereitstellen einer Information über das Objekt (36) angesteuert wird.
Verfahren nach einem der Ansprüche 1 bis 6,
dadurch gekennzeichnet, dass
eine auf ein außerhalb des Kraftwagens (10) angeordnetes Objekt (36) gerichtete Geste erfasst und interpretiert sowie in Kombination mit einem als Navigationsbefehl identifizierten Sprachbefehl eine Navigationseinheit (22) des Assistenzsystems (20) mit einem entsprechenden Steuerbefehl zum Ermitteln einer Route (42) zu dem Objekt (36) angesteuert wird.
9. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
ein außerhalb des Kraftwagens (10) angeordnetes Objekt (36) in einem kontaktanalogen Head-Up-Display (26) des Kraftwagens (10) hervorgehoben wird, sobald eine auf dieses Objekt (36) gerichtete
Geste erkannt worden ist.
Steuerungssystem (12) zum Betreiben eines Kraftwagens (10), mit: einer Gestenerkennungseinheit (14), welche dazu ausgelegt ist, eine auf ein Objekt (32, 36) gerichtete Geste eines Fahrzeuginsassen (28) zu erkennen;
einer Datenverarbeitungseinheit (18), welche dazu ausgelegt ist, die erfasste Geste zu interpretieren, das Objekt (32, 36) zu identifizieren und wenigstens einen Steuerbefehl in Abhängigkeit von der interpretierten Geste und des identifizierten Objekts zu generieren sowie ein Assistenzsystem (20) des Kraftwagens (10) gemäß dem Steuerbefehl anzusteuern,
dadurch gekennzeichnet, dass :
das Steuerungssystem (12) eine Spracherkennungseinheit (16) umfasst, welche dazu ausgelegt ist, einen vor, während oder nach dem Erfassen der Geste geäußerten Sprachbefehl des Fahrzeuginsassen (28) zu erfassen; und
die Datenverarbeitungseinheit (18) dazu ausgelegt ist, die Geste, das identifizierte Objekt (32, 36) und den Sprachbefehl in Kombination zu interpretieren und den Steuerbefehl in Abhängigkeit von der kombinierten Interpretation zu generieren.
Steuerungssystem (12) nach Anspruch 10,
dadurch gekennzeichnet, dass
die Gestenerkennungseinheit (14) dazu ausgelegt ist, ausschließlich einen vorgebbaren Innenraumbereich (30) des Kraftwagens (10) zu überwachen und die Gesten des Fahrzeuginsassen (28), welcher in diesem Innenraumbereich (30) angeordnet ist, zu erfassen.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/412,213 US9493169B2 (en) | 2012-07-06 | 2013-07-08 | Method and control system for operating a motor vehicle |
CN201380035025.9A CN104412068A (zh) | 2012-07-06 | 2013-07-08 | 用于运行机动车的方法和控制系统 |
EP13736484.0A EP2870430B1 (de) | 2012-07-06 | 2013-07-08 | Verfahren und steuerungssystem zum betreiben eines kraftwagens |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102012013503.3 | 2012-07-06 | ||
DE102012013503.3A DE102012013503B4 (de) | 2012-07-06 | 2012-07-06 | Verfahren und Steuerungssystem zum Betreiben eines Kraftwagens |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2014005722A1 true WO2014005722A1 (de) | 2014-01-09 |
Family
ID=48783178
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2013/002001 WO2014005722A1 (de) | 2012-07-06 | 2013-07-08 | Verfahren und steuerungssystem zum betreiben eines kraftwagens |
Country Status (5)
Country | Link |
---|---|
US (1) | US9493169B2 (de) |
EP (1) | EP2870430B1 (de) |
CN (1) | CN104412068A (de) |
DE (1) | DE102012013503B4 (de) |
WO (1) | WO2014005722A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9493169B2 (en) | 2012-07-06 | 2016-11-15 | Audi Ag | Method and control system for operating a motor vehicle |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6851133B2 (ja) * | 2014-01-03 | 2021-03-31 | ハーマン インターナショナル インダストリーズ インコーポレイテッド | ユーザに方向付けられた個人情報アシスタント |
DE102014200782A1 (de) | 2014-01-17 | 2015-07-23 | Bayerische Motoren Werke Aktiengesellschaft | Betreiben eines Fahrzeugs gemäß dem Wunsch eines Fahrzeuginsassen |
DE102014208663A1 (de) * | 2014-05-08 | 2015-11-12 | Conti Temic Microelectronic Gmbh | Vorrichtung und verfahren zur bereitstellung von informationsdaten zu einem in einem videobildstrom enthaltenen objekt einer fahrzeugumgebung |
KR20160001178A (ko) * | 2014-06-26 | 2016-01-06 | 엘지전자 주식회사 | 글래스 타입 단말기 및 이의 제어방법 |
DE102014214514A1 (de) * | 2014-07-24 | 2016-01-28 | Bayerische Motoren Werke Aktiengesellschaft | Vorrichtung und Verfahren zum Austausch von Daten zwischen Fahrzeugen zum Einrichten einer Kolonnenfahrt |
US20170176207A1 (en) * | 2015-12-17 | 2017-06-22 | Jaguar Land Rover Limited | In vehicle system and method for providing information regarding points of interest |
DE102015226152A1 (de) * | 2015-12-21 | 2017-06-22 | Bayerische Motoren Werke Aktiengesellschaft | Anzeigevorrichtung und Verfahren zum Ansteuern einer Anzeigevorrichtung |
US10166995B2 (en) * | 2016-01-08 | 2019-01-01 | Ford Global Technologies, Llc | System and method for feature activation via gesture recognition and voice command |
FR3049078B1 (fr) * | 2016-03-21 | 2019-11-29 | Valeo Vision | Dispositif et procede de commande a reconnaissance vocale et/ou gestuelle pour l'eclairage interieur d'un vehicule |
DE102016206694B4 (de) | 2016-04-20 | 2023-10-05 | Volkswagen Aktiengesellschaft | Assistenzsystem und Verfahren eines hochautomatisierten Fahrzeugs zur Verbesserung des Zusammenwirkens mit anderen Verkehrsteilnehmern |
US20170350718A1 (en) * | 2016-06-03 | 2017-12-07 | Toyota Motor Sales, U.S.A., Inc. | Information-attainment system based on monitoring an occupant |
DE102016008365A1 (de) * | 2016-07-08 | 2018-01-11 | Audi Ag | Proaktive Steuerung eines Assistenzsystems eines Kraftfahrzeugs |
US10241584B2 (en) * | 2016-09-28 | 2019-03-26 | Lenovo (Singapore) Pte. Ltd. | Gesture detection |
DE102016221564A1 (de) | 2016-10-13 | 2018-04-19 | Bayerische Motoren Werke Aktiengesellschaft | Multimodaler Dialog in einem Kraftfahrzeug |
US10692489B1 (en) * | 2016-12-23 | 2020-06-23 | Amazon Technologies, Inc. | Non-speech input to speech processing system |
US10692485B1 (en) * | 2016-12-23 | 2020-06-23 | Amazon Technologies, Inc. | Non-speech input to speech processing system |
US10355931B2 (en) * | 2017-04-17 | 2019-07-16 | Essential Products, Inc. | Troubleshooting voice-enabled home setup |
US10353480B2 (en) * | 2017-04-17 | 2019-07-16 | Essential Products, Inc. | Connecting assistant device to devices |
US10176807B2 (en) * | 2017-04-17 | 2019-01-08 | Essential Products, Inc. | Voice setup instructions |
US10647332B2 (en) * | 2017-09-12 | 2020-05-12 | Harman International Industries, Incorporated | System and method for natural-language vehicle control |
DE102017011498B4 (de) | 2017-12-13 | 2022-08-18 | Mercedes-Benz Group AG | Verfahren zum Betreiben eines Assistenzsystems und ein Assistenzsystem für einen Kraftwagen |
US11273836B2 (en) * | 2017-12-18 | 2022-03-15 | Plusai, Inc. | Method and system for human-like driving lane planning in autonomous driving vehicles |
FR3075427A1 (fr) * | 2017-12-18 | 2019-06-21 | Orange | Assistant vocal |
DE102018202780A1 (de) * | 2018-02-23 | 2019-08-29 | Bayerische Motoren Werke Aktiengesellschaft | Vorrichtung und Verfahren zum Betreiben eines zumindest teilweise automatisiert fahrbaren Fahrzeugs |
US10496366B2 (en) | 2018-04-18 | 2019-12-03 | Comcast Cable Communications, Llc | Method to determine intended direction of a vocal command and target for vocal interaction |
CN110543230A (zh) * | 2018-05-28 | 2019-12-06 | 广州彩熠灯光有限公司 | 基于虚拟现实的舞台灯光元素的设计方法及设计系统 |
DE102018210528A1 (de) | 2018-06-27 | 2020-01-02 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Betreiben eines Dialogsystems |
JP6962878B2 (ja) * | 2018-07-24 | 2021-11-05 | 本田技研工業株式会社 | 操作補助システムおよび操作補助方法 |
DE102018215293A1 (de) * | 2018-09-07 | 2020-03-12 | Bayerische Motoren Werke Aktiengesellschaft | Multimodale Kommunikation mit einem Fahrzeug |
KR20200071841A (ko) * | 2018-12-03 | 2020-06-22 | 현대자동차주식회사 | 차량용 음성명령어 처리 장치 및 그 방법 |
CN109703567A (zh) * | 2019-01-25 | 2019-05-03 | 安徽酷哇机器人有限公司 | 车辆控制方法 |
CN109976515B (zh) * | 2019-03-11 | 2023-07-07 | 阿波罗智联(北京)科技有限公司 | 一种信息处理方法、装置、车辆及计算机可读存储介质 |
DE102019003785A1 (de) | 2019-05-29 | 2020-01-02 | Daimler Ag | Verfahren zum Betrieb eines Fahrzeugs |
DE102019210144A1 (de) * | 2019-07-10 | 2021-01-14 | Zf Friedrichshafen Ag | Kombination von Sensorsystemen im Fahrzeug zum Verbessern des Erkennens von Nutzerbefehlen |
CN110727346B (zh) * | 2019-09-24 | 2022-09-23 | 中国第一汽车股份有限公司 | 一种人机交互方法、装置、车辆及存储介质 |
US11972095B2 (en) * | 2021-03-23 | 2024-04-30 | Microsoft Technology Licensing, Llc | Voice assistant-enabled client application with user view context and multi-modal input support |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050134117A1 (en) * | 2003-12-17 | 2005-06-23 | Takafumi Ito | Interface for car-mounted devices |
DE102008051756A1 (de) | 2007-11-12 | 2009-05-14 | Volkswagen Ag | Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen |
US20100228612A1 (en) * | 2009-03-09 | 2010-09-09 | Microsoft Corporation | Device transaction model and services based on directional information of device |
US20100274480A1 (en) | 2009-04-27 | 2010-10-28 | Gm Global Technology Operations, Inc. | Gesture actuated point of interest information systems and methods |
DE102010002741A1 (de) | 2010-03-10 | 2011-09-15 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Betreiben eines Informationssystems, Benutzervorrichtung und Informationssystem |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9513744B2 (en) * | 1994-08-15 | 2016-12-06 | Apple Inc. | Control systems employing novel physical controls and touch screens |
US7489303B1 (en) * | 2001-02-22 | 2009-02-10 | Pryor Timothy R | Reconfigurable instrument panels |
US7527288B2 (en) * | 1995-06-07 | 2009-05-05 | Automotive Technologies International, Inc. | Vehicle with crash sensor coupled to data bus |
US6614422B1 (en) * | 1999-11-04 | 2003-09-02 | Canesta, Inc. | Method and apparatus for entering data using a virtual input device |
US6545670B1 (en) * | 1999-05-11 | 2003-04-08 | Timothy R. Pryor | Methods and apparatus for man machine interfaces and related activity |
US6710770B2 (en) * | 2000-02-11 | 2004-03-23 | Canesta, Inc. | Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device |
US7920102B2 (en) * | 1999-12-15 | 2011-04-05 | Automotive Technologies International, Inc. | Vehicular heads-up display system |
US6498970B2 (en) * | 2001-04-17 | 2002-12-24 | Koninklijke Phillips Electronics N.V. | Automatic access to an automobile via biometrics |
JP2006015436A (ja) * | 2004-06-30 | 2006-01-19 | Honda Motor Co Ltd | 監視ロボット |
JP4755556B2 (ja) * | 2006-09-04 | 2011-08-24 | クラリオン株式会社 | 車載装置 |
US7937667B2 (en) * | 2006-09-27 | 2011-05-03 | Donnelly Corporation | Multimedia mirror assembly for vehicle |
US8451108B2 (en) | 2007-10-12 | 2013-05-28 | Mitsubishi Electric Corporation | On-vehicle information providing device |
WO2009118183A2 (de) * | 2008-03-26 | 2009-10-01 | Ident Technology Ag | System und verfahren zur multidimensionalen gestenauwertung |
US20090319166A1 (en) * | 2008-06-20 | 2009-12-24 | Microsoft Corporation | Mobile computing services based on devices with dynamic direction information |
DE102009008041A1 (de) | 2009-02-09 | 2010-08-12 | Volkswagen Ag | Verfahren zum Betrieb eines Kraftfahrzeuges mit einem Touchscreen |
DE102009037835B4 (de) | 2009-08-18 | 2012-12-06 | Metaio Gmbh | Verfahren zur Darstellung von virtueller Information in einer realen Umgebung |
DE102009059981A1 (de) | 2009-12-22 | 2011-06-30 | Volkswagen AG, 38440 | Verfahren zum Anzeigen einer Mehrzahl auswählberer Elemente und Vorrichtung zum Durchführen des Verfahrens |
US8296151B2 (en) * | 2010-06-18 | 2012-10-23 | Microsoft Corporation | Compound gesture-speech commands |
DE202012005255U1 (de) * | 2012-05-29 | 2012-06-26 | Youse Gmbh | Bedienvorrichtung mit einer Gestenüberwachungseinheit |
US9092394B2 (en) * | 2012-06-15 | 2015-07-28 | Honda Motor Co., Ltd. | Depth based context identification |
DE102012013503B4 (de) | 2012-07-06 | 2014-10-09 | Audi Ag | Verfahren und Steuerungssystem zum Betreiben eines Kraftwagens |
-
2012
- 2012-07-06 DE DE102012013503.3A patent/DE102012013503B4/de active Active
-
2013
- 2013-07-08 EP EP13736484.0A patent/EP2870430B1/de active Active
- 2013-07-08 CN CN201380035025.9A patent/CN104412068A/zh active Pending
- 2013-07-08 US US14/412,213 patent/US9493169B2/en active Active
- 2013-07-08 WO PCT/EP2013/002001 patent/WO2014005722A1/de active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050134117A1 (en) * | 2003-12-17 | 2005-06-23 | Takafumi Ito | Interface for car-mounted devices |
DE102008051756A1 (de) | 2007-11-12 | 2009-05-14 | Volkswagen Ag | Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen |
US20100228612A1 (en) * | 2009-03-09 | 2010-09-09 | Microsoft Corporation | Device transaction model and services based on directional information of device |
US20100274480A1 (en) | 2009-04-27 | 2010-10-28 | Gm Global Technology Operations, Inc. | Gesture actuated point of interest information systems and methods |
DE102010002741A1 (de) | 2010-03-10 | 2011-09-15 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Betreiben eines Informationssystems, Benutzervorrichtung und Informationssystem |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9493169B2 (en) | 2012-07-06 | 2016-11-15 | Audi Ag | Method and control system for operating a motor vehicle |
Also Published As
Publication number | Publication date |
---|---|
CN104412068A (zh) | 2015-03-11 |
EP2870430A1 (de) | 2015-05-13 |
DE102012013503B4 (de) | 2014-10-09 |
US9493169B2 (en) | 2016-11-15 |
US20150336588A1 (en) | 2015-11-26 |
DE102012013503A1 (de) | 2014-01-09 |
EP2870430B1 (de) | 2016-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2870430B1 (de) | Verfahren und steuerungssystem zum betreiben eines kraftwagens | |
EP3027484B1 (de) | Verfahren zum nutzen eines kommunikationsendgeräts in einem kraftfahrzeug beim aktivierten autopiloten und kraftfahrzeug | |
EP3256353B1 (de) | Verfahren und vorrichtung zum überwachen eines sich in einem autonomen betriebsmodus und auf einem parkplatz befindenden fahrzeugs | |
EP1658200B1 (de) | Fahrzeugsystem | |
EP3630569B1 (de) | Verfahren zum betreiben eines kraftfahrzeugs sowie ein kraftfahrzeug | |
EP2744106B1 (de) | Einrichtung und Verfahren zur automatischen Anpassung der Lautstärke von Geräuschen in einem Fahrzeuginnenraum | |
WO2013029726A1 (de) | Kraftfahrzeug | |
DE102014225383A1 (de) | Verfahren zum Betreiben eines Kraftfahrzeugs, Kraftfahrzeug | |
DE102009034068A1 (de) | Bedienvorrichtung für ein Kraftfahrzeug | |
DE102013018966A1 (de) | Verfahren zum Betreiben eines Displays beim Umschalten eines Kraftfahrzeugs von einem automatischen in einen manuellen Fahrmodus, Fahrerassistenzeinrichtung und Kraftfahrzeug | |
DE102014013960A1 (de) | Verfahren zum Betreiben wenigstens einer Fahrerassistenzeinrichtung eines Kraftwagens und System mit einer Fahrerassistenzeinrichtung | |
DE102009029117A1 (de) | Verfahren zum Unterstützen eines Fahrbetriebs eines Kraftfahrzeugs sowie Fahrerassistenzvorrichtung | |
DE102013011311B4 (de) | Verfahren zum Betreiben eines Informationssystems eines Kraftwagens und Informationssystem für einen Kraftwagen | |
EP2744105B1 (de) | Einrichtung und Verfahren zur automatischen Anpassung der Lautstärke von Geräuschen in einem Fahrzeuginnenraum | |
DE102016007483B4 (de) | Verfahren zum Steuern mindestens einer Kraftfahrzeugkomponente sowie ein System umfassend ein Kraftfahrzeug und eine anziehbare Vorrichtung | |
DE102014203138A1 (de) | Fahrerassistenzsystem für ein Kraftfahrzeug und Verfahren zur Assistenz eines Kraftfahrzeug-Fahrers | |
DE102017202051B4 (de) | Bedieneinrichtung für ein Kraftfahrzeug und Verfahren zum Betrieb einer Bedieneinrichtung | |
DE102015214802A1 (de) | Verfahren und Vorrichtung zum Leiten eines Fahrzeugs | |
DE102012211368A1 (de) | Verfahren zur Unterstützung eines Fahrers eines Fahrzeugs mit einem Fahrassistenzsystem | |
DE102017210221A1 (de) | Verfahren zur Längs- und Querführung eines Kraftfahrzeugs | |
DE102011016080A1 (de) | Verfahren zum fahrerspezifischen Konfigurieren einer Mansch-Maschine-Schnittstelle in einem Kraftfahrzeug sowie Fahrerassistenzsystem | |
DE102019003785A1 (de) | Verfahren zum Betrieb eines Fahrzeugs | |
DE102014211834A1 (de) | Verfahren und Vorrichtung zum Korrigieren eines Regelparameters für eine automatische Geschwindigkeitsregeleinrichtung eines Fahrzeugs | |
DE102004057797A1 (de) | System und Verfahren zur Positions-/Ausrichtungs-Überwachung eines Kraftfahrzeuges | |
WO2019048623A1 (de) | Assistenzsystem für ein fahrzeug |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 13736484 Country of ref document: EP Kind code of ref document: A1 |
|
DPE2 | Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101) | ||
WWE | Wipo information: entry into national phase |
Ref document number: 2013736484 Country of ref document: EP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 14412213 Country of ref document: US |