WO2019053200A1 - Verfahren zur ausgabe von informationen zu einem objekt eines fortbewegungsmittels, system und automobil - Google Patents
Verfahren zur ausgabe von informationen zu einem objekt eines fortbewegungsmittels, system und automobil Download PDFInfo
- Publication number
- WO2019053200A1 WO2019053200A1 PCT/EP2018/074906 EP2018074906W WO2019053200A1 WO 2019053200 A1 WO2019053200 A1 WO 2019053200A1 EP 2018074906 W EP2018074906 W EP 2018074906W WO 2019053200 A1 WO2019053200 A1 WO 2019053200A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- user
- specific settings
- locomotion
- viewing direction
- predefined
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 230000033001 locomotion Effects 0.000 title claims abstract description 24
- 230000004044 response Effects 0.000 claims abstract description 6
- 238000009423 ventilation Methods 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 description 8
- 238000011161 development Methods 0.000 description 5
- 230000018109 developmental process Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000003993 interaction Effects 0.000 description 3
- 238000004378 air conditioning Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000004397 blinking Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000000193 eyeblink Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/149—Instrument input by detecting viewing direction not otherwise provided for
Definitions
- the present invention relates to a method for outputting information about an object of a vehicle, a system and an automobile.
- Windtop function center or the roof-mounted operating device, via which a multiplicity of different functions, such as reading lights, interior light, control of the sunroof and an emergency call button, are controllable
- vehicles have a screen operating system via which the user has an increasing number of settings and functions
- means of locomotion have means for recognizing the driver's gaze and / or head direction, which is possible, for example, via a camera.
- haptic controls cause increased material costs and provide a
- An operation via a menu of an output device has the disadvantage that with increasing functionality of the menu tree grows and finding the settings for the user is difficult and increasingly takes time, which in turn endangers the driving safety .
- an external display device such as a data goggles, is known, whose orientation is determined with respect to a component of a means of locomotion. With regard to the component, a state, for example a resource level, can be output on the display device.
- the disadvantage here is that the user needs such a display device, such as an expensive data glasses, which is particularly disturbing when driving.
- the present invention relates to a method for outputting specific settings to an object of a means of locomotion.
- object of a means of locomotion is understood to be any object which is a component or a part of the means of locomotion.
- Such an object may be a roof control device and / or a
- Temperature controls and / or an outside mirror and / or a ventilation of the means of locomotion and / or other objects of the means of locomotion which may be adjustable by a user and / or may have predefined settings.
- “Specific settings” may include any settings relating to said objects which can be set by a user and / or predefined, for example, a seat temperature and / or a temperature are conceivable Interior temperature and / or a light setting, in particular "on” or “off”, and / or a light intensity and / or mirror settings and / or seat settings and / or sunroof settings, in particular "open” or "closed", and / or radio settings and / or steering wheel settings.
- Automobiles especially cars and / or trucks, and / or aircraft and / or ships and / or motorcycles in question.
- the method according to the invention comprises determining a viewing direction of a user.
- the viewing direction for example, based on a
- a stereo camera and / or an infrared camera in particular with two infrared diodes, and / or via an RGB webcam image.
- determining a line of sight via 2D images and by means of an evaluation unit for example a microcontroller or a CPU, can be taught via an e-learning algorithm.
- the respective "learned" 2D images can then be stored on a memory of the means of locomotion and retrieved by the evaluation unit.
- the recognition can be a
- predefined period of time in particular 0.5 to 6 seconds, in which the user views the object.
- time span can be increased.
- a predefined multiple focusing of the object by the user can also trigger recognition.
- the aforesaid possibilities of recognition can be done, for example, by reference. In other words, in the means of transportation by the attention of the User can be recognized for an object, whether he wants to receive an output of specific settings for the object or not.
- Output device may include, for example, a central information display. Furthermore, the output device can also be an acoustic
- Output device e.g. a speaker.
- the user receives in a simple way as needed the opportunity to check the specific settings with respect to the object and / or adjust if necessary.
- a complex selection by e.g. a menu tree of a display to see specific settings.
- An associated distraction of the user is therefore avoided, since the user has the environment, in particular the traffic, better in view, as if he only see on a display and possibly understand its operating logic first and / or has to look through. This time, the user wins in contrast to the described conventional interactions with the
- the method according to the invention allows a simple, intuitive and ergonomic user interaction with a means of locomotion with regard to specific settings of an object of the same.
- the method according to the invention comprises the step of
- the setting mode can, for example, via a dedicated Button, which already appears when the specific settings are output. Furthermore, the setting mode can also be activated via a voice input.
- the adjustment mode can be
- Configuration menu and / or a control menu include.
- Setting mode can be specific settings such as a
- Roof control elements in particular an emergency call function and / or a
- Opening mode of a sunroof e.g., closed / open or a
- Opening height and / or opening width) and / or a seat temperature and / or an interior temperature for example via a voice input and / or a manual input and / or antrainierbare pattern selected and / or changed.
- Antrainable patterns can be detected by the above-described techniques for detecting and recognizing freely recognizable in space finger gestures, such as a pinch and / or spread gesture and / or
- Tip gesture and / or a handle gesture include.
- an interior temperature can be reduced via a pinch gesture carried out in the room.
- the interior temperature can be increased by a free in space carried out spread gesture.
- the antrainage of head gestures such as a head shake and / or an eye blink for operating the edit mode, is also possible via an e-learning algorithm. It is conceivable here that the seat temperature is increased by a predefined value, such as 2 ° C., by a multiple, for example three times, eye blinking.
- the method according to the invention further comprises the step of masking out the specific settings of the object after a predefined period of time and / or masking out the specific settings in response to a recognition that another object lies in the viewing direction of the user.
- the predefined period may be 2 to 10 seconds, preferably 5 to 7 and particularly preferably 6 seconds.
- Roof control device received. For example, it suffices to detect the roof control device by his gaze, which in turn is recognized.
- Output device hidden and the specific settings of the roof control device are output by the output device.
- the user has, for example, the ability to quickly and conveniently switch between different outputs of specific settings relating to different objects.
- the inventive method comprises outputting, which takes place after a predefined period of time and / or as a function of a predefined workload of the user and / or after a predefined number of focusing operations, for example based on a reference.
- the time period which is stored for example in the reference, for example, 1 to 10 seconds, preferably 1 to 3
- Seconds or more preferably 1 to 2 seconds. This avoids that specific settings happen to happen in the
- the output can occur depending on a predefined workload. For example, if the user is on the phone and / or is in a particularly hectic traffic situation, for example because of an accident, the output, for example based on the reference, can be inhibited so as not to distract the user further.
- the traffic situation can
- a predefined number of focusing operations of the object may be determined until the specific settings are output on the output device.
- the output of the specific settings can be made three times, preferably after two recognizing the user's gaze directed to the object.
- the reference can be stored for example in a memory of the means of transport.
- the object comprises a
- Roof control device and / or a temperature controller and / or a
- Exterior mirrors and / or ventilation of the means of locomotion and / or an air conditioning control and / or other objects of the means of locomotion which may be adjustable by a user and / or may have predefined settings.
- the determination of the viewing direction is carried out via an infrared camera and / or a stereo camera, in particular with two infrared diodes, and / or via an RGB webcam image which, as described above, is evaluated.
- the viewing direction can be determined on the basis of an eye position and / or on the basis of a rotation angle of the user's head and / or on the basis of a tilt angle of the user's head. Furthermore, the viewing direction can be determined using a predefined head gesture. In this case, for example, a jerky head movement in the direction of an object can involve a recognition trigger this object. As a result, intuitive control is possible with respect to outputting the specific settings of the various objects.
- the inventive method further comprises the step of acknowledging an input of the user for a reduction of an energy requirement of the recognition of the viewing direction.
- the input may include, for example, a voice input as described above and / or manual input and / or a gesture input.
- the acknowledgment may be, for example, by an acoustic and / or visual and / or tactile
- An acoustic feedback can, for example, a voice output "determining the
- visual feedback may include this indication on the output device in the form of a pop-up window
- a tactile feedback may include, for example, vibration of the steering wheel and / or accelerator pedal.
- the output device comprises a head-up display (HUD) and / or a central information display (CID) and / or an instrument cluster and / or an acoustic output device.
- HUD head-up display
- CID central information display
- acoustic output unit is in particular a speaker and / or headphones into consideration.
- the acoustic output device can in this case refer to speech patterns which are stored on the memory. Such speech patterns contain
- Wireless communication for example via an Internet server, related.
- the present invention comprises a system for outputting specific settings of an object of a means of locomotion arranged to carry out a method according to the first aspect of the invention.
- a system may comprise, for example, a data input, for example a stereo camera and / or an infrared camera and / or an RGB webcam, by means of which a detection of a viewing direction with respect to the object is recorded.
- the system can comprise an evaluation unit, in particular a microcontroller and / or a CPU, via which data incoming through the data input is processed. If the evaluation unit recognizes an object in the field of view of the user, specific settings from a memory to the
- a data output is, for example, a HUD on which the specific settings are visibly output for the user.
- the present invention comprises an automobile incorporating a system according to the second aspect.
- FIG. 1 shows a flowchart of an embodiment of the invention
- FIG. 2 shows an embodiment of an automobile according to the invention
- FIG. 3a shows a representation of the step of determining a person
- FIG. 3b shows a representation of the step of recognizing a
- Figure 3c is a representation of the step of issuing a
- the inventive method is based on an embodiment of FIG.
- a first step 100 the viewing direction 8 of the user 3 of a means of locomotion 10 is determined, which takes place via a stereo camera 2.
- an object in particular an overhead operating device 4
- his gaze which is determined on the basis of the inclination angle and the angle of rotation and the eye position of the occupant, lingers on the roof operating device 4
- Fig. 2 illustrates an embodiment of an automobile according to the invention.
- Roof control device 4 which is characterized in its viewing direction 8.
- a stereo camera 2 determines the viewing direction 8 of the user
- Evaluation unit 5 which is set up to refer, for example, to a reference which is stored on a memory 6, can be recognized, for example, after 2 seconds, that the user 3 the
- Roof control device 4 has deliberately focused.
- the evaluation unit 5 is set up to output specific settings to the
- FIG. 3a shows a depiction of an embodiment of the step of detecting 100 of the method according to the invention.
- the view through the windscreen from the user or driver's perspective is shown.
- the user 3 is interested in the specific settings of the
- Sunroof 12 and the view of the user 3 then turns away from the street 1 1.
- the view of the user 3 is aimed at the
- Roof control device 4 which is indicated by a dashed arrow.
- the change in the viewing direction 8 is determined on the basis of the tilt and the rotation angle of the head using a stereo camera 2. Meanwhile, the central information display 1 of the vehicle 10 shows only a navigation map.
- 3b illustrates an embodiment of the step of recognizing 200 of the method according to the invention.
- the stereo camera 2 recognizes on the basis of the evaluation unit 5 (see Fig. 2), as described above, that the view of the
- FIG. 3c illustrates a depiction of an embodiment of outputting 300 specific settings, here an adjustment of the sunroof 12, on a central information display 1 in response to the step of recognition 200.
- the central information display 1 includes a button 13 for manually invoking a setting mode of the sunroof.
- the button 13 can bear, for example, the label "Settings”.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Multimedia (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Mechanical Engineering (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Ausgabe spezifischer Einstellungen zu einem Objekt eines Fortbewegungsmittels (10) umfassend die Schritte: ∙ Ermitteln (100) einer Blickrichtung (8) eines Anwenders (3); ∙ Erkennen (200), dass das Objekt in der Blickrichtung (8) liegt und im Ansprechen darauf ∙ Ausgeben (300) spezifischer Einstellungen des Objekts mittels einer Ausgabeeinrichtung des Fortbewegungsmittels (10).
Description
Verfahren zor Ausgabe von Informationen zu einem Objekt eines Fortbewegungsmittels, System und Automobil
Beschreibung
Die vorliegende Erfindung betrifft ein Verfahren zur Ausgabe von Informationen zu einem Objekt eines Fortbewegungsmittels, ein System und ein Automobil.
Heutzutage besitzen Fortbewegungsmittel eine gro ße Anzahl elektronischer Komponenten, welche vom Anwender bzw. Fahrer direkt über entsprechende Steuerungselemente eingestellt werden können. Ein Beispiel ist das
„Funktionszentrum Dach" bzw. die Dachbedienvorrichtung, über welche eine Vielzahl unterschiedlicher Funktionen, wie etwa Leseleuchten, Innenlicht, Steuerung des Schiebedachs und eine Notruftaste steuerbar sind. Weiterhin besitzen Fahrzeuge ein Bildschirm-Bediensystem, über das der Anwender eine zunehmende Zahl von Einstellungen und Funktionen mithilfe eines Menüs steuern kann. Weiterhin besitzen Fortbewegungsmittel Einrichtungen zur Erkennung der Blick- und/oder Kopfrichtung des Fahrers, was beispielsweise über eine Kamera möglich ist.
Allerdings ist eine Bedienung direkt an der Komponente in vielen Fällen nicht optimal hinsichtlich der Sichtbarkeit (z.B. Tastenbeschriftung), Ergonomie (Erreichbarkeit) und Bedienbarkeit während der Fahrt. Weiterhin verursachen haptische Bedienelemente erhöhte Materialkosten und bieten einen
eingeschränkten Funktionsumfang. Eine Bedienung über ein Menü einer Ausgabeeinrichtung, z.B. eines Touch-Displays, hat den Nachteil, dass mit zunehmendem Funktionsumfang der Menübaum wächst und das Auffinden der Einstellungen für den Anwender nur noch schwer möglich ist und zunehmend Zeit in Anspruch nimmt, was wiederum die Fahrsicherheit gefährdet.
Aus der DE10 2015 208 494 A1 ist eine externe Anzeigeeinrichtung, wie etwa eine Datenbrille, bekannt, deren Ausrichtung bezüglich einer Komponente eines Fortbewegungsmittels ermittelt wird. Hinsichtlich der Komponente kann ein Zustand, beispielsweise ein Betriebsmittelfüllstand, auf der Anzeigeeinrichtung ausgegeben werden. Nachteilig ist hierbei, dass der Anwender eine derartige Anzeigeeinrichtung, beispielsweise eine teure Datenbrille benötigt, welche insbesondere bei der Fahrt störend ist.
Ausgehend vom vorgenannten Stand der Technik ist es daher Aufgabe der vorliegenden Erfindung, ein Verfahren anzugeben, welches eine einfache, intuitive und ergonomische Anwenderinteraktion mit einem Fortbewegungsmittel hinsichtlich einer Ausgabe spezifischer Einstellungen zu einem Objekt desselben ermöglicht. Au ßerdem ist es Aufgabe der vorliegenden Erfindung, ein System bereitzustellen, welches eingerichtet ist, dieses Verfahren auszuführen sowie ein Automobil anzugeben, welches das System umfasst.
Offenbarung der Erfindung
Die vorgenannte Aufgabe wird erfindungsgemäß durch den Gegenstand des Anspruches 1 gelöst. Gemäß einem ersten Aspekt betrifft die vorliegende Erfindung ein Verfahren zur Ausgabe spezifischer Einstellungen zu einem Objekt eines Fortbewegungsmittels. Als„Objekt eines Fortbewegungsmittels" wird im Rahmen der vorliegenden Erfindung jegliches Objekt verstanden, welches eine Komponente bzw. ein Teil des Fortbewegungsmittels ist.
Ein derartiges Objekt kann eine Dachbedienvorrichtung und/oder einen
Temperaturregler und/oder einen Außenspiegel und/oder eine Lüftung des Fortbewegungsmittels und/oder sonstige Objekte des Fortbewegungsmittels, welche durch einen Anwender einstellbar sein können und/oder vordefinierte Einstellungen aufweisen können, umfassen.„Spezifische Einstellungen" können jegliche Einstellungen bezüglich der genannten Objekte umfassen, welche z.B. durch einen Anwender eingestellt werden können und/oder vordefiniert sein können. Denkbar sind hierbei eine Sitztemperatur und/oder eine
Innenraumtemperatur und/oder eine Lichteinstellung, insbesondere„an" oder „aus", und/oder eine Lichtintensität und/oder Spiegeleinstellungen und/oder Sitzeinstellungen und/oder Schiebedacheinstellungen, insbesondere„auf" oder „zu", und/oder Radioeinstellungen und/oder Lenkradeinstellungen.
Als Fortbewegungsmittel im Sinne der Erfindung kommen zum Beispiel
Automobile, insbesondere PKW und/oder LKW, und/oder Flugzeuge und/oder Schiffe und/oder Motorräder infrage.
Das erfindungsgemäße Verfahren umfasst ein Ermitteln einer Blickrichtung eines Anwenders. Hierbei kann die Blickrichtung beispielsweise anhand eines
Neigewinkels eines Kopfes des Anwenders und/oder anhand eines Drehwinkels des Kopfes des Anwenders und/oder anhand einer Augenposition des
Anwenders ermittelt werden. Dies ist beispielsweise über eine Stereokamera und/oder eine Infrarotkamera, insbesondere mit zwei Infrarotdioden, und/oder über ein RGB-Webcam-Bild möglich. Im letzteren Fall kann beispielsweise ein Ermitteln einer Blickrichtung über 2D-Bilder und anhand einer Auswerteeinheit, beispielsweise eines MikroControllers oder einer CPU, über einen e-Learning- Algorithmus angelernt werden. Die jeweiligen„angelernten" 2D-Bilder können dann auf einem Speicher des Fortbewegungsmittels abgelegt und durch die Auswerteinheit abgerufen werden.
In einem weiteren Schritt des erfindungsgemäßen Verfahrens erfolgt ein
Erkennen, dass das Objekt in der Blickrichtung liegt. Hierdurch wird vermieden, dass ein zufälliges Erfassen des Objekts durch den Blick des Anwenders eine Ausgabe spezifischer Einstellungen auslöst. Das Erkennen kann eine
vordefinierte Zeitspanne, insbesondere 0,5 bis 6 Sekunden, umfassen, in welcher der Anwender das Objekt ansieht. Beispielsweise kann in einer weniger hektischen Verkehrssituation die Zeitspanne heraufgesetzt werden. Weiterhin kann ein vordefiniertes mehrmaliges Fokussieren des Objektes durch den Anwender ebenso ein Erkennen auslösen. Die vorgenannten Möglichkeiten des Erkennens können beispielsweise anhand einer Referenz erfolgen. Mit anderen Worten kann im Fortbewegungsmittel anhand der Aufmerksamkeit der
Anwenders für ein Objekt erkannt werden, ob dieser eine Ausgabe spezifischer Einstellungen zu dem Objekt erhalten will oder nicht.
In einem nächsten Schritt erfolgt ein Ausgeben spezifischer Einstellungen zu dem Objekt, das als in der Blickrichtung des Anwenders liegend erkannt wurde, mittels einer Ausgabeeinrichtung des Fortbewegungsmittels. Die
Ausgabeeinrichtung kann beispielsweise ein zentrales Informationsdisplay umfassen. Weiterhin kann die Ausgabeeinrichtung auch eine akustische
Ausgabeeinrichtung, z.B. einen Lautsprecher, umfassen. Anhand dieser ausgegebenen spezifischen Einstellungen erhält der Anwender auf eine einfache Weise bedarfsgerecht die Möglichkeit, die spezifischen Einstellungen in Bezug auf das Objekt zu überprüfen und/oder gegebenenfalls zu verstellen. Durch das erfindungsgemäße Verfahren entfällt eine aufwändige Anwahl durch z.B. einen Menübaum eines Displays, um spezifische Einstellungen einzusehen. Eine damit verbundene Ablenkung des Anwenders wird also vermieden, da der Anwender die Umgebung, insbesondere den Verkehr, besser im Blick hat, als wenn er lediglich auf ein Display sehen und gegebenenfalls dessen Bedienlogik zunächst nachvollziehen und/oder durchschauen muss. Diese Zeit gewinnt der Anwender im Gegensatz zur beschriebenen herkömmlichen Interaktionen mit dem
Fortbewegungsmittel. Ein derartiger Zeitgewinn hilft dem Anwender
beispielsweise, adäquat auf eine Verkehrssituation reagieren zu können, wodurch das Verfahren zudem zeiteffizient ist. Ferner ist die Erreichbarkeit (im Sinne der Ergonomie) bezüglich der Ausgabe der spezifischen Einstellungen durch das Ermitteln und Erkennen der Blickrichtung begünstigt.
Demensprechend wird durch das erfindungsgemäße Verfahren eine einfache, intuitive und ergonomische Anwenderinteraktion mit einem Fortbewegungsmittel hinsichtlich spezifischer Einstellungen eines Objekts desselben ermöglicht.
Die Unteransprüche haben vorteilhafte Weiterbildungen zum Inhalt.
Vorteilhaft umfasst das erfindungsgemäße Verfahren den Schritt eines
Einblendens eines Einstellmodus' für die spezifischen Einstellungen des Objekts. Der Einstellmodus kann beispielsweise über eine dafür vorgesehene
Schaltfläche, welche bereits beim Ausgeben der spezifischen Einstellungen erscheint, aufgerufen werden. Weiterhin kann der Einstellmodus ebenso über eine Spracheingabe aktiviert werden. Der Einstellmodus kann ein
Konfigurationsmenü und/oder ein Bedienmenü umfassen. Durch den
Einstellmodus können spezifische Einstellungen wie beispielsweise eine
Außenspiegeleinstellung und/oder eine Konfiguration eines Homescreens und/oder eine Lichtintensität einer Innenraumbeleuchtung und/oder
Dachbedienelemente, insbesondere eine Notruffunktion und/oder ein
Öffnungsmodus eines Schiebedachs (z.B. geschlossen/offen oder eine
Öffnungshöhe und/oder Öffnungsweite) und/oder eine Sitztemperatur und/oder eine Innenraumtemperatur beispielsweise über eine Spracheingabe und/oder eine manuelle Eingabe und/oder über antrainierbare Muster angewählt und/oder verändert werden. Antrainierbare Muster können hierbei durch die oben beschriebenen Techniken zum Ermitteln und Erkennen frei im Raum erkennbare Fingergesten, wie etwa eine Pinchgeste und/oder Spreadgeste und/oder
Tippgeste und/oder eine Griffgeste, umfassen. Beispielsweise kann über eine frei im Raum ausgeführte Pinchgeste eine Innenraumtemperatur verringert werden. Außerdem kann die Innenraumtemperatur durch eine frei im Raum ausgeführte Spreadgeste erhöht werden. Weiterhin ist auch über einen e-Learning- Algorithmus das Antrainieren von Kopfgesten, wie etwa ein Kopfschütteln und/oder ein Augenblinzeln zur Bedienung des Editiermodus' möglich. Denkbar ist hierbei, dass durch ein mehrfaches, beispielsweise dreimaliges, Augenblinzeln die Sitztemperatur um einen vordefinierten Wert, wie etwa 2 °C, erhöht wird.
In einer anderen vorteilhaften Weiterbildung umfasst das erfindungsgemäße Verfahren ferner den Schritt eines Ausblendens der spezifischen Einstellungen des Objekts nach einem vordefinierten Zeitraum und/oder eines Ausblendens der spezifischen Einstellungen im Ansprechen auf ein Erkennen, dass ein weiteres Objekt in der Blickrichtung des Anwenders liegt. Der vordefinierte Zeitraum kann 2 bis 10 Sekunden, bevorzugt 5 bis 7 und besonders bevorzugt 6 Sekunden betragen. Durch die erstgenannte Variante des Ausblendens nach einem vordefinierten Zeitraum ist es möglich, eine Ausgabe spezifischer Einstellungen auf der Ausgabeeinrichtung, welche für den Anwender von Interesse sind, nur für
kurze Zeit anzuzeigen, wie beispielsweise die Innenraumtemperatur, nachdem erkannt wurde, dass eine Steuerung der Klimaanlage in der Blickrichtung des Anwenders liegt. Dass der Informationsbedarf des Anwenders hinsichtlich der spezifischen Einstellung gestillt ist, kann beispielsweise daran erkannt werden, dass der Anwender seinen Blick wieder auf die Fahrbahn richtet. Das
Ausblenden, wenn ein weiteres Objekt in der Blickrichtung des Anwenders liegt, ist dann sinnvoll, wenn der Anwender schnell und einfach eine Ausgabe spezifischer Einstellungen zu dem weiteren Objekt wünscht, wenn bereits in diesem Moment spezifische Einstellungen zu einem anderen Objekt ausgegeben werden. Ein mögliches Szenario ist beispielsweise denkbar, wenn der Anwender zunächst die Ausgabe spezifischer Einstellungen zur Innenraumtemperatur wünscht, was im Ansprechen auf ein Erkennen, dass die Klimaanlagensteuerung in seinem Blickfeld liegt, möglich ist. Im Anschluss möchte der Anwender jedoch direkt die Ausgabe der spezifischen Einstellungen bezüglich der
Dachbedienvorrichtung erhalten. Dafür genügt beispielsweise ein Erfassen der Dachbedienvorrichtung durch seinen Blick, was wiederum erkannt wird.
Daraufhin wird die Ausgabe der Innenraumtemperatur durch die
Ausgabeeinrichtung ausgeblendet und die spezifischen Einstellungen der Dachbedienvorrichtung werden durch die Ausgabeeinrichtung ausgegeben. Hierdurch hat der Anwender beispielsweise die Möglichkeit, schnell und bedarfsgerecht zwischen unterschiedlichen Ausgaben spezifischer Einstellungen bezüglich verschiedener Objekte umzuschalten.
In einer weiteren vorteilhaften Ausgestaltung umfasst das erfindungsgemäße Verfahren ein Ausgeben, das nach einer vordefinierten Zeitspanne und/oder in Abhängigkeit eines vordefinierten Workloads des Anwenders und/oder nach einer vordefinierten Anzahl von Fokussierungsvorgängen, beispielsweise anhand einer Referenz, erfolgt. Die Zeitspanne, welche beispielsweise in der Referenz hinterlegt ist, kann beispielsweise 1 bis 10 Sekunden, bevorzugt 1 bis 3
Sekunden oder besonders bevorzugt 1 bis 2 Sekunden umfassen. Dadurch wird vermieden, dass spezifische Einstellungen zu einem zufällig sich in der
Blickrichtung des Anwenders befindlichen Objekts, deren Ausgabe der Anwender nicht beabsichtigt hat, auf der Ausgabeeinrichtung ausgegeben werden.
Weiterhin kann das Ausgeben in Abhängigkeit eines vordefinierten Workloads erfolgen. Wenn der Anwender beispielsweise telefoniert und/oder eine besonders hektische Verkehrssituation vorliegt, beispielsweise aufgrund eines Unfalls, kann das Ausgeben, beispielsweise anhand der Referenz unterbunden werden, um den Anwender nicht weiter abzulenken. Die Verkehrssituation kann
beispielsweise über Radarsensoren, welche am Fortbewegungsmittel angebracht sind, erkannt werden. Weiterhin kann, beispielsweise anhand der Referenz, eine vordefinierte Anzahl von Fokussierungsvorgängen des Objektes festgelegt sein, bis die spezifischen Einstellungen auf der Ausgabeeinrichtung ausgegeben werden. Das Ausgeben der spezifischen Einstellungen kann nach dreimaligem, bevorzugt nach zweimaligem Erkennen des auf das Objekt gerichteten Blickes des Anwenders erfolgen. Die Referenz kann beispielsweise in einem Speicher des Fortbewegungsmittels hinterlegt sein.
In einer anderen vorteilhaften Ausgestaltung umfasst das Objekt eine
Dachbedienvorrichtung und/oder einen Temperaturregler und/oder einen
Außenspiegel und/oder eine Lüftung des Fortbewegungsmittels und/oder eine Klimaanlagensteuerung und/oder sonstige Objekte des Fortbewegungsmittels, welche durch einen Anwender einstellbar sein können und/oder vordefinierte Einstellungen aufweisen können.
In einer vorteilhaften Weiterbildung erfolgt das Ermitteln der Blickrichtung über eine Infrarotkamera und/oder eine Stereokamera, insbesondere mit zwei Infrarotdioden, und/oder über ein RGB-Webcam-Bild, welches, wie oben beschrieben, ausgewertet wird.
In einer vorteilhaften Weiterbildung des erfindungsgemäßen Verfahrens kann die Blickrichtung anhand einer Augenposition und/oder anhand eines Drehwinkels des Kopfes des Anwenders und/oder anhand eines Neigewinkels des Kopfes des Anwenders ermittelt werden. Weiterhin kann die Blickrichtung anhand einer vordefinierten Kopfgeste ermittelt werden. Hierbei kann beispielsweise eine ruckartige Kopfbewegung in Richtung eines Objektes ein Erkennen bezüglich
dieses Objektes auslösen. Hierdurch ist eine intuitive Steuerung bezüglich des Ausgebens der spezifischen Einstellungen der verschiedenen Objekte möglich.
In einer anderen vorteilhaften Ausgestaltung umfasst das erfindungsgemäße Verfahren ferner den Schritt eines Quittierens einer Eingabedes Anwenders für eine Reduzierung eines Energiebedarfs des Erkennens der Blickrichtung. Die Eingabe kann beispielsweise eine wie oben beschriebene Spracheingabe und/oder manuelle Eingabe und/oder eine Gesteneingabe umfassen. Hierdurch kann der Anwender beispielsweise das Ermitteln der Blickrichtung und das damit verbundene Erkennen komplett ausschalten oder nur noch für bestimmte, beispielsweise von ihm definierte, Objekte aktivieren. Die Quittierung kann beispielsweise durch eine akustische und/oder visuelle und/oder taktile
Rückmeldung seitens des Fortbewegungsmittels erfolgen. Eine akustische Rückmeldung kann beispielsweise eine Sprachausgabe„Ermitteln der
Blickrichtung aus" umfassen. Eine visuelle Rückmeldung kann beispielsweise diesen Hinweis auf der Ausgabeeinrichtung in Form eines Pop-up-Fensters umfassen. Eine taktile Rückmeldung kann beispielsweise eine Vibration des Lenkrads und/oder des Gaspedals umfassen.
Weiterhin vorteilhaft umfasst die Ausgabeeinrichtung ein Head-up Display (HUD) und/oder ein zentrales Informationsdisplay (CID) und/oder ein Kombiinstrument und/oder eine akustische Ausgabeeinrichtung. Als akustische Ausgabeeinheit kommt insbesondere ein Lautsprecher und/oder ein Kopfhörer in Betracht. Die akustische Ausgabeeinrichtung kann hierbei Sprachmuster, welche auf dem Speicher hinterlegt sind, beziehen. Derartige Sprachmuster enthalten
beispielsweise aufgenommene Informationstexte zu der spezifischen Einstellung der jeweiligen Objekte. Weiterhin können Sprachmuster über
Drahtloskommunikation, beispielsweise über einen Internetserver, bezogen werden.
Die folgenden erfindungsgemäßen Aspekte umfassen die vorteilhaften
Ausgestaltungen und Weiterbildungen sowie die generellen Vorteile der
erfindungsgemäßen Vorrichtung und die jeweils damit verbundenen technischen Effekte gleichsam, was hier zur Vermeidung von Wiederholungen erwähnt sei.
Gemäß einem zweiten Aspekt umfasst die vorliegende Erfindung ein System zur Ausgabe spezifischer Einstellungen eines Objekts eines Fortbewegungsmittels, welches eingerichtet ist, ein Verfahren gemäß dem ersten Aspekt der Erfindung durchzuführen. Ein derartiges System kann beispielsweise einen Dateneingang, beispielsweise eine Stereokamera und/oder eine Infrarotkamera und/oder eine RGB-Webcam umfassen, durch welchen ein Erkennen einer Blickrichtung in Bezug auf das Objekt aufgenommen wird. Ferner kann das System eine Auswerteeinheit, insbesondere einen MikroController und/oder eine CPU, umfassen, über welche durch den Dateneingang eingehende Daten verarbeitet werden. Wenn die Auswerteeinheit ein Objekt in dem Blickfeld des Anwenders erkennt, können spezifische Einstellungen aus einem Speicher an den
Datenausgang weitergegeben werden. Ein Datenausgang ist beispielsweise ein HUD, auf welchem die spezifischen Einstellungen für den Anwender sichtbar ausgegeben werden.
Gemäß einem dritten Aspekt umfasst die vorliegende Erfindung ein Automobil, welches ein System gemäß dem zweiten Aspekt beinhaltet.
Kurzbeschreibung der Zeichnungen
Nachfolgend werden Ausführungsbeispiele der vorliegenden Erfindung anhand der beigefügten Zeichnungen im Detail beschrieben. In den Zeichnungen ist:
Figur 1 ein Flussdiagramm einer Ausführungsform des
erfindungsgemäßen Verfahrens;
Figur 2 eine Ausführungsform eines erfindungsgemäßen Automobils;
Figur 3a eine Verbildlichung des Schrittes eines Ermitteins einer
Blickrichtung gemäß einer Ausführungsform des
erfindungsgemäßen Verfahrens;
Figur 3b eine Verbildlichung des Schrittes eines Erkennens einer
Ausführungsform des erfindungsgemäßen Verfahrens; und
Figur 3c eine Verbildlichung des Schrittes eines Ausgebens einer
Ausführungsform des erfindungsgemäßen Verfahrens.
Das erfindungsgemäße Verfahren sei anhand einer Ausführungsform gemäß Fig.
1 erläutert. In einem ersten Schritt 100 wird die Blickrichtung 8 des Anwenders 3 eines Fortbewegungsmittels 10 ermittelt, was über eine Stereokamera 2 erfolgt. Nachdem ein Objekt, insbesondere eine Dachbedienvorrichtung 4, in der Blickrichtung 8 des Anwenders 3 liegt, verweilt dessen Blick, welcher anhand des Neigewinkels und des Drehwinkels und der Augenposition des Insassen ermittelt wird, auf der Dachbedienvorrichtung 4. Nachdem der Blick des Anwenders 3 für
2 Sekunden die Dachbedienvorrichtung 4 erfasst hat, wird dies im zweiten Schritt 200 erkannt. Daraufhin werden in einem dritten Schritt 300 kausal dazu spezifische Einstellungen, welche in einem Speicher 6 des Fortbewegungsmittels 10 hinterlegt sind, auf einem zentralen Informationsdisplay 1 des
Fortbewegungsmittels 10 ausgegeben. Nachdem der Anwender 3 sich die spezifischen Einstellungen angesehen hat, ist sein Interesse befriedigt. Daraufhin wird im vierten Schritt 400 die Information nach 10 Sekunden wieder
ausgeblendet, da der Anwender 3 weder die spezifischen Einstellungen auf dem zentralen Informationsdisplay 1 noch die Dachbedienvorrichtung 4 in dieser Zeit mit seinem Blick erfasst hat.
Fig. 2 illustriert eine Ausführungsform eines erfindungsgemäßen Automobils. Der Anwender 3, welcher sich in dem Automobil befindet, sieht hierbei eine
Dachbedienvorrichtung 4 an, welche sich dadurch in seiner Blickrichtung 8 befindet. Eine Stereokamera 2 ermittelt dabei die Blickrichtung 8 des Anwenders
3 durch den Neigewinkel und den Drehwinkel seines Kopfes. Anhand einer
Auswerteeinheit 5, welche eingerichtet ist, auf beispielsweise auf eine Referenz zurückzugreifen, welche auf einem Speicher 6 hinterlegt ist, kann beispielsweise nach 2 Sekunden erkannt werden, dass der Anwender 3 die
Dachbedienvorrichtung 4 bewusst fokussiert hat. Die Auswerteeinheit 5 ist eingerichtet, das Ausgeben von spezifischen Einstellungen zu der
Dachbedienvorrichtung 4 auf dem zentralen Informationsdisplay 1 zu
veranschaulichen. Dies ist entweder anhand von Daten möglich, welche auf dem Speicher 6 hinterlegt sind oder anhand von Daten, welche durch die Antenne 7 empfangbar sind. Letztere Variante kann beispielsweise mittels einer
Internetdatenbank erfolgen.
Fig. 3a zeigt eine Verbildlichung einer Ausführungsform des Schrittes des Erfassens 100 des erfindungsgemäßen Verfahrens. Hierbei ist der Blick durch die Windschutzscheibe aus der Anwender- bzw. Fahrerperspektive gezeigt. Der Anwender 3 interessiert sich für die spezifischen Einstellungen des
Schiebedachs 12 und der Blick des Anwenders 3 wendet sich daraufhin von der Straße 1 1 ab. Der Blick des Anwenders 3 richtet sich hierbei auf die
Dachbedienvorrichtung 4, was durch einen gestrichelten Pfeil angedeutet ist. Die Veränderung der Blickrichtung 8 wird anhand des Neige- und des Drehwinkels des Kopfes anhand einer Stereokamera 2 ermittelt. Unterdessen zeigt das zentrale Informationsdisplay 1 des Fortbewegungsmittels 10 lediglich eine Navigationskarte.
Fig. 3b illustriert eine Ausführungsform des Schrittes des Erkennens 200 des erfindungsgemäßen Verfahrens. Hierbei erkennt die Stereokamera 2 anhand der Auswerteeinheit 5 (s. Fig. 2), wie oben beschrieben, dass der Blick des
Anwenders 3 die Dachbedienvorrichtung 4 für 2 Sekunden erfasst hat und er daher Interesse an der Ausgabe an den damit verbundenen spezifischen Einstellungen hat.
Fig. 3c illustriert eine Verbildlichung einer Ausführungsform des Ausgebens 300 spezifischer Einstellungen, hier eine Einstellung des Schiebedachs 12, auf einem zentralen Informationsdisplay 1 im Ansprechen auf den Schritt des Erkennens
200. Das zentrale Informationsdisplay 1 enthält eine Schaltfläche 13 zum manuellen Aufrufen eines Einstellmodus' des Schiebedachs. Die Schaltfläche 13 kann z.B. die Beschriftung„Einstellungen" tragen.
Bezugszeichenliste:
1 Zentrales Informationsdisplay
2 Stereokamera
3 Anwender
4 Dachbedienvorrichtung
5 Auswerteeinheit
6 Speicher
7 Antenne
8 Blickrichtung
10 Fortbewegungsmittel
1 1 Straße
12 Einstellungen des Schiebedachs
13 Schaltfläche
100-400 Verfahrensschritte
Claims
1 . Verfahren zur Ausgabe spezifischer Einstellungen zu einem Objekt eines Fortbewegungsmittels (10) umfassend die Schritte:
• Ermitteln (100) einer Blickrichtung (8) eines Anwenders (3);
• Erkennen (200), dass das Objekt in der Blickrichtung (8) liegt und im Ansprechen darauf
• Ausgeben (300) spezifischer Einstellungen des Objekts mittels einer Ausgabeeinrichtung des Fortbewegungsmittels (10).
2. Verfahren nach Anspruch 1 ferner umfassend den Schritt eines
Einblendens eines Einstellmodus' für die spezifischen Einstellungen des Objekts.
3. Verfahren nach Anspruch 1 oder 2 ferner umfassend den Schritt
• eines Ausblendens (400) der spezifischen Einstellungen des
Objekts nach einem vordefinierten Zeitraum und/oder
• des Ausblendens im Ansprechen auf ein Erkennen, dass ein
weiteres Objekt in der Blickrichtung (8) des Anwenders (3) liegt.
4. Verfahren nach einem der vorstehenden Ansprüche, wobei das Ausgeben (300)
• nach einer vordefinierten Zeitspanne und/oder
• in Abhängigkeit eines vordefinierten Workloads des Anwenders (3) und/oder
• nach einer Anzahl von vordefinierten Fokussierungsvorgängen erfolgt.
5. Verfahren nach einem der vorstehenden Ansprüche, wobei das Objekt eine Dachbedienvorrichtung (4) und/oder einen Temperaturregler und/oder
einen Außenspiegel und/oder eine Lüftung des Fortbewegungsmittels (10) umfasst.
6. Verfahren nach einem der vorstehenden Ansprüche, wobei das Ermitteln (100) der Blickrichtung (8) über eine Infrarotkamera und/oder eine
Stereokamera (2) und/oder eine RG B-Webcam erfolgt.
7. Verfahren nach einem der vorstehenden Ansprüche, wobei das Ermitteln (100) der Blickrichtung (8) anhand
• einer Augenposition des Anwenders (3) und/oder
• eines Drehwinkels eines Kopfes des Anwenders (3) und/oder
• eines Neigewinkels des Kopfes des Anwenders (3) und/oder
• anhand einer vordefinierten Kopfgeste des Anwenders (3) erfolgt.
8. Verfahren nach einem der vorstehenden Ansprüche ferner umfassend den Schritt eines Quittierens einer Eingabe des Anwenders (3) zur Reduzierung eines Energiebedarfs des Ermitteins (100) der Blickrichtung (8) und/oder des Erkennens (200).
9. System zur Ausgabe spezifischer Einstellungen eines Objektes eines
Fortbewegungsmittels (10), welches eingerichtet ist, das Verfahren gemäß einem der Ansprüche 1 bis 8 auszuführen.
10. Automobil umfassend ein System nach Anspruch 9.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201880054174.2A CN111033514A (zh) | 2017-09-18 | 2018-09-14 | 用于输出关于交通工具的物体的信息的方法、系统和汽车 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017216465.4A DE102017216465A1 (de) | 2017-09-18 | 2017-09-18 | Verfahren zur Ausgabe von Informationen zu einem Objekt eines Fortbewegungsmittels, System und Automobil |
DE102017216465.4 | 2017-09-18 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2019053200A1 true WO2019053200A1 (de) | 2019-03-21 |
Family
ID=63683155
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2018/074906 WO2019053200A1 (de) | 2017-09-18 | 2018-09-14 | Verfahren zur ausgabe von informationen zu einem objekt eines fortbewegungsmittels, system und automobil |
Country Status (3)
Country | Link |
---|---|
CN (1) | CN111033514A (de) |
DE (1) | DE102017216465A1 (de) |
WO (1) | WO2019053200A1 (de) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2708420A1 (de) * | 2011-06-20 | 2014-03-19 | Honda Motor Co., Ltd. | Betriebsvorrichtung und alarmvorrichtung für ein automobilinstrument |
JP2014149640A (ja) * | 2013-01-31 | 2014-08-21 | Tokai Rika Co Ltd | ジェスチャ操作装置及びジェスチャ操作プログラム |
US20160176372A1 (en) * | 2014-12-22 | 2016-06-23 | Lg Electronics Inc. | Controlling a vehicle |
WO2016152047A1 (ja) * | 2015-03-25 | 2016-09-29 | 株式会社デンソー | 操作システム |
DE102015208494A1 (de) | 2015-05-07 | 2016-11-10 | Bayerische Motoren Werke Aktiengesellschaft | Information eines Anwenders über einen Zustand eines Fortbewegungsmittels |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005250322A (ja) * | 2004-03-08 | 2005-09-15 | Matsushita Electric Ind Co Ltd | 表示装置 |
JP2008058409A (ja) * | 2006-08-29 | 2008-03-13 | Aisin Aw Co Ltd | 音声認識方法及び音声認識装置 |
DE102009020328A1 (de) * | 2009-05-07 | 2010-11-11 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zur Darstellung von unterschiedlich gut sichtbaren Objekten aus der Umgebung eines Fahrzeugs auf der Anzeige einer Anzeigevorrichtung |
US20120019557A1 (en) * | 2010-07-22 | 2012-01-26 | Sony Ericsson Mobile Communications Ab | Displaying augmented reality information |
US9035874B1 (en) * | 2013-03-08 | 2015-05-19 | Amazon Technologies, Inc. | Providing user input to a computing device with an eye closure |
DE102013011311B4 (de) * | 2013-07-06 | 2018-08-09 | Audi Ag | Verfahren zum Betreiben eines Informationssystems eines Kraftwagens und Informationssystem für einen Kraftwagen |
DE102016003073A1 (de) * | 2016-03-12 | 2017-09-14 | Audi Ag | Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System |
-
2017
- 2017-09-18 DE DE102017216465.4A patent/DE102017216465A1/de active Pending
-
2018
- 2018-09-14 WO PCT/EP2018/074906 patent/WO2019053200A1/de active Application Filing
- 2018-09-14 CN CN201880054174.2A patent/CN111033514A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2708420A1 (de) * | 2011-06-20 | 2014-03-19 | Honda Motor Co., Ltd. | Betriebsvorrichtung und alarmvorrichtung für ein automobilinstrument |
JP2014149640A (ja) * | 2013-01-31 | 2014-08-21 | Tokai Rika Co Ltd | ジェスチャ操作装置及びジェスチャ操作プログラム |
US20160176372A1 (en) * | 2014-12-22 | 2016-06-23 | Lg Electronics Inc. | Controlling a vehicle |
WO2016152047A1 (ja) * | 2015-03-25 | 2016-09-29 | 株式会社デンソー | 操作システム |
DE112016001374T5 (de) * | 2015-03-25 | 2017-12-14 | Denso Corporation | Betätigungssystem |
DE102015208494A1 (de) | 2015-05-07 | 2016-11-10 | Bayerische Motoren Werke Aktiengesellschaft | Information eines Anwenders über einen Zustand eines Fortbewegungsmittels |
Also Published As
Publication number | Publication date |
---|---|
CN111033514A (zh) | 2020-04-17 |
DE102017216465A1 (de) | 2019-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102013021834B4 (de) | Vorrichtung und Verfahren zum Navigieren innerhalb eines Menüs zur Fahrzeugsteuerung sowie Auswählen eines Menüeintrags aus dem Menü | |
EP1798588B1 (de) | Bediensystem zum Bedienen von Funktionen in einem Fahrzeug | |
EP3358454B1 (de) | Anwenderschnittstelle, fortbewegungsmittel und verfahren zur anwenderunterscheidung | |
DE102013011311B4 (de) | Verfahren zum Betreiben eines Informationssystems eines Kraftwagens und Informationssystem für einen Kraftwagen | |
DE102018108060A1 (de) | Fahrzeugseitenspiegel-automatisierung | |
DE102012214017A1 (de) | System zum verhindern des lösens eines blickes zur verwendungwährend des fahrens eines fahrzeugs | |
DE102011087459A1 (de) | Fahrerassistenzsystem für ein Kraftfahrzeug | |
DE102016120999B4 (de) | Benutzerschnittstelle und Verfahren zur Ein- und Ausgabe von Informationen in einem Fahrzeug | |
EP2487069B1 (de) | Innenrückblickeinheit für Kraftfahrzeuge | |
DE102018205664A1 (de) | Vorrichtung zur Assistenz eines Insassen im Innenraum eines Kraftfahrzeugs | |
DE102017215956A1 (de) | Verfahren zur Ausgabe von Informationen zu einem Objekt in einer Umgebung eines Fortbewegungsmittels, System und Automobil | |
EP3583488B1 (de) | Automatisierte aktivierung eines sichtunterstützungssystems | |
EP2925552B1 (de) | Bedienverfahren und bediensystem in einem strassenfahrzeug | |
DE102013203653A1 (de) | Außenbildeinblendung für Center Display | |
DE102018218746A1 (de) | Verfahren zur Vermeidung einer Sichtfeldstörung für eine Bedienperson eines Objektes, Vorrichtung zur Durchführung des Verfahrens sowie Fahrzeug und Computerprogramm | |
DE102015216108A1 (de) | Verfahren zum Auslösen mindestens eines Bearbeitungsschrittes durch Zuweisung eines Informationselements zu einem Gerät | |
DE102017011498B4 (de) | Verfahren zum Betreiben eines Assistenzsystems und ein Assistenzsystem für einen Kraftwagen | |
WO2019053200A1 (de) | Verfahren zur ausgabe von informationen zu einem objekt eines fortbewegungsmittels, system und automobil | |
DE102017121176B4 (de) | Flexible modulare Bilschirmvorrichtung zur Befestigung an und Transportieren von Nutzerprofilen zwischen beteiligten Fahrzeugen | |
DE102019105216A1 (de) | Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille | |
DE102013003047A1 (de) | Verfahren und System zum blickrichtungsabhängigen Steuern einer Funktionseinheit | |
DE102013225496B4 (de) | Blickabhängige Steuerung von Menüs in Head-up Displays | |
EP3718810A1 (de) | Verfahren und vorrichtung zur bedienung von elektronisch ansteuerbaren komponenten eines fahrzeugs | |
DE102020203352A1 (de) | Verfahren zum Betreiben eines Fahrzeuges und Fahrzeug-Benutzeroberfläche | |
WO2014114428A1 (de) | Verfahren und system zum blickrichtungsabhängigen steuern einer mehrzahl von funktionseinheiten sowie kraftwagen und mobiles endgerät mit einem solchen system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18773968 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 18773968 Country of ref document: EP Kind code of ref document: A1 |