DE102017216465A1 - A method of outputting information about an object of a vehicle, system and automobile - Google Patents
A method of outputting information about an object of a vehicle, system and automobile Download PDFInfo
- Publication number
- DE102017216465A1 DE102017216465A1 DE102017216465.4A DE102017216465A DE102017216465A1 DE 102017216465 A1 DE102017216465 A1 DE 102017216465A1 DE 102017216465 A DE102017216465 A DE 102017216465A DE 102017216465 A1 DE102017216465 A1 DE 102017216465A1
- Authority
- DE
- Germany
- Prior art keywords
- user
- specific settings
- viewing direction
- locomotion
- predefined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 230000033001 locomotion Effects 0.000 claims abstract description 20
- 230000004044 response Effects 0.000 claims abstract description 6
- 238000001514 detection method Methods 0.000 claims description 4
- 238000005562 fading Methods 0.000 claims description 4
- 238000009423 ventilation Methods 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000011161 development Methods 0.000 description 4
- 230000018109 developmental process Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 3
- 238000004378 air conditioning Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000000193 eyeblink Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/149—Instrument input by detecting viewing direction not otherwise provided for
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Combustion & Propulsion (AREA)
- Chemical & Material Sciences (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- User Interface Of Digital Computer (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Ausgabe spezifischer Einstellungen zu einem Objekt eines Fortbewegungsmittels (10) umfassend die Schritte:
• Ermitteln (100) einer Blickrichtung (8) eines Anwenders (3);
• Erkennen (200), dass das Objekt in der Blickrichtung (8) liegt und im Ansprechen darauf
• Ausgeben (300) spezifischer Einstellungen des Objekts mittels einer Ausgabeeinrichtung des Fortbewegungsmittels (10).
The invention relates to a method for outputting specific settings to an object of a means of locomotion (10), comprising the steps:
• determining (100) a viewing direction (8) of a user (3);
• Recognize (200) that the object is in the viewing direction (8) and in response thereto
Outputting (300) specific settings of the object by means of an output device of the means of locomotion (10).
Description
Die vorliegende Erfindung betrifft ein Verfahren zur Ausgabe von Informationen zu einem Objekt eines Fortbewegungsmittels, ein System und ein Automobil.The present invention relates to a method for outputting information about an object of a vehicle, a system and an automobile.
Heutzutage besitzen Fortbewegungsmittel eine große Anzahl elektronischer Komponenten, welche vom Anwender bzw. Fahrer direkt über entsprechende Steuerungselemente eingestellt werden können. Ein Beispiel ist das „Funktionszentrum Dach“ bzw. die Dachbedienvorrichtung, über welche eine Vielzahl unterschiedlicher Funktionen, wie etwa Leseleuchten, Innenlicht, Steuerung des Schiebedachs und eine Notruftaste steuerbar sind. Weiterhin besitzen Fahrzeuge ein Bildschirm-Bediensystem, über das der Anwender eine zunehmende Zahl von Einstellungen und Funktionen mithilfe eines Menüs steuern kann. Weiterhin besitzen Fortbewegungsmittel Einrichtungen zur Erkennung der Blick- und/oder Kopfrichtung des Fahrers, was beispielsweise über eine Kamera möglich ist.Today, means of locomotion have a large number of electronic components which can be adjusted by the user or driver directly via corresponding control elements. An example is the "function center roof" or the roof control device, via which a variety of different functions, such as reading lights, interior lights, control of the sunroof and an emergency call button are controllable. Furthermore, vehicles have a screen operating system through which the user can control an increasing number of settings and functions using a menu. Furthermore, means of locomotion have means for detecting the gaze and / or head direction of the driver, which is possible for example via a camera.
Allerdings ist eine Bedienung direkt an der Komponente in vielen Fällen nicht optimal hinsichtlich der Sichtbarkeit (z.B. Tastenbeschriftung), Ergonomie (Erreichbarkeit) und Bedienbarkeit während der Fahrt. Weiterhin verursachen haptische Bedienelemente erhöhte Materialkosten und bieten einen eingeschränkten Funktionsumfang. Eine Bedienung über ein Menü einer Ausgabeeinrichtung, z.B. eines Touch-Displays, hat den Nachteil, dass mit zunehmendem Funktionsumfang der Menübaum wächst und das Auffinden der Einstellungen für den Anwender nur noch schwer möglich ist und zunehmend Zeit in Anspruch nimmt, was wiederum die Fahrsicherheit gefährdet.However, in many cases, operation directly on the component is not optimal in terms of visibility (e.g., key lettering), ergonomics (reachability), and operability while driving. Furthermore, haptic controls cause increased material costs and offer a limited range of functions. An operation via a menu of an output device, e.g. a touch display, has the disadvantage that with increasing functionality of the menu tree grows and finding the settings for the user is difficult and increasingly takes time, which in turn endangers the driving safety.
Aus der
Ausgehend vom vorgenannten Stand der Technik ist es daher Aufgabe der vorliegenden Erfindung, ein Verfahren anzugeben, welches eine einfache, intuitive und ergonomische Anwenderinteraktion mit einem Fortbewegungsmittel hinsichtlich einer Ausgabe spezifischer Einstellungen zu einem Objekt desselben ermöglicht. Außerdem ist es Aufgabe der vorliegenden Erfindung, ein System bereitzustellen, welches eingerichtet ist, dieses Verfahren auszuführen sowie ein Automobil anzugeben, welches das System umfasst.Based on the aforementioned prior art, it is therefore an object of the present invention to provide a method which allows a simple, intuitive and ergonomic user interaction with a means of locomotion with regard to an output of specific settings for an object thereof. In addition, it is an object of the present invention to provide a system configured to carry out this method and to provide an automobile comprising the system.
Offenbarung der ErfindungDisclosure of the invention
Die vorgenannte Aufgabe wird erfindungsgemäß durch den Gegenstand des Anspruches 1 gelöst. Gemäß einem ersten Aspekt betrifft die vorliegende Erfindung ein Verfahren zur Ausgabe spezifischer Einstellungen zu einem Objekt eines Fortbewegungsmittels. Als „Objekt eines Fortbewegungsmittels“ wird im Rahmen der vorliegenden Erfindung jegliches Objekt verstanden, welches eine Komponente bzw. ein Teil des Fortbewegungsmittels ist.The above object is achieved by the subject of
Ein derartiges Objekt kann eine Dachbedienvorrichtung und/oder einen Temperaturregler und/oder einen Außenspiegel und/oder eine Lüftung des Fortbewegungsmittels und/oder sonstige Objekte des Fortbewegungsmittels, welche durch einen Anwender einstellbar sein können und/oder vordefinierte Einstellungen aufweisen können, umfassen. „Spezifische Einstellungen“ können jegliche Einstellungen bezüglich der genannten Objekte umfassen, welche z.B. durch einen Anwender eingestellt werden können und/oder vordefiniert sein können. Denkbar sind hierbei eine Sitztemperatur und/oder eine Innenraumtemperatur und/oder eine Lichteinstellung, insbesondere „an“ oder „aus“, und/oder eine Lichtintensität und/oder Spiegeleinstellungen und/oder Sitzeinstellungen und/oder Schiebedacheinstellungen, insbesondere „auf“ oder „zu“, und/oder Radioeinstellungen und/oder Lenkradeinstellungen.Such an object may include an overhead operating device and / or a temperature controller and / or an exterior mirror and / or a ventilation of the means of transportation and / or other objects of the means of locomotion, which may be adjustable by a user and / or may have predefined settings. "Specific settings" may include any settings relating to said objects, e.g. can be set by a user and / or predefined. Conceivable here are a seat temperature and / or an interior temperature and / or a light setting, in particular "on" or "off", and / or a light intensity and / or mirror settings and / or seat settings and / or sunroof settings, in particular "open" or "closed" ", And / or radio settings and / or steering wheel settings.
Als Fortbewegungsmittel im Sinne der Erfindung kommen zum Beispiel Automobile, insbesondere PKW und/oder LKW, und/oder Flugzeuge und/oder Schiffe und/oder Motorräder infrage.As a means of transport within the meaning of the invention, for example, automobiles, in particular cars and / or trucks, and / or aircraft and / or ships and / or motorcycles come into question.
Das erfindungsgemäße Verfahren umfasst ein Ermitteln einer Blickrichtung eines Anwenders. Hierbei kann die Blickrichtung beispielsweise anhand eines Neigewinkels eines Kopfes des Anwenders und/oder anhand eines Drehwinkels des Kopfes des Anwenders und/oder anhand einer Augenposition des Anwenders ermittelt werden. Dies ist beispielsweise über eine Stereokamera und/oder eine Infrarotkamera, insbesondere mit zwei Infrarotdioden, und/oder über ein RGB-Webcam-Bild möglich. Im letzteren Fall kann beispielsweise ein Ermitteln einer Blickrichtung über 2D-Bilder und anhand einer Auswerteeinheit, beispielsweise eines Mikrocontrollers oder einer CPU, über einen e-Learning-Algorithmus angelernt werden. Die jeweiligen „angelernten“ 2D-Bilder können dann auf einem Speicher des Fortbewegungsmittels abgelegt und durch die Auswerteinheit abgerufen werden.The method according to the invention comprises determining a viewing direction of a user. In this case, the viewing direction can be determined, for example, based on a tilt angle of a user's head and / or on the basis of a rotation angle of the user's head and / or on the basis of an eye position of the user. This is possible, for example, via a stereo camera and / or an infrared camera, in particular with two infrared diodes, and / or via an RGB webcam image. In the latter case, for example, determining a viewing direction via 2D images and using an evaluation unit, for example a microcontroller or a CPU, can be taught via an e-learning algorithm. The respective "learned" 2D images can then be stored on a memory of the means of locomotion and retrieved by the evaluation unit.
In einem weiteren Schritt des erfindungsgemäßen Verfahrens erfolgt ein Erkennen, dass das Objekt in der Blickrichtung liegt. Hierdurch wird vermieden, dass ein zufälliges Erfassen des Objekts durch den Blick des Anwenders eine Ausgabe spezifischer Einstellungen auslöst. Das Erkennen kann eine vordefinierte Zeitspanne, insbesondere 0,5 bis 6 Sekunden, umfassen, in welcher der Anwender das Objekt ansieht. Beispielsweise kann in einer weniger hektischen Verkehrssituation die Zeitspanne heraufgesetzt werden. Weiterhin kann ein vordefiniertes mehrmaliges Fokussieren des Objektes durch den Anwender ebenso ein Erkennen auslösen. Die vorgenannten Möglichkeiten des Erkennens können beispielsweise anhand einer Referenz erfolgen. Mit anderen Worten kann im Fortbewegungsmittel anhand der Aufmerksamkeit der Anwenders für ein Objekt erkannt werden, ob dieser eine Ausgabe spezifischer Einstellungen zu dem Objekt erhalten will oder nicht.In a further step of the method according to the invention, a recognition that the Object is in the line of sight. This avoids that accidental detection of the object by the user's perspective triggers the output of specific settings. The detection may comprise a predefined period of time, in particular 0.5 to 6 seconds, in which the user views the object. For example, in a less hectic traffic situation, the time span can be increased. Furthermore, a predefined multiple focusing of the object by the user can also trigger recognition. The aforesaid possibilities of recognition can be done, for example, by reference. In other words, in the means of locomotion, it can be recognized from the user's attention to an object whether or not he wants to receive output of specific settings to the object.
In einem nächsten Schritt erfolgt ein Ausgeben spezifischer Einstellungen zu dem Objekt, das als in der Blickrichtung des Anwenders liegend erkannt wurde, mittels einer Ausgabeeinrichtung des Fortbewegungsmittels. Die Ausgabeeinrichtung kann beispielsweise ein zentrales Informationsdisplay umfassen. Weiterhin kann die Ausgabeeinrichtung auch eine akustische Ausgabeeinrichtung, z.B. einen Lautsprecher, umfassen. Anhand dieser ausgegebenen spezifischen Einstellungen erhält der Anwender auf eine einfache Weise bedarfsgerecht die Möglichkeit, die spezifischen Einstellungen in Bezug auf das Objekt zu überprüfen und/oder gegebenenfalls zu verstellen. Durch das erfindungsgemäße Verfahren entfällt eine aufwändige Anwahl durch z.B. einen Menübaum eines Displays, um spezifische Einstellungen einzusehen. Eine damit verbundene Ablenkung des Anwenders wird also vermieden, da der Anwender die Umgebung, insbesondere den Verkehr, besser im Blick hat, als wenn er lediglich auf ein Display sehen und gegebenenfalls dessen Bedienlogik zunächst nachvollziehen und/oder durchschauen muss. Diese Zeit gewinnt der Anwender im Gegensatz zur beschriebenen herkömmlichen Interaktionen mit dem Fortbewegungsmittel. Ein derartiger Zeitgewinn hilft dem Anwender beispielsweise, adäquat auf eine Verkehrssituation reagieren zu können, wodurch das Verfahren zudem zeiteffizient ist. Ferner ist die Erreichbarkeit (im Sinne der Ergonomie) bezüglich der Ausgabe der spezifischen Einstellungen durch das Ermitteln und Erkennen der Blickrichtung begünstigt. Demensprechend wird durch das erfindungsgemäße Verfahren eine einfache, intuitive und ergonomische Anwenderinteraktion mit einem Fortbewegungsmittel hinsichtlich spezifischer Einstellungen eines Objekts desselben ermöglicht.In a next step, output of specific settings to the object, which was recognized as lying in the line of sight of the user, by means of an output device of the means of locomotion. The output device may include, for example, a central information display. Furthermore, the output device may also include an acoustic output device, e.g. a speaker. On the basis of these output specific settings, the user receives in a simple way as needed the opportunity to check the specific settings with respect to the object and / or adjust if necessary. By the method according to the invention a complex selection by e.g. a menu tree of a display to see specific settings. An associated distraction of the user is therefore avoided, since the user has the environment, in particular the traffic, better in view, as if he only see on a display and possibly understand its operating logic first and / or has to look through. This time, the user wins in contrast to the described conventional interactions with the means of transport. Such a gain in time, for example, helps the user to be able to adequately respond to a traffic situation, as a result of which the method is also time-efficient. Furthermore, accessibility (in the sense of ergonomics) with regard to the output of the specific attitudes is favored by determining and recognizing the viewing direction. Accordingly, the method according to the invention allows a simple, intuitive and ergonomic user interaction with a means of locomotion with regard to specific settings of an object of the same.
Die Unteransprüche haben vorteilhafte Weiterbildungen zum Inhalt.The dependent claims have advantageous developments to the content.
Vorteilhaft umfasst das erfindungsgemäße Verfahren den Schritt eines Einblendens eines Einstellmodus' für die spezifischen Einstellungen des Objekts. Der Einstellmodus kann beispielsweise über eine dafür vorgesehene Schaltfläche, welche bereits beim Ausgeben der spezifischen Einstellungen erscheint, aufgerufen werden. Weiterhin kann der Einstellmodus ebenso über eine Spracheingabe aktiviert werden. Der Einstellmodus kann ein Konfigurationsmenü und/oder ein Bedienmenü umfassen. Durch den Einstellmodus können spezifische Einstellungen wie beispielsweise eine Außenspiegeleinstellung und/oder eine Konfiguration eines Homescreens und/oder eine Lichtintensität einer Innenraumbeleuchtung und/oder Dachbedienelemente, insbesondere eine Notruffunktion und/oder ein Öffnungsmodus eines Schiebedachs (z.B. geschlossen/offen oder eine Öffnungshöhe und/oder Öffnungsweite) und/oder eine Sitztemperatur und/oder eine Innenraumtemperatur beispielsweise über eine Spracheingabe und/oder eine manuelle Eingabe und/oder über antrainierbare Muster angewählt und/oder verändert werden. Antrainierbare Muster können hierbei durch die oben beschriebenen Techniken zum Ermitteln und Erkennen frei im Raum erkennbare Fingergesten, wie etwa eine Pinchgeste und/oder Spreadgeste und/oder Tippgeste und/oder eine Griffgeste, umfassen. Beispielsweise kann über eine frei im Raum ausgeführte Pinchgeste eine Innenraumtemperatur verringert werden. Außerdem kann die Innenraumtemperatur durch eine frei im Raum ausgeführte Spreadgeste erhöht werden. Weiterhin ist auch über einen e-Learning-Algorithmus das Antrainieren von Kopfgesten, wie etwa ein Kopfschütteln und/oder ein Augenblinzeln zur Bedienung des Editiermodus' möglich. Denkbar ist hierbei, dass durch ein mehrfaches, beispielsweise dreimaliges, Augenblinzeln die Sitztemperatur um einen vordefinierten Wert, wie etwa 2 °C, erhöht wird.Advantageously, the method according to the invention comprises the step of fading in a setting mode for the specific settings of the object. The setting mode can be called, for example, via a dedicated button, which already appears when outputting the specific settings. Furthermore, the setting mode can also be activated via a voice input. The setting mode may include a configuration menu and / or an operating menu. Through the setting mode, specific settings such as an exterior mirror setting and / or a home screen configuration and / or a light intensity of interior lighting and / or roof control elements, in particular an emergency call function and / or an opening mode of a sliding roof (eg closed / open or an opening height and / or Opening width) and / or a seat temperature and / or an interior temperature, for example via a voice input and / or a manual input and / or antrainierbare pattern selected and / or changed. Antrajective patterns may include finger gestures that are freely recognizable in space, such as a pinch gesture and / or spread gesture and / or gesture and / or a grip gesture, through the techniques described above for detecting and recognizing. For example, an interior temperature can be reduced via a pinch gesture carried out in the room. In addition, the interior temperature can be increased by a free in space carried out spread gesture. Furthermore, the antrainage of head gestures, such as a head shake and / or an eye blink for operating the edit mode, is also possible via an e-learning algorithm. It is conceivable here that the seat temperature is increased by a predefined value, such as 2 ° C., by a multiple, for example three times, eye blinking.
In einer anderen vorteilhaften Weiterbildung umfasst das erfindungsgemäße Verfahren ferner den Schritt eines Ausblendens der spezifischen Einstellungen des Objekts nach einem vordefinierten Zeitraum und/oder eines Ausblendens der spezifischen Einstellungen im Ansprechen auf ein Erkennen, dass ein weiteres Objekt in der Blickrichtung des Anwenders liegt. Der vordefinierte Zeitraum kann 2 bis 10 Sekunden, bevorzugt 5 bis 7 und besonders bevorzugt 6 Sekunden betragen. Durch die erstgenannte Variante des Ausblendens nach einem vordefinierten Zeitraum ist es möglich, eine Ausgabe spezifischer Einstellungen auf der Ausgabeeinrichtung, welche für den Anwender von Interesse sind, nur für kurze Zeit anzuzeigen, wie beispielsweise die Innenraumtemperatur, nachdem erkannt wurde, dass eine Steuerung der Klimaanlage in der Blickrichtung des Anwenders liegt. Dass der Informationsbedarf des Anwenders hinsichtlich der spezifischen Einstellung gestillt ist, kann beispielsweise daran erkannt werden, dass der Anwender seinen Blick wieder auf die Fahrbahn richtet. Das Ausblenden, wenn ein weiteres Objekt in der Blickrichtung des Anwenders liegt, ist dann sinnvoll, wenn der Anwender schnell und einfach eine Ausgabe spezifischer Einstellungen zu dem weiteren Objekt wünscht, wenn bereits in diesem Moment spezifische Einstellungen zu einem anderen Objekt ausgegeben werden. Ein mögliches Szenario ist beispielsweise denkbar, wenn der Anwender zunächst die Ausgabe spezifischer Einstellungen zur Innenraumtemperatur wünscht, was im Ansprechen auf ein Erkennen, dass die Klimaanlagensteuerung in seinem Blickfeld liegt, möglich ist. Im Anschluss möchte der Anwender jedoch direkt die Ausgabe der spezifischen Einstellungen bezüglich der Dachbedienvorrichtung erhalten. Dafür genügt beispielsweise ein Erfassen der Dachbedienvorrichtung durch seinen Blick, was wiederum erkannt wird. Daraufhin wird die Ausgabe der Innenraumtemperatur durch die Ausgabeeinrichtung ausgeblendet und die spezifischen Einstellungen der Dachbedienvorrichtung werden durch die Ausgabeeinrichtung ausgegeben. Hierdurch hat der Anwender beispielsweise die Möglichkeit, schnell und bedarfsgerecht zwischen unterschiedlichen Ausgaben spezifischer Einstellungen bezüglich verschiedener Objekte umzuschalten.In another advantageous development, the method according to the invention further comprises the step of masking out the specific settings of the object after a predefined period of time and / or masking out the specific settings in response to a recognition that another object lies in the line of sight of the user. The predefined period may be 2 to 10 seconds, preferably 5 to 7 and particularly preferably 6 seconds. By the former variant of blanking after a predefined period, it is possible to display output of specific settings on the output device, which are of interest to the user, only for a short time, such as the interior temperature after it has been recognized that control of the air conditioner in the line of sight of the user. The fact that the information requirement of the user with regard to the specific setting is satisfied can be recognized, for example, by the fact that the user directs his gaze back to the roadway. Hiding when another object is in the user's line of sight is makes sense if the user wishes to output specific settings to the further object quickly and easily, if specific settings for another object are already output at that moment. A possible scenario is conceivable, for example, if the user initially wants the output of specific settings for the interior temperature, which is possible in response to a recognition that the air conditioning control is in his field of vision. Subsequently, however, the user wants to directly receive the output of the specific settings regarding the roof control device. For example, it suffices to detect the roof control device by his gaze, which in turn is recognized. Thereafter, the output of the indoor temperature is blanked by the output device, and the specific settings of the roof control device are output by the output device. As a result, the user has, for example, the ability to quickly and conveniently switch between different outputs of specific settings relating to different objects.
In einer weiteren vorteilhaften Ausgestaltung umfasst das erfindungsgemäße Verfahren ein Ausgeben, das nach einer vordefinierten Zeitspanne und/oder in Abhängigkeit eines vordefinierten Workloads des Anwenders und/oder nach einer vordefinierten Anzahl von Fokussierungsvorgängen, beispielsweise anhand einer Referenz, erfolgt. Die Zeitspanne, welche beispielsweise in der Referenz hinterlegt ist, kann beispielsweise 1 bis 10 Sekunden, bevorzugt 1 bis 3 Sekunden oder besonders bevorzugt 1 bis 2 Sekunden umfassen. Dadurch wird vermieden, dass spezifische Einstellungen zu einem zufällig sich in der Blickrichtung des Anwenders befindlichen Objekts, deren Ausgabe der Anwender nicht beabsichtigt hat, auf der Ausgabeeinrichtung ausgegeben werden.In a further advantageous embodiment, the inventive method comprises outputting, which takes place after a predefined period of time and / or as a function of a predefined workload of the user and / or after a predefined number of focusing operations, for example based on a reference. The time span which is stored, for example, in the reference may for example comprise 1 to 10 seconds, preferably 1 to 3 seconds or particularly preferably 1 to 2 seconds. This avoids specific settings being output on the output device to an object randomly located in the viewing direction of the user whose output the user did not intend to output.
Weiterhin kann das Ausgeben in Abhängigkeit eines vordefinierten Workloads erfolgen. Wenn der Anwender beispielsweise telefoniert und/oder eine besonders hektische Verkehrssituation vorliegt, beispielsweise aufgrund eines Unfalls, kann das Ausgeben, beispielsweise anhand der Referenz unterbunden werden, um den Anwender nicht weiter abzulenken. Die Verkehrssituation kann beispielsweise über Radarsensoren, welche am Fortbewegungsmittel angebracht sind, erkannt werden. Weiterhin kann, beispielsweise anhand der Referenz, eine vordefinierte Anzahl von Fokussierungsvorgängen des Objektes festgelegt sein, bis die spezifischen Einstellungen auf der Ausgabeeinrichtung ausgegeben werden. Das Ausgeben der spezifischen Einstellungen kann nach dreimaligem, bevorzugt nach zweimaligem Erkennen des auf das Objekt gerichteten Blickes des Anwenders erfolgen. Die Referenz kann beispielsweise in einem Speicher des Fortbewegungsmittels hinterlegt sein.Furthermore, the output can occur depending on a predefined workload. For example, if the user is on the phone and / or is in a particularly hectic traffic situation, for example because of an accident, the output, for example based on the reference, can be inhibited so as not to distract the user further. The traffic situation can be detected, for example, via radar sensors which are attached to the means of transportation. Furthermore, for example, based on the reference, a predefined number of focusing operations of the object may be determined until the specific settings are output on the output device. The output of the specific settings can be made three times, preferably after two recognizing the user's gaze directed to the object. The reference can be stored for example in a memory of the means of transport.
In einer anderen vorteilhaften Ausgestaltung umfasst das Objekt eine Dachbedienvorrichtung und/oder einen Temperaturregler und/oder einen Außenspiegel und/oder eine Lüftung des Fortbewegungsmittels und/oder eine Klimaanlagensteuerung und/oder sonstige Objekte des Fortbewegungsmittels, welche durch einen Anwender einstellbar sein können und/oder vordefinierte Einstellungen aufweisen können.In another advantageous embodiment, the object comprises a roof control device and / or a temperature controller and / or an exterior mirror and / or ventilation of the means of transportation and / or an air conditioning control and / or other objects of the means of locomotion, which may be adjustable by a user and / or can have predefined settings.
In einer vorteilhaften Weiterbildung erfolgt das Ermitteln der Blickrichtung über eine Infrarotkamera und/oder eine Stereokamera, insbesondere mit zwei Infrarotdioden, und/oder über ein RGB-Webcam-Bild, welches, wie oben beschrieben, ausgewertet wird.In an advantageous development, the determination of the viewing direction is carried out via an infrared camera and / or a stereo camera, in particular with two infrared diodes, and / or via an RGB webcam image which, as described above, is evaluated.
In einer vorteilhaften Weiterbildung des erfindungsgemäßen Verfahrens kann die Blickrichtung anhand einer Augenposition und/oder anhand eines Drehwinkels des Kopfes des Anwenders und/oder anhand eines Neigewinkels des Kopfes des Anwenders ermittelt werden. Weiterhin kann die Blickrichtung anhand einer vordefinierten Kopfgeste ermittelt werden. Hierbei kann beispielsweise eine ruckartige Kopfbewegung in Richtung eines Objektes ein Erkennen bezüglich dieses Objektes auslösen. Hierdurch ist eine intuitive Steuerung bezüglich des Ausgebens der spezifischen Einstellungen der verschiedenen Objekte möglich.In an advantageous development of the method according to the invention, the viewing direction can be determined on the basis of an eye position and / or on the basis of a rotation angle of the user's head and / or on the basis of a tilt angle of the user's head. Furthermore, the viewing direction can be determined using a predefined head gesture. In this case, for example, a jerky head movement in the direction of an object can trigger a recognition with respect to this object. As a result, intuitive control is possible with respect to outputting the specific settings of the various objects.
In einer anderen vorteilhaften Ausgestaltung umfasst das erfindungsgemäße Verfahren ferner den Schritt eines Quittierens einer Eingabedes Anwenders für eine Reduzierung eines Energiebedarfs des Erkennens der Blickrichtung. Die Eingabe kann beispielsweise eine wie oben beschriebene Spracheingabe und/oder manuelle Eingabe und/oder eine Gesteneingabe umfassen. Hierdurch kann der Anwender beispielsweise das Ermitteln der Blickrichtung und das damit verbundene Erkennen komplett ausschalten oder nur noch für bestimmte, beispielsweise von ihm definierte, Objekte aktivieren. Die Quittierung kann beispielsweise durch eine akustische und/oder visuelle und/oder taktile Rückmeldung seitens des Fortbewegungsmittels erfolgen. Eine akustische Rückmeldung kann beispielsweise eine Sprachausgabe „Ermitteln der Blickrichtung aus“ umfassen. Eine visuelle Rückmeldung kann beispielsweise diesen Hinweis auf der Ausgabeeinrichtung in Form eines Pop-up-Fensters umfassen. Eine taktile Rückmeldung kann beispielsweise eine Vibration des Lenkrads und/oder des Gaspedals umfassen.In another advantageous embodiment, the inventive method further comprises the step of acknowledging an input of the user for a reduction of an energy requirement of the recognition of the viewing direction. The input may include, for example, a voice input as described above and / or manual input and / or a gesture input. In this way, for example, the user can completely switch off the determination of the viewing direction and the associated recognition or only activate it for certain objects defined, for example, by him. The acknowledgment can be done for example by an acoustic and / or visual and / or tactile feedback from the means of transport. An acoustic feedback may include, for example, a voice output "determining the viewing direction off". For example, a visual feedback may include this indication on the output device in the form of a pop-up window. A tactile feedback may include, for example, a vibration of the steering wheel and / or the accelerator pedal.
Weiterhin vorteilhaft umfasst die Ausgabeeinrichtung ein Head-up Display (HUD) und/oder ein zentrales Informationsdisplay (CID) und/oder ein Kombiinstrument und/oder eine akustische Ausgabeeinrichtung. Als akustische Ausgabeeinheit kommt insbesondere ein Lautsprecher und/oder ein Kopfhörer in Betracht. Die akustische Ausgabeeinrichtung kann hierbei Sprachmuster, welche auf dem Speicher hinterlegt sind, beziehen. Derartige Sprachmuster enthalten beispielsweise aufgenommene Informationstexte zu der spezifischen Einstellung der jeweiligen Objekte. Weiterhin können Sprachmuster über Drahtloskommunikation, beispielsweise über einen Internetserver, bezogen werden.Further advantageously, the output device comprises a head-up display (HUD) and / or a central information display (CID) and / or an instrument cluster and / or an acoustic output device. The acoustic output unit is in particular a loudspeaker and / or a Headphones in consideration. The acoustic output device can in this case refer to speech patterns which are stored on the memory. Such speech patterns contain, for example, recorded information texts for the specific setting of the respective objects. Furthermore, speech patterns can be obtained via wireless communication, for example via an internet server.
Die folgenden erfindungsgemäßen Aspekte umfassen die vorteilhaften Ausgestaltungen und Weiterbildungen sowie die generellen Vorteile der erfindungsgemäßen Vorrichtung und die jeweils damit verbundenen technischen Effekte gleichsam, was hier zur Vermeidung von Wiederholungen erwähnt sei.The following aspects of the invention include the advantageous embodiments and refinements as well as the general advantages of the device according to the invention and the related technical effects as it were, which is mentioned here to avoid repetition.
Gemäß einem zweiten Aspekt umfasst die vorliegende Erfindung ein System zur Ausgabe spezifischer Einstellungen eines Objekts eines Fortbewegungsmittels, welches eingerichtet ist, ein Verfahren gemäß dem ersten Aspekt der Erfindung durchzuführen. Ein derartiges System kann beispielsweise einen Dateneingang, beispielsweise eine Stereokamera und/oder eine Infrarotkamera und/oder eine RGB-Webcam umfassen, durch welchen ein Erkennen einer Blickrichtung in Bezug auf das Objekt aufgenommen wird. Ferner kann das System eine Auswerteeinheit, insbesondere einen Mikrocontroller und/oder eine CPU, umfassen, über welche durch den Dateneingang eingehende Daten verarbeitet werden. Wenn die Auswerteeinheit ein Objekt in dem Blickfeld des Anwenders erkennt, können spezifische Einstellungen aus einem Speicher an den Datenausgang weitergegeben werden. Ein Datenausgang ist beispielsweise ein HUD, auf welchem die spezifischen Einstellungen für den Anwender sichtbar ausgegeben werden.According to a second aspect, the present invention comprises a system for outputting specific settings of an object of a means of locomotion arranged to carry out a method according to the first aspect of the invention. Such a system may comprise, for example, a data input, for example a stereo camera and / or an infrared camera and / or an RGB webcam, by means of which a detection of a viewing direction with respect to the object is recorded. Furthermore, the system may comprise an evaluation unit, in particular a microcontroller and / or a CPU, via which data incoming through the data input is processed. If the evaluation unit detects an object in the field of view of the user, specific settings can be passed from a memory to the data output. A data output is, for example, a HUD on which the specific settings are visibly output for the user.
Gemäß einem dritten Aspekt umfasst die vorliegende Erfindung ein Automobil, welches ein System gemäß dem zweiten Aspekt beinhaltet.According to a third aspect, the present invention comprises an automobile incorporating a system according to the second aspect.
Figurenlistelist of figures
Nachfolgend werden Ausführungsbeispiele der vorliegenden Erfindung anhand der beigefügten Zeichnungen im Detail beschrieben. In den Zeichnungen ist:
-
1 ein Flussdiagramm einer Ausführungsform des erfindungsgemäßen Verfahrens; -
2 eine Ausführungsform eines erfindungsgemäßen Automobils; -
3a eine Verbildlichung des Schrittes eines Ermittelns einer Blickrichtung gemäß einer Ausführungsform des erfindungsgemäßen Verfahrens; -
3b eine Verbildlichung des Schrittes eines Erkennens einer Ausführungsform des erfindungsgemäßen Verfahrens; und -
3c eine Verbildlichung des Schrittes eines Ausgebens einer Ausführungsform des erfindungsgemäßen Verfahrens.
-
1 a flowchart of an embodiment of the method according to the invention; -
2 an embodiment of an automobile according to the invention; -
3a a representation of the step of determining a viewing direction according to an embodiment of the method according to the invention; -
3b a representation of the step of recognizing an embodiment of the method according to the invention; and -
3c an illustration of the step of outputting an embodiment of the method according to the invention.
Das erfindungsgemäße Verfahren sei anhand einer Ausführungsform gemäß
BezugszeichenlisteLIST OF REFERENCE NUMBERS
- 11
- Zentrales InformationsdisplayCentral information display
- 22
- Stereokamerastereo camera
- 33
- Anwenderuser
- 44
- DachbedienvorrichtungOverhead control device
- 55
- Auswerteeinheitevaluation
- 66
- SpeicherStorage
- 77
- Antenneantenna
- 88th
- Blickrichtungline of sight
- 1010
- FortbewegungsmittelMeans
- 1111
- StraßeStreet
- 1212
- Einstellungen des SchiebedachsSettings of the sliding roof
- 1313
- Schaltflächebutton
- 100-400100-400
- Verfahrensschrittesteps
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- DE 102015208494 A1 [0004]DE 102015208494 A1 [0004]
Claims (10)
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017216465.4A DE102017216465A1 (en) | 2017-09-18 | 2017-09-18 | A method of outputting information about an object of a vehicle, system and automobile |
CN201880054174.2A CN111033514A (en) | 2017-09-18 | 2018-09-14 | Method, system and motor vehicle for outputting information about an object of a vehicle |
PCT/EP2018/074906 WO2019053200A1 (en) | 2017-09-18 | 2018-09-14 | Method for outputting information to an object of a means of locomotion, system and automobile |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017216465.4A DE102017216465A1 (en) | 2017-09-18 | 2017-09-18 | A method of outputting information about an object of a vehicle, system and automobile |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102017216465A1 true DE102017216465A1 (en) | 2019-03-21 |
Family
ID=63683155
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102017216465.4A Pending DE102017216465A1 (en) | 2017-09-18 | 2017-09-18 | A method of outputting information about an object of a vehicle, system and automobile |
Country Status (3)
Country | Link |
---|---|
CN (1) | CN111033514A (en) |
DE (1) | DE102017216465A1 (en) |
WO (1) | WO2019053200A1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005250322A (en) * | 2004-03-08 | 2005-09-15 | Matsushita Electric Ind Co Ltd | Display device |
US20120019557A1 (en) * | 2010-07-22 | 2012-01-26 | Sony Ericsson Mobile Communications Ab | Displaying augmented reality information |
DE102013011311A1 (en) * | 2013-07-06 | 2015-01-08 | Audi Ag | Method for operating an information system of a motor vehicle and information system for a motor vehicle |
US9035874B1 (en) * | 2013-03-08 | 2015-05-19 | Amazon Technologies, Inc. | Providing user input to a computing device with an eye closure |
DE102015208494A1 (en) | 2015-05-07 | 2016-11-10 | Bayerische Motoren Werke Aktiengesellschaft | Information of a user about a state of a means of transportation |
DE102016003073A1 (en) * | 2016-03-12 | 2017-09-14 | Audi Ag | Method for operating a virtual reality system and virtual reality system |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008058409A (en) * | 2006-08-29 | 2008-03-13 | Aisin Aw Co Ltd | Speech recognizing method and speech recognizing device |
DE102009020328A1 (en) * | 2009-05-07 | 2010-11-11 | Bayerische Motoren Werke Aktiengesellschaft | A method for displaying differently well visible objects from the environment of a vehicle on the display of a display device |
US9499110B2 (en) * | 2011-06-20 | 2016-11-22 | Honda Motor Co., Ltd. | Automotive instrument operating device and alert device |
JP2014149640A (en) * | 2013-01-31 | 2014-08-21 | Tokai Rika Co Ltd | Gesture operation device and gesture operation program |
KR101677648B1 (en) * | 2014-12-22 | 2016-11-18 | 엘지전자 주식회사 | Vehicle control apparatus and method thereof |
JP6406088B2 (en) * | 2015-03-25 | 2018-10-17 | 株式会社デンソー | Operation system |
-
2017
- 2017-09-18 DE DE102017216465.4A patent/DE102017216465A1/en active Pending
-
2018
- 2018-09-14 CN CN201880054174.2A patent/CN111033514A/en active Pending
- 2018-09-14 WO PCT/EP2018/074906 patent/WO2019053200A1/en active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005250322A (en) * | 2004-03-08 | 2005-09-15 | Matsushita Electric Ind Co Ltd | Display device |
US20120019557A1 (en) * | 2010-07-22 | 2012-01-26 | Sony Ericsson Mobile Communications Ab | Displaying augmented reality information |
US9035874B1 (en) * | 2013-03-08 | 2015-05-19 | Amazon Technologies, Inc. | Providing user input to a computing device with an eye closure |
DE102013011311A1 (en) * | 2013-07-06 | 2015-01-08 | Audi Ag | Method for operating an information system of a motor vehicle and information system for a motor vehicle |
DE102015208494A1 (en) | 2015-05-07 | 2016-11-10 | Bayerische Motoren Werke Aktiengesellschaft | Information of a user about a state of a means of transportation |
DE102016003073A1 (en) * | 2016-03-12 | 2017-09-14 | Audi Ag | Method for operating a virtual reality system and virtual reality system |
Also Published As
Publication number | Publication date |
---|---|
CN111033514A (en) | 2020-04-17 |
WO2019053200A1 (en) | 2019-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102012214017A1 (en) | SYSTEM FOR PREVENTING THE RETROSPECT FOR USE WHILE DRIVING A VEHICLE | |
DE102018108060A1 (en) | VEHICLE SIDE MIRROR AUTOMATION | |
DE102012109039A1 (en) | Vehicle operation input device and control method for a vehicle operation input device | |
DE102014118957A1 (en) | Method for operating an operating arrangement for a motor vehicle with state-dependent display, operating arrangement and motor vehicle | |
DE102016114754A1 (en) | Focusing system for improving vehicle vision performance | |
EP3358454B1 (en) | User interface, vehicle and method for user distinguishing | |
DE102013011311B4 (en) | Method for operating an information system of a motor vehicle and information system for a motor vehicle | |
EP3507117A1 (en) | Control device for a comfort system of a motor vehicle, comfort system having a control device, and motor vehicle having a comfort system | |
DE102016212687A1 (en) | Method for operating a display device of a motor vehicle | |
DE102019124513A1 (en) | Motor vehicle | |
DE102017215956A1 (en) | A method of outputting information about an object in an environment of a vehicle, system and automobile | |
DE102016120999A1 (en) | User interface and method for inputting and outputting information in a vehicle | |
DE102014011118B4 (en) | Method for operating a light function of motor vehicle headlights and motor vehicle with a display device and a control element for operating the light function of the motor vehicle headlights | |
WO2016124278A1 (en) | Determination of a position of a non-vehicle object in a vehicle | |
EP2925552B1 (en) | Operating method and operating system in a road vehicle | |
DE102015003688A1 (en) | Detection device for a vehicle and method for operating such a detection device | |
DE102017121176B4 (en) | Flexible modular screen device for attachment to and transport of user profiles between participating vehicles | |
DE102017011498B4 (en) | Method for operating an assistance system and an assistance system for a motor vehicle | |
DE102017216465A1 (en) | A method of outputting information about an object of a vehicle, system and automobile | |
DE102018218746A1 (en) | Method for avoiding a field of vision disturbance for an operator of an object, device for carrying out the method, and vehicle and computer program | |
DE102018207407A1 (en) | Driver assistance system, means of locomotion and method for displaying an image of a surrounding area of a means of locomotion | |
EP3718810A1 (en) | Method and device for operating electronically controllable components of a vehicle | |
DE102013003047A1 (en) | Method for controlling functional unit of motor vehicle, involves activating control function for controlling functional unit, when user has performed given blink pattern that is specified as double blink of the user | |
WO2014114428A1 (en) | Method and system for controlling, depending on the line of vision, a plurality of functional units, motor vehicle and mobile terminal having said system | |
DE102019127183A1 (en) | Display system for displaying an operating instruction for an operating element in a motor vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R012 | Request for examination validly filed |