EP3999939A1 - Method for operating a mobile terminal by means of a gesture recognition and control device, gesture recognition and control device, motor vehicle, and an output apparatus that can be worn on the head - Google Patents

Method for operating a mobile terminal by means of a gesture recognition and control device, gesture recognition and control device, motor vehicle, and an output apparatus that can be worn on the head

Info

Publication number
EP3999939A1
EP3999939A1 EP20735582.7A EP20735582A EP3999939A1 EP 3999939 A1 EP3999939 A1 EP 3999939A1 EP 20735582 A EP20735582 A EP 20735582A EP 3999939 A1 EP3999939 A1 EP 3999939A1
Authority
EP
European Patent Office
Prior art keywords
mobile terminal
control device
gesture
operating
gesture recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP20735582.7A
Other languages
German (de)
French (fr)
Inventor
Norbert KULBAT
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Publication of EP3999939A1 publication Critical patent/EP3999939A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/14643D-gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/1468Touch gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/175Autonomous driving
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/55Remote control arrangements
    • B60K2360/56Remote control arrangements using mobile devices
    • B60K2360/563Vehicle displaying mobile device information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/55Remote control arrangements
    • B60K2360/56Remote control arrangements using mobile devices
    • B60K2360/569Vehicle controlling mobile device functions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/55Remote control arrangements
    • B60K2360/56Remote control arrangements using mobile devices
    • B60K2360/577Mirror link with mobile devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Definitions

  • Method for operating a mobile terminal by means of a gesture recognition and control device, gesture recognition and control device, a motor vehicle, and an output device that can be worn on the head
  • the invention relates to a method for operating a mobile terminal, for example a smartphone or tablet PC, the method being carried out by a gesture recognition and control device.
  • a gesture recognition and control device is to be understood as meaning a device, a device component or a device group which is set up to recognize an operating gesture; and which is also set up to receive and evaluate signals, and to generate a control signal.
  • the gesture recognition and control device can also be designed to capture the operating gesture, for example by means of a camera.
  • a passenger in the rear of modern vehicles can use a mobile device, for example a Tablet PC on which vehicle functions such as the current speed can be displayed.
  • a mobile device for example a Tablet PC on which vehicle functions such as the current speed can be displayed.
  • It is a hardware control unit that enables, for example, the setting of vehicle functions, navigation and media content. This is particularly important in those vehicles in which people are often chauffeured, for example in vehicles of a driver service.
  • Such an exemplary tablet PC now looks rather old-fashioned and can only be used by one passenger.
  • the same problem- matic arises when using a mobile device, for example a smartphone.
  • DE 10 2016 207 530 A1 describes a system for displaying a virtual vehicle interior, with one or more vehicle interior components and digital glasses, which are set up to visually display a virtual vehicle interior to a user and the one or more vehicles in the optical display to consider interior components.
  • DE 10 2017 211 521 A1 describes a motor vehicle for transporting at least one user, which has a subsystem which is set up to perform a physical function of the motor vehicle.
  • One object of the invention is to simplify the operation of a mobile terminal in the motor vehicle.
  • the invention is based on the idea of mirroring a user interface of a mobile terminal onto an output device that can be worn on the head and of implementing spatial gesture recognition for operating the mirrored user surface.
  • a spatial gesture is understood to mean a gesture, in particular an operating gesture, in which no touch-sensitive surface, for example a touchscreen or a touchpad, has to be touched, but rather is carried out freely in space.
  • the spatial gesture can be, for example, a predetermined finger and / or hand posture and / or a movement of the exemplary hand.
  • the virtual or augmented reality (“augmented reality”, “AR”) which is displayed on the data glasses that can be worn on the head, integrates an image of a user interface of the mobile device and mirrors it in the motor vehicle.
  • a motor vehicle with a correspondingly configured gesture recognition and control device is compatible with all mobile terminals and output devices that can be worn on the head.
  • the operation of the mobile terminal is not only very modern, but a user can simultaneously operate the mobile terminal while using the output device that can be worn on the head for an entertainment function, for example a VR video game.
  • the user does not have to put down the output device, for example data glasses, every time, for example to answer a call or to look up something in a calendar of the mobile terminal.
  • VR virtual reality
  • the mobile device can also be operated in every sitting and / or lying position of the user in which he may not be able to reach the mobile device and take it in his hand, for example to make a swiping gesture on the touchscreen of the mobile device.
  • the method according to the invention and the devices according to the invention also provide a fully configurable and scalable system.
  • the invention can also be used for a driver of the motor vehicle if the motor vehicle is operated in a fully autonomous driving mode (ie a piloted driving mode).
  • remote control is provided that can be used while, for example, a user in the rear is busy with an entertainment system and experiences a game, for example, or, for example, a driver himself during an autonomous journey (level 5 ) attends a VR meeting.
  • a virtual reality or an augmented reality it is advantageous that no software for a virtual reality or an augmented reality has to be installed on the mobile terminal.
  • the inventive method for operating a mobile terminal is carried out by a gesture recognition and control device, in particular a gesture recognition and control device of a motor vehicle.
  • the gesture recognition and control device can be designed, for example, as a control chip or control device and can have, for example, gesture recognition software and / or, for example, a camera for capturing an operating gesture.
  • the mobile terminal device in particular a mobile terminal device which is located in or on the motor vehicle, is recognized.
  • the mobile terminal can be recognized, for example, by means of a Bluetooth connection.
  • the gesture recognition and control device establishes a current graphic user interface generated by an output device of the recognized mobile terminal, which provides an operating option in which an operating function of the mobile terminal can be triggered.
  • the gesture recognition and control device provides an output signal which, as display content, writes the graphic user interface generated by the display device of the mobile terminal.
  • a display device is understood to mean a device component for displaying image content, in particular a touch-sensitive screen.
  • an output signal of the mobile terminal can be forwarded to the gesture recognition and control device, and the output signal provided by the gesture recognition and control device can then be, for example, the output signal of the mobile terminal.
  • the output signal can be provided in that the gesture recognition and control device generates the output signal, wherein the generated output signal can describe an image of the graphical user interface of the mobile terminal.
  • the output signal provided by the gesture recognition and control device is transmitted by this to an output device which can be worn on the head.
  • an output signal from the mobile terminal is forwarded to the output device that can be worn on the head
  • the graphical user interface is mirrored on a display surface of the output device that is worn on the head, or a display surface of the output device that is worn on the head is synchronized with a screen of the mobile terminal .
  • the output device that can be worn on the head is an output device for outputting an augmented reality and / or a virtual reality.
  • the output device that can be worn on the head can preferably be designed as data glasses or as another “head-mounted display” (“HMD”) known from the prior art, that is, a visual output device to be worn on the head.
  • HMD head-mounted display
  • the output signal provided is transmitted to the output device that can be worn on the head to output the display content as part of an augmented or virtual reality provided or output by the output device in a predetermined output area in the interior of the motor vehicle.
  • the display content is not displayed in the specified output area, for example an area between the user on the back seat and a backrest of the front seat, but on a display surface of the output device that can be worn on the head, so that the display content when looking in the direction of the specified output area appears there.
  • the display content is output on a portion of a display surface of the output device which can be worn on the head and which is in a direction in which the user is looking at the predetermined output area.
  • a contactless operating gesture by the user is recognized as a function of the operating option made available. If the user interface currently provided by the mobile terminal device provides, for example, the operating option that an example of swiping across the screen can be used to select a current
  • the gesture recognition and control device can recognize a room gesture, which can be, for example, a contactless swiping in the room.
  • This recognized contactless operating gesture that is to say the recognized spatial gesture, can trigger the selection of the program of the mobile terminal without touching the screen of the mobile terminal. Since the graphical user interface continues to be mirrored from the mobile terminal onto the output device that can be worn on the head, the user then sees the opening of the selected program as display content, for example.
  • the gesture recognition and control device has, for example, a camera, for example a time-off flight camera
  • the contactless operating gesture can be detected before the contactless operating gesture is recognized.
  • the gesture recognition and control device generates a remote control signal as a function of the detected contactless operating gesture, the generated remote control signal describing a triggering of the operating function of the mobile terminal assigned to the recognized contactless operating gesture.
  • the contactless operating gesture for triggering the operating function can preferably be a spatial gesture that is similar or analogous to the touch gesture of the touching gesture assigned to the operating function. If the touch gesture is, for example, a swipe on the screen of the mobile terminal from left to right, for example, the corresponding spatial gesture to trigger the operating function can be moving the user's face from left to right in the air.
  • the gesture recognition and control device transmits the generated remote control signal to a control device of the recognized mobile terminal to trigger the operating function.
  • a control device is a device component or, for example, a component group for receiving and evaluating signals, as well as for generating them understood by control signals.
  • the control device of the recognized mobile terminal can be a control chip, for example.
  • the operating function which is assigned a touch gesture on, for example, a touchscreen of the mobile terminal in the mobile terminal, is assigned a contactless operating gesture when the graphic user interface is mirrored on the output device that can be worn on the head.
  • the graphical user interface provides the operating option in which, when the mobile terminal device is operated directly, the operating function can be triggered by means of an operating gesture, in particular a touch gesture.
  • the operating function is triggered indirectly via the mirrored user interface in virtual or augmented reality by means of a contactless operating gesture, i.e. a spatial gesture that is not recognized by the mobile device but by the gesture recognition and control device.
  • an embodiment of the method according to the invention can provide that the gesture recognition and control device recognizes a further contactless operating gesture, in particular while the display content is being output by the output device that can be worn on the head, the further contactless operating gesture being a Positioning or Plat decorating the display content (ie an image of the mirrored user surface) in the interior of the motor vehicle can be specified.
  • the further contactless operating gesture specifies the location or place or position in the motor vehicle at which the display content should be seen or appear when the user wears the output device that can be worn on the head.
  • the gesture recognition and control device can then specify the output area on the basis of the recognized further contactless operating gesture. In other words, a virtual location of the display content can be specified and / or changed.
  • another contactless operating gesture can be recognized by the gesture recognition and control device, which can describe a scaling of the display content (ie an image of the mirrored user interface).
  • the further contactless operating gesture can, for example, specify and / or change a format and / or a size of the display content.
  • the gesture recognition and control device can then scale an image that shows the display content. The image is scaled on the basis of the recognized additional contactless operating gesture.
  • the respective further contactless operating gesture can optionally be detected by the gesture recognition and control device.
  • a further, ie separate, user interface can be displayed by the output device that can be worn on the head.
  • the user is supported in scaling and positioning.
  • another output signal can be provided by the gesture recognition and control device, which can describe a further graphical user interface as display content, the further graphical user interface being an operating menu for scaling and / or positioning the output signal provided by the display device of the mobile Terminal generated graphical user interface can provide descriptive display content.
  • the further graphic user interface can therefore optionally be independent of what the mobile terminal is displaying and can therefore be referred to as an additional graphic user interface.
  • the gesture recognition and control device can preferably only perform one or more method steps of the embodiments described above as a function of activating a fully autonomous driving mode and / or as a function of an engine start of the motor vehicle.
  • the gesture recognition and control device can, for example, query the current driving mode (or a future driving mode) from a driver assistance system or receive a corresponding signal from the driver assistance system; and / or the gesture recognition and control device can, for example, receive and evaluate a start signal from an ignition system of the motor vehicle.
  • the reflection of the user interface of the mobile terminal is displayed reliably and immediately by the output device.
  • the fully autonomous driving mode there is the additional advantage that a driver can also carry and use the output device that can be worn on the head.
  • the object set above is achieved by a gesture recognition and control device which is set up to carry out a method according to one of the embodiments described above.
  • the gesture recognition and control device can be designed, for example, as a control device or control chip or as a user program (“app”).
  • the gesture recognition and control device can preferably have a processor device, that is to say a component or a device component which is designed and set up for electronic data processing and preferably can have at least one microcontroller and / or a microprocessor.
  • the gesture recognition and control device can have a data memory, for example a memory card or a memory chip, or another data memory on which a program code can preferably be stored which, when executed by the processor device, cause the gesture recognition and control device to do so can perform an embodiment of the method according to the invention.
  • a data memory for example a memory card or a memory chip, or another data memory on which a program code can preferably be stored which, when executed by the processor device, cause the gesture recognition and control device to do so can perform an embodiment of the method according to the invention.
  • the gesture recognition and control device can preferably be a gesture recognition and control device of the motor vehicle.
  • the gesture recognition and control device can have one or more sensors, for example one or more cameras.
  • an output device that can be worn on the head, for example data glasses, which are designed to output an extended reality and / or a virtual reality, and which has an embodiment of the inventive gesture recognition and control device.
  • the invention also includes further developments of the gesture recognition and control device according to the invention and of the motor vehicle according to the invention which have features as they have already been described in connection with the further developments of the method according to the invention. For this reason, the corresponding developments of the gesture recognition and control device according to the invention and the motor vehicle according to the invention are not described again here.
  • the motor vehicle according to the invention is preferably configured as a motor vehicle, in particular as a passenger vehicle or truck, or as a passenger bus or motorcycle.
  • the invention also includes the combinations of the features of the described embodiments enclosed. Exemplary embodiments of the invention are described below. This shows: 1 shows a schematic representation of a first embodiment example of the method according to the invention and the devices according to the invention; 2 shows a schematic representation of a further exemplary embodiment of the method according to the invention and the devices according to the invention;
  • FIG. 3 shows a schematic representation of a further exemplary embodiment of the method according to the invention and the devices according to the invention
  • FIG. 4 shows a further schematic illustration of the further exemplary embodiment from FIG. 3; FIG. and
  • Fig. 5 is a schematic representation of a further Ausense approximately example of the method according to the invention and the devices according to the invention.
  • the exemplary embodiments explained below are preferred embodiments of the invention.
  • the described components of the embodiments each represent individual features of the invention that are to be considered independently of one another and that further develop the invention in each case also independently of one another. Therefore, the disclosure is intended to include combinations of the features of the embodiments other than those shown.
  • the described embodiments can also be supplemented by further features of the invention already described.
  • the same reference symbols denote functionally identical elements.
  • Fig. 1 illustrates the principle of the method according to the invention and the devices according to the invention according to a first exemplary embodiment.
  • a gesture recognition and control device 10 can, as shown in the example of FIG. 1, be, for example, a control chip or a control device of a motor vehicle 12, which can be configured, for example, as a passenger vehicle, preferably as a passenger vehicle operating in a piloted or fully autonomous driving mode can be operated.
  • the gesture recognition and control device 10 can preferably have a processor device 14 with, for example, a plurality of microprocessors, and / or a data memory 16, for example a memory card or a memory chip.
  • a program code for carrying out the method can preferably be stored on the optional data memory 16.
  • a driver for an operating system of the mobile terminal device 22 can optionally be stored in the data memory 16 of the gesture recognition and control device 10.
  • Communication with an output device 18 that can be worn on the head can preferably take place via a wireless data communication connection 20, for example via a WLAN connection, Bluetooth connection or cellular radio connection.
  • the data communication link 20 can be, for example, a wired data communication link 20, for example a cable.
  • the output device 18 which can be worn on the head can preferably be an output device 18 for an augmented and / or virtual reality. If the gesture recognition and control device 10 is a component of the motor vehicle 12, any output device 18 known to a person skilled in the art, for example any known data glasses, can be used.
  • the gesture recognition and control device 10 can be a component of the output device 18.
  • the gesture recognition and control device 10 can in this variant for Example be located on a side bracket.
  • the output device 18 can, for example, have a camera on one end face.
  • Communication with a mobile terminal device 22, for example a smartphone or a tablet PC, can also preferably take place via a wireless data communication connection 20, or by means of a wired data communication connection 20, for example a data bus of the motor vehicle 12 and / or a cable.
  • the mobile terminal 22 has a display device 24, which can preferably include a touch-sensitive screen. Depending on the current graphic user interface, various operating functions of the mobile terminal device 22 can be triggered via this exemplary touch-sensitive screen, for example opening a program, switching to a navigation overview with small views of open programs, or for example accepting a phone call or playing a video, for example.
  • the direct control of the display device 24 is taken over by a control device 26, for example a control board and / or a user program (“app”) or an operating system.
  • the control device 26 of the mobile terminal 22 can also have a processor device and / or a data memory, these components not being shown in FIG. 1 (and in the following figures) for reasons of clarity.
  • a display surface 28 of the output device 18 is shown, which can ideally be in front of the eyes of the user when the Benut zer has the output device 18 on.
  • FIG. 1 shows an optional camera, for example a time-off-flight camera or an infrared sensor, which can be arranged, for example, on a roof lining of the motor vehicle or on a rearview mirror of the motor vehicle. Is the gesture recognition If the processing and control device 10 is, for example, a component of the output device 18, it can for example have a camera on an end face of the output device 18.
  • a camera for example a time-off-flight camera or an infrared sensor
  • the gesture recognition and control device 10 can preferably also have a plurality of such sensors 30.
  • the detection of the mobile terminal can take place, for example, as soon as the mobile terminal 22 approaches the motor vehicle 12, for which purpose a Bluetooth LE receiver can be located on the outside of the motor vehicle 12, for example.
  • the mobile terminal 22 can be recognized (S1) if, for example, it is placed in a charging cradle in the motor vehicle 12, wherein the mobile terminal 22 (S1) can be recognized by recognition techniques known from the prior art.
  • the mobile terminal 22 of the example in FIG. 1 can, for example, have just opened a user interface of a program for outputting information about the motor vehicle, for example current operating data.
  • the exemplary program can be another user program, for example a user program for playing films or a game, or a desktop of the mobile terminal device 22 can be displayed.
  • the graphical user interface that is currently being displayed by the display device 24 of the known mobile terminal 22 can be determined (S2), for example by transmitting a corresponding output signal from the display device 24 to the gesture recognition and control device 10, or by, for example the gesture recognition and control device 10 asks the mobile terminal 22 what is currently being displayed.
  • the output signal can be generated, for example, by the gesture recognition and control device 10, or an output signal from the mobile terminal device 22 can be forwarded to the output device 18.
  • the provision S3 also includes the transmission S4 of the provided output signal to the exemplary data glasses.
  • the predetermined output area 32 can be preset, for example, and, in the example in FIG. 1, for example an area above the passenger seat.
  • a virtual image 34 of the graphical user interface of the mobile terminal 22 in the output area 32 is shown.
  • a camera image of the interior of the motor vehicle can also be displayed on the display surface 28, in that the image 34 of the user interface of the mobile terminal device 22 can be displayed.
  • an area of the display area 28 on which the image 34 is not displayed can be switched to transparent so that the user can see the real interior of the motor vehicle 12 through the exemplary data glasses.
  • the output device 18 can, for example, generate a virtual reality that does not show an interior of the motor vehicle, but rather, for example, a landscape of a video game, and can display the image 34 of the graphical user interface.
  • the example in FIG. 1 shows a part of the body of the user, preferably a hand 36, which is currently executing a contactless operating gesture to control the mobile terminal device 22.
  • the contactless operating gesture which can also be referred to as a room gesture, can be, for example, a pointing gesture in which the user points in the air to the specified output area 32 and thus to the image 34 of the user interface, and to the Example moved to where a function to be activated can be represented by an icon on the user interface shown in Figure 34.
  • an operating area can be specified, that is to say an area within which the user must perform the spatial gesture so that it is detected and / or recognized.
  • the sensor 30 can then, for example, be directed to this exemplary, predetermined operating area, or alternatively the sensor 30 or a plurality of sensors 30 can cover a large part or the entire interior of the motor vehicle 12.
  • the user can be shown a user interface on which various menu items are displayed and / or, for example, values of various vehicle functions. If the user now wants to activate one of the displayed, possible operating functions or, for example, receive more detailed information on one of the vehicle functions, the spatial gesture can provide, for example, that he points with his finger at a corresponding icon or display element.
  • a corresponding sensor signal can be received by the gesture recognition and control device 10 (S6) and the contactless operating gesture can be recognized, for example, to trigger a video playback function (S7).
  • the graphical user interface can be mirrored, for example, by means of a “grabber”, ie a so-called “content grabber” or “frame grabber” and fade in into virtual reality.
  • a “grabber” ie a so-called “content grabber” or “frame grabber” and fade in into virtual reality.
  • an image of the flange 36 can be superimposed, for which purpose the gesture recognition is based on a similar principle Hand 36 of the user can be filmed or followed, for example, and can then be mapped onto the display surface 28 by the gesture recognition and control device 10.
  • another display element 38 is shown as an example, on which, for example, a further operating function can be displayed, for example a function for closing the gesture recognition and / or mirroring the graphical user interface and / or for menu navigation.
  • a further operating function can be displayed, for example a function for closing the gesture recognition and / or mirroring the graphical user interface and / or for menu navigation.
  • Such an exemplary “back button” can preferably be shown in a predetermined position, in particular in a highlighted position.
  • the gesture recognition and control device 10 can provide a further output signal (S8) that can describe the output of further display content in the form of an image 40 of a further graphical user interface.
  • This can preferably be an operating menu for scaling and / or positioning the first image 34, that is to say the first virtual graphic user interface that is mirrored by the mobile terminal 22.
  • the gesture recognition and control device 10 can use this additional spatial gesture to predetermine the output area 32 at a different position in the interior, in this case in front of the steering wheel (S8).
  • another spatial gesture can scale the image 34 (S9), that is to say the image 34 can, for example, be "drawn out” at the corners, that is, the image 34 can be enlarged, for example.
  • the gesture recognition and control device can generate a remote control signal (S10) that can activate the operating function for displaying the detailed information on an operating parameter or playing a video, for example.
  • the generated remote control signal is transmitted to the control device 26 of the identified mobile terminal 22 via the data communication link 20 (S11).
  • the mobile terminal 22, in particular the control device 26, then triggers the operating function (S12).
  • the gesture recognition and control device 10 can be in communication with a motor vehicle system (not shown in FIG. 1), for example an ignition or a driver assistance system, and on the basis of, for example, a signal that describes that the motor vehicle is currently in a piloted driving mode is operated, the method can be activated.
  • FIGS. 1 to 5 show further exemplary embodiments of the method and the devices, only the differences from the example of FIG. 1 being discussed below.
  • the image 34 of the graphical user interface of the mobile terminal 22 can, for example, display an operating menu as a segment of a circular ring.
  • One or more operating functions can be selected depending on whether the exemplary flange 36 points into one area of the annulus portion, for example to generate a display; or in another area of the annulus, for example to provide a new display.
  • the corresponding operating functions can preferably be displayed on the graphical user interface, which is mirrored on the display surface 28 of the output device 18, for better orientation.
  • Fig. 2 also shows an exemplary space gesture in which the Fland 36 can be a space gesture in which all fingers are extended, and in which a Fland plate, for example, points upwards.
  • This exemplary space gesture can be, for example, a space gesture for navigating back into a flome directory.
  • the Fig. 2 shown spatial gesture for example, a pivoting of the outstretched hand to the right or left, or up or down, describe in order to select the corresponding operating functions.
  • the real hand 36 of the user can be seen in an augmented reality, or an image of a virtual hand that moves exactly like the hand 36 of the user is displayed.
  • the mirrored graphical user interface can, for example, show a TV menu, or a desktop of the mobile terminal device 22 can be mirrored, or the graphical user interface can show what is known as a “content streamer”.
  • a mirrored user interface is shown, which can for example be an operating menu of a media program, with the help of which one can select and listen to music albums, for example, or switch to a video and photo function, for example.
  • FIG. 4 shows an extension of the exemplary embodiment in FIG. 3, in which a further graphical user interface, either another one of the mobile terminal 22 or a graphical user interface generated specifically by the gesture recognition and control device 10, through the image 40 can be displayed.
  • a music album stored in the mobile terminal device 22 can be deleted, for example, various tracks or functions can be selected, or the image 34 can be scaled and / or positioned with this additional menu ( S8, S9).
  • Fig. 5 shows an embodiment in which the user, for example a driver in a fully autonomous journey (level 5), or a front passenger or a passenger in the rear, generate any display, scale it (S9) and / or place it in the interior (that is, can specify the output area 32, S8), for example to watch a soccer game live.
  • Scale on another image 40 i.e. another display that it generates (S9) and / or as required, he can, for example, display the operating concept of his MMI and operate his mobile terminal 22 and / or the motor vehicle 10, or he can display, for example, combined content such as a speed, navigation information (for example remaining Distance and / or arrival time). He may also use another image 40 or display element, that is to say another display, in order to process his emails, for example.
  • the user can design his own display and control surfaces in his virtual environment.
  • This system can be easily connected to an entertainment system that provides virtual reality. During the exemplary game, the user would not have to get out of virtual reality in order to keep an eye on his secondary activities, for example retrieving emails, or to operate his motor vehicle 12.
  • the examples show how the invention enables VR- and / or AR-based remote control.
  • the user can activate a “Flying MMI” or “VR-MMI” - that is, the mirrored, virtual user interface - within a virtual reality, regardless of the context (for example gaming and / or meeting) .
  • This can offer the same functionality as a serial MMI.
  • the series MMI and the VR MMI can always be synchronized and show the same display content.
  • the VR-MMI can preferably also be operated as usual using analogue gestures, analogous to series operation (e.g. touch, slide, pinch).
  • the user can preferably place the VR-MMI, that is to say the mirrored graphic user interface, at a location that makes sense for him, that is to say the output area 32 is predefined.
  • the system is very easy to implement in both VR and AR (extended reality).
  • a technical implementation can provide that by tracking, for example, the hands 36 or a hand 36 of the user using one or more sensors 30, for example infrared sensors, preferably using leap motion, and through Determining the hand coordinates in relation to the Koordina th of the output device 18, that is to say of the HMD, the scope of action of the user can be completely recorded in three dimensions.
  • the image shown in the serial MMI ie the image shown by the display device 24 of the mobile terminal 22, can preferably be transferred to the "Area of Interest", ie to the output area 32, with other areas freely defined by the user by means of a grabber be streamed within virtual reality.
  • Actions by a third person on the serial MMI for example on the screen of the mobile terminal 22, can therefore be displayed in real time in the VR MMI, that is in the image 34 of the mirrored user interface.
  • the corresponding message can be transmitted to a main unit, for example, which carries out the actions.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The invention relates to a method for operating a mobile terminal (22). A gesture recognition and control device (10) identifies a mobile terminal (22, S1) and determines (S2) a current graphical user interface that is generated by a display device (24) of the identified mobile terminal (22). The gesture recognition and control device (10) provides an output signal which, as the display content, describes (S3) the graphical user interface generated by the display device (24) of the identified mobile terminal (22), and transmits this signal to an output apparatus (18), which can be worn on the head, for outputting the display content in a predefined output region (32) in the interior of the motor vehicle (12, S4) as part of an augmented reality or virtual reality output by the output apparatus (18). When the display content is being output, the gesture recognition and control device (10): identifies a spatial gesture of the user (S7); on the basis of said gesture, generates a remote control signal for triggering an operating function (S12) of the mobile terminal (22, S10); and transmits said signal to a control device (26) of the identified mobile terminal (22, S11).

Description

Verfahren zum Betreiben eines mobilen Endgeräts mittels einer Gestener kennungs- und Steuereinrichtung, Gestenerkennungs- und Steuereinrich tung, Kraftfahrzeug, und am Kopf tragbare Ausgabevorrichtung Method for operating a mobile terminal by means of a gesture recognition and control device, gesture recognition and control device, a motor vehicle, and an output device that can be worn on the head
BESCHREIBUNG: DESCRIPTION:
Die Erfindung betrifft ein Verfahren zum Betreiben eines mobilen Endgeräts, zum Beispiel eines Smartphones oder Tablet-PCs, wobei das Verfahren durch eine Gestenerkennungs- und Steuereinrichtung durchgeführt wird. Unter einer Gestenerkennungs- und Steuereinrichtung ist ein Gerät, eine Gerätekomponente oder eine Gerätegruppe zu verstehen, das/die dazu eingerichtet ist, eine Bediengeste zu erkennen; und die außerdem dazu eingerichtet ist, Signale zu empfangen und auszuwerten, sowie ein Steuer signal zu erzeugen. Optional kann die Gestenerkennungs- und Steuerein- richtung auch zum Erfassen der Bediengeste ausgestaltet sein, zum Beispiel mittels einer Kamera. The invention relates to a method for operating a mobile terminal, for example a smartphone or tablet PC, the method being carried out by a gesture recognition and control device. A gesture recognition and control device is to be understood as meaning a device, a device component or a device group which is set up to recognize an operating gesture; and which is also set up to receive and evaluate signals, and to generate a control signal. Optionally, the gesture recognition and control device can also be designed to capture the operating gesture, for example by means of a camera.
Als Alternative zu einer Bedienung von Fahrzeugsystemen über eine Mensch-Maschine-Schnittsteile („MMI“) sowie als Alternative einer Bedie- nung durch einen Fahrer, steht zum Beispiel einem Mitfahrer im Fond in modernen Kraftfahrzeugen ein mobiles Endgerät zur Verfügung, zum Bei spiel ein Tablet-PC, auf dem zum Beispiel Fahrzeugfunktionen wie zum Beispiel eine aktuelle Geschwindigkeit angezeigt werden können. Es handelt sich dabei um ein Hardware-Bedienteil, welches zum Beispiel die Einstellung von Fahrzeugfunktionen, Navigation und Medieninhalte ermöglicht. Dies ist vor allem in solchen Fahrzeugen wichtig, in denen häufig Personen chauffiert werden, zum Beispiel in Fahrzeugen eines Fahrdienstes. As an alternative to operating vehicle systems via a human-machine interface (“MMI”) and as an alternative to being operated by a driver, a passenger in the rear of modern vehicles can use a mobile device, for example a Tablet PC on which vehicle functions such as the current speed can be displayed. It is a hardware control unit that enables, for example, the setting of vehicle functions, navigation and media content. This is particularly important in those vehicles in which people are often chauffeured, for example in vehicles of a driver service.
Ein solcher beispielhafter Tablet-PC wirkt jedoch mittlerweile eher altmodisch und kann auch nur von einem Mitfahrer benutzt werden. Die gleiche Proble- matik ergibt sich beim Benutzen eines mobilen Endgeräts, zum Beispiel eines Smartphones. Such an exemplary tablet PC, however, now looks rather old-fashioned and can only be used by one passenger. The same problem- matic arises when using a mobile device, for example a smartphone.
Die DE 10 2016 207 530 A1 beschreibt ein System zum Darstellen eines virtuellen Fahrzeuginnenraums, mit einer oder mehreren Fahrzeuginnen raumkomponenten und einer digitalen Brille, welche dazu eingerichtet ist, einem Benutzer einen virtuellen Fahrzeuginnenraum optisch wiederzugeben und bei der optischen Wiedergabe die eine oder die mehreren Fahrzeugin nenraumkomponenten zu berücksichtigen. DE 10 2016 207 530 A1 describes a system for displaying a virtual vehicle interior, with one or more vehicle interior components and digital glasses, which are set up to visually display a virtual vehicle interior to a user and the one or more vehicles in the optical display to consider interior components.
Aus der EP 3 079 041 A1 sind ein Verfahren und ein System zur Bereitstel lung einer Virtual-Reality-Umgebung für Passagiere von Land- und Luftfahr zeugen bekannt. From EP 3 079 041 A1 a method and a system for the provision of a virtual reality environment for passengers of land and air vehicles are known.
Die DE 10 2017 211 521 A1 beschreibt ein Kraftfahrzeug zur Beförderung wenigstens eines Benutzers, das ein Teilsystem aufweist, welches eingerich tet ist, eine physische Funktion des Kraftfahrzeugs auszuführen. DE 10 2017 211 521 A1 describes a motor vehicle for transporting at least one user, which has a subsystem which is set up to perform a physical function of the motor vehicle.
Eine der Erfindung zugrundeliegende Aufgabe ist das Vereinfachen einer Bedienung eines mobilen Endgeräts im Kraftfahrzeug. One object of the invention is to simplify the operation of a mobile terminal in the motor vehicle.
Die gestellte Aufgabe wird durch das erfindungsgemäße Verfahren und die erfindungsgemäßen Vorrichtungen gelöst. Vorteilhafte Weiterbildungen sind durch die Unteransprüche gegeben. The object set is achieved by the method according to the invention and the devices according to the invention. Advantageous further developments are given by the subclaims.
Die Erfindung basiert auf der Idee, eine Benutzerschnittstelle eines mobilen Endgeräts auf eine am Kopf tragbare Ausgabevorrichtung zu spiegeln und eine Raumgestenerkennung zum Bedienen der gespiegelten Benutzerober fläche zu implementieren. Unter einer Raumgeste wird dabei eine Geste, insbesondere eine Bediengeste, verstanden, bei der keine berührungssensi tive Oberfläche, zum Beispiel einen Touchscreen oder ein Touchpad, berührt werden muss, sondern frei im Raum durchgeführt wird. Die Raumgeste kann zum Beispiel eine vorbestimmte Finger- und/oder Handhaltung sein, und/oder eine Bewegung der beispielhaften Hand. Mit anderen Worten integriert die virtuelle oder erweiterte Realität („Aug- mented Reality“,„AR“), die an der am Kopf tragbaren Datenbrille ausgege ben wird, ein Bild einer Benutzeroberfläche des mobilen Endgeräts und spie- gelt diese in das Kraftfahrzeug. Ein Kraftfahrzeug mit einer entsprechend eingerichteten Gestenerkennungs- und Steuereinrichtung ist kompatibel mit allen mobilen Endgeräten und am Kopf tragbare Ausgabevorrichtungen. The invention is based on the idea of mirroring a user interface of a mobile terminal onto an output device that can be worn on the head and of implementing spatial gesture recognition for operating the mirrored user surface. A spatial gesture is understood to mean a gesture, in particular an operating gesture, in which no touch-sensitive surface, for example a touchscreen or a touchpad, has to be touched, but rather is carried out freely in space. The spatial gesture can be, for example, a predetermined finger and / or hand posture and / or a movement of the exemplary hand. In other words, the virtual or augmented reality (“augmented reality”, “AR”), which is displayed on the data glasses that can be worn on the head, integrates an image of a user interface of the mobile device and mirrors it in the motor vehicle. A motor vehicle with a correspondingly configured gesture recognition and control device is compatible with all mobile terminals and output devices that can be worn on the head.
Die Bedienung des mobilen Endgeräts ist dadurch nicht nur sehr modern, sondern ein Benutzer kann während der Nutzung der am Kopf tragbaren Ausgabevorrichtung für eine Entertainmentfunktion, zum Beispiel ein VR- Videospiel, gleichzeitig das mobile Endgerät bedienen. Der Benutzer muss die Ausgabevorrichtung, zum Beispiel eine Datenbrille, nicht jedes Mal ab setzen, um zum Beispiel einen Anruf entgegenzunehmen oder in einem Kalender des mobilen Endgeräts etwas nachzuschlagen. Es ergibt sich eine vollumfängliche Bedienung des mobilen Endgeräts aus zum Beispiel dem Fond, ohne die virtuelle Realität (VR) (oder eine erweiterte Realität) zu ver lassen. Auch in jeder Sitz- und/oder Liegeposition des Benutzers, in der er das mobile Endgerät vielleicht nicht erreichen und in die Hand nehmen kann, um zum Beispiel eine Wischgeste auf dem Touchscreen des mobilen Endge räts durchzuführen, ist das mobile Endgerät bedienbar. Durch das erfin dungsgemäße Verfahren und die erfindungsgemäßen Vorrichtungen wird außerdem ein vollumfänglich konfigurierbares und skalierbares System be reitgestellt. Die Erfindung ist auch für einen Fahrer des Kraftfahrzeugs an- wendbar, falls das Kraftfahrzeug in einem vollautonomen Fahrmodus (also einem pilotierten Fahrmodus) betrieben wird. The operation of the mobile terminal is not only very modern, but a user can simultaneously operate the mobile terminal while using the output device that can be worn on the head for an entertainment function, for example a VR video game. The user does not have to put down the output device, for example data glasses, every time, for example to answer a call or to look up something in a calendar of the mobile terminal. This results in full operation of the mobile device from the rear, for example, without leaving virtual reality (VR) (or augmented reality). The mobile device can also be operated in every sitting and / or lying position of the user in which he may not be able to reach the mobile device and take it in his hand, for example to make a swiping gesture on the touchscreen of the mobile device. The method according to the invention and the devices according to the invention also provide a fully configurable and scalable system. The invention can also be used for a driver of the motor vehicle if the motor vehicle is operated in a fully autonomous driving mode (ie a piloted driving mode).
Es wird, mit anderen Worten, eine Remotebedienung bereitgestellt, die ge nutzt werden kann, während sich zum Beispiel ein Benutzer im Fond mit einem Entertainmentsystem beschäftigt, und zum Beispiel ein Spiel erlebt, oder zum Beispiel ein Fahrer selbst bei einer autonomen Fahrt (Level 5) einem VR-Meeting beiwohnt. Außerdem ergibt sich vorteilhaft, dass auf dem mobilen Endgerät keine Software für eine virtuelle Realität oder eine erweiterte Realität aufgespielt sein muss. In other words, remote control is provided that can be used while, for example, a user in the rear is busy with an entertainment system and experiences a game, for example, or, for example, a driver himself during an autonomous journey (level 5 ) attends a VR meeting. In addition, it is advantageous that no software for a virtual reality or an augmented reality has to be installed on the mobile terminal.
Das erfindungsgemäße Verfahren zum Betreiben eines mobilen Endgeräts, zum Beispiel eines Smartphones, wird durch eine Gestenerkennungs- und Steuereinrichtung durchgeführt, insbesondere einer Gestenerkennungs- und Steuereinrichtung eines Kraftfahrzeugs. Die Gestenerkennungs- und Steuer einrichtung kann zum Beispiel als Steuerchip oder Steuergerät ausgestaltet sein und kann zum Beispiel eine Gestenerkennungssoftware und/oder zum Beispiel eine Kamera zum Erfassen einer Bediengeste aufweisen. The inventive method for operating a mobile terminal, for example a smartphone, is carried out by a gesture recognition and control device, in particular a gesture recognition and control device of a motor vehicle. The gesture recognition and control device can be designed, for example, as a control chip or control device and can have, for example, gesture recognition software and / or, for example, a camera for capturing an operating gesture.
Es erfolgt ein Erkennen des mobilen Endgeräts, insbesondere eines mobilen Endgeräts, das sich im oder am Kraftfahrzeug befindet. Das mobile Endgerät kann zum Beispiel mittels einer Bluetooth-Verbindung erkannt werden. Durch die Gestenerkennungs- und Steuereinrichtung erfolgt ein Feststellen einer aktuellen, durch eine Ausgabeeinrichtung des erkannten mobilen Endgeräts erzeugte graphische Benutzeroberfläche, die eine Bedienoption bereitstellt, bei der eine Betriebsfunktion des mobilen Endgeräts auslösbar ist. The mobile terminal device, in particular a mobile terminal device which is located in or on the motor vehicle, is recognized. The mobile terminal can be recognized, for example, by means of a Bluetooth connection. The gesture recognition and control device establishes a current graphic user interface generated by an output device of the recognized mobile terminal, which provides an operating option in which an operating function of the mobile terminal can be triggered.
Durch die Gestenerkennungs- und Steuereinrichtung erfolgt ein Bereitstellen eines Ausgabesignals, das als Anzeigeinhalt die durch die Anzeigeeinrich tung des mobilen Endgeräts erzeugte graphische Benutzeroberfläche be schreibt. Unter einer Anzeigeeinrichtung wird eine Gerätekomponente zum Anzeigen eines Bildinhaltes verstanden, insbesondere ein berührungssensi tiver Bildschirm. Beispielsweise kann ein Ausgabesignal des mobilen Endge räts an die Gestenerkennungs- und Steuereinrichtung weitergeleitet werden, und das von der Gestenerkennungs- und Steuereinrichtung bereitgestellte Ausgabesignal kann dann zum Beispiel das Ausgabesignal des mobilen Endgeräts sein. Alternativ kann das Ausgabesignal bereitgestellt werden, indem die Gestenerkennungs- und Steuereinrichtung das Ausgabesignal erzeugt, wobei das erzeugte Ausgabesignal ein Bild der graphischen Benut zeroberfläche des mobilen Endgeräts beschreiben kann. Das durch die Gestenerkennungs- und Steuereinrichtung bereitgestellte Ausgabesignal wird durch diese an eine am Kopf tragbare Ausgabevorrich tung übertragen. Mit anderen Worten wird zum Beispiel ein Ausgabesignal des mobilen Endgeräts an die am Kopf tragbare Ausgabevorrichtung weiter geleitet, die graphische Benutzeroberfläche wird auf eine Anzeigefläche der am Kopf tragbaren Ausgabevorrichtung gespiegelt, oder eine Anzeigefläche der am Kopf tragbaren Ausgabevorrichtung wird mit einem Bildschirm des mobilen Endgeräts synchronisiert. The gesture recognition and control device provides an output signal which, as display content, writes the graphic user interface generated by the display device of the mobile terminal. A display device is understood to mean a device component for displaying image content, in particular a touch-sensitive screen. For example, an output signal of the mobile terminal can be forwarded to the gesture recognition and control device, and the output signal provided by the gesture recognition and control device can then be, for example, the output signal of the mobile terminal. Alternatively, the output signal can be provided in that the gesture recognition and control device generates the output signal, wherein the generated output signal can describe an image of the graphical user interface of the mobile terminal. The output signal provided by the gesture recognition and control device is transmitted by this to an output device which can be worn on the head. In other words, for example, an output signal from the mobile terminal is forwarded to the output device that can be worn on the head, the graphical user interface is mirrored on a display surface of the output device that is worn on the head, or a display surface of the output device that is worn on the head is synchronized with a screen of the mobile terminal .
Die am Kopf tragbare Ausgabevorrichtung ist ein Ausgabegerät zum Ausge ben einer erweiterten Realität und/oder einer virtuellen Realität. Die am Kopf tragbare Ausgabevorrichtung kann vorzugsweise als Datenbrille ausgestaltet sein, oder als anderes, aus dem Stand der Technik bekanntes„Head Moun- ted Display“ („HMD“), also am Kopf zu tragendes visuelles Ausgabegerät. The output device that can be worn on the head is an output device for outputting an augmented reality and / or a virtual reality. The output device that can be worn on the head can preferably be designed as data glasses or as another “head-mounted display” (“HMD”) known from the prior art, that is, a visual output device to be worn on the head.
Das Übertragen des bereitgestellten Ausgabesignals an die am Kopf tragba re Ausgabevorrichtung erfolgt zum Ausgeben des Anzeigeinhalts als Teil einer durch die Ausgabevorrichtung bereitgestellten oder ausgegebenen erweiterten oder virtuellen Realität in einem vorgegebenen Ausgabebereich im Innenraum des Kraftfahrzeugs. Mit anderen Worten wird der Anzeigein halt nicht in dem vorgegebenen Ausgabebereich, zum Beispiel einem Be reich zwischen dem Benutzer auf der Rückbank und einer Rückenlehne des Vordersitzes, angezeigt, sondern auf einer Anzeigefläche der am Kopf trag baren Ausgabevorrichtung, sodass der Anzeigeinhalt bei Blick in Richtung des vorgegebenen Ausgabebereichs dort erscheint. Mit anderen Worten erfolgt das Ausgeben des Anzeigeinhalts auf einem Anteil einer Anzeigeflä che der am Kopf tragbaren Ausgabevorrichtung, der in einer Blickrichtung des Benutzers auf den vorgegebenen Ausgabebereich liegt. The output signal provided is transmitted to the output device that can be worn on the head to output the display content as part of an augmented or virtual reality provided or output by the output device in a predetermined output area in the interior of the motor vehicle. In other words, the display content is not displayed in the specified output area, for example an area between the user on the back seat and a backrest of the front seat, but on a display surface of the output device that can be worn on the head, so that the display content when looking in the direction of the specified output area appears there. In other words, the display content is output on a portion of a display surface of the output device which can be worn on the head and which is in a direction in which the user is looking at the predetermined output area.
Während des Ausgebens des Anzeigeinhalts erfolgt ein Erkennen einer berührungslosen Bediengeste des Benutzers in Abhängigkeit von der bereit gestellten Bedienoption. Stellt die aktuell von dem mobilen Endgerät bereit gestellte Benutzeroberfläche beispielsweise die Bedienoption, dass durch ein beispielhaftes Wischen über den Bildschirm ein Auswählen eines aktuell geöffneten Programms des mobilen Endgeräts bereitstellt, kann bei Spiegeln der graphischen Benutzeroberfläche auf die am Kopf tragbare Ausgabevor richtung von der Gestenerkennungs- und Steuereinrichtung eine Raumgeste erkannt werden, die zum Beispiel ein berührungsloses Wischen im Raum sein kann. Durch diese erkannte berührungslose Bediengeste, also die er kannte Raumgeste, kann ohne Berühren des Bildschirms des mobilen End geräts das Auswählen des Programms des mobilen Endgeräts ausgelöst werden. Da die graphische Benutzeroberfläche weiterhin vom mobilen End gerät auf die am Kopf tragbare Ausgabevorrichtung gespiegelt wird, sieht der Benutzer dann als Anzeigeinhalt zum Beispiel das Öffnen des ausgewählten Programms. While the display content is being output, a contactless operating gesture by the user is recognized as a function of the operating option made available. If the user interface currently provided by the mobile terminal device provides, for example, the operating option that an example of swiping across the screen can be used to select a current When the graphical user interface is mirrored on the output device that can be worn on the head, the gesture recognition and control device can recognize a room gesture, which can be, for example, a contactless swiping in the room. This recognized contactless operating gesture, that is to say the recognized spatial gesture, can trigger the selection of the program of the mobile terminal without touching the screen of the mobile terminal. Since the graphical user interface continues to be mirrored from the mobile terminal onto the output device that can be worn on the head, the user then sees the opening of the selected program as display content, for example.
Weist die Gestenerkennungs- und Steuereinrichtung zum Beispiel eine Ka mera auf, zum Beispiel eine Time-off-Flight-Kamera, kann vor dem Erkennen der berührungslosen Bediengeste ein Erfassen der berührungslosen Bedi engeste erfolgen. If the gesture recognition and control device has, for example, a camera, for example a time-off flight camera, the contactless operating gesture can be detected before the contactless operating gesture is recognized.
Durch die Gestenerkennungs- und Steuereinrichtung erfolgt ein Erzeugen eines Fernsteuersignals in Abhängigkeit von der erkannten berührungslosen Bediengeste, wobei das erzeugte Fernsteuersignal ein Auslösen der der erkannten berührungslosen Bediengeste zugeordneten Betriebsfunktion des mobilen Endgeräts beschreibt. Vorzugsweise kann die berührungslose Bedi engeste zum Auslösen der Bedienfunktion eine Raumgeste sein, die ähnlich oder analog zu der Berührgeste der der Betriebsfunktion zugeordneten Be rührgeste ist. Ist die Berührgeste zum Beispiel ein Wischen auf dem Bild schirm des mobilen Endgeräts von zum Beispiel links nach rechts, kann die entsprechende Raumgeste zum Auslösen der Bedienfunktion ein Bewegen der Fland des Benutzers von links nach rechts in der Luft sein. The gesture recognition and control device generates a remote control signal as a function of the detected contactless operating gesture, the generated remote control signal describing a triggering of the operating function of the mobile terminal assigned to the recognized contactless operating gesture. The contactless operating gesture for triggering the operating function can preferably be a spatial gesture that is similar or analogous to the touch gesture of the touching gesture assigned to the operating function. If the touch gesture is, for example, a swipe on the screen of the mobile terminal from left to right, for example, the corresponding spatial gesture to trigger the operating function can be moving the user's face from left to right in the air.
Durch die Gestenerkennungs- und Steuereinrichtung erfolgt ein Übertragen des erzeugten Fernsteuersignals an eine Steuereinrichtung des erkannten mobilen Endgeräts zum Auslösen der Bedienfunktion. Unter einer Steuerein richtung wird dabei eine Gerätekomponente oder zum Beispiel eine Bauteil gruppe zum Empfangen und Auswerten von Signalen, sowie zum Erzeugen von Steuersignalen verstanden. Die Steuereinrichtung des erkannten mobi len Endgeräts kann zum Beispiel ein Steuerchip sein. The gesture recognition and control device transmits the generated remote control signal to a control device of the recognized mobile terminal to trigger the operating function. A control device is a device component or, for example, a component group for receiving and evaluating signals, as well as for generating them understood by control signals. The control device of the recognized mobile terminal can be a control chip, for example.
Mit anderen Worten ist der Betriebsfunktion, der in dem mobilen Endgerät zum Beispiel eine Berührgeste auf zum Beispiel einem Touchscreen des mobilen Endgeräts zugeordnet ist, beim Spiegeln der graphischen Benutzer oberfläche auf die am Kopf tragbare Ausgabevorrichtung eine berührungslo se Bediengeste zugeordnet. Mit anderen Worten stellt die graphische Benut zeroberfläche die Bedienoption bereit, bei der bei einer direkten Bedienung des mobilen Endgeräts die Betriebsfunktion mittels einer Bediengeste, ins besondere einer Berührgeste, auslösbar ist. Gemäß dem erfindungsgemä ßen Verfahren wird die Bedienfunktion jedoch indirekt über die gespiegelte Benutzeroberfläche in der virtuellen oder erweiterten Realität mittels einer berührungslosen Bediengeste, also einer Raumgeste, die nicht von dem mobilen Endgerät, sondern von der Gestenerkennungs- und Steuereinrich tung erkannt wird, ausgelöst. In other words, the operating function, which is assigned a touch gesture on, for example, a touchscreen of the mobile terminal in the mobile terminal, is assigned a contactless operating gesture when the graphic user interface is mirrored on the output device that can be worn on the head. In other words, the graphical user interface provides the operating option in which, when the mobile terminal device is operated directly, the operating function can be triggered by means of an operating gesture, in particular a touch gesture. According to the method according to the invention, however, the operating function is triggered indirectly via the mirrored user interface in virtual or augmented reality by means of a contactless operating gesture, i.e. a spatial gesture that is not recognized by the mobile device but by the gesture recognition and control device.
Es ergeben sich die oben genannten Vorteile. The advantages mentioned above result.
Für eine besonders benutzerspezifische Implementierung kann eine Ausfüh rungsform des erfindungsgemäßen Verfahrens vorsehen, dass durch die Gestenerkennungs- und Steuereinrichtung ein Erkennen einer weiteren be rührungslosen Bediengeste, insbesondere während des Ausgebens des Anzeigeinhalts durch die am Kopf tragbare Ausgabevorrichtung, erfolgt, wobei die weitere berührungslose Bediengeste ein Positionieren oder Plat zieren des Anzeigeinhalts (also eines Bilds der gespiegelten Benutzerober fläche) im Innenraum des Kraftfahrzeugs vorgeben kann. Mit anderen Wor ten gibt die weitere berührungslose Bediengeste vor, an welchem Standort oder Platz oder Position im Kraftfahrzeug der Anzeigeinhalt zu sehen sein oder erscheinen soll, wenn der Benutzer die am Kopf tragbare Ausgabevor richtung trägt. Durch die Gestenerkennungs- und Steuereinrichtung kann dann ein Vorgeben des Ausgabebereichs anhand der erkannten weiteren berührungslosen Bediengeste erfolgen. Mit anderen Worten kann ein virtuel ler Standort des Anzeigeinhaltes vorgegeben und/oder geändert werden. In einer weiteren, bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens kann durch die Gestenerkennungs- und Steuereinrichtung eine weitere berührungslose Bediengeste erkannt werden, welche ein Skalieren des Anzeigeinhalts (also eines Bilds der gespiegelten Benutzeroberfläche) beschreiben kann. Mit anderen Worten kann die weitere berührungslose Bediengeste zum Beispiel ein Format und/oder eine Größe des Anzeigein haltes vorgeben und/oder ändern. Durch die Gestenerkennungs- und Steu ereinrichtung kann dann ein Skalieren eines Bildes erfolgen, das den Anzei- geinhalt zeigt. Das Skalieren des Bilds erfolgt anhand der erkannten weiteren berührungslosen Bediengeste. Es ergeben sich die Vorteile, die bereits zur vorherigen Ausführungsform beschrieben wurden. For a particularly user-specific implementation, an embodiment of the method according to the invention can provide that the gesture recognition and control device recognizes a further contactless operating gesture, in particular while the display content is being output by the output device that can be worn on the head, the further contactless operating gesture being a Positioning or Plat decorating the display content (ie an image of the mirrored user surface) in the interior of the motor vehicle can be specified. In other words, the further contactless operating gesture specifies the location or place or position in the motor vehicle at which the display content should be seen or appear when the user wears the output device that can be worn on the head. The gesture recognition and control device can then specify the output area on the basis of the recognized further contactless operating gesture. In other words, a virtual location of the display content can be specified and / or changed. In a further, preferred embodiment of the method according to the invention, another contactless operating gesture can be recognized by the gesture recognition and control device, which can describe a scaling of the display content (ie an image of the mirrored user interface). In other words, the further contactless operating gesture can, for example, specify and / or change a format and / or a size of the display content. The gesture recognition and control device can then scale an image that shows the display content. The image is scaled on the basis of the recognized additional contactless operating gesture. The advantages that have already been described for the previous embodiment result.
Zum Platzieren und/oder Skalieren des Anzeigeinhalts kann jeweils optional durch die Gestenerkennungs- und Steuereinrichtung ein Erfassen der jewei ligen weiteren berührungslosen Bediengeste erfolgen. For placing and / or scaling the display content, the respective further contactless operating gesture can optionally be detected by the gesture recognition and control device.
Idealerweise kann zum Skalieren und/oder Positionieren des Anzeigeinhaltes eine weitere, also separate, Benutzeroberfläche durch die am Kopf tragbare Ausgabevorrichtung angezeigt wird. Hierzu wird der Benutzer bei der Skalie rung und Positionierung unterstützt. Um dies zu verwirklichen, kann durch Gestenerkennungs- und Steuereinrichtung ein Bereitstellen eines weiteren Ausgabesignals erfolgen, welches als Anzeigeinhalt eine weitere graphische Benutzeroberfläche beschreiben kann, wobei die weitere graphische Benut- zeroberfläche ein Bedienmenü zum Skalieren und/oder Positionieren des die durch die Anzeigeeinrichtung des mobilen Endgeräts erzeugte graphische Benutzeroberfläche beschreibenden Anzeigeinhalts bereitstellen kann. Die weitere graphische Benutzeroberfläche kann also optional unabhängig davon sein, was das mobile Endgerät anzeigt und kann deswegen als zusätzliche graphische Benutzeroberfläche bezeichnet werden. Ideally, for scaling and / or positioning the display content, a further, ie separate, user interface can be displayed by the output device that can be worn on the head. For this purpose, the user is supported in scaling and positioning. To achieve this, another output signal can be provided by the gesture recognition and control device, which can describe a further graphical user interface as display content, the further graphical user interface being an operating menu for scaling and / or positioning the output signal provided by the display device of the mobile Terminal generated graphical user interface can provide descriptive display content. The further graphic user interface can therefore optionally be independent of what the mobile terminal is displaying and can therefore be referred to as an additional graphic user interface.
Vorzugsweise kann die Gestenerkennungs- und Steuereinrichtung ein oder mehrere Verfahrensschritte der oben beschriebenen Ausführungsformen nur in Abhängigkeit von einem Aktivieren eines vollautonomen Fahrmodus und/oder in Abhängigkeit von einem Motorstart des Kraftfahrzeugs durchfüh ren. Hierzu kann die Gestenerkennungs- und Steuereinrichtung zum Beispiel den aktuellen Fahrmodus (oder einen zukünftigen Fahrmodus) von einem Fahrerassistenzsystem abfragen oder ein entsprechendes Signal aus dem Fahrerassistenzsystem empfangen; und/oder die Gestenerkennungs- und Steuereinrichtung kann zum Beispiel ein Startsignal aus einer Zündanlage des Kraftfahrzeugs empfangen und auswerten. Die Spiegelung der Benut zeroberfläche des mobilen Endgeräts wird so zuverlässig und sofort durch die Ausgabevorrichtung angezeigt. Im vollautonomen Fahrmodus ergibt sich zusätzlich der Vorteil, dass auch ein Fahrer die am Kopf tragbare Ausgabe vorrichtung tragen und benutzen kann. The gesture recognition and control device can preferably only perform one or more method steps of the embodiments described above as a function of activating a fully autonomous driving mode and / or as a function of an engine start of the motor vehicle. To this end, the gesture recognition and control device can, for example, query the current driving mode (or a future driving mode) from a driver assistance system or receive a corresponding signal from the driver assistance system; and / or the gesture recognition and control device can, for example, receive and evaluate a start signal from an ignition system of the motor vehicle. The reflection of the user interface of the mobile terminal is displayed reliably and immediately by the output device. In the fully autonomous driving mode, there is the additional advantage that a driver can also carry and use the output device that can be worn on the head.
Die oben gestellte Aufgabe wird gelöst durch eine Gestenerkennungs- und Steuereinrichtung, die dazu eingerichtet ist, ein Verfahren nach einer der oben beschriebenen Ausführungsformen durchzuführen. Die Gestenerken nungs- und Steuereinrichtung kann zum Beispiel als Steuergerät oder Steu erchip ausgestaltet sein oder als Anwenderprogramm („App“). Vorzugsweise kann die Gestenerkennungs- und Steuereinrichtung eine Prozessoreinrich tung aufweisen, also ein Bauteil oder eine Gerätekomponente, das/die zur elektronischen Datenverarbeitung ausgestaltet und eingerichtet ist, und vor zugsweise mindestens einen Mikrocontroller und/oder einen Mikroprozessor aufweisen kann. Optional kann die Gestenerkennungs- und Steuereinrich tung einen Datenspeicher aufweisen, zum Beispiel eine Speicherkarte oder einen Speicherchip, oder einen anderen Datenspeicher, auf dem vorzugs weise ein Programmcode abgelegt sein kann, der, bei Ausführen durch die Prozessoreinrichtung, die Gestenerkennungs- und Steuereinrichtung dazu veranlassen kann, eine Ausführungsform des erfindungsgemäßen Verfah rens durchzuführen. The object set above is achieved by a gesture recognition and control device which is set up to carry out a method according to one of the embodiments described above. The gesture recognition and control device can be designed, for example, as a control device or control chip or as a user program (“app”). The gesture recognition and control device can preferably have a processor device, that is to say a component or a device component which is designed and set up for electronic data processing and preferably can have at least one microcontroller and / or a microprocessor. Optionally, the gesture recognition and control device can have a data memory, for example a memory card or a memory chip, or another data memory on which a program code can preferably be stored which, when executed by the processor device, cause the gesture recognition and control device to do so can perform an embodiment of the method according to the invention.
Die Gestenerkennungs- und Steuereinrichtung kann vorzugsweise eine Ges tenerkennungs- und Steuereinrichtung des Kraftfahrzeugs sein. Optional kann die Gestenerkennungs- und Steuereinrichtung einen oder mehrere Sensoren aufweisen, zum Beispiel einen oder mehrere Kameras. Es ergeben sich jeweils die bereits beschriebenen Vorteile. Die oben gestellte Aufgabe wird gelöst durch ein Kraftfahrzeug, das eine Ausführungsform der oben beschriebenen Gestenerkennungs- und Steuer einrichtung aufweist. Es ergeben sich die bereits genannten Vorteile. The gesture recognition and control device can preferably be a gesture recognition and control device of the motor vehicle. Optionally, the gesture recognition and control device can have one or more sensors, for example one or more cameras. The advantages already described arise in each case. The object set above is achieved by a motor vehicle which has an embodiment of the gesture recognition and control device described above. The advantages already mentioned result.
Die oben gestellte Aufgabe wird gelöst durch eine am Kopf tragbare Ausga- bevorrichtung, zum Beispiel eine Datenbrille, die zum Ausgeben einer erwei terten Realität und/oder einer virtuellen Realität ausgestaltet ist, und die eine Ausführungsform der erfindungsgemäßen Gestenerkennungs- und Steuer einrichtung aufweist. Auch hier ergeben sich die bereits genannten Vorteile. Zu der Erfindung gehören auch Weiterbildungen der erfindungsgemäßen Gestenerkennungs- und Steuereinrichtung und des erfindungsgemäßen Kraftfahrzeugs, die Merkmale aufweisen, wie sie bereits im Zusammenhang mit den Weiterbildungen des erfindungsgemäßen Verfahrens beschrieben worden sind. Aus diesem Grund sind die entsprechenden Weiterbildungen der erfindungsgemäßen Gestenerkennungs- und Steuereinrichtung und des erfindungsgemäßen Kraftfahrzeugs hier nicht noch einmal beschrieben. The above object is achieved by an output device that can be worn on the head, for example data glasses, which are designed to output an extended reality and / or a virtual reality, and which has an embodiment of the inventive gesture recognition and control device. The advantages already mentioned arise here as well. The invention also includes further developments of the gesture recognition and control device according to the invention and of the motor vehicle according to the invention which have features as they have already been described in connection with the further developments of the method according to the invention. For this reason, the corresponding developments of the gesture recognition and control device according to the invention and the motor vehicle according to the invention are not described again here.
Das erfindungsgemäße Kraftfahrzeug ist bevorzugt als Kraftwagen, insbe sondere als Personenkraftwagen oder Lastkraftwagen, oder als Personen- bus oder Motorrad ausgestaltet. The motor vehicle according to the invention is preferably configured as a motor vehicle, in particular as a passenger vehicle or truck, or as a passenger bus or motorcycle.
Die Erfindung umfasst auch die Kombinationen der Merkmale der beschrie benen Ausführungsformen. Im Folgenden sind Ausführungsbeispiele der Erfindung beschrieben. Hierzu zeigt: Fig. 1 eine schematische Darstellung zu einem ersten Ausführungs beispiel des erfindungsgemäßen Verfahrens und der erfin dungsgemäßen Vorrichtungen; Fig. 2 eine schematische Darstellung zu einem weiteren Ausfüh rungsbeispiel des erfindungsgemäßen Verfahrens und der er findungsgemäßen Vorrichtungen; The invention also includes the combinations of the features of the described embodiments enclosed. Exemplary embodiments of the invention are described below. This shows: 1 shows a schematic representation of a first embodiment example of the method according to the invention and the devices according to the invention; 2 shows a schematic representation of a further exemplary embodiment of the method according to the invention and the devices according to the invention;
Fig. 3 eine schematische Darstellung zu einem weiteren Ausfüh rungsbeispiel des erfindungsgemäßen Verfahrens und der er findungsgemäßen Vorrichtungen; 3 shows a schematic representation of a further exemplary embodiment of the method according to the invention and the devices according to the invention;
Fig. 4 eine weitere schematische Darstellung zu dem weiteren Aus führungsbeispiel der Fig. 3; und FIG. 4 shows a further schematic illustration of the further exemplary embodiment from FIG. 3; FIG. and
Fig. 5 eine schematische Darstellung zu einem weiteren Ausfüh rungsbeispiel des erfindungsgemäßen Verfahrens und der er findungsgemäßen Vorrichtungen. Bei den im Folgenden erläuterten Ausführungsbeispielen handelt es sich um bevorzugte Ausführungsformen der Erfindung. Bei den Ausführungsbeispie len stellen die beschriebenen Komponenten der Ausführungsformen jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden. Daher soll die Offenbarung auch andere als die dargestellten Kombinationen der Merkmale der Ausführungsformen umfassen. Des Weiteren sind die beschriebenen Ausführungsformen auch durch weitere der bereits beschrie benen Merkmale der Erfindung ergänzbar. In den Figuren bezeichnen gleiche Bezugszeichen jeweils funktionsgleiche Elemente. Die Fig. 1 veranschaulicht das Prinzip des erfindungsgemäßen Verfahrens und der erfindungsgemäßen Vorrichtungen gemäß einem ersten Ausfüh rungsbeispiel. Eine Gestenerkennungs- und Steuereinrichtung 10 kann, wie im Beispiel der Fig. 1 gezeigt, zum Beispiel ein Steuerchip oder ein Steuergerät eines Kraft fahrzeugs 12 sein, das zum Beispiel als Personenkraftwagen ausgestaltet sein kann, vorzugsweise als Personenkraftwagen, das in einem pilotierten oder vollautonomen Fahrmodus betrieben werden kann. Die Gestenerken- nungs- und Steuereinrichtung 10 kann vorzugsweise eine Prozessoreinrich tung 14 mit zum Beispiel mehreren Mikroprozessoren aufweisen, und/oder einen Datenspeicher 16, zum Beispiel eine Speicherkarte oder einen Spei cherchip. Vorzugsweise kann auf dem optionalen Datenspeicher 16 ein Pro grammcode zum Durchführen des Verfahrens abgelegt sein. In dem Daten- Speicher 16 der Gestenerkennungs- und Steuereinrichtung 10 kann optional ein Treiber für ein Betriebssystem des mobilen Endgeräts 22 abgelegt sein. Fig. 5 is a schematic representation of a further Ausfüh approximately example of the method according to the invention and the devices according to the invention. The exemplary embodiments explained below are preferred embodiments of the invention. In the exemplary embodiments, the described components of the embodiments each represent individual features of the invention that are to be considered independently of one another and that further develop the invention in each case also independently of one another. Therefore, the disclosure is intended to include combinations of the features of the embodiments other than those shown. Furthermore, the described embodiments can also be supplemented by further features of the invention already described. In the figures, the same reference symbols denote functionally identical elements. Fig. 1 illustrates the principle of the method according to the invention and the devices according to the invention according to a first exemplary embodiment. A gesture recognition and control device 10 can, as shown in the example of FIG. 1, be, for example, a control chip or a control device of a motor vehicle 12, which can be configured, for example, as a passenger vehicle, preferably as a passenger vehicle operating in a piloted or fully autonomous driving mode can be operated. The gesture recognition and control device 10 can preferably have a processor device 14 with, for example, a plurality of microprocessors, and / or a data memory 16, for example a memory card or a memory chip. A program code for carrying out the method can preferably be stored on the optional data memory 16. A driver for an operating system of the mobile terminal device 22 can optionally be stored in the data memory 16 of the gesture recognition and control device 10.
Die Kommunikation mit einer am Kopf tragbaren Ausgabevorrichtung 18 kann vorzugsweise über eine drahtlose Datenkommunikationsverbindung 20 erfolgen, zum Beispiel über eine WLAN-Verbindung, Bluetooth-Verbindung oder Mobilfunk-Verbindung. Alternativ kann die Datenkommunikationsver bindung 20 zum Beispiel eine drahtgebundene Datenkommunikationsverbin dung 20 sein, zum Beispiel ein Kabel. Die am Kopf tragbare Ausgabevorrichtung 18 kann vorzugsweise eine Aus gabevorrichtung 18 für eine erweiterte und/oder virtuelle Realität sein. Ist die Gestenerkennungs- und Steuereinrichtung 10 eine Komponente des Kraft fahrzeugs 12, so kann jede dem Fachmann aus dem Stand der Technik bekannte Ausgabevorrichtung 18, zum Beispiel jede bekannte Datenbrille, eingesetzt werden. Communication with an output device 18 that can be worn on the head can preferably take place via a wireless data communication connection 20, for example via a WLAN connection, Bluetooth connection or cellular radio connection. Alternatively, the data communication link 20 can be, for example, a wired data communication link 20, for example a cable. The output device 18 which can be worn on the head can preferably be an output device 18 for an augmented and / or virtual reality. If the gesture recognition and control device 10 is a component of the motor vehicle 12, any output device 18 known to a person skilled in the art, for example any known data glasses, can be used.
Alternativ (in den Fig. 1 bis 5 nicht gezeigt) kann die Gestenerkennungs- und Steuereinrichtung 10 eine Komponente der Ausgabevorrichtung 18 sein. Die Gestenerkennungs- und Steuereinrichtung 10 kann in dieser Variante zum Beispiel an einem seitlichen Bügel verortet sein. Zum optionalen Erfassen einer Bediengeste kann die Ausgabevorrichtung 18 zum Beispiel eine Kame ra an einer Stirnseite aufweisen. Alternatively (not shown in FIGS. 1 to 5) the gesture recognition and control device 10 can be a component of the output device 18. The gesture recognition and control device 10 can in this variant for Example be located on a side bracket. For the optional detection of an operating gesture, the output device 18 can, for example, have a camera on one end face.
Eine Kommunikation mit einem mobilen Endgerät 22, zum Beispiel einem Smartphone oder einem Tablet-PC, kann ebenfalls vorzugsweise über eine drahtlose Datenkommunikationsverbindung 20 erfolgen, ober mittels einer drahtgebundenen Datenkommunikationsverbindung 20, zum Beispiel einem Datenbus des Kraftfahrzeugs 12 und/oder einem Kabel. Communication with a mobile terminal device 22, for example a smartphone or a tablet PC, can also preferably take place via a wireless data communication connection 20, or by means of a wired data communication connection 20, for example a data bus of the motor vehicle 12 and / or a cable.
Das mobile Endgerät 22 weist eine Anzeigeeinrichtung 24 auf, die vorzugs weise einen berührungssensitiven Bildschirm umfassen kann. Über diesen beispielhaften berührungssensitiven Bildschirm können, je nach aktueller graphischer Benutzerschnittstelle verschiedene Bedienfunktionen des mobi len Endgeräts 22 ausgelöst werden, zum Beispiel das Öffnen eines Pro gramms, das Wechseln in eine Navigationsübersicht mit kleinen Ansichten geöffneter Programme, oder zum Beispiel das Annehmen eines Telefonan rufs oder das Abspielen zum Beispiel eines Videos. Das direkte Steuern der Anzeigeeinrichtung 24 wird dabei von einer Steuereinrichtung 26 übernom men, zum Beispiel einer Steuerplatine und/oder einem Anwenderprogramm („App“) oder ein Betriebssystem. Die Steuereinrichtung 26 des mobilen End geräts 22 kann ebenfalls eine Prozessoreinrichtung und/oder einen Daten speicher aufweisen, wobei diese Komponenten aus Gründen der besseren Übersichtlichkeit in der Fig. 1 (und in den nachfolgenden Figuren) nicht ge zeigt sind. The mobile terminal 22 has a display device 24, which can preferably include a touch-sensitive screen. Depending on the current graphic user interface, various operating functions of the mobile terminal device 22 can be triggered via this exemplary touch-sensitive screen, for example opening a program, switching to a navigation overview with small views of open programs, or for example accepting a phone call or playing a video, for example. The direct control of the display device 24 is taken over by a control device 26, for example a control board and / or a user program (“app”) or an operating system. The control device 26 of the mobile terminal 22 can also have a processor device and / or a data memory, these components not being shown in FIG. 1 (and in the following figures) for reasons of clarity.
In der Fig. 1 ist eine Anzeigefläche 28 der Ausgabevorrichtung 18 gezeigt, die idealerweise vor den Augen des Benutzers liegen kann, wenn der Benut zer die Ausgabevorrichtung 18 aufgesetzt hat. In Fig. 1, a display surface 28 of the output device 18 is shown, which can ideally be in front of the eyes of the user when the Benut zer has the output device 18 on.
Schließlich zeigt die Fig. 1 noch einen optionalen, zum Beispiel eine Kamera, insbesondere eine Time-off-Flight-Kamera oder ein Infrarotsensor, die/der zum Beispiel an einem Dachhimmel des Kraftfahrzeugs oder an einem Rückspiegel des Kraftfahrzeugs angeordnet sein kann. Ist die Gestenerken- nungs- und Steuereinrichtung 10 zum Beispiel eine Komponente der Ausga bevorrichtung 18, kann sie zum Beispiel an einer Stirnseite der Ausgabevor richtung 18 eine Kamera aufweisen. Finally, FIG. 1 shows an optional camera, for example a time-off-flight camera or an infrared sensor, which can be arranged, for example, on a roof lining of the motor vehicle or on a rearview mirror of the motor vehicle. Is the gesture recognition If the processing and control device 10 is, for example, a component of the output device 18, it can for example have a camera on an end face of the output device 18.
Vorzugsweise kann die Gestenerkennungs- und Steuereinrichtung 10 auch mehrere solche Sensoren 30 aufweisen. The gesture recognition and control device 10 can preferably also have a plurality of such sensors 30.
Das Erkennen des mobilen Endgeräts (Verfahrensschritt S1 ) kann zum Bei spiel erfolgen, sobald sich das mobile Endgerät 22 dem Kraftfahrzeug 12 nähert, wozu sich zum Beispiel an einer Außenseite des Kraftfahrzeugs 12 ein Bluetooth-LE-Empfangsgerät befinden kann. Alternativ kann das mobile Endgerät 22 erkannt werden (S1 ), falls es zum Beispiel im Kraftfahrzeug 12 in eine Ladeschale abgelegt wird, wobei das Erkennen des mobilen Endge räts 22 (S1 ) durch den Fachmann aus dem Stand der Technik bekannte Erkennungstechniken erfolgen kann. The detection of the mobile terminal (method step S1) can take place, for example, as soon as the mobile terminal 22 approaches the motor vehicle 12, for which purpose a Bluetooth LE receiver can be located on the outside of the motor vehicle 12, for example. Alternatively, the mobile terminal 22 can be recognized (S1) if, for example, it is placed in a charging cradle in the motor vehicle 12, wherein the mobile terminal 22 (S1) can be recognized by recognition techniques known from the prior art.
Das mobile Endgerät 22 des Beispiels der Fig. 1 kann zum Beispiel gerade eine Benutzeroberfläche eines Programms zum Ausgeben von Informationen über das Kraftfahrzeug, zum Beispiel aktuelle Betriebsdaten, geöffnet haben. Alternativ kann das beispielhafte Programm ein anderes Anwenderprogramm sein, zum Beispiel ein Anwenderprogramm zum Abspielen von Filmen oder ein Spiel, oder es kann ein Desktop des mobilen Endgeräts 22 angezeigt werden. The mobile terminal 22 of the example in FIG. 1 can, for example, have just opened a user interface of a program for outputting information about the motor vehicle, for example current operating data. Alternatively, the exemplary program can be another user program, for example a user program for playing films or a game, or a desktop of the mobile terminal device 22 can be displayed.
Die graphische Benutzeroberfläche, die gerade durch die Anzeigeeinrich tung 24 des bekannten mobilen Endgeräts 22 angezeigt wird, kann festge stellt werden (S2), indem zum Beispiel ein entsprechendes Ausgabesignal der Anzeigeeinrichtung 24 an die Gestenerkennungs- und Steuereinrichtung 10 übertragen wird, oder indem zum Beispiel die Gestenerkennungs- und Steuereinrichtung 10 beim mobilen Endgerät 22 abfragt, was gerade anzeigt wird. The graphical user interface that is currently being displayed by the display device 24 of the known mobile terminal 22 can be determined (S2), for example by transmitting a corresponding output signal from the display device 24 to the gesture recognition and control device 10, or by, for example the gesture recognition and control device 10 asks the mobile terminal 22 what is currently being displayed.
Zum Bereitstellen des Ausgabesignals, mit dem die graphische Benutzer oberfläche des mobilen Endgeräts 22 auf die Anzeigefläche 28 der am Kopf tragbaren Ausgabevorrichtung 18 gespiegelt wird (S3), kann das Ausgabe signal zum Beispiel von der Gestenerkennungs- und Steuereinrichtung 10 erzeugt werden, oder ein Ausgabesignal des mobilen Endgeräts 22 kann an die Ausgabevorrichtung 18 weitergeleitet werden. Im letzteren Beispiel um- fasst das Bereitstellen S3 auch das Übertragen S4 des bereitgestellten Aus gabesignals an die beispielhafte Datenbrille. To provide the output signal with which the graphical user interface of the mobile terminal device 22 is shown on the display surface 28 of the head portable output device 18 is mirrored (S3), the output signal can be generated, for example, by the gesture recognition and control device 10, or an output signal from the mobile terminal device 22 can be forwarded to the output device 18. In the latter example, the provision S3 also includes the transmission S4 of the provided output signal to the exemplary data glasses.
Der vorgegebene Ausgabebereich 32 kann zum Beispiel voreingestellt sein, und, im Beispiel der Fig. 1 , zum Beispiel ein Bereich über dem Beifahrersitz sein. Im Bespiel der Fig. 1 ist dabei ein virtuelles Bild 34 der graphischen Benutzeroberfläche des mobilen Endgeräts 22 im Ausgabebereich 32 ge zeigt. Auf der Anzeigefläche 28 kann zum Beispiel zusätzlich ein Kamerabild des Innenraums des Kraftfahrzeugs angezeigt werden, indem das Bild 34 der Benutzeroberfläche des mobilen Endgeräts 22 eingeblendet werden kann. Alternativ kann auch zum Beispiel ein Bereich der Anzeigefläche 28, auf dem das Bild 34 nicht eingeblendet wird, auf transparent geschaltet sein, sodass der Benutzer den realen Innenraum des Kraftfahrzeugs 12 durch die beispielhafte Datenbrille sehen kann. In einer weiteren Variante kann die Ausgabevorrichtung 18 zum Beispiel eine virtuelle Realität erzeugen, die keinen Innenraum des Kraftfahrzeugs zeigt, sondern zum Beispiel eine Landschaft eines Videospiels, und das Bild 34 der graphischen Benutzer oberfläche einblenden. The predetermined output area 32 can be preset, for example, and, in the example in FIG. 1, for example an area above the passenger seat. In the example of FIG. 1, a virtual image 34 of the graphical user interface of the mobile terminal 22 in the output area 32 is shown. For example, a camera image of the interior of the motor vehicle can also be displayed on the display surface 28, in that the image 34 of the user interface of the mobile terminal device 22 can be displayed. Alternatively, for example, an area of the display area 28 on which the image 34 is not displayed can be switched to transparent so that the user can see the real interior of the motor vehicle 12 through the exemplary data glasses. In a further variant, the output device 18 can, for example, generate a virtual reality that does not show an interior of the motor vehicle, but rather, for example, a landscape of a video game, and can display the image 34 of the graphical user interface.
Techniken zum Ermitteln, ob der Benutzer den Kopf gerade zu dem beispiel- haften vorgegebenen Ausgabebereich 32 hingedreht hat oder nicht, sind dem Fachmann aus dem Stand der Technik aus dem Gebiet der virtuellen Realität und Datenbrillen bekannt. Techniques for determining whether or not the user has just turned his head towards the exemplary predetermined output area 32 are known to those skilled in the art from the field of virtual reality and data glasses.
Das Beispiel der Fig. 1 zeigt ein Körperteil des Benutzers, vorzugsweise eine Hand 36, die gerade eine berührungslose Bediengeste zum Steuern des mobilen Endgeräts 22 ausführt. Die berührungslose Bediengeste, die auch als Raumgeste bezeichnet werden kann, kann zum Beispiel eine Zeigegeste sein, bei der der Benutzer in der Luft auf den vorgegebenen Ausgabebereich 32 und damit auf das Bild 34 der Benutzeroberfläche zeigt, und sich zum Beispiel dorthin bewegt, wo auf der im Bild 34 gezeigten Benutzeroberfläche eine zu aktivierende Funktion durch ein Icon repräsentiert sein kann. Vor zugsweise kann zum Beispiel ein Bedienbereich vorgegeben sein, also ein Bereich innerhalb dem der Benutzer die Raumgeste ausführen muss, damit sie erfasst und/oder erkannt wird. Der Sensor 30 kann dann zum Beispiel auf diesen beispielhaften, vorgegebenen Bedienbereich gerichtet sein, oder alternativ können der Sensor 30 oder mehrere Sensoren 30 einen Großteil oder den gesamten Innenraum des Kraftfahrzeugs 12 abdecken. The example in FIG. 1 shows a part of the body of the user, preferably a hand 36, which is currently executing a contactless operating gesture to control the mobile terminal device 22. The contactless operating gesture, which can also be referred to as a room gesture, can be, for example, a pointing gesture in which the user points in the air to the specified output area 32 and thus to the image 34 of the user interface, and to the Example moved to where a function to be activated can be represented by an icon on the user interface shown in Figure 34. Preferably, for example, an operating area can be specified, that is to say an area within which the user must perform the spatial gesture so that it is detected and / or recognized. The sensor 30 can then, for example, be directed to this exemplary, predetermined operating area, or alternatively the sensor 30 or a plurality of sensors 30 can cover a large part or the entire interior of the motor vehicle 12.
Dem Benutzer kann beispielsweise eine Benutzeroberfläche angezeigt wer den, auf der verschiedene Menüpunkte angezeigt sind, und/oder zum Bei spiel Werte verschiedener Fahrzeugfunktionen. Möchte der Benutzer nun eine der angezeigten, möglichen Bedienfunktionen aktivieren oder zum Bei spiel detailliertere Informationen zu einer der Fahrzeugfunktionen erhalten, kann die Raumgeste zum Beispiel vorsehen, dass er mit dem Finger auf ein entsprechendes Icon oder Anzeigeelement zeigt. Nach dem optionalen Er fassen der berührungslosen Bediengeste durch den Sensor 30 (S5) kann ein entsprechendes Sensorsignal von der Gestenerkennungs- und Steuerein richtung 10 empfangen werden (S6) und die berührungslose Bediengeste kann zum Beispiel zum Auslösen einer Videoabspielfunktion erkannt werden (S7). For example, the user can be shown a user interface on which various menu items are displayed and / or, for example, values of various vehicle functions. If the user now wants to activate one of the displayed, possible operating functions or, for example, receive more detailed information on one of the vehicle functions, the spatial gesture can provide, for example, that he points with his finger at a corresponding icon or display element. After the optional detection of the contactless operating gesture by the sensor 30 (S5), a corresponding sensor signal can be received by the gesture recognition and control device 10 (S6) and the contactless operating gesture can be recognized, for example, to trigger a video playback function (S7).
Ein Erkennen oder Tracken eines Körperteils mittels zum Beispiel Infrarot- Sensoren sind dem Fachmann zum Beispiel als sogenannte„Leap Motion- Technik bekannt. Diese Technik kann unabhängig davon implementiert wer den, ob die Gestenerkennungs- und Steuereinrichtung 10 eine Komponente des Kraftfahrzeugs 12 ist. Recognition or tracking of a body part by means of infrared sensors, for example, are known to the person skilled in the art as what is known as “leap motion technology”. This technique can be implemented regardless of whether the gesture recognition and control device 10 is a component of the motor vehicle 12.
Zum Spiegeln der graphischen Benutzeroberfläche oder einem Ausschnitt davon kann diese zum Beispiel mittels eines„Grabbers“, also eines soge nannten„Content-Grabbers“ oder„Frame grabbers“, gespiegelt und in die virtuelle Realität einblenden werden. Optional kann zusätzlich zu der einge blendeten Benutzeroberfläche ein Bild der Fland 36 eingeblendet werden, wozu nach ähnlichem Prinzip zur vorbeschriebenen Gestenerkennung die Hand 36 des Benutzers zum Beispiel gefilmt oder mitverfolgt und durch die Gestenerkennungs- und Steuereinrichtung 10 dann auf die Anzeigefläche 28 abgebildet werden kann. To mirror the graphical user interface or a section of it, it can be mirrored, for example, by means of a “grabber”, ie a so-called “content grabber” or “frame grabber” and fade in into virtual reality. Optionally, in addition to the superimposed user interface, an image of the flange 36 can be superimposed, for which purpose the gesture recognition is based on a similar principle Hand 36 of the user can be filmed or followed, for example, and can then be mapped onto the display surface 28 by the gesture recognition and control device 10.
Auf der Anzeigefläche 28 der Ausgabevorrichtung 18 des Beispiels der Fig. 1 ist beispielhaft noch ein weiteres Anzeigeelement 38 gezeigt, auf dem zum Beispiel eine weitere Bedienfunktion angezeigt werden kann, zum Beispiel eine Funktion zum Schließen der Gestenerkennung und/oder des Spiegeln der graphischen Benutzeroberfläche und/oder zur Menü-Navigation. Ein solcher beispielhafter„Zurück-Button“ kann vorzugsweise in einer vorgege benen Position, insbesondere in einer hervorgehobenen Position, dargestellt sein. On the display surface 28 of the output device 18 of the example in FIG. 1, another display element 38 is shown as an example, on which, for example, a further operating function can be displayed, for example a function for closing the gesture recognition and / or mirroring the graphical user interface and / or for menu navigation. Such an exemplary “back button” can preferably be shown in a predetermined position, in particular in a highlighted position.
Im Beispiel der Fig. 1 ist zusätzlich eine optionale Weiterbildung gezeigt, gemäß der die Gestenerkennungs- und Steuereinrichtung 10 ein weiteres Ausgabesignal bereitstellen kann (S8), das das Ausgeben eines weiteren Anzeigeinhalts in Form eines Bildes 40 einer weiteren graphischen Benut zeroberfläche beschreiben kann. Dabei kann es sich vorzugsweise um ein Bedienmenü zum Skalieren und/oder Positionieren des ersten Bildes 34, also der ersten virtuellen graphischen Benutzeroberfläche, die von dem mo bilen Endgerät 22 gespiegelt wird, handeln. Möchte der Benutzer zum Bei spiel das Bild 34 nicht über dem rechten Beifahrersitz erscheinen lassen, sondern zum Beispiel vor einem Lenkrad, kann er zum Beispiel mit einer weiteren berührungslosen Bediengeste das Bild 34 virtuell verschieben. Nach dem Erkennen dieser weiteren Raumgeste (S7) kann die Gestener kennungs- und Steuereinrichtung 10 den Ausgabebereich 32 anhand dieser weiteren Raumgeste an einer anderen Position im Innenraum, also in diesem Fall vor dem Lenkrad, vorgeben (S8). In the example of FIG. 1, an optional development is also shown, according to which the gesture recognition and control device 10 can provide a further output signal (S8) that can describe the output of further display content in the form of an image 40 of a further graphical user interface. This can preferably be an operating menu for scaling and / or positioning the first image 34, that is to say the first virtual graphic user interface that is mirrored by the mobile terminal 22. For example, if the user does not want the image 34 to appear above the right passenger seat, but for example in front of a steering wheel, he can, for example, move the image 34 virtually with a further contactless operating gesture. After recognizing this additional spatial gesture (S7), the gesture recognition and control device 10 can use this additional spatial gesture to predetermine the output area 32 at a different position in the interior, in this case in front of the steering wheel (S8).
Analog hierzu kann eine weitere Raumgeste das Bild 34 skalieren (S9), das heißt das Bild 34 kann zum Beispiel an den Ecken„aufgezogen“ werden, das heißt das Bild 34 kann zum Beispiel vergrößert werden. Zum Steuern des mobilen Endgeräts 22 kann die Gestenerkennungs- und Steuereinrichtung ein Fernsteuersignal erzeugen (S10), das zum Beispiel die Betriebsfunktion zum Anzeigen der detaillierten Informationen zu einem Betriebsparameter oder das Abspielen eines Videos aktivieren kann. Das erzeugte Fernsteuersignal wird an die Steuereinrichtung 26 des erkannten mobilen Endgeräts 22 über die Datenkommunikationsverbindung 20 übertra gen (S11 ). Das mobile Endgerät 22, insbesondere die Steuereinrichtung 26, löst dann die Bedienfunktion aus (S12). Optional kann die Gestenerkennungs- und Steuereinrichtung 10 mit einem Kraftfahrzeugsystem (in der Fig. 1 nicht gezeigt) in Kommunikation stehen, zum Beispiel einer Zündung oder einem Fahrerassistenzsystem, und anhand von zum Beispiel einem Signal, das beschreibt, dass das Kraftfahrzeug ge rade in einem pilotierten Fahrmodus betrieben wird, kann das Verfahren aktiviert werden. Analogously to this, another spatial gesture can scale the image 34 (S9), that is to say the image 34 can, for example, be "drawn out" at the corners, that is, the image 34 can be enlarged, for example. To control the mobile terminal device 22, the gesture recognition and control device can generate a remote control signal (S10) that can activate the operating function for displaying the detailed information on an operating parameter or playing a video, for example. The generated remote control signal is transmitted to the control device 26 of the identified mobile terminal 22 via the data communication link 20 (S11). The mobile terminal 22, in particular the control device 26, then triggers the operating function (S12). Optionally, the gesture recognition and control device 10 can be in communication with a motor vehicle system (not shown in FIG. 1), for example an ignition or a driver assistance system, and on the basis of, for example, a signal that describes that the motor vehicle is currently in a piloted driving mode is operated, the method can be activated.
Die Fig. 1 bis Fig. 5 zeigen weitere Ausführungsbeispiele des Verfahrens und der Vorrichtungen, wobei im Folgenden jeweils nur auf die Unterschiede zum Bespiel der Fig. 1 eingegangen wird. FIGS. 1 to 5 show further exemplary embodiments of the method and the devices, only the differences from the example of FIG. 1 being discussed below.
Im Beispiel der Fig. 2 kann das Bild 34 der graphischen Benutzeroberfläche des mobilen Endgeräts 22 zum Beispiel ein Bedienmenü als Segment eines Kreisringes darstellen. Eine oder mehrere Bedienfunktionen können dabei je nachdem ausgewählt werden, ob die beispielhafte Fland 36 in den einen Bereich des Kreisringanteils zeigt, um zum Beispiel ein Display zu erzeugen; oder in einen anderen Bereich des Kreisringanteils, um zum Beispiel ein neues Display bereitzustellen. Die entsprechenden Bedienfunktionen können vorzugsweise auf der graphischen Benutzeroberfläche, die auf die Anzeige fläche 28 der Ausgabevorrichtung 18 gespiegelt ist, zu besseren Orientie- rung angezeigt werden. Die Fig. 2 zeigt außerdem eine beispielhafte Raum geste, bei der die Fland 36 eine Raumgeste sein kann, bei der alle Finger ausgestreckt sind, und bei der ein Flandteller zum Beispiel nach oben zeigt. Diese beispielhafte Raumgeste kann zum Beispiel eine Raumgeste zum Zurücknavigieren in ein Flome-Verzeichnis sein. Alternativ kann die in der Fig. 2 gezeigte Raumgeste zum Beispiel ein Schwenken der ausgestreckten Hand nach rechts oder links, oder nach oben oder unten, beschreiben, um die entsprechenden Bedienfunktionen auszuwählen. Wie bereits oben zur Fig. 1 erläutert, kann entweder die reale Hand 36 des Benutzers in einer erweiterten Realität zu sehen sein, oder es wird ein Bild einer virtuellen Hand, die sich genauso bewegt wie die Hand 36 des Benutzers, angezeigt. In the example of FIG. 2, the image 34 of the graphical user interface of the mobile terminal 22 can, for example, display an operating menu as a segment of a circular ring. One or more operating functions can be selected depending on whether the exemplary flange 36 points into one area of the annulus portion, for example to generate a display; or in another area of the annulus, for example to provide a new display. The corresponding operating functions can preferably be displayed on the graphical user interface, which is mirrored on the display surface 28 of the output device 18, for better orientation. Fig. 2 also shows an exemplary space gesture in which the Fland 36 can be a space gesture in which all fingers are extended, and in which a Fland plate, for example, points upwards. This exemplary space gesture can be, for example, a space gesture for navigating back into a flome directory. Alternatively, the Fig. 2 shown spatial gesture, for example, a pivoting of the outstretched hand to the right or left, or up or down, describe in order to select the corresponding operating functions. As already explained above with regard to FIG. 1, either the real hand 36 of the user can be seen in an augmented reality, or an image of a virtual hand that moves exactly like the hand 36 of the user is displayed.
Die gespiegelte graphische Benutzeroberfläche kann zum Beispiel ein TV- Menü darstellen, oder es kann ein Desktop des mobilen Endgeräts 22 ge- spiegelt werden, oder die graphische Benutzeroberfläche kann einen soge nannten„Content-Streamer“ zeigen. The mirrored graphical user interface can, for example, show a TV menu, or a desktop of the mobile terminal device 22 can be mirrored, or the graphical user interface can show what is known as a “content streamer”.
Im Beispiel der Fig. 3 ist eine gespiegelte Benutzeroberfläche gezeigt, die zum Beispiel ein Bedienmenü eines Medienprogrammes sein kann, mit des- sen Hilfe man zum Beispiel Musikalben auswählen und anhören oder zum Beispiel in eine Video- und Fotofunktion wechseln kann. In the example of FIG. 3, a mirrored user interface is shown, which can for example be an operating menu of a media program, with the help of which one can select and listen to music albums, for example, or switch to a video and photo function, for example.
Die Fig. 4 zeigt eine Erweiterung des Ausführungsbeispiels der Fig. 3, in dem zusätzlich eine weitere graphische Benutzeroberfläche, entweder einer wei- teren des mobilen Endgeräts 22 oder einer eigens von der Gestenerken- nungs- und Steuereinrichtung 10 erzeugten graphischen Benutzeroberfläche, durch das Bild 40 angezeigt werden kann. Mithilfe dieses weiteren, beispiel haften Bedienmenüs kann zum Beispiel ein in dem mobilen Endgerät 22 gespeichertes Musikalbum gelöscht werden, es können zum Beispiel ver- schiedene Tracks oder Funktionen ausgesucht werden, oder das Bild 34 kann mit diesem zusätzlichen Menü skaliert und/oder positioniert werden (S8, S9). FIG. 4 shows an extension of the exemplary embodiment in FIG. 3, in which a further graphical user interface, either another one of the mobile terminal 22 or a graphical user interface generated specifically by the gesture recognition and control device 10, through the image 40 can be displayed. With the aid of this additional, exemplary operating menu, a music album stored in the mobile terminal device 22 can be deleted, for example, various tracks or functions can be selected, or the image 34 can be scaled and / or positioned with this additional menu ( S8, S9).
Die Fig. 5 zeigt ein Ausführungsbeispiel bei dem der Benutzer, zum Beispiel ein Fahrer bei einer vollautonomen Fahrt (Level 5), oder ein Beifahrer oder ein Mitfahrer im Fond, ein beliebiges Display erzeugen, skalieren (S9) und/oder im Innenraum platzieren (also den Ausgabebereich 32 vorgeben, S8) kann, um beispielsweise ein Fußballspiel live zu sehen. Auf einem weite ren Bild 40, also einem weiteren Display, das er erzeugen, skalieren (S9) und/oder nach Bedarf platzieren kann, kann er zum Beispiel das Bedienkon zept seines MMIs darstellen und sein mobiles Endgerät 22 und/oder das Kraftfahrzeug 10 bedienen, oder er lässt sich zum Beispiel Kombiinhalte anzeigen wie zum Beispiel eine Geschwindigkeit, Navigationsinfos (zum Beispiel restliche Wegstrecke und/oder Ankunftszeit). Ein weiteres Bild 40 oder Anzeigeelement, also ein weiteres Display, kann er eventuell nebenbei benutzen, um zum Beispiel seine Emails zu bearbeiten. Mit anderen Worten kann der Benutzer seine Anzeige- und Bedienflächen selbst in seiner virtuel len Umgebung gestalten. Fig. 5 shows an embodiment in which the user, for example a driver in a fully autonomous journey (level 5), or a front passenger or a passenger in the rear, generate any display, scale it (S9) and / or place it in the interior ( that is, can specify the output area 32, S8), for example to watch a soccer game live. Scale on another image 40, i.e. another display that it generates (S9) and / or as required, he can, for example, display the operating concept of his MMI and operate his mobile terminal 22 and / or the motor vehicle 10, or he can display, for example, combined content such as a speed, navigation information (for example remaining Distance and / or arrival time). He may also use another image 40 or display element, that is to say another display, in order to process his emails, for example. In other words, the user can design his own display and control surfaces in his virtual environment.
Dieses System lässt sich gut mit einem Entertainmentsystem verbinden, das eine virtuelle Realität bereitstellt. Während des beispielhaften Spiels müsste der Benutzer also nicht aus der virtuellen Realität aussteigen, um seine Ne bentätigkeiten, zum Beispiel das Abrufen von Emails, im Blick zu haben oder sein Kraftfahrzeug 12 zu bedienen. This system can be easily connected to an entertainment system that provides virtual reality. During the exemplary game, the user would not have to get out of virtual reality in order to keep an eye on his secondary activities, for example retrieving emails, or to operate his motor vehicle 12.
Insgesamt zeigen die Beispiele, wie durch die Erfindung eine VR- und/oder AR-basierte Remotebedienung ermöglicht wird. Gemäß einem weiteren Ausführungsbeispiel kann zum Beispiel innerhalb einer virtuellen Realität der Benutzer, egal aus welchem Kontext (zum Bei spiel Gaming und/oder Besprechung) zum Beispiel ein„Flying MMI“ oder „VR-MMI“ - also die gespiegelte, virtuelle Benutzeroberfläche - aktivieren. Dies kann dieselbe Funktionalität bieten wie ein serielles MMI. Das Serien- MMI und das VR-MMI können dabei stets synchronisiert sein und dieselben Anzeigeinhalte zeigen. Vorzugsweise kann analog einer Serienbedienung (zum Beispiel Touch, Slide, Pinch) sich das VR-MMI ebenfalls wie gewohnt durch analoge Gesten bedienen lassen. Zudem kann vorzugsweise der Be nutzer das VR-MMI, also die gespiegelte graphische Benutzeroberfläche, an einem für ihn sinnvollen Ort platzieren, also den Ausgabebereich 32 vorge ben. Das System lässt sich sowohl in einer VR als auch in einer AR (erwei terte Realität) sehr leicht implementieren. Gemäß einem weiteren Ausführungsbeispiel kann eine technische Umset zung vorsehen, dass durch das Tracken zum Beispiel der Hände 36 oder einer Hand 36 des Benutzers mittels einer oder mehrerer Sensoren 30, zum Beispiel Infrarot-Sensoren, vorzugsweise unter Verwendung von Leap Moti- on, und durch Ermitteln der Handkoordinaten im Verhältnis zu den Koordina ten der Ausgabevorrichtung 18, also des HMDs, der Handlungsraum des Benutzers vollständig in drei Dimensionen erfasst werden kann. Das darge stellte Bild im seriellen MMI, also des durch die Anzeigeeinrichtung 24 des mobilen Endgeräts 22 dargestellten Bilds, kann vorzugsweise mittels Grab- ber in die„Area of Interest“, also in den Ausgabebereich 32, mit anderen den durch den Benutzer frei definierten Bereich innerhalb der virtuellen Realität gestreamt werden. Handlungen durch eine dritte Person am seriellen MMI, also zum Beispiel an dem Bildschirm des mobilen Endgeräts 22, können daher in Echtzeit in der VR-MMI, also in dem Bild 34 der gespiegelten Be- nutzeroberfläche, dargestellt werden. Bei einer Bedienung der entsprechen den Bedienfunktion im VR-MMI kann die entsprechende Botschaft zum Bei spiel an eine Main Unit übermittelt werden, welche die Handlungen ausführt. Overall, the examples show how the invention enables VR- and / or AR-based remote control. According to a further exemplary embodiment, for example, the user can activate a “Flying MMI” or “VR-MMI” - that is, the mirrored, virtual user interface - within a virtual reality, regardless of the context (for example gaming and / or meeting) . This can offer the same functionality as a serial MMI. The series MMI and the VR MMI can always be synchronized and show the same display content. The VR-MMI can preferably also be operated as usual using analogue gestures, analogous to series operation (e.g. touch, slide, pinch). In addition, the user can preferably place the VR-MMI, that is to say the mirrored graphic user interface, at a location that makes sense for him, that is to say the output area 32 is predefined. The system is very easy to implement in both VR and AR (extended reality). According to a further exemplary embodiment, a technical implementation can provide that by tracking, for example, the hands 36 or a hand 36 of the user using one or more sensors 30, for example infrared sensors, preferably using leap motion, and through Determining the hand coordinates in relation to the Koordina th of the output device 18, that is to say of the HMD, the scope of action of the user can be completely recorded in three dimensions. The image shown in the serial MMI, ie the image shown by the display device 24 of the mobile terminal 22, can preferably be transferred to the "Area of Interest", ie to the output area 32, with other areas freely defined by the user by means of a grabber be streamed within virtual reality. Actions by a third person on the serial MMI, for example on the screen of the mobile terminal 22, can therefore be displayed in real time in the VR MMI, that is in the image 34 of the mirrored user interface. When operating the corresponding operating function in the VR-MMI, the corresponding message can be transmitted to a main unit, for example, which carries out the actions.

Claims

PATENTANSPRÜCHE: PATENT CLAIMS:
1. Verfahren zum Betreiben eines mobilen Endgeräts (22), wobei das Verfahren die durch eine Gestenerkennungs- und Steuereinrichtung (10) durchgeführten Schritte aufweist: 1. A method for operating a mobile terminal device (22), the method comprising the steps carried out by a gesture recognition and control device (10):
- Erkennen des mobilen Endgeräts (22, S1 ), - Detecting the mobile terminal (22, S1),
- Feststellen einer aktuellen, durch eine Anzeigeeinrichtung (24) des er kannten mobilen Endgeräts (22) erzeugte graphische Benutzerober fläche, die eine Bedienoption bereitstellt, bei der eine Betriebsfunktion des erkannten mobilen Endgeräts (22) auslösbar ist (S2), - Establishing a current graphical user interface generated by a display device (24) of the recognized mobile terminal (22) which provides an operating option in which an operating function of the recognized mobile terminal (22) can be triggered (S2),
- Bereitstellen eines Ausgabesignals, das als Anzeigeinhalt die durch die Anzeigeeinrichtung (24) des erkannten mobilen Endgeräts (22) er zeugte graphische Benutzeroberfläche beschreibt (S3), - Provision of an output signal which describes as display content the graphical user interface generated by the display device (24) of the identified mobile terminal (22) (S3),
- Übertragen des bereitgestellten Ausgabesignals an eine am Kopf tragbare Ausgabevorrichtung (18) zum Ausgeben des Anzeigeinhalts in einem vorgegebenen Ausgabebereich (32) im Innenraum des Kraft fahrzeugs (12, S4) als Teil einer durch die Ausgabevorrichtung (18) ausgegebenen erweiterten Realität oder virtuellen Realität, - Transmitting the provided output signal to an output device (18) which can be worn on the head for outputting the display content in a predetermined output area (32) in the interior of the motor vehicle (12, S4) as part of an augmented reality or virtual reality output by the output device (18) ,
- während des Ausgebens des Anzeigeinhalts: Erkennen einer berüh- rungslosen Bediengeste des Benutzers in Abhängigkeit von der be reitgestellten Bedienoption (S7), - During the output of the display content: Recognition of a contactless operating gesture of the user depending on the provided operating option (S7),
- Erzeugen eines Fernsteuersignals in Abhängigkeit von der erkannten berührungslosen Bediengeste, das ein Auslösen der der erkannten berührungslosen Bediengeste zugeordneten Betriebsfunktion des mo- bilen Endgeräts (22) beschreibt (S10), und - Generating a remote control signal as a function of the detected contactless operating gesture, which describes a triggering of the operating function of the mobile terminal device (22) assigned to the detected contactless operating gesture (S10), and
- Übertragen des erzeugten Fernsteuersignals an eine Steuereinrich tung (26) des erkannten mobilen Endgeräts (22, S11 ) zum Auslösen der Bedienfunktion (S12). - Transmission of the generated remote control signal to a Steuereinrich device (26) of the detected mobile terminal (22, S11) to trigger the operating function (S12).
2. Verfahren nach Anspruch 1 , wobei das Verfahren die durch die Ges tenerkennungs- und Steuereinrichtung (10) durchgeführten Schritte aufweist: 2. The method according to claim 1, wherein the method comprises the steps carried out by the Ges tenerkennungs- and control device (10):
- Erkennen einer weiteren berührungslosen Bediengeste, die ein Positi onieren des Anzeigeinhalts im Innenraum vorgibt (S7), und - Vorgeben des Ausgabebereichs (32) anhand der erkannten weiteren berührungslosen Bediengeste (S8). - Recognition of a further contactless operating gesture that specifies a positioning of the display content in the interior (S7), and - Presetting the output area (32) on the basis of the recognized further contactless operating gesture (S8).
3. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Verfahren die durch die Gestenerkennungs- und Steuereinrichtung (10) durchgeführten Schritte aufweist: 3. The method according to any one of the preceding claims, wherein the method comprises the steps carried out by the gesture recognition and control device (10):
- Erkennen einer weiteren berührungslosen Bediengeste, die ein Skalie ren des Anzeigeinhalts beschreibt (S7), und - Recognition of another contactless operating gesture that describes a scaling of the display content (S7), and
- Skalieren eines Bilds (34, S9), das den Anzeigeinhalt zeigt, anhand der erkannten weiteren berührungslosen Bediengeste. - Scaling of an image (34, S9) which shows the display content on the basis of the recognized further contactless operating gesture.
4. Verfahren nach einem der Ansprüche 2 oder 3, wobei das Verfahren die durch die Gestenerkennungs- und Steuereinrichtung (10) eines Kraftfahrzeugs (12) durchgeführten Schritte aufweist: 4. The method according to any one of claims 2 or 3, wherein the method comprises the steps carried out by the gesture recognition and control device (10) of a motor vehicle (12):
- Bereitstellen eines weiteren Ausgabesignals (S8), das als Anzeigein halt eine weitere graphische Benutzeroberfläche beschreibt, welche ein Bedienmenü zum Skalieren und/oder Positionieren des die durch die Anzeigeeinrichtung (24) des mobilen Endgeräts (22) erzeugte gra phische Benutzeroberfläche beschreibenden Anzeigeinhalts bereit- stellt. - Provision of a further output signal (S8), which describes a further graphic user interface as display content, which provides an operating menu for scaling and / or positioning the display content describing the graphic user interface generated by the display device (24) of the mobile terminal (22). represents.
5. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Ges tenerkennungs- und Steuereinrichtung (10) einen oder mehrere Verfah rensschritte nur in Abhängigkeit von einem Aktivieren eines vollauto- nomen Fahrmodus und/oder in Abhängigkeit von einem Motorstart des5. The method according to any one of the preceding claims, wherein the Ges tenerkennungs- and control device (10) one or more procedural steps only depending on an activation of a fully autonomous driving mode and / or depending on an engine start of the
Kraftfahrzeugs (12) durchführt. Motor vehicle (12) performs.
6. Gestenerkennungs- und Steuereinrichtung (10) , die dazu eingerichtet ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzu- führen. 6. Gesture recognition and control device (10) which is set up to carry out a method according to one of the preceding claims.
7. Kraftfahrzeug (12), das eine Gestenerkennungs- und Steuereinrichtung (10) nach Anspruch 6 aufweist. 7. Motor vehicle (12) which has a gesture recognition and control device (10) according to claim 6.
8. Am Kopf tragbare Ausgabevorrichtung (18) zum Ausgeben einer erwei terten Realität und/oder einer virtuellen Realität, die eine Gestenerken- nungs- und Steuereinrichtung (10) nach Anspruch 6 aufweist. 8. An output device (18) which can be worn on the head for outputting an expanded reality and / or a virtual reality, which has a gesture recognition and control device (10) according to claim 6.
EP20735582.7A 2019-07-15 2020-07-01 Method for operating a mobile terminal by means of a gesture recognition and control device, gesture recognition and control device, motor vehicle, and an output apparatus that can be worn on the head Withdrawn EP3999939A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102019210383.9A DE102019210383A1 (en) 2019-07-15 2019-07-15 Method for operating a mobile terminal by means of a gesture recognition and control device, gesture recognition and control device, motor vehicle, and output device that can be worn on the head
PCT/EP2020/068456 WO2021008871A1 (en) 2019-07-15 2020-07-01 Method for operating a mobile terminal by means of a gesture recognition and control device, gesture recognition and control device, motor vehicle, and an output apparatus that can be worn on the head

Publications (1)

Publication Number Publication Date
EP3999939A1 true EP3999939A1 (en) 2022-05-25

Family

ID=71409426

Family Applications (1)

Application Number Title Priority Date Filing Date
EP20735582.7A Withdrawn EP3999939A1 (en) 2019-07-15 2020-07-01 Method for operating a mobile terminal by means of a gesture recognition and control device, gesture recognition and control device, motor vehicle, and an output apparatus that can be worn on the head

Country Status (5)

Country Link
US (1) US12008168B2 (en)
EP (1) EP3999939A1 (en)
CN (1) CN113994312B (en)
DE (1) DE102019210383A1 (en)
WO (1) WO2021008871A1 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019210383A1 (en) 2019-07-15 2021-01-21 Audi Ag Method for operating a mobile terminal by means of a gesture recognition and control device, gesture recognition and control device, motor vehicle, and output device that can be worn on the head
EP4030773B1 (en) * 2019-09-09 2023-11-01 NISSAN MOTOR Co., Ltd. Vehicle remote control method and vehicle remote control device
JP7057393B2 (en) * 2020-06-24 2022-04-19 株式会社電通 Programs, head-mounted displays and information processing equipment
DE102021119970A1 (en) 2021-08-02 2023-02-02 Bayerische Motoren Werke Aktiengesellschaft Operating procedure for vehicles with data glasses
US12030577B2 (en) 2021-09-30 2024-07-09 Snap Inc. AR based performance modulation of a personal mobility system
US11813528B2 (en) * 2021-11-01 2023-11-14 Snap Inc. AR enhanced gameplay with a personal mobility system
DE102022113343A1 (en) 2022-05-25 2023-11-30 Bayerische Motoren Werke Aktiengesellschaft Method and device for operating a display system in a mobile device with data glasses
CN114839782B (en) * 2022-06-07 2023-08-18 上汽大众汽车有限公司 Vehicle-mounted enhanced display system for vehicle control and information display
DE102022129409A1 (en) 2022-11-08 2024-05-08 Bayerische Motoren Werke Aktiengesellschaft Device and method for controlling a smart device in a vehicle
FR3144322A1 (en) * 2022-12-23 2024-06-28 Valeo Comfort And Driving Assistance Vehicle-mounted immersive reality system

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10133342B2 (en) * 2013-02-14 2018-11-20 Qualcomm Incorporated Human-body-gesture-based region and volume selection for HMD
US20150187357A1 (en) * 2013-12-30 2015-07-02 Samsung Electronics Co., Ltd. Natural input based virtual ui system for mobile devices
US10013083B2 (en) * 2014-04-28 2018-07-03 Qualcomm Incorporated Utilizing real world objects for user input
US10353532B1 (en) * 2014-12-18 2019-07-16 Leap Motion, Inc. User interface for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
EP3079041B1 (en) 2015-04-10 2018-06-27 Airbus Defence and Space GmbH Method and system for the production of a virtual reality environment for passengers of landcraft and aircraft
DE102016207530A1 (en) 2016-05-02 2017-11-02 Volkswagen Aktiengesellschaft System and method for displaying a virtual vehicle interior
DE102016225268A1 (en) * 2016-12-16 2018-06-21 Bayerische Motoren Werke Aktiengesellschaft Method and device for operating a display system with data glasses
DE102017211521A1 (en) 2017-07-06 2019-01-10 Bayerische Motoren Werke Aktiengesellschaft Control of vehicle functions from a virtual reality
ES2704373B2 (en) * 2017-09-15 2020-05-29 Seat Sa Method and system to display virtual reality information in a vehicle
CN109781136A (en) * 2019-02-01 2019-05-21 谷东科技有限公司 A kind of intelligent navigation method and system based on AR glasses
DE102019210383A1 (en) 2019-07-15 2021-01-21 Audi Ag Method for operating a mobile terminal by means of a gesture recognition and control device, gesture recognition and control device, motor vehicle, and output device that can be worn on the head

Also Published As

Publication number Publication date
US12008168B2 (en) 2024-06-11
DE102019210383A1 (en) 2021-01-21
CN113994312B (en) 2024-08-30
US20220244789A1 (en) 2022-08-04
CN113994312A (en) 2022-01-28
WO2021008871A1 (en) 2021-01-21

Similar Documents

Publication Publication Date Title
EP3999939A1 (en) Method for operating a mobile terminal by means of a gesture recognition and control device, gesture recognition and control device, motor vehicle, and an output apparatus that can be worn on the head
EP2451672B1 (en) Method and device for providing a user interface in a vehicle
US9965169B2 (en) Systems, methods, and apparatus for controlling gesture initiation and termination
DE112012004789T5 (en) Configurable vehicle console
DE102006028046A1 (en) Combined display and control device for motor vehicle, has screen for displaying and selecting functions, and detecting device detecting control unit, where screen is switchable from information mode into control mode by control unit
DE202013012304U1 (en) Mobile terminal
DE102013010932A1 (en) Method for operating a user interface, user interface and motor vehicle with a user interface
DE102013004612B4 (en) Method for operating an infotainment system
EP3688515B1 (en) Method for operating a head-mounted electronic display device, and display system for displaying a virtual content
DE102013227220A1 (en) BLIND CONTROL SYSTEM FOR VEHICLE
CN111142655A (en) Interaction method, terminal and computer readable storage medium
DE102018205664A1 (en) Device for assisting an occupant in the interior of a motor vehicle
EP3254172A1 (en) Determination of a position of a non-vehicle object in a vehicle
DE102014008204A1 (en) Motor vehicle with media reproduction
DE102013000069A1 (en) Motor vehicle operating interface with a control element for detecting a control action
DE102015226152A1 (en) Display device and method for driving a display device
EP3718810A1 (en) Method and device for operating electronically controllable components of a vehicle
CN115103152A (en) Vehicle mounted media display system and method
EP3948493A1 (en) Method and apparatus for interaction with an environment object in the surroundings of a vehicle
DE102019208235B4 (en) Method for operating an HMD display unit for a vehicle, HMD display unit, multifunction steering wheel and vehicle for use in the method
EP3108333B1 (en) User interface and method for assisting a user in the operation of a user interface
DE102021200185A1 (en) Method and device for outputting an image of a partial area of the surroundings of a vehicle
WO2021043559A1 (en) Communication system in a vehicle and method for operating a communication system in a vehicle
DE102019133559A1 (en) Determine the use of a mobile device
DE102017218780A1 (en) Method for operating a vehicle assistance system and vehicle assistance system for a motor vehicle

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20220215

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
P01 Opt-out of the competence of the unified patent court (upc) registered

Effective date: 20230529

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20240415

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN WITHDRAWN

18W Application withdrawn

Effective date: 20240813