WO2017032549A1 - Method for triggering at least one processing step by assigning an information element to a device - Google Patents

Method for triggering at least one processing step by assigning an information element to a device Download PDF

Info

Publication number
WO2017032549A1
WO2017032549A1 PCT/EP2016/068154 EP2016068154W WO2017032549A1 WO 2017032549 A1 WO2017032549 A1 WO 2017032549A1 EP 2016068154 W EP2016068154 W EP 2016068154W WO 2017032549 A1 WO2017032549 A1 WO 2017032549A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
information element
display
gesture
displays
Prior art date
Application number
PCT/EP2016/068154
Other languages
German (de)
French (fr)
Inventor
Bernd Weymann
Karl-Heinz Knobl
Original Assignee
Continental Automotive Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive Gmbh filed Critical Continental Automotive Gmbh
Publication of WO2017032549A1 publication Critical patent/WO2017032549A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/182Distributing information between displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/184Displaying the same information on different displays

Definitions

  • the invention relates to a method and apparatus for processing information elements, in particular to a method of triggering at least one on an information ⁇ element applicable processing step in a system with multiple arranged at different spatial positions displays, for example, in a motor vehicle cockpit.
  • an information element called ⁇ an executable computer program or a computer program executable associated content.
  • content associated with an executable computer program includes one or more text, image, audio, or video elements, singly or in combination.
  • text items are messages or status information that can be captured and processed by a user or computer.
  • a processing step to be applied to an information element includes, among other things, the extraction of information and / or computer-executable program instructions from the information element, the forwarding of information extracted from the information element and / or program instructions to another process step or to another, the information verar ⁇ beitendes device, or a display of information associated with the information element after previous execution of processing steps.
  • display ver ⁇ applies for a screen for displaying information or an information processing device with a screen.
  • an information processing device with a screen can be applied to parts of an information element processing steps tillar ⁇ processed by this device.
  • a pure display can represent a processing function to be applied to parts of an information element, the actual processing taking place in a computer connected to the display.
  • information and controls are increasingly displayed on displays. These displays are often not arranged in the driver's field of vision in such a way that they neither restrict the driver's field of vision nor avert the gaze from driving.
  • the arrangement of the representation of information about different functions of a motor vehicle is often individually adjustable by the user.
  • FIG. 1 shows an exemplary representation of a known from the prior art, configurable by a user interface on a screen 100.
  • a plurality of windows 102, 104, 106 are arranged, representing the status of ⁇ different, parallel programs or functions ,
  • Window 102 is associated with a radio function and displays information about a tuned radio station.
  • the in window 102 information includes the name of the radio station, 1021, the frequency at which the radio station broadcasts, 1022, a transmitter logo, 1023, and a QR code, by means of which further information is made accessible using a smartphone or other suitable network device.
  • Window 104 is associated with a navigation system of a motor vehicle and displays in an electronic compass 1041 the current orientation of the vehicle, as well as a destination address 1042.
  • Window 106 is associated with a weather application and displays weather data 1061 and temperature data 1062 to a selected location 1063. In addition, current date 1064 and current time 1065 are displayed in window 106.
  • a user wishes to move the window 106 to another location on the screen 100.
  • Arrow 108 in FIG. 1 indicates a displacement direction for window 106.
  • a user moves the window 106 from the upper right quadrant to the lower left quadrant.
  • the original position of the window 106 is indicated by the weak-light gray ⁇ rendered image of the window 106.
  • the shift occurs, for example, by touching the window 106 on a touch screen, e.g. With a finger, and moving the touch point across the screen to the new desired position without lifting the finger off the screen.
  • the desired new position is reached, the user can lift his finger off the screen and the window shift is completed.
  • an approximate positioning of a window to be moved is sufficient, with final positioning being automatic with respect to other windows.
  • Figure 2 shows the screen 100 after the shift.
  • the positions of the windows 102 and 104 are unchanged.
  • Window 106 is now at the new position in the lower left Quadrant, the original position of the window 106 is now empty.
  • the information displayed in the windows is essentially unchanged.
  • a similar shift function for information windows of computer programs from a display arranged at a first location to a display arranged at a second location is known from EP 2 018 992. Moving information windows from one display to another is merely a matter of continuing to play or play on another display.
  • the invention defined in the claims simplifies the operation of functions provided in a motor vehicle having a plurality of displays and reduces the complexity of the operating steps required for their operation.
  • the inventive method enables a user Informa tion elements ⁇ devices and / or functions in a simple and intuitive way to allocate for the processing, wherein a deflection is prevented from driving process or at least reduced.
  • the inventive method for triggering at least one to be applied to an item of information about the pure Dar ⁇ position associated with the information element information on a display beyond machining step is carried out in a system comprising a plurality of displays and min ⁇ least a processor coupled to the display computer to execute of the at least one processing step.
  • the method comprises the presentation of a first information element or a hint representing the presence of a first information element.
  • Such an indication can be made visually, acoustically or haptically.
  • One an optical indication is, for example, a light signal or symbol appearing on the screen in the field of vision of a user.
  • the type of light signal, z As color, steady light or flashing, or a combination thereof can provide information about the information element.
  • An indication by a symbol on a screen can give information about the information element by the design of the symbol.
  • An audible indication may be given by one or more user-audible beeps, or by voice information, such as synthesized voice output.
  • a haptic indication can be made, for example, by vibration of a control element touched by the user.
  • the control element does not have to be connected with the processing of the information element. For example, in a motor vehicle, a part of the steering wheel encompassed by a driver's hand can vibrate, or the seat surface or seat back.
  • the method further comprises detecting a gesture executed by the user with respect to the presented first information item or hint.
  • the gesture may be performed on a touch-sensitive surface, such as on a touchpad or a touch-sensitive screen.
  • the gesture can be performed freely in the room, for example, by hand, arm, Kopfbe ⁇ movements or the like.
  • the detection of gestures executed freely in space can be done, for example, by means of one or more cameras with subsequent image processing.
  • an object to be moved by the user in the room may be provided, for example a ring or a bracelet.
  • the object can be designed so that it recognizes changes in its position in the room itself and detects gestures.
  • a gesture detected by the object can then be transmitted to a control unit by means of wireless transmission, for example by radio or light signal, and used in the sense of the method according to the invention.
  • a detection of gestures by means of a camera is not absolutely necessary.
  • optional combination of both detection methods may improve the accuracy of detection.
  • Gestures can be, for example, pointing, gripping or swiping gestures.
  • the method further comprises executing one or more processing steps concerning the first information item, wherein the one or more processing steps to be performed depend on the detected gesture and the type or type of the information item.
  • the execution of the one or more processing steps may include assigning the information element or outputting a result of the processing steps to a display, wherein a computer connected to the display executes the processing steps.
  • the display stands for a function or a software program which executes the processing steps relating to the information element.
  • the processing steps applied to the Informati ⁇ onselement more than the mere representation of the information element itself on another display are.
  • the gesture describes picking up the information element at a first location and moving the information element to a second location, or more generally a displacement of the information element from a first location to a second location.
  • a location preferably corresponds at least approximately to the position of a display.
  • a place can also be a virtual place, which is clearly described by the direction of a gesture, for example.
  • a virtual location is a virtual recycle bin.
  • a move to this virtual recycle bin then causes the deletion of an information item or the abort of a current item related to the item of information.
  • the gesture may also be a shift of the Informati ⁇ onselement representing the object on a display in a be from several spatial directions. It is not absolutely necessary to touch the display.
  • the gesture may also be an independent hand, eye or head movement from an object displayed on a display.
  • Such a hand, eye or head movement occurs in close temporal relation with a signaling to a user that a new information element is ready.
  • the close temporal relationship is determined, for example, by a first time period following the signaling.
  • the first period may be preset for certain types of information elements and / or individually adjustable or modifiable by a user.
  • the related to an information element executed Be ⁇ processing steps are different depending on the kind or type of Informati ⁇ onselements, even if different kinds or types of information elements are assigned the same screen or the same gestures are used.
  • the at least one processing step to be executed on the information element is linked to the information element.
  • the link may be imp ⁇ lementiert in different ways.
  • one or more computer readable program instructions may be associated with the information element, for example, in a file header.
  • assign one or more processing steps to certain types of information elements and to store the assignment in the at least one computer arranged in the system, so that only the type or type of information element must be determined by the one or more to determine a specific gesture toward executed Bear ⁇ beitungsuzee.
  • Fig. 1 shows a first exemplary illustration of a user interface known from the prior art, configurable by a user on an image screen ⁇ ;
  • FIG. 2 shows a second exemplary representation of the known from the prior art, configurable by a user interface on a screen ⁇ screen;
  • FIG. 3 shows an exemplary schematic representation of an arrangement of a plurality of devices functionally linked to each other according to the invention
  • Fig. 4 shows an illustrating the method from ⁇ strah Of schematic arrangement according to the invention interconnected devices of Figure 3.
  • FIG. 3 shows an exemplary schematic representation of an arrangement of a plurality of devices functionally linked together according to the invention, for example in a motor vehicle cockpit.
  • the motor vehicle cockpit 300 has an instrument panel 302 in front of which a steering wheel 304 is arranged.
  • a combination ⁇ instrument 306 is arranged on the dashboard 302 having a first display.
  • To the right of the position indicated by the steering wheel 304 of the driver is a center console 308, on which a second display 310 is arranged.
  • a windshield 312 On which a Pro etechnischs
  • a head-up display 314 is indicated in the lower area of the center console.
  • a virtual recycle bin 316 is indicated.
  • the combination instrument 306 with the first display, the second display 310, the head-up display 314 and the virtual wastebasket 316 represent devices which, in addition to being able to display information, can perform or control certain functions.
  • the devices described in FIG. 3 are arranged along a horizontal or vertical axis in order to clarify the functional principle of the method according to the invention.
  • the axes are parallel to corresponding gestures that trigger processing steps to be applied to information items.
  • the exemplary arrangement of the devices in Figure 4 may be considered to be spatially approximate as a typical arrangement of corresponding devices in a motor vehicle.
  • the first instrument, instrument cluster 306, is located in the left half of the figure on the x-axis (not shown).
  • the second device, second display 310 is arranged in the right half of the figure on the x-axis.
  • Display 314 is located in the upper half of the figure on the y-axis (not shown), and the fourth device, the virtual wastebasket 316, is located in the lower half of the figure on the y-axis.
  • the information element to which one or more processing steps are applied is an in-depth one
  • SMS Text message
  • a message eg. For example, an icon or a text hint that an SMS has been received is for example displayed on the display of the instrument cluster 306.
  • the reading of text messages is usually not possible for drivers of motor vehicles while driving, without taking their eyes off the road and possibly endanger themselves or other road users. Therefore, reading text messages while driving is prohibited by law in many countries.
  • a driver can activate a read-only function by means of a simple gesture, here by means of a directed swipe gesture to the right, which reads out the SMS.
  • a simple gesture here by means of a directed swipe gesture to the right
  • Corresponding devices that convert text to speech are known from the prior art and will not be explained in detail here.
  • the swipe gesture from left to right, from the instrument cluster 306 to the second display 310 in the center console 308, causes the assignment of the text message whose arrival has been signaled on the display of the instrument cluster 306, to another device and simultaneously starting the text-to-speech Function and its application to the text message.
  • a speech dialog program which offers the driver a choice of reactions to the text message, for example the dictation of a response, or the establishment of a telephone connection to the sender of the SMS.
  • the driver can perform a swipe gesture from top to bottom, ie from the instrument cluster 306 in the direction of virtual wastebasket 316, to clear the notification in the display of the instrument 306.
  • the SMS may be deleted, e.g. For example, if the driver does not want to receive messages from a particular sender, or if the content recognizable to the driver is unimportant. This assumes that the sender of a message and / or content summary are made visible in the notification.
  • Text messages are not limited to SMS. Any text messages can be processed according to the method explained above, for example from social networks, news services, emails, etc.
  • the executed in response to a gesture editing ⁇ steps and the available gestures may be dependent and may be stored in a control unit, which performs the gesture recognition or which first receives the information element or be riding ⁇ represents the type of information element.
  • the devices exchange communication-compatible attributes for the correct control of the function.
  • processing steps can be transmitted in the form of executable by a computer program commands, for example in a script ⁇ language.
  • the information element to which one or more processing steps are applied is a traffic announcement or traffic information, e.g. B. concerning a currently traveled or planned route.
  • a corresponding information is displayed on the display of the instrument cluster 306 or the Ver ⁇ traffic announcement is received by a radio receiver of a media and communication unit and reproduced.
  • the media and communication unit is in motor vehicles usually arranged in the center console second display 310 assigned ⁇ , and the control of the relevant functions is at least displayed in the second display 310. Also becomes an input a navigation target usually via the arranged in the middle ⁇ console second display 310 done.
  • the acquisition of traffic information causes the display in the instrument cluster 306 in a navigation system and recalculate the route and calculating an alternative route based transmitted by the information element over ⁇ data. If no route is planned, a probable route can also be estimated and information about an expected time delay can be output on the probable route. Accordingly, a swipe gesture from top to bottom, that is to say to the virtual wastebasket 316, causes discarding of the traffic information without recalculation of the route or other actions.
  • swipe gestures in the foregoing examples may be supplemented by a corresponding animation of the item of information represents ⁇ alternate forming image or icon, Example ⁇ , by a displacement of the image or icon on the display of the device or, in the case of the swipe gesture from the top is located in the wiping direction downwards only the pushing out of the picture or pictogram from the display in wiping direction.
  • the information element to which one or more processing steps are applied is an address or a destination to which route guidance by means of a navigation device is to take place.
  • the input of an address or destination to which a route towards ⁇ guide is to be made via the arranged in the center console second display 310 is usually.
  • the second display 310 also provides a selection of available functions for selection as a rule.
  • a swipe gesture causes from bottom to top, So from the second display 310 to the head-up display 314, the acquisition of the destination information in a corresponding Naviga ⁇ tion program and the calculation of the route.
  • the route guidance information is then displayed at any given time in the head-up display 314, possibly supplemented by corresponding voice instructions.
  • gestures available for an information element additionally depend on operating parameters of a motor vehicle.
  • a representation of the message is not provided, because reading texts while driving can lead to dangerous situations.
  • the motor vehicle is stationary, however, such as St ⁇ the engine being switched, it is possible to expand the available for a text message information element representing gestures.
  • a swipe gesture from bottom to top ie from the display in the instrument cluster 306 or from the second display 310 to the head-up display 314, could then cause the representation of the text in the head-up display.
  • the home position for gesture recognition is essentially irrelevant as long as a gesture can be clearly recognized. It is therefore not necessary to start a gesture in spatial proximity to a first device or its display and to close it in spatial proximity to a second device or its display in order to effect an assignment of the information element to the second device for processing.
  • the invention has been described above with reference to a motor vehicle. However, it is also possible to apply the method according to the invention to other systems which can process different information elements in different ways and in which gestures allow a clear assignment of information elements to devices or subsystems.
  • Such a system is for example a crosslinked Compu ⁇ tersystem with one or more computers or subsystems and corresponding displays.
  • the computers do not have to be identical. Rather, for example, a tablet computer represent a central unit that receives information elements or references to it, but limited in their ability to process certain information elements.
  • On a touch screen of the tablet computer being led ⁇ detected or via a built-in camera tablet computer gestures cause allocation of the information elements to another suitable computer for further processing. It is also conceivable that a gesture which is identical in itself causes an allocation to other devices, computers or subsystems through a changing orientation of the tablet computer in a room.
  • a computer for the execution of processing steps is provided and connected to a plurality of displays.
  • the computer is further connected to at least one means for recognizing gestures carried out by a user.
  • the computer provides the function of a control unit provided, which applies a detected gesture on an information element and as a function of the gesture and the Informati ⁇ onselement the execution of one or more of information, the on processing relevant processing steps triggers by an ent ⁇ speaking program running on the computer.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The invention relates to a method for triggering at least one processing step, which should be applied to an information element and which goes beyond the displaying of information associated with the information element on a display, in a system having a plurality of displays and having at least one computer connected to the displays, which method comprises presenting a first information element or an indication representing the presence of a first information element. The method also comprises detecting a gesture performed by the user in relation to the presented first information element or the presented indication and, in accordance with the detected gesture, performing one or more processing steps concerning the first information element.

Description

Beschreibung description
Verfahren zum Auslösen mindestens eines Bearbeitungsschrittes durch Zuweisung eines Informationselements zu einem Gerät Method for triggering at least one processing step by assigning an information element to a device
Die Erfindung bezieht sich auf ein Verfahren und eine Einrichtung zur Verarbeitung von Informationselementen, insbesondere auf ein Verfahren zum Auslösen mindestens eines auf ein Informations¬ element anzuwendenden Bearbeitungsschrittes in einem System mit mehreren an unterschiedlichen räumlichen Positionen angeordneten Displays, beispielsweise in einem Kraftfahrzeugcockpit. The invention relates to a method and apparatus for processing information elements, in particular to a method of triggering at least one on an information ¬ element applicable processing step in a system with multiple arranged at different spatial positions displays, for example, in a motor vehicle cockpit.
Im Kontext dieser Beschreibung bezeichnet ein Informations¬ element ein ausführbares Computerprogramm oder mit einem ausführbaren Computerprogramm verknüpften Inhalt. Mit einem ausführbaren Computerprogramm verknüpfter Inhalt umfasst beispielsweise ein oder mehrere Text-, Bild-, Audio- oder Videoelemente, einzeln oder in Kombination. Textelemente sind beispielsweise Nachrichten oder Statusinformationen, die von einem Benutzer oder einem Computer erfasst und verarbeitet werden können . In the context of this description, an information element called ¬ an executable computer program or a computer program executable associated content. For example, content associated with an executable computer program includes one or more text, image, audio, or video elements, singly or in combination. For example, text items are messages or status information that can be captured and processed by a user or computer.
Im Kontext dieser Beschreibung bezeichnet ein auf ein Informationselement anzuwendender Bearbeitungsschritt unter anderem die Extraktion von Informationen und/oder von einem Computer ausführbaren Programmbefehlen aus dem Informationselement, die Weiterleitung von aus dem Informationselement extrahierten Informationen und/oder Programmbefehlen an einen weiteren Prozessschritt oder an ein weiteres, die Information verar¬ beitendes Gerät, oder die Darstellung von Informationen im Zusammenhang mit dem Informationselement nach zuvor erfolgter Ausführung von Bearbeitungsschritten. In the context of this description, a processing step to be applied to an information element includes, among other things, the extraction of information and / or computer-executable program instructions from the information element, the forwarding of information extracted from the information element and / or program instructions to another process step or to another, the information verar ¬ beitendes device, or a display of information associated with the information element after previous execution of processing steps.
Im Kontext dieser Beschreibung wird der Begriff Display synonym für einen Bildschirm zur Darstellung von Informationen oder ein informationsverarbeitendes Gerät mit einem Bildschirm ver¬ wendet. Im Falle eines informationsverarbeitenden Geräts mit einem Bildschirm können auf Teile eines Informationselements anzuwendende Bearbeitungsschritte durch dieses Gerät abgear¬ beitet werden. Ein reines Display kann eine auf Teile eines Informationselements anzuwendende Bearbeitungsschritte ver- arbeitende Funktion repräsentieren, wobei die tatsächliche Bearbeitung in einem mit dem Display verbundenen Computer stattfindet . In the context of this description, the term is synonymous display ver ¬ applies for a screen for displaying information or an information processing device with a screen. In the case of an information processing device with a screen can be applied to parts of an information element processing steps abgear ¬ processed by this device. A pure display can represent a processing function to be applied to parts of an information element, the actual processing taking place in a computer connected to the display.
Im Zuge der zunehmenden informationstechnischen Vernetzung von Automobilen wird einem Fahrer eine immer größere Zahl vonIn the course of increasing information technology networking of automobiles, a driver is becoming an ever larger number of
Informationen zugeführt, und es wird eine immer größere Zahl von Komfort- und Sicherheitsfunktionen bereitgestellt, um den Fahrer zu entlasten oder zu unterstützen. Die Bedienung dieser Funktionen und die Verarbeitung dieser Informationen erfordert häufig eine Reihe von komplexen aufeinander folgenden Bedienschritten. Durch diese komplexe Bedienung kann der Fahrer stark vom Straßenverkehr abgelenkt werden, so dass er möglicherweise auf gefährliche Situationen nur spät oder unzureichend reagieren kann . Information is supplied, and an ever greater number of comfort and safety features are provided to relieve or assist the driver. Operating these functions and processing this information often requires a series of complex sequential operations. This complex operation can greatly distract the driver from driving, so that he may be able to respond to dangerous situations only late or inadequately.
Insbesondere werden Informationen und Bedienelemente zunehmend auf Displays dargestellt. Diese Displays sind häufig nicht so im Blickfeld eines Fahrers angeordnet, dass sie weder das Blickfeld des Fahrers einschränken noch das Abwenden des Blicks vom Fahrgeschehen erfordern. Die Anordnung der Darstellung von Informationen zu unterschiedlichen Funktionen eines Kraftfahrzeugs ist oft vom Benutzer individuell einstellbar. In particular, information and controls are increasingly displayed on displays. These displays are often not arranged in the driver's field of vision in such a way that they neither restrict the driver's field of vision nor avert the gaze from driving. The arrangement of the representation of information about different functions of a motor vehicle is often individually adjustable by the user.
Figur 1 zeigt beispielhafte Darstellung eines aus dem Stand der Technik bekannten, durch einen Benutzer konfigurierbaren Bedieninterfaces auf einem Bildschirm 100. Auf dem Bildschirm 100 sind mehrere Fenster 102, 104, 106 angeordnet, die Statusin¬ formationen unterschiedlicher, parallel ausgeführter Programme bzw. Funktionen darstellen. 1 shows an exemplary representation of a known from the prior art, configurable by a user interface on a screen 100. On the screen 100 a plurality of windows 102, 104, 106 are arranged, representing the status of ¬ different, parallel programs or functions ,
Fenster 102 ist mit einer Radiofunktion verknüpft und zeigt Informationen zu einem eingestellten Radiosender. Die in Fenster 102 dargestellten Informationen umfassen den Namen des Radiosenders, 1021, die Freguenz auf der der Radiosender sendet, 1022, ein Senderlogo, 1023 sowie einen QR-Code, mittels dessen weitere Informationen unter Zuhilfenahme eines Smartphones oder anderen geeigneten Netzgeräts zugänglich gemacht werden. Window 102 is associated with a radio function and displays information about a tuned radio station. The in window 102 information includes the name of the radio station, 1021, the frequency at which the radio station broadcasts, 1022, a transmitter logo, 1023, and a QR code, by means of which further information is made accessible using a smartphone or other suitable network device.
Fenster 104 ist mit einem Navigationssystem eines Kraftfahrzeuges verknüpft und zeigt in einem elektronischen Kompass 1041 die aktuelle Ausrichtung des Fahrzeugs an, sowie eine Zieladresse 1042. Window 104 is associated with a navigation system of a motor vehicle and displays in an electronic compass 1041 the current orientation of the vehicle, as well as a destination address 1042.
Fenster 106 ist mit einer Wetter-Applikation verknüpft und zeigt Wetterdaten 1061 und Temperaturdaten 1062 zu einem ausgewählten Ort 1063. Außerdem werden das aktuelle Datum 1064 und die aktuelle Uhrzeit 1065 in dem Fenster 106 dargestellt. Window 106 is associated with a weather application and displays weather data 1061 and temperature data 1062 to a selected location 1063. In addition, current date 1064 and current time 1065 are displayed in window 106.
In Figur 1 möchte ein Benutzer das Fenster 106 an eine andere Stelle des Bildschirms 100 verschieben. Pfeil 108 in Figur 1 deutet eine Verschiebungsrichtung für Fenster 106 an. In der Figur 1 verschiebt ein Benutzer das Fenster 106 aus dem rechten oberen Quadranten in den linken unteren Quadranten. Die ursprüngliche Position des Fensters 106 ist durch die schwach-hell¬ grau wiedergegebene Abbildung des Fensters 106 angezeigt. Die Verschiebung erfolgt beispielsweise durch Berühren des Fensters 106 auf einem berührungsempfindlichen Bildschirm, z. B. mit einem Finger, und Bewegen des Berührungspunktes über den Bildschirm zu der neuen gewünschten Position, ohne dabei den Finger vom Bildschirm abzuheben. Wenn die gewünschte neue Position erreicht ist kann der Benutzer seinen Finger vom Bildschirm abheben und die Verschiebung des Fensters ist beendet. In manchen Fällen genügt eine ungefähre Positionierung eines zu verschiebenden Fensters, wobei eine endgültige Positionierung in Bezug zu anderen Fenstern automatisch erfolgt. Figur 2 zeigt den Bildschirm 100 nach erfolgter Verschiebung. Die Positionen der Fenster 102 und 104 sind unverändert. Fenster 106 befindet sich nun an der neuen Position im linken unteren Quadranten, die ursprüngliche Position des Fensters 106 ist nunmehr leer. Die in den Fenstern dargestellten Informationen sind im Wesentlichen unverändert. Eine ähnliche Verschiebefunktion für Informationsfenster von Computerprogrammen von einem an einem ersten Ort angeordneten Display auf ein an einem zweiten Ort angeordneten Display ist aus der EP 2 018 992 bekannt. Bei der Verschiebung von Informationsfenstern von einem auf ein anderes Display erfolgt lediglich die fortgesetzte Darstellung oder Wiedergabe auf einem anderen Display . In FIG. 1, a user wishes to move the window 106 to another location on the screen 100. Arrow 108 in FIG. 1 indicates a displacement direction for window 106. In FIG. 1, a user moves the window 106 from the upper right quadrant to the lower left quadrant. The original position of the window 106 is indicated by the weak-light gray ¬ rendered image of the window 106. The shift occurs, for example, by touching the window 106 on a touch screen, e.g. With a finger, and moving the touch point across the screen to the new desired position without lifting the finger off the screen. When the desired new position is reached, the user can lift his finger off the screen and the window shift is completed. In some cases, an approximate positioning of a window to be moved is sufficient, with final positioning being automatic with respect to other windows. Figure 2 shows the screen 100 after the shift. The positions of the windows 102 and 104 are unchanged. Window 106 is now at the new position in the lower left Quadrant, the original position of the window 106 is now empty. The information displayed in the windows is essentially unchanged. A similar shift function for information windows of computer programs from a display arranged at a first location to a display arranged at a second location is known from EP 2 018 992. Moving information windows from one display to another is merely a matter of continuing to play or play on another display.
Die Verschiebung von Informations fenstern auf einem Display bewirkt jedoch noch keine weitergehende Bedienung der zugrunde- liegenden Funktion oder Bearbeitung von in einem Informationsfenster dargestellten Informationen. However, the shifting of information windows on a display does not yet cause any further operation of the underlying function or processing of information presented in an information window.
Die in den Patentansprüchen angegebene Erfindung vereinfacht die Bedienung von in einem Kraftfahrzeug mit mehreren Displays bereitgestellten Funktionen und reduziert die Komplexität der zu ihrer Bedienung erforderlichen Bedienschritte. Das erfindungsgemäße Verfahren ermöglicht es einem Benutzer Informa¬ tionselemente Geräten und/oder Funktionen auf einfache und intuitive Weise zur Bearbeitung zuzuweisen, wobei eine Ablenkung vom Fahrgeschehen vermieden oder zumindest reduziert wird. The invention defined in the claims simplifies the operation of functions provided in a motor vehicle having a plurality of displays and reduces the complexity of the operating steps required for their operation. The inventive method enables a user Informa tion elements ¬ devices and / or functions in a simple and intuitive way to allocate for the processing, wherein a deflection is prevented from driving process or at least reduced.
Das erfindungsgemäße Verfahren zum Auslösen mindestens eines auf ein Informationselement anzuwendenden, über die reine Dar¬ stellung von mit dem Informationselement verbundenen Information auf einem Display hinausgehenden Bearbeitungsschrittes wird in einem System ausgeführt, welches mehrere Displays sowie min¬ destens einen mit den Displays verbundenen Computer zur Ausführung des mindestens einen Bearbeitungsschritts aufweist. Das Verfahren umfasst das Präsentieren eines ersten Informati- onselements oder eines das Vorhandensein eines ersten Informationselements repräsentierenden Hinweises. Ein solcher Hinweis kann optisch, akustisch oder haptisch erfolgen. Ein optischer Hinweis ist beispielsweise ein im Sichtfeld eines Benutzers erscheinendes Leuchtsignal oder Symbol auf einem Bildschirm. Die Art des Leuchtsignals, z. B. Farbe, Dauerlicht oder Blinken, oder eine Kombination davon kann Aufschluss über das Informationselement geben. Ein Hinweis durch ein Symbol auf einem Bildschirm kann durch die Gestaltung des Symbols Aufschluss über das Informationselement geben. Ein akustischer Hinweis kann durch einen oder mehrere vom Benutzer wahrnehmbare Signaltöne erfolgen, oder durch eine Sprachinformation, beispielsweise durch synthetisierte Sprachausgabe. Ein haptischer Hinweis kann beispielsweise durch Vibration eines vom Benutzer berührten Bedienelements erfolgen. Dabei muss das Bedienelement nicht mit der Bearbeitung des Informationselements in Verbindung stehen. In einem Kraftfahrzeug kann beispielsweise ein von der Hand eines Fahrers umfasster Teil des Lenkrads vibrieren, oder die Sitzfläche oder Sitzlehne. The inventive method for triggering at least one to be applied to an item of information about the pure Dar ¬ position associated with the information element information on a display beyond machining step is carried out in a system comprising a plurality of displays and min ¬ least a processor coupled to the display computer to execute of the at least one processing step. The method comprises the presentation of a first information element or a hint representing the presence of a first information element. Such an indication can be made visually, acoustically or haptically. One an optical indication is, for example, a light signal or symbol appearing on the screen in the field of vision of a user. The type of light signal, z. As color, steady light or flashing, or a combination thereof can provide information about the information element. An indication by a symbol on a screen can give information about the information element by the design of the symbol. An audible indication may be given by one or more user-audible beeps, or by voice information, such as synthesized voice output. A haptic indication can be made, for example, by vibration of a control element touched by the user. The control element does not have to be connected with the processing of the information element. For example, in a motor vehicle, a part of the steering wheel encompassed by a driver's hand can vibrate, or the seat surface or seat back.
Das Verfahren umfasst ferner das Detektieren einer von dem Benutzer in Bezug auf das präsentierte erste Informationselement oder den präsentierten Hinweis ausgeführten Geste. Die Geste kann auf einer berührungsempfindlichen Oberfläche, beispielsweise auf einem Touchpad oder einem berührungsempfindlichen Bildschirm ausgeführt werden. Alternativ kann die Geste frei im Raum ausgeführt werden, beispielsweise durch Hand-, Arm-, Kopfbe¬ wegungen oder dergleichen. Die Erfassung von frei im Raum ausgeführten Gesten kann beispielsweise mittels einer oder mehrerer Kameras mit anschließender Bildverarbeitung erfolgen. Zur Verbesserung der Erkennung von frei im Raum ausgeführten Gesten kann ein vom Benutzer im Raum zu bewegendes Objekt vorgesehen sein, beispielsweise ein Ring oder ein Armband. Das Objekt kann so ausgestaltet sein, dass es Veränderungen seiner Lage im Raum selbst erkennt und daraus Gesten detektiert. Eine vom Objekt detektierte Geste kann dann mittels drahtloser Übertragung, beispielsweise per Funk oder Lichtsignal, an ein Steuergerät übertragen werden und im Sinne des erfindungsgemäßen Verfahrens verwendet werden. In diesem Fall ist eine Erfassung von Gesten mittels einer Kamera nicht zwingend nötig. Eine optionale Kombination beider Erkennungsverfahren kann jedoch zur Verbesserung der Genauigkeit der Erkennung führen. The method further comprises detecting a gesture executed by the user with respect to the presented first information item or hint. The gesture may be performed on a touch-sensitive surface, such as on a touchpad or a touch-sensitive screen. Alternatively, the gesture can be performed freely in the room, for example, by hand, arm, Kopfbe ¬ movements or the like. The detection of gestures executed freely in space can be done, for example, by means of one or more cameras with subsequent image processing. To improve the recognition of gestures carried out freely in space, an object to be moved by the user in the room may be provided, for example a ring or a bracelet. The object can be designed so that it recognizes changes in its position in the room itself and detects gestures. A gesture detected by the object can then be transmitted to a control unit by means of wireless transmission, for example by radio or light signal, and used in the sense of the method according to the invention. In this case, a detection of gestures by means of a camera is not absolutely necessary. A however, optional combination of both detection methods may improve the accuracy of detection.
Gesten können beispielsweise Zeige-, Greif- oder Wischgesten sein. Gestures can be, for example, pointing, gripping or swiping gestures.
Das Verfahren umfasst ferner das Ausführen eines oder mehrerer das erste Informationselement betreffende Bearbeitungsschritte, wobei der eine oder die mehreren auszuführenden Bearbeitungs- schritte von der detektierten Geste und der Art oder dem Typ des Informationselements abhängig sind. The method further comprises executing one or more processing steps concerning the first information item, wherein the one or more processing steps to be performed depend on the detected gesture and the type or type of the information item.
Die Ausführung des einen oder der mehreren Bearbeitungsschritte kann die Zuweisung des Informationselements oder eine Ausgabe eines Ergebnisses der Bearbeitungsschritte zu einem Display beinhalten, wobei ein mit dem Display verbundener Computer die Bearbeitungsschritte ausführt. Das Display steht dabei stellvertretend für eine Funktion oder ein Softwareprogramm, welches das Informationselement betreffende Bearbeitungs- schritte ausführt. In jedem Fall sind die auf das Informati¬ onselement anzuwendenden Bearbeitungsschritte mehr als die reine Darstellung des Informationselements selbst auf einem anderen Display. Zweckmäßigerweise beschreibt die Geste ein Aufnehmen des Informationselements an einem ersten Ort und ein Bewegen des Informationselements an einen zweiten Ort, oder allgemeiner einer Verschiebung des Informationselements von einem ersten an einen zweiten Ort. Ein Ort stimmt dabei vorzugsweise zumindest annähernd mit der Position eines Displays überein. Ein Ort kann jedoch auch ein virtueller Ort sein, der beispielsweise durch die Richtung einer Geste eindeutig beschrieben ist. Ein solcher virtueller Ort ist beispielsweise ein virtueller Papierkorb. Eine Verschiebung zu diesem virtuellen Papierkorb bewirkt dann das Löschen eines Informationselements oder das Abbrechen eines auf das Informationselement bezogenen laufenden Vorgangs. The execution of the one or more processing steps may include assigning the information element or outputting a result of the processing steps to a display, wherein a computer connected to the display executes the processing steps. The display stands for a function or a software program which executes the processing steps relating to the information element. In any case, the processing steps applied to the Informati ¬ onselement more than the mere representation of the information element itself on another display are. Conveniently, the gesture describes picking up the information element at a first location and moving the information element to a second location, or more generally a displacement of the information element from a first location to a second location. A location preferably corresponds at least approximately to the position of a display. However, a place can also be a virtual place, which is clearly described by the direction of a gesture, for example. For example, such a virtual location is a virtual recycle bin. A move to this virtual recycle bin then causes the deletion of an information item or the abort of a current item related to the item of information.
Die Geste kann auch eine Verschiebung eines das Informati¬ onselement repräsentierenden Objekts auf einem Display in eine von mehreren räumlichen Richtungen sein. Dabei ist es nicht zwingend nötig, das Display zu berühren. The gesture may also be a shift of the Informati ¬ onselement representing the object on a display in a be from several spatial directions. It is not absolutely necessary to touch the display.
Die Geste kann auch eine von einem auf einem Display dargestellten Objekt unabhängige Hand-, Augen- oder Kopfbewegung sein. The gesture may also be an independent hand, eye or head movement from an object displayed on a display.
Zweckmäßigerweise erfolgt eine solche Hand-, Augen- oder Kopfbewegung in engem zeitlichen Zusammenhang mit einer Signalisierung an einen Benutzer, dass ein neues Informationselement bereitsteht. Der enge zeitliche Zusammenhang wird beispielsweise durch einen ersten Zeitraum bestimmt, der auf die Signalisierung folgt . Der erste Zeitraum kann für bestimmte Typen von Informationselementen voreingestellt und/oder durch einen Benutzer individuell einstell- oder veränderbar sein. Appropriately, such a hand, eye or head movement occurs in close temporal relation with a signaling to a user that a new information element is ready. The close temporal relationship is determined, for example, by a first time period following the signaling. The first period may be preset for certain types of information elements and / or individually adjustable or modifiable by a user.
Die auf ein Informationselement bezogenen auszuführenden Be¬ arbeitungsschritte sind je nach Art oder Typ des Informati¬ onselements unterschiedlich, auch wenn unterschiedliche Arten oder Typen von Informationselementen demselben Display zugewiesen werden oder gleiche Gesten verwendet werden. The related to an information element executed Be ¬ processing steps are different depending on the kind or type of Informati ¬ onselements, even if different kinds or types of information elements are assigned the same screen or the same gestures are used.
Der mindestens eine auf das Informationselement auszuführende Bearbeitungsschritt ist mit dem Informationselement verknüpft. Die Verknüpfung kann auf unterschiedliche Art und Weise imp¬ lementiert sein. Beispielsweise können ein oder mehrere von einem Computer lesbare Programmanweisungen mit dem Informationselement verbunden sein, beispielsweise in einem Dateiheader. Es ist jedoch auch denkbar, bestimmten Typen von Informationselementen ein oder mehrere Bearbeitungsschritte fest zuzuweisen und die Zuweisung in dem mindestens einen in dem System angeordneten Computer zu speichern, so dass lediglich die Art oder der Typ des Informationselements bestimmt werden muss, um den oder die auf eine spezifische Geste hin auszuführenden Bear¬ beitungsschritte zu bestimmen. The at least one processing step to be executed on the information element is linked to the information element. The link may be imp ¬ lementiert in different ways. For example, one or more computer readable program instructions may be associated with the information element, for example, in a file header. However, it is also conceivable to assign one or more processing steps to certain types of information elements and to store the assignment in the at least one computer arranged in the system, so that only the type or type of information element must be determined by the one or more to determine a specific gesture toward executed Bear ¬ beitungsschritte.
Mehrere unterschiedliche Gesten können für ein Informations¬ element mit alternativen Bearbeitungsschritten verbunden sein. Im Folgenden wird die Erfindung anhand von Figuren einer Zeichnung beispielhaft erläutert. Several different gestures can be connected to an information ¬ element with alternative processing steps. In the following the invention will be explained by way of example with reference to figures of a drawing.
In der Zeichnung zeigt: In the drawing shows:
Fig. 1 zeigt eine erste beispielhafte Darstellung eines aus dem Stand der Technik bekannten, durch einen Benutzer konfigurierbaren Bedieninterfaces auf einem Bild¬ schirm; Fig. 1 shows a first exemplary illustration of a user interface known from the prior art, configurable by a user on an image screen ¬;
Fig. 2 zeigt eine zweite beispielhafte Darstellung des aus dem Stand der Technik bekannten, durch einen Benutzer konfigurierbaren Bedieninterfaces auf einem Bild¬ schirm; 2 shows a second exemplary representation of the known from the prior art, configurable by a user interface on a screen ¬ screen;
Fig. 3 zeigt eine beispielhafte schematische Darstellung einer Anordnung mehrerer erfindungsgemäß miteinander funktional verknüpfter Geräte; und Fig. 4 zeigt eine zur Verdeutlichung des Verfahrens ab¬ strahierte schematische Anordnung der erfindungsgemäß miteinander verknüpften Geräte aus Figur 3. 3 shows an exemplary schematic representation of an arrangement of a plurality of devices functionally linked to each other according to the invention; and Fig. 4 shows an illustrating the method from ¬ strahierte schematic arrangement according to the invention interconnected devices of Figure 3.
Figuren 1 und 2 wurden bereits weiter oben beschrieben und werden nachfolgend nicht weiter erläutert. Figures 1 and 2 have already been described above and will not be discussed further below.
Figur 3 zeigt eine beispielhafte schematische Darstellung einer Anordnung mehrerer erfindungsgemäß miteinander funktional verknüpfter Geräte, beispielsweise in einem Kraftfahrzeug- cockpit. Das Kraftfahrzeugcockpit 300 weist eine Armaturentafel 302 auf, vor der ein Lenkrad 304 angeordnet ist. Im Bereich des Lenkrades 304 ist an der Armaturentafel 302 ein Kombinations¬ instrument 306 angeordnet, das ein erstes Display aufweist. Rechts neben der durch das Lenkrad 304 angedeuteten Position des Fahrers befindet sich eine Mittelkonsole 308, an der ein zweites Display 310 angeordnet ist . Über der Armaturentafel befindet sich eine Windschutzscheibe 312, auf der eine Pro ektionsfläche für ein Head-up Display 314 angedeutet ist. Im unteren Bereich der Mittelkonsole ist ein virtueller Papierkorb 316 angedeutet. Das Kombiinstrument 306 mit dem ersten Display, das zweite Display 310, das Head-up Display 314 und der virtuelle Papierkorb 316 repräsentieren Geräte, die neben der Möglichkeit Informationen darzustellen bestimmte Funktionen ausführen oder steuern können. FIG. 3 shows an exemplary schematic representation of an arrangement of a plurality of devices functionally linked together according to the invention, for example in a motor vehicle cockpit. The motor vehicle cockpit 300 has an instrument panel 302 in front of which a steering wheel 304 is arranged. In the area of the steering wheel 304, a combination ¬ instrument 306 is arranged on the dashboard 302 having a first display. To the right of the position indicated by the steering wheel 304 of the driver is a center console 308, on which a second display 310 is arranged. Above the dashboard is a windshield 312, on which a Pro ektionsfläche for a head-up display 314 is indicated. In the lower area of the center console, a virtual recycle bin 316 is indicated. The combination instrument 306 with the first display, the second display 310, the head-up display 314 and the virtual wastebasket 316 represent devices which, in addition to being able to display information, can perform or control certain functions.
In Figur 4 sind die in Figur 3 beschriebenen Geräte zur Verdeutlichung des Funktionsprinzips des erfindungsgemäßen Ver- fahrens entlang einer horizontalen bzw. vertikalen Achse angeordnet. Die Achsen liegen parallel zu entsprechenden Gesten, die auf Informationselemente anzuwendende Bearbeitungsschritte auslösen. Die beispielhafte Anordnung der Geräte in der Figur 4 kann als einer typischen Anordnung entsprechender Geräte in einem Kraftfahrzeug räumlich angenähert angesehen werden. In FIG. 4, the devices described in FIG. 3 are arranged along a horizontal or vertical axis in order to clarify the functional principle of the method according to the invention. The axes are parallel to corresponding gestures that trigger processing steps to be applied to information items. The exemplary arrangement of the devices in Figure 4 may be considered to be spatially approximate as a typical arrangement of corresponding devices in a motor vehicle.
Das erste Gerät, Kombiinstrument 306, ist in der linken Hälfte der Figur auf der (nicht dargestellten) x-Achse angeordnet. Das zweite Gerät, zweites Display 310, ist in der rechten Hälfte der Figur auf der x-Achse angeordnet. Das dritte Gerät, Head-upThe first instrument, instrument cluster 306, is located in the left half of the figure on the x-axis (not shown). The second device, second display 310, is arranged in the right half of the figure on the x-axis. The third device, Head-up
Display 314, ist in der oberen Hälfte der Figur auf der (nicht dargestellten) y-Achse angeordnet, und das vierte Gerät, der virtuelle Papierkorb 316 ist in der unteren Hälfte der Figur auf der y-Achse angeordnet . Display 314 is located in the upper half of the figure on the y-axis (not shown), and the fourth device, the virtual wastebasket 316, is located in the lower half of the figure on the y-axis.
In Figur 4 sind mögliche Richtungen für einfache Gesten durch Pfeile 320-323 angedeutet, die vom Ursprung des durch die x-Achse und die y-Achse aufgespannten Koordinatensystems nach oben, nach unten, nach links, oder nach rechts zeigen. Der Ursprung des Koordinatensystems ist durch einen Kreis 324 im Zentrum re¬ präsentiert . In Figure 4, possible directions for simple gestures are indicated by arrows 320-323 pointing up, down, left, or right from the origin of the coordinate system spanned by the x-axis and the y-axis. The origin of the coordinate system is represented by a circle 324 in the center re ¬ .
In einem ersten Beispiel zur Erläuterung des erfindungsgemäßen Verfahrens ist das Informationselement, auf das ein oder mehrere Bearbeitungsschritte angewendet werden, eine eingehendeIn a first example for explaining the method according to the invention, the information element to which one or more processing steps are applied is an in-depth one
Textnachricht (SMS) . Eine Meldung, z. B. ein Symbol oder ein Texthinweis, dass eine SMS eingegangen ist wird beispielsweise auf dem Display des Kombiinstruments 306 angezeigt. Alternativ oder ergänzend dazu ist es auch möglich, eine eingegangene neue SMS mittels eines spezifischen Audiosignals zu melden. Das Lesen von Textnachrichten ist Fahrern von Kraftfahrzeugen üblicherweise während der Fahrt nicht möglich, ohne den Blick von der Straße zu nehmen und dadurch möglicherweise sich oder andere Verkehrsteilnehmer zu gefährden. Daher ist das Lesen von Textnachrichten während der Fahrt in vielen Ländern gesetzlich untersagt. Text message (SMS). A message, eg. For example, an icon or a text hint that an SMS has been received is for example displayed on the display of the instrument cluster 306. Alternatively or additionally, it is also possible to report a received new SMS by means of a specific audio signal. The reading of text messages is usually not possible for drivers of motor vehicles while driving, without taking their eyes off the road and possibly endanger themselves or other road users. Therefore, reading text messages while driving is prohibited by law in many countries.
In Anwendung des erfindungsgemäßen Verfahrens kann ein Fahrer mittels einer einfachen Geste, hier mittels einer gerichteten Wischgeste nach rechts, eine Vorlesefunktion aktivieren, die die SMS vorliest . Entsprechende Vorrichtungen, die Text in Sprache umwandeln sind aus dem Stand der Technik bekannt und werden an dieser Stelle nicht näher erläutert. Die Wischgeste von links nach rechts, vom Kombiinstrument 306 zum zweiten Display 310 in der Mittelkonsole 308, bewirkt die Zuweisung der Textnachricht, deren Eintreffen auf dem Display des Kombiinstruments 306 signalisiert wurde, zu einem anderen Gerät und gleichzeitig das Starten der Text-zu-Sprache Funktion und deren Anwendung auf die Textnachricht . In einer Ausgestaltung des erfindungsgemäßen Verfahrens wird nach dem Vorlesen der Nachricht ein Sprachdialogprogramm gestartet, das dem Fahrer eine Auswahl von Reaktionen auf die Textnachricht hin bietet, beispielsweise das Diktieren einer Antwort, oder den Aufbau einer Telefonverbindung zu dem Absender der SMS. In application of the method according to the invention, a driver can activate a read-only function by means of a simple gesture, here by means of a directed swipe gesture to the right, which reads out the SMS. Corresponding devices that convert text to speech are known from the prior art and will not be explained in detail here. The swipe gesture from left to right, from the instrument cluster 306 to the second display 310 in the center console 308, causes the assignment of the text message whose arrival has been signaled on the display of the instrument cluster 306, to another device and simultaneously starting the text-to-speech Function and its application to the text message. In one embodiment of the method according to the invention, after the message has been read a speech dialog program is started which offers the driver a choice of reactions to the text message, for example the dictation of a response, or the establishment of a telephone connection to the sender of the SMS.
Alternativ kann der Fahrer eine Wischgeste von oben nach unten ausführen, also vom Kombiinstrument 306 in Richtung virtueller Papierkorb 316, um die Benachrichtigung im Display des Kom- biinstruments 306 zu löschen. Zusätzlich dazu kann die SMS gelöscht werden, z. B. wenn der Fahrer Nachrichten eines bestimmten Absenders nicht empfangen möchte, oder wenn der Inhalt für den Fahrer erkennbar unwichtig ist. Dies setzt voraus, dass der Absender einer Nachricht und/oder ein Inhaltsüberblick in der Benachrichtigung erkennbar gemacht werden. Alternatively, the driver can perform a swipe gesture from top to bottom, ie from the instrument cluster 306 in the direction of virtual wastebasket 316, to clear the notification in the display of the instrument 306. Additionally, the SMS may be deleted, e.g. For example, if the driver does not want to receive messages from a particular sender, or if the content recognizable to the driver is unimportant. This assumes that the sender of a message and / or content summary are made visible in the notification.
Textnachrichten sind nicht auf SMS begrenzt. Es können beliebige Textnachrichten nach dem vorstehend erläuterten Verfahren bearbeitet werden, beispielsweise aus sozialen Netzwerken, Nachrichtendiensten, Emails, etc. Text messages are not limited to SMS. Any text messages can be processed according to the method explained above, for example from social networks, news services, emails, etc.
Die in Reaktion auf eine Geste auszuführenden Bearbeitungs¬ schritte und die verfügbaren Gesten können vom Typ des Informationselements abhängig sein und in einem Steuergerät gespeichert sein, welches die Gestenerkennung durchführt oder welches das Informationselement zunächst empfängt oder be¬ reitstellt. Die Geräte tauschen zur korrekten Steuerung der Funktion entsprechende Attribute kommunikativ miteinander aus. The executed in response to a gesture editing ¬ steps and the available gestures may be dependent and may be stored in a control unit, which performs the gesture recognition or which first receives the information element or be riding ¬ represents the type of information element. The devices exchange communication-compatible attributes for the correct control of the function.
Es ist jedoch auch möglich, auszuführende Bearbeitungs schritte mit dem Informationselement zusammenzufassen, beispielsweise in einem Kopf oder Header einer das Informationselement bein¬ haltenden Datei oder Nachricht. Die Bearbeitungs schritte können dabei in Form von durch einen Computer ausführbaren Programmbefehlen übermittelt werden, beispielsweise in einer Skript¬ sprache . However, it is also possible to summarize processing steps to summarize with the information element, for example in a header or header of the information element bein ¬ holding file or message. The processing steps can be transmitted in the form of executable by a computer program commands, for example in a script ¬ language.
In einem zweiten Beispiel zur Erläuterung des erfindungsgemäßen Verfahrens ist das Informationselement, auf das ein oder mehrere Bearbeitungsschritte angewendet werden, eine Verkehrsdurchsage oder Verkehrsinformation, z. B. betreffend eine gerade befahrene oder geplante Route. Eine entsprechende Information wird auf dem Display des Kombiinstruments 306 angezeigt, oder die Ver¬ kehrsdurchsage wird von einem Radioempfänger einer Medien- und Kommunikationseinheit empfangen und wiedergegeben. Die Medien- und Kommunikationseinheit ist in Kraftfahrzeugen in der Regel dem in der Mittelkonsole angeordneten zweiten Display 310 zuge¬ ordnet, und die Steuerung der betreffenden Funktionen wird in dem zweiten Display 310 zumindest angezeigt. Auch wird eine Eingabe eines Navigationsziels üblicherweise über das in der Mittel¬ konsole angeordnete zweite Display 310 erfolgen. In a second example for explaining the method according to the invention, the information element to which one or more processing steps are applied is a traffic announcement or traffic information, e.g. B. concerning a currently traveled or planned route. A corresponding information is displayed on the display of the instrument cluster 306 or the Ver ¬ traffic announcement is received by a radio receiver of a media and communication unit and reproduced. The media and communication unit is in motor vehicles usually arranged in the center console second display 310 assigned ¬ , and the control of the relevant functions is at least displayed in the second display 310. Also becomes an input a navigation target usually via the arranged in the middle ¬ console second display 310 done.
Eine Wischgeste von links nach rechts, also vom Display im Kombiinstrument 306 hin zum zweiten Display 310 bewirkt die Übernahme der Verkehrsinformation in ein Navigationssystem und eine Neuberechnung der Route bzw. die Berechnung einer alternativen Route anhand der durch das Informationselement über¬ tragenen Daten. Wenn keine Route geplant ist kann auch eine wahrscheinliche Route geschätzt werden und eine Information über eine zu erwartende ZeitVerzögerung auf der wahrscheinlichen Route ausgegeben werden. Entsprechend bewirkt eine Wischgeste von oben nach unten, also hin zu dem virtuellen Papierkorb 316 ein Verwerfen der Verkehrsinformation ohne Neuberechnung der Route oder andere Aktionen. Swiping from left to right, toward the second display 310, the acquisition of traffic information causes the display in the instrument cluster 306 in a navigation system and recalculate the route and calculating an alternative route based transmitted by the information element over ¬ data. If no route is planned, a probable route can also be estimated and information about an expected time delay can be output on the probable route. Accordingly, a swipe gesture from top to bottom, that is to say to the virtual wastebasket 316, causes discarding of the traffic information without recalculation of the route or other actions.
Die Wischgesten in den vorstehenden Beispielen können durch eine entsprechende Animation eines das Informationselement dar¬ stellenden Bildes oder Piktogramms ergänzt werden, beispiels¬ weise durch eine Verschiebung des Bildes oder Piktogramms auf das Display des sich in Wischrichtung befindlichen Geräts oder, im Falle der Wischgeste von oben nach unten nur das Hinausschieben des Bildes oder Piktogramms aus dem Display in Wischrichtung. The swipe gestures in the foregoing examples may be supplemented by a corresponding animation of the item of information represents ¬ alternate forming image or icon, Example ¬, by a displacement of the image or icon on the display of the device or, in the case of the swipe gesture from the top is located in the wiping direction downwards only the pushing out of the picture or pictogram from the display in wiping direction.
In einem dritten Beispiel zur Erläuterung des erfindungsgemäßen Verfahrens ist das Informationselement, auf das ein oder mehrere Bearbeitungsschritte angewendet werden, eine Adresse oder ein Ziel, zu dem hin eine Routenführung mittels Navigationsgerät erfolgen soll. Wie weiter oben erwähnt wird üblicherweise die Eingabe einer Adresse oder eines Ziels, zu dem hin eine Routen¬ führung erfolgen soll über das in der Mittelkonsole angeordnete zweite Display 310 erfolgen. Auf dem zweiten Display 310 wird in der Regel auch eine Auswahl an verfügbaren Funktionen zur Auswahl bereitgestellt. Wenn, nach dem Aufrufen der Navigationsfunktion, die Zielinformation eingegeben ist und in einem der Navigationsfunktion zugeordneten Fenster auf dem zweiten Display 310 dargestellt ist, bewirkt eine Wischgeste von unten nach oben, also vom zweiten Display 310 zum Head-up Display 314, die Übernahme der Zielinformation in ein entsprechendes Naviga¬ tionsprogramm und die Berechnung der Route. Die Routenführungsinformationen werden dann jeweils zu gegebener Zeit im Head-up Display 314 dargestellt, gegebenenfalls ergänzt durch entsprechende Sprachanweisungen. In a third example for explaining the method according to the invention, the information element to which one or more processing steps are applied is an address or a destination to which route guidance by means of a navigation device is to take place. As mentioned above, the input of an address or destination to which a route towards ¬ guide is to be made via the arranged in the center console second display 310 is usually. The second display 310 also provides a selection of available functions for selection as a rule. When, after calling up the navigation function, the destination information is entered and displayed on the second display 310 in a window associated with the navigation function, a swipe gesture causes from bottom to top, So from the second display 310 to the head-up display 314, the acquisition of the destination information in a corresponding Naviga ¬ tion program and the calculation of the route. The route guidance information is then displayed at any given time in the head-up display 314, possibly supplemented by corresponding voice instructions.
In einer Weiterentwicklung des erfindungsgemäßen Verfahrens sind für ein Informationselement verfügbare Gesten zusätzlich von Betriebsparametern eines Kraftfahrzeugs abhängig. In dem Beispiel der Textnachricht ist eine Darstellung des Nach- richtentexts nicht vorgesehen, weil das Lesen von Texten während der Fahrt zu gefährlichen Situationen führen kann. Wenn das Kraftfahrzeug jedoch still steht, beispielsweise bei abge¬ stelltem Motor, ist es denkbar die für ein eine Textnachricht repräsentierendes Informationselement verfügbaren Gesten zu erweitern. Eine Wischgeste von unten nach oben, also vom Display im Kombiinstrument 306 oder vom zweiten Display 310 hin zum Head-up Display 314, könnte dann die Darstellung des Texts im Head-up Display bewirken. In a further development of the method according to the invention, gestures available for an information element additionally depend on operating parameters of a motor vehicle. In the example of the text message, a representation of the message is not provided, because reading texts while driving can lead to dangerous situations. When the motor vehicle is stationary, however, such as abge ¬ the engine being switched, it is possible to expand the available for a text message information element representing gestures. A swipe gesture from bottom to top, ie from the display in the instrument cluster 306 or from the second display 310 to the head-up display 314, could then cause the representation of the text in the head-up display.
Aus den vorstehend beschriebenen Beispielen ist erkennbar, dass identische Gesten je nach Informationselement die Ausführung unterschiedlicher Bearbeitungsschritte bewirken. Dadurch kann die Anzahl der Gesten klein gehalten werden, wodurch ein Benutzer die Bedienung schnell erlernen kann. It can be seen from the examples described above that identical gestures, depending on the information element, cause the execution of different processing steps. Thereby, the number of gestures can be kept small, whereby a user can learn the operation quickly.
Es ist anzumerken, dass die Ausgangsposition für die Gestenerkennung im Wesentlichen ohne Belang ist, solange eine Geste eindeutig erkannt werden kann. Es ist also nicht nötig, eine Geste in räumlicher Nähe zu einem ersten Gerät oder dessen Display zu beginnen und in räumlicher Nähe zu einem zweiten Gerät oder dessen Display zu beenden, um eine Zuweisung des Informationselements zu dem zweiten Gerät zur Bearbeitung zu bewirken . It should be noted that the home position for gesture recognition is essentially irrelevant as long as a gesture can be clearly recognized. It is therefore not necessary to start a gesture in spatial proximity to a first device or its display and to close it in spatial proximity to a second device or its display in order to effect an assignment of the information element to the second device for processing.
Anstelle von mit einer Hand oder einem Arm auf einer berührungsempfindlichen Oberfläche oder in der Luft ausgeführter Gesten können auch Kopf ewegungen oder Bewegungen der Augen erfasst werden und zur Steuerung im Sinne des erfindungsgemäßen Verfahrens eingesetzt werden. Instead of using a hand or arm on a touch-sensitive surface or in the air Gestures also head ewegungen or movements of the eyes can be detected and used for control in the context of the method according to the invention.
Vorstehend wurde die Erfindung mit Bezug auf ein Kraftfahrzeug beschrieben. Es ist jedoch auch möglich, das erfindungsgemäße Verfahren auf andere Systeme anzuwenden, die unterschiedliche Informationselemente auf unterschiedliche Arten bearbeiten können und in denen Gesten eine eindeutige Zuweisung von Informationselementen zu Geräten oder Subsystemen erlauben. The invention has been described above with reference to a motor vehicle. However, it is also possible to apply the method according to the invention to other systems which can process different information elements in different ways and in which gestures allow a clear assignment of information elements to devices or subsystems.
Ein solches System ist beispielsweise ein vernetztes Compu¬ tersystem mit einem oder mehreren Computern oder Subsystemen und entsprechenden Displays. Die Computer müssen dabei nicht identisch sein . Vielmehr kann beispielsweise ein Tablet-Computer eine zentrale Einheit darstellen, die Informationselemente oder Hinweise darauf empfängt, jedoch in ihrer Möglichkeit bestimmte Informationselemente zu bearbeiten beschränkt ist. Auf einem berührungsempfindlichen Display des Tablet-Computers ausge¬ führte oder über eine im Tablet-Computer eingebaute Kamera erfasste Gesten bewirken die Zuweisung der Informationselemente zu einem anderen, geeigneten Computer zur weiteren Bearbeitung. Dabei ist es auch denkbar, dass eine eine an sich identische Geste durch eine sich ändernde Orientierung des Tablet-Computers in einem Raum eine Zuweisung an andere Geräte, Computer oder Sub-Systeme bewirkt. Such a system is for example a crosslinked Compu ¬ tersystem with one or more computers or subsystems and corresponding displays. The computers do not have to be identical. Rather, for example, a tablet computer represent a central unit that receives information elements or references to it, but limited in their ability to process certain information elements. On a touch screen of the tablet computer being led ¬ detected or via a built-in camera tablet computer gestures cause allocation of the information elements to another suitable computer for further processing. It is also conceivable that a gesture which is identical in itself causes an allocation to other devices, computers or subsystems through a changing orientation of the tablet computer in a room.
In einem anderen für das erfindungsgemäße Verfahren geeigneten System ist ein Computer für die Ausführung von Bearbeitungsschritten vorgesehen und mit mehreren Displays verbunden. Der Computer ist ferner mit mindestens einer Einrichtung zur Erkennung von durch einen Benutzer ausgeführten Gesten verbunden. Der Computer stellt dabei die Funktion einer Steuereinheit bereit, welche eine erkannte Geste auf ein Informationselement bezieht und in Abhängigkeit von der Geste und dem Informati¬ onselement die Ausführung eines oder mehrerer das Informati- onselement betreffender Bearbeitungsschritte durch ein ent¬ sprechendes auf dem Computer laufenden Programm auslöst. In another system suitable for the method according to the invention, a computer for the execution of processing steps is provided and connected to a plurality of displays. The computer is further connected to at least one means for recognizing gestures carried out by a user. The computer provides the function of a control unit provided, which applies a detected gesture on an information element and as a function of the gesture and the Informati ¬ onselement the execution of one or more of information, the on processing relevant processing steps triggers by an ent ¬ speaking program running on the computer.

Claims

Patentansprüche claims
1. Verfahren zum Auslösen mindestens eines auf ein Informationselement anzuwendenden, über eine Darstellung von mit dem Informationselement verbundener Information auf einem Display hinausgehenden Bearbeitungs Schrittes , in einem System mit mehreren Displays und mindestens einem mit den Displays verbundenen Computer, umfassend: A method for triggering at least one processing step to be applied to an information element, via a display of information associated with the information element on a display, in a system having a plurality of displays and at least one computer connected to the displays, comprising:
- Präsentieren eines ersten Informationselements oder eines das Vorhandensein eines ersten Informationselements repräsentierenden Hinweises;  Presenting a first information element or a hint representing the presence of a first information element;
- Detektieren einer einzigen von dem Benutzer in Bezug auf das präsentierte erste Informationselement oder den präsentierten Hinweis ausgeführten Geste;  - detecting a single gesture executed by the user with respect to the presented first information item or hint;
- in Abhängigkeit von der detektierten einzigen Geste, Ausführen eines oder mehrerer das erste Informationselement betreffende Bearbeitungsschritte, ohne dass weitere Be¬ nutzereingaben in Bezug auf das Informationselement oder den präsentierten Hinweis erfolgen. - in accordance with the detected single gesture, performing one or more first information element concerned processing steps without further Be ¬ user typed done in terms of the information element or the presented hint.
2. Verfahren nach Anspruch 1, wobei der Präsentation des ersten Informationselements oder des dieses repräsentierenden Hinweises das Empfangen von mit dem ersten Informations¬ element verbundenen Daten vorausgeht. 2. The method of claim 1, wherein the presentation of the first information element or the hint representing this precedes the reception of data associated with the first information ¬ element.
3. Verfahren nach Anspruch 1, wobei das Präsentieren auf einem ersten Display erfolgt. 3. The method of claim 1, wherein the presenting takes place on a first display.
4. Verfahren nach Anspruch 1, wobei die Geste einem Zuweisen des Informationselements zu einem zweiten Display ent¬ spricht . 4. The method of claim 1, wherein the gesture speaks ent ¬ a assigning the information item to a second display.
5. Verfahren nach Anspruch 1, wobei die Geste eine angedeutete Verschiebung eines das Informationselement oder den Hinweis darstellenden Objekts von einem ersten Display zu einem zweiten Display in räumlicher Richtung beschreibt. Verfahren nach Anspruch 1, wobei der mindestens eine Bearbeitungsschritt typabhängig mit dem Informations¬ element verknüpft ist. 5. The method of claim 1, wherein the gesture describes an indicated displacement of an information element or the hint representing object from a first display to a second display in the spatial direction. The method of claim 1, wherein the at least one processing step is type-dependent linked to the information ¬ element.
Verfahren nach Anspruch 1, wobei alternative auszuführende Bearbeitungsschritte für ein Informationselement mit unterschiedlichen Gesten verknüpft sind. The method of claim 1, wherein alternative processing steps to be performed for an information element are associated with different gestures.
Verfahren nach Anspruch 1, wobei die Geste sich nicht direkt auf ein das Informationselement oder den Hinweis dar¬ stellendes Objekt auf einem Display bezieht, und wobei die Gestenerkennung nur innerhalb eines ersten Zeitraums nach einer Signalisierung, dass ein neues Informationsob ekt bereitsteht, ausgeführt wird. The method of claim 1, wherein the gesture is not directly related to an information element or hint ¬ indicative object on a display, and wherein the gesture recognition only within a first period of time after signaling that a new Informationsob ekt is available executed.
Verfahren nach Anspruch 8, wobei der erste Zeitraum für bestimmte Arten oder Typen von Informationselementen voreingestellt oder vom Benutzer individuell einstellbar ist . The method of claim 8, wherein the first time period is preset for particular types or types of information items or individually adjustable by the user.
System mit mehreren Displays und mindestens einem mit den Displays verbundenen Computer, dadurch gekennzeichnet, dass das System mindestens eine Einrichtung zur Erkennung von einem Benutzer ausgeführter Gesten aufweist, wobei das System ferner eine Steuereinheit aufweist, welche dazu eingerichtet ist, eine erkannte Geste auf ein Informations¬ element zu beziehen und in Abhängigkeit von der Geste und dem Informationselement die Ausführung eines oder mehrerer das Informationselement betreffender Bearbeitungsschritte durch den mindestens einen Computer auszulösen. A system comprising a plurality of displays and at least one computer connected to the displays, characterized in that the system comprises at least one means for detecting gestures made by a user, the system further comprising a control unit adapted to apply a recognized gesture to an information ¬ element and depending on the gesture and the information element to trigger the execution of one or more information elements of the relevant processing steps by the at least one computer.
PCT/EP2016/068154 2015-08-24 2016-07-29 Method for triggering at least one processing step by assigning an information element to a device WO2017032549A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102015216108.0A DE102015216108A1 (en) 2015-08-24 2015-08-24 Method for triggering at least one processing step by assigning an information element to a device
DE102015216108.0 2015-08-24

Publications (1)

Publication Number Publication Date
WO2017032549A1 true WO2017032549A1 (en) 2017-03-02

Family

ID=56555394

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2016/068154 WO2017032549A1 (en) 2015-08-24 2016-07-29 Method for triggering at least one processing step by assigning an information element to a device

Country Status (2)

Country Link
DE (1) DE102015216108A1 (en)
WO (1) WO2017032549A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110709273A (en) * 2017-06-07 2020-01-17 奥迪股份公司 Method for operating a display device of a motor vehicle, operating device and motor vehicle

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108237919B (en) * 2018-01-10 2019-12-24 广州小鹏汽车科技有限公司 Auxiliary display method and system for automobile central control large screen
JP7056284B2 (en) * 2018-03-20 2022-04-19 トヨタ自動車株式会社 Vehicle display devices, screen control methods and programs
IT202200004004A1 (en) * 2022-03-03 2023-09-03 Automobili Lamborghini Spa MANAGEMENT METHOD AND VEHICLE

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2018992A1 (en) 2007-07-27 2009-01-28 Continental Automotive GmbH Motor vehicle cockpit
WO2014108153A1 (en) * 2013-01-08 2014-07-17 Audi Ag Method for synchronizing display devices in a motor vehicle
WO2014146925A1 (en) * 2013-03-22 2014-09-25 Volkswagen Aktiengesellschaft Information reproduction system for a vehicle and method for providing information for the user of a vehicle

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2936847B1 (en) * 2012-12-21 2019-11-20 Harman Becker Automotive Systems GmbH System for a vehicle and communication method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2018992A1 (en) 2007-07-27 2009-01-28 Continental Automotive GmbH Motor vehicle cockpit
WO2014108153A1 (en) * 2013-01-08 2014-07-17 Audi Ag Method for synchronizing display devices in a motor vehicle
WO2014146925A1 (en) * 2013-03-22 2014-09-25 Volkswagen Aktiengesellschaft Information reproduction system for a vehicle and method for providing information for the user of a vehicle

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CARJAM TV: "BMW 7 Series 2016 Hand Gesture Controls Are Cool Commercial HD CARJAM BMW 7er G11 G12 INTERIOR", 28 April 2015 (2015-04-28), pages 1 - 2, XP054976796, Retrieved from the Internet <URL:https://www.youtube.com/watch?v=U4YJTl3k0jA> [retrieved on 20160923] *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110709273A (en) * 2017-06-07 2020-01-17 奥迪股份公司 Method for operating a display device of a motor vehicle, operating device and motor vehicle
CN110709273B (en) * 2017-06-07 2023-03-28 奥迪股份公司 Method for operating a display device of a motor vehicle, operating device and motor vehicle

Also Published As

Publication number Publication date
DE102015216108A1 (en) 2017-03-02

Similar Documents

Publication Publication Date Title
EP3373123B1 (en) Method and device for representing a list of suggested a control actions from a proposal system and interaction with the proposal system
EP1853465B1 (en) Method and device for voice controlling a device or system in a motor vehicle
EP2930049B1 (en) User interface and method for adapting a view on a display unit
EP3092143B1 (en) Display operator control unit and method for displaying additional instructions on a display unit
DE112014000351T5 (en) Context-based vehicle user interface reconfiguration
WO2017032549A1 (en) Method for triggering at least one processing step by assigning an information element to a device
EP3067244B1 (en) Motor vehicle with automatic situation adaptive drive mode
DE102014013960A1 (en) Method for operating at least one driver assistance device of a motor vehicle and system having a driver assistance device
WO2007090593A1 (en) Device and method for interactive information dispensing and/or assistance for the user of a motor vehicle
DE102019217730A1 (en) Method for operating an operating system in a vehicle and operating system for a vehicle
WO2013104389A1 (en) Method and device for operating functions in a vehicle using gestures performed in three-dimensional space, and related computer program product
WO2015062634A1 (en) Device and method for adapting the content of a status bar
EP2941685B1 (en) Operating method and operating system in a vehicle
EP2924551B1 (en) Method and device for providing a graphical user interface in a vehicle
DE102014008204A1 (en) Motor vehicle with media reproduction
EP2925552B1 (en) Operating method and operating system in a road vehicle
WO2017140569A1 (en) Motor vehicle operator control apparatus and method for operating an operator control apparatus in order to cause an interaction between a virtual presentation plane and a hand
DE102014218506A1 (en) Vehicle with freely positionable haptic controls
DE102013016196B4 (en) Motor vehicle operation using combined input modalities
DE102012005886B4 (en) Method for operating an operating device of a motor vehicle
EP3108333B1 (en) User interface and method for assisting a user in the operation of a user interface
DE102014209983A1 (en) Method for coupling an operating device with a mobile unit, operating device and mobile unit
DE102013014877A1 (en) Motor vehicle operating device with self-explanatory gesture recognition
EP3093182B1 (en) Means of locomotion, working machine, user interface and method for displaying the content of a first display device on a second display device
EP3976411B1 (en) Method for graphically configuring a display instrument in a motor vehicle and motor vehicle for carrying out said method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16745108

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16745108

Country of ref document: EP

Kind code of ref document: A1