WO2016192826A2 - Anzeigevorrichtung, fahrzeug und verfahren zum manuellen eingeben von informationen - Google Patents

Anzeigevorrichtung, fahrzeug und verfahren zum manuellen eingeben von informationen Download PDF

Info

Publication number
WO2016192826A2
WO2016192826A2 PCT/EP2016/000587 EP2016000587W WO2016192826A2 WO 2016192826 A2 WO2016192826 A2 WO 2016192826A2 EP 2016000587 W EP2016000587 W EP 2016000587W WO 2016192826 A2 WO2016192826 A2 WO 2016192826A2
Authority
WO
WIPO (PCT)
Prior art keywords
display unit
display device
touch
visual display
sensitive
Prior art date
Application number
PCT/EP2016/000587
Other languages
English (en)
French (fr)
Other versions
WO2016192826A3 (de
Inventor
Peter DUBIK
Peter Frank
Gerhard Scheible
Johannes Weiland
Original Assignee
Daimler Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler Ag filed Critical Daimler Ag
Publication of WO2016192826A2 publication Critical patent/WO2016192826A2/de
Publication of WO2016192826A3 publication Critical patent/WO2016192826A3/de

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/25Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using haptic output
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/11Instrument graphical user interfaces or menu aspects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/11Instrument graphical user interfaces or menu aspects
    • B60K2360/115Selection of menu items
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/77Instrument locations other than the dashboard
    • B60K2360/774Instrument locations other than the dashboard on or in the centre console

Definitions

  • the invention relates to a display device for displaying and manually inputting information.
  • the display device comprises a touch-sensitive first visual display unit having at least one input area for swipe gestures, a guide for a user's finger, a first swipe area recognizer for recognizing the at least one input area in which the swipe gesture is executed, and an output device for generating output information Dependence of the recognized input area on.
  • OLED organic light-emitting diode
  • TFT thin-film transistor
  • LCD liquid-crystal display
  • Display unit is a touchpad with a purely passive display (for example with labeled operating fields).
  • the touch-sensitive visual display unit is considered to be the first display unit, irrespective of whether the single touch-sensitive visual display unit is a display unit. which is portable or in the
  • Vehicle is firmly installed, and whether it is the only touch-sensitive visual display unit to a central display, a display that is behind the steering wheel, or any other arranged display, such as a front passenger display or a decorative display.
  • the invention relates to a vehicle with such a display device.
  • the invention relates to a method for manually inputting
  • the method includes the following.
  • a swipe gesture is performed with a user's finger on a touch-sensitive first visual display unit along a guide for the user's finger.
  • an input area of the touch-sensitive first visual display unit is recognized, in which the swipe gesture is executed.
  • output information is generated as a function of the recognized input area.
  • a control and display system for a vehicle which has a visual display unit and an operating unit which is arranged separately from the visual display unit (for example on a steering wheel of the vehicle).
  • a menu structure displayed on the visual display unit includes a main menu at an upper edge of the visual display unit and a submenu at a left edge of the visual display unit.
  • touch-sensitive display units with additional rotary push button are known. Functions that can be triggered by touch are displayed here as buttons that a user can actuate by touching with his or her finger. In today's touch-sensitive display units (touch screens) are the possibilities for creating a haptic
  • Feedback is usually limited to an output of vibration signals.
  • the user can not reliably perceive vibration signals.
  • DE 10 2013 105 507 A1 describes an input unit for a vehicle, which is designed as a horizontal wiping field for blind operation.
  • an input unit for a vehicle which is designed as a horizontal wiping field for blind operation.
  • to guide a finger of the user is a physical barrier in one piece
  • the known input unit has the disadvantage that the Barrier covers a portion of the total available display area, which is then used for ads (for example, for a full screen display on the entire visual
  • Display area can be used for ads.
  • Patent claim 1 a vehicle according to claim 9 and solved by a method having the features of claim 10.
  • Advantageous embodiments with expedient and non-trivial developments of the invention are specified in the remaining claims.
  • a display device for displaying and manually inputting information comprises a touch-sensitive first visual display unit having at least one swipe gesture input area, a user finger guide, a first swipe area recognizer for recognizing the at least one input area where the swipe gesture is performed, and a
  • Output device for generating an output information depending on the detected input range.
  • the guide is an edge of an outer edge of the touch-sensitive first visual display unit.
  • the edge can, but does not have to, wrap around the entire first visual display unit.
  • the edge may be an edge of a frame of the first visual display unit. This is not mandatory.
  • smartphones whose display extends over a rounded front edge of the smartphone.
  • the display device according to the invention a tablet computer which has a touch-sensitive display with one or more rounded leading edges.
  • a rounded leading edge can be used as a guide for the user's finger.
  • the rounded leading edge or rounded front edges of the display may have one or more protrusions, depressions, and / or roughenings.
  • An inventive vehicle has a display device according to the invention.
  • the method for manually entering information comprises the following.
  • a swipe gesture is performed with a user's finger on a touch-sensitive first visual display unit along a guide for the user's finger.
  • a second step an input area of the touch-sensitive first visual display unit is detected, in which the
  • Swipe gesture is performed.
  • output information is generated as a function of the recognized input area.
  • the guide for the user's finger is an edge of an outer edge of the touch-sensitive first visual display unit.
  • the guide is an edge of an outer edge of the touch-sensitive first visual display unit.
  • a portion of the display device is used to guide the finger of the user, which is typically present anyway, and it can be used the total available display area for ads.
  • a displaceable rail or a further edge or rail can be used for swiping gestures.
  • the first wiping area recognizer is prepared to recognize at which portion of one of the edges of the outer edge a wiping gesture is or has been performed.
  • individual sections of one of the edges of the outer edge can each be assigned a specific function, preferably a function of a main or sub-menu item.
  • the display device has a main menu generator for generating a main menu with main menu items, which by means of Swipe gestures are selectable.
  • the user can be offered input areas for selecting a main menu item from a set of several main menu items.
  • first markings are arranged on the outer edge, which can be perceived haptically with the finger, and their arrangement with
  • Display locations of the main menu items correspond locally. This allows the user to find at least one main menu item without looking (so blind) purely haptic. In principle, it is also conceivable that the shape of at least one individual
  • Marking is changeable by means of an actuator.
  • a marker can be sunk slightly into or out of the edge by means of the actuator when the associated main menu item is activated (and vice versa when it is deactivated).
  • the display device is a submenu generator for
  • a further development provides that on the outer edge second markers are arranged, which are haptic perceptible with the finger, and their arrangement with display locations of the submenu items locally corresponds. This allows the user to find at least one submenu item without looking (ie blind) purely haptic. In principle, it is also conceivable that the shape of at least one individual
  • Marking is changeable by means of an actuator.
  • a marker by means of the actuator can be slightly sunk into the edge or pushed out of it, if the associated submenu item is activated (and vice versa if it is deactivated).
  • the display device has a second visual display unit.
  • the same contents as on the first display unit can be displayed at a further location in the vehicle or outside the vehicle (for example, for a passenger or a warehouse worker).
  • a second display unit may also be provided to display other information at the same time than on the first
  • the touch-sensitive visual display unit is considered to be the first display unit, regardless of whether the single touch-sensitive visual display unit is a display unit that is portable or portable
  • Vehicle is firmly installed, and whether it is the only touch-sensitive visual display unit to a central display or a display, which is located behind the steering wheel. Independently of this, besides the first and second visual display units, further similar visual display units may be provided
  • Fig. 1 shows schematically a perspective view of a driver's cab for a commercial vehicle workplace
  • Fig. 2 shows a schematic block diagram of a vehicle with two visual
  • FIG. 3 schematically shows a first embodiment of a visual display unit for displaying and manually inputting information
  • Fig. 4 shows schematically a second embodiment of a visual
  • Display unit for displaying and manually entering
  • 5 schematically shows a further configuration of input possibilities of a visual display unit
  • Fig. 6 is a schematic flow diagram of a process for manual
  • the driver's cab FS shown in FIG. 1 for a commercial vehicle workstation has a steering wheel LR and a display device AV with a first AE1 and a second AE2 visual display unit.
  • the first visual display unit AE1 is
  • the second visual display unit AE2 is arranged in a dashboard AB behind the steering wheel LR. With the second visual display unit AE2, the same contents as on the first visual display unit AE1 can be displayed at a further location in or outside the vehicle FZ. Alternatively or additionally, a second visual display unit AE2 may also be provided for this purpose, others at the same time
  • the second visual display unit AE2 is arranged in a holder H, from which they are taken out for use and outside the vehicle FZ (for example, for loading and unloading, to operate an on-board crane or in an office or accommodation as a universal tablet computer) can be used.
  • an operating unit BE is arranged in the steering wheel.
  • the vehicle FZ shown schematically in FIG. 2 has an infotainment system IS and a display device AV, which is connected to the infotainment system IS.
  • the display device AV has a first visual display unit AE1, a
  • Main menu generator HE Main menu generator HE, a submenu generator UE, a first
  • the first visual display unit AE1 is connected to the main menu generator HE, the submenu generator UE, and the first wipe area recognizer WE1.
  • Output device AD is connected to the first wiping area recognizer WE1.
  • the infotainment system IS is prepared to provide VH for the main menu generator EH with main menu items PH to be displayed (see FIGS. 3 and 4).
  • the infotainment system IS is prepared to for the sub-menu producer, to provide EU presets VU about sub-menu items PU to be displayed (see FIGS. 3 and 4).
  • the first visual display unit AE1 is prepared to detect swipe gestures WG executed with one or more fingers of a user.
  • Wisch Schemeserkenner WE1 is prepared to evaluate detection information El, resulting from the swipe gestures WG, and to determine by means of the evaluation, in which input area BL, BO, BR, BU to be recognized and evaluated swipe gesture WG or took place, and this swipe gesture information WGI to output the output device AD.
  • recognition and output can also take place in which direction and / or at which speed and / or with which contact pressure a wiping gesture WG is executed or executed.
  • a selection of a main menu item PH or submenu item PU takes place with a swipe gesture WG which is executed or was started to the right starting from the main menu item PH or submenu item PU (whereby, for example, a function of the
  • Infotainmentsystems IS or any other function of the vehicle FZ is turned on or activated) and that switching off or deactivating the function of
  • Swipe gesture WG takes place, which is carried out from the main menu item PH or submenu item PU to the left or was.
  • a preferred embodiment provides that for the input of swipe gestures WG between a top BO and a left BL input range is distinguished.
  • the upper input area BO may be provided for a main menu MH (see FIGS. 3 and 4) and the left input area BL for a submenu MU (see FIGS. 3 and 4).
  • a lower input area BU is provided for a first further main or submenu (not shown in the figures).
  • a right input area BR for a in the
  • second additional main menu or submenu can be provided.
  • the lower BU and / or the right BR input area is provided for inputting quasi-analog inputs.
  • Input area BU is intended (by scrolling or scrolling) to select a radio station from a frequency, channel or program scale or to select a song title from a title list. Accordingly, for example be provided that a swipe gesture WG is used in the right input area BR to increase or decrease a volume or a display brightness.
  • the display device AV has a second visual display unit AE2 and a second wipe area recognizer WE2 (the dashed lines of the lines indicate the optionality). If the second visual display unit AE2 is present at all, it is at the main menu producer HE, at the submenu generator UE and a second one
  • the output device AD which is then also connected to the second wiping area recognizer WE2, can also be provided to prioritize a first swipe gesture information WGI from the first visual display unit AE1 relative to a second swipe gesture information WGI2 from the second visual display unit AE2 (in particular if the two swipe gesture information WGI, WGI2 are contradictory).
  • At least one haptically detectable mark Mi is arranged on an outer edge R of the visual display unit AE1, AE2 shown in FIG.
  • the haptic perceptible mark Mi may, for example, a bulge or a
  • Be indentation or include.
  • a further development provides that at least two of the haptically detectable markings have a different shape whose difference (for example with regard to expansion in the surface and / or grandeur and / or roughness of a surface of the haptic perceptible
  • the Mark Mi is palpable.
  • the bulges on the outer edge R of the visual display unit AE1, AE2 can alternate with indentations so that a user better differentiates and lightens the haptic markings Mi (when sliding his finger along or along the outer edge R of the visual display unit AE1, AE2) can count blindly.
  • the reference symbols KL, KO denote inner edges of the outer edge R.
  • the figure shows main menu items PH,
  • Submenu items PU and associated input areas BL, BO, BU, BR for swipe gestures WG are prepared to recognize at which portion Ai of one of the edges KL, K0, KR, KU of the outer edge R a wiping gesture WG is or has been performed.
  • individual sections Ai of one of the edges KL, KO, KR, KU of the outer edge R can each be assigned a specific function, preferably a function of a main or sub-menu item PH, PU.
  • the middle touchpad TF (playfield) is provided for a per se known mouse pointer control by means of inputs such as typing, multiple tapping, dragging and releasing, wiping with one or more fingers.
  • the center touch panel TF may be used to concurrently set azimuth and elevation of a side view mirror or to select a location on a map displayed on the visual display unit AE1, AE2 or a map displayed on the visual display unit AE1, AE2 to move horizontally and / or vertically.
  • the haptically detectable markings Mi are elevations (and / or
  • selection buttons also corners ELO, ELL), ERL
  • the operating field BFOL in the upper left corner ELO serves here for a back function
  • the operating field BFUL in the lower left corner ELU serves as a list scroll function for respective subsystems.
  • the operating field BFUR in the lower right corner ERU can be used to call up a display of additional or detailed information (not shown in the figures).
  • FIG. 5 shows that, alternatively or additionally, a second menu column MS2 can be provided for a further sub-menu MU3.
  • the second menu column MS2 contains titles of selectable music albums (generally indicated by "info " in Fig. 4.)
  • a music track MT to be played is selectable in another column to the right of the second column MS2 is located in a touchpad TF
  • the second menu column MS2 need not be as wide as in the figure, leaving more room for a display of information to be displayed in the middle touch panel TF.
  • a logical vertical or horizontal division of the display area of the first AE1 and / or the second AE2 is visual
  • Display unit imaginable.
  • a first submenu MU is then selectable, for example, with a left part of the set of main menu items PH, which is displayed on the left edge of the display unit AE1, AE2, and with a right part of the set of main menu items PH a second submenu MU2 selectable , which is displayed on the right edge of the display unit AE1, AE2.
  • a such division of the display unit AE1, AE2 and their input options has the advantage that a user can remember an arrangement of the menu items PH, PU especially well if he knows, for example, that the driver facing part of the display unit AE1, AE2 and their input options (especially the driver-facing submenu) rather automotive functions (such as
  • the sequence of a method 100 for manually entering information shown in FIG. 6 comprises the following method steps.
  • a swipe gesture WG is performed with a user's finger on a touch-sensitive first AE1 or touch-sensitive second AE2 visual display unit along a guide G for the user's finger.
  • a second step 120 an input area BL, BO, BR, BU of the touch-sensitive first AE1 or touch-sensitive second AE2 visual display unit AE1 is detected, in which the swipe gesture WG is executed.
  • a swipe gesture WG is executed.
  • the guide G for the user's finger is an edge KL, KO, KR, KU of an outer edge R of the touch-sensitive first AE1 or second AE2 visual display unit. Respective corners, i. Intersections of each of the edges may have additional informational content.
  • An embodiment of the invention provides that the first AE1 visual
  • Display unit is sensitive to touch (this also applies to the second visual display unit AE2).
  • Manual inputs can be made by means of an operating unit BE, which is located, for example, in the steering wheel, or the touch-sensitive first visual display unit AE1.
  • Haptic perceptible marks Mi are arranged on an upper edge KO of the first visual display unit AE1, at which a main menu MH is displayed. Alternatively or additionally, haptic
  • Display unit AE1 be arranged at a submenu MU is displayed.
  • the wiping areas BO, BL at the upper KO and left KL edge of the first visual display unit AE1 of wiping areas BU, BR of the lower KU and the right KR edge of the first visual display unit AE1 are functionally decoupled.
  • wiping gestures WG along the upper edge KO or functionally decoupled along the left edge KL are gestures G within the middle touch panel TF of the first visual display unit AE1.
  • the two-dimensional operating concept with side-by-side main menu items PH and sub-menu items PU promotes intuitive user navigation via many input fields.
  • a user of the display device AV is made easier to keep track of where in a menu structure, a display device AV is currently operational.
  • the user can already see in advance which menu level is reached by an input process WG. This minimizes the need for a look to the display AV and contributes to improved traffic safety.
  • continuous redundant operability is prepared to switch at any time between a direct operation of the first display device AV by touching (touch) of the first display unit AE1 and indirect operation by means of a control unit BE (for example, a touchpad) of the first display device AE1.
  • a control unit BE for example, a touchpad

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Eine Anzeigevorrichtung (AV) zum Anzeigen und manuellen Eingeben von Informationen weist eine berührungsempfindliche erste visuelle Anzeigeeinheit (AE1) mit mindestens einem Eingabebereich (BL, BO, BR, BU) für Wischgesten (WG), eine Führung (G) für einen Finger eines Nutzers, einen ersten Wischbereichserkenner (WE1) zum Erkennen (120) des mindestens einen Eingabebereichs (BL, BO, BR, BU), in dem die Wischgeste (WG) ausgeführt wird oder wurde, und eine Ausgabevorrichtung (AD) zum Erzeugen (130) einer Ausgabeinformation (AI) in Abhängigkeit des erkannten Eingabebereichs (BL, BO, BR, BU) auf. Die Führung (G) ist eine Kante (KL, KO, KR, KU) eines äußeren Randes (R) der berührungsempfindlichen ersten visuellen Anzeigeeinheit (AE1). Außerdem betrifft die Erfindung ein Fahrzeug (FZ), das eine erfindungsgemäße Anzeigevorrichtung (AV) aufweist, und ein entsprechendes Verfahren (100) zum manuellen Eingeben von Informationen.

Description

ANZEIGEVORRICHTUNG, FAHRZEUG UND VERFAHREN ZUM
MANUELLEN EINGEBEN VON INFORMATIONEN
Die Erfindung betrifft eine Anzeigevorrichtung zum Anzeigen und manuellen Eingeben von Informationen. Die Anzeigevorrichtung weist eine berührungsempfindliche erste visuelle Anzeigeeinheit mit mindestens einem Eingabebereich für Wischgesten, eine Führung für einen Finger eines Nutzers, einen ersten Wischbereichserkenner zum Erkennen des mindestens einen Eingabebereichs, in dem die Wischgeste ausgeführt wird oder wurde, und eine Ausgabevorrichtung zum Erzeugen einer Ausgabeinformation in Abhängigkeit des erkannten Eingabebereichs auf. Die berührungsempfindliche erste visuelle Anzeigeeinheit weist typischerweise eine aktive Anzeige auf, die beispielsweise auf einer OLED-, TFT- und/oder LCD-Technologie beruht (OLED = organic light-emitting diode, TFT = thin-film transistor, LCD = liquid-crystal display). Jedoch ist es grundsätzlich auch möglich, die vorliegende Erfindung zu verwirklichen, wenn die visuelle
Anzeigeeinheit ein Touchpad mit einer rein passiven Anzeige ist (beispielsweise mit beschrifteten Betätigungsfeldern). Falls mehr als eine visuelle Anzeigeeinheit vorhanden ist, aber nur eine davon berührungsempfindlich ist, wird im Rahmen dieser Erfindung die berührungsempfindliche visuelle Anzeigeeinheit als die erste Anzeigeeinheit angesehen, und zwar unabhängig davon, ob es sich bei der einzigen berührungsempfindlichen visuellen Anzeigeeinheit um eine Anzeigeeinheit handelt, die portabel ist oder im
Fahrzeug fest eingebaut ist, und ob es sich bei der einzigen berührungsempfindlichen visuellen Anzeigeeinheit um ein Zentraldisplay, um ein Display, das sich hinter dem Lenkrad befindet, oder um ein anderweitig angeordnetes Display, wie zum Beispiel ein Beifahrerdisplay oder ein Zierleistendisplay, handelt.
Außerdem betrifft die Erfindung ein Fahrzeug mit einer solchen Anzeigevorrichtung.
Des Weiteren betrifft die Erfindung ein Verfahren zum manuellen Eingeben von
Informationen. Das Verfahren umfasst Folgendes. In einem ersten Schritt wird eine Wischgeste mit einem Finger eines Nutzers auf einer berührungsempfindlichen ersten visuellen Anzeigeeinheit entlang einer Führung für den Finger des Nutzers ausgeführt. In einem zweiten Schritt wird ein Eingabebereich der berührungsempfindlichen ersten visuellen Anzeigeeinheit erkannt, in dem die Wischgeste ausgeführt wird. In einem dritten Schritt wird eine Ausgabeinformation in Abhängigkeit des erkannten Eingabebereichs erzeugt.
Aus der DE 10 2006 060 520 A1 ist ein Steuerungs- und Anzeigesystem für ein Fahrzeug bekannt, das eine visuelle Anzeigeeinheit sowie eine Bedieneinheit aufweist, die von der visuellen Anzeigeeinheit getrennt angeordnet ist (beispielsweise auf einem Steuerrad des Fahrzeugs). Eine Menüstruktur, die auf der visuellen Anzeigeeinheit angezeigt wird, umfasst ein Hauptmenü an einer oberen Kante der visuellen Anzeigeeinheit und ein Untermenü an einer linken Kante der visuellen Anzeigeeinheit. Mittels der Bedieneinheit können über das Hauptmenü und das Untermenü Eingaben erfolgen.
Im automotiven Umfeld sind berührungsempfindliche Anzeigeeinheiten (Touchscreens) mit ergänzendem Dreh-Drücksteller bekannt. Mittels Berührung auslösbare Funktionen werden hierbei als Schaltflächen (Buttons) angezeigt, die ein Nutzer durch Berühren mit seinem Finger betätigen kann. Bei heutigen berührungsempfindlichen Anzeigeeinheiten (Touchscreens) sind die Möglichkeiten für eine Erzeugung einer haptischen
Rückmeldung in der Regel auf eine Ausgabe von Vibrationssignalen beschränkt. Im automotiven Umfeld, insbesondere im Fahrbetrieb von Nutzfahrzeugen, kann der Nutzer Vibrationssignale nicht zuverlässig wahrnehmen.
In heutigen Nutzfahrzeugen der Produktlinie ACTROS® ist ein Bedienkonzept verwirklicht, das mit 'Stacks & cards' bezeichnet wird und dem Fahrer eine Blindbedienung ermöglicht. Bei einer vorbildgetreuen Übertragung dieses Bedienkonzeptes auf einen Touchscreen würde die bisherige Blindbedienbarkeit verlorengehen. Jedoch wird gewünscht, dass schnelle Wechsel zwischen Anwendungen (für Fahrzeug, Navigation, Infotainment) möglich sein sollen, ohne dass der Nutzer den Blick von der Straße abwenden muss, um auf einen der Menüpunkte zu zielen, die auf der berührungsempfindlichen Anzeigeeinheit (Touchscreen) zur Auswahl angeboten werden.
Die DE 10 2013 105 507 A1 beschreibt eine Eingabeeinheit für ein Fahrzeug, die als horizontales Wischfeld für Blindbedienung ausgestaltet ist. Unter anderem wird zur Führung eines Fingers des Nutzers eine physikalische Barriere aus einem Stück
Kunststoff vorgeschlagen, die die Eingabeeinheit in Segmente unterteilt. Durch die Unterteilung werden unterschiedliche Wischfelder gebildet, denen unterschiedliche Funktionen zugeordnet sind. Die bekannte Eingabeeinheit hat den Nachteil, dass die Barriere einen Teil der insgesamt verfügbaren Anzeigefläche abdeckt, der dann für Anzeigen (beispielsweise für eine Vollbildanzeige auf der gesamten visuellen
Anzeigeeinheit) nicht mehr zur Verfügung steht.
Es ist eine Aufgabe der vorliegenden Erfindung, eine Anzeigevorrichtung zum manuellen Eingeben von Informationen bereitzustellen, mit dem ein schneller Wechsel zwischen Anwendungen möglich ist, ohne dass der Nutzer den Blick von der Straße abwenden muss, um auf einen der Menüpunkte zu zielen, die auf der berührungsempfindlichen Anzeigeeinheit zur Auswahl angezeigt werden, wobei die insgesamt verfügbare
Anzeigefläche für Anzeigen genutzt werden kann.
Diese Aufgabe wird durch eine Anzeigevorrichtung mit den Merkmalen des
Patentanspruchs 1 , ein Fahrzeug nach Patentanspruch 9 sowie durch ein Verfahren mit den Merkmalen des Patentanspruchs 10 gelöst. Vorteilhafte Ausgestaltungen mit zweckmäßigen und nicht-trivialen Weiterbildungen der Erfindung sind in den übrigen Ansprüchen angegeben.
Eine erfindungsgemäße Anzeigevorrichtung zum Anzeigen und manuellen Eingeben von Informationen weist eine berührungsempfindliche erste visuelle Anzeigeeinheit mit mindestens einem Eingabebereich für Wischgesten, eine Führung für einen Finger eines Nutzers, einen ersten Wischbereichserkenner zum Erkennen des mindestens einen Eingabebereichs, in dem die Wischgeste ausgeführt wird oder wurde, und eine
Ausgabevorrichtung zum Erzeugen einer Ausgabeinformation in Abhängigkeit des erkannten Eingabebereichs auf. Die Führung ist eine Kante eines äußeren Randes der berührungsempfindlichen ersten visuellen Anzeigeeinheit.
Die Kante kann, aber muss nicht um die gesamte erste visuelle Anzeigeeinheit umlaufen. Die Kante kann eine Kante eines Rahmens der ersten visuellen Anzeigeeinheit sein. Dies ist aber nicht zwingend. Es gibt Smartphones, deren Display sich über eine abgerundete Vorderkante des Smartphones erstreckt. So ist es beispielsweise auch vorstellbar, für die erfindungsgemäße Anzeigevorrichtung einen Tablett-Computer vorzusehen, der ein berührungsempfindliches Display mit einer oder mehreren abgerundeten Vorderkanten aufweist. In diesem Fall kann eine abgerundete Vorderkante als Führung für den Finger des Nutzers genutzt werden. Zum Auffinden von Menüpunkten ohne Hinsehen kann die abgerundete Vorderkante oder können die abgerundeten Vorderkanten des Displays eine oder mehrere Erhebungen, Vertiefungen und/oder Aufrauungen aufweisen. Ein erfindungsgemäßes Fahrzeug weist eine erfindungsgemäße Anzeigevorrichtung auf.
Das erfindungsgemäße Verfahren zum manuellen Eingeben von Informationen umfasst Folgendes. In einem ersten Schritt wird eine Wischgeste mit einem Finger eines Nutzers auf einer berührungsempfindlichen ersten visuellen Anzeigeeinheit entlang einer Führung für den Finger des Nutzers ausgeführt. In einem zweiten Schritt wird ein Eingabebereich der berührungsempfindlichen ersten visuellen Anzeigeeinheit erkannt, in dem die
Wischgeste ausgeführt wird. In einem dritten Schritt wird eine Ausgabeinformation in Abhängigkeit des erkannten Eingabebereichs erzeugt. Die Führung für den Finger des Nutzers ist eine Kante eines äußeren Randes der berührungsempfindlichen ersten visuellen Anzeigeeinheit.
Ein Konzept der Erfindung kann darin gesehen werden, dass die Führung eine Kante eines äußeren Randes der berührungsempfindlichen ersten visuellen Anzeigeeinheit ist. Hierdurch wird zur Führung des Fingers des Nutzers ein Teil der Anzeigevorrichtung genutzt, das typischerweise ohnehin vorhanden ist, und es kann die insgesamt verfügbare Anzeigefläche für Anzeigen genutzt werden. Alternativ oder zusätzlich kann als Führung eine verschiebbare Schiene bzw. eine weitere Kante oder Schiene für Wischgesten verwendet werden.
In einer bevorzugten Ausführungsform ist der erste Wischbereichserkenner dazu vorbereitet, zu erkennen, an welchem Abschnitt einer der Kanten des äußeren Randes eine Wischgeste ausgeführt wird oder wurde. Hierdurch kann einzelnen Abschnitten einer der Kanten des äußeren Randes jeweils eine bestimmte Funktion, vorzugsweise eine Funktion eines Haupt- oder Untermenüpunkts zugeordnet werden.
Von Vorteil ist, wenn der erste Wischbereichserkenner dazu vorbereitet ist, zu
unterscheiden, ob eine Wischgeste entlang einer der Kanten des äußeren Randes durchgeführt wird oder wurde, oder ob die Wischgeste in einem mittleren Tastfeld der berührungsempfindlichen ersten visuellen Anzeigeeinheit durchgeführt wird oder wurde. Hierdurch werden Eingabebereiche, die von einem Nutzer ohne Hinsehen (also blind) benutzbar sind (weil sie rein haptisch auffindbar sind), von einem mittleren Tastfeld funktionell getrennt, das von einem Nutzer nicht ohne Hinsehen (also nicht blind) benutzbar ist (weil es nicht rein haptisch auffindbar ist).
Eine vorteilhafte Weiterbildung sieht vor, dass die Anzeigevorrichtung einen Hauptmenü- Erzeuger zum Erzeugen eines Hauptmenüs mit Hauptmenüpunkten aufweist, die mittels Wischgesten auswählbar sind. Hierdurch können dem Nutzer Eingabebereiche zum Auswählen eines Hauptmenüpunkts aus einer Menge von mehreren Hauptmenüpunkten angeboten werden.
Von besonderem Vorteil ist, wenn auf dem äußeren Rand erste Markierungen angeordnet sind, die mit dem Finger haptisch wahrnehmbar sind, und deren Anordnung mit
Anzeigeorten der Hauptmenüpunkte örtlich korrespondiert. Hierdurch kann der Nutzer mindestens einen Hauptmenüpunkt ohne Hinsehen (also blind) rein haptisch auffinden. Grundsätzlich ist auch vorstellbar, dass die Gestalt mindestens einer einzelnen
Markierung mittels eines Aktors veränderbar ist. Beispielsweise kann eine Markierung mittels des Aktors etwas in den Rand versenkt oder aus ihm herausgeschoben werden, wenn der zugehörige Hauptmenüpunkt aktiviert ist (und umgekehrt wenn er deaktiviert ist).
Bevorzugt ist auch, wenn die Anzeigevorrichtung einen Untermenü-Erzeuger zum
Erzeugen mindestens eines Untermenüs mit Untermenüpunkten aufweist, die mittels Wischgesten auswählbar sind. Hierdurch können dem Nutzer Eingabebereiche zum Auswählen eines Untermenüpunkts aus einer Menge von mehreren Untermenüpunkten angeboten werden.
Eine weitere Weiterbildung sieht vor, dass auf dem äußeren Rand zweite Markierungen angeordnet sind, die mit dem Finger haptisch wahrnehmbar sind, und deren Anordnung mit Anzeigeorten der Untermenüpunkte örtlich korrespondiert. Hierdurch kann der Nutzer mindestens einen Untermenüpunkt ohne Hinsehen (also blind) rein haptisch auffinden. Grundsätzlich ist auch vorstellbar, dass die Gestalt mindestens einer einzelnen
Markierung mittels eines Aktors veränderbar ist. Beispielsweise kann eine Markierung mittels des Aktors etwas in den Rand versenkt oder aus ihm herausgeschoben werden, wenn der zugehörige Untermenüpunkt aktiviert ist (und umgekehrt wenn er deaktiviert ist).
Je nach Anwendungsszenario ist es zweckmäßig, wenn die Anzeigevorrichtung eine zweite visuelle Anzeigeeinheit aufweist. Mit der zweiten Anzeigeeinheit können dieselben Inhalte wie auf der ersten Anzeigeinheit an einem weiteren Ort im Fahrzeug oder außerhalb des Fahrzeugs (beispielsweise für einen Beifahrer oder einen Lagerarbeiter) angezeigt werden. Alternativ oder zusätzlich kann eine zweite Anzeigeeinheit auch dazu vorgesehen sein, zeitgleich andere Informationen anzuzeigen als auf der ersten
Anzeigeeinheit. Falls mehr als eine visuelle Anzeigeeinheit vorhanden ist, aber nur eine davon berührungsempfindlich ist, wird im Rahmen dieser Erfindung die berührungsempfindliche visuelle Anzeigeeinheit als die erste Anzeigeeinheit angesehen, und zwar unabhängig davon, ob es sich bei der einzigen berührungsempfindlichen visuellen Anzeigeeinheit um eine Anzeigeeinheit handelt, die portabel ist oder im
Fahrzeug fest eingebaut ist, und ob es sich bei der einzigen berührungsempfindlichen visuellen Anzeigeeinheit um ein Zentraldisplay oder um ein Display handelt, das sich hinter dem Lenkrad befindet. Unabhängig davon können neben der ersten und der zweiten visuellen Anzeigeeinheit weitere gleichartige visuelle Anzeigeeinheiten
vorgesehen sein, die berührungsempfindlich oder nicht berührungsempfindlich sind.
Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung eines bevorzugten Ausführungsbeispiels sowie anhand der Zeichnung. Die vorstehend in der Beschreibung genannten Merkmale und
Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen
Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen.
Die Zeichnung zeigt in:
Fig. 1 schematisch eine perspektivische Ansicht eines Führerstandes für eines Nutzfahrzeugarbeitsplatzes;
Fig. 2 schematisches Blockschaltbild eines Fahrzeugs mit zwei visuellen
Anzeigeeinheiten zum Anzeigen und manuellen Eingeben von
Informationen;
Fig. 3 schematisch eine erste Ausführungsform einer visuellen Anzeigeeinheit zum Anzeigen und manuellen Eingeben von Informationen;
Fig. 4 schematisch eine zweite Ausführungsform einer visuellen
Anzeigeeinheit zum Anzeigen und manuellen Eingeben von
Informationen; Fig. 5 schematisch eine weitere Gestaltung von Eingabemöglichkeiten einer visuellen Anzeigeeinheit;
Fig. 6 ein schematisches Flussdiagramm eines Ablaufs zum manuellen
Eingeben von Informationen.
Der in Fig. 1 gezeigte Führerstand FS für einen Nutzfahrzeugarbeitsplatz weist ein Lenkrad LR und eine Anzeigevorrichtung AV mit einer ersten AE1 und einer zweiten AE2 visuellen Anzeigeeinheit auf. Die erste visuelle Anzeigeeinheit AE1 ist
berührungsempfindlich und in, auf oder an einem Armaturenbrett AB neben dem Lenkrad LR angeordnet. Die zweite visuelle Anzeigeeinheit AE2 ist in einem Armaturenbrett AB hinter dem Lenkrad LR angeordnet. Mit der zweiten visuellen Anzeigeeinheit AE2 können dieselben Inhalte wie auf der ersten visuellen Anzeigeinheit AE1 an einem weiteren Ort im oder außerhalb des Fahrzeugs FZ angezeigt werden. Alternativ oder zusätzlich kann eine zweite visuelle Anzeigeeinheit AE2 auch dazu vorgesehen sein, zeitgleich andere
Informationen anzuzeigen als auf der ersten visuellen Anzeigeeinheit AE1. Eine vorteilhafte Weiterbildung sieht vor, dass die zweite visuelle Anzeigeeinheit AE2 in einer Halterung H angeordnet ist, aus der sie zur Benutzung herausgenommen und auch außerhalb des Fahrzeugs FZ (beispielsweise für Be- und Entladearbeiten, zur Bedienung eines Bordkrans oder in einem Büro oder einer Unterkunft als Universal-Tablett- Computer) benutzt werden kann. Für eine wahlweise indirekte Bedienung der ersten AE1 und der zweiten AE2 Anzeigevorrichtung ist in dem Lenkrad eine Bedieneinheit BE angeordnet.
Das in Fig. 2 schematisch gezeigte Fahrzeug FZ weist ein Infotainmentsystem IS sowie eine Anzeigevorrichtung AV auf, die an dem Infotainmentsystem IS angeschlossen ist. Die Anzeigevorrichtung AV weist eine erste visuelle Anzeigeeinheit AE1 , einen
Hauptmenü-Erzeuger HE, einen Untermenü-Erzeuger UE, einen ersten
Wischbereichserkenner WE1 und eine Ausgabevorrichtung AD auf. Die erste visuelle Anzeigeeinheit AE1 ist an dem Hauptmenü-Erzeuger HE, an dem Untermenü-Erzeuger UE und dem ersten Wischbereichserkenner WE1 angeschlossen. Die
Ausgabevorrichtung AD ist an dem ersten Wischbereichserkenner WE1 angeschlossen.
Typischerweise ist das Infotainmentsystem IS dazu vorbereitet, für den Hauptmenü- Erzeuger EH Vorgaben VH über anzuzeigende Hauptmenüpunkte PH (siehe Fig. 3 und 4) bereitzustellen. Alternativ oder zusätzlich ist das Infotainmentsystem IS dazu vorbereitet, für den Untermenü-Erzeuger EU Vorgaben VU über anzuzeigende Untermenüpunkte PU (siehe Fig. 3 und 4) bereitzustellen.
Die erste visuelle Anzeigeeinheit AE1 ist dazu vorbereitet, Wischgesten WG zu erfassen, die mit einem oder mehreren Fingern eines Nutzers ausgeführt werden. Der erste
Wischbereichserkenner WE1 ist dazu vorbereitet, Erfassungsinformationen El, die aus den Wischgesten WG resultieren, auszuwerten und mittels des Auswertens zu ermitteln, in welchem Eingabebereich BL, BO, BR, BU die zu erkennende und auszuwertende Wischgeste WG erfolgt oder erfolgte, und diese Wischgesteninformation WGI an die Ausgabevorrichtung AD auszugeben. Zusätzlich kann in dem ersten Wischbereichserkenner WE1 auch eine Erkennung und Ausgabe stattfinden, in welcher Richtung und/oder mit welcher Geschwindigkeit und/oder mit welchem Anpressdruck eine Wischgeste WG ausgeführt wird oder ausgeführt wurde. Beispielsweise kann vorgesehen sein, dass eine Auswahl eines Hauptmenüpunktes PH oder Untermenüpunktes PU mit einer Wischgeste WG erfolgt, die von dem Hauptmenüpunkt PH oder Untermenüpunkt PU ausgehend nach rechts ausgeführt wird oder wurde (wodurch beispielsweise eine Funktion des
Infotainmentsystems IS oder eine sonstige Funktion des Fahrzeugs FZ eingeschaltet oder aktiviert wird) und dass ein Abschalten oder Deaktivieren der Funktion des
Infotainmentsystems IS oder der sonstigen Funktion des Fahrzeugs FZ mit einer
Wischgeste WG erfolgt, die von dem Hauptmenüpunkt PH oder Untermenüpunkt PU ausgehend nach links ausgeführt wird oder wurde.
Eine bevorzugte Ausführungsform sieht vor, dass für die Eingabe von Wischgesten WG zwischen einem oberen BO und einem linken BL Eingabebereich unterschieden wird. Beispielsweise kann der obere Eingabebereich BO für ein Hauptmenü MH (siehe Fig. 3 und 4) und der linke Eingabebereich BL für ein Untermenü MU (siehe Fig. 3 und 4) vorgesehen sein. Auch ist es vorstellbar, dass ein unterer Eingabebereich BU für ein (in den Figuren nicht dargestelltes) erstes weiteres Haupt- oder Untermenü vorgesehen ist. Alternativ oder zusätzlich kann auch ein rechter Eingabebereich BR für ein (in den
Figuren nicht dargestelltes) zweites weiteres Hauptmenü oder Untermenü vorgesehen sein. Ein weitere bevorzugte Möglichkeit besteht darin, dass der untere BU und/oder der rechte BR Eingabebereich zur Eingabe von quasianalogen Eingaben vorgesehen ist. Beispielsweise kann vorgesehen sein, dass eine Wischgeste WG im unteren
Eingabebereich BU dazu vorgesehen ist, (mittels Blätterns oder Weiterscrollens) einen Hörfunksender aus einer Frequenz-, Kanal- oder Programmskala auszuwählen oder einen Liedtitel aus einer Titelliste auszuwählen. Entsprechend kann beispielsweise vorgesehen sein, dass eine Wischgeste WG im rechten Eingabebereich BR dazu genutzt wird, eine Lautstärke oder eine Displayhelligkeit zu erhöhen oder zu verringern.
In einer optionalen Ergänzung der Anzeigevorrichtung AV weist die Anzeigevorrichtung AV eine zweite visuelle Anzeigeeinheit AE2 und einen zweiten Wischbereichserkenner WE2 auf (die Strichlierung der Linien weist auf die Optionalität hin). Sofern die zweite visuelle Anzeigeeinheit AE2 überhaupt vorhanden ist, ist sie an dem Hauptmenü- Erzeuger HE, an dem Untermenü-Erzeuger UE und einem zweiten
Wischbereichserkenner WE2 angeschlossen. Die Ausgabevorrichtung AD, die dann auch an dem zweiten Wischbereichserkenner WE2 angeschlossen ist, kann auch dazu vorgesehen sein, eine erste Wischgesteninformation WGI von der ersten visuellen Anzeigeeinheit AE1 gegenüber einer zweiten Wischgesteninformation WGI2 von der zweiten visuellen Anzeigeeinheit AE2 zu priorisieren (insbesondere wenn die beiden Wischgesteninformationen WGI, WGI2 widersprüchlich sind).
Auf einem äußeren Rand R der in Fig. 3 gezeigten visuellen Anzeigeeinheit AE1 , AE2 ist mindestens eine haptisch wahrnehmbare Markierung Mi angeordnet. Die haptisch wahrnehmbare Markierung Mi kann beispielsweise eine Ausbuchtung oder eine
Einbuchtung sein oder umfassen. Eine Weiterbildung sieht vor, dass mindestens zwei der haptisch wahrnehmbaren Markierungen eine unterschiedliche Gestalt aufweisen, deren Unterschiedlichkeit (beispielsweise hinsichtlich Ausdehnung in der Fläche und/oder Erhabenheit und/oder Rauhigkeit einer Oberfläche der haptisch wahrnehmbare
Markierung Mi) ertastbar ist. Beispielsweise können die Ausbuchtungen auf dem äußeren Rand R der visuellen Anzeigeeinheit AE1 , AE2 mit Einbuchtungen abwechseln, sodass ein Nutzer die haptischen Markierungen Mi (beim Entlangstreifen mit seinem Finger auf oder entlang des äußeren Randes R der visuellen Anzeigeeinheit AE1 , AE2) besser unterscheiden und leichter blind abzählen kann. Die Bezugszeichen KL, KO bezeichnen innere Kanten des äußeren Randes R. Die Figur zeigt Hauptmenüpunkte PH,
Untermenüpunkte PU und zugehörige Eingabebereiche BL, BO, BU, BR für Wischgesten WG. Typischerweise ist der erste Wischbereichserkenner WE1 dazu vorbereitet, zu erkennen, an welchem Abschnitt Ai einer der Kanten KL, KO, KR, KU des äußeren Randes R eine Wischgeste WG ausgeführt wird oder wurde. Hierdurch kann einzelnen Abschnitten Ai einer der Kanten KL, KO, KR, KU des äußeren Randes R jeweils eine bestimmte Funktion, vorzugsweise eine Funktion eines Haupt- oder Untermenüpunkts PH, PU zugeordnet werden. Das mittleres Tastfeld TF (playfield) ist für eine an sich bekannte Mauszeigersteuerung mittels Eingaben wie Tippen, Mehrfachtippen, Ziehen und Loslassen, Wischen mit einem oder mehreren Fingern, vorgesehen. Das mittlere Tastfeld TF kann beispielsweise dazu verwendet werden, gleichzeitig Azimut und Elevation eines Seitenrückspiegel einzustellen oder auf einer Karte, die auf der visuellen Anzeigeeinheit AE1 , AE2 angezeigt wird, einen Ort auszuwählen oder eine Karte, die auf der visuellen Anzeigeeinheit AE1 , AE2 angezeigt wird, in horizontaler und/oder in vertikaler Richtung zu verschieben.
Bei der in Fig. 4 gezeigten zweiten Ausführungsform einer visuellen Anzeigeeinheit AE1 , AE2 sind die haptisch wahrnehmbaren Markierungen Mi Erhebungen (und/oder
Einbuchtungen), die bis an eine innere Kante KL, KO des äußeren Randes R der visuellen Anzeigeeinheit AE1 , AE2 heranreichen. Das in der Figur dargestellte Beispiel zeigt, dass zum blinden Auffinden eines Betätigungsfelds BFOL, BFUL, BFUR
(Auswahlbuttons) auch Ecken ELO, ELL), ERL) des äußeren Randes R als haptisch wahrnehmbare Markierung Mi genutzt werden können. Das Betätigungsfeld BFOL in der linken oberen Ecke ELO dient hier einer Zurückfunktion, und das Betätigungsfeld BFUL in der linken unteren Ecke ELU als Listen-Scrollfunktion jeweilige Sub-Systeme. Das Betätigungsfeld BFUR in der rechten unteren Ecke ERU kann zum Aufruf einer Anzeige einer (in den Figuren nicht dargestellten) Zusatz- oder Detailinformation genutzt werden.
Die Fig. 5 zeigt, dass alternativ oder zusätzlich eine zweite Menüspalte MS2 für ein weiteres Untermenü MU3 vorgesehen sein kann. In dem in der Figur dargestellten Beispiel enthält die zweite Menüspalte MS2 Titel von auswählbaren Musikalben (in Fig. 4 allgemein mit„Info ..." bezeichnet". Ein abzuspielender Musiktitel MT ist in einer weiteren Spalte auswählbar, die sich rechts von der zweiten Spalte MS2 befindet und in einem Tastfeld TF angeordnet ist. Für Anwendungen, in denen in der zweiten Menüspalte MS2 kurze Texte oder Symbole (Icons) ausreichen, braucht die zweite Menüspalte MS2 nicht so breit wie in der Figur sein, so dass mehr Platz für eine Anzeige von Informationen bleibt, die im mittleren Tastfeld TF anzuzeigen sind.
Alternativ ist eine (in den Figuren nicht dargestellte) logische vertikale oder horizontale Aufteilung der Anzeigefläche der ersten AE1 und/oder der zweiten AE2 visuellen
Anzeigeeinheit vorstellbar. Bei einer hälftigen vertikalen Aufteilung ist dann beispielsweise mit einem linken Teil der Menge der Hauptmenüpunkte PH ein erstes Untermenü MU auswählbar, das am linken Rand der Anzeigeeinheit AE1 , AE2 dargestellt wird, und mit einem rechten Teil der Menge der Hauptmenüpunkte PH ein zweites Untermenü MU2 auswählbar, das am rechten Rand der Anzeigeeinheit AE1 , AE2 dargestellt wird. Eine solche Aufteilung der Anzeigeeinheit AE1 , AE2 und ihrer Eingabemöglichkeiten hat den Vorteil, dass sich ein Nutzer eine Anordnung der Menüpunkte PH, PU insbesondere dann gut merken kann, wenn er beispielsweise weiß, dass ein dem Fahrer zugewandter Teil der Anzeigeeinheit AE1 , AE2 und ihrer Eingabemöglichkeiten (insbesondere das dem Fahrer zugewandte Untermenü) eher automotiven Funktionen (wie
Außenspiegeleinstellung) zugeordnet ist, während ein dem Beifahrer zugewandter Teil der Anzeigeeinheit AE1 , AE2 und ihrer Eingabemöglichkeiten (insbesondere das dem Beifahrer zugewandte Untermenü) eher Infotainmentfunktionen (wie Senderauswahl) zugeordnet ist.
Der in Fig. 6 gezeigte Ablauf eines Verfahrens 100 zum manuellen Eingeben von Informationen umfasst folgende Verfahrensschritte. In einem ersten Schritt 110 wird eine Wischgeste WG mit einem Finger eines Nutzers auf einer berührungsempfindlichen ersten AE1 oder berührungsempfindlichen zweiten AE2 visuellen Anzeigeeinheit entlang einer Führung G für den Finger des Nutzers ausgeführt. In einem zweiten Schritt 120 wird ein Eingabebereich BL, BO, BR, BU der berührungsempfindlichen ersten AE1 oder berührungsempfindlichen zweiten AE2 visuellen Anzeigeeinheit AE1 erkannt, in dem die Wischgeste WG ausgeführt wird. In einem dritten Schritt 130 wird eine
Ausgabeinformation AI in Abhängigkeit des erkannten Eingabebereichs BL, BO, BR, BU erzeugt. Die Führung G für den Finger des Nutzers ist eine Kante KL, KO, KR, KU eines äußeren Randes R der berührungsempfindlichen ersten AE1 oder zweiten AE2 visuellen Anzeigeeinheit. Jeweilige Ecken, d.h. Schnittpunkte von jeweiligen der Kanten können einen zusätzlichen Informationsgehalt aufweisen.
Eine erfindungsgemäße Ausführungsform sieht vor, dass die erste AE1 visuelle
Anzeigeeinheit berührungsempfindlich ist (optional gilt dies auch für die zweite visuelle Anzeigeeinheit AE2). Manuelle Eingaben können mittels einer Bedieneinheit BE, die sich zum Beispiel im Lenkrad befindet, oder der berührungsempfindlichen ersten visuellen Anzeigeeinheit AE1 erfolgen. Haptisch wahrnehmbare Markierungen Mi sind an einer oberen Kante KO der ersten visuellen Anzeigeeinheit AE1 angeordnet, an der ein Hauptmenü MH angezeigt wird. Alternativ oder zusätzlich können haptisch
wahrnehmbare Markierungen Mi an einer linken Kante KL der ersten visuellen
Anzeigeeinheit AE1 angeordnet sein, an der ein Untermenü MU angezeigt wird.
Vorzugsweise sind die Wischbereiche BO, BL an der oberen KO und linken KL Kante der ersten visuellen Anzeigeeinheit AE1 von Wischbereichen BU, BR der unteren KU und der rechten KR Kante der ersten visuellen Anzeigeeinheit AE1 funktionell entkoppelt.
Darüberhinaus ist es zweckmäßig, wenn Wischgesten WG entlang der oberen Kante KO oder entlang der linken Kante KL funktionell entkoppelt sind von Gesten G innerhalb des mittleren Tastfelds TF der ersten visuellen Anzeigeeinheit AE1.
Das zweidimensionale Bedienkonzept mit nebeneinander gereihten Hauptmenüpunkten PH und untereinander gereihten Untermenüpunkten PU (oder untereinander gereihten Hauptmenüpunkten PH und nebeneinander gereihten Untermenüpunkten PU) fördert eine intuitive Navigation des Nutzers über viele Eingabefelder. Zudem wird es einem Nutzer der Anzeigevorrichtung AV erleichtert, einen Überblick darüber zu behalten, an welcher Stelle einer Menüstruktur sich eine Anzeigevorrichtung AV aktuell betrieblich befindet. Insbesondere kann der Nutzer auch bei einem Wechsel einer Menüebene schon vorab erkennen, welche Menüebene durch einen Eingabevorgang WG erreicht wird. Hierdurch wird ein Bedarf für eine Blickzuwendung zu der Anzeigevorrichtung AV minimiert und ein Beitrag zu einer verbesserten Verkehrssicherheit geleistet.
Unabhängig davon ist es von Vorteil, wenn die Anzeigevorrichtung AV für eine
durchgängig redundante Bedienbarkeit dazu vorbereitet ist, jederzeit zwischen einer direkten Bedienung der ersten Anzeigevorrichtung AV mittels Berührens (Touch) der ersten Anzeigeinheit AE1 und einer indirekten Bedienung mittels einer Bedieneinheit BE (zum Beispiel eines Touchpads) der ersten Anzeigevorrichtung AE1 zu wechseln.
Dadurch werden Vorteile einer direkten Bedienung (beispielsweise mittels eines
Touchscreens) mit Vorteilen einer indirekten Bedienung (beispielsweise mittels
Lenkradtasten) verknüpft. Das gleiche Konzept kann auch für die zweite
Anzeigevorrichtung AE2 angewendet werden.

Claims

Daimler AG Patentansprüche
1. Anzeigevorrichtung (AV) zum Anzeigen und manuellen Eingeben von
Informationen, wobei die Anzeigevorrichtung (AV) aufweist:
- eine berührungsempfindliche erste visuelle Anzeigeeinheit (AE1) mit mindestens einem Eingabebereich (BL, BO, BR, BU) für Wischgesten (WG);
- eine Führung (G) für einen Finger eines Nutzers;
einen ersten Wischbereichserkenner (WE1) zum Erkennen (120) des mindestens einen Eingabebereichs (BL, BO, BR, BU), in dem die Wischgeste (WG) ausgeführt wird oder wurde;
- eine Ausgabevorrichtung (AD) zum Erzeugen (130) einer Ausgabeinformation (AI) in Abhängigkeit des erkannten Eingabebereichs (BL, BO, BR, BU); dadurch gekennzeichnet, dass
die Führung (G) eine Kante (KL, KO, KR, KU) eines äußeren Randes (R) der berührungsempfindlichen ersten visuellen Anzeigeeinheit (AE1) ist.
2. Anzeigevorrichtung (AV) nach Anspruch 1 ,
dadurch gekennzeichnet, dass
der erste Wischbereichserkenner (WE1) dazu vorbereitet ist, zu erkennen, an welchem Abschnitt (Ai) einer der Kanten (KL, KO, KR, KU) des äußeren Randes (R) eine Wischgeste (WG) ausgeführt wird oder wurde.
3. Anzeigevorrichtung (AV) nach Anspruch 1 oder 2,
dadurch gekennzeichnet, dass
der erste Wischbereichserkenner (WE1) dazu vorbereitet ist, zu unterscheiden, ob eine Wischgeste (WG) entlang einer der Kanten (KL, KO, KR, KU) des äußeren Randes (R) durchgeführt wird oder wurde, oder ob die Wischgeste (WG) in einem mittleren Tastfeld (TF) der berührungsempfindlichen ersten visuellen Anzeigeeinheit (AE1) durchgeführt wird oder wurde.
4. Anzeigevorrichtung (AV) nach einem der Ansprüche 1 bis 3,
dadurch gekennzeichnet, dass
die Anzeigevorrichtung (AV) einen Hauptmenü-Erzeuger (HE) zum Erzeugen eines Hauptmenüs (MH) mit Hauptmenüpunkten (PH) aufweist, die mittels Wischgesten (WG) auswählbar sind.
5. Anzeigevorrichtung (AV) nach Anspruch 4,
dadurch gekennzeichnet, dass
auf dem äußeren Rand (R) erste Markierungen (Mi) angeordnet sind, die mit dem Finger haptisch wahrnehmbar sind und deren Anordnung mit Anzeigeorten der Hauptmenüpunkte (PH) örtlich korrespondiert.
6. Anzeigevorrichtung (AV) nach einem der Ansprüche 1 bis 5,
dadurch gekennzeichnet, dass
die Anzeigevorrichtung (AV) einen Untermenü-Erzeuger (UE) zum Erzeugen mindestens eines Untermenüs (MU) mit Untermenüpunkten (PU) aufweist, die mittels Wischgesten (WG) auswählbar sind.
7. Anzeigevorrichtung (AV) nach Anspruch 6,
dadurch gekennzeichnet, dass
auf dem äußeren Rand (R) zweite Markierungen (Mi) angeordnet sind, die mit dem Finger haptisch wahrnehmbar sind und deren Anordnung mit Anzeigeorten der Untermenüpunkte (MU) örtlich korrespondiert.
8. Anzeigevorrichtung (AV) nach einem der Ansprüche 1 bis 7,
dadurch gekennzeichnet, dass
die Anzeigevorrichtung (AV) eine zweite visuelle Anzeigeeinheit (AE2) aufweist.
9. Fahrzeug (FZ),
dadurch gekennzeichnet, dass
das Fahrzeug (FZ) eine Anzeigevorrichtung (AV) nach einem der Ansprüche 1 bis 8 aufweist.
10. Verfahren (100) zum manuellen Eingeben von Informationen, wobei das Verfahren (100) Folgendes umfasst:
- Ausführen (110) einer Wischgeste (WG) mit einem Finger eines Nutzers auf einer berührungsempfindlichen ersten visuellen Anzeigeeinheit (AE1) entlang einer Führung (G) für den Finger des Nutzers;
- Erkennen (120) eines Eingabebereichs (BL, BO, BR, BU) der
berührungsempfindlichen ersten visuellen Anzeigeeinheit (AE1), in dem die Wischgeste (WG) ausgeführt wird;
Erzeugen (130) einer Ausgabeinformation (AI) in Abhängigkeit des erkannten Eingabebereichs (BL, BO, BR, BU);
dadurch gekennzeichnet, dass
die Führung (G) für den Finger des Nutzers eine Kante (KL, KO, KR, KU) eines äußeren Randes (R) der berührungsempfindlichen ersten visuellen Anzeigeeinheit (AE1) ist.
PCT/EP2016/000587 2015-06-05 2016-04-09 Anzeigevorrichtung, fahrzeug und verfahren zum manuellen eingeben von informationen WO2016192826A2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102015007258.7 2015-06-05
DE102015007258.7A DE102015007258A1 (de) 2015-06-05 2015-06-05 Anzeigevorrichtung, Fahrzeug und Verfahren zum manuellen Eingeben von Informationen

Publications (2)

Publication Number Publication Date
WO2016192826A2 true WO2016192826A2 (de) 2016-12-08
WO2016192826A3 WO2016192826A3 (de) 2017-03-23

Family

ID=57352626

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2016/000587 WO2016192826A2 (de) 2015-06-05 2016-04-09 Anzeigevorrichtung, fahrzeug und verfahren zum manuellen eingeben von informationen

Country Status (2)

Country Link
DE (1) DE102015007258A1 (de)
WO (1) WO2016192826A2 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017215817A1 (de) 2017-09-07 2019-03-07 Audi Ag Verfahren zur Unterstützung eines Fahrers eines Kraftfahrzeugs bei der Positionierung relativ zu einer bodenseitigen Induktionseinheit und Kraftfahrzeug

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006060520A1 (de) 2006-12-21 2008-06-26 Daimler Ag Bedien- und Anzeigesystem für ein Fahrzeug, insbesondere für einen Reisebus oder ein Nutzfahrzeug
DE102013105507A1 (de) 2013-05-29 2014-12-04 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren und Vorrichtung zur Bedienung mindestens eines Bildschirms in einem Fahrzeug

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2751646A4 (de) * 2011-08-31 2015-06-17 Qoros Automotive Co Ltd Interaktives fahrzeugsystem
CN103970324A (zh) * 2013-01-31 2014-08-06 冠捷投资有限公司 具有触控屏幕和前框的显示装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006060520A1 (de) 2006-12-21 2008-06-26 Daimler Ag Bedien- und Anzeigesystem für ein Fahrzeug, insbesondere für einen Reisebus oder ein Nutzfahrzeug
DE102013105507A1 (de) 2013-05-29 2014-12-04 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren und Vorrichtung zur Bedienung mindestens eines Bildschirms in einem Fahrzeug

Also Published As

Publication number Publication date
DE102015007258A1 (de) 2016-12-08
WO2016192826A3 (de) 2017-03-23

Similar Documents

Publication Publication Date Title
EP2920679B1 (de) Informationswiedergabesystem und verfahren zur informationswiedergabe
EP2350799B1 (de) Verfahren und vorrichtung zum anzeigen von in listen geordneter information
EP2440425B1 (de) Verfahren zum steuern einer grafischen benutzerschnittstelle und bedienvorrichtung für eine grafische benutzerschnittstelle
EP2766211B1 (de) Verfahren zum bereitstellen einer bedienvorrichtung, insbesondere in einem fahrzeug, und bedienvorrichtung für ein fahrzeug
EP2976699A1 (de) Informationswiedergabesystem für ein fahrzeug und verfahren zum bereitstellen von informationen für den benutzer eines fahrzeugs
DE102009048043A1 (de) Multifunktionsanzeige- und Bediensystem sowie Verfahren zum Steuern eines solchen Systems mit optimierter grafischer Bediendarstellung
DE102009008041A1 (de) Verfahren zum Betrieb eines Kraftfahrzeuges mit einem Touchscreen
EP2196359B1 (de) Bedienverfahren und Bedieneinrichtung
EP2425321B1 (de) Verfahren und vorrichtung zum anzeigen von in listen geordneter information
EP2924551B1 (de) Verfahren und Vorrichtung zum Bereitstellen einer graphischen Benutzerschnittstelle in einem Fahrzeug
DE10324580A1 (de) Bedienvorrichtung
WO2010026044A1 (de) Verfahren und vorrichtung zum anzeigen von information, insbesondere in einem fahrzeug
EP2344356B1 (de) Verfahren und vorrichtung zum anzeigen von informationen, insbesondere in einem fahrzeug
DE102009059869A1 (de) Verfahren zum Bereitstellen einer Benutzerschnittstelle und Bedienvorrichtung
DE102009039114B4 (de) Bedienvorrichtung für ein Fahrzeug
EP2548106B1 (de) Verfahren zur steuerung eines elektronischen systems für ein fahrzeug sowie entsprechende steuerung
WO2016192826A2 (de) Anzeigevorrichtung, fahrzeug und verfahren zum manuellen eingeben von informationen
EP2750916B1 (de) Verfahren zum bereitstellen einer bedienvorrichtung in einem fahrzeug und bedienvorrichtung für ein fahrzeug
DE102013105507A1 (de) Verfahren und Vorrichtung zur Bedienung mindestens eines Bildschirms in einem Fahrzeug
EP2321713B1 (de) Verfahren zum anzeigen von information insbesondere in einem fahrzeug und bedienvorrichtung insbesondere für ein fahrzeug
DE102006040707A1 (de) Multifunktionsbedienvorrichtung und Verfahren zum Ein- und Ausblenden von Bedienelementen auf der Multifunktionsbedienvorrichtung
EP2917062B1 (de) Verfahren zum anzeigen von informationen in einem fahrzeug und vorrichtung zum steuern der anzeige
EP2703205B1 (de) Verfahren zum Anzeigen und Bedienen von Funktionsgruppen und/oder Funktionen sowie eine Anzeige- und Bedienvorrichtung
DE102011121585B4 (de) Kraftfahrzeug
WO2017157542A1 (de) Bedienvorrichtung und verfahren zum erfassen einer benutzerauswahl zumindest einer bedienfunktion der bedienvorrichtung

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16717834

Country of ref document: EP

Kind code of ref document: A2

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16717834

Country of ref document: EP

Kind code of ref document: A2