WO2018224320A1 - Verfahren zum betreiben einer anzeigeanordnung eines kraftfahrzeugs, bedienvorrichtung, und kraftfahrzeug - Google Patents

Verfahren zum betreiben einer anzeigeanordnung eines kraftfahrzeugs, bedienvorrichtung, und kraftfahrzeug Download PDF

Info

Publication number
WO2018224320A1
WO2018224320A1 PCT/EP2018/063610 EP2018063610W WO2018224320A1 WO 2018224320 A1 WO2018224320 A1 WO 2018224320A1 EP 2018063610 W EP2018063610 W EP 2018063610W WO 2018224320 A1 WO2018224320 A1 WO 2018224320A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
operating
touch
motor vehicle
sensitive
Prior art date
Application number
PCT/EP2018/063610
Other languages
English (en)
French (fr)
Inventor
Thomas Knittl
Xenia SICHWARDT
Peter Zeinar
Patrik MÜLLER
Maksymilian Nawka
Original Assignee
Audi Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi Ag filed Critical Audi Ag
Priority to US16/616,582 priority Critical patent/US11299045B2/en
Priority to CN201880037694.2A priority patent/CN110709273B/zh
Publication of WO2018224320A1 publication Critical patent/WO2018224320A1/de

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • B60K35/211
    • B60K35/215
    • B60K35/29
    • B60K2360/143
    • B60K2360/1446
    • B60K2360/146
    • B60K2360/182
    • B60K2360/23
    • B60K2360/27
    • B60K2360/347

Definitions

  • the invention relates to a method for operating a display arrangement of a motor vehicle, which has at least two display devices each having a display surface.
  • the at least two display surfaces are arranged relative to one another such that a second of the display surfaces is reflected in a first of the display surfaces providing a first display plane and consequently a virtual display plane visible from a passenger compartment of the motor vehicle behind the first display plane is generated.
  • the operation of an infotainment system in a motor vehicle currently shows a tendency toward one-dimensional touch input systems in which one interacts directly on the screen.
  • DE 10 2009 038 044 A1 describes by way of example such a touch-sensitive contact surface.
  • Other series systems still use firmly prescribed rotary push-buttons or touch-sensitive control surfaces ("touchpad”), with which one can also operate a one-dimensional display.
  • a novel configuration and alignment of two displays offers an innovative display that creates a 3D-like effect. This is achieved by mirroring the upstream secondary display in the main display, allowing for a second level of display at depth. This means that the mirroring is used to create an extra display layer.
  • DE 10 2004 055 835 A1 discloses a display device with at least one display element for displaying at least two image planes that can be combined with one another and a method for displaying several combinable image planes for displaying information.
  • DE 10 2008 037 060 A1 describes a display system with a multi-layer display device, whereby simultaneously at least one first and one second information object can be displayed on successive layers.
  • the user of the motor vehicle can use an additional viewing device such as a 3D glasses.
  • An object underlying the invention is to provide a control concept for a display device that enables such a 3D effect.
  • the invention is based on the idea of detecting an operating action of the operator with the aid of a touch-sensitive operating surface, wherein the operating action represents a virtual shifting of the display content from one display area to another display area.
  • This operating concept can be implemented not only on a dashboard, but at any point within the motor vehicle, so that an operation of such a display arrangement can also be realized in piloted motor vehicles, without the user must first bring a motor vehicle seat in a specific driver's seat position to get to a control.
  • a display device is understood to mean a device or a device component which is designed and set up for outputting image signals and thus for displaying display contents, and may comprise, for example, a screen or a TFT monitor.
  • the display area is the area on which the display content is output
  • the display level is the level in which the output content appears visible.
  • the display plane may lie on the display surface.
  • the display level may be a virtual display level that appears behind the first display area.
  • Detecting and evaluating device is understood to be a device or a device component of an operating device, ie an operating device, which is set up to detect an operator action and to recognize or determine an operator action described by the detected operator action, and for this purpose can have suitable software, for example.
  • the detection and evaluation device for detecting the operating action may comprise a sensor device, which may preferably include a sensor, for detecting the operating action.
  • the detection and evaluation device initially detects an operator action of an operator, preferably a user of the motor vehicle, wherein the operator action comprises a movement of a body part of the operator along an extension direction of a touch-sensitive control surface of the operator.
  • the recognition and evaluation recognizes the operating action.
  • the touch-sensitive control surface can be designed preferably touchpad.
  • the extension direction is determined on the touch-sensitive operating surface, and based on the ascertained extension direction, a determination of a data record selected by the operator by the operator and displayed by one of the two display devices, which describes a display content, and determination of a by the extension direction of the operator action predetermined displacement of a virtual image of the display content from one of the display levels to the other of the display levels, preferably with respect to a motor vehicle axle.
  • the operator can move a display content displayed on the virtual display level to the front display level, for example, by stroking the exemplary touchpad along a motor vehicle in the longitudinal direction and, for example, in the direction from a motor vehicle front side to a motor vehicle tail.
  • the method is further characterized by the following steps carried out by a control device of the operating device, wherein a control device is understood to be a device or a device component for receiving and evaluating signals, as well as for generating control signals.
  • a control device is understood to be a device or a device component for receiving and evaluating signals, as well as for generating control signals.
  • the control device can be designed, for example, as a control chip or control device of the operating device.
  • the control device generates a control signal which describes the determined data record and a transfer of the ascertained data record to the second of the display devices.
  • the generation of the control signal can preferably take place as a function of the selected data record and / or the predetermined displacement of the virtual image. This is followed by a transmission of the generated control signal to the display device indicating the determined data set and thereby a change of the display plane on which the display content is visible.
  • Display content can also be intelligently staggered.
  • a pleasant and extremely comfortable experience is created for the operator.
  • This operating concept is particularly advantageous for piloted motor vehicles, in which the motor vehicle seats do not necessarily have to be arranged in the classical position in front of a steering wheel and a dashboard.
  • the user of the motor vehicle that is to say the operator, does not have to position his motor vehicle seat in order to obtain a permanently installed operating element. ment on the dashboard.
  • the motor vehicle seat can, for example, still be positioned in a lateral position facing an interior of the motor vehicle.
  • the design as a touch-sensitive control surface creates a variety of possibilities for accommodating the operating device in the motor vehicle without, for example, disturbing buttons or switches having to be installed everywhere in the motor vehicle.
  • the recognition and evaluation device can detect as a control action preferably a drag and / or (Weg-) Schiebegeste for operating the display device, so that the user can operate the display arrangement particularly intuitive, since the drag and / or move the emergence of the display content in represents the foreground or the cessation of the display content in the background.
  • the extension direction can extend along a motor vehicle longitudinal axis. This is particularly advantageous in the case of an arrangement of the display devices which are staggered one behind the other in relation to the motor vehicle longitudinal axis and thereby realize the three-dimensional space in the direction of travel for the display content.
  • the control signal describes a transmission of the determined data record to the second display area, which is reflected in the first display area.
  • This may preferably be provided a display arrangement in which the first display surface has a partial area, which is arranged invisible from the passenger compartment and the second display area, so that the partial area is reflected in the second display area and consequently another from the passenger compartment from viewable virtual Display level behind the virtual display level is generated.
  • the display content can be moved virtually in the direction of travel.
  • the operation of the display arrangement and thus the operator can be particularly independent of an organization of an interior decoration of the motor vehicle, if the operating device has a plurality of distributed in the interior of touch-sensitive control surfaces. Particularly many surfaces of the interior can be used as a touch-sensitive control surface, if, according to a further embodiment of the method according to the invention by the detection and evaluation detects a further operation to select the touch-sensitive control surface from a plurality of touch-sensitive control surface, and based on the detected another operating action performs recognition of an activation operator action.
  • an activation operator action may be, for example, a tap or a double tap on the touch-sensitive control surface.
  • the control device can be used to select the touch-sensitive operating surface from the plurality of touch-sensitive operating surfaces as a function of the detected activation operating action, and to activate an active mode of the selected, touch-sensitive operating surface for receiving operating actions.
  • the activation operator action can be detected, for example, by means of a sensor structurally separate from the touch-sensitive control surface, for example by means of a camera which, for example, can be arranged on a headliner of the motor vehicle.
  • the touch-sensitive control surface for the operator can be conveniently integrated into the interior, for example in an armrest or in a door cheek, but a faulty operation by accidental dropping or moving the arm on the touch-sensitive control surface is reduced or even avoided, can, according to a Another embodiment of the method according to the invention, by the control device and / or the detection and evaluation followed by detecting a detection pause with a predetermined length of time, the detection pause a period without receiving a control action by the touch-sensitive control surface, preferably by the selected touch-sensitive control surface, can describe , Depending on the detected acquisition pause, the controller may set a sleep mode using the touch-sensitive interface che, optionally the selected touch-sensitive control surface, no operator actions are detected.
  • the above object is also achieved by an embodiment of the operating device according to the invention, the operating device having at least one touch-sensitive control surface and a recognition and evaluation, characterized in that the detection and evaluation is adapted to a detection and evaluation device concerned method steps according to one of To carry out the above-described embodiments of the method according to the invention.
  • the operating device may additionally have a control device which is set up to carry out the method steps relating to a control device of one of the above-described embodiments of the method according to the invention.
  • the recognition and evaluation device and / or the control device can optionally each have a processor device, that is, a component for electronic data processing, which may preferably comprise at least one microcontroller and / or one microprocessor.
  • a program code may be stored in a data memory, for example a data memory of the operating device, which upon execution by the processor device causes the recognition and evaluation device and / or the control device to perform the respective method steps.
  • the operating device can preferably be characterized in that the at least one touch-sensitive operating surface is arranged on an arm rest and / or a door cheek and / or a center console and / or configured as a reference of an interior equipment element of the motor vehicle.
  • the object set out above is also achieved by a motor vehicle, which can preferably be designed as a motor vehicle, for example as a passenger car, wherein the motor vehicle has a display arrangement which has at least two display devices each with a display surface, the motor vehicle being embodied by an embodiment of the invention.
  • To operating device according to the invention is characterized. It results in the above advantages.
  • Fig. 1 is a schematic representation of a first embodiment of the method according to the invention, and to a first embodiment of the operating device according to the invention;
  • Fig. 2 is a schematic representation of another embodiment of the method according to the invention, and to a further embodiment of the operating device according to the invention.
  • the exemplary embodiments explained below are preferred embodiments of the invention.
  • the described components of the embodiments each represent individual features of the invention, which are to be considered independently of one another, which each further develop the invention independently of one another and thus also individually or in a different combination than the one shown as part of the invention.
  • the described embodiments can also be supplemented by further features of the invention already described.
  • Fig. 1 illustrates the principle of the method according to the invention with reference to a first embodiment.
  • a motor vehicle 10 which may be preferably designed as a piloted motor vehicle, for example, as a piloted passenger car.
  • the motor vehicle 10 has a display arrangement 12, which may have, for example, two display devices 14, 16.
  • a first of the display devices 14 may be configured, for example, as a main screen, ie as a main display, and a further display device 16 may be arranged, for example, in a dashboard 17 such that a display surface of the further display devices 16 is not displayed by a vehicle occupant can be seen.
  • An advertisement however, ge specifications 18 of the first display devices 14 may be visible from the vehicle occupant.
  • the display area (not shown in FIG. 1) of the further display device 16 can, for example, be reflected in the display area 18 of the first display devices 14, as a result of which a virtual display level 20 can be generated.
  • the further display devices 16 can output a data record, as a result of which a display content 22 described in the virtual display plane 20 can be visible in the virtual display plane 20 in the virtual display plane 20.
  • the display level of the first display devices 14 may preferably lie on the display surface 18 of the first display devices 14.
  • An operating device 24 of the motor vehicle 10 has, for example, two touch-sensitive control surfaces 26, wherein one of the touch-sensitive control surfaces 26 can be arranged on a surface of a dashboard 17 and another of the touch-sensitive control surfaces 26 on or in a surface of an armrest 28.
  • the operating surface 26 can be configured as a touchpad or touchpad or as a fabric cover of an interior trim element, that is to say the exemplary armrest 28.
  • the example mentioned reference can be woven, for example, from non-sensory and sensory threads. Such covers are known to those skilled in the art.
  • each surface of the interior of the motor vehicle 10 can be used as an interactive surface, ie as a touch-sensitive operating surface 26.
  • Such an interior trim element may alternatively be made, for example, of wood or leather, such a cover in each case being designed as a capacitive surface.
  • a cover in each case being designed as a capacitive surface.
  • a sensory surface preferably a capacitive surface, can be arranged below the exemplary leather cover or the exemplary wood paneling.
  • the operating device 24, which may be configured, for example, as a device component of an infotainment system of the motor vehicle 10, has a recognition and evaluation device 30, and optionally a control device 32.
  • the control device 32 may be a component of the display device 12.
  • the exemplary recognition and evaluation te worn 30 and / or the exemplary controller 32 may be configured, for example, each as a circuit of a control board, or for example, each as a control chip.
  • both the recognition and evaluation device 30, as well as the control device 32 each have a processor device 34 and a memory device 36.
  • the recognition and evaluation device 30 can have a corresponding program code, which can be stored, for example, in the memory device 36 of the recognition and evaluation device 30.
  • the display content 22 may initially be visible on the virtual virtual display plane 20 lying behind the first display devices 14 in the example of FIG. 1.
  • the display content may, for example, describe an image and / or a text about driver-relevant or interesting information.
  • a user of the motor vehicle 10 ie the operator, would like to enlarge the display content 22 and / or see it on the front display level, ie on the display area 18 of the first display devices 14.
  • the operator would like to use, for example, the control surface 26 on the armrest 28.
  • a sensor device 40 for example, which may be, for example, a sensor device of the recognition and evaluation device 30 and, for example, a camera as a sensor, can optionally detect an activation operator action (method step S1).
  • the operator can double-tap the desired operating surface 26 with the body part 38.
  • a camera signal that can describe the operating action can be generated by the sensor device 40 and transmitted via a data communication connection 41 to the recognition and evaluation device 30 (S2).
  • the data communication connection 41 can, for example, be a wired data communication connection.
  • the data communication connection 41 may be a wireless data communication connection 41, for example a Bluetooth or WLAN communication connection.
  • Further data communication links 41 are shown in the figures as black connecting lines and identified by the reference numeral 41.
  • the recognition and evaluation device 30 can evaluate the transmitted camera signal by means of an appropriate software and record the activation control action (S3).
  • a sensor system of the operating surface 26 can detect, for example, that a palm and fingers of the operating person are resting.
  • the detection and evaluation device 30 can detect, for example, the outlines of a palm and the fingers with the aid of a corresponding algorithm and thus recognize that the palm of the hand rests on the operating surface 26 of the armrest 28.
  • the recognition and evaluation device 30 can generate a corresponding signal that can describe the activation operation (S4) and transmitted to the control device 32. This can then select the touch-sensitive operating surface 26 of the armrest 28 (S5) and set the selected touch-sensitive operating surface 26 of the armrest 28 to an active mode as a function of the signal, that is, depending on the activation operator action (S6).
  • the body part 38 can carry out, for example, a drag gesture which can represent or symbolize a drawing on of the display content 22 from the virtual display plane 20 to the display plane of the exemplary main display.
  • the exemplary drawing gesture is illustrated in FIG. 1 as an arrow on the touch-sensitive operating surface 26 and can preferably be carried out along a motor vehicle longitudinal axis.
  • the recognition and evaluation device 30 detects the operating action in method step S7.
  • an orientation and / or coordinates of the touch-sensitive operating surface 26 can be stored in the recognition and evaluation device 30 so that the extent direction can also be determined on the basis of the detected operator action (S9).
  • the recognition and evaluation device 30 can distinguish between the drag gesture shown in FIG. 1 and the shift gesture shown in FIG. 2.
  • a drag gesture may be detected (S8). The operator has intuitively carried out the shifting of the display content 22 to a display level closer to him by such a special operator action, and by the touch contact with the touch-sensitive control surface 26 he receives the same time the feedback on the performed operation.
  • the recognition and evaluation device 30 can interrogate, for example, at the control device 32 and the display device 12, which data record is currently output by the further display device 16.
  • a corresponding data record (not shown in FIG. 1) can be determined accordingly (S10).
  • the recognition and evaluation device can, for example, generate a control signal that can describe the data record and the display devices 14 as receivers of the data record (S12), and can transmit this signal to the control device 32.
  • the controller 32 may generate a control signal (S13) capable of describing a corresponding instruction, and this control signal having said instruction may be transmitted to the display device 14 and / or the display device 12 (S14).
  • a controller or a control component of the display device 12 or the display device 14, 16 can then implement the control signal so that the data set is transmitted to the first display devices 14, and thereby from the operator's perspective, the display content 22, which is now by the first display devices 14th is outputted to the display surface 18 of the first display devices 14 (S15), so that the display content 22 now appears in the front display plane.
  • Fig. 2 shows the shifting of the display content 22 in the opposite direction, wherein the individual components may be those of Fig. 1 and a corresponding method for moving (S15) of the display content 22 to the other, virtual display level 20 analogous to that Fig. 1 described method can be transmitted.
  • a corresponding operator action may be, for example, a sliding rests or Wegschiebegeste, in which the body part 38 can push the display content 22 virtually looked by the operator forward.
  • the touch-sensitive control surface 26 are optionally put into a sleep mode, for example via the recognition and evaluation device 30 and / or the control device 32 (S17).
  • control device 32 can recognize, for example, by a sensor on a motor vehicle door, for example, that the operator is just getting in.
  • the boarding can be interpreted, for example, as an activation operator action, so that the touch-sensitive control surface 26, optionally all touch-sensitive control surfaces 26 are activated.
  • exemplary functions of the touch-sensitive control surface 26 may be, for example, the detection of an operating action for dividing the display surfaces of the two display devices 14, 16, for example a multiple tapping on the first display devices 14.
  • the exemplary camera 40 may be used for detecting such an operating action for splitting (S1) of the display.
  • one of the display surfaces to the driver and the other assigned to the passenger for example, if two occupants are detected by means of pressure sensors in the motor vehicle. If, for example, one of the two persons then rises, the remaining operator can use the entire display area 18, 20, which can extend over an entire vehicle width, for example.
  • a minimum length of the drawing and / or sliding gesture can be predetermined by the recognition and evaluation 30 as a threshold value for triggering the shifting S15 of the display content 22.
  • a threshold for this a speed of pulling and / or pushing be provided, in which the recognition and evaluation device 30 is arranged, for example, to detect a corresponding speed.
  • the display content 22, for example can remain on the original display level 18, 20 and can only be zoomed or reduced.
  • a so-called “swipe" or "flip” whereby the corresponding speed of the operating action can exceed the threshold value, the above-described change of the display levels 18, 20 can take place.
  • the display content 22 may first be increased in the same plane before being shifted (S15).
  • a remote operation can be operated via display arrangement 12, for example an infotainment system, staggered for example in two display levels 18, 20, via one or more touch-sensitive operating surface 26, the touch-sensitive operating surface 26 preferably being designed as a sensory touchpad and, for example, in each case Door cheek can be arranged.
  • staggered infotainment contents can be operated on the two display levels 18, 20 by preferably pulling and / or pushing gesture or by dragging and / or pushing gesture onto the exemplary interactive touchpad in the exemplary door cheek or armrest.
  • the operating logic is based on an easy-to-understand mental model for the operator, in which the operator preferably draws the display content 22, the exemplary infotainment content, for example, directly from the rear display level 20 to the front display level 18 "by a drag gesture If he wishes to hide a display content 22 or pause current displays, he may "physically" move the display content 22 or several display contents 22 backward by, for example, a move-gesture. This creates a direct analogy between the remote operator action and the movement of display content 22 over two display levels 18, 20 (see FIGS. 1 and 2).
  • the exemplary interactive touch surfaces in the exemplary arm rests can spread over an entire area of the exemplary armrest, allowing the operator to comfortably operate in any seating position.
  • the display arrangement 12 can have, for example, a display arrangement 12 with two display devices 14, 16 already described above, wherein a second of the two display devices 16 can be reflected in the first display devices 14.
  • a touch-sensitive operating surface 26 or a plurality of touch-sensitive operating surfaces 26 can be installed, for example, in arm rests which activate both display levels 18, 20, for example, and / or allow interaction between the two display levels 18, 20.
  • FIGS. 1 and 2 show a preferred operating scheme.
  • the touch-sensitive operating surface 26 can be designed, for example, as an interactive touchpad, which can spread over an entire armrest, for example, by "drawing in” the display content 22, selecting and / or confirming the latter Move room to the front display level 18.
  • the element that is to say the display content 22, can move in the three-dimensional space to the rear display plane 20.

Abstract

Die Erfindung betrifft ein Verfahren zum Betreiben einer Anzeigeanordnung (12) eines Kraftfahrzeugs (10), die mindestens zwei Anzeigeeinrichtungen (14, 16) mit jeweils einer Anzeigefläche (18) aufweist. Ein sichtbarer Anzeigeinhalt (22) kann dabei dreidimensional zwischen zwei Anzeigeebenen (18, 22) verschoben werden (S15). Eine Erkennungs- und Auswerteeinrichtung (30) einer Bedienvorrichtung (24) führt durch: Erfassen einer Bedienhandlung (S7) mittels einer berührungssensitiven Bedienfläche (26), vorzugsweise einer Zieh- und/oder Schiebegeste, und ihrer Erstreckungsrichtung (S9), und anhand der ermittelten Erstreckungsrichtung Ermitteln eines Datensatzes (S10), der den Anzeigeinhalt (22) beschreibt, sowie Ermitteln einer vorgegebenen Verschiebung eines virtuellen Bildes des Anzeigeinhaltes (22) von einer der Anzeigeebenen (18, 20) auf die andere der Anzeigeebenen (18, 20, S11). Eine Steuereinrichtung (32) der Bedienvorrichtung (24) führt durch: Erzeugen eines entsprechenden Steuersignals (S13) und dessen Übertragen an die den ermittelten Datensatz anzeigende Anzeigeeinrichtung (14, 16, S14) und dadurch Ändern der Anzeigeebene (18, 20, S15), auf der der Anzeigeinhalt (22) sichtbar ist.

Description

Verfahren zum Betreiben einer Anzeigeanordnung eines Kraftfahrzeugs,
Bedienvorrichtung, und Kraftfahrzeug
BESCHREIBUNG:
Die Erfindung betrifft ein Verfahren zum Betreiben einer Anzeigeanordnung eines Kraftfahrzeugs, die mindestens zwei Anzeigeeinrichtungen mit jeweils einer Anzeigefläche aufweist. Dabei sind die mindestens zwei Anzeigeflächen derart zueinander angeordnet, sodass sich eine zweite der Anzeigeflä- chen in einer ersten der Anzeigeflächen, die eine erste Anzeigeebene bereitstellt, spiegelt und infolgedessen eine von einer Fahrgastzelle des Kraftfahrzeugs aus einsehbare virtuelle Anzeigeebene hinter der ersten Anzeigeebene erzeugt wird. Die Bedienung von einem Infotainmentsystem im Kraftfahrzeug zeigt aktuell eine Tendenz hin zu eindimensionalen Berührungseingabesystemen, bei denen man direkt auf dem Bildschirm interagiert. Die DE 10 2009 038 044 A1 beschreibt beispielhaft eine solche berührungssensitive Berühroberfläche. Andere Seriensysteme benutzen noch immer fest verordnete Dreh- Drücksteller oder berührungssensitive Bedienflächen („Touchpad"), mit denen man ebenfalls ein eindimensionales Display bedienen kann.
Im Fahrzeuginnenraum bietet eine neuartige Konfiguration und Ausrichtung zweier Displays eine innovative Anzeige, die einen 3D-ähnlichen Effekt schafft. Dies wird erreicht, in dem sich das vorgelagerte sekundäre Display im Hauptdisplay spiegelt und damit eine zweite Anzeigeebene in der Tiefe ermöglicht. Das heißt, dass die Spiegelung zum Erzeugen einer extra Anzeigeebene genutzt wird. Aus der DE 10 2004 055 835 A1 ist eine Anzeigeeinrichtung mit mindestens einem Anzeigeelement zum Darstellen von mindestens zwei miteinander kombinierbaren Bildebenen und ein Verfahren zum Darstellen von mehreren kombinierbaren Bildebenen zur Anzeige von Informationen bekannt. Die DE 10 2008 037 060 A1 beschreibt ein Anzeigesystem mit einer Mehrschicht-Anzeigeeinrichtung, wodurch gleichzeitig mindestens ein erstes und ein zweites Informationsobjekt auf hintereinander liegenden Schichten angezeigt werden können.
Zum Bedienen einer der genannten Anzeigeanordnung mit den zwei Anzeigeeinrichtungen, also beispielsweise mit zwei Displays, bei der Durchspiegelung eine virtuelle, zusätzliche Anzeigeebene eingestellt wird, kann der Benutzer des Kraftfahrzeugs ein zusätzliches Sichtgerät wie beispielsweise einen 3D-Brille benutzen.
Eine der Erfindung zu Grunde liegende Aufgabe ist das Bereitstellen eines Bedienkonzepts für eine Anzeigeanordnung, die einen solchen 3D-Effekt ermöglicht.
Die Aufgabe wird durch das erfindungsgemäße Verfahren und die erfindungsgemäßen Vorrichtungen gemäß den nebengeordneten Patentansprüchen gelöst. Vorteilhafte Weiterbildungen sind durch die Unteransprüche gegeben.
Der Erfindung liegt die Idee zugrunde, mithilfe einer berührungssensitiven Bedienfläche eine Bedienhandlung der Bedienperson zu erfassen, wobei die Bedienhandlung ein virtuelles Verschieben des Anzeigeninhaltes von einer Anzeigefläche auf eine weitere Anzeigefläche repräsentiert. Dieses Bedien- konzept kann nicht nur an einem Armaturenbrett verwirklicht werden, sondern an jeder Stelle innerhalb des Kraftfahrzeugs, sodass eine Bedienung einer solchen Anzeigeanordnung auch in pilotierten Kraftfahrzeugen realisiert werden kann, ohne dass der Benutzer einen Kraftfahrzeugsitz zunächst in eine bestimmte Fahrersitz-Position bringen muss, um an ein Bedienelement zu gelangen.
Das erfindungsgemäße Verfahren zum Betreiben einer Anzeigeanordnung eines Kraftfahrzeugs, die mindestens zwei Anzeigeeinrichtungen mit jeweils einer Anzeigefläche aufweist, wobei die mindestens zwei Anzeigeflächen derart zueinander angeordnet sind, dass sich eine zweite der Anzeigeflächen in einer ersten der Anzeigeflächen, die eine erste Anzeigeebene bereitstellt, spiegelt und infolgedessen eine von einer Fahrgastzelle aus einsehbare virtuelle Anzeigeebene hinter der ersten Anzeigeebene erzeugt wird, ist durch die folgenden, durch eine Erkennungs- und Auswerteeinrichtung einer Bedienvorrichtung durchgeführten Schritte gekennzeichnet.
Unter einer Anzeigeeinrichtungen wird dabei ein Gerät oder eine Geräte- komponente verstanden, die zum Ausgeben von Bildsignalen und damit zum Anzeigen von Anzeigeinhalten ausgestaltet und eingerichtet ist, und beispielsweise einen Bildschirm oder einen TFT-Monitor umfassen kann. Die Anzeigefläche ist dabei diejenige Fläche, auf der der Anzeigeinhalt ausgegeben wird, und die Anzeigeebene ist diejenige Ebene, in der der ausgegebene Inhalt sichtbar erscheint. Bei einer ersten der beiden Anzeigeeinrichtungen kann zum Beispiel dabei die Anzeigeebene auf der Anzeigefläche liegen. Im Falle einer zweiten der mindestens zwei Anzeigeeinrichtungen kann die Anzeigeebene eine virtuelle Anzeigeebene sein, die hinter der ersten Anzeigefläche erscheint.
Als Erkennungs- und Auswerteeinrichtung wird ein Gerät oder eine Gerätekomponente einer Bedienvorrichtung, also eines Bediengeräts, verstanden, die zum Erfassen einer Bedienhandlung und zum Erkennen oder Ermitteln einer durch die erfasste Bedienhandlung beschriebenen Bedienhandlung eingerichtet ist, und hierzu beispielsweise eine geeignete Software aufweisen kann. Optional kann die Erkennungs- und Auswerteeinrichtung zum Erfassen der Bedienhandlung eine Sensoreinrichtung, die vorzugsweise einen Sensor umfassen kann, zum Erfassen der Bedienhandlung aufweisen. Durch die Erkennungs- und Auswerteeinrichtung erfolgt zunächst ein Erfassen einer Bedienhandlung einer Bedienperson, vorzugsweise eines Benutzers des Kraftfahrzeugs, wobei die Bedienhandlung eine Bewegung eines Körperteils der Bedienperson entlang einer Erstreckungsrichtung einer berührungssensitiven Bedienfläche der Bedienvorrichtung umfasst. Mit anderen Worten erkennt die Erkennungs- und Auswerteeinrichtung die Bedienhandlung. Die berührungssensitive Bedienfläche kann dabei vorzugsweise Touchpad ausgestaltet sein.
Anhand der erfassten Bedienhandlung erfolgt ein Ermitteln der Erstreckungs- richtung auf der berührungssensitiven Bedienfläche, und anhand der ermittelten Erstreckungsrichtung erfolgt ein Ermitteln eines von der Bedienperson durch die Bedienhandlung ausgewählten und von einer der beide Anzeigeeinrichtungen angezeigten Datensatzes, der einen Anzeigeinhalt beschreibt, und ein Ermitteln einer durch die Erstreckungsrichtung der Bedienhandlung vorgegebenen Verschiebung eines virtuellen Bildes des Anzeigeinhaltes von einer der Anzeigeebenen auf die andere der Anzeigeebenen, vorzugsweise in Bezug auf eine Kraftfahrzeugachse. Beispielsweise kann die Bedienperson einen auf der virtuellen Anzeigeebene dargestellten Anzeigeinhalt auf die vordere Anzeigeebene verschieben, indem sie beispielsweise mit der Hand entlang einer Kraftfahrzeug in Längsrichtung und beispielsweise in Richtung von einer Kraftfahrzeugvorderseite zu einem Kraftfahrzeugheck auf den beispielhaften Touchpad streicht.
Das Verfahren ist weiterhin gekennzeichnet durch die folgenden, durch eine Steuereinrichtung der Bedienvorrichtung durchgeführten Schritte, wobei unter einer Steuereinrichtung ein Gerät oder eine Gerätekomponente zum Empfangen und Auswerten von Signalen, sowie zum Erzeugen von Steuer- Signalen, verstanden wird. Die Steuereinrichtung kann dabei beispielsweise als Steuerchip oder Steuergerät der Bedienvorrichtung ausgestaltet sein.
Durch die Steuereinrichtung erfolgt ein Erzeugen eines Steuersignals, das den ermittelten Datensatz und ein Übertragen des ermittelten Datensatzes an die zweite der Anzeigeeinrichtungen beschreibt. Das Erzeugen des Steuersignals kann dabei vorzugsweise in Abhängigkeit von dem ausgewählten Datensatz und/oder der vorgegebenen Verschiebung des virtuellen Bildes erfolgen. Es folgt ein Übertragen des erzeugten Steuersignals an die den ermittelten Datensatz anzeigende Anzeigeeinrichtung und dadurch ein Än- dem der Anzeigeebene, auf der der Anzeigeinhalt sichtbar ist.
Es ergeben sich die oben genannten Vorteile. Durch ein solches physikalisches Bewegen von Inhalten im dreidimensionalen Raum wird ein Bedienerlebnis erheblich gesteigert und neue Möglichkeiten der Bedienung werden ermöglicht. Anzeigeinhalte können außerdem intelligent gestaffelt werden. In Kombination mit zum Beispiel einer dazu passenden Remote- Bedienhandlung auf beispielsweise einem Armablagen-Pad als berührungssensitive Bedienfläche entsteht für die Bedienperson ein angenehmes und äußerst komfortables Erlebnis. Dieses Bedienkonzept ist besonders vorteil- haft für pilotiert fahrende Kraftfahrzeuge, in denen die Kraftfahrzeugsitze nicht zwangsläufig in der klassischen Position vor einem Lenkrad und einem Armaturenbrett angeordnet sein müssen. Um die Anzeigeanordnung zu bedienen, muss der Benutzer des Kraftfahrzeugs, also die Bedienperson, ihren Kraftfahrzeugsitz nicht positionieren, um ein fest verbautes Bedienele- ment am Armaturenbrett greifen zu können. Der Kraftfahrzeugsitz kann beispielsweise nach wie vor in einer seitlichen einem Innenraum des Kraftfahrzeugs zu gewandten Stelle positioniert sein. Durch die Ausgestaltung als berührungssensitive Bedienfläche entstehen eine Vielzahl von Möglichkeiten der Unterbringung der Bedienvorrichtung im Kraftfahrzeug, ohne dass beispielsweise überall im Kraftfahrzeug unter Umständen störende Knöpfe oder Schalter eingebaut werden müssen.
Hierdurch wird auch ein Komfort bei der Bedienung der Anzeigeanordnung deutlich gesteigert. Die Bedienperson fühlt und spürt bei einem Bewegen oder Streichen über die berührungssensitive Bedienfläche besser und intuitiver, wie der Anzeigeinhalt in den dreidimensionalen Raum verschoben wird. Mit anderen Worten verbessert das erfindungsgemäße Bedienkonzept durch die Synergie von Bedienhandlung und berührungssensitiven Bedienfläche einen intuitiven Charakter der Bedienung.
Die Erkennungs- und Auswerteeinrichtung kann als Bedienhandlung vorzugsweise eine Zieh-und/oder (Weg-)Schiebegeste zum Bedienen der Anzeigeanordnung erfassen, sodass der Benutzer die Anzeigeanordnung be- sonders intuitiv bedienen kann, da das Ziehen und/oder Wegschieben das Hervortreten des Anzeigeinhaltes in den Vordergrund oder das Abtreten des Anzeigeinhaltes in den Hintergrund repräsentiert.
Vorzugsweise kann die Erstreckungsrichtung entlang einer Kraftfahr- zeuglängsachse verlaufen. Besonders vorteilhaft ist dies bei einer Anordnung der Anzeigeeinrichtungen, die in Bezug auf die Kraftfahrzeug- Längsachse hintereinander gestaffelt angeordnet sind und dadurch den dreidimensionalen Raum in Fahrtrichtung für den Anzeigeinhalt verwirklichen.
Gemäß einer Weiterbildung kann, falls die Erkennungs- und Auswerteeinrichtung eine in Fahrtrichtung verlaufende Erstreckungsrichtung ermittelt, das Steuersignal ein Übertragen des ermittelten Datensatzes an die zweite, sich in der ersten Anzeigefläche spiegelnden Anzeigefläche beschreiben. Dies kann vorzugsweise eine Anzeigeanordnung vorgesehen sein, in der die erste Anzeigefläche einen Teilbereich aufweist, welcher von der Fahrgastzelle aus unsichtbar und derart zur zweiten Anzeigefläche angeordnet ist, sodass sich der Teilbereich in der zweiten Anzeigefläche spiegelt und infolgedessen eine weitere von der Fahrgastzelle aus einsehbare virtuelle Anzeigeebene hinter der virtuellen Anzeigeebene erzeugt wird. Der Anzeigeinhalt kann so virtuell in Richtung Fahrtrichtung verschoben werden.
Die Bedienung der Anzeigeanordnung und damit die Bedienperson können besonders unabhängig von einer Organisation einer Innenraumausstattung des Kraftfahrzeugs werden, falls die Bedienvorrichtung mehrere, in dem Innenraum verteilte berührungssensitive Bedienflächen aufweist. Besonders viele Oberflächen des Innenraums können so als berührungssensitive Bedienfläche genutzt werden, falls, gemäß einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens, durch die Erkennungs- und Auswerteeinrichtung ein Erfassen einer weiteren Bedienhandlung zum Auswählen der berührungssensitiven Bedienfläche aus einer Mehrzahl berührungssensitiven Bedienfläche erfolgt, und anhand der erfassten weiteren Bedienhandlung ein Erkennen einer Aktivierungs-Bedienhandlung durchführt. Eine solche Aktivie- rungs-Bedienhandlung kann beispielsweise ein Antippen oder ein doppeltes Antippen der berührungssensitiven Bedienfläche sein. Durch die Steuereinrichtung kann in Abhängigkeit von der erkannten Aktivierungs- Bedienhandlung ein Auswählen der berührungssensitiven Bedienfläche aus der Mehrzahl an berührungssensitiven Bedienflächen erfolgen, und ein Akti- vieren eines Aktivmodus der ausgewählten, berührungssensitiven Bedienfläche zum Empfangen von Bedienhandlungen. Die Aktivierungs- Bedienhandlung kann beispielsweise mittels eines von der berührungssensitiven Bedienfläche baulich getrennten Sensors erfasst werden, beispielsweise mithilfe einer Kamera, die zum Beispiel an einem Dachhimmel des Kraft- fahrzeugs angeordnet sein kann.
Damit die berührungssensitive Bedienfläche für die Bedienperson komfortabel in den Innenraum integriert werden kann, beispielsweise in einer Armablage oder in einer Türwange, jedoch eine Fehlbedienung durch versehentli- ches Ablegen oder Bewegen des Armes auf der berührungssensitive Bedienfläche reduziert oder sogar vermieden wird, kann, gemäß einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens, durch die Steuereinrichtung und/oder die Erkennungs- und Auswerteeinrichtung ein Feststellen einer Erfassungspause mit einer vorgegebenen Zeitlänge folgen, wobei die Erfassungspause einen Zeitraum ohne Empfang einer Bedienhandlung durch die berührungssensitive Bedienfläche, vorzugsweise durch die ausgewählte berührungssensitive Bedienfläche, beschreiben kann. In Abhängigkeit von der festgestellten Erfassungspause kann die Steuereinrichtung einen Schlafmodus einstellen, in dem mithilfe der berührungssensitiven Bedienflä- che, optional der ausgewählten berührungssensitiven Bedienfläche, keine Bedienhandlungen erfasst werden.
Die oben gestellte Aufgabe wird ebenfalls gelöst durch eine Ausführungsform der erfindungsgemäßen Bedienvorrichtung, die Bedienvorrichtung aufweisend mindestens eine berührungssensitive Bedienfläche und eine Erkennungs- und Auswerteeinrichtung, dadurch gekennzeichnet, dass die Erkennungs- und Auswerteeinrichtung dazu eingerichtet ist, die eine Erkennungsund Auswerteeinrichtung betreffenden Verfahrensschritte gemäß einer der oben beschriebenen Ausführungsformen des erfindungsgemäßen Verfahrens durchzuführen.
Es ergeben sich die oben genannten Vorteile. Vorzugsweise kann die Bedienvorrichtung zusätzlich eine Steuereinrichtung aufweisen, die dazu einge- richtet ist, die eine Steuereinrichtung betreffenden Verfahrensschritte einer der oben beschriebenen Ausführungsformen des erfindungsgemäßen Verfahrens durchzuführen. Die Erkennungs- und Auswerteeinrichtung und/oder die Steuereinrichtung können optional jeweils eine Prozessoreinrichtung aufweisen, also ein Bauteil zur elektronischen Datenverarbeitung, das vor- zugsweise mindestens einen Mikrokontroller und/oder einen Mikroprozessor umfassen kann. Optional kann in einem Datenspeicher, beispielsweise einem Datenspeicher der Bedienvorrichtung, ein Programmcode gespeichert sein, der bei Ausführen durch die Prozessoreinrichtung die Erkennungs- und Auswerteeinrichtung und/oder die Steuereinrichtung dazu veranlasst, die jeweiligen Verfahrensschritte durchzuführen.
Vorzugsweise kann die erfindungsgemäße Bedienvorrichtung dadurch gekennzeichnet sein, dass die mindestens eine berührungssensitive Bedienfläche an einer Armablage und/oder einer Türwange und/oder einer Mittelkon- sole angeordnet und/oder als Bezug eines Innenraum Ausstattungselement des Kraftfahrzeugs ausgestaltet sein. Hierdurch ergibt sich eine besonders komfortable Bedienung für die Bedienperson, insbesondere in pilotiert fahrende Kraftfahrzeugen. Die oben gestellte Aufgabe wird ebenfalls gelöst durch ein Kraftfahrzeug, das vorzugsweise als Kraftwagen, beispielsweise als Personenkraftwagen, ausgestaltet sein kann, wobei das Kraftfahrzeug eine Anzeigeanordnung aufweist, die mindestens zwei Anzeigeeinrichtungen mit jeweils einer Anzeigefläche hat, wobei das Kraftfahrzeug durch eine Ausführungsform der erfin- dungsgemäßen Bedienvorrichtung gekennzeichnet ist. Es ergeben sich die oben genannten Vorteile.
Im Folgenden sind Ausführungsbeispiele der Erfindung beschrieben. Hierzu zeigt:
Fig. 1 eine schematische Darstellung zu einem ersten Ausführungsbeispiel des erfindungsgemäßen Verfahrens, sowie zu einem ersten Ausführungsbeispiel der erfindungsgemäßen Bedienvorrichtung; und
Fig. 2 eine schematische Darstellung zu einem weiteren Ausführungsbeispiel des erfindungsgemäßen Verfahrens, sowie zu einem weiteren Ausführungsbeispiel der erfindungsgemäßen Bedienvorrichtung. Bei den im Folgenden erläuterten Ausführungsbeispielen handelt es sich um bevorzugte Ausführungsformen der Erfindung. Bei den Ausführungsbeispielen stellen die beschriebenen Komponenten der Ausführungsformen jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden und damit auch einzeln oder in einer anderen als der gezeigten Kombination als Bestandteil der Erfindung anzusehen sind. Des Weiteren sind die beschriebenen Ausführungsformen auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.
In den Figuren sind funktionsgleiche Elemente jeweils mit denselben Bezugszeichen versehen.
Die Fig. 1 veranschaulicht das Prinzip des erfindungsgemäßen Verfahrens anhand eines ersten Ausführungsbeispiels. Hierzu zeigte die Fig. 1 eine Kraftfahrzeug 10, das vorzugsweise als pilotiertes Kraftfahrzeug, beispielsweise als pilotierte Personenkraftwagen, ausgestaltet sein kann.
Das Kraftfahrzeug 10 weist eine Anzeigeanordnung 12 auf, die beispielsweise zwei Anzeigeeinrichtungen 14, 16 aufweisen kann. Im Beispiel der Fig. 1 kann dabei eine erste der Anzeigeeinrichtungen 14 zum Beispiel als Hauptbildschirm, also als Hauptdisplay ausgestaltet sein, und eine weitere Anzeigeeinrichtungen 16 kann beispielsweise in einem Armaturenbrett 17 derart angeordnet sein, dass eine Anzeigefläche der weiteren Anzeigeeinrichtungen 16 von einem Fahrzeuginsassen nicht einsehbar sein kann. Eine Anzei- gefläche 18 der ersten Anzeigeeinrichtungen 14 kann dabei jedoch von dem Fahrzeuginsassen sichtbar sein.
Die Anzeigefläche (in der Fig. 1 nicht gezeigt) der weiteren Anzeigeeinrich- tung 16 kann sich beispielsweise in der Anzeigefläche 18 der ersten Anzeigeeinrichtungen 14 spiegeln, wodurch eine virtuelle Anzeigeebene 20 erzeugt werden kann. Im Beispiel der Fig. 1 kann dabei beispielsweise gerade die weitere Anzeigeeinrichtungen 16 einen Datensatz ausgegeben, wodurch in der virtuellen Anzeigeebene 20 ein durch den Datensatz beschriebener Anzeigeinhalt 22 in der virtuellen Anzeigeebene 20 sichtbar sein kann. Die Anzeigeebene der ersten Anzeigeeinrichtungen 14 kann dabei vorzugsweise auf der Anzeigefläche 18 der ersten Anzeigeeinrichtungen 14 liegen.
Eine Bedienvorrichtung 24 des Kraftfahrzeugs 10 weist beispielsweise zwei berührungssensitive Bedienflächen 26 auf, wobei eine der berührungssensitiven Bedienflächen 26 zum Beispiel auf einer Oberfläche eines Armaturenbretts 17 und eine weitere der berührungssensitiven Bedienflächen 26 auf oder in einer Oberfläche einer Armablage 28 angeordnet sein können. Beispielsweise kann die Bedienfläche 26 als Touchpad oder Tastfeld ausgestal- tet sein oder als Stoffbezug eines Innenraumausstattungselements, also der beispielhaften Armablage 28. Der beispielhaft erwähnte Bezug kann beispielsweise aus nicht sensorischen und sensorischen Fäden gewoben sein. Solche Bezüge sind dem Fachmann aus dem Stand der Technik bekannt. Prinzipiell kann dabei jeder Fläche des Innenraums des Kraftfahrzeugs 10 als interaktive Fläche, also als berührungssensitive Bedienfläche 26, genutzt werden. Ein solches Innenraumausstattungselement kann alternativ zum Beispiel aus Holz oder Leder sein, wobei ein solcher Bezug jeweils als kapazitive Fläche ausgestaltet sein kann. Ähnlich wie beispielsweise einem Tab- let-PC, bei dem eine kapazitive Oberfläche unter einer Glasscheibe ange- ordnet sein kann, kann bei der beispielhaften berührungssensitiven Bedienfläche eine sensorische Fläche, vorzugsweise eine kapazitive Fläche, unter dem beispielhaften Lederbezug oder der beispielhaften Holzverkleidung angeordnet sein. Die Bedienvorrichtung 24, die beispielsweise als Gerätekomponente eines Infotainmentsystems des Kraftfahrzeugs 10 ausgestaltet sein kann, weist eine Erkennungs- und Auswerteeinrichtung 30 auf, und optional eine Steuereinrichtung 32. Alternativ kann die Steuereinrichtung 32 eine Komponente der Anzeigeanordnung 12 sein. Die beispielhafte Erkennungs- und Auswer- teeinrichtung 30 und/oder die beispielhafte Steuereinrichtung 32 können beispielsweise jeweils als Schaltkreis einer Steuerplatine ausgestaltet sein, oder beispielsweise jeweils als Steuerchip. Im Beispiel der Fig. 1 weisen dabei sowohl die Erkennungs- und Auswerteeinrichtung 30, als auch die Steuereinrichtung 32, jeweils eine Prozessoreinrichtung 34 und eine Speichereinrichtung 36 auf. Die Erkennungs- und Auswerteeinrichtung 30 kann beispielhaft einen entsprechenden Programmcode aufweisen, der beispielsweise in der Speichereinrichtung 36 der Erkennungs- und Auswerteeinrichtung 30 abgelegt sein kann.
Wie bereits oben erwähnt, kann im Beispiel der Fig. 1 der Anzeigeinhalt 22 zunächst auf der virtuellen, im Beispiel der Fig. 1 hinter der ersten Anzeigeeinrichtungen 14 liegenden virtuellen Anzeigeebene 20 sichtbar sein. Der Anzeigeinhalt kann beispielsweise ein Bild und/oder einen Text zu für den Fahrer relevante oder interessante Informationen beschreiben. Ein Benutzer des Kraftfahrzeugs 10, also die Bedienperson, möchte beispielsweise den Anzeigeinhalt 22 zum Beispiel vergrößert und/oder auf der vorderen Anzeigeebene sehen, also auf der Anzeigefläche 18 der ersten Anzeigeeinrichtungen 14. Im Beispiel der Fig. 1 stehen ihm beispielhaft zwei Bedienflächen 26 zur Verfügung, und da die Bedienperson beispielsweise aufgrund einer aktuellen Position des Kraftfahrzeuggesetzes nicht am Armaturenbrett 17 sitzen kann, sondern etwas weiter hinten, möchte die Bedienperson beispielsweise die Bedienfläche 26 auf der Armablage 28 benutzen. Optional kann vorgesehen sein, dass die verschiedenen Bedienflächen 26 nur situationsbedingt aktiviert werden, sodass keine Fehlbedienung erfolgt, falls die Bedienperson ihr Körperteil 38, also beispielsweise eine Hand oder einen Arm, versehentlich oder absichtlich auf der Armablage 28 ablegt. Um die Bedienfläche 26 in der Armablage 28 zu aktivieren, kann beispielsweise eine Sensoreinrichtung 40, die beispielsweise eine Sensoreinrichtung der Erkennungs- und Auswerteeinrichtung 30 sein und zum Beispiel eine Kamera als Sensor aufweisen kann, kann optional eine Aktivierungs- Bedienhandlung erfassen (Verfahrensschritt S1 ). Hierzu kann die Bedienperson beispielsweise mit dem Körperteil 38 zweimal auf die gewünschte Be- dienfläche 26 tippen. Ein Kamerasignal, das die Bedienhandlung beschreiben kann, kann von der Sensoreinrichtung 40 erzeugt und über eine Datenkommunikationsverbindung 41 an die Erkennungs- und Auswerteeinrichtung 30 übertragen werden (S2). Die Datenkommunikationsverbindung 41 kann dabei beispielsweise eine drahtgebundenen Datenkommunikationsverbin- dung 41 sein, beispielsweise ein Datenbus des Kraftfahrzeugs 10. Alternativ kann die Datenkommunikationsverbindung 41 eine drahtlose Datenkommu- nikationsverbindung 41 sein, beispielsweise eine Bluetooth- oder WLAN- Kommunikationsverbindung. Weitere Datenkommunikationsverbindungen 41 sind dabei in den Figuren als schwarze Verbindungslinien gezeigt und durch das Bezugszeichen 41 gekennzeichnet.
Die Erkennungs- und Auswerteeinrichtung 30 kann beispielsweise mithilfe einer entsprechenden Software das übertragene Kamerasignal auswerten und die Aktivierungs-Bedienhandlung erfassen (S3). Alternativ zu der beschriebenen Aktivierungs-Bedienhandlung, bei der das Körperteil 38 beispielsweise zweimal auf die Bedienfläche 26 tippen kann, kann beispielsweise eine Sensorik der Bedienfläche 26 erfassen, dass beispielsweise ein Handballen und Finger der Bedienperson aufliegen. Hierzu kann die Erken- nungs- und Auswerteeinrichtung 30 mithilfe eines entsprechenden Algorithmus zum Beispiel die Umrisse eines Handballen und der Finger erfassen und damit erkennen, dass der Handballen auf der Bedienfläche 26 der Armablage 28 aufliegt. Die Erkennungs- und Auswerteeinrichtung 30 kann ein entsprechendes Signal erzeugen, das die Aktivierungs-Bedienhandlung beschreiben kann (S4) und an die Steuereinrichtung 32 übertragen. Diese kann dann in Abhängigkeit von dem Signal, also in Abhängigkeit der Aktivierungs-Bedienhandlung, die berührungssensitive Bedienfläche 26 der Armablage 28 auswählen, (S5) und die ausgewählte berührungssensitive Bedienfläche 26 der Armablage 28 in einen Aktivmodus versetzen (S6).
Zum Verschieben des Anzeigeinhaltes 22 kann die Bedienperson nun eine Bedienhandlung auf der berührungssensitiven Bedienfläche 26 ausführen. Im Beispiel der Fig. 1 kann dabei das Körperteil 38 beispielsweise eine Ziehgeste durchführen, die ein Heranziehen des Anzeigeinhaltes 22 von der virtuellen Anzeigeebene 20 auf die Anzeigeebene des beispielhaften Hauptdisplays repräsentieren oder symbolisieren kann. Die beispielhafte Ziehgeste ist dabei der Fig. 1 als Pfeil auf der berührungssensitiven Bedienfläche 26 veranschaulicht und kann vorzugsweise entlang einer Kraftfahrzeuglängsachse durchgeführt werden. Mittels der berührungssensitiven Bedienfläche 26 erfasst die Erkennungs- und Auswerteeinrichtung 30 im Verfahrensschritt S7 die Bedienhandlung. Beispielsweise können in der Erkennungs- und Auswerteeinrichtung 30 eine Ausrichtung und/oder Koordinaten der berührungssensitiven Bedienfläche 26 hinterlegt sein, sodass anhand der erfass- ten Bedienhandlung auch die Erstreckungsrichtung ermittelt werden kann (S9). Hierdurch kann die Erkennungs- und Auswerteeinrichtung 30 zwischen der in der Fig. 1 dargestellten Ziehgeste und der in der Fig. 2 dargestellten Schiebegeste unterscheiden. Im Beispiel der Fig. 1 kann zum Beispiel eine Ziehgeste erfasst werden (S8). Die Bedienperson hat durch eine solche, spezielle Bedienhandlung intuitiv das Verschieben des Anzeigeinhaltes 22 auf eine näher bei ihm liegende Anzeigeebene durchgeführt, und durch den Berührungskontakt mit der berührungssensitiven Bedienfläche 26 erhält er gleichzeitig das Feedback über die durchgeführte Bedienhandlung. Die Erkennungs- und Auswerteeinrichtung 30 kann beispielsweise bei der Steuereinrichtung 32 und der Anzeigeanordnung 12 abfragen, welcher Datensatz gerade durch die weitere Anzeigeeinrichtung 16 ausgegeben wird. Ein entsprechender Datensatz (in der Fig. 1 nicht gezeigt) kann entsprechend ermittelt werden (S10). Anhand der ermittelten Erstreckungsrichtung kann dann ermittelt werden, dass der ausgewählte Datensatz auf die andere der beiden Anzeigeeinrichtungen 14, 16 übertragen werden soll, also im Fall der Fig. 1 auf die Anzeigeeinrichtungen 14. (S1 1 ). Die Erkennungs- und Auswerteeinrichtung kann zum Beispiel ein Steuersignal erzeugen, das den Datensatz und die Anzeigeeinrichtungen 14 als Empfänger des Datensatzes beschreiben kann (S12), und kann dieses Signal an die Steuereinrichtung 32 übertragen. In Abhängigkeit von diesem optionalen Signal kann die Steuereinrichtung 32 ein Steuersignal erzeugen (S13), das eine entsprechende Anweisung beschreiben kann, und dieses Steuersignal mit der genannten Anweisung kann an die Anzeigeeinrichtung 14 und/oder die Anzeigeanordnung 12 übertragen werden (S14). Beispielsweise ein Steuergerät oder eine Steuerkomponente der Anzeigeanordnung 12 oder der Anzeigeeinrichtung 14, 16 kann das Steuersignal dann umsetzen, sodass der Datensatz an die erste Anzeigeeinrichtungen 14 übertragen wird, und dadurch wird aus Sicht der Bedienperson der Anzeigeinhalt 22, der nun durch die erste Anzeigeeinrichtungen 14 ausgegeben wird, auf die Anzeigefläche 18 der ersten Anzeigeeinrichtungen 14 verschoben (S15), sodass der Anzeigeinhalt 22 nun in der vorderen Anzeigeebene erscheint.
Die Fig. 2 zeigt das Verschieben des Anzeigeinhaltes 22 in die entgegen gesetzte Richtung, wobei die einzelnen Komponenten diejenigen der Fig. 1 sein können und ein entsprechendes Verfahren zum Verschieben (S15) des Anzeigeinhaltes 22 auf die andere, virtuelle Anzeigeebene 20 analog zu dem Fig. 1 beschriebenen Verfahren übertragen werden kann. Eine entsprechende Bedienhandlung kann dabei zum Beispiel eine Schiebegeste oder Wegschiebegeste sein, bei der das Körperteil 38 den Anzeigeinhalt 22 virtuell von der Bedienperson ausgesehen nach vorne schieben kann.
Stellt die Erkennungs- und Auswerteeinrichtung 30 und/oder die Steuereinrichtung 32 beispielsweise eine Erfassungspause von zwei Minuten fest, beispielsweise dadurch, dass die berührungssensitive Bedienfläche 26 für eine Länge von zwei Minuten keine Berührung empfängt und/oder erfasst (S16), kann die berührungssensitive Bedienfläche 26 beispielsweise über die Erkennungs- und Auswerteeinrichtung 30 und/oder die Steuereinrichtung 32 optional in einen Schlafmodus versetzt werden (S17).
Optional kann vorgesehen sein, dass die Steuereinrichtung 32 beispielswei- se erkennen kann, beispielsweise durch einen Sensor an einer Kraftfahrzeugtür, dass die Bedienperson gerade einsteigt. Das Einsteigen kann dabei beispielsweise als Aktivierungs-Bedienhandlung interpretiert werden, sodass die berührungssensitive Bedienfläche 26, optional alle berührungssensitiven Bedienflächen 26, aktiviert werden.
Weitere, beispielhafte Funktionen der berührungssensitiven Bedienfläche 26 können beispielsweise das Erfassen einer Bedienhandlung zum Aufteilen der Anzeigeflächen der beiden Anzeigeeinrichtungen 14, 16 sein, beispielsweise ein mehrfaches Tippen auf die erste Anzeigeeinrichtungen 14. Zum Erfassen einer solchen Bedienhandlung zum Aufteilen (S1 ) der Anzeige kann die beispielhafte Kamera 40 verwendet werden.
Bei einem Aufteilen der Anzeigeflächen auf einen Fahrer und einen Beifahrer kann beispielsweise eine der Anzeigeflächen dem Fahrer und die andere dem Beifahrer zugeordnet werden, falls beispielsweise mittels Drucksensoren in dem Kraftfahrzeug zwei Insassen erkannt werden. Steigt dann beispielsweise eine der beiden Personen aus, kann die verbleibende Bedienperson die gesamte Anzeigefläche 18, 20 nutzen, die sich beispielsweise über eine ganze Fahrzeugbreite erstrecken kann.
Optional kann durch die Erkennungs- und Auswerteeinrichtung 30 eine Mindestlänge der Zieh- und/oder Schiebegeste vorgegeben sein als Schwellenwertes zum Auslösen des Verschieben S15 des Anzeigeinhaltes 22. Alternativ kann als Schwellenwert hierfür eine Geschwindigkeit des Ziehens und/oder Schiebens vorgesehen sein, in dem die Erkennungs- und Auswerteeinrichtung 30 beispielsweise dazu eingerichtet ist, eine entsprechende Geschwindigkeit zu erfassen. Bei zum Beispiel einem langsamen Ziehen und/oder Schieben kann beispielsweise der Anzeigeinhalt 22 auf der ur- sprünglichen Anzeigeebene 18, 20 verbleiben und lediglich gezoomt oder verkleinert werden. Bei einem schnelleren Ziehen und/oder Schieben, einem sogenannten„Swipe" oder„Flip", wobei die entsprechende Geschwindigkeit der Bedienhandlung den Schwellenwert überschreiten kann, kann der oben beschriebene Wechsel der Anzeigeebenen 18, 20 erfolgen. Mit anderen Worten kann der Anzeigeinhalt 22 zunächst auf gleicher Ebene vergrößert werden, bevor er verschoben wird (S15).
Insgesamt veranschaulichen die Ausführungsbeispiele, wie die Erfindung eine neuartige Medienlogik in Zusammenhang mit physikalischen Bedien- element bereitstellt.
Gemäß einem weiteren Ausführungsbeispiel kann eine Remote-Bedienung auf beispielsweise in zwei Anzeigeebenen 18, 20 gestaffelte Anzeigeanordnung 12, beispielsweise eines Infotainmentsystems, über eine oder mehrere berührungssensitive Bedienfläche 26 bedient werden, wobei die berührungssensitive Bedienfläche 26 vorzugsweise als sensorisches Touchpad ausgestaltet und beispielsweise in jeweils einer Türwange angeordnet sein können. Dabei können auf die zwei Anzeigeebenen 18, 20 zum Beispiel gestaffelte Infotainment-Inhalte durch vorzugsweise eine Zieh -und/oder Wegschiebe- geste bzw. durch Zieh- und/oder Wegschiebegesten auf den beispielhaften interaktiven Touchpad in der beispielhaften Türwange oder Armablage bedient werden.
Die Bedienlogik beruht auf einem für die Bedienperson einfach zu verste- henden, mentalen Modell, bei dem die Bedienperson vorzugsweise durch eine Ziehgeste die Anzeigeinhalt 22, den beispielhaften Infotainment-Inhalt, zum Beispiel direkt von der hinteren Anzeigeebene 20 auf die vordere Anzeigeebene 18„ziehen" kann. Möchte er einen Anzeigeinhalt 22 ausblenden oder aktuelle Anzeigen pausieren, kann er den Anzeigeinhalt 22 oder mehre- re Anzeigeinhalte 22 durch beispielsweise eine Wegschiebe-Geste„physikalisch" nach hinten bewegen. So entsteht eine direkte Analogie zwischen der Remote-Bedienhandlung und dem Bewegen von Anzeigeinhalt 22 über zwei Anzeigeebenen 18, 20 (siehe Fig. 1 und Fig. 2). Die beispielhaften, interaktiven Touchflächen in den beispielhaften Armabla- gen können sich über eine gesamte Fläche der beispielhaften Armablage ausbreiten, sodass die Bedienperson in jeglicher Sitzposition komfortabel bedienen kann.
Die Anzeigeanordnung 12 kann dabei beispielsweise eine bereits weiter oben beschriebene Anzeigeanordnung 12 mit zwei Anzeigeeinrichtungen 14, 16 aufweisen, wobei sich eine zweite der beiden Anzeigeeinrichtungen 16 in der ersten Anzeigeeinrichtungen 14 spiegeln kann. Zusätzlich können eine berührungssensitive Bedienfläche 26 oder mehrere berührungssensitive Bedienflächen 26 zum Beispiel in Armablagen verbaut sein, die beide Anzeigeebenen 18, 20 zum Beispiel aktivieren und/oder eine Interaktion zwischen den beiden Anzeigeebenen 18, 20 ermöglichen. Die Fig. 1 und Fig. 2 zeigen dabei ein bevorzugtes Bedienschema. Die berührungssensitive Bedienfläche 26 kann beispielsweise als interaktives Touchpad ausgestaltet sein, das sich beispielsweise über eine gesamte Armablage ausbreiten kann durch beispielsweise durch „Heranziehen" des Anzeigeinhaltes 22 diesen auswählt und/oder bestätig. Damit kann sich das Element, also der Anzeigeinhalt 22, im dreidimensionalen Raum auf die vordere Anzeigeebene 18 bewegen.
Die Fig. 2 zeigt ein beispielhaftes Pausieren oder Ablehnen oder Ablegen des Anzeigeinhaltes 22 oder mehrerer Anzeigeinhalte 22 durch beispielswei- se„Wegwischen". Damit kann sich das Element, also der Anzeigeinhalt 22, im dreidimensionalen Raum auf die hintere Anzeigeebene 20 bewegen.

Claims

PATENTANSPRÜCHE:
Verfahren zum Betreiben einer Anzeigeanordnung (12) eines Kraftfahrzeugs (10), die mindestens zwei Anzeigeeinrichtungen (14, 16) mit jeweils einer Anzeigefläche (18) aufweist, wobei die mindestens zwei Anzeigeflächen (18) derart zueinander angeordnet sind, dass sich eine zweite der Anzeigeflächen (18) in einer ersten der Anzeigeflächen (18), die eine erste Anzeigeebene bereitstellt, spiegelt und infolgedessen eine von einer Fahrgastzelle aus einsehbare virtuelle Anzeigeebene (20) hinter der ersten Anzeigeebene (18) erzeugt wird, das Verfahren gekennzeichnet durch die folgenden, durch eine Erken- nungs- und Auswerteeinrichtung (30) einer Bedienvorrichtung (24) durchgeführten Schritte:
- Erfassen einer Bedienhandlung einer Bedienperson (S7), wobei die
Bedienhandlung eine Bewegung eines Körperteils (38) der Bedienperson entlang einer Erstreckungsrichtung einer berührungssensitiven Bedienfläche (26) der Bedienvorrichtung (24) umfasst,
- anhand der erfassten Bedienhandlung Ermitteln der Erstreckungsrichtung auf der berührungssensitiven Bedienfläche (26, S9), und
- anhand der ermittelten Erstreckungsrichtung Ermitteln eines von der
Bedienperson durch die Bedienhandlung ausgewählten und von einer der beiden Anzeigeeinrichtungen (14, 16) angezeigten Datensatzes (S10), der einen Anzeigeinhalt (22) beschreibt, und Ermitteln einer durch die Erstreckungsrichtung der Bedienhandlung vorgegebenen Verschiebung eines virtuellen Bildes des Anzeigeinhaltes (22) von einer der Anzeigeebenen (18, 20) auf die andere der Anzeigeebenen (18, 20, S1 1 ),
das Verfahren weiterhin gekennzeichnet durch die folgenden, durch eine Steuereinrichtung (32) der Bedienvorrichtung (24) durchgeführten Schritte:
- Erzeugen eines Steuersignals, das den ermittelten Datensatz und ein
Übertragen des ermittelten Datensatzes an die zweite der Anzeigeeinrichtungen (14, 16) beschreibt (S13), und
- Übertragen des erzeugten Steuersignals an die den ermittelten Datensatz anzeigende Anzeigeeinrichtung (14, 16, S14) und dadurch Ändern der Anzeigeebene (18, 20, S15), auf der der Anzeigeinhalt (22) sichtbar ist. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass
die Erkennungs- und Auswerteeinrichtung (30) als Bedienhandlung eine
Zieh- und/oder Wegschiebegeste erfasst (S8).
Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass
die Erstreckungsrichtung entlang einer Kraftfahrzeug-Längsachse verläuft.
Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass,
falls die Erkennungs- und Auswerteeinrichtung (30) eine in Fahrtrichtung verlaufende Erstreckungsrichtung ermittelt (S1 1 ), das Steuersignal ein Übertragen des ermittelten Datensatzes an die zweite, sich in der ersten Anzeigefläche (18) spiegelnden Anzeigefläche (18) beschreibt.
Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch die folgenden Schritte:
- durch die Erkennungs- und Auswerteeinrichtung (30): Erfassen einer weiteren Bedienhandlung (S1 ) zum Auswählen der berührungssensitiven Bedienfläche (26), und
- anhand der erfassten weiteren Bedienhandlung Erkennen einer Akti- vierungs-Bedienhandlung (S3);
- durch die Steuereinrichtung (32): in Abhängigkeit von der erkannten Aktivierungs-Bedienhandlung Auswählen der berührungssensitiven Bedienfläche (26) aus einer Mehrzahl an berührungssensitiven Bedienflächen (26, S5), und
- Aktivieren eines Aktivmodus der ausgewählten berührungssensitiven Bedienfläche (26) zum Erfassen von Bedienhandlungen (S6).
Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch die folgenden, durch die Steuereinrichtung (32) und/oder die Erkennungs- und Auswerteeinrichtung (30) durchgeführten Schritte:
- Feststellen einer Erfassungspause mit einer vorgegebenen Zeitlänge, wobei die Erfassungspause einen Zeitraum ohne Empfang einer Bedienhandlung durch die berührungssensitive Bedienfläche (26) beschreibt (S16), und
- in Abhängigkeit von der festgestellten Erfassungspause Einstellen eines Schlafmodus, in dem mithilfe der berührungssensitiven Bedien- fläche (26) keine Bedienhandlungen erfasst werden (S17).
Bedienvorrichtung (24), aufweisend mindestens eine berührungssensitive Bedienfläche (26), und eine Erkennungs- und Auswerteeinrichtung (30), dadurch gekennzeichnet, dass
die Erkennungs- und Auswerteeinrichtung (30) dazu eingerichtet ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen.
Bedienvorrichtung (24) nach Anspruch 7, dadurch gekennzeichnet, dass
die mindestens eine berührungssensitive Bedienfläche (26) an einer Armablage (28) und/oder einer Türwange und/oder einer Mittel konsole angeordnet und/oder als Bezug eines Innenraumausstattungselennents eines Kraftfahrzeugs (10) ausgestaltet ist.
9. Kraftfahrzeug (10), aufweisend eine Anzeigeanordnung (12), die mindestens zwei Anzeigeeinrichtungen (14, 16) mit jeweils einer Anzeigefläche (18) aufweist das Kraftfahrzeug (10) gekennzeichnet durch eine Bedienvorrichtung (24) nach Anspruch 7 oder 8.
PCT/EP2018/063610 2017-06-07 2018-05-24 Verfahren zum betreiben einer anzeigeanordnung eines kraftfahrzeugs, bedienvorrichtung, und kraftfahrzeug WO2018224320A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/616,582 US11299045B2 (en) 2017-06-07 2018-05-24 Method for operating a display arrangement of a motor vehicle, operator control device and motor vehicle
CN201880037694.2A CN110709273B (zh) 2017-06-07 2018-05-24 用于运行机动车的显示装置的方法、操作装置和机动车

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102017209562.8A DE102017209562B4 (de) 2017-06-07 2017-06-07 Verfahren zum Betreiben einer Anzeigeanordnung eines Kraftfahrzeugs, Bedienvorrichtung, und Kraftfahrzeug
DE102017209562.8 2017-06-07

Publications (1)

Publication Number Publication Date
WO2018224320A1 true WO2018224320A1 (de) 2018-12-13

Family

ID=62597433

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2018/063610 WO2018224320A1 (de) 2017-06-07 2018-05-24 Verfahren zum betreiben einer anzeigeanordnung eines kraftfahrzeugs, bedienvorrichtung, und kraftfahrzeug

Country Status (4)

Country Link
US (1) US11299045B2 (de)
CN (1) CN110709273B (de)
DE (1) DE102017209562B4 (de)
WO (1) WO2018224320A1 (de)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021003491A1 (de) * 2021-07-06 2023-01-12 Mercedes-Benz Group AG Bedien- und Anzeigevorrichtung
DE102021118952A1 (de) 2021-07-22 2023-01-26 Bayerische Motoren Werke Aktiengesellschaft Benutzerschnittstelle für ein Fahrzeug und Fahrzeug
DE102021118951A1 (de) 2021-07-22 2023-01-26 Bayerische Motoren Werke Aktiengesellschaft Eine Benutzerschnittstelle für ein Fahrzeug, ein Fahrzeug und ein Verfahren zum Betreiben einer Benutzerschnittstelle für ein Fahrzeug
EP4122739B1 (de) 2021-07-22 2023-12-06 Bayerische Motoren Werke Aktiengesellschaft Benutzerschnittstelle für ein fahrzeug, fahrzeug und verfahren zum betreiben einer benutzerschnittstelle für ein fahrzeug
DE102022107166B3 (de) 2022-03-25 2023-06-15 Bayerische Motoren Werke Aktiengesellschaft Benutzerschnittstelle für ein Fahrzeug, Lenkrad für ein und Fahrzeug
DE102022107164A1 (de) 2022-03-25 2023-09-28 Bayerische Motoren Werke Aktiengesellschaft Benutzerschnittstelle für ein Fahrzeug und Fahrzeug
DE102022107167A1 (de) 2022-03-25 2023-09-28 Bayerische Motoren Werke Aktiengesellschaft Benutzerschnittstelle für ein Fahrzeug und Fahrzeug
DE102022111042A1 (de) 2022-05-04 2023-11-09 Audi Aktiengesellschaft Fahrzeug mit einer Bedienvorrichtung, welche eine berührungsempfindliche Bedienoberfläche aufweist, sowie Verfahren zum Betreiben einer Bedienvorrichtung eines Fahrzeugs

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1462297A2 (de) * 2003-03-26 2004-09-29 Calsonic Kansei Corporation Informationsanzeigegerät für Fahrzeuge
DE102004055835A1 (de) 2004-07-09 2006-02-02 Volkswagen Ag Anzeigeeinrichtung für ein Fahrzeug und Verfahren zur Anzeige von Informationen
DE102008037060A1 (de) 2008-08-08 2010-02-11 Bayerische Motoren Werke Aktiengesellschaft Anzeigesystem
DE102009038044A1 (de) 2009-08-19 2011-02-24 Audi Ag Fahrzeug und Verfahren zum Betreiben einer Bedieneinrichtung des Fahrzeugs
CN104729519A (zh) * 2013-12-23 2015-06-24 哈曼国际工业有限公司 利用三维导航系统的虚拟三维仪表组
DE102014222751A1 (de) * 2014-11-07 2016-05-12 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung für Fahrzeuge zur Bedienung von GUIs mit mehreren Ebenen

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4754776B2 (ja) 2003-08-04 2011-08-24 矢崎総業株式会社 虚像式メータ
DE102012000201A1 (de) * 2012-01-09 2013-07-11 Daimler Ag Verfahren und Vorrichtung zum Bedienen von auf einer Anzeigeeinheit eines Fahrzeugs angezeigten Funktionen unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt
DE102012012729A1 (de) * 2012-06-26 2014-01-02 Volkswagen Aktiengesellschaft Bedieneinrichtung für ein Fahrzeug und Verfahren zum Bedienen von Einrichtungen eines Fahrzeugs
DE102013000068A1 (de) * 2013-01-08 2014-07-10 Audi Ag Verfahren zum Synchronisieren von Anzeigeeinrichtungen eines Kraftfahrzeugs
JP5770770B2 (ja) * 2013-03-25 2015-08-26 本田技研工業株式会社 入力装置
DE102013006496A1 (de) * 2013-04-16 2014-10-16 Continental Automotive Gmbh Verfahren zum Betreiben eines Kraftfahrzeugs und Kraftfahrzeug zum Durchführen des Verfahrens
US9244532B2 (en) * 2013-12-31 2016-01-26 Immersion Corporation Systems and methods for controlling multiple displays with single controller and haptic enabled user interface
GB201411309D0 (en) * 2014-06-25 2014-08-06 Tomtom Int Bv Vehicular human machine interfaces
CN106687327B (zh) * 2014-09-29 2018-12-11 矢崎总业株式会社 车辆显示装置
DE102014019122B4 (de) 2014-12-19 2021-01-21 Audi Ag Verfahren zum Betreiben eines Anzeigesystems, Anzeigesystem und Kraftwagen mit einem Anzeigesystem
EP3040849B1 (de) * 2015-01-02 2019-03-13 Volkswagen AG Fortbewegungsmittel, Anwenderschnittstelle und Verfahren zur übergreifenden Anzeige eines Anzeigeinhaltes auf zwei Anzeigeeinrichtungen
DE102015216108A1 (de) * 2015-08-24 2017-03-02 Continental Automotive Gmbh Verfahren zum Auslösen mindestens eines Bearbeitungsschrittes durch Zuweisung eines Informationselements zu einem Gerät
KR102411497B1 (ko) * 2015-09-07 2022-06-22 삼성디스플레이 주식회사 다중 영상 표시 장치
US20180307405A1 (en) * 2017-04-21 2018-10-25 Ford Global Technologies, Llc Contextual vehicle user interface

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1462297A2 (de) * 2003-03-26 2004-09-29 Calsonic Kansei Corporation Informationsanzeigegerät für Fahrzeuge
DE102004055835A1 (de) 2004-07-09 2006-02-02 Volkswagen Ag Anzeigeeinrichtung für ein Fahrzeug und Verfahren zur Anzeige von Informationen
DE102008037060A1 (de) 2008-08-08 2010-02-11 Bayerische Motoren Werke Aktiengesellschaft Anzeigesystem
DE102009038044A1 (de) 2009-08-19 2011-02-24 Audi Ag Fahrzeug und Verfahren zum Betreiben einer Bedieneinrichtung des Fahrzeugs
CN104729519A (zh) * 2013-12-23 2015-06-24 哈曼国际工业有限公司 利用三维导航系统的虚拟三维仪表组
DE102014222751A1 (de) * 2014-11-07 2016-05-12 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung für Fahrzeuge zur Bedienung von GUIs mit mehreren Ebenen

Also Published As

Publication number Publication date
US11299045B2 (en) 2022-04-12
CN110709273A (zh) 2020-01-17
DE102017209562A1 (de) 2018-12-13
DE102017209562B4 (de) 2022-09-01
US20200079216A1 (en) 2020-03-12
CN110709273B (zh) 2023-03-28

Similar Documents

Publication Publication Date Title
WO2018224320A1 (de) Verfahren zum betreiben einer anzeigeanordnung eines kraftfahrzeugs, bedienvorrichtung, und kraftfahrzeug
EP2750915B1 (de) Verfahren und anordnung zum bereitstellen einer graphischen nutzerschnittstelle, insbesondere in einem fahrzeug
EP2059407B1 (de) Verfahren zum bedienen von einrichtungen eines fahrzeugs und bedienvorrichtung für solche einrichtungen
DE102008048825A1 (de) Anzeige- und Bediensystem in einem Kraftfahrzeug mit nutzerbeeinflussbarer Darstellung von Anzeigeobjekten sowie Verfahren zum Betreiben eines solchen Anzeige- und Bediensystems
EP3807119B1 (de) Verfahren zum betreiben einer anzeige- und bedienvorrichtung, anzeige- und bedienvorrichtung, und kraftfahrzeug
WO2008080465A1 (de) Berührungslos altivierbare anzeige- und bedienvorrichtung
DE102012018685B4 (de) System und Verfahren zur Steuerung von zumindest einem Fahrzeugsystem mittels von einem Fahrer durchgeführter Gesten
DE102015205931A1 (de) Bedienvorrichtung und Verfahren zum Bedienen zumindest einer Funktion eines Fahrzeugs
DE102013013696B4 (de) Infotainmentsystem für einen Kraftwagen, Kraftwagen mit einem Infotainmentsystem und Verfahren zum Betreiben eines Infotainmentsystems
DE102015201901B4 (de) Bestimmung einer Position eines fahrzeugfremden Objekts in einem Fahrzeug
DE102012011179A1 (de) Vorrichtung zur Bedienung einesKraftfahrzeuges
DE102014008296A1 (de) Schaltwippenvorrichtung, Lenkradvorrichtung mit der Schaltwippenvorrichtung sowie Steuerungsvorrichtung mit der Schaltwippen- oder Lenkradvorrichtung
DE102013022035B4 (de) Kraftfahrzeug-Bedienvorrichtung mit graphischer Benutzerschnittstelle, sowie Kraftfahrzeug und Verfahren
DE102022102504B9 (de) Verfahren zum Betreiben einer Schnittstellenvorrichtung in einem Fahrzeug, sowie Schnittstellenvorrichtung und Fahrzeug
DE102015011646A1 (de) Kraftfahrzeug mit mehrteiliger berührungssensitiver Bildschirmeinrichtung
DE102015011651B4 (de) Kraftfahrzeug mit zwei Touchscreens
DE102013019263B4 (de) Verfahren zum Betreiben einer Bedieneinrichtung sowie Fahrzeug mit einer Bedieneinrichtung
EP2885154B1 (de) Verfahren und eine bedien- und anzeigeeinrichtung zum betreiben einer interaktiven bedieneinrichtung
DE102013226012A1 (de) Bereitstellung eines Bedienelements durch Oberflächenveränderung
DE102019207696A1 (de) Kraftfahrzeug mit einer Bedienvorrichtung, Verfahren zum Wechseln einer Position eines Bedienelements mit einer berührungssensitiven Oberfläche, und Steuereinrichtung
DE102014213024A1 (de) Bedieneinrichtung für ein Kraftfahrzeug, Bediensystem sowie Verfahren zum Betreiben einer Bedieneinrichtung
WO2024046612A1 (de) Steuern einer funktion an bord eines kraftfahrzeugs
DE102021207239A1 (de) Führungsvorrichtung zur Führung einer Hand eines Nutzers eines Fahrzeugs und Verfahren zum Betreiben einer Führungsvorrichtung
DE102016201981A1 (de) Verfahren zum Auswählen, Aktivieren oder Deaktivieren einer Funktion in einem Kraftfahrzeug mithilfe einer Bedieneinrichtung und ein Bediensystem
DE102013000817A1 (de) Verfahren und eine Bedien- und Anzeigeeinrichtung zum Betreiben einer interaktiven Bedieneinrichtung

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18730653

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 18730653

Country of ref document: EP

Kind code of ref document: A1