DE102014202650A1 - Method and device for operating the mechanics of a motorically position-adjustable display unit - Google Patents

Method and device for operating the mechanics of a motorically position-adjustable display unit Download PDF

Info

Publication number
DE102014202650A1
DE102014202650A1 DE102014202650.4A DE102014202650A DE102014202650A1 DE 102014202650 A1 DE102014202650 A1 DE 102014202650A1 DE 102014202650 A DE102014202650 A DE 102014202650A DE 102014202650 A1 DE102014202650 A1 DE 102014202650A1
Authority
DE
Germany
Prior art keywords
display unit
gesture
steps
sensor
mechanics
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102014202650.4A
Other languages
German (de)
Inventor
Gordon SEITZ
Mark Peter Czelnik
Holger Wild
Nils Kötter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102014202650.4A priority Critical patent/DE102014202650A1/en
Priority to CN201510079335.1A priority patent/CN104850331A/en
Publication of DE102014202650A1 publication Critical patent/DE102014202650A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1601Constructional details related to the housing of computer displays, e.g. of CRT monitors, of flat displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/50Instruments characterised by their means of attachment to or integration in the vehicle
    • B60K35/53Movable instruments, e.g. slidable
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/14643D-gesture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Es werden eine Vorrichtung und ein Verfahren zum Bedienen der Mechanik (10) einer motorisch positionsveränderlichen Anzeigeeinheit (1) vorgeschlagen. Das Verfahren umfasst die folgenden Schritte: – Erfassen einer Geste eines Anwenders, – Analysieren der Geste, – Klassifizieren des Analyseergebnisses, und im Ansprechen auf ein vordefiniertes Klassifikationsergebnis – automatisches Ansteuern eines Motors (15) zur Positionsveränderung der Anzeigeeinheit (1).A device and a method for operating the mechanism (10) of a motor-position-variable display unit (1) are proposed. The method comprises the following steps: detecting a gesture of a user, analyzing the gesture, classifying the analysis result, and in response to a predefined classification result, automatically driving a motor (15) to change the position of the display unit (1).

Description

Die vorliegende Erfindung betrifft eine Vorrichtung und ein Verfahren zum Bedienen der Mechanik einer motorisch positionsveränderlichen Anzeigeeinheit. Insbesondere betrifft die vorliegende Erfindung intuitive Bedienschritte zum Bedienen einer positionsveränderlichen Anzeigeeinheit unter Verwendung bereits für andere Zwecke vorgesehener Hardware.The present invention relates to a device and a method for operating the mechanics of a motor-position-variable display unit. In particular, the present invention relates to intuitive operating steps for operating a positionally variable display unit using hardware already provided for other purposes.

Stand der TechnikState of the art

Im Stand der Technik sind für Mensch-Maschine-Schnittstellen (MMS, engl. „Human-Machine-Interface“ (HMI)) Anzeigevorrichtungen bekannt, welche zwischen einer verborgenen Position und einer ausgefahrenen Position bewegt werden können. Insbesondere für motorisch positionsveränderliche Anzeigeeinheiten haben sich separate Bedieneinheiten (Knöpfe, Taster o.Ä.) bewährt, mittels welcher der Anwender die eine oder andere Position für die Anzeigeeinheit ansteuern kann.In the prior art, human-machine interface (HMI) display devices are known which can be moved between a hidden position and an extended position. Separate operating units (buttons, buttons or the like) have proven to be particularly suitable for motorized position-variable display units, by means of which the user can control one or the other position for the display unit.

Moderne Fahrzeuge verfügen zudem über Sensorik, welche eine Gestenerkennung unterstützt. Mit Hilfe einer solchen Sensorik können einzelne Funktionen durch vordefinierte Gesten gestartet werden, ohne dass der jeweiligen Funktion ein eigenes Bedienelement zugeordnet ist.Modern vehicles also have sensors that support gesture recognition. With the help of such a sensor, individual functions can be started by predefined gestures, without the respective function having its own control element.

DE 10 2007 0123 141 B4 offenbart ein Verfahren zur Einstellung wenigstens eines Komfortsystems in einem Kraftfahrzeug, in welchem ein Nachjustieren einer Infotainmentanlage durch eine Handgeste vorgeschlagen wird. Beispielsweise wird unter Verwendung eines Kamerasystems ein Bereich der Mittelkonsole überwacht und im Ansprechen auf ein Erkennen einer vordefinierten Geste die Lautstärke, Balance, Fader usw. eines Infotainmentsystems eingestellt. DE 10 2007 0123 141 B4 discloses a method for adjusting at least one comfort system in a motor vehicle, in which a readjustment of an infotainment system by a hand gesture is proposed. For example, using a camera system, an area of the center console is monitored, and in response to a detection of a predefined gesture, the volume, balance, faders, etc. of an infotainment system are adjusted.

DE 20 2011 105 500 U1 offenbart eine Haltevorrichtung zur Halterung eines Tablet-PCs in einem Kraftfahrzeug, bei welcher eine Aufnahme in einen Schacht einschiebbar ist, um den Tablet-PC in eine verborgene Position zu bringen. Um den Tablet-PC in der verborgenen Position zu bedienen, wird ein Infrarotsensor an der Haltevorrichtung vorgeschlagen, der Gesten einer Bedienungsperson (z.B. eine Wischbewegung oder dergleichen) berührungslos erkennen kann. Die Bewegung der Haltevorrichtung in die verborgene Position bzw. aus der verborgenen Position wird in herkömmlicher Weise über eine Kippmechanik (z.B. in Verbindung mit Torsionsfedern) veranlasst. DE 20 2011 105 500 U1 discloses a holding device for holding a tablet PC in a motor vehicle, in which a receptacle is inserted into a slot to bring the tablet PC in a hidden position. In order to operate the tablet PC in the hidden position, an infrared sensor is proposed on the holding device, the gesture of an operator (eg, a swipe or the like) can detect contactless. The movement of the holding device in the hidden position or from the hidden position is caused in a conventional manner via a tilting mechanism (eg in conjunction with torsion springs).

Die vorstehend genannten Offenbarungen schöpfen die Möglichkeiten zur Erhöhung einer Bedienergonomie bei der Bedienung einer motorisch positionsveränderlichen Anzeigeeinheit nicht hinreichend aus. Es ist daher eine Aufgabe, den vorstehend genannten Bedarf zu stillen.The abovementioned disclosures do not adequately exploit the possibilities for increasing operator ergonomics in the operation of a motor-position-variable display unit. It is therefore an object to meet the above need.

Offenbarung der ErfindungDisclosure of the invention

Die vorstehend genannte Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen gemäß Anspruch 1 sowie durch eine Vorrichtung mit den Merkmalen gemäß Anspruch 9 gelöst. Das Verfahren dient der Bedienung einer Mechanik einer motorisch positionsveränderlichen Anzeigeeinheit. Die Anzeigeeinheit kann beispielsweise ein Bildschirm einer zentralen, in einem Fahrzeug befestigten, Mensch-Maschine-Schnittstelle sein. Je nach Kinematik der verwendeten Mechanik werden solche Geräte auch als „Flap-Display“ bezeichnet. Im Rahmen der vorliegenden Erfindung sei unter dem Begriff „motorisch“ grundsätzlich jegliche durch Fremdenergie angetriebene Positionsveränderung verstanden. Beispielsweise kann eine gespannte Feder in Verbindung mit einem Dämpfer für einen Antrieb der Mechanik sorgen. Klassischerweise werden jedoch Elektromotoren verwendet, welche eine besonders präzise und in weitem Umfang steuerbare Positionsveränderung ermöglichen. In einem ersten Schritt wird eine Geste eines Anwenders erfasst, was beispielsweise durch eine Annäherungssensorik erfolgen kann. Beispielsweise sind Ultraschallsendeempfänger, optische Systeme (Kamerasysteme) oder andere Sensoren (z.B. Infrarot-LED-Sendeempfänger, kapazitive Sensoren) verwendbar. Nachdem die Geste sensorisch erfasst worden ist, wird die Gestalt der Geste analysiert. Mit anderen Worten wird der räumliche Verlauf der Geste bzw. die Trajektorie des verwendeten Eingabemittels ermittelt und auf vorbestimmte Parameter hin untersucht. Diese Parameter können beispielsweise eine Geschwindigkeit, eine Form, ein Abstand zu dem Sensor bzw. zu der Anzeigeeinheit etc. sein. Anschließend wird das Analyseergebnis klassifiziert. Hierbei werden vordefinierte Bewegungsmuster, welche beispielsweise lokal gespeichert sein können, mit dem aktuell ermittelten Analyseergebnis verglichen. Sofern das Analyseergebnis mit einem vordefinierten Klassifikationsergebnis übereinstimmt, wird ein Motor zur Positionsveränderung der Anzeigeeinheit automatisch angesteuert. Auch kann das Ansteuern eine vordefinierte Trajektorie für die Anzeigeeinheit bewirken. Beispielsweise kann die Anzeigeeinheit aus einer entfalteten Position in eine verborgene Position oder umgekehrt aus einer verborgenen Position in eine vollständig entfaltete Position gebracht werden. Selbstverständlich sind auch in Abhängigkeit entsprechender vordefinierter Klassifikationsergebnisse Zwischenpositionen denkbar, welche beispielsweise unterschiedliche Neigungen oder Schwenkstellungen der Anzeigeeinheit aufweisen. Zusammengefasst sind also sämtliche Verstellbewegungen als motorische Positionsveränderungen möglich. Auf diese Weise können intuitive Bediengesten zur Positionsveränderung der Anzeigeeinheit verwendet werden und (da auf vorhandene Hardware zurückgegriffen werden kann) Kosten und Bauraum gespart werden.The above object is achieved by a method with the features of claim 1 and by a device having the features of claim 9. The method is used to operate a mechanism of a motor-positionally variable display unit. The display unit may, for example, be a screen of a central, vehicle-mounted, human-machine interface. Depending on the kinematics of the mechanics used, such devices are also referred to as "flap display". In the context of the present invention, the term "motor" basically means any position change driven by external energy. For example, can provide a tensioned spring in conjunction with a damper for a drive of the mechanism. Classically, however, electric motors are used, which allow a particularly precise and widely controllable position change. In a first step, a gesture of a user is detected, which can be done for example by a proximity sensor. For example, ultrasonic transceivers, optical systems (camera systems) or other sensors (eg infrared LED transceivers, capacitive sensors) can be used. After the gesture has been sensed, the shape of the gesture is analyzed. In other words, the spatial course of the gesture or the trajectory of the input means used is determined and examined for predetermined parameters. These parameters may be, for example, a speed, a shape, a distance to the sensor or to the display unit, etc. Subsequently, the analysis result is classified. In this case, predefined movement patterns, which may for example be stored locally, are compared with the currently determined analysis result. If the analysis result coincides with a predefined classification result, a motor for changing the position of the display unit is automatically activated. Also, the driving can cause a predefined trajectory for the display unit. For example, the display unit may be moved from a deployed position to a hidden position or vice versa from a hidden position to a fully deployed position. Of course, intermediate positions are also conceivable as a function of corresponding predefined classification results, which have, for example, different inclinations or swivel positions of the display unit. In summary, all adjustment movements are possible as motor position changes. In this way For example, intuitive operating gestures can be used to change the position of the display unit and save costs and installation space (since existing hardware can be used).

Die Unteransprüche zeigen bevorzugte Weiterbildungen der Erfindung.The dependent claims show preferred developments of the invention.

Bevorzugt kann die Geste optisch und/oder kapazitiv erkannt werden. Als optische Gestenerkennung sei im Rahmen der vorliegenden Erfindung auch eine Verwendung im Infrarotbereich arbeitender Lichtsendeempfangseinrichtungen (z.B. Infrarot-LED-Sendeempfangsarray) verstanden. Grundsätzlich sind erfindungsgemäß zum Einsatz kommende Gesten entweder als unter Kontakt mit einer Oberfläche (z.B. Oberfläche der Anzeigeeinheit) oder frei im Raum ausgeführte Gesten möglich. Die optische und/oder kapazitive Erkennung kann verschleißfrei ausgeführt werden, was Fehlfunktionen vorbeugt.Preferably, the gesture can be recognized optically and / or capacitively. Within the scope of the present invention, optical gesture recognition is also understood as meaning use in the infrared-transmitting light-emitting receiving devices (for example infrared LED transceiver array). In principle, gestures used in the present invention are possible either as gestures made in contact with a surface (e.g., surface of the display unit) or free in space. The optical and / or capacitive detection can be performed wear-free, which prevents malfunction.

Beispielsweise kann die Geste eine im Wesentlichen vertikale oder horizontale Wischgeste umfassen. Da die Trajektorie bekannter positionsveränderlicher Anzeigeeinheiten häufig eine vertikale Bewegung umfasst, ist eine vertikale Bewegung als Geste für den Anwender grundsätzlich besonders intuitiv. Wird jedoch beispielsweise eine horizontal erstreckte Annäherungssensorik (z.B. in Form einer Leiste unterhalb der Anzeigeeinheit) zur erfindungsgemäßen Gestenerkennung verwendet, kann eine im Wesentlichen horizontale Wischgeste auf oder vor der Sensorik ebenfalls für den Anwender intuitiv verstanden werden.For example, the gesture may include a substantially vertical or horizontal swipe gesture. Since the trajectory of known position-variable display units often comprises a vertical movement, a vertical movement as a gesture for the user is in principle particularly intuitive. However, if, for example, a horizontally extending proximity sensor (e.g., in the form of a bar below the display unit) is used for gesture recognition in accordance with the present invention, a substantially horizontal swipe gesture on or in front of the sensor can also be intuitively understood by the user.

Sofern der Schritt des Klassifizierens eine vertikale Wischgeste von unten nach oben ermittelt, kann die Position der Anzeigeeinheit in eine betriebsbereite Position verändert werden. Eine solche Position wird auch als „ausgefahrene“ Position bezeichnet. Mit anderen Worten ist die Anzeigeeinheit in der betriebsbereiten Position für den Anwender ablesbar.If the step of classifying a vertical swipe gesture determines from bottom to top, the position of the display unit can be changed to a ready position. Such a position is also referred to as an "extended" position. In other words, the display unit is readable in the ready position for the user.

Wird hingegen eine vertikale Wischgeste von oben nach unten klassifiziert, kann die Position der Anzeigeeinheit aus einer ausgefahrenen Position in eine verborgene Position verändert werden. In einer solchen verborgenen Position ist die Anzeigeeinheit zwar nicht einsehbar, ist jedoch vor mechanischen Einflüssen geschützt und schränkt das Blickfeld des Anwenders nicht unnötig ein.If, however, a vertical swipe gesture is classified from top to bottom, the position of the display unit can be changed from an extended position to a hidden position. Although the display unit is not visible in such a hidden position, it is protected against mechanical influences and does not restrict the field of vision of the user unnecessarily.

Wird eine horizontale Wischgeste klassifiziert, kann die Position der Anzeigeeinheit entweder von einer betriebsbereiten in eine verborgene Position oder aus der verborgenen Position in eine betriebsbereite Position verändert werden. Die Richtung der Positionsveränderung kann dabei einerseits in Abhängigkeit einer aktuellen Position erfolgen, indem bei Erkennen der horizontalen Wischgeste die aktuelle Position unabhängig von der Richtung der Wischgeste gewechselt wird. Andererseits kann die Richtung der Positionsveränderung in Abhängigkeit der Richtung der Wischgeste erfolgen, indem beispielsweise eine horizontale Wischgeste von links nach rechts die Anzeigeeinheit aus der verborgenen Position in die betriebsbereite Position, oder eine Wischgeste von rechts nach links die Anzeigeeinheit in eine betriebsbereite bringt. Auch der umgekehrte Fall ist selbstverständlich als im Rahmen der vorliegenden Erfindung zu verstehen.When classifying a horizontal swipe gesture, the position of the display unit can be changed from either an operational to a hidden position or from the hidden position to an operative position. The direction of the change in position can take place, on the one hand, as a function of a current position, in that the current position is changed independently of the direction of the swipe gesture when the horizontal swipe gesture is detected. On the other hand, the direction of the position change depending on the direction of the swipe gesture, for example, by a horizontal swipe gesture from left to right brings the display unit from the hidden position to the ready position, or a swipe gesture from right to left, the display unit into an operational. The reverse case is of course to be understood as part of the present invention.

Bevorzugt werden im Rahmen des Klassifizierens auch ein Startpunkt und ein Endpunkt der Geste berücksichtigt. Insbesondere kann eine relative Lage bzw. eine Entfernung zwischen dem Startpunkt und dem Endpunkt dahingehend ausgewertet werden, in welchem Maße bzw. zwischen welchen Positionen die Anzeigeeinheit zu bewegen ist. Insbesondere kann hierbei der Startpunkt der Geste zur aktuellen Position der Anzeigeeinheit korrespondieren, während der Endpunkt der Geste mit einer gewünschten Endposition der Anzeigeeinheit korrespondiert. Auf diese Weise ist eine intuitive Veränderung zwischen unterschiedlichen betriebsbereiten Positionen der Anzeigeeinheit möglich.In the context of classifying, a starting point and an end point of the gesture are preferably also taken into account. In particular, a relative position or a distance between the starting point and the end point can be evaluated to the extent to which or between which positions the display unit is to be moved. In particular, in this case the starting point of the gesture correspond to the current position of the display unit, while the end point of the gesture corresponds to a desired end position of the display unit. In this way, an intuitive change between different operational positions of the display unit is possible.

Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird eine Vorrichtung vorgeschlagen, durch welche die Vorteile des vorstehend beschriebenen Verfahrens verwirklicht werden. Die Vorrichtung umfasst eine Mechanik zur motorischen Positionsveränderung einer Anzeigeeinheit. Weiter umfasst die Vorrichtung einen Sensor zur Erfassung einer Geste eines Anwenders. Zum Auswerten der Sensorsignale ist eine Auswerteeinheit vorgesehen, welche zum Analysieren der Geste sowie zum Klassifizieren des Analyseergebnisses eingerichtet ist. Weiter ist die Auswerteeinheit eingerichtet, Referenzwerte zur Verwendung bei der Klassifikation auszulesen und in Verbindung mit dem Analyseergebnis zu verarbeiten. In Abhängigkeit der Klassifikation wird eine der ermittelten Klasse zugeordnete motorische Positionsveränderung der Anzeigeeinheit durch entsprechende Ansteuerung der Mechanik vorgenommen. Die Merkmale, Merkmalskombinationen sowie die sich aus diesen ergebenden Vorteile entsprechen denen in Verbindung mit dem erstgenannten Erfindungsaspekt ausgeführten derart ersichtlich, dass zur Vermeidung von Wiederholungen auf die obigen Ausführungen verwiesen werden darf.According to a second aspect of the present invention, an apparatus is proposed by which the advantages of the method described above are realized. The device comprises a mechanism for the motoric position change of a display unit. Furthermore, the device comprises a sensor for detecting a gesture of a user. To evaluate the sensor signals, an evaluation unit is provided, which is set up to analyze the gesture and to classify the analysis result. Furthermore, the evaluation unit is set up to read out reference values for use in the classification and to process them in conjunction with the analysis result. Depending on the classification, a motor position change of the display unit assigned to the determined class is carried out by appropriate actuation of the mechanism. The features, combinations of features and the advantages resulting from these correspond to those in connection with the first-mentioned aspect of the invention executed such that may be made to avoid repetition of the above statements.

Die Anzeigeeinheit kann Bestandteil des erfindungsgemäßen Schutzbereiches sein, ist jedoch kein essentielles Merkmal. Bei der bestimmungsgemäßen Verwendung jedoch wird die Anzeigeeinheit durch die erfindungsgemäße Mechanik zumindest zwischen einer betriebsbereiten und einer verborgenen Position bewirkt. Die verborgene Position ermöglicht einen maximalen mechanischen Schutz und gewährleistet eine minimale Einschränkung des Sichtfeldes des Anwenders, sofern dieser die Anzeigeeinheit nicht bestimmungsgemäß verwenden möchte. Die betriebsbereite Position hingegen ermöglicht eine bestimmungsgemäße Verwendung der Anzeigeeinheit.The display unit may be part of the scope of the invention, but is not an essential feature. In the intended use, however, the display unit is effected by the mechanism according to the invention at least between an operational and a hidden position. The hidden position allows maximum mechanical protection and ensures a minimum restriction of the field of view of the user, if he does not want to use the display unit as intended. The ready position, however, allows a proper use of the display unit.

Der erfindungsgemäß verwendete Sensor kann zudem eingerichtet sein, im bestimmungsgemäßen Betrieb der Anzeigeeinheit eine Steuerung von Anzeigeinhalten vorzunehmen. Beispielsweise können somit Gesten zur Steuerung eines Menüs verwendet werden, welches auf der Anzeigeeinheit dargestellt wird. Da ein solcher Sensor ohnehin erforderlich ist, kann die erfindungsgemäße Vorrichtung unter Verwendung vorhandener Hardware kostengünstig implementiert werden.The sensor used according to the invention can also be set up to carry out a control of display contents during normal operation of the display unit. For example, gestures can thus be used to control a menu, which is displayed on the display unit. Since such a sensor is required anyway, the device according to the invention can be implemented inexpensively using existing hardware.

Der Sensor kann beispielsweise als LED-Array ausgestaltet sein, welches insbesondere im Wesentlichen horizontal in einem Fortbewegungsmittel verbaut sein kann. Zur Erkennung von Gesten im Bereich der Anzeigeeinheit wird zudem vorgeschlagen, dass das LED-Array in einem Bereich kurz unterhalb der ausgefahrenen Anzeigeeinheit angeordnet ist. Eine Bedienung auf der Anzeigeeinheit angezeigter Menüpunkte ist auf diese Weise ebenso intuitiv wie die erfindungsgemäße Bedienung der Mechanik zur Positionsveränderung.The sensor can be designed, for example, as an LED array, which in particular can be installed substantially horizontally in a means of locomotion. For detecting gestures in the area of the display unit, it is also proposed that the LED array is arranged in a region just below the extended display unit. An operation on the display unit displayed menu items is as intuitive as the inventive operation of the mechanism for position change in this way.

Gemäß einem dritten Aspekt der vorliegenden Erfindung wird ein Computerprogrammprodukt vorgeschlagen, welches Instruktionen erhält, die, wenn sie durch einen programmierbaren Prozessor (z.B. in einem elektronischen Steuergerät) eingelesen werden, den Prozessor einrichten und veranlassen, die Schritte eines Verfahrens durchzuführen, wie es in Verbindung mit dem erstgenannten Erfindungsaspekt beschrieben worden ist.According to a third aspect of the present invention, there is provided a computer program product which receives instructions which, when read by a programmable processor (eg, in an electronic control unit), set up the processor and cause it to perform the steps of a method as described in US Pat has been described with the first-mentioned aspect of the invention.

Entsprechend wird eine Signalfolge vorgeschlagen, welche Instruktionen repräsentiert, wie sie auf dem erfindungsgemäßen Computerprogrammprodukt gespeichert sind. Mit anderen Worten wird die informationstechnische Verbreitung und Umsetzung des erfindungsgemäßen Verfahrens unabhängig von einer mechanischen/gegenständlichen Ausführung unter Schutz gestellt.Accordingly, a signal sequence is proposed which represents instructions as stored on the computer program product according to the invention. In other words, the information technology dissemination and implementation of the method according to the invention is made independent of a mechanical / representational execution under protection.

Gemäß einem fünften Aspekt der vorliegenden Erfindung wird ein Fahrzeug vorgeschlagen, welches eine Anzeigeeinheit (z.B. in einem Kombiinstrument, als zentrales Informationsdisplay (engl. „central information display“, CID)) umfasst. Die Anzeigeeinheit ist über eine Mechanik einer erfindungsgemäßen Vorrichtung motorisch positionsveränderlich aufgehängt, wodurch die Vorteile und Merkmalskombinationen des erfindungsgemäßen Verfahrens für das Fortbewegungsmittel bzw. das Fahrzeug (z.B. ein Pkw) verwirklicht werden.According to a fifth aspect of the present invention, there is proposed a vehicle including a display unit (e.g., in an instrument panel, as a central information display (CID)). The display unit is suspended by means of a mechanism of a device according to the invention so that the advantages and combinations of features of the method according to the invention for the means of locomotion or the vehicle (for example a passenger car) are realized.

Wenn im Rahmen der vorliegenden Erfindung von einer Geste bzw. der Analyse der Geste die Rede ist, sei hierunter zusätzlich zur beispielhaft erwähnten Wischgeste auch eine Touchgeste verstanden, welche beispielsweise auf einem Sensor zur Annäherungssensorik oder vor einem solchen Sensor frei im Raum ausgeführt wird. Ausgeschlossen sei im Rahmen der vorliegenden Erfindung jedoch eine Sensorik, welche keine Analyse der Geste selbst, sondern lediglich ein Erkennen z.B. eines Schließens eines elektrischen Kontaktes ermöglicht, ohne Rückschlüsse auf die Gestalt der Geste zuzulassen. Bei der Auswertung von Annäherungsgesten (Klick-Bewegung, Tippbewegung o.Ä.) kann das motorische Verändern der Position der Anzeigevorrichtung auch stufenweise erfolgen. Beispielsweise kann die Position der Anzeigevorrichtung in vordefinierten Prozentschritten ausgefahren bzw. eingefahren (verborgen) werden. Insbesondere kann die Bewegungsrichtung nach dem Erreichen einer Extremstellung (vollständig verborgen bzw. vollständig ausgefahren) umgekehrt werden, sofern weitere Touchgesten ausgeführt werden.If, in the context of the present invention, a gesture or the analysis of the gesture is mentioned, in addition to the wiping gesture mentioned by way of example this also means a touch gesture, which is carried out freely in the room, for example on a sensor for approach sensor technology or in front of such a sensor. In the context of the present invention, however, a sensor system is excluded which does not involve any analysis of the gesture itself, but only detection, e.g. a conclusion of an electrical contact allows without allowing conclusions about the shape of the gesture. When evaluating approach gestures (click movement, tilting movement or similar), the motorized changing of the position of the display device can also take place in stages. For example, the position of the display device can be extended or retracted (hidden) in predefined percentage steps. In particular, the direction of movement after reaching an extreme position (completely hidden or fully extended) can be reversed, if further touch gestures are executed.

Kurze Beschreibung der ZeichnungenBrief description of the drawings

Nachfolgend werden Ausführungsbeispiele der Erfindung unter Bezugnahme auf die begleitenden Zeichnungen im Detail beschrieben. In den Zeichnungen ist:Hereinafter, embodiments of the invention will be described in detail with reference to the accompanying drawings. In the drawings:

1 eine schematische Übersicht zu den Komponenten eines Ausführungsbeispiels eines erfindungsgemäßen Fortbewegungsmittels; 1 a schematic overview of the components of an embodiment of a means of transport according to the invention;

2 eine Detailansicht zu Komponenten eines Ausführungsbeispiels einer erfindungsgemäßen Vorrichtung; 2 a detailed view of components of an embodiment of a device according to the invention;

3 eine schematische Darstellung eines Bedienschrittes in Verbindung mit einem Ausführungsbeispiel einer erfindungsgemäßen Anzeigeeinheit; und 3 a schematic representation of an operating step in conjunction with an embodiment of a display unit according to the invention; and

4 ein Flussdiagramm veranschaulichend Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens. 4 a flowchart illustrating steps of an embodiment of a method according to the invention.

Ausführungsformen der ErfindungEmbodiments of the invention

1 zeigt einen Pkw 20 als Fortbewegungsmittel, in dessen Armaturenbrett ein Display 1 als Anzeigeeinheit angeordnet ist. Das Display 1 ist Teil eines CID („central information display“). Das Display 1 ist mit einem elektronischen Steuergerät 4 als Auswerteeinheit verbunden. Unterhalb des Displays 1 ist eine horizontale Infrarot-LED-Leiste 2 als Sensor angeordnet, welche informationstechnisch mit dem elektronischen Steuergerät 4 verbunden ist. 1 shows a car 20 as a means of transport, in the dashboard, a display 1 is arranged as a display unit. the display 1 is part of a CID (central information display). the display 1 is with an electronic control unit 4 connected as evaluation unit. Below the display 1 is a horizontal infrared LED strip 2 arranged as a sensor, which information technology with the electronic control unit 4 connected is.

2 zeigt eine Detailansicht zu Komponenten eines Ausführungsbeispiels einer erfindungsgemäßen Vorrichtung. Links und rechts neben dem Display 1 sind in Hardware ausgestaltete Bedieneinheiten 19a, 19b angeordnet. Unterhalb des Displays 1 ist eine Infrarot-LED-Leiste 2 als Sensor angeordnet, welche durch eine Hand 3 eines Anwenders bedient wird. Das Display 1 ist mit einem Getriebe 10 als Mechanik verbunden, mittels welchem es entlang des Pfeils P von einer verborgenen in eine betriebsbereite Position (und umgekehrt) gebracht werden kann. Zum Ansteuern der Mechanik 10 ist ein Elektromotor 15 vorgesehen, welcher über elektrische Anschlüsse 16, 17 durch eine elektrische Spannungsquelle 18 mit elektrischer Energie versorgt werden kann. Der Elektromotor 15 ist mit einer Gewindestange 13 mechanisch gekoppelt, auf welche eine Gewindehülse 12b aufgeschraubt ist. Schwenkfähig mit der Gewindehülse 12b ist ein Stab 11b gekoppelt, der wiederum einen Teil einer zusätzlich den Stab 11a umfassenden Scherenmechanik bildet. Displayseitig ist eine Hülse 12a schwenkfähig mit dem Stab 11a gekoppelt. Die Hülse 12a ist auf einem Führungsstab 14 im Wesentlichen horizontal verschieblich gelagert. Versetzt nun der Elektromotor 15 den Gewindestab 13 in Rotation (z.B. im Ansprechen auf einen Befehl eines elektronischen Steuergerätes 4), verschiebt sich die Gewindehülse 12b, im Ansprechen worauf die Scherenmechanik 11a, 11b das Display 1 hebt bzw. senkt. In Abhängigkeit vordefinierter Klassen für Gesten zur Bedienung der erfindungsgemäßen Vorrichtung kann die Hand 3 eine Touchgeste oder eine Wischgeste auf der Infrarot-LED-Leiste ausführen. Selbstverständlich können unterschiedliche Gesten zu ähnlichen Bewegungen des Displays 1 führen, um unterschiedlichen Anwendervorlieben gerecht zu werden. 2 shows a detailed view of components of an embodiment of a device according to the invention. Left and right of the display 1 are hardware-based operating units 19a . 19b arranged. Below the display 1 is an infrared LED strip 2 arranged as a sensor, which by a hand 3 operated by a user. the display 1 is with a gearbox 10 connected as a mechanism by means of which it can be brought along the arrow P from a hidden to an operative position (and vice versa). To control the mechanics 10 is an electric motor 15 provided, which via electrical connections 16 . 17 by an electrical voltage source 18 can be supplied with electrical energy. The electric motor 15 is with a threaded rod 13 mechanically coupled, on which a threaded sleeve 12b is screwed on. Swiveling with the threaded sleeve 12b is a bar 11b coupled, in turn, part of an additional the rod 11a forms comprehensive scissors mechanism. Display side is a sleeve 12a swiveling with the rod 11a coupled. The sleeve 12a is on a management staff 14 mounted substantially horizontally displaceable. Now put the electric motor 15 the threaded rod 13 in rotation (eg in response to a command from an electronic control unit 4 ), the threaded sleeve shifts 12b , in response to what the scissors mechanics 11a . 11b the display 1 raises or lowers. Depending on predefined classes for gestures for operating the device according to the invention, the hand can 3 perform a touch gesture or a swipe gesture on the infrared LED bar. Of course, different gestures can lead to similar movements of the display 1 lead to different user preferences.

3 zeigt eine alternative Geste zum Bedienen der in 2 dargestellten Vorrichtung. Die Hand 3 bzw. 3‘ des Anwenders führt eine vertikale, lineare Geste vor dem Display 1 im Erfassungsbereich der Infrarot-LED-Leiste 2 aus. Entsprechend senkt sich das Display 1 aus einer betriebsbereiten Position in eine verborgene Position entlang des Pfeiles P. 3 shows an alternative gesture to operate in 2 illustrated device. The hand 3 respectively. 3 ' of the user performs a vertical, linear gesture in front of the display 1 within the detection range of the infrared LED strip 2 out. Accordingly, the display lowers 1 from an operative position to a hidden position along the arrow P.

4 zeigt ein Flussdiagramm veranschaulichend Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens. Dabei wird in Schritt 100 eine Geste eines Anwenders erfasst, die Geste in Schritt 200 analysiert und das Analyseergebnis in Schritt 300 klassifiziert. Im Ansprechen auf ein vordefiniertes Klassifikationsergebnis wird in Schritt 400 ein Motor zur Positionsveränderung der Anzeigeeinheit automatisch angesteuert. Dies kann beispielsweise unter Verwendung eines elektronischen Steuergerätes eines Fortbewegungsmittels erfolgen. Da im Beispiel die vertikale Wischgeste von unten nach oben gerichtet ist, wird in Schritt 500 die Position der Anzeigeeinheit in eine betriebsbereite Position verändert. Anschließend wird eine entgegengesetzt orientierte vertikale Wischgeste von oben nach unten erkannt und die Position der Anzeigeeinheit in Schritt 600 in eine verborgene Position verändert. 4 1 is a flowchart illustrating steps of an embodiment of a method according to the invention. This is in step 100 a gesture of a user captures the gesture in step 200 analyzed and the analysis result in step 300 classified. In response to a predefined classification result, in step 400 a motor for changing the position of the display unit automatically controlled. This can be done, for example, using an electronic control device of a means of locomotion. In the example, since the vertical swipe gesture is directed from bottom to top, in step 500 changed the position of the display unit to a ready position. Subsequently, an oppositely oriented vertical swipe gesture is recognized from top to bottom and the position of the display unit in step 600 changed to a hidden position.

Auch wenn die erfindungsgemäßen Aspekte und vorteilhaften Ausführungsformen anhand der in Verbindung mit den beigefügten Zeichnungsfiguren erläuterten Ausführungsbeispiele im Detail beschrieben worden sind, sind für den Fachmann Modifikationen und Kombinationen von Merkmalen der dargestellten Ausführungsbeispiele möglich, ohne den Bereich der vorliegenden Erfindung zu verlassen, deren Schutzbereich durch die beigefügten Ansprüche definiert wird.Although the aspects and advantageous embodiments of the invention have been described in detail with reference to the embodiments explained in connection with the accompanying drawings, modifications and combinations of features of the illustrated embodiments are possible for the skilled person, without departing from the scope of the present invention, the scope of protection the appended claims are defined.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

11
Display display
22
Infrarot-LED-Leiste Infrared LED bar
3, 3‘3, 3 '
Hand hand
44
elektronisches Steuergerät electronic control unit
1010
Mechanik mechanics
11a, 11b11a, 11b
Stäbe einer Scherenmechanik Bars of a scissor mechanism
12a12a
Hülse shell
12b12b
Gewindehülse threaded sleeve
1313
Gewindestab threaded rod
1414
Führungsstab Corporate Office
1515
Elektromotor electric motor
16, 1716, 17
elektrische Anschlüsse electrical connections
1818
Spannungsquelle voltage source
19a, 19b19a, 19b
Bedienknöpfe (Hardware) Control buttons (hardware)
2020
Pkw car
100–600100-600
Verfahrensschritte steps
PP
Pfeil arrow

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 1020070123141 B4 [0004] DE 1020070123141 B4 [0004]
  • DE 202011105500 U1 [0005] DE 202011105500 U1 [0005]

Claims (15)

Verfahren zum Bedienen einer Mechanik (10) einer motorisch positionsveränderlichen Anzeigeeinheit (1) umfassend die Schritte: – Erfassen (100) einer Geste eines Anwenders, – Analysieren (200) der Geste, – Klassifizieren (300) des Analyseergebnisses, und im Ansprechen auf ein vordefiniertes Klassifikationsergebnis – automatisches Ansteuern (400) eines Motors (15) zur Positionsveränderung der Anzeigeeinheit (1).Method for operating a mechanism ( 10 ) of a motorically positionable display unit ( 1 ) comprising the steps of: - detecting ( 100 ) a gesture of a user, - analyze ( 200 ) of the gesture, - classify ( 300 ) of the analysis result, and in response to a predefined classification result - automatic triggering ( 400 ) of an engine ( 15 ) for changing the position of the display unit ( 1 ). Verfahren nach Anspruch 1, wobei die Geste optisch und/oder kapazitiv erkannt wird.The method of claim 1, wherein the gesture is recognized optically and / or capacitively. Verfahren nach Anspruch 1 oder 2, wobei die Geste eine im Wesentlichen vertikale oder horizontale Wischgeste umfasst.The method of claim 1 or 2, wherein the gesture comprises a substantially vertical or horizontal swipe gesture. Verfahren nach einem der vorstehenden Ansprüche, weiter umfassend die Schritte eines Klassifizierens einer vertikalen Wischgeste von unten nach oben, und Verändern (500) der Position der Anzeigeeinheit (1) in eine betriebsbereite Position. The method of any one of the preceding claims, further comprising the steps of classifying a bottom-up vertical swipe gesture, and modifying ( 500 ) the position of the display unit ( 1 ) in a ready position. Verfahren nach einem der vorstehenden Ansprüche weiter umfassend die Schritte eines Klassifizierens einer vertikalen Wischgeste von oben nach unten, und Verändern (600) der Position der Anzeigeeinheit (1) in eine verborgene Position. Method according to one of the preceding claims further comprising the steps of classifying a vertical swipe gesture from top to bottom, and modifying ( 600 ) the position of the display unit ( 1 ) in a hidden position. Verfahren nach einem der vorstehenden Ansprüche weiter umfassend den Schritte eines Klassifizierens einer horizontalen Wischgeste unter Kontakt mit der Anzeigeeinheit (1), und Verändern der Position der Anzeigeeinheit (1) in eine verborgene Position. Method according to one of the preceding claims, further comprising the steps of classifying a horizontal swipe gesture in contact with the display unit ( 1 ), and changing the position of the display unit ( 1 ) in a hidden position. Verfahren nach einem der vorstehenden Ansprüche, wobei das Klassifizieren zumindest hinsichtlich eines Startpunktes und eines Endpunktes der Geste erfolgt. Method according to one of the preceding claims, wherein the classification takes place at least with regard to a starting point and an end point of the gesture. Verfahren nach einem der vorstehenden Ansprüche, wobei das Verfahren weiter umfasst im Ansprechen auf das Analyseergebnis und/oder im Ansprechen auf ein vordefiniertes Klassifikationsergebnis – Auswählen einer vorbestimmten Endposition für eine Bewegung der Mechanik (10) und – Ansteuern der Mechanik (10) zur Positionsveränderung auf die Endposition. Method according to one of the preceding claims, wherein the method further comprises in response to the analysis result and / or in response to a predefined classification result - selecting a predetermined end position for a movement of the mechanism ( 10 ) and - controlling the mechanics ( 10 ) for position change to the end position. Vorrichtung umfassend – eine Mechanik (10) zur motorischen Positionsveränderung einer Anzeigeeinheit (1), – einen Sensor (2), und – eine Auswerteeinheit (4), wobei der Sensor (2) eingerichtet ist, eine Geste eines Anwenders zu erfassen, – die Auswerteeinheit (3) eingerichtet ist, – die Geste zu analysieren (200), – das Auswerteergebnis zu klassifizieren (300), und im Ansprechen auf ein vordefiniertes Klassifikationsergebnis – die Mechanik (10) zur motorischen Positionsveränderung der Anzeigeeinheit (1) anzusteuern.Device comprising - a mechanism ( 10 ) for the motor position change of a display unit ( 1 ), - a sensor ( 2 ), and - an evaluation unit ( 4 ), whereby the sensor ( 2 ) is arranged to detect a gesture of a user, - the evaluation unit ( 3 ) is set up to analyze the gesture ( 200 ), - to classify the evaluation result ( 300 ), and in response to a predefined classification result - the mechanics ( 10 ) to the motor position change of the display unit ( 1 ) head for. Vorrichtung nach Anspruch 9 weiter umfassend die Anzeigeeinheit (1), welche eingerichtet ist, in Abhängigkeit des Klassifikationsergebnisses mittels der Mechanik (10) in eine verborgene Position oder in eine betriebsbereite Position gebracht zu werden.Device according to claim 9, further comprising the display unit ( 1 ), which is set up, depending on the classification result by means of the mechanics ( 10 ) to be placed in a hidden position or in an operative position. Vorrichtung nach Anspruch 9 oder 10, wobei der Sensor (2) eingerichtet ist, im Betrieb eine Steuerung von Anzeigeinhalten der Anzeigeeinheit (1) vorzunehmen.Apparatus according to claim 9 or 10, wherein the sensor ( 2 ) is arranged, in operation, a control of display contents of the display unit ( 1 ). Vorrichtung nach einem der Ansprüche 9 bis 11, wobei der Sensor (2) ein LED-Array umfasst, welches insbesondere im Wesentlichen horizontal, bevorzugt im Bereich unterhalb einer Position der ausgefahrenen Anzeigeeinheit (1), angeordnet ist.Device according to one of claims 9 to 11, wherein the sensor ( 2 ) comprises an LED array, which in particular is substantially horizontal, preferably in the region below a position of the extended display unit (US Pat. 1 ) is arranged. Computerprogrammprodukt umfassend Instruktionen, welche, wenn sie durch einen programmierbaren Prozessor eingelesen werden, den Prozessor einrichten, die Schritte eines Verfahrens gemäß einem der Ansprüche 1 bis 8 durchzuführen. A computer program product comprising instructions which, when read by a programmable processor, set up the processor to perform the steps of a method according to any one of claims 1 to 8. Signalfolge repräsentierend Instruktionen, welche, wenn sie durch einen programmierbaren Prozessor eingelesen werden, den Prozessor einrichten, die Schritte eines Verfahrens gemäß einem der Ansprüche 1 bis 8 durchzuführen.Signal sequence representing instructions which, when read by a programmable processor, set up the processor to perform the steps of a method according to any one of claims 1 to 8. Fortbewegungsmittel, insbesondere Fahrzeug (20), umfassend eine – Anzeigeeinheit (1) und – eine Vorrichtung gemäß einem der Ansprüche 9 bis 12.Means of transport, in particular vehicle ( 20 ), comprising a display unit ( 1 ) and - a device according to one of claims 9 to 12.
DE102014202650.4A 2014-02-13 2014-02-13 Method and device for operating the mechanics of a motorically position-adjustable display unit Pending DE102014202650A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102014202650.4A DE102014202650A1 (en) 2014-02-13 2014-02-13 Method and device for operating the mechanics of a motorically position-adjustable display unit
CN201510079335.1A CN104850331A (en) 2014-02-13 2015-02-13 Method and apparatus for operating mechanism of motor-position variable display unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014202650.4A DE102014202650A1 (en) 2014-02-13 2014-02-13 Method and device for operating the mechanics of a motorically position-adjustable display unit

Publications (1)

Publication Number Publication Date
DE102014202650A1 true DE102014202650A1 (en) 2015-08-13

Family

ID=53676919

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014202650.4A Pending DE102014202650A1 (en) 2014-02-13 2014-02-13 Method and device for operating the mechanics of a motorically position-adjustable display unit

Country Status (2)

Country Link
CN (1) CN104850331A (en)
DE (1) DE102014202650A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020201252A1 (en) 2020-02-03 2021-08-05 Volkswagen Aktiengesellschaft Control device for controlling vehicle functions

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108813373A (en) * 2018-06-28 2018-11-16 吴承章 A kind of soya sauce production flavouring device increasing acceleration molecular collision based on air pressure

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202011105500U1 (en) 2011-09-09 2012-12-11 Paragon Ag Holding device for holding a tablet PC in a motor vehicle

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2807978B1 (en) * 2000-04-20 2002-08-02 Ecia Equip Composants Ind Auto INFORMATION DISPLAY UNIT FOR A DASHBOARD OF A MOTOR VEHICLE AND CORRESPONDING MOTOR VEHICLE
DE10131039C2 (en) * 2001-06-29 2003-05-15 Caa Ag Control element for a vehicle computer system and vehicle computer system
JP3988584B2 (en) * 2002-08-27 2007-10-10 松下電器産業株式会社 Multi-directional input device
JP4246466B2 (en) * 2002-10-04 2009-04-02 富士通テン株式会社 In-vehicle display device
JP4303059B2 (en) * 2003-08-08 2009-07-29 株式会社東海理化電機製作所 Operation switch and start / stop system for vehicle engine
CN101405177A (en) * 2006-03-22 2009-04-08 大众汽车有限公司 Interactive operating device and method for operating the interactive operating device
JP2007326491A (en) * 2006-06-08 2007-12-20 Toyota Motor Corp Vehicular input device
US20110310005A1 (en) * 2010-06-17 2011-12-22 Qualcomm Incorporated Methods and apparatus for contactless gesture recognition
CN103246351B (en) * 2013-05-23 2016-08-24 刘广松 A kind of user interactive system and method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202011105500U1 (en) 2011-09-09 2012-12-11 Paragon Ag Holding device for holding a tablet PC in a motor vehicle

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020201252A1 (en) 2020-02-03 2021-08-05 Volkswagen Aktiengesellschaft Control device for controlling vehicle functions

Also Published As

Publication number Publication date
CN104850331A (en) 2015-08-19

Similar Documents

Publication Publication Date Title
DE102016216415B4 (en) Method for controlling a display device for a motor vehicle and motor vehicle with a display device
EP3105077B1 (en) Device and method for signalling a successful gesture input
DE102014019125B4 (en) Motor vehicle with a control device and method for controlling a device depending on a seat inclination
EP3484738B1 (en) Vehicle having an operator control and display device and method for operating such a vehicle
DE102015206953B4 (en) Device and method for adapting an operating mode of an ambient light strip of a means of locomotion
WO2015062751A1 (en) Method for operating a device for the contactless detection of objects and/or persons and their gestures and/or of control operations in a vehicle interior
EP3494004B1 (en) Method for controlling a display device for a vehicle and vehicle with a display device
WO2013001084A1 (en) Apparatus and method for contactlessly detecting objects and/or persons and gestures and/or operating procedures made and/or carried out thereby
DE102014009960A1 (en) Method and system for the hands-free operation of an electric window of a vehicle
DE102013000068A1 (en) Method for synchronizing display devices of a motor vehicle
EP3108331B1 (en) User interface and method for contactlessly operating a hardware operating element in a 3-d gesture mode
EP3393843A1 (en) Vehicle with an image capturing unit and an operating system for operating devices of the vehicle and method for operating the operating system
DE102014015403A1 (en) Operating device for controlling at least one function of at least one motor vehicle side device
EP2487069B1 (en) Inner rear view unit for motor vehicles
EP3254172B1 (en) Determination of a position of a non-vehicle object in a vehicle
WO2014108147A1 (en) Zooming and shifting of image content of a display device
DE102014222668A1 (en) Control unit for at least one electrically controllable device
WO2015162058A1 (en) Gesture interaction with a driver information system of a vehicle
DE102014202650A1 (en) Method and device for operating the mechanics of a motorically position-adjustable display unit
DE102015122600A1 (en) Method and system for acquiring personalization data for at least one device of a vehicle using a mobile device
DE102014012754A1 (en) Control panel for setting at least two seat functions, seat with control panel and method for setting at least two seat functions
DE102018222869A1 (en) Operating system for a vehicle and method for operating an operating system
DE102019218386B4 (en) Method and device for adjusting a position of an adjustable vehicle part
DE102019132035A1 (en) Method and vehicle for the gesture-based actuation of vehicle parts
WO2014114428A1 (en) Method and system for controlling, depending on the line of vision, a plurality of functional units, motor vehicle and mobile terminal having said system

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed