DE102016213313A1 - Vorrichtung und Verfahren zur Unterstützung eines Anwenders - Google Patents

Vorrichtung und Verfahren zur Unterstützung eines Anwenders Download PDF

Info

Publication number
DE102016213313A1
DE102016213313A1 DE102016213313.6A DE102016213313A DE102016213313A1 DE 102016213313 A1 DE102016213313 A1 DE 102016213313A1 DE 102016213313 A DE102016213313 A DE 102016213313A DE 102016213313 A1 DE102016213313 A1 DE 102016213313A1
Authority
DE
Germany
Prior art keywords
user
function
locomotion
zone
spatial position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102016213313.6A
Other languages
English (en)
Inventor
Ioannis Toptsis
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102016213313.6A priority Critical patent/DE102016213313A1/de
Priority to EP17736660.6A priority patent/EP3488320B1/de
Priority to PCT/EP2017/066854 priority patent/WO2018015165A1/de
Publication of DE102016213313A1 publication Critical patent/DE102016213313A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/14643D-gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/164Infotainment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Es werden eine Vorrichtung und ein Verfahren zur Ansteuerung einer Funktion eines Anwendungssystems (A1, A2, A3) eines Fortbewegungsmittels (10), insbesondere eines Kraftfahrzeugs, vorgeschlagen. Das Verfahren umfasst die Schritte: sensorisches Erkennen (400) einer dreidimensional im Raum von einem Anwender (1) ausgeführten und mittels eines Sensors (401) erfassten Zeigegeste (4); automatisches Zuordnen (500) einer durch die Zeigegeste (4) adressierten Raumposition (5) an dem und/oder innerhalb des Fortbewegungsmittels (10); und im Ansprechen darauf: Ansteuern (600) der Funktion in Abhängigkeit von der adressierten Raumposition (5).

Description

  • Die Erfindung betrifft eine Anwenderschnittstelle sowie ein Verfahren zur Unterstützung eines Anwenders bei der Ansteuerung einer Funktion eines Anwendungssystems, beispielsweise eines Audio- und/oder Entertainment- und/oder Beleuchtungssystems und/oder einer Bewegungssteuerungseinrichtung. Insbesondere betrifft die vorliegende Erfindung die Unterstützung eines Führers eines Fortbewegungsmittels, vorzugsweise eines Fahrers eines Kraftfahrzeugs oder eines Piloten eines Flugzeugs, beim berührungslosen Bedienen einer Fortbewegungsmittel-basierten Anwenderschnittstelleneinheit eines Anwendungssystems während des Führens des Fortbewegungsmittels.
  • Im Stand der Technik hat sich die Bedienung von Anwenderschnittstellen, insbesondere von Mensch-Maschine-Schnittstellen (englisch: man-machine-interface, abgekürzt: MMI), zunehmend weiterentwickelt, weg von der herkömmlich haptischen Bedienung, beispielsweise mittels Schaltern und Knöpfen, hin zu zunehmend intelligenten, interaktiven Systemen. So erfolgt in modernen Fortbewegungsmitteln, wie insbesondere Kraftfahrzeugen, die Bedienung von Funktionen oder Betriebszuständen von Systemkomponenten des Fahrzeugs, wie von Audio-, Entertainment- und Informationssystemen, durch den Führer, insbesondere den Kraftfahrzeugfahrer, nicht nur mithilfe von haptischen Bedienelementen, sondern vielfach bereits durch virtuelle Bedienelemente wie sogenannte Joysticks, Touch Screens (berührungsempfindliche Bildschirme) sowie Gestikerkennungs-basierte Bedienelemente. Die Gestikerkennung kann dabei beispielsweise die Interpretation verschiedener Hand- bzw. Fingerstellungen umfassen, welche mittels einer 2D- oder 3D-Kamera erfasst werden.
  • KR 10 1260053 B1 offenbart ein intelligentes Fahrzeugsteuergerät und ein zugehöriges Verfahren unter Auswertung von Bewegung und Stimme des Fahrers ohne Störung des Fahrbetriebs, indem ein Fahrzeugsteuerbefehl durch die Kombination von einer Spracherkennungs-technik mit einer Bewegungserkennungseinheit bestimmt wird. So erkennt ein Spracherkennungsmodul einen vom Mikrophon empfangenen Sprachbefehl auf Basis einer von einem Bewegungserkennungsmodul erkannten Handbewegung.
  • DE 10 2006 009 291 A1 offenbart ein Verfahren und eine Vorrichtung zum Betreiben von zumindest zwei Funktionskomponenten eines Systems, bei dem eine der Funktionskomponenten, beispielsweise eine Komfort- und/oder Entertainment-Funktion, zum weiteren Bedienen durch zumindest ein spezifisch zugeordnetes akustisches Signal, vorzugsweise ein Sprachsignal, vorausgewählt wird.
  • Die im Stand der Technik beschriebenen Bedienschritte schöpfen jedoch nur unvollständig das Potenzial zur intuitiven Bedienung einer berührungslosen Anwenderschnittstelleneinheit eines Anwendungssystems aus.
  • Es ist daher einer Aufgabe der vorliegenden Erfindung, einem Anwender weitere Möglichkeiten bereitzustellen, mit einer berührungslosen Anwenderschnittstelleneinheit eines oder mehrerer Anwendungssysteme eines Fortbewegungsmittels intuitiv und effizient zu kommunizieren. Es stellt somit eine weitere Aufgabe dar, mehrere Bedienschritte in geeigneter Weise vereinfachend zusammenzufassen respektive zu restrukturieren. Damit liegt ein Aufgabenaspekt der vorliegenden Erfindung darin, die Potenziale von intuitiven oder zumindest leicht dem Anwender eingängigen Bedienschritten auszuschöpfen.
  • Offenbarung der Erfindung
  • Die vorstehend genannte Aufgabe wird erfindungsgemäß gelöst durch ein erfindungsgemäßes Verfahren sowie durch eine zugehörige Vorrichtung zur Ansteuerung einer Funktion eines Anwendungssystems eines Fortbewegungsmittels, insbesondere eines Kraftfahrzeugs. Das Fortbewegungsmittel kann beispielsweise ein Pkw, ein Transporter, ein Lkw, ein Nutzfahrzeug, ein Luft- und/oder Wasser- und/oder Unterwasserfahrzeug sein. Dazu umfasst das erfindungsgemäße Verfahren die Schritte: (i) sensorisches Erkennen einer dreidimensional im Raum von einem Anwender ausgeführten und mittels eines Sensors erfassten Zeigegeste; (ii) automatisches Zuordnen einer durch die Zeigegeste adressierten Raumposition an dem und/oder innerhalb des Fortbewegungsmittels; und im Ansprechen darauf: (iii) Ansteuern der Funktion in Abhängigkeit von der adressierten Raumposition. Im ersten Schritt wird eine frei im Raum, als sogenannte „3D-Geste“, mit einem Zeigemittel ausgeführte Zeigegeste erfasst. Die Zeigegeste dient also nicht der Berührung von haptischen und/oder sensorischen Elementen (Touchscreen, Schalter, Knopf o.ä.), sondern wird berührungslos sensorisch erfasst und erkannt. Die Zeigegeste zeigt auf die Raumposition selbst, wodurch diese durch die Zeigegeste „adressiert“ wird. Unter „Adressieren“ der Raumposition ist im Rahmen der Erfindung zu verstehen, dass auf diese verwiesen und/oder hingewiesen wird und/oder dass diese bedeutet, intendiert, definiert, indiziert und/oder angezeigt wird. Die Zeigegeste zeigt also nicht auf ein (beispielsweise auf einem Bildschirm) dargestelltes Abbild bzw. Sinnbild für die Raumposition. Zeigemittel umfassen zumindest einen Finger und/oder zumindest eine Hand eines Anwenders und/oder einen Signalgeber, vorzugsweise einen Pointer und/oder ein RFID-Label, und/oder einen Spezialhandschuh. Beispielsweise kann die Zeigegeste hierzu mittels eines Sensors, beispielsweise mittels einer auf den Innenraum gerichteten optischen 2D- und oder 3D-Kameras, des Fortbewegungsmittels erfasst werden. Alternativ oder zusätzlich kann die Analyse der Zeigegeste beispielsweise durch ein vom Anwender, beziehungsweise am Handgelenk, getragenes mobiles Endgerät durchgeführt oder unterstützt werden. Beispiele für geeignete Endgeräte sind sogenannte „Smart-Devices“, welche beispielsweise mit Lage- beziehungsweise Beschleunigungssensoren versehen und zur drahtlosen Kommunikation vorgesehen sind.
  • Im zweiten Schritt wird anhand der durch die Zeigegeste bedeuteten Kontextinformation eine Raumposition an dem und/oder innerhalb des Fortbewegungsmittels mittels automatischer Analyse und Erkennung zugeordnet.
  • Die automatische Analyse und Erkennung kann durch eine Auswerteeinheit, beispielsweise ein Steuergerät, des Fortbewegungsmittels erfolgen. In jedem Fall kann die Erfindung mit üblicherweise ohnehin vorhandener Hardware oder zumindest nur geringfügigen Zusatzinstallationen realisiert werden.
  • Daraufhin spricht im dritten Schritt eine Steuereinheit an. Es wird eine Ansteuerung einer Funktion eines Anwendungssystems des Fortbewegungsmittels veranlasst. Bei den Anwendungssystemen des Fortbewegungsmittels handelt es sich beispielsweise um Audio- und/oder Komfort-Systeme und/oder um eine Klimaanlage.
  • Als Zeigegesten oder deiktische Gesten werden im Rahmen der Erfindung solche aufgefasst, welche einen Bezug auf Personen, Orte, Gegenstände, insbesondere auf eine Raumposition an dem und oder innerhalb des Fortbewegungsmittels, im Kontext beinhalten. So stellt eine Kulturen-unabhängig bekannte Zeigegeste des Menschen das Zeigen mit einem Finger dar − sie wird als eine der ersten Gesten überhaupt schon von Kindern erlernt. Bei Erwachsenen wird diese Zeigegeste häufig als ein figuratives, symbolisches Zeigen sogar auf nicht vorhandene Gegenstände, Orte oder Ideen genutzt. Das bedeutet konkret, dass eine Zeigegeste eine bestimmte Position und/oder ein bestimmtes Ziel bedeuten soll. Anstelle der Hand oder des Fingers können auch andere Körperteile oder ebenso Gegenstände, die in der Hand gehalten werden, für eine Zeigegeste eingesetzt werden.
  • Alle diese Zeigegesten werden intuitiv angewendet und weisen den in der vorliegenden Erfindung genutzten Vorteil auf, dass sie insofern keine besondere Konzentration des Anwenders in Anspruch nehmen.
  • Des weiteren beinhalten Zeigegesten einen, insbesondere auf gezeigte Raumpositionen bezogenen, interessanten Kontextinformationsgehalt. Gerade dieser Kontextinformationsgehalt wird in der vorliegenden Erfindung nutzbringend zum Zwecke der Ansteuerung von Funktionen eines oder mehrerer Anwendungssysteme im Kontext einer gewünschten Raumposition sensorisch erfasst, erkannt sowie automatisch einer Bedeutung zugeordnet.
  • Dabei generiert die vorliegende Erfindung einen relevanten Anwendernutzen hinsichtlich einer deutlich verringerten Ablenkung der Konzentration beim Führen des Fortbewegungsmittels, woraus sich eine höhere Verkehrssicherheit ergibt. Denn die vorliegende Erfindung schöpft vorteilbringend das enorme Vereinfachungspotential von Zeigegesten und von intuitiv-deiktischem menschlichen Bewegungsverhalten zur Bestimmung von Raumpositionen aus, an welchen eine spezifische Funktion eines Anwendungssystems des Fortbewegungsmittels aktiviert, ausgeführt und/oder optimiert werden soll.
  • Dabei gelingt es der vorliegenden Erfindung, durch das Einbinden von berührungslos erkannten Zeigegesten bei der berührungslosen Bedienung eines oder mehrerer Anwendungssysteme herkömmlich mehrere separate Einzelschritte eines Bedienmenüs in geschickter Weise zusammenzufassen, wodurch die Bedienung durch den Anwender vereinfacht sowie unterstützt wird und anwenderfreundlicher sowie zielführender gestaltet ist.
  • Auf diese Weise gelingt es durch die vorliegende Erfindung, beispielsweise eine intuitive Optimierung von akustischen Einstellungen und Feinjustierungen auf individuelle Insassenbedürfnisse hin mit einer einfachen, zügigen und im freien Raum, also ohne Suche eines Bedienpultes, Schalters, etc., ausführbaren Handbewegung dem Führer eines Fortbewegungsmittels zu ermöglichen.
  • Die Unteransprüche betreffen bevorzugte Weiterbildungen der Erfindung.
  • Vorzugsweise wird dabei die Raumposition als eine Sitzposition und/oder eine Gangposition innerhalb des Fortbewegungsmittels erkannt wird. Dabei wird unter Gangposition im Rahmen der Erfindung eine Raumposition verstanden, in welchem gerade kein Insasse Platz nimmt, beispielsweise ein Mittelgang in einem Flugzeug.
  • In einer bevorzugten Weiterentwicklung des Verfahrens sind die automatische Analyse und Erkennung mittels eines weiteren Schrittes noch optimiert, indem zusätzlich ein sensorisches Erkennen eines Vorhandenseins und/oder einer Körperteilposition, insbesondere einer Kopfposition, zumindest eines Insassen, insbesondere des Anwenders, durchgeführt wird. So kann automatisch unterschieden werden, ob es sich bei einem Insassen beispielsweise um einen großen Mann, eine kleine Frau, ein Kind oder ein in einer Sitzschale liegendes Baby handelt. Auch kann beispielsweise bei einem oder mehreren stets selben Insassen eine geänderte Rückenlehnen- und/oder Sitzhöhenposition eine entsprechend geänderte Raumsituation von Körperteilen, insbesondere des Kopfes, automatisch berücksichtigt werden.
  • Vorzugsweise wird die Funktion bezüglich der Raumposition und/oder der Körperteilposition eines Insassen, insbesondere des Anwenders, optimiert. Beispielsweise kann eine erkannte Kopfposition eines Insassen für die automatische Feinoptimierung eines Audio-Systems oder die Ausrichtung von Rück- und/oder Seitenspiegeln sorgen, nachdem die Funktion als solche in Abhängigkeit der durch die Zeigegeste adressierten Raumposition, insbesondere in einer Designation auf einen spezifischen Sitzplatz hin, angesteuert ist. Und/oder es wird eine automatisch erkannte Fußposition genutzt für eine räumlich noch weiter präzisierte automatische Ausrichtung von Lenklamellen eines Luftauslasses im Zuge der erfolgenden Ansteuerung der Funktion einer Klimaanlage als Anwendungssystem in Richtung auf eine durch die Zeigegeste adressierte Raumposition. Insbesondere eine zusätzlich erkannte Information über das Vorhandensein eines Kindes kann das Ansteuern von Funktionen diverser Anwendungssysteme deutlich optimieren, beispielsweise im Falle einer Sitzplatz-bezogenen Türverriegelung und oder eines abzuschaltenden Air-Bags.
  • Besonders bevorzugt ist die durch die Zeigegeste adressierte Raumposition nach vordefinierten 2D- oder 3D-Raumsegmenten, insbesondere nach Sitzpositionen segmentiert. Insbesondere in einer als x-Richtung bezeichneten geradeaus Bewegungsrichtung bzw. Längsachse des Fortbewegungsmittels wird zumindest eine vordere Zone und eine hintere Zone unterschieden, insbesondere im Falle eines Kraftfahrzeuges mit vier oder fünf Plätzen. Hingegen im Falle eines längeren Fortbewegungsmittels, wie beispielsweise einem Transporter, Bus, Boot oder Flugzeuges, erweist sich eine Unterteilung in Form einer durch-nummerierten Zonenfolge von Sitzreihen als sinnvoll. Alternativ oder zusätzlich kann in einer als y-Richtung bezeichneten horizontalen Querrichtung eine linke Zone, eine mittlere Zone und eine rechte Zone und/oder in eine Folge von Sitzspalten (beispielsweise in „Backbordfenstersitze“, „Backbordgang“, „Mittelsitze“, „Steuerbordgang“, „Steuerbordfenstersitze“) unterschieden werden. Besonders sinnvoll erweist sich eine Segmentierung in zu unterscheidende Zonen, welche sich an möglichen Raumpositionen von Insassen orientiert bzw. gerade auch Insassen-freie Zonen wie Mittelkonsolen und freie Mittelgänge ausklammert. Ferner kann in einer, häufig auch als Höhenachse definierten, im Rahmen der Erfindung als z-Richtung bezeichneten vertikalen Richtung zumindest in eine Kopfzone und in eine Fußzone, optional in eine weitere Rumpfzone, segmentiert werden.
  • Die vorliegende Erfindung kann im Sinne einer Technologieplattform oder neuartigen technischen Funktionalität im Bereich der Gestikerkennung für ganz unterschiedliche Anwendungssysteme des Fortbewegungsmittels ihren Einsatz finden:
    Intendierte Anwendungssysteme umfassen dabei vorzugsweise von den Insassen erlebbare, den Innenraum des Fortbewegungsmittel betreffende, wie insbesondere ein Audio- und/oder Entertainment-System; und/oder ein Beleuchtungssystem; und/oder eine Klimaanlage und/oder eine Heizung und/oder ein Schiebedach; und/oder einen elektrischen Fensterheber; und/oder ein Komfort-System, beispielsweise eine Massageeinrichtung; und/oder eine Sitzverstellung; und/oder ein Navigationssystem; und/oder einen Bordcomputer und/oder Informationssystem. Alternativ oder zusätzlich sind Sitzplatz-abhängige Funktionen von bekannten Anwendungssystemen bevorzugt. Wird beispielsweise das Vorhandensein eines Kindes, insbesondere bei erkanntem Vorhandensein einer Babyschale und/oder eines Kindersicherheitssitzes, als Information zu der durch die Zeigegeste adressierten Raumposition kombiniert, erfolgt nur dort eine automatische Airbag-Abschaltung und/oder Tür- und/oder Sicherheitsgurtverriegelung. Bei einer weiteren Ausführungsform, in welcher die Information über das Vorhandenseins eines Fahrer eines Sicherheitsdienstes und/oder eines fluchtgefährdeten weiteren Insassen mit einbezogen wird, wird lediglich für den durch die Zeigegeste des Anwenders bedeuteten Sitzplatz oder eine Rückbank eine Warnanlage und/oder eine Stauraumverriegelung berührungslos betätigt. Weitere Anwendungssysteme umfassen solche, welche mit der Fahrdynamik des Fortbewegungsmittels zusammenhängen, vorzugsweise eine Einzelrad- und/oder Fahrwerk- und/oder Achsen-Ansteuerungseinheit. So wird im Rahmen der Erfindung eine nahezu instantane Abschaltung eines Fahrdynamikregelungssystems, beispielsweise eines Elektronischen Stabilitäts-Programms und/oder Antiblockiersystems, selbst während des Führens des Fortbewegungsmittels durch eine spontane, schnell ausgeführte Zeigegeste unterstützt; beispielsweise wenn der Fahrer ein Schleudern auf einer Fahrbahn mit uneinheitlichen Traktionseigenschaften, insbesondere durch Matsch, Regengüsse und/oder Glatteis, verspürt. Insofern sind im Rahmen der Erfindung jedenfalls auch Verfahren mit Echtzeit-Erkennung der Zeigegeste und Echtzeit-Ansteuerung der vom Anwender intendierten Funktion enthalten. Es sind des Weiteren auch Anwendungssysteme inbegriffen, welche Differentiale und/oder Verteilergetriebe und/oder ein Fahrassistenzsystem und/oder ein Parkassistenzsystem und/oder eine Bewegungssteuerungseinrichtung, insbesondere ein Höhen- und/oder Seitenruder eines Flugzeugs und/oder eines Bootes, betreffen.
  • Dabei die vorliegende Erfindung bevorzugt ausgestaltet, etwaige Missinterpretationen des Anwenderwunsches zuverlässig zu vermeiden. Hierzu werden bei dem Verfahren vorzugsweise zunächst die folgenden weiteren Schritte ausgeführt, und zwar ein sensorisches Erkennen eines vom Anwender erzeugten Aktivierungssignals, vorzugsweise eines akustischen, insbesondere sprachlichen, Aktivierungssignals, durch eine Signalerkennungseinheit, sowie nachfolgend ein automatisches Zuordnen des Aktivierungssignals zu einer vordefinierten, durch eine Ordnungsstruktur mit Ober- und Unterfunktionen gekennzeichneten Funktionskatalogauswahl des zumindest einen Anwendungssystems.
  • Bevorzugt kann ein vordefiniertes Aktivierungssignal, beispielsweise eine Anmeldegeste oder ein Sprachkommando, des Anwenders zum Starten des erfindungsgemäßen Verfahrens zur Ansteuerung einer Funktion erfasst und automatisch erkannt werden. Das Aktivierungssignal kann als Kontaktaufnahme des Anwenders zum Fortbewegungsmittel bezüglich der Ansteuerung der Anwendungssysteme des Fortbewegungsmittels verstanden werden. Erst im Ansprechen auf das ermittelte Aktivierungssignal wird die oben genannte Zeigegeste zum Definieren der Raumposition analysiert. Mit anderen Worten kann eine automatische Analyse und Erkennung der Zeigegesten bis zum erfolgreichen Erfassen und Erkennen des Aktivierungssignals unterbleiben, wodurch Rechenressourcen geschont werden. Überdies wird vermieden, dass eine versehentliche Geste als identische Zeigegeste interpretiert würde und Funktionen unerwünscht angesteuert würden. Dies dient insbesondere einem unabgelenkten Führen des erfindungsgemäß ausgestalteten Fortbewegungsmittels.
  • Weiter bevorzugt ist im Verfahren die Ausführung zunächst eines noch weiteren Schrittes vorgesehen, und zwar ein individuelles Konfigurieren der vordefinierten Funktionskatalogauswahl durch mindestens einen Anwender. Das individuelle Konfigurieren gestaltet sich als Zuordnen zumindest einer Ober- oder Unterfunktion aus der Funktionskatalogauswahl auf eine individuelle Zeigegeste des Anwenders mit anschließendem Abspeichern, insbesondere mit zumindest temporärer Wirksamkeit.
  • Um für den Anwender möglichst komfortable und natürliche Zeigegesten zur erfindungsgemäßen Ansteuerung einer Funktion eines Anwendungssystems zu ermöglichen, kann eine vom Anwender ausgeführte Zeigegeste in einem Lernmodus erfasst und anschließend durch den Anwender einer Raumposition, welche im Ansprechen auf die Geste adressiert sein soll, vorzugsweise im Zusammenhang mit einer spezifischen Funktion, zugeordnet werden. Beispielsweise können nach Art einer konfigurierbaren Tastaturbelegung, wie sie im EDV-Bereich üblich ist, vordefinierte Raumpositionen mit einem jeweiligen Gestikmuster des Anwenders belegt werden, wobei Arm-, Hand- und Fingerstellungen und -bewegungen sowie Kombinationen aus den vorgenannten Bewegungen die jeweilige Raumposition und/oder die von der Raumposition abhängige befohlene Funktion eines und/oder mehrerer Anwendungssysteme kennzeichnen können. Ebenfalls kann lediglich ein Aktivierungssignal, beispielsweise eine „Triggergeste“ und/oder ein verbal und/oder als Schnalzen ausgeführtes Startkommando, zum Starten des erfindungsgemäßen Verfahrens erlernt und abgespeichert werden.
  • Es ist bevorzugt auch möglich, dass zwischen einzelnen Schritten eine Zeitverzögerung definiert ist bzw. dass gegebenenfalls im Bedienfall auch die Möglichkeit zu einem gewünschten Abbruch eines bereits gestarteten Verfahrensablaufs besteht. Weiter bevorzugt ist von dem Verfahren zumindest zwischen einem auszuführenden Schritt und einem nächsten auszuführenden Schritt ein weiterer zeitverzögernder Schritt umfasst. Dabei wird ein Timer mit einer vordefinierten Zeitdauer gestartet. Sodann wird im Ansprechen auf ein Ablaufen des Timers der nächste auszuführende Schritt unverzüglich ausgeführt. Bevorzugte Verzögerungszeiten liegen hierbei zwischen 0,5 bis 20 Sekunden.
  • Bei den weiteren Erfindungsaspekten entsprechen die Merkmale, Merkmalskombinationen und die sich aus diesen ergebenden Vorteile den in Verbindung mit dem erstgenannten Erfindungsaspekt des erfindungsgemäßen Verfahrens beschriebenen derart ersichtlich, dass zur Vermeidung von Wiederholungen auf die obigen Ausführungen verwiesen wird.
  • Gemäß einem zweitgenannten Aspekt der vorliegenden Erfindung wird eine Vorrichtung, insbesondere eine Anwenderschnittstelle, eines Anwendungssystems eines Fortbewegungsmittels vorgeschlagen, welche eingerichtet ist, das erfindungsgemäße Verfahren auszuführen.
  • Eine erfindungsgemäße Vorrichtung bzw. eine Anwenderschnittstelle zur Ansteuerung einer Funktion eines Anwendungssystems eines Fortbewegungsmittels, insbesondere eines Kraftfahrzeugs, umfasst zumindest einen Sensor, eine Auswerteeinheit und eine Steuereinheit. Dabei ist der Sensor eingerichtet, eine dreidimensional im Raum von einem Anwender ausgeführte Zeigegeste zu erfassen.
  • Es ist dabei vorzugsweise vorgesehen, dass der Sensor eine optische Erfassungseinheit, insbesondere ein Kamerasystem; und/oder eine Erfassungseinheit auf Basis anderer Wellen, vorzugsweise Funk, und/oder Ultraschall, und/oder Wärmestrahlung; und/oder einen kapazitiven Sensor umfasst. Die Auswerteeinheit wiederum ist eingerichtet, zum einen die erfasste Zeigegeste zu erkennen und zum anderen die durch die Zeigegeste adressierte Raumposition an dem und/oder innerhalb des Fortbewegungsmittels automatisch zuzuordnen. Dabei kann die Auswerteeinheit beispielsweise als programmierbarer Prozessor mit einem Speichermittel ausgestaltet sein. Ferner erhält die Auswerteeinheit, was die Ausführung der vorliegenden Erfindung betrifft, über jeweilige Signaleingänge Input von dem Sensor und gegebenenfalls zusätzlich von der Signalerkennungseinheit.
  • In einer möglichen Ausführungsform ist der Sensor als intelligenter Sensor ausgeführt, indem er bereits eine eigene Sensorauswerteeinheit umfasst, welche zumindest teilweise der Erkennung der Zeigegeste dient.
  • Mittels der Speichermittel kann die Auswerteeinheit eine vordefinierte Funktionskatalogauswahl von einem oder auch mehreren Anwendungssystemen vorhalten. Dabei ist die Funktionskatalogauswahl durch eine Ordnungsstruktur mit Ober- und Unterfunktionen gekennzeichnet. Nach erfolgtem automatischen Zuordnen wird über einen, vorzugsweise designierten, Signalausgang der Auswerteeinheit eine Steuereinheit angewiesen.
  • Die Steuereinheit ist eingerichtet, im Ansprechen darauf die Funktion auf einer Funktionsvorrichtungseinheit Abhängigkeit von der adressierten Raumposition anzusteuern oder zu regeln.
  • Bevorzugt umfasst die Funktionsvorrichtungseinheit eine Signalerzeugungseinheit, beispielsweise einen Lautsprecher, und/oder ein Spotlicht und/oder einen Ventilator.
  • Insbesondere kann eine Sitzposition als die für die Ausführung einer Funktion eines Anwendungssystems durch die Zeigegeste ausgewählt beziehungsweise angezeigt werden. Die Zeigegeste kann innerhalb und/oder außerhalb des Fortbewegungsmittels ausgeführt werden.
  • Gemäß einem drittgenannten Erfindungsaspekt wird ein Fortbewegungsmittel, beispielsweise ein Pkw, ein Transporter, ein Lkw, ein Nutzfahrzeug, ein Luft- und/oder Wasserfahrzeug, vorgeschlagen, welches eine Vorrichtung bzw. Anwenderschnittstelle gemäß dem zweitgenannten Erfindungsaspekt aufweist, sodass auch bezüglich der Merkmale, Merkmalskombinationen und Vorteile des Fortbewegungsmittels auf die obigen Ausführungen verwiesen werden kann. Dabei kann die Vorrichtung bzw. Anwenderschnittstelle insbesondere für den Führer des Fortbewegungsmittels vorgesehen sein, mittels welcher der Führer während des Führens des Fortbewegungsmittels auf konveniente, nicht ablenkende Weise mittels Zeigegestik zuverlässig und fehlerminimiert kommunizieren kann.
  • Weitere Einzelheiten, Merkmale und Vorteile der Erfindung ergeben sich aus der nachfolgenden Beschreibung und den Figuren. Es zeigen:
  • 1 eine schematische Darstellung einer Situation als Seitenansicht, in welcher ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens in Verbindung mit einem ersten Ausführungsbeispiel einer erfindungsgemäßen Vorrichtung, welche in einem Ausführungsbeispiel eines erfindungsgemäßen Fortbewegungsmittels verbaut ist, und mit einer ersten Zeigegeste, welche ausgeführt wird;
  • 2 eine Detailansicht der Vorrichtung aus 1;
  • 3 ein Flussdiagramm veranschaulichend Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens;
  • 4 eine Prinzipskizze als Aufsicht veranschaulichend das erfindungsgemäße Verfahren in Verbindung mit einem zweiten Ausführungsbeispiel einer erfindungsgemäßen Vorrichtung und mit einer zweiten Zeigegeste;
  • 5 eine Prinzipskizze als Aufsicht veranschaulichend das Verfahren in Verbindung mit dem zweiten Ausführungsbeispiel der Vorrichtung und mit einer dritten Zeigegeste;
  • 6 eine Prinzipskizze als Rückansicht veranschaulichend das Verfahren in Verbindung mit einem dritten Ausführungsbeispiel der Vorrichtung und mit einer vierten Zeigegeste; und
  • 7 eine Prinzipskizze als Aufsicht veranschaulichend das Verfahren in Verbindung mit dem zweiten Ausführungsbeispiel der Vorrichtung und mit einer fünften Zeigegeste.
  • 1 zeigt einen Pkw als Ausführungsbeispiel eines erfindungsgemäßen Fortbewegungsmittels 10, welches von einem Fahrer, einem Anwender 1, in Bewegungsrichtung x gefahren wird. Der Anwender 1 sitzt in einer vorderen Zone 31 des Pkws 10, nämlich auf dem Fahrersitz als erster Sitzposition 11. Als weiterer Insasse 2 sitzt ein Kind auf der eine hintere Zone 33 definierenden Rückbank des Pkws 10, und zwar auf einer dritten Sitzposition 13.
  • Dargestellt ist eine Situation während der Fahrt, in welcher der Anwender 1 des Pkws 10 im Erfassungsbereich eines als Frontkamera ausgeführten, optisch erfassenden, Sensors 401, mit seiner Hand eine dynamische Zeigegeste 4 nach hinten zu seinem Kind 2 dreidimensional im Raum ausführt. Damit bedeutet er um sein Kind 2 eine Raumposition 5 in der hinteren Zone 33, insbesondere über beziehungsweise auf der dritten Sitzposition 13.
  • Wie anhand der 1 und der 2 als Detailausschnitt der 1 veranschaulicht, werden die Daten aus der Frontkamera 401 mit der erfassten Zeigegeste 4 einem programmierbaren Prozessor als Beispiel einer Auswerteeinheit 501 über einen designierten Signaleingang zugeführt. Dort werden sie automatisch durch den Abgleich mit abgespeicherten Referenzen analysiert, wodurch die Zeigegeste 4 mit der Kontextinformation der durch die Zeigegeste 4 bedeuteten Raumposition 5 erkannt werden.
  • Diese Information wird nun an eine elektronische Steuereinheit 601 weitergegeben. In diesem Ausführungsbeispiel liegt in der elektronischen Steuereinheit 601 eine Funktionskatalogauswahl 650 für diverse Anwendungssysteme A1–A3 des Pkws 10 abgespeichert, und zwar für ein Audiosystem A1, ein Beleuchtungssystem A2 und eine Klimaanlage A3.
  • Mittels einer als Spracherkennungsmikrophon ausgeführten Signalerkennungseinheit 201 ist zuvor ein von dem Anwender 1 erzeugtes Aktivierungssignal sensorisch erkannt worden, so dass das Audiosystem A1 als zu dem Zeitpunkt intendiertes Anwendungssystem vorausgewählt ist.
  • Die Steuereinheit 601 veranlasst in Folge über ihren Signalausgang das Audiosystem A1 des Pkws 10, eine Lautstärkenerhöhung hin auf das Kind 2 in der dritten Sitzposition 13 vorzunehmen. Gleichzeitig möchte der Fahrer 1 für sich mehr Ruhe. Dies entspricht der gleichzeitigen Ausführung eines Fader-Befehls hin auf die in der hinteren Zone 33 befindlichen, als Lautsprecher ausgeführten, Funktionsvorrichtungseinheiten 6 überlagert mit einem Balance- Befehl hin auf die, in der linken Zone 41 befindlichen, Lautsprecher 6.
  • Zur weiteren Klangoptimierung fließt in dieser Ausführungsform noch zusätzlich die Kontextinformation über die Kopfposition als hier interessierende Körperteilposition 20 des Kindes ein, welche gleichfalls vom als Kamera ausgeführten Sensor 401 mitverzeichnet und erkannt wird. Auf diese Weise ist eine ideale räumliche Feinabstimmung und Ausrichtung der Lautsprecher auf die Ohren des Kindes 2 automatisch optimiert.
  • 3 zeigt Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens zur Ansteuerung einer Funktion eines Anwendungssystems A1–A3 eines Fortbewegungsmittels 10. Dabei stellen die Schritte 400, 500, 600 den erfindungsgemäßen Kern des Verfahrens dar, während die weiteren Schritte 100, 200, 300, 410, 700 optionale Ergänzungen im Ablauf des Verfahrens darstellen, was in diesem Schema durch gestrichelte Linien der Einkastungen und Pfeile angedeutet ist. Es sei an dieser Stelle darauf hingewiesen, dass insbesondere der mittels eines Timers verzögernde, hier beispielhaft zwischen Schritt 300 und Schritt 500 eingetragene, Schritt 700 auch an anderen sowie an mehreren Positionen zwischengeschaltet sein kann und selbstverständlich auch mit untereinander unterschiedlichen Verzögerungszeiten.
  • In Schritt 400 des sensorischen Zeigegeste-Erkennens wird eine dreidimensional vom Anwender 1 im Raum ausgeführte Zeigegeste 4 mittels eines Sensors 401 erfasst und erkannt. In einer weiterentwickelten Ausführungsform findet zusätzlich ein verfeinernder Schritt 410 des sensorischen Körperteilposition-Erkennens statt, welcher detektiert, welche Insassen 2 vorhanden sind und welche für diese größenabhängig spezifischen Körperteilpositionen 20, insbesondere Kopfpositionen, mitzubeachten sind. Auf Schritt 400 folgt ein automatisches Zuordnen 500 der durch die Zeigegeste 4 adressierten Raumposition 5 an dem und/oder innerhalb des Fortbewegungsmittels 10. Im Ansprechen darauf erfolgt ein Ansteuern 600 der Funktion in Abhängigkeit von der adressierten Raumposition 5. Es wird also im Ergebnis durch den Zusammenhang der Schritte 400600 eine gewünschte Funktion auf einer Funktionsvorrichtungseinheit 6 in Abhängigkeit von der durch die Zeigegeste 4 adressierten Raumposition 5 angesteuert und/oder geregelt.
  • Vorab besteht die Option des Schritts 100 des individuellen Konfigurierens der gewünschten Funktionen aus der vordefinierten Funktionskatalogauswahl 650 durch den Anwender 1, beispielsweise nach dem Fahrzeugkauf. Dabei ordnet der Anwender 1 zumindest ein Ober- oder Unterfunktion aus der Funktionskatalogauswahl auf eine individuelle Zeigegeste von ihm zu. Dazu wird diese erlernte Information anschließend, insbesondere mit zumindest temporärer Wirksamkeit, abgespeichert. Mit diesem Schritt kann in der automatischen Bedienung der Anwenderschnittstelle auf individuelle Vorlieben für Funktionen, Anwendungssysteme und/oder auf individuelle Merkmale der Zeigegesten 4 des Anwenders 1 abgestellt und voroptimiert werden.
  • Im gleichfalls fakultativen Ablauf der ein optionales Aktivierungssignal, beispielsweise ein Sprachkommando, des Anwenders 1 betreffenden Schritte 200 und 300 wird ein solches Aktivierungssignal zunächst in Schritt 200 durch eine Signalerkennungseinheit 201 sensorisch erkannt, sodann in Schritt 300 automatisch der Funktionskatalogauswahl 650 zugeordnet. Mit diesen Schritten 200 und 300 zeigt der Anwender 1 dem Fortbewegungsmittel 10 den Wunsch an, das erfindungsgemäße Verfahren auf einer vorausgewählten Funktionskatalogauswahl 650 des zumindest einen Anwendungssystems zu initiieren.
  • Die 47 zeigen für einen wie in 1 in Bewegungsrichtung x gefahrenen Pkw 10 vier weitere Varianten von Zeigegesten des erfindungsgemäßen Verfahrens in zwei weiteren Ausführungsbeispielen einer erfindungsgemäßen Vorrichtung zur Ansteuerung eines Audiosystems A1 mit mehreren an unterschiedlichen Stellen im Innenraum verteilten Lautsprechern 6.
  • Ähnlich wie bereits in 1 dargestellt, wird in 4 eine nahezu gleiche Ausführungsform nun aus der Vogelperspektive veranschaulicht. Hier führt der Anwender 1 mittels einer dynamischen Handbewegung nach hinten in den Fondbereich des Pkws 10 als einer zweiten Zeigegeste einen Fader-Befehl auf die beiden in der hinteren Zone 33 befindlichen Insassen 2 aus. Hier wird also durch den Anwender 1 eine entlang der, quer zur Bewegungsrichtung X orientierten, horizontalen Querrichtung Y gleichmäßige Ansteuerung der vier Lautsprecher 6 nahe der durch die Zeigegeste 4 zugeordneten Raumposition 5 verdeutlicht.
  • 5 zeigt eine weitere Variante mit einer dritten Zeigegeste, in welcher nicht der Fahrer selber, sondern ein auf Sitzposition 12 befindlicher Beifahrer als Anwender 1 das erfindungsgemäße Verfahren ausführt. So wird hier vom Beifahrer 1 die Sound-Balance des Audiosystems A1 durch eine mit Bewegung nach rechts ausgeführte Zeigegeste 4 in der rechten Zone 43 des Pkws 10 bedeutete Raumposition 5 verschoben.
  • 6 stellt eine noch weitere Variante mit einer vierten Zeigegeste dar, worin eine Verschiebung der Lautstärke zu den 3D-Höhenlautsprechern durch eine Zeigegeste 4 des auf Sitzplatz 11 befindlichen Anwenders 1 veranschaulicht wird. In dieser Ansicht aus dem Fond des Pkws 10 in die vordere Zone 31 sind zwei Insassen 1,2 auf den Sitzpositionen 11, 12 zu erkennen, deren Kopfpositionen 20 von drei Sensoren 401 erkannt werden. Um die innerhalb der in vertikaler Querrichtung z befindlichen oberen Zone 51 Lautsprecher 6 gezielt anzusteuern und um die in einer unteren Zone 53 angeordneten reduziert und/oder gar nicht mehr anzusteuern, führt der Anwender 1 in diesem Beispiel eine darauf gerichtete Zeigegeste 4 aus, indem er seinen rechten Arm auf eine in der oberen Zone 51 befindliche Raumposition 5 nach oben schwenkt.
  • 7 stellt in einer noch weiteren Abwandlung eine in alle drei Raumrichtungen x, y, z überlagert ausgeführte und die Raumposition 5 bedeutende Zeigegeste 4 als fünfter Variante einer Zeigegeste dar, und zwar in Richtung eines, aus Sicht des Fahrers 1, hinten-rechts-unten in Sitzposition 14 liegenden Babies.
  • Bezugszeichenliste
  • 1
    Anwender
    2
    Insasse
    4
    Zeigegeste
    5
    Raumposition
    6
    Funktionsvorrichtungseinheit insb. Signalerzeugungseinheit wie Lautsprecher
    10
    Fortbewegungsmittel
    11
    Erste Sitzposition
    12
    Zweite Sitzposition
    13
    Dritte Sitzposition
    14
    Vierte Sitzposition
    20
    Körperteilposition
    31
    vordere Zone
    33
    hintere Zone
    41
    linke Zone
    42
    mittlere Zone
    43
    rechte Zone
    51
    Kopfzone
    53
    Fußzone
    201
    Signalerkennungseinheit wie ein Spracherkennungsmikrophon
    401
    Sensor insb. optische Erfassungseinheit wie Kamera
    501
    Auswerteeinheit insb. ein programmierbarer Prozessor
    601
    Steuereinheit
    650
    Funktionskatalogauswahl
    100–700
    Verfahrensschritte
    A1–A3
    Anwendungssystem
    x
    Bewegungsrichtung
    y
    horizontale Querrichtung
    z
    vertikale Querrichtung
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • KR 101260053 B1 [0003]
    • DE 102006009291 A1 [0004]

Claims (14)

  1. Verfahren zur Ansteuerung einer Funktion eines Anwendungssystems (A1, A2, A3) eines Fortbewegungsmittels (10), insbesondere eines Kraftfahrzeugs, umfassend die Schritte: – sensorisches Erkennen (400) einer dreidimensional im Raum von einem Anwender (1) ausgeführten und mittels eines Sensors (401) erfassten Zeigegeste (4), – automatisches Zuordnen (500) einer durch die Zeigegeste (4) adressierten Raumposition (5) an dem und/oder innerhalb des Fortbewegungsmittels (10), und im Ansprechen darauf – Ansteuern (600) der Funktion in Abhängigkeit von der adressierten Raumposition (5).
  2. Verfahren nach Anspruch 1, wobei die Raumposition (5) als eine Sitzposition (1114) und/oder eine Gangposition innerhalb des Fortbewegungsmittels (10) erkannt wird.
  3. Verfahren nach Anspruch 1 und 2, weiter umfassend: – sensorisches Erkennen (410) eines Vorhandenseins und/oder einer Körperteilposition (20), insbesondere einer Kopfposition, zumindest eines Insassen (2), insbesondere des Anwenders (1).
  4. Verfahren nach einem der vorstehenden Ansprüche, wobei die Funktion bezüglich der Raumposition (5) und/oder der Körperteilposition (20) eines Insassen (2), insbesondere des Anwenders (1), optimiert wird.
  5. Verfahren nach einem der vorstehenden Ansprüche, wobei die durch die Zeigegeste (4) adressierte Raumposition (5) nach vordefinierten 2D- oder 3D-Raumsegmenten (1114, 31, 33, 4143, 51, 53), insbesondere nach Sitzpositionen (1114), segmentiert ist, insbesondere – in einer Bewegungsrichtung (x) des Fortbewegungsmittels (10): zumindest in eine vordere Zone (31) und eine hintere Zone (33) und/oder in eine Folge von Sitzreihen; und/oder – in einer horizontalen Querrichtung (y): in eine linke Zone (41), eine mittlere Zone (42) und eine rechte Zone (43) und/oder in eine Folge von Sitzspalten; – in einer vertikalen Querrichtung (z): zumindest in eine Kopfzone (51) und in eine Fußzone (53).
  6. Verfahren nach einem der vorstehenden Ansprüche, wobei das Anwendungssystem (A1, A2, A3) des Fortbewegungsmittels (10) umfasst: – ein Audio- und/oder Entertainment-System (A1); und/oder – ein Beleuchtungssystem (A2), beispielsweise für den Innenraum; und/oder – eine Klimaanlage (A3) und/oder eine Heizung und/oder ein Schiebedach; und/oder – einen elektrischen Fensterheber; und/oder – ein Komfort-System, beispielsweise eine Massageeinrichtung; und/oder – eine Sitzverstellung; und/oder – ein Navigationssystem; und/oder – einen Bordcomputer und/oder Informationssystem; und/oder – eine, vorzugsweise sitzplatzabhängige, Airbag-Abschaltung, insbesondere bei erkanntem Vorhandensein einer Babyschale und/oder eines Kindersicherheitssitzes; und/oder – eine, vorzugsweise sitzplatzabhängige, Tür- und/oder Sicherheitsgurtverriegelung und/oder Warnanlage, insbesondere bei erkanntem Vorhandensein eines Kindes und/oder eines Fahrers eines Sicherheitsdienstes und/oder eines fluchtgefährdeten weiteren Insassen; und/oder – eine Stauraumverriegelung; und/oder – einen Bordcomputer; und/oder – eine Einzelrad- und/oder Fahrwerk- und/oder Achsen-Ansteuerungseinheit, beispielsweise zur Abschaltung eines Fahrdynamikregelungssystems, insbesondere Differentiale und/oder Verteilergetriebe; und/oder – ein Fahrassistenzsystem und/oder ein Parkassistenzsystem; und/oder – eine Bewegungssteuerungseinrichtung, insbesondere ein Höhen- und/oder Seitenruder.
  7. Verfahren nach einem der vorstehenden Ansprüche, wobei zunächst die folgenden weiteren Schritte ausgeführt werden: – sensorisches Erkennen (200) eines vom Anwender erzeugten Aktivierungssignals, vorzugsweise eines akustischen, insbesondere sprachlichen, Aktivierungssignals, durch eine Signalerkennungseinheit (201), – automatisches Zuordnen (300) des Aktivierungssignals zu einer vordefinierten, durch eine Ordnungsstruktur mit Ober- und Unterfunktionen gekennzeichneten Funktionskatalogauswahl (650) des zumindest einen Anwendungssystems (A1, A2, A3).
  8. Verfahren nach einem der vorstehenden Ansprüche, wobei zunächst der folgende weitere Schritt ausgeführt wird: – individuelles Konfigurieren (100) der vordefinierten Funktionskatalogauswahl (650) durch mindestens einen Anwender (1) durch Zuordnen zumindest einer Ober- oder Unterfunktion aus der Funktionskatalogauswahl (650) auf eine individuelle Zeigegeste (4) des Anwenders (1) mit anschließendem Abspeichern, insbesondere mit zumindest temporärer Wirksamkeit.
  9. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass zumindest zwischen einem auszuführenden Schritt (200500) und einem nächsten auszuführenden Schritt (300600) ein weiterer zeitverzögernder Schritt (700) umfasst ist, wobei ein Timer mit einer vordefinierten Zeitdauer gestartet, und im Ansprechen auf ein Ablaufen des Timers, insbesondere zwischen 0,5 bis 20 Sekunden, der nächste auszuführende Schritt (400700) unverzüglich ausgeführt wird.
  10. Vorrichtung zur Ansteuerung einer Funktion eines Anwendungssystems (A1, A2, A3) eines Fortbewegungsmittels (10), insbesondere eines Kraftfahrzeugs, umfassend: – einen Sensor (401), welcher eingerichtet ist, eine dreidimensional im Raum von einem Anwender (4) ausgeführte Zeigegeste (3) zu erfassen, – eine Auswerteeinheit (501), welche eingerichtet ist, die erfasste Zeigegeste (4) zu erkennen und die durch die Zeigegeste (4) adressierte Raumposition (5) an dem und/oder innerhalb des Fortbewegungsmittels (10) automatisch zuzuordnen, und – eine Steuereinheit (601), welche eingerichtet ist, im Ansprechen darauf die Funktion auf einer Funktionsvorrichtungseinheit (6) in Abhängigkeit von der adressierten Raumposition (5) anzusteuern und/oder zu regeln.
  11. Vorrichtung nach Anspruch 10 eines Anwendungssystems (A1, A2, A3) eines Fortbewegungsmittels (10), welche eingerichtet ist, das Verfahren nach einem der Ansprüche 1 bis 9 auszuführen.
  12. Vorrichtung nach einem der Ansprüche 10 bis 11 oder Verfahren nach einem der Ansprüche 1 bis 9, wobei der Sensor (401) umfasst – eine optische Erfassungseinheit, insbesondere ein Kamerasystem; und/oder – eine Erfassungseinheit auf Basis anderer Wellen, vorzugsweise – Funk, und/oder – Ultraschall, und/oder – Wärmestrahlung; und/oder – einen kapazitiven Sensor.
  13. Vorrichtung nach einem der Ansprüche 10 und 12 oder Verfahren nach Anspruch 1 bis 9, wobei die Funktionsvorrichtungseinheit (6) eine Signalerzeugungseinheit, beispielsweise einen Lautsprecher, und/oder ein Spotlicht und/oder Lenklamellen eines Luftauslasses umfasst.
  14. Fortbewegungsmittel (10) mit einer Vorrichtung nach einem der Ansprüche 10 bis 13.
DE102016213313.6A 2016-07-21 2016-07-21 Vorrichtung und Verfahren zur Unterstützung eines Anwenders Withdrawn DE102016213313A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102016213313.6A DE102016213313A1 (de) 2016-07-21 2016-07-21 Vorrichtung und Verfahren zur Unterstützung eines Anwenders
EP17736660.6A EP3488320B1 (de) 2016-07-21 2017-07-06 Vorrichtung und verfahren zur unterstützung eines anwenders
PCT/EP2017/066854 WO2018015165A1 (de) 2016-07-21 2017-07-06 Vorrichtung und verfahren zur unterstützung eines anwenders

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016213313.6A DE102016213313A1 (de) 2016-07-21 2016-07-21 Vorrichtung und Verfahren zur Unterstützung eines Anwenders

Publications (1)

Publication Number Publication Date
DE102016213313A1 true DE102016213313A1 (de) 2018-01-25

Family

ID=59295214

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016213313.6A Withdrawn DE102016213313A1 (de) 2016-07-21 2016-07-21 Vorrichtung und Verfahren zur Unterstützung eines Anwenders

Country Status (3)

Country Link
EP (1) EP3488320B1 (de)
DE (1) DE102016213313A1 (de)
WO (1) WO2018015165A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018214552A1 (de) * 2018-08-28 2020-03-05 Bayerische Motoren Werke Aktiengesellschaft Akustische Rückmeldung bei Annäherung an Steck-/ Ablagestellen
DE102018202593B4 (de) 2018-02-21 2021-08-19 Audi Ag Verfahren und Bedienvorrichtung zum Wiedergeben einer Tonaufnahme in einem Raum sowie Kraftfahrzeug
DE102021106702A1 (de) 2021-03-18 2022-09-22 Audi Aktiengesellschaft Betreiben akustischer Signalgeber eines Kraftfahrzeugs
DE102022120568A1 (de) 2022-08-16 2024-02-22 Bayerische Motoren Werke Aktiengesellschaft Fortbewegungsmittel, System und Verfahren zur Aktivierung einer Mehrzahl von Anwenderschnittstellen eines Fortbewegungsmittels

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019210010A1 (de) * 2019-07-08 2021-01-14 Volkswagen Aktiengesellschaft Verfahren und Bediensystem zum Erfassen einer Nutzereingabe für eine Einrichtung eines Fahrzeugs
DE102019212998B4 (de) * 2019-08-29 2022-08-04 Volkswagen Aktiengesellschaft Fortbewegungsmittel, Vorrichtung und Verfahren zum Positionieren eines automatisiert fahrfähigen Fortbewegungsmittels

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006009291A1 (de) 2006-03-01 2007-09-06 Audi Ag Verfahren und Vorrichtung zum Betreiben von zumindest zwei Funktionskomponenten eines Systems, insbesondere eines Fahrzeugs
KR101260053B1 (ko) 2011-11-17 2013-05-06 재단법인대구경북과학기술원 동작 및 음성을 이용한 지능형 차량 제어 장치 및 방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2389016B1 (de) * 2010-05-18 2013-07-10 Harman Becker Automotive Systems GmbH Individualisierung von Tonsignalen
DE102011116312A1 (de) * 2011-10-18 2012-04-05 Daimler Ag Verfahren und Eingabevorrichtung zum Steuern eines elektronischen Geräts
DE202012005255U1 (de) * 2012-05-29 2012-06-26 Youse Gmbh Bedienvorrichtung mit einer Gestenüberwachungseinheit
US20140096003A1 (en) * 2012-09-28 2014-04-03 Tesla Motors, Inc. Vehicle Audio System Interface
US8886399B2 (en) * 2013-03-15 2014-11-11 Honda Motor Co., Ltd. System and method for controlling a vehicle user interface based on gesture angle
DE102013012466B4 (de) * 2013-07-26 2019-11-07 Audi Ag Bediensystem und Verfahren zum Bedienen einer fahrzeugseitigen Vorrichtung
DE102015013777A1 (de) * 2015-10-24 2016-04-21 Daimler Ag Verfahren zum Bedienen zumindest einer mittels zumindest eines Aktors betätigbaren Einheit mittels einer Gestensteuerung

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006009291A1 (de) 2006-03-01 2007-09-06 Audi Ag Verfahren und Vorrichtung zum Betreiben von zumindest zwei Funktionskomponenten eines Systems, insbesondere eines Fahrzeugs
KR101260053B1 (ko) 2011-11-17 2013-05-06 재단법인대구경북과학기술원 동작 및 음성을 이용한 지능형 차량 제어 장치 및 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018202593B4 (de) 2018-02-21 2021-08-19 Audi Ag Verfahren und Bedienvorrichtung zum Wiedergeben einer Tonaufnahme in einem Raum sowie Kraftfahrzeug
DE102018214552A1 (de) * 2018-08-28 2020-03-05 Bayerische Motoren Werke Aktiengesellschaft Akustische Rückmeldung bei Annäherung an Steck-/ Ablagestellen
DE102021106702A1 (de) 2021-03-18 2022-09-22 Audi Aktiengesellschaft Betreiben akustischer Signalgeber eines Kraftfahrzeugs
DE102022120568A1 (de) 2022-08-16 2024-02-22 Bayerische Motoren Werke Aktiengesellschaft Fortbewegungsmittel, System und Verfahren zur Aktivierung einer Mehrzahl von Anwenderschnittstellen eines Fortbewegungsmittels

Also Published As

Publication number Publication date
WO2018015165A1 (de) 2018-01-25
EP3488320A1 (de) 2019-05-29
EP3488320B1 (de) 2022-01-19

Similar Documents

Publication Publication Date Title
EP3488320B1 (de) Vorrichtung und verfahren zur unterstützung eines anwenders
EP3040245B1 (de) Vorrichtung und verfahren zur unterstützung eines anwenders vor einer bedienung eines schalters zur elektromotorischen verstellung eines teils eines fortbewegungsmittels
EP2200858B9 (de) Fahrzeugsystem mit hilfefunktionalität
DE102017216837A1 (de) Gestik- und Mimiksteuerung für ein Fahrzeug
DE102015110941A1 (de) Steuern des Zugangs zu einer Fahrzeug-Benutzeroberfläche
DE102014013960A1 (de) Verfahren zum Betreiben wenigstens einer Fahrerassistenzeinrichtung eines Kraftwagens und System mit einer Fahrerassistenzeinrichtung
DE102014118113A1 (de) Fahrzeugsteuerung
DE102010049081A1 (de) Verfahren zum Betreiben eines Kraftfahrzeugs und Kraftfahrzeug
EP3416848B1 (de) Anordnung, fortbewegungsmittel und verfahren zur unterstützung eines anwenders bei einer bedienung einer berührungsempfindlichen anzeigeeinrichtung
DE102010011319A1 (de) Benutzerschnittstelle und Verfahren zur Einstellung von mindestens einem Parameter mindestens einer Fahrzeugfunktion
DE102016001314A1 (de) Bedienvorrichtung und Verfahren zum Empfangen einer Zeichenfolge von einem Benutzer in einem Kraftfahrzeug
EP3254172B1 (de) Bestimmung einer position eines fahrzeugfremden objekts in einem fahrzeug
EP2933163A2 (de) Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs, Computerprogramm, Computer-Programmprodukt
DE102017211521A1 (de) Steuerung von Fahrzeugfunktionen aus einer virtuellen Realität
DE102020121415B3 (de) Projektionssystem zum Erzeugen einer graphischen Benutzeroberfläche, graphische Benutzeroberfläche und Verfahren zum Betreiben eines Projektionssystems
DE102007052355B4 (de) Verfahren zum Bedienen von Einrichtungen eines Fahrzeugs
DE102017011498B4 (de) Verfahren zum Betreiben eines Assistenzsystems und ein Assistenzsystem für einen Kraftwagen
DE102020201520B4 (de) Vorrichtung und Verfahren zur haptischen Interaktion eines Fahrzeuginsassen mit einem Fahrzeug
DE102013001885A1 (de) Systeminitiierte Hilfefunktion pro Fahrt und/oder pro Nutzer für die Bedienung von einer, einem Fahrzeug zugeordneten Vorrichtung
DE102021104904A1 (de) Fahrzeugkomponentenidentifizierungssystem
DE102010011307A1 (de) Verfahren und Vorrichtung zur Einstellung von mindestens einem Parameter mindestens einer Fahrzeugfunktion
DE102020131931A1 (de) Steuersystem und Verfahren zum Steuern von Interieurfunktionen eines Kraftfahrzeugs
DE102020129887A1 (de) Verfahren zum betreiben eines fahrzeugs
DE102022102504B9 (de) Verfahren zum Betreiben einer Schnittstellenvorrichtung in einem Fahrzeug, sowie Schnittstellenvorrichtung und Fahrzeug
DE102018206570A1 (de) Holografische Anzeige-Bedienvorrichtung und Verfahren für den Betrieb einer holografischen Anzeige-Bedienvorrichtung

Legal Events

Date Code Title Description
R163 Identified publications notified
R005 Application deemed withdrawn due to failure to request examination