DE112016006769T5 - Sign language input to a user interface of a vehicle - Google Patents

Sign language input to a user interface of a vehicle Download PDF

Info

Publication number
DE112016006769T5
DE112016006769T5 DE112016006769.0T DE112016006769T DE112016006769T5 DE 112016006769 T5 DE112016006769 T5 DE 112016006769T5 DE 112016006769 T DE112016006769 T DE 112016006769T DE 112016006769 T5 DE112016006769 T5 DE 112016006769T5
Authority
DE
Germany
Prior art keywords
vehicle
sensor
sensors
user
sign language
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112016006769.0T
Other languages
German (de)
Other versions
DE112016006769B4 (en
Inventor
Alexander Groh
Mohannad Hakeem
Umer Khalid
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE112016006769T5 publication Critical patent/DE112016006769T5/en
Application granted granted Critical
Publication of DE112016006769B4 publication Critical patent/DE112016006769B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/46Volume control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/14643D-gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/40Hardware adaptations for dashboards or instruments
    • B60K2360/48Sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Sensoren in einem Fahrzeug erkennen die Ausführung eines Gebärdensprachesymbols. Das Gebärdensprachesymbol ruft eine Fahrzeugschnittstellenfunktion auf. In einigen Ausführungsformen ist das Gebärdensprachesymbol eine ASL-Gebärde. Die Sensoren beinhalten dreidimensionale optische, Ultraschall- oder andere Sensoren. Die Stellen von Zielen (Fingerspitzen, Knöchel, Handfläche usw.) werden in den einzelnen Ausgaben der Sensoren erkannt. Die Stellen von Zielen, die aus den Ausgaben von mehreren Sensoren bestimmt werden, können einander zugeordnet und gefiltert werden, beispielsweise unter Verwendung eines RBMCDA-Algorithmus und einer Kalman-Filterung. Das System kann kalibriert werden, um jedes Symbol durch Messen der Zielstellen zu erkennen, wobei der Benutzer das jeweilige Symbol ausführt.Sensors in a vehicle recognize the execution of a sign language symbol. The sign language icon invokes a vehicle interface function. In some embodiments, the sign language icon is an ASL gesture. The sensors include three-dimensional optical, ultrasonic or other sensors. The locations of targets (fingertips, ankles, palm, etc.) are detected in the individual outputs of the sensors. The locations of targets determined from the outputs of multiple sensors can be matched and filtered using, for example, an RBMCDA algorithm and Kalman filtering. The system can be calibrated to recognize each symbol by measuring the target locations, with the user performing the respective symbol.

Description

ALLGEMEINER STAND DER TECHNIKGENERAL PRIOR ART

GEBIET DER ERFINDUNGFIELD OF THE INVENTION

Diese Erfindung betrifft Benutzerschnittstellen für Systeme eines Fahrzeugs.This invention relates to user interfaces for systems of a vehicle.

ALLGEMEINER STAND DER TECHNIKGENERAL PRIOR ART

Ein modernes Fahrzeug erfüllt viele Funktionen über den Transport hinaus. Zum Beispiel können Soundsysteme, Klimaregelungen, Schnittstellen zu einem Mobiltelefon oder einem anderen Kommunikationssystem und andere Funktionen für einen Insassen eines Fahrzeugs bereitgestellt werden. Dementsprechend müssen Bedienelemente für diese Funktionen bereitgestellt werden. Um die Anzahl der Tasten zu reduzieren, können Schnittstellenfunktionen unter Verwendung einer Berührungsbildschirmschnittstelle implementiert werden. Die Bedienelemente können weiter vereinfacht werden, indem ein Sprachsteuersystem, wie etwa das FORD SYNC-System, bereitgestellt wird.A modern vehicle fulfills many functions beyond transport. For example, sound systems, climate controls, interfaces to a mobile telephone or other communication system, and other functions may be provided to an occupant of a vehicle. Accordingly, controls for these functions must be provided. To reduce the number of keys, interface functions may be implemented using a touch screen interface. The controls may be further simplified by providing a voice control system, such as the FORD SYNC system.

Die hierin offenbarten Systeme und Verfahren stellen einen verbesserten Ansatz zum Empfangen von Benutzereingaben von Hörgeschädigten bereit, ohne dass eine Interaktion mit einem Berührungsbildschirm oder einem anderen physischen Schnittstellenelement erforderlich ist.The systems and methods disclosed herein provide an improved approach to receiving user input from the hearing-impaired without requiring interaction with a touch screen or other physical interface element.

Figurenlistelist of figures

Um die Vorteile der Erfindung ohne Weiteres zu verstehen, wird eine genauere Beschreibung der oben kurz beschriebenen Erfindung durch Verweis auf spezifische Ausführungsformen, welche in den beigefügten Zeichnungen veranschaulicht sind, bereitgestellt. Da es sich versteht, dass diese Zeichnungen nur typische Ausführungsformen der Erfindung darstellen und daher nicht als ihren Umfang einschränkend zu betrachten sind, wird die Erfindung mit zusätzlicher Genauigkeit und in Einzelheiten durch die Verwendung der beigefügten Zeichnungen beschrieben und erläutert, wobei:

  • 1 ein schematisches Blockdiagramm eines Systems zum Implementieren von Ausführungsformen der Erfindung ist;
  • 2 ein schematisches Blockdiagramm einer beispielhaften Rechenvorrichtung ist, die zum Implementieren von Verfahren gemäß Ausführungsformen der Erfindung geeignet ist;
  • 3 ein schematisches Diagramm eines Fahrzeugs mit Sensoren zum Erkennen von visuellen Eingaben gemäß einer Ausführungsform der vorliegenden Erfindung ist;
  • 4 ein Prozessablaufdiagramm eines Verfahrens zum Decodieren von visuellen Symbolen von mehreren Sensoren gemäß einer Ausführungsform der vorliegenden Erfindung ist;
  • 5 ein Prozessablaufdiagramm eines Verfahrens zum Steuern eines Fahrzeugsystems unter Verwendung eines visuellen Symbols gemäß einer Ausführungsform der vorliegenden Erfindung ist;
  • 6 ein Diagramm ist, das in einem Bild erkannte Ziele gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulicht; und
  • 7A und 7B ein Verfahren zum Bereitstellen einer visuellen Bestätigung der Eingabe eines visuellen Symbols gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulichen.
In order to readily understand the advantages of the invention, a more particular description of the invention briefly described above is provided by reference to specific embodiments illustrated in the accompanying drawings. It being understood that these drawings illustrate only typical embodiments of the invention and are therefore not to be considered limiting of its scope, the invention will be described and explained with additional accuracy and in detail by the use of the accompanying drawings, in which:
  • 1 Figure 3 is a schematic block diagram of a system for implementing embodiments of the invention;
  • 2 FIG. 10 is a schematic block diagram of an example computing device suitable for implementing methods in accordance with embodiments of the invention; FIG.
  • 3 Figure 3 is a schematic diagram of a vehicle having visual input sensors according to an embodiment of the present invention;
  • 4 Fig. 10 is a process flow diagram of a method for decoding visual symbols of multiple sensors according to one embodiment of the present invention;
  • 5 Fig. 10 is a process flow diagram of a method of controlling a vehicle system using a visual symbol according to an embodiment of the present invention;
  • 6 Fig. 12 is a diagram illustrating targets detected in an image according to an embodiment of the present invention; and
  • 7A and 7B illustrate a method of providing visual confirmation of the input of a visual symbol in accordance with an embodiment of the present invention.

DETAILLIERTE BESCHREIBUNGDETAILED DESCRIPTION

Es versteht sich ohne Weiteres, dass die Komponenten der vorliegenden Erfindung, wie sie hierin allgemein beschrieben und in den Figuren veranschaulicht sind, in einer großen Bandbreite unterschiedlicher Konfigurationen angeordnet und gestaltet sein können. Somit ist die folgende detailliertere Beschreibung der Ausführungsformen der Erfindung, wie sie in den Figuren dargestellt ist, nicht als den Umfang der beanspruchten Erfindung einschränkend, sondern als rein repräsentativ für bestimmte Beispiele von gegenwärtig in Erwägung gezogenen Ausführungsformen gemäß der Erfindung zu verstehen. Die gegenwärtig beschriebenen Ausführungsformen werden am besten unter Bezugnahme auf die Zeichnungen verstanden, in denen gleiche Teile durch gleiche Bezugszeichen bezeichnet sind.It will be readily understood that the components of the present invention, as generally described herein and illustrated in the figures, may be arranged and configured in a wide variety of different configurations. Thus, the following more detailed description of the embodiments of the invention as illustrated in the figures is not to be taken as limiting the scope of the claimed invention but as merely representative of certain examples of presently contemplated embodiments according to the invention. The presently described embodiments are best understood with reference to the drawings, in which like parts are designated by like reference characters.

Ausführungsformen gemäß der vorliegenden Erfindung können als eine Vorrichtung, ein Verfahren oder ein Computerprogrammprodukt ausgeführt sein. Dementsprechend kann die vorliegende Offenbarung die Form einer vollständig in Hardware enthaltenen Ausführungsform, einer vollständig in Software enthaltenen Ausführungsform (einschließlich Firmware, residente Software, Microcode usw.), oder einer Ausführungsform, die Software und Hardware kombiniert, annehmen, die alle allgemein hierin als ein „Modul“ oder „System“ bezeichnet werden. Weiterhin kann die vorliegende Erfindung die Form eines Computerprogrammprodukts annehmen, das in einem konkreten Ausdrucksmedium mit vom Computer verwendbarem Programmcode, der im Medium enthalten ist, ausgeführt wird. Embodiments according to the present invention may be embodied as a device, method, or computer program product. Accordingly, the present disclosure may take the form of a fully hardware embodied embodiment, an entirely software embodied embodiment (including firmware, resident software, microcode, etc.), or an embodiment combining software and hardware, all of which are generally incorporated herein by reference "Module" or "system". Furthermore, the present invention may take the form of a computer program product executed in a concrete expression medium having computer usable program code contained in the medium.

Jede Kombination von einem oder mehreren computerverwendbaren oder computerlesbaren Medien kann verwendet werden. Beispielsweise kann ein computerlesbares Medium eines oder mehrere von einer tragbaren Computerdiskette, einer Festplatte, eines Arbeitsspeicher (RAM)-Gerät, eines schreibgeschützten Speicher (ROM)-Gerät, eines programmierbaren Nur-Lesespeicher (EPROM- oder Flash-Speicher)-Geräts, eines tragbaren Compact Disc-Lesespeicher (CDROM)-Geräts, eines optischen Speichergeräts und eines magnetischen Speichergeräts beinhalten. In ausgewählten Ausführungsformen kann ein computerlesbares Medium jedes nicht-transitorische Medium umfassen, das das Programm zum Verwenden durch oder in Verbindung mit dem Befehlsausführungssystem, der Vorrichtung oder dem Gerät enthalten, speichern, kommunizieren, verbreiten oder transportieren kann.Any combination of one or more computer-usable or computer-readable media may be used. For example, a computer readable medium may include one or more of a portable computer diskette, a hard disk, a random access memory (RAM) device, a read only memory (ROM) device, a programmable read only memory (EPROM or flash memory) device, a portable compact disc read only memory (CDROM) device, an optical disk Storage device and a magnetic storage device include. In selected embodiments, a computer-readable medium may include any non-transitory medium that may contain, store, communicate, propagate, or transport the program for use by or in connection with the instruction execution system, device, or device.

Ein Computerprogrammcode zum Ausführen von Vorgängen der vorliegenden Erfindung kann in jeder beliebigen Kombination von einer oder mehreren Programmiersprachen, einschließlich einer objektorientierten Programmiersprache, wie beispielsweise Java, Smalltalk, C++ oder dergleichen, und herkömmlicher prozeduraler Programmiersprachen, wie beispielsweise die „C“-Programmiersprache oder ähnliche Programmiersprachen, geschrieben sein. Der Programmcode kann gänzlich auf einem Computersystem als ein eigenständiges Software-Paket, auf einer eigenständigen Hardware-Einheit, teilweise auf einem Ferncomputer, der sich in einigem Abstand zum Computer befindet, oder gänzlich auf einem Ferncomputer oder - server ausgeführt werden. In letztgenanntem Fall kann der Ferncomputer mit dem Computer mittels einer beliebigen Art von Netz verbunden sein, einschließlich eines lokalen Netzes (LAN) oder eines Großraumnetzes (WAN), oder die Verbindung kann mit einem externen Computer hergestellt werden (zum Beispiel mittels des Internets unter Verwendung eines Internetdienstleistungsanbieters).Computer program code for performing operations of the present invention may be in any combination of one or more programming languages, including an object-oriented programming language such as Java, Smalltalk, C ++ or the like, and conventional procedural programming languages such as the "C" programming language or the like Programming languages, be written. The program code may be executed entirely on a computer system as a stand-alone software package, on a stand-alone hardware device, partially on a remote computer some distance away from the computer, or entirely on a remote computer or server. In the latter case, the remote computer may be connected to the computer by any type of network, including a local area network (LAN) or a wide area network (WAN), or the connection may be made to an external computer (for example, using the Internet using an internet service provider).

Die vorliegende Erfindung wird nachfolgend unter Bezugnahme auf Ablaufdiagrammveranschaulichungen und/oder Blockdiagramme von Verfahren, Vorrichtungen (Systemen) und Computerprogrammprodukten gemäß Ausführungsformen der Erfindung beschrieben. Es versteht sich, dass jeder Block der Ablaufdiagrammveranschaulichungen und/oder Blockdiagramme und Kombinationen von Blöcken in den Ablaufdiagrammveranschaulichungen und/oder Blockdiagrammen durch Computerprogrammanweisungen oder einen Computerprogrammcode eingerichtet sein kann. Diese Computerprogrammanweisungen können einem Prozessor eines Universalcomputers, eines Spezialcomputers oder einer anderen programmierbaren, Daten verarbeitenden Vorrichtung zur Herstellung einer Maschine bereitgestellt sein, sodass die Anweisungen, die über den Prozessor des Computers oder der anderen programmierbaren, Daten verarbeitenden Vorrichtung ausgeführt werden, Mittel zum Einrichten der Funktionen/Handlungen, die in dem Block oder den Blöcken des Flussdiagramms und/oder des Blockdiagramms spezifiziert sind, schaffen.The present invention will now be described with reference to flowchart illustrations and / or block diagrams of methods, apparatus (systems), and computer program products according to embodiments of the invention. It should be understood that each block of the flowchart illustrations and / or block diagrams and combinations of blocks in the flowchart illustrations and / or block diagrams may be implemented by computer program instructions or computer program code. These computer program instructions may be provided to a processor of a general purpose computer, a special purpose computer, or other programmable data processing device for manufacturing a machine such that the instructions executed via the processor of the computer or other programmable data processing device include means for setting up the computer Functions / actions specified in the block or blocks of the flowchart and / or the block diagram create.

Diese Computerprogrammanweisungen können ebenso in einem nichtflüchtigen computerlesbaren Medium gespeichert werden, das einen Computer oder eine andere programmierbare, Daten verarbeitende Vorrichtung dazu veranlasst, in einer bestimmten Art und Weise zu funktionieren, sodass die im computerlesbaren Medium gespeicherten Anweisungen einen Fertigungsgegenstand herstellen, einschließlich Anweisungsmitteln, die die Funktion/Handlung, die in dem Block oder den Blöcken des Ablaufdiagramms und/oder des Blockdiagramms spezifiziert ist, einrichten.These computer program instructions may also be stored in a non-transitory computer readable medium that causes a computer or other programmable data processing device to function in a particular manner such that the instructions stored in the computer readable medium produce an article of manufacture, including instruction means set up the function / action specified in the block or blocks of the flowchart and / or block diagram.

Die Computerprogrammanweisungen können ebenso auf einen Computer oder eine andere programmierbare, Daten verarbeitende Vorrichtung geladen werden, um zu veranlassen, dass eine Reihe von Verfahrensschritten auf dem Computer oder der anderen programmierbaren Vorrichtung durchgeführt wird, um ein computereingerichtetes Verfahren herzustellen, sodass die Anweisungen, die auf dem Computer oder der anderen programmierbaren Vorrichtung ausgeführt werden, Verfahren zum Einrichten der Funktionen/Handlungen bereitstellen, die in dem Block oder den Blöcken des Flussdiagramms und/oder des Blockdiagramms spezifiziert sind.The computer program instructions may also be loaded onto a computer or other programmable data processing device to cause a series of method steps to be performed on the computer or other programmable device to produce a computer-implemented method such that the instructions that rely on the computer or other programmable device, provide methods for establishing the functions / actions specified in the block or blocks of the flowchart and / or block diagram.

1 veranschaulicht elektronische Komponenten 100, die in ein Fahrzeug eingebaut sein können. Die elektronischen Komponenten 100 können eine Steuerung 102 beinhalten, die in einem Fahrzeug untergebracht ist. Das Fahrzeug kann jedes auf dem Gebiet bekannte Fahrzeug einschließen. Das Fahrzeug kann alle Strukturen und Merkmale eines auf dem Gebiet bekannten beliebigen Fahrzeugs aufweisen, einschließlich Rädern, eines mit den Rädern gekoppelten Antriebsstrangs, eines mit dem Antriebsstrang gekoppelten Motors, eines Lenksystems, eines Bremssystems und anderer Systeme, die auf dem Gebiet dahingehend bekannt sind, dass sie in einem Fahrzeug beinhaltet sind. Wie hierin genauer erörtert wird, kann die Steuerung 102 ein oder mehrere Fahrzeugsysteme gemäß visuellen Symbolen steuern, wie nachstehend in Bezug auf die Verfahren der 4 und 5 beschrieben wird. 1 illustrates electronic components 100 that can be installed in a vehicle. The electronic components 100 can a controller 102 included in a vehicle. The vehicle may include any vehicle known in the art. The vehicle may include any structures and features of any vehicle known in the art, including wheels, a powertrain coupled to the wheels, a powertrain coupled engine, a steering system, a braking system, and other systems known in the art. that they are included in a vehicle. As will be discussed in greater detail herein, the controller may 102 controlling one or more vehicle systems in accordance with visual symbols, as described below with respect to the methods of 4 and 5 is described.

Die Steuerung 102 kann einen oder mehrere Datenströme von einem oder mehreren Bildgebungssensoren 104 empfangen. Die Bildgebungssensoren 104 können dreidimensionale Bildgebungssensoren sein, die sowohl ein Bild von Objekten in ihrem Sichtfeld als auch eine Tiefe der Objekte bereitstellen. Zum Beispiel kann der Bildgebungssensor 104 ein Tiefensensor sein, wie er von MICROSOFT KINECT oder dergleichen bereitgestellt wird.The control 102 may include one or more data streams from one or more imaging sensors 104 receive. The imaging sensors 104 may be three-dimensional imaging sensors that provide both an image of objects in their field of view and a depth of the objects. For example, the imaging sensor 104 a depth sensor as provided by MICROSOFT KINECT or the like.

Andere Sensoren können ebenfalls an die Steuerung 102 gekoppelt sein und eine Abschätzung einer Tiefe für ein Objekt in ihrem Sichtfeld bereitstellen. Zum Beispiel kann ein Ultraschallsensor 106 an die Steuerung 102 gekoppelt sein. Die Steuerung 102 kann zudem an ein Mikrofon 108 gekoppelt sein, das in der Kabine des Fahrzeugs positioniert ist, um gesprochene oder andere hörbare Befehle zu empfangen. Other sensors can also be connected to the controller 102 be coupled and provide an estimate of a depth for an object in its field of view. For example, an ultrasonic sensor 106 to the controller 102 be coupled. The control 102 can also be connected to a microphone 108 coupled in the cabin of the vehicle to receive spoken or other audible commands.

Die Steuerung 102 kann ein Symbolerkennungsmodul 110 ausführen, das die Datenströme von den Sensoren 104, 106 empfängt und visuelle Symbole identifiziert, die durch einen Insassen des Fahrzeugs ausgeführt werden. Beispielsweise können ausgeführte Symbole ASL-Symbole (American Sign Language (amerikanische Gebärdensprache)) sein. Auch wenn die hierin offenbarten Systeme und Verfahren in Bezug auf ASL beschrieben sind, kann jede andere Gebärdensprache in identischer Weise implementiert werden.The control 102 can be a symbol recognition module 110 execute the data streams from the sensors 104 . 106 receives and identifies visual symbols that are executed by an occupant of the vehicle. For example, executed symbols may be American Sign Language (ASL) symbols. Although the systems and methods disclosed herein are described in terms of ASL, any other sign language may be implemented in an identical manner.

Das Symbolerkennungsmodul 110 kann ein Sensorvorverarbeitungsmodul 112a beinhalten. Das Sensorvorverarbeitungsmodul 112a verarbeitet rohe Ausgaben jedes Sensors einzeln und identifiziert Ziele in den Sensorausgaben. Ziele im hier verwendeten Sinne beziehen sich auf Teile einer Hand, eines Arms oder eines Gesichts eines Insassen. Insbesondere können für eine Hand Fingerspitzen, Gelenke, Spannweiten zwischen Gelenken, eine Handfläche, ein Handrücken und ein Handgelenk identifiziert werden. Für einen Arm können ein Ellbogen, eine Schulter, ein Unterarm und ein Oberarm identifiziert werden. Für ein Gesicht können Augen, Nase, Mund identifiziert werden. Die Art und Weise, in der Ziele identifiziert werden, kann ein beliebiges Verfahren beinhalten, das auf dem Gebiet der Bildverarbeitung bekannt ist, wie beispielsweise solche, die durch MICROSOFT KINECT oder ähnliche Systeme implementiert werden. Die Ausgabe des Sensorvorverarbeitungsmoduls 112a kann eine Liste von Zielstellen sein, wobei solche Einträge die Werte <a, x, y, z> beinhalten, wobei ,a' eine Kennung des Ziels ist (Fingerspitze, Auge, Handfläche, erster Knöchel des Zeigefingers usw.) und ,x, y, z' dreidimensionale Koordinaten des Ziels im Sichtfeld des Sensors sind. In einigen Ausführungsformen kann die Liste von Zielstellen skelettartige Abbildungsvektoren repräsentieren oder in solche umgewandelt werden, die die Position der Ausrichtung von Knochen der Hand repräsentieren, um die Identifikation eines Symbols, das durch den Benutzer ausgeführt wird, zu erleichtern. Skelettartige Abbildungsvektoren können als Liniensegmente verkörpert sein, die die verschiedenen Knochen in den Händen, dem Handgelenk, dem Unterarm usw. definieren und eine Translation und Rotation in Bezug auf die Körpermitte aufweisen. Diese Liniensegmente variieren im Laufe der Zeit. Diese Liniensegmente können im Laufe der Zeit verfolgt werden und dem korrekten Körperteil zugeordnet werden. Die Bewegung der Körperpaare kann dann erfasst und interpretiert werden.The symbol recognition module 110 may be a sensor preprocessing module 112a include. The sensor preprocessing module 112a Each sensor processes raw outputs individually and identifies targets in the sensor outputs. Targets as used herein refer to portions of a hand, arm or face of an occupant. In particular, fingertips, joints, spans between joints, a palm, a back of the hand, and a wrist can be identified for one hand. An elbow, a shoulder, a forearm and an upper arm can be identified for one arm. For a face, eyes, nose, mouth can be identified. The manner in which targets are identified may include any method known in the field of image processing, such as those implemented by MICROSOFT KINECT or similar systems. The output of the sensor preprocessing module 112a may be a list of target locations, such entries containing the values <a, x, y, z>, where 'a' is an identifier of the target (fingertip, eye, palm, first ankle of the index finger, etc.) and, x, y, z 'are three-dimensional coordinates of the target in the field of view of the sensor. In some embodiments, the list of target sites may represent or be converted to skeletal imaging vectors that represent the position of bone alignment of the hand to facilitate identification of a symbol performed by the user. Skeletal imaging vectors may be embodied as line segments defining the various bones in the hands, wrist, forearm, etc., and having translation and rotation relative to the body center. These line segments vary over time. These line segments can be tracked over time and assigned to the correct body part. The movement of the body pairs can then be detected and interpreted.

Das Symbolerkennungsmodul 110 kann ein Zielzuordnungsmodul 112b beinhalten. Wenn mehrere Sensoren 104, 106 einen Insassen in ihrem Sichtfeld haben, können alle dasselbe Ziel erkennen. Dementsprechend kann das Zielzuordnungsmodul versuchen, Zielstellen, die dem gleichen Ziel entsprechen, miteinander abzugleichen. Wie nachstehend genauer beschrieben wird, kann dies das Ausführen eines Rao Blackwellized Monte Carlo Data Association (RBMCDA)-Algorithmus beinhalten. Die Ausgabe des Zielzuordnungsmoduls 112b kann eine Liste von Stellen für die nachverfolgten Ziele sein, wobei die Einträge für jede Liste einem einzelnen Ziel entsprechen, das aus den mehreren Messungen des einzelnen Ziels durch die mehreren Sensoren 104, 106 gemäß dem RBMCDA-Algorithmus abgeleitet wird.The symbol recognition module 110 can be a destination assignment module 112b include. If several sensors 104 . 106 have an occupant in their field of vision, everyone can see the same goal. Accordingly, the target mapper module may attempt to match target sites that correspond to the same destination. As will be described in greater detail below, this may involve performing a Rao Blackwelled Monte Carlo Data Association (RBMCDA) algorithm. The output of the destination mapper 112b may be a list of locations for the tracked destinations, where the entries for each list correspond to a single destination, that of the multiple measurements of the single destination by the multiple sensors 104 . 106 derived according to the RBMCDA algorithm.

Die Ausgabe des Zielzuordnungsmoduls 112b wird in ein Zielnachverfolgungsmodul 112c eingegeben, das die Liste von Zielstellen im Kontext der Bewegung des Ziels über die Zeit verarbeitet. Zum Beispiel kann das Zielnachverfolgungsmodul 112c die Stellen jedes Ziels über die Zeit gemäß einem Kalman-Filter unter Verwendung von Kontextinformationen verarbeiten. Der Kalman-Filter entfernt Rauschen in der erkannten Stelle jedes Ziels, d. h zufällige Abweichung, Ausreißer, die eindeutig fehlerhaft sind, usw.The output of the destination mapper 112b becomes a target tracking module 112c entered, which processes the list of target sites in the context of the movement of the target over time. For example, the destination tracking module 112c process the locations of each destination over time according to a Kalman filter using context information. The Kalman filter removes noise in the recognized location of each destination, i. h random deviation, outliers that are clearly flawed, etc.

Der Kalman-Filter, der auch als lineare quadratische Schätzung bezeichnet wird, ist ein Filter, der eine Reihe von Messungen über die Zeit hinweg durchführt und Schätzungen erzeugt, die genauer sind als diejenigen, die nur auf einer einzelnen Messung beruhen. Die Kontextinformationen sind die Messungen, die in der Vergangenheit und Zukunft einer konkreten Schätzung vorgenommen wurden/werden. Zum Beispiel verwendet die Schätzung für Zeitschritt = k Informationen von Zeitschritten = k-1, k und k+1.The Kalman filter, also referred to as a linear quadratic estimate, is a filter that performs a series of measurements over time and generates estimates that are more accurate than those based on a single measurement. The context information is the measurements made in the past and future of a concrete estimate. For example, the estimate for time step = k uses information from time steps = k-1, k and k + 1.

Die Stellen der Ziele, wie sie durch das Zielnachverfolgungsmodul 112c verarbeitet werden, können in das Decodierungsmodul 112d eingegeben werden. Das Decodierungsmodul 112d bildet einen Zustand der Ziele zu einem gegebenen Zeitpunkt und/oder eine Progression der Ziele über die Zeit auf ein ASL-Wort oder Zeichenausgangsdaten (z. B. Text) entsprechend dem ASL-Wort oder -Zeichen ab.The bodies of the goals, as determined by the target tracking module 112c can be processed in the decoding module 112d be entered. The decoding module 112d maps a state of the targets at a given time and / or a progression of the targets over time to an ASL word or character output data (eg, text) corresponding to the ASL word or character.

Die Ausgabe des Decodierungsmoduls 112d kann in eine Fahrzeugsystemschnittstelle 114 eingegeben werden. Die Fahrzeugsystemschnittstelle 114 kann eine Rechenvorrichtung oder eine durch die Steuerung 102 selbst implementierte Funktionalität sein, die Befehle an ein oder mehrere Fahrzeugsysteme 116a-116e koppelt und/oder Statusinformationen von diesen empfängt. Zum Beispiel können die Fahrzeugsysteme ein Soundsystem 116a, ein Navigationssystem 116b, mobile Anwendungen 116c, Mobiltelefonfunktionen 116d oder andere Funktionen 116e beinhalten. In einigen Ausführungsformen kann das Soundsystem 116a Teil eines Fahrzeug-Infotainmentsystems sein.The output of the decoding module 112d can in a vehicle system interface 114 be entered. The vehicle system interface 114 can be a computing device or one through the controller 102 self-implemented functionality be the commands to one or more vehicle systems 116a - 116e couples and / or receives status information from them. For example, the vehicle systems may be a sound system 116a , a navigation system 116b , mobile applications 116c , Cellphone features 116d or other functions 116e include. In some embodiments, the sound system may 116a Be part of a vehicle infotainment system.

Die Steuerung 102 kann an eine Anzeigevorrichtung 118 und eine Eingabevorrichtung 120 gekoppelt sein. Die Anzeigevorrichtung 118 und die Eingabevorrichtung 120 können als ein Berührungsbildschirm ausgebildet sein. In einigen Ausführungsformen ist die Anzeigevorrichtung 118 eine Heads-Up-Anzeige (HUD), die Informationen auf der Windschutzscheibe des Fahrzeugs oder auf einem anderen transparenten Bildschirm darstellt. Statusinformationen für die Fahrzeugsysteme 116a-116e können durch die Anzeigevorrichtung 118 dargestellt werden. Eingaben zum Steuern der Fahrzeugsysteme können auch durch die Eingabevorrichtung 120 empfangen werden. Die durch die Fahrzeugsystemschnittstelle 114 über die Eingabevorrichtung 120 empfangenen Eingaben können dieselben Funktionen aufrufen, die unter Verwendung von ASL-Symbolen aufgerufen werden können, die durch das Symbolerkennungsmodul 110 decodiert wurden.The control 102 can be connected to a display device 118 and an input device 120 be coupled. The display device 118 and the input device 120 may be configured as a touch screen. In some embodiments, the display device is 118 a heads-up display (HUD) that displays information on the windshield of the vehicle or on another transparent screen. Status information for the vehicle systems 116a - 116e can through the display device 118 being represented. Inputs to control the vehicle systems may also be through the input device 120 be received. The through the vehicle system interface 114 via the input device 120 received inputs can invoke the same functions that can be invoked using ASL symbols generated by the symbol recognition module 110 were decoded.

2 ist ein Blockdiagramm zur Veranschaulichung einer beispielhaften Rechenvorrichtung 200. Die Rechenvorrichtung 200 kann verwendet werden, um verschiedene Prozeduren, wie beispielsweise die hierin erläuterten, durchzuführen. Die Steuerung 102 und die Fahrzeugsystemschnittstelle 114 können einige oder alle Attribute der Rechenvorrichtung 200 aufweisen. 2 FIG. 4 is a block diagram illustrating an example computing device. FIG 200 , The computing device 200 can be used to perform various procedures, such as those discussed herein. The control 102 and the vehicle system interface 114 may have some or all attributes of the computing device 200 exhibit.

Die Rechenvorrichtung 200 beinhaltet einen oder mehrere Prozessor(en) 202, eine oder mehrere Speichervorrichtung(en) 204, eine oder mehrere Schnittstelle(n) 206, eine oder mehrere Massenspeichervorrichtung(en) 208, eine oder mehrere Ein-/Ausgabe-(E/A-)Vorrichtung(en) 210 und eine Anzeigevorrichtung 230, die alle an einen Bus 212 gekoppelt sind. Der/die Prozessor(en) 202 beinhaltet/beinhalten einen oder mehrere Prozessoren oder Steuerungen, die Anweisungen ausführen, die in der/den Speichervorrichtung(en) 204 und/oder der Massenspeichervorrichtung(en) 208 gespeichert sind. Der/die Prozessor(en) 202 kann/können auch verschiedene Arten von computerlesbaren Medien, wie beispielsweise einen Cache-Speicher, beinhalten.The computing device 200 includes one or more processors 202 , one or more storage device (s) 204 , one or more interface (s) 206 , one or more mass storage device (s) 208 , one or more input / output (I / O) device (s) 210 and a display device 230 all to a bus 212 are coupled. The processor (s) 202 includes / include one or more processors or controllers executing instructions stored in the storage device (s) 204 and / or the mass storage device (s) 208 are stored. The processor (s) 202 may also include various types of computer readable media, such as a cache memory.

Die Speichervorrichtung(en) 204 beinhaltet/beinhalten verschiedene computerlesbare Medien, wie beispielsweise einen flüchtigen Speicher (z. B. Arbeitsspeicher (Random Access Memory - RAM 214) und/oder einen nichtflüchtigen Speicher (z. B. einen Nur-Lese-Speicher (Read-Only Memory - ROM 216). Die Speichervorrichtung(en) 204 kann/können auch einen wiederbeschreibbaren ROM, wie beispielsweise einen Flash-Speicher, beinhalten.The storage device (s) 204 includes / include various computer-readable media, such as volatile memory (eg Random Access Memory - RAM 214 ) and / or a non-volatile memory (eg, a read-only memory - ROM 216 ). The storage device (s) 204 may also include a rewritable ROM, such as a flash memory.

Die Massenspeichervorrichtung(en) 208 beinhalten verschiedene computerlesbare Medien, wie beispielsweise Magnetbänder, Magnetplatten, optische Platten, Solid-State-Speicher (z. B. Flash-Speicher) und so weiter. Wie in 2 gezeigt, ist eine konkrete Massenspeichervorrichtung ein Festplattenlaufwerk 224. Verschiedene Laufwerke können auch in dem/den Massenspeichervorrichtung(en) 208 beinhaltet sein, um das Lesen von und/oder das Schreiben auf die verschiedenen computerlesbaren Medien zu ermöglichen. Die Massenspeichervorrichtung(en) 208 beinhaltet/beinhalten Wechselmedien 226 und/oder nicht entfernbare Medien.The mass storage device (s) 208 include various computer-readable media such as magnetic tapes, magnetic disks, optical disks, solid-state storage (e.g., flash memory), and so forth. As in 2 As shown, a concrete mass storage device is a hard disk drive 224 , Different drives may also be in the mass storage device (s) 208 be included to enable reading from and / or writing to the various computer-readable media. The mass storage device (s) 208 includes / contains removable media 226 and / or non-removable media.

Die E/A-Vorrichtung(en) 210 beinhaltet/beinhalten verschiedene Vorrichtungen, die ermöglichen, dass Daten und/oder andere Informationen in die Rechenvorrichtung 200 eingegeben werden oder daraus abgerufen werden. Zu (einer) beispielhaften E/A-Vorrichtung(en) 210 gehören Cursorsteuervorrichtungen, Tastaturen, Tastenfelder, Mikrofone, Monitore oder andere Anzeigevorrichtungen, Lautsprecher, Netzschnittstellenkarten, Modems, Linsen, CCDs oder andere Bilderfassungsvorrichtungen und dergleichen.The I / O device (s) 210 includes / include various devices that enable data and / or other information to be included in the computing device 200 be entered or retrieved from it. To an exemplary I / O device (s) 210 These include cursor control devices, keyboards, keypads, microphones, monitors or other display devices, speakers, network interface cards, modems, lenses, CCDs or other image capture devices, and the like.

Die Anzeigevorrichtung 230 beinhaltet eine beliebige Art von Vorrichtung, die Informationen für einen oder mehrere Benutzer der Rechenvorrichtung 200 anzeigen kann. Beispiele einer Anzeigevorrichtung 230 beinhalten einen Bildschirm, ein Anzeigegerät, eine Videoprojektionsvorrichtung und dergleichen.The display device 230 includes any type of device that provides information to one or more users of the computing device 200 can show. Examples of a display device 230 include a screen, a display device, a video projection device, and the like.

Die Schnittstelle(n) 206 beinhaltet/beinhalten verschiedene Schnittstellen, die ermöglichen, dass die Rechenvorrichtung 200 mit anderen Systemen, Vorrichtungen oder Rechenumgebungen interagiert. Beispielhafte Schnittstelle(n) 206 beinhalten eine beliebige Anzahl verschiedener Netzwerkschnittstellen 220, wie beispielsweise Schnittstellen zu lokalen Netzwerken (LAN), Wide Area Networks (WAN), drahtlosen Netzen und dem Internet. Andere Schnittstelle(n) beinhaltet/beinhalten eine Benutzerschnittstelle 218 und eine Peripherievorrichtungsschnittstelle 222. Zu der/den Schnittstelle(n) 206 können zudem eine oder mehrere Peripherieschnittstellen gehören, wie etwa Schnittstellen für Zeigevorrichtungen (Mäuse, Trackpad usw.), Tastaturen und dergleichen.The interface (s) 206 includes / include various interfaces that enable the computing device 200 interacts with other systems, devices or computing environments. Exemplary interface (s) 206 include any number of different network interfaces 220 such as local area network (LAN), wide area network (WAN), wireless networks, and the Internet interfaces. Other interface (s) include a user interface 218 and a peripheral device interface 222 , To the interface (s) 206 may also include one or more peripheral interfaces, such as pointing device interfaces (mice, trackpad, etc.), keyboards, and the like.

Der Bus 212 ermöglicht das Kommunizieren des Prozessors/der Prozessoren 202, der Speichervorrichtung(en) 204, der Schnittstelle(n) 206, der Massenspeichervorrichtung(en) 208, der E/A-Vorrichtung(en) 210 und der Anzeigevorrichtung 230 miteinander sowie mit anderen Vorrichtungen oder Komponenten, die an den Bus 212 gekoppelt sind. Der Bus 212 stellt eine oder mehrere verschiedene Arten von Busstrukturen dar, wie beispielsweise einen Systembus, PCI-Bus, IEEE 1394-Bus, USB-Bus und so weiter.The bus 212 allows communication of the processor (s) 202 , the storage device (s) 204 , the interface (s) 206 , the mass storage device (s) 208 , the I / O Device (s) 210 and the display device 230 with each other as well as with other devices or components attached to the bus 212 are coupled. The bus 212 Figure 1 illustrates one or more different types of bus structures, such as a system bus, PCI bus, IEEE 1394 bus, USB bus, and so forth.

Zum Zwecke der Veranschaulichung werden Programme und andere ausführbare Programmkomponenten hierin als diskrete Blöcke dargestellt, auch wenn sich versteht, dass derartige Programme und Komponenten sich zu verschiedenen Zeiten in unterschiedlichen Speicherkomponenten der Rechenvorrichtung 200 befinden können und von dem/den Prozessor(en) 202 ausgeführt werden. Alternativ können die hierin beschriebenen Systeme und Vorgänge in Hardware oder einer Kombination aus Hardware, Software und/oder Firmware umgesetzt sein. Ein oder mehrere anwendungsspezifische integrierte Schaltkreise (ASIC) können zum Beispiel dazu programmiert sein, eines bzw. einen oder mehrere der hier beschriebenen Systeme und Vorgänge auszuführen.For purposes of illustration, programs and other executable program components are illustrated herein as discrete blocks, although it should be understood that such programs and components may be stored in different memory components of the computing device at different times 200 and by the processor (s) 202 be executed. Alternatively, the systems and operations described herein may be implemented in hardware or a combination of hardware, software and / or firmware. For example, one or more application specific integrated circuits (ASIC) may be programmed to execute one or more of the systems and operations described herein.

Bezugnehmend auf 3 kann ein Fahrzeug 300 die darin untergebrachte Steuerung 102 sowie einige oder alle der anderen in 1 gezeigten elektronischen Komponenten beinhalten. Wie gezeigt, können die Bildgebungssensoren 104 in der Fahrzeugkabine derart angebracht sein, dass sie einen Insassen der Kabine in ihrem Sichtfeld haben. Ein Ultraschallsensor 106 oder eine andere Art von Sensor kann ebenfalls in der Fahrzeugkabine angebracht sein, der einen Insassen der Kabine in seinem Sichtfeld hat. In dem veranschaulichten Beispiel haben die Sensoren 104, 106 eine Fahrersitzposition in ihrem Sichtfeld. In einigen Ausführungsformen befinden sich sowohl die Fahrer- als auch die Beifahrersitzposition im Sichtfeld der Sensoren 104, 106. In einigen Ausführungsformen werden separate Sensoren 104, 106 für jede der Fahrersitzposition und der Beifahrersitzposition verwendet. In einigen Ausführungsformen befinden sich Rücksitzpositionen ebenfalls im Sichtfeld derselben Sensoren 104, 106 oder eines separaten Satzes von Sensoren 104, 106.Referring to 3 can a vehicle 300 the controller housed therein 102 as well as some or all of the others in 1 include electronic components shown. As shown, the imaging sensors can 104 be mounted in the vehicle cabin so that they have an occupant of the cabin in their field of view. An ultrasonic sensor 106 or another type of sensor may also be mounted in the vehicle cabin having an occupant of the cabin in his field of view. In the illustrated example, the sensors have 104 . 106 a driver's seat position in their field of vision. In some embodiments, both the driver and front passenger seat positions are within the field of view of the sensors 104 . 106 , In some embodiments, separate sensors 104 . 106 used for each of the driver's seat position and the passenger's seat position. In some embodiments, rear seat positions are also within the field of view of the same sensors 104 . 106 or a separate set of sensors 104 . 106 ,

Bezugnehmend auf 4 kann das veranschaulichte Verfahren 400 durch die Steuerung 102 ausgeführt werden, beispielsweise innerhalb der Fahrzeugsystemschnittstelle 114, um ASL-Symbole zu identifizieren, die in den Sichtfeldern der Sensoren 104, 106 ausgeführt werden. Das Verfahren 400 kann Empfangen (402) von Ausgaben der Sensoren 104, 106 beinhalten.Referring to 4 can the illustrated method 400 through the controller 102 be executed, for example, within the vehicle system interface 114 to identify ASL symbols in the fields of view of the sensors 104 . 106 be executed. The procedure 400 can receive ( 402 ) of outputs of the sensors 104 . 106 include.

Die Ausgaben werden dann unabhängig verarbeitet (404), um Zielstellen in jeder Sensorausgabe zu identifizieren. Insbesondere kann eine beliebige auf dem Gebiet bekannte Bildanalysetechnik verwendet werden, um Ziele in jeder Sensorausgabe individuell zu identifizieren. Die identifizierten Ziele können Teile der Hand, des Arms und des Gesichts des Benutzers, wie oben beschrieben, beinhalten. Wie ebenfalls oben angemerkt, kann das Identifizieren von Zielstellen das Identifizieren einer dreidimensionalen Stelle des Ziels beinhalten, d. h. einer Stelle, die Tiefe sowie vertikale und laterale Stellen innerhalb eines Bildes beinhaltet.The outputs are then processed independently ( 404 ) to identify target locations in each sensor output. In particular, any image analysis technique known in the art may be used to individually identify targets in each sensor output. The identified targets may include portions of the user's hand, arm and face as described above. As also noted above, identifying target locations may include identifying a three-dimensional location of the target, ie, a location that includes depth as well as vertical and lateral locations within an image.

Das Verfahren 400 kann dann Zuordnen (406) der Zielstellen zueinander beinhalten. Insbesondere können die Stellen, die aus den Sensorausgaben bestimmt wurden, die dem gleichen Ziel entsprechen, identifiziert und gruppiert oder anderweitig kombiniert werden. Die Art und Weise, in der aus den Ausgaben mehrerer Sensoren bestimmte Zielstellen bestimmt werden, um dem gleichen Ziel zu entsprechen, kann Ausführen des Rao Blackwellized Monte Carlo Data Association (RBMCDA)-Algorithmus beinhalten, wobei die aus jeder Sensorausgabe bestimmten Zielstellen die Eingaben sind und die Ausgaben Gruppierungen von Stellen sind, wobei jede Gruppierung Zielstellen von mehreren Sensorausgaben beinhaltet, die gemäß dem RBMCDA-Algorithmus bestimmt werden, um dem gleichen Ziel zu entsprechen.The procedure 400 can then assign ( 406 ) of the target points to each other. In particular, the locations determined from the sensor outputs corresponding to the same destination may be identified and grouped or otherwise combined. The manner in which outputs from a plurality of sensors determine particular target locations to conform to the same target may include executing the Rao Blackwelled Monte Carlo Data Association (RBMCDA) algorithm, where the target locations determined from each sensor output are the inputs and the outputs are groupings of locations, each grouping including destination locations of multiple sensor outputs determined according to the RBMCDA algorithm to correspond to the same destination.

Die Ausgabe des Zuordnungsschritts 406 kann eine Liste von Zielstellen für eine Vielzahl von Zielen sein. Der Schritt des Empfangens (402) von Sensorausgaben und die nachfolgenden Verarbeitungsschritte 404-406 können periodisch wiederholt werden, sodass Listen von Zielstellen als Ergebnis von Schritt 406 periodisch ausgegeben werden. Das Verfahren 400 kann ferner Filtern (408) dieser Listen von Stellen enthalten, um Rauschen und eindeutig fehlerhafte Ausreißer zu entfernen. Dementsprechend kann jede Zielstelle zu einer Reihe von vorhergehenden Zielstellen für das gleiche Ziel hinzugefügt werden, und diese Reihe von Werten kann gefiltert werden (408), wie etwa unter Verwendung eines Kalman-Filters. Der Filterungsschritt kann Kontextinformationen berücksichtigen.The output of the mapping step 406 can be a list of destinations for a variety of destinations. The step of receiving ( 402 ) of sensor outputs and the subsequent processing steps 404 - 406 can be repeated periodically so that lists of target locations as a result of step 406 be issued periodically. The procedure 400 can also filter ( 408 ) of these lists of locations to remove noise and unequally erroneous outliers. Accordingly, each destination can be added to a series of preceding destinations for the same destination, and this series of values can be filtered ( 408 ), such as using a Kalman filter. The filtering step can take context information into account.

Bezugnehmend auf 5 ist die Ausgabe des Filterungsschritts 408 ebenfalls eine Liste von Zielstellen, die gegenüber der in Schritt 406 ausgegebenen Liste modifiziert sein kann, und kann gemäß dem Verfahren 500 verarbeitet werden. Einige ASL-Symbole involvieren Bewegung sowie konkrete Konfigurationen der Hand, Finger und Arme. Dementsprechend kann das Verfahren 500 in Bezug auf einen Satz von Listen von Zielstellen über einen Zeitraum ausgeführt werden, um Bewegungen sowie die Position zu bestimmen.Referring to 5 is the output of the filtering step 408 also a list of destinations that are opposite to those in step 406 issued list may be modified, and may according to the method 500 are processed. Some ASL symbols involve movement as well as concrete configurations of the hand, fingers and arms. Accordingly, the method 500 with respect to a set of lists of target sites over a period of time to determine movements as well as position.

Das Verfahren 500 kann Identifizieren (502) eines Symbols gemäß einer Liste von Zielstellen oder einem Satz von Listen von Zielstellen beinhalten. Zum Beispiel kann das System kalibriert werden, indem es den Benutzer eine Vielzahl von ASL-Symbolen ausführen lässt. Wenn der Benutzer die Symbole ausführt, kann eine kalibrierte Liste von Zielstellen oder ein kalibrierter Satz von Listen von Zielstellen in der gleichen Weise wie für das Verfahren 400 der 4 bestimmt werden. Eine Bibliothek von kalibrierten Listen von Zielstellen oder kalibrierte Sätze von Listen von Zielstellen kann auf diese Weise erlangt werden, wobei jede kalibrierte Liste oder jeder kalibrierte Satz von Listen auf ein Symbol abgebildet wird, das ausgeführt wurde, als die zum Erlangen derselben verwendeten Sensorausgaben empfangen wurden.The procedure 500 can identify ( 502 ) of a symbol according to a list of destinations or a set of lists of destinations. For example, the system can be calibrated by having the user execute a variety of ASL symbols. When the user executes the symbols, a calibrated list of target locations or a calibrated set of lists of destination locations may be in the same manner as for the procedure 400 of the 4 be determined. A library of calibrated lists of destinations or calibrated sets of lists of destinations can be obtained in this manner, with each calibrated list or set of lists being mapped to a symbol that was executed when the sensor outputs used to obtain it were received ,

In einigen Ausführungsformen wird die Kalibrierung in Kombination mit einer Anwendung durchgeführt, die auf einem Mobiltelefon oder einer anderen Vorrichtung des Benutzers ausgeführt wird. Durch die Anwendung kann der Benutzer angewiesen werden, ein Symbol für eine konkrete Schnittstellenanweisung, ein Wort, ein Zeichen oder andere Daten auszuführen, und die Ausführung des Symbols kann dann aufgezeichnet und dieser konkreten Schnittstellenanweisung, dem Wort, dem Zeichen oder anderen Daten in der oben beschriebenen Weise zugeordnet werden.In some embodiments, the calibration is performed in combination with an application running on a mobile phone or other device of the user. Through the application, the user may be instructed to execute a symbol for a particular interface statement, word, character, or other data, and the execution of the symbol may then be recorded and that particular interface statement, word, character, or other data in the above be assigned described manner.

In einigen Ausführungsformen kann, wie oben angemerkt, eine Liste von Zielstellen als skelettartige Abbildungsvektoren verkörpert sein oder in diese umgewandelt werden, die die Position und Ausrichtung der Knochen des Benutzers basierend auf den Zielstellen repräsentieren. Die skelettartigen Abbildungsvektoren können dann mit kalibrierten skelettartigen Abbildungsvektoren verglichen werden, die aus der Beobachtung des Benutzers erlangt wurden, der Symbole während der Kalibrierungsphase, wie oben beschrieben, ausführt.In some embodiments, as noted above, a list of target sites may be embodied or transformed into skeletal imaging vectors that represent the location and orientation of the user's bones based on the target sites. The skeletal imaging vectors may then be compared to calibrated skeletal imaging vectors obtained from the observation of the user performing symbols during the calibration phase as described above.

Das Identifizieren (502) eines Symbols kann das Vergleichen einer aktuellen Liste von Zielstellen oder eines aktuellen Satzes von Listen von Zielstellen basierend auf Sensorausgaben während der Benutzerausführung eines Symbols mit der Bibliothek beinhalten. Die kalibrierte Liste oder der kalibrierte Satz von Listen, die mit der aktuellen Liste von Zielstellen oder dem aktuellen Satz von Listen von Zielstellen übereinstimmen, können identifiziert werden.Identifying ( 502 ) of a symbol may include comparing a current list of target locations or a current set of lists of target locations based on sensor outputs during user execution of a symbol with the library. The calibrated list or set of lists that match the current list of destinations or the current set of lists of destinations can be identified.

Sobald eine Übereinstimmung identifiziert ist, wird das Symbol, das auf die identifizierte kalibrierte Liste oder den identifizieren kalibrierten Satz von Listen abgebildet ist, auf einen Fahrzeugschnittstellenbefehl abgebildet (504). Dieser Befehl wird dann beispielsweise durch die Fahrzeugsystemschnittstelle 114 ausgeführt (506).Once a match is identified, the symbol mapped to the identified calibrated list or identify calibrated set of lists is mapped to a vehicle interface command ( 504 ). This command then becomes, for example, through the vehicle system interface 114 executed ( 506 ).

Bezugnehmend auf 6 können die Sensoren 104, 106 in einem Beispiel ein dreidimensionales Bild des Gesichts, der Hand und des Unterarms eines Benutzers erfassen. Für jede Sensorausgabe können Stellen 600 von Zielen identifiziert werden, einander zugeordnet, gefiltert und als eine Liste von Zielstellen ausgegeben werden, wie zuvor in Bezug auf 4 beschrieben wurde. In dem veranschaulichten Beispiel ist die Konfiguration der Hand in Bezug auf das Gesicht des Benutzers das ASL-Symbol für Telefon. Dementsprechend kann die Fahrzeugsystemschnittstelle beim Erkennen dieses Symbols Tätigen eines Telefonanrufs oder eine andere Handlung in Bezug auf das Mobiltelefon eines Benutzers aufrufen. Mehrere Symbole können erfasst werden, um komplexere Aufgaben aufzurufen oder um Parameter bereitzustellen, die die Ausführung einer Aufgabe definieren.Referring to 6 can the sensors 104 . 106 in one example, capture a three-dimensional image of a user's face, hand, and forearm. For each sensor output can be places 600 are identified, assigned, filtered, and output as a list of destinations, as previously described 4 has been described. In the illustrated example, the configuration of the hand with respect to the user's face is the ASL icon for telephone. Accordingly, upon detection of this icon, the vehicle system interface may invoke a telephone call or other action related to a user's mobile phone. Multiple icons can be captured to call more complex tasks or to provide parameters that define the execution of a task.

In einigen Ausführungsformen kann eine Übersetzungsfunktion derart implementiert sein, dass eine Text- oder Sprachwiedergabe eines oder mehrerer decodierter Symbole ausgegeben wird. Zum Beispiel kann ein Fahrer ASL-Symbole eingeben, die dann für einen Beifahrer, der keine ASL versteht, in Text oder Sprache übersetzt werden.In some embodiments, a translation function may be implemented such that a text or voice representation of one or more decoded symbols is output. For example, a driver may enter ASL symbols which may then be translated into text or speech for a passenger who does not understand ASL.

Bezugnehmend auf die 7A und 7B kann in einigen Ausführungsformen eine Rückmeldung an den Benutzer bereitgestellt werden. Zum Beispiel kann, wie in 7A gezeigt, die Hand 700 eines Benutzers (oder andere Teile des Benutzers, die zur Ausführung eines ASL-Symbols erforderlich sein können) auf einer Anzeigevorrichtung 118 dargestellt werden. Wenn das ausgeführte Symbol erfolgreich decodiert wurde, kann die Darstellung der Hand des Benutzers geändert werden, um zu bestätigen, dass das Symbol decodiert wurde. In dem veranschaulichten Beispiel ist eine Gitterdarstellung 702 der Hand des Benutzers gezeigt, beispielsweise basierend auf den Zielstellen, die gemäß den hierin offenbarten Verfahren identifiziert wurden.Referring to the 7A and 7B In some embodiments, feedback may be provided to the user. For example, as in 7A shown the hand 700 of a user (or other parts of the user that may be required to execute an ASL icon) on a display device 118 being represented. If the executed symbol was successfully decoded, the representation of the user's hand can be changed to confirm that the symbol has been decoded. In the illustrated example, a grid representation is shown 702 of the user's hand, for example, based on the target locations identified according to the methods disclosed herein.

Die vorliegende Erfindung kann in anderen konkreten Formen ausgeführt sein, ohne von ihrem Geist oder ihren wesentlichen Eigenschaften abzuweichen. Die beschriebenen Ausführungsformen sind in jeder Hinsicht nur als veranschaulichend und nicht einschränkend zu betrachten. Der Umfang der Erfindung wird daher vielmehr von den beigefügten Patentansprüchen als von der vorangegangenen Beschreibung angegeben. Alle Änderungen, die in die Bedeutung und den Bereich der Äquivalenz der Patentansprüche fallen, sind als in deren Umfang eingeschlossen zu verstehen.The present invention may be embodied in other specific forms without departing from its spirit or essential characteristics. The described embodiments are to be considered in all respects only as illustrative and not restrictive. The scope of the invention is, therefore, indicated by the appended claims rather than by the foregoing description. All changes which come within the meaning and range of the equivalency of the claims are to be understood as included within the scope thereof.

Claims (20)

Verfahren, umfassend Ausführen von Folgendem durch eine Fahrzeugsteuerung: Erfassen von dreidimensionalen (3D) Daten eines Benutzers unter Verwendung eines Sensors; Bestimmen, dass der Benutzer ein Gebärdensprachesymbol ausgeführt hat, aus den 3D-Daten; und Aufrufen einer Fahrzeugschnittstellenfunktion entsprechend dem Gebärdensprachesymbol.A method comprising, by a vehicle controller, performing the following: acquiring three-dimensional (3D) data of a user using a sensor; Determining that the user has executed a sign language icon from the 3D data; and calling a vehicle interface function according to the sign language icon. Verfahren nach Anspruch 1, wobei die Fahrzeugschnittstellenfunktion eine Navigationsfunktion ist.Method according to Claim 1 wherein the vehicle interface function is a navigation function. Verfahren nach Anspruch 1, wobei die Fahrzeugschnittstellenfunktion eine Soundsystemsteuerfünktion ist.Method according to Claim 1 wherein the vehicle interface function is a sound system control function. Verfahren nach Anspruch 1, wobei die Fahrzeugschnittstellenfunktion eine Ausgabe einer textbasierten oder hörbaren Übersetzung des Gebärdensprachesymbols ist.Method according to Claim 1 wherein the vehicle interface function is an output of a text-based or audible translation of the sign language symbol. Verfahren nach Anspruch 1, wobei der Sensor ein dreidimensionaler optischer Sensor ist.Method according to Claim 1 wherein the sensor is a three-dimensional optical sensor. Verfahren nach Anspruch 1, wobei der Sensor einer von einer Vielzahl von Sensoren ist, wobei die Vielzahl von Sensoren eine Vielzahl von dreidimensionalen optischen Sensoren beinhaltet.Method according to Claim 1 wherein the sensor is one of a plurality of sensors, the plurality of sensors including a plurality of three-dimensional optical sensors. Verfahren nach Anspruch 1, wobei der Sensor einer von einer Vielzahl von Sensoren ist, wobei die Vielzahl von Sensoren mindestens einen von einem dreidimensionalen optischen Sensor und einem Ultraschallsensor beinhaltet.Method according to Claim 1 wherein the sensor is one of a plurality of sensors, the plurality of sensors including at least one of a three-dimensional optical sensor and an ultrasonic sensor. Verfahren nach Anspruch 7, das ferner Folgendes umfasst: Empfangen einer Vielzahl von Ausgaben von der Vielzahl von Sensoren durch die Fahrzeugsteuerung; für jede Ausgabe der Vielzahl von Ausgaben, Identifizieren einer Vielzahl von Zielstellen, die jeweils einem Teil einer Hand des Benutzers entspricht; für jeden Teil einer Vielzahl von Teilen der Hand des Benutzers: Zuordnen einer Zielstelle zu einer Gruppe von Zielstellen für jeden Teil der Hand des Benutzers für jeden Sensor der Vielzahl von Sensoren; und zeitliches Filtern der Gruppe von Zielstellen für jeden Teil, um eine gefilterte Zielstelle zu erlangen; Identifizieren des Gebärdensprachesymbols gemäß den gefilterten Zielstellen für die Vielzahl von Teilen der Hand des Benutzers.Method according to Claim 7 , further comprising: receiving a plurality of outputs from the plurality of sensors by the vehicle controller; for each output of the plurality of outputs, identifying a plurality of destination locations each corresponding to a portion of a user's hand; for each part of a plurality of parts of the user's hand: assigning a target location to a group of target locations for each part of the user's hand for each sensor of the plurality of sensors; and temporally filtering the group of target sites for each part to obtain a filtered target site; Identifying the sign language icon according to the filtered target locations for the plurality of parts of the user's hand. Verfahren nach Anspruch 8, wobei das Zuordnen einer Zielstelle zu der Gruppe von Zielstellen für jeden Teil der Hand des Benutzers für jeden Sensor der Vielzahl von Sensoren Durchführen eines Rao Blackwellized Monte Carlo Data Association (RBMCDA)-Algorithmus umfasst.Method according to Claim 8 wherein assigning a target location to the group of destination locations for each part of the user's hand for each sensor of the plurality of sensors comprises performing a Rao Blackwellized Monte Carlo Data Association (RBMCDA) algorithm. Verfahren nach Anspruch 9, wobei das zeitliche Filtern der Gruppe von Zielstellen für jeden Teil zum Erlangen der gefilterten Zielstelle Durchführen einer Kalman-Filterung umfasst.Method according to Claim 9 wherein the time filtering of the group of target sites for each part to obtain the filtered target site comprises performing Kalman filtering. Fahrzeug, das Folgendes umfasst: eine Vielzahl von Fahrzeugsystemen, die in dem Fahrzeug untergebracht ist; einen Sensor mit einer Sitzposition des Fahrzeugs in einem Sichtfeld des Sensors; und eine Steuerung, die in dem Fahrzeug untergebracht ist und funktionsfähig an die Vielzahl von Fahrzeugsystemen und den Sensor gekoppelt ist, wobei die Steuerung programmiert ist zum: Erfassen von dreidimensionalen (3D) Daten eines Benutzers unter Verwendung des Sensors; Bestimmen, dass der Benutzer ein Gebärdensprachesymbol ausgeführt hat, aus den 3D-Daten; und Aufrufen einer Fahrzeugschnittstellenfunktion eines der Vielzahl von Fahrzeugsystemen, die dem Gebärdensprachesymbol entspricht.A vehicle comprising: a plurality of vehicle systems housed in the vehicle; a sensor having a seating position of the vehicle in a field of view of the sensor; and a controller housed in the vehicle and operably coupled to the plurality of vehicle systems and the sensor, the controller programmed to: Acquiring three-dimensional (3D) data of a user using the sensor; Determining that the user has executed a sign language icon from the 3D data; and Calling a vehicle interface function of one of the plurality of vehicle systems that corresponds to the sign language icon. Fahrzeug nach Anspruch 11, wobei die Fahrzeugschnittstellenfunktion eine Navigationsfunktion ist.Vehicle after Claim 11 wherein the vehicle interface function is a navigation function. Fahrzeug nach Anspruch 11, wobei die Fahrzeugschnittstellenfunktion eine Soundsystemsteuerfunktion ist.Vehicle after Claim 11 where the vehicle interface function is a sound system control function. Fahrzeug nach Anspruch 11, wobei die Fahrzeugschnittstellenfunktion eine Ausgabe einer textbasierten oder hörbaren Übersetzung des Gebärdensprachesymbols ist.Vehicle after Claim 11 wherein the vehicle interface function is an output of a text-based or audible translation of the sign language symbol. Fahrzeug nach Anspruch 11, wobei der Sensor ein dreidimensionaler optischer Sensor ist.Vehicle after Claim 11 wherein the sensor is a three-dimensional optical sensor. Fahrzeug nach Anspruch 11, wobei der Sensor einer von einer Vielzahl von Sensoren ist, wobei die Vielzahl von Sensoren eine Vielzahl von dreidimensionalen optischen Sensoren beinhaltet.Vehicle after Claim 11 wherein the sensor is one of a plurality of sensors, the plurality of sensors including a plurality of three-dimensional optical sensors. Fahrzeug nach Anspruch 11, wobei der Sensor einer von einer Vielzahl von Sensoren ist, wobei die Vielzahl von Sensoren mindestens einen von einem dreidimensionalen optischen Sensor und einem Ultraschallsensor beinhaltet.Vehicle after Claim 11 wherein the sensor is one of a plurality of sensors, the plurality of sensors including at least one of a three-dimensional optical sensor and an ultrasonic sensor. System nach Anspruch 11, wobei die Steuerung ferner für Folgendes programmiert ist: Empfangen einer Vielzahl von Ausgaben von der Vielzahl von Sensoren; für jede Ausgabe der Vielzahl von Ausgaben, Identifizieren einer Vielzahl von Zielstellen, die jeweils einem Teil einer Hand des Benutzers entsprechen; für jeden Teil einer Vielzahl von Teilen der Hand des Benutzers: Zuordnen einer Zielstelle zu einer Gruppe von Zielstellen für jeden Teil der Hand des Benutzers für jeden Sensor der Vielzahl von Sensoren; und zeitliches Filtern der Gruppe von Zielstellen für jeden Teil, um eine gefilterte Zielstelle zu erlangen; und Identifizieren des Gebärdensprachesymbols gemäß den gefilterten Zielstellen für die Vielzahl von Teilen der Hand des Benutzers.System after Claim 11 wherein the controller is further programmed to: receive a plurality of outputs from the plurality of sensors; for each output of the plurality of outputs, identifying a plurality of destination locations each corresponding to a portion of a user's hand; for each part of a plurality of parts of the user's hand: assigning a target location to a group of target locations for each part of the user's hand for each sensor of the plurality of sensors; and temporally filtering the group of target sites for each part to obtain a filtered target site; and identifying the sign language icon according to the filtered destination locations for the plurality of portions of the user's hand. Fahrzeug nach Anspruch 18, wobei die Steuerung ferner programmiert ist, um der Gruppe von Zielstellen für jeden Teil der Hand des Benutzers für jeden Sensor der Vielzahl von Sensoren eine Zielstelle zuzuordnen, indem ein Rao Blackwellized Monte Carlo Data Association (RBMCDA)-Algorithmus durchgeführt wird.Vehicle after Claim 18 wherein the controller is further programmed to assign a target location to the group of destination locations for each portion of the user's hand for each sensor of the plurality of sensors by performing a Rao Blackwelled Monte Carlo Data Association (RBMCDA) algorithm. Fahrzeug nach Anspruch 19, wobei die Steuerung ferner programmiert ist, um die Gruppe von Zielstellen für jeden Teil zeitlich zu filtern, um die gefilterte Zielstelle durch Ausführen einer Kalman-Filterung zu erlangen.Vehicle after Claim 19 wherein the controller is further programmed to time-filter the group of target locations for each part to obtain the filtered target location by performing Kalman filtering.
DE112016006769.0T 2016-05-20 2016-05-20 Method for sign language input into a user interface of a vehicle and vehicle Active DE112016006769B4 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2016/033606 WO2017200553A1 (en) 2016-05-20 2016-05-20 Sign language inputs to a vehicle user interface

Publications (2)

Publication Number Publication Date
DE112016006769T5 true DE112016006769T5 (en) 2019-01-03
DE112016006769B4 DE112016006769B4 (en) 2024-03-28

Family

ID=60325410

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112016006769.0T Active DE112016006769B4 (en) 2016-05-20 2016-05-20 Method for sign language input into a user interface of a vehicle and vehicle

Country Status (4)

Country Link
US (1) US11009963B2 (en)
CN (1) CN109153332B (en)
DE (1) DE112016006769B4 (en)
WO (1) WO2017200553A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020193123A1 (en) * 2019-03-25 2020-10-01 Volkswagen Aktiengesellschaft Method for providing voice control in sign language in a voice control system for a vehicle
DE102022102596A1 (en) 2022-02-03 2023-08-03 Audi Aktiengesellschaft Device for communicating with people, in particular people who are deaf and dumb, when operating a vehicle

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3707693A1 (en) * 2017-11-08 2020-09-16 Signall Technologies Zrt Computer vision based sign language interpreter
KR102554934B1 (en) * 2018-04-17 2023-07-12 현대자동차주식회사 Vehicle including communication system for disabled person and control method of communication system for disabled person

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030202683A1 (en) * 2002-04-30 2003-10-30 Yue Ma Vehicle navigation system that automatically translates roadside signs and objects
WO2004107266A1 (en) * 2003-05-29 2004-12-09 Honda Motor Co., Ltd. Visual tracking using depth data
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US8577593B2 (en) 2005-08-18 2013-11-05 General Motors Llc Navigation system for hearing-impaired operators
US7801332B2 (en) 2007-01-12 2010-09-21 International Business Machines Corporation Controlling a system based on user behavioral signals detected from a 3D captured image stream
US20100014711A1 (en) * 2008-07-16 2010-01-21 Volkswagen Group Of America, Inc. Method for controlling an illumination in a vehicle interior in dependence on a head pose detected with a 3D sensor
US8396252B2 (en) * 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US8751215B2 (en) 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
US9296299B2 (en) 2011-11-16 2016-03-29 Autoconnect Holdings Llc Behavioral tracking and vehicle applications
US20130050131A1 (en) * 2011-08-23 2013-02-28 Garmin Switzerland Gmbh Hover based navigation user interface control
DE102012000274A1 (en) * 2012-01-10 2013-07-11 Daimler Ag A method and apparatus for operating functions in a vehicle using gestures executed in three-dimensional space and related computer program product
US9235941B2 (en) * 2012-03-14 2016-01-12 Autoconnect Holdings Llc Simultaneous video streaming across multiple channels
US9147298B2 (en) * 2012-03-14 2015-09-29 Flextronics Ap, Llc Behavior modification via altered map routes based on user profile information
US8942881B2 (en) * 2012-04-02 2015-01-27 Google Inc. Gesture-based automotive controls
DE102012020607B4 (en) 2012-10-19 2015-06-11 Audi Ag A motor vehicle with a gesture control device and method for controlling a selection element
EP2738645A1 (en) * 2012-11-30 2014-06-04 Harman Becker Automotive Systems GmbH Vehicle gesture recognition system and method
US9122916B2 (en) 2013-03-14 2015-09-01 Honda Motor Co., Ltd. Three dimensional fingertip tracking
DE102013010932B4 (en) * 2013-06-29 2015-02-12 Audi Ag Method for operating a user interface, user interface and motor vehicle with a user interface
EP2857276B1 (en) * 2013-08-20 2018-12-12 Harman International Industries, Incorporated Driver assistance system
US20150081133A1 (en) * 2013-09-17 2015-03-19 Toyota Motor Sales, U.S.A., Inc. Gesture-based system enabling children to control some vehicle functions in a vehicle
DE102013224810A1 (en) 2013-12-04 2015-06-11 Volkswagen Aktiengesellschaft System for monitoring an interior of a vehicle
JP6553052B2 (en) * 2014-01-03 2019-07-31 ハーマン インターナショナル インダストリーズ インコーポレイテッド Gesture-interactive wearable spatial audio system
EP2891950B1 (en) 2014-01-07 2018-08-15 Sony Depthsensing Solutions Human-to-computer natural three-dimensional hand gesture based navigation method
DE102014202834A1 (en) * 2014-02-17 2015-09-03 Volkswagen Aktiengesellschaft User interface and method for contactless operation of a hardware-designed control element in a 3D gesture mode
GB2523353B (en) * 2014-02-21 2017-03-01 Jaguar Land Rover Ltd System for use in a vehicle
KR101854633B1 (en) 2014-08-26 2018-05-04 도요타 모터 세일즈, 유.에스.에이., 인코포레이티드 Integrated wearable article for interactive vehicle control system
EP3245093B1 (en) * 2015-01-12 2021-09-01 Harman International Industries, Incorporated Cognitive load driving assistant
US10481696B2 (en) * 2015-03-03 2019-11-19 Nvidia Corporation Radar based user interface
US10310617B2 (en) * 2015-06-11 2019-06-04 Intel Corporation Drone controlling device and method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020193123A1 (en) * 2019-03-25 2020-10-01 Volkswagen Aktiengesellschaft Method for providing voice control in sign language in a voice control system for a vehicle
CN113573938A (en) * 2019-03-25 2021-10-29 大众汽车股份公司 Method for providing a language dialogue in sign language in a language dialogue system of a vehicle
DE102022102596A1 (en) 2022-02-03 2023-08-03 Audi Aktiengesellschaft Device for communicating with people, in particular people who are deaf and dumb, when operating a vehicle

Also Published As

Publication number Publication date
WO2017200553A1 (en) 2017-11-23
DE112016006769B4 (en) 2024-03-28
US20190204931A1 (en) 2019-07-04
CN109153332A (en) 2019-01-04
CN109153332B (en) 2022-07-08
US11009963B2 (en) 2021-05-18

Similar Documents

Publication Publication Date Title
DE102012212217B4 (en) Control system for a vehicle
DE112016006769B4 (en) Method for sign language input into a user interface of a vehicle and vehicle
DE202017105184U1 (en) Deep machine learning to perform a touch movement prediction
DE102016210288A1 (en) Eyetracker unit operating device and method for calibrating an eyetracker unit of an operating device
DE102014200782A1 (en) Operating a vehicle according to the desire of a vehicle occupant
DE102014206626A1 (en) Fatigue detection using data glasses (HMD)
DE102020126953B3 (en) System and method for detecting a spatial orientation of a portable device
EP3435202A1 (en) Allocation of a tool to a gesture
EP3865915A1 (en) Position estimation in different coordinate systems
DE102014226553A1 (en) Method for operating an input device, input device, motor vehicle
DE102015201613A1 (en) Method and device for operating an input device, input device
DE102021005092A1 (en) Method and device for recognizing emotional states of occupants of a vehicle
DE102016001054A1 (en) Method for entering a command in a control unit of a vehicle
DE112019007569T5 (en) Operator judging device and operator judging method
DE102017122554A1 (en) INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING AND STORAGE MEDIUM
DE102014224599A1 (en) Method for operating an input device, input device
DE102017215074A1 (en) Method and selection unit for selecting a virtual object or a picture parameter value
WO2022106414A2 (en) Method and system for annotating sensor data
DE102015215044A1 (en) Method and system for processing multimodal input signals
DE102014017179B4 (en) Method for operating a navigation system of a motor vehicle using an operating gesture
DE102018217014A1 (en) Dynamic qualification of user data
DE102014211865A1 (en) Custom interface system and operating method thereof
DE102013211046A1 (en) Method and device for obtaining a control signal from an operating gesture
DE102018100335A1 (en) Method for 3D gesture recognition
WO2024099605A1 (en) Method and device for tracking an object

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: LORENZ SEIDLER GOSSEL RECHTSANWAELTE PATENTANW, DE

R084 Declaration of willingness to licence
R012 Request for examination validly filed
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: B60K0037060000

Ipc: B60K0035100000

R018 Grant decision by examination section/examining division