DE112016006769T5 - Sign language input to a user interface of a vehicle - Google Patents
Sign language input to a user interface of a vehicle Download PDFInfo
- Publication number
- DE112016006769T5 DE112016006769T5 DE112016006769.0T DE112016006769T DE112016006769T5 DE 112016006769 T5 DE112016006769 T5 DE 112016006769T5 DE 112016006769 T DE112016006769 T DE 112016006769T DE 112016006769 T5 DE112016006769 T5 DE 112016006769T5
- Authority
- DE
- Germany
- Prior art keywords
- vehicle
- sensor
- sensors
- user
- sign language
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000006870 function Effects 0.000 claims abstract description 24
- 230000003287 optical effect Effects 0.000 claims abstract description 9
- 238000001914 filtration Methods 0.000 claims abstract description 8
- 238000000034 method Methods 0.000 claims description 39
- 238000013519 translation Methods 0.000 claims description 4
- 210000003423 ankle Anatomy 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 13
- 238000003384 imaging method Methods 0.000 description 10
- 238000004590 computer program Methods 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 210000000988 bone and bone Anatomy 0.000 description 3
- 210000000245 forearm Anatomy 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 208000032041 Hearing impaired Diseases 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000001444 catalytic combustion detection Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3664—Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/46—Volume control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/146—Instrument input by gesture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/146—Instrument input by gesture
- B60K2360/1464—3D-gesture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/40—Hardware adaptations for dashboards or instruments
- B60K2360/48—Sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30268—Vehicle interior
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Sensoren in einem Fahrzeug erkennen die Ausführung eines Gebärdensprachesymbols. Das Gebärdensprachesymbol ruft eine Fahrzeugschnittstellenfunktion auf. In einigen Ausführungsformen ist das Gebärdensprachesymbol eine ASL-Gebärde. Die Sensoren beinhalten dreidimensionale optische, Ultraschall- oder andere Sensoren. Die Stellen von Zielen (Fingerspitzen, Knöchel, Handfläche usw.) werden in den einzelnen Ausgaben der Sensoren erkannt. Die Stellen von Zielen, die aus den Ausgaben von mehreren Sensoren bestimmt werden, können einander zugeordnet und gefiltert werden, beispielsweise unter Verwendung eines RBMCDA-Algorithmus und einer Kalman-Filterung. Das System kann kalibriert werden, um jedes Symbol durch Messen der Zielstellen zu erkennen, wobei der Benutzer das jeweilige Symbol ausführt.Sensors in a vehicle recognize the execution of a sign language symbol. The sign language icon invokes a vehicle interface function. In some embodiments, the sign language icon is an ASL gesture. The sensors include three-dimensional optical, ultrasonic or other sensors. The locations of targets (fingertips, ankles, palm, etc.) are detected in the individual outputs of the sensors. The locations of targets determined from the outputs of multiple sensors can be matched and filtered using, for example, an RBMCDA algorithm and Kalman filtering. The system can be calibrated to recognize each symbol by measuring the target locations, with the user performing the respective symbol.
Description
ALLGEMEINER STAND DER TECHNIKGENERAL PRIOR ART
GEBIET DER ERFINDUNGFIELD OF THE INVENTION
Diese Erfindung betrifft Benutzerschnittstellen für Systeme eines Fahrzeugs.This invention relates to user interfaces for systems of a vehicle.
ALLGEMEINER STAND DER TECHNIKGENERAL PRIOR ART
Ein modernes Fahrzeug erfüllt viele Funktionen über den Transport hinaus. Zum Beispiel können Soundsysteme, Klimaregelungen, Schnittstellen zu einem Mobiltelefon oder einem anderen Kommunikationssystem und andere Funktionen für einen Insassen eines Fahrzeugs bereitgestellt werden. Dementsprechend müssen Bedienelemente für diese Funktionen bereitgestellt werden. Um die Anzahl der Tasten zu reduzieren, können Schnittstellenfunktionen unter Verwendung einer Berührungsbildschirmschnittstelle implementiert werden. Die Bedienelemente können weiter vereinfacht werden, indem ein Sprachsteuersystem, wie etwa das FORD SYNC-System, bereitgestellt wird.A modern vehicle fulfills many functions beyond transport. For example, sound systems, climate controls, interfaces to a mobile telephone or other communication system, and other functions may be provided to an occupant of a vehicle. Accordingly, controls for these functions must be provided. To reduce the number of keys, interface functions may be implemented using a touch screen interface. The controls may be further simplified by providing a voice control system, such as the FORD SYNC system.
Die hierin offenbarten Systeme und Verfahren stellen einen verbesserten Ansatz zum Empfangen von Benutzereingaben von Hörgeschädigten bereit, ohne dass eine Interaktion mit einem Berührungsbildschirm oder einem anderen physischen Schnittstellenelement erforderlich ist.The systems and methods disclosed herein provide an improved approach to receiving user input from the hearing-impaired without requiring interaction with a touch screen or other physical interface element.
Figurenlistelist of figures
Um die Vorteile der Erfindung ohne Weiteres zu verstehen, wird eine genauere Beschreibung der oben kurz beschriebenen Erfindung durch Verweis auf spezifische Ausführungsformen, welche in den beigefügten Zeichnungen veranschaulicht sind, bereitgestellt. Da es sich versteht, dass diese Zeichnungen nur typische Ausführungsformen der Erfindung darstellen und daher nicht als ihren Umfang einschränkend zu betrachten sind, wird die Erfindung mit zusätzlicher Genauigkeit und in Einzelheiten durch die Verwendung der beigefügten Zeichnungen beschrieben und erläutert, wobei:
-
1 ein schematisches Blockdiagramm eines Systems zum Implementieren von Ausführungsformen der Erfindung ist; -
2 ein schematisches Blockdiagramm einer beispielhaften Rechenvorrichtung ist, die zum Implementieren von Verfahren gemäß Ausführungsformen der Erfindung geeignet ist; -
3 ein schematisches Diagramm eines Fahrzeugs mit Sensoren zum Erkennen von visuellen Eingaben gemäß einer Ausführungsform der vorliegenden Erfindung ist; -
4 ein Prozessablaufdiagramm eines Verfahrens zum Decodieren von visuellen Symbolen von mehreren Sensoren gemäß einer Ausführungsform der vorliegenden Erfindung ist; -
5 ein Prozessablaufdiagramm eines Verfahrens zum Steuern eines Fahrzeugsystems unter Verwendung eines visuellen Symbols gemäß einer Ausführungsform der vorliegenden Erfindung ist; -
6 ein Diagramm ist, das in einem Bild erkannte Ziele gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulicht; und -
7A und7B ein Verfahren zum Bereitstellen einer visuellen Bestätigung der Eingabe eines visuellen Symbols gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulichen.
-
1 Figure 3 is a schematic block diagram of a system for implementing embodiments of the invention; -
2 FIG. 10 is a schematic block diagram of an example computing device suitable for implementing methods in accordance with embodiments of the invention; FIG. -
3 Figure 3 is a schematic diagram of a vehicle having visual input sensors according to an embodiment of the present invention; -
4 Fig. 10 is a process flow diagram of a method for decoding visual symbols of multiple sensors according to one embodiment of the present invention; -
5 Fig. 10 is a process flow diagram of a method of controlling a vehicle system using a visual symbol according to an embodiment of the present invention; -
6 Fig. 12 is a diagram illustrating targets detected in an image according to an embodiment of the present invention; and -
7A and7B illustrate a method of providing visual confirmation of the input of a visual symbol in accordance with an embodiment of the present invention.
DETAILLIERTE BESCHREIBUNGDETAILED DESCRIPTION
Es versteht sich ohne Weiteres, dass die Komponenten der vorliegenden Erfindung, wie sie hierin allgemein beschrieben und in den Figuren veranschaulicht sind, in einer großen Bandbreite unterschiedlicher Konfigurationen angeordnet und gestaltet sein können. Somit ist die folgende detailliertere Beschreibung der Ausführungsformen der Erfindung, wie sie in den Figuren dargestellt ist, nicht als den Umfang der beanspruchten Erfindung einschränkend, sondern als rein repräsentativ für bestimmte Beispiele von gegenwärtig in Erwägung gezogenen Ausführungsformen gemäß der Erfindung zu verstehen. Die gegenwärtig beschriebenen Ausführungsformen werden am besten unter Bezugnahme auf die Zeichnungen verstanden, in denen gleiche Teile durch gleiche Bezugszeichen bezeichnet sind.It will be readily understood that the components of the present invention, as generally described herein and illustrated in the figures, may be arranged and configured in a wide variety of different configurations. Thus, the following more detailed description of the embodiments of the invention as illustrated in the figures is not to be taken as limiting the scope of the claimed invention but as merely representative of certain examples of presently contemplated embodiments according to the invention. The presently described embodiments are best understood with reference to the drawings, in which like parts are designated by like reference characters.
Ausführungsformen gemäß der vorliegenden Erfindung können als eine Vorrichtung, ein Verfahren oder ein Computerprogrammprodukt ausgeführt sein. Dementsprechend kann die vorliegende Offenbarung die Form einer vollständig in Hardware enthaltenen Ausführungsform, einer vollständig in Software enthaltenen Ausführungsform (einschließlich Firmware, residente Software, Microcode usw.), oder einer Ausführungsform, die Software und Hardware kombiniert, annehmen, die alle allgemein hierin als ein „Modul“ oder „System“ bezeichnet werden. Weiterhin kann die vorliegende Erfindung die Form eines Computerprogrammprodukts annehmen, das in einem konkreten Ausdrucksmedium mit vom Computer verwendbarem Programmcode, der im Medium enthalten ist, ausgeführt wird. Embodiments according to the present invention may be embodied as a device, method, or computer program product. Accordingly, the present disclosure may take the form of a fully hardware embodied embodiment, an entirely software embodied embodiment (including firmware, resident software, microcode, etc.), or an embodiment combining software and hardware, all of which are generally incorporated herein by reference "Module" or "system". Furthermore, the present invention may take the form of a computer program product executed in a concrete expression medium having computer usable program code contained in the medium.
Jede Kombination von einem oder mehreren computerverwendbaren oder computerlesbaren Medien kann verwendet werden. Beispielsweise kann ein computerlesbares Medium eines oder mehrere von einer tragbaren Computerdiskette, einer Festplatte, eines Arbeitsspeicher (RAM)-Gerät, eines schreibgeschützten Speicher (ROM)-Gerät, eines programmierbaren Nur-Lesespeicher (EPROM- oder Flash-Speicher)-Geräts, eines tragbaren Compact Disc-Lesespeicher (CDROM)-Geräts, eines optischen Speichergeräts und eines magnetischen Speichergeräts beinhalten. In ausgewählten Ausführungsformen kann ein computerlesbares Medium jedes nicht-transitorische Medium umfassen, das das Programm zum Verwenden durch oder in Verbindung mit dem Befehlsausführungssystem, der Vorrichtung oder dem Gerät enthalten, speichern, kommunizieren, verbreiten oder transportieren kann.Any combination of one or more computer-usable or computer-readable media may be used. For example, a computer readable medium may include one or more of a portable computer diskette, a hard disk, a random access memory (RAM) device, a read only memory (ROM) device, a programmable read only memory (EPROM or flash memory) device, a portable compact disc read only memory (CDROM) device, an optical disk Storage device and a magnetic storage device include. In selected embodiments, a computer-readable medium may include any non-transitory medium that may contain, store, communicate, propagate, or transport the program for use by or in connection with the instruction execution system, device, or device.
Ein Computerprogrammcode zum Ausführen von Vorgängen der vorliegenden Erfindung kann in jeder beliebigen Kombination von einer oder mehreren Programmiersprachen, einschließlich einer objektorientierten Programmiersprache, wie beispielsweise Java, Smalltalk, C++ oder dergleichen, und herkömmlicher prozeduraler Programmiersprachen, wie beispielsweise die „C“-Programmiersprache oder ähnliche Programmiersprachen, geschrieben sein. Der Programmcode kann gänzlich auf einem Computersystem als ein eigenständiges Software-Paket, auf einer eigenständigen Hardware-Einheit, teilweise auf einem Ferncomputer, der sich in einigem Abstand zum Computer befindet, oder gänzlich auf einem Ferncomputer oder - server ausgeführt werden. In letztgenanntem Fall kann der Ferncomputer mit dem Computer mittels einer beliebigen Art von Netz verbunden sein, einschließlich eines lokalen Netzes (LAN) oder eines Großraumnetzes (WAN), oder die Verbindung kann mit einem externen Computer hergestellt werden (zum Beispiel mittels des Internets unter Verwendung eines Internetdienstleistungsanbieters).Computer program code for performing operations of the present invention may be in any combination of one or more programming languages, including an object-oriented programming language such as Java, Smalltalk, C ++ or the like, and conventional procedural programming languages such as the "C" programming language or the like Programming languages, be written. The program code may be executed entirely on a computer system as a stand-alone software package, on a stand-alone hardware device, partially on a remote computer some distance away from the computer, or entirely on a remote computer or server. In the latter case, the remote computer may be connected to the computer by any type of network, including a local area network (LAN) or a wide area network (WAN), or the connection may be made to an external computer (for example, using the Internet using an internet service provider).
Die vorliegende Erfindung wird nachfolgend unter Bezugnahme auf Ablaufdiagrammveranschaulichungen und/oder Blockdiagramme von Verfahren, Vorrichtungen (Systemen) und Computerprogrammprodukten gemäß Ausführungsformen der Erfindung beschrieben. Es versteht sich, dass jeder Block der Ablaufdiagrammveranschaulichungen und/oder Blockdiagramme und Kombinationen von Blöcken in den Ablaufdiagrammveranschaulichungen und/oder Blockdiagrammen durch Computerprogrammanweisungen oder einen Computerprogrammcode eingerichtet sein kann. Diese Computerprogrammanweisungen können einem Prozessor eines Universalcomputers, eines Spezialcomputers oder einer anderen programmierbaren, Daten verarbeitenden Vorrichtung zur Herstellung einer Maschine bereitgestellt sein, sodass die Anweisungen, die über den Prozessor des Computers oder der anderen programmierbaren, Daten verarbeitenden Vorrichtung ausgeführt werden, Mittel zum Einrichten der Funktionen/Handlungen, die in dem Block oder den Blöcken des Flussdiagramms und/oder des Blockdiagramms spezifiziert sind, schaffen.The present invention will now be described with reference to flowchart illustrations and / or block diagrams of methods, apparatus (systems), and computer program products according to embodiments of the invention. It should be understood that each block of the flowchart illustrations and / or block diagrams and combinations of blocks in the flowchart illustrations and / or block diagrams may be implemented by computer program instructions or computer program code. These computer program instructions may be provided to a processor of a general purpose computer, a special purpose computer, or other programmable data processing device for manufacturing a machine such that the instructions executed via the processor of the computer or other programmable data processing device include means for setting up the computer Functions / actions specified in the block or blocks of the flowchart and / or the block diagram create.
Diese Computerprogrammanweisungen können ebenso in einem nichtflüchtigen computerlesbaren Medium gespeichert werden, das einen Computer oder eine andere programmierbare, Daten verarbeitende Vorrichtung dazu veranlasst, in einer bestimmten Art und Weise zu funktionieren, sodass die im computerlesbaren Medium gespeicherten Anweisungen einen Fertigungsgegenstand herstellen, einschließlich Anweisungsmitteln, die die Funktion/Handlung, die in dem Block oder den Blöcken des Ablaufdiagramms und/oder des Blockdiagramms spezifiziert ist, einrichten.These computer program instructions may also be stored in a non-transitory computer readable medium that causes a computer or other programmable data processing device to function in a particular manner such that the instructions stored in the computer readable medium produce an article of manufacture, including instruction means set up the function / action specified in the block or blocks of the flowchart and / or block diagram.
Die Computerprogrammanweisungen können ebenso auf einen Computer oder eine andere programmierbare, Daten verarbeitende Vorrichtung geladen werden, um zu veranlassen, dass eine Reihe von Verfahrensschritten auf dem Computer oder der anderen programmierbaren Vorrichtung durchgeführt wird, um ein computereingerichtetes Verfahren herzustellen, sodass die Anweisungen, die auf dem Computer oder der anderen programmierbaren Vorrichtung ausgeführt werden, Verfahren zum Einrichten der Funktionen/Handlungen bereitstellen, die in dem Block oder den Blöcken des Flussdiagramms und/oder des Blockdiagramms spezifiziert sind.The computer program instructions may also be loaded onto a computer or other programmable data processing device to cause a series of method steps to be performed on the computer or other programmable device to produce a computer-implemented method such that the instructions that rely on the computer or other programmable device, provide methods for establishing the functions / actions specified in the block or blocks of the flowchart and / or block diagram.
Die Steuerung
Andere Sensoren können ebenfalls an die Steuerung
Die Steuerung
Das Symbolerkennungsmodul
Das Symbolerkennungsmodul
Die Ausgabe des Zielzuordnungsmoduls
Der Kalman-Filter, der auch als lineare quadratische Schätzung bezeichnet wird, ist ein Filter, der eine Reihe von Messungen über die Zeit hinweg durchführt und Schätzungen erzeugt, die genauer sind als diejenigen, die nur auf einer einzelnen Messung beruhen. Die Kontextinformationen sind die Messungen, die in der Vergangenheit und Zukunft einer konkreten Schätzung vorgenommen wurden/werden. Zum Beispiel verwendet die Schätzung für Zeitschritt = k Informationen von Zeitschritten = k-1, k und k+1.The Kalman filter, also referred to as a linear quadratic estimate, is a filter that performs a series of measurements over time and generates estimates that are more accurate than those based on a single measurement. The context information is the measurements made in the past and future of a concrete estimate. For example, the estimate for time step = k uses information from time steps = k-1, k and k + 1.
Die Stellen der Ziele, wie sie durch das Zielnachverfolgungsmodul
Die Ausgabe des Decodierungsmoduls
Die Steuerung
Die Rechenvorrichtung
Die Speichervorrichtung(en)
Die Massenspeichervorrichtung(en)
Die E/A-Vorrichtung(en)
Die Anzeigevorrichtung
Die Schnittstelle(n)
Der Bus
Zum Zwecke der Veranschaulichung werden Programme und andere ausführbare Programmkomponenten hierin als diskrete Blöcke dargestellt, auch wenn sich versteht, dass derartige Programme und Komponenten sich zu verschiedenen Zeiten in unterschiedlichen Speicherkomponenten der Rechenvorrichtung
Bezugnehmend auf
Bezugnehmend auf
Die Ausgaben werden dann unabhängig verarbeitet (
Das Verfahren
Die Ausgabe des Zuordnungsschritts
Bezugnehmend auf
Das Verfahren
In einigen Ausführungsformen wird die Kalibrierung in Kombination mit einer Anwendung durchgeführt, die auf einem Mobiltelefon oder einer anderen Vorrichtung des Benutzers ausgeführt wird. Durch die Anwendung kann der Benutzer angewiesen werden, ein Symbol für eine konkrete Schnittstellenanweisung, ein Wort, ein Zeichen oder andere Daten auszuführen, und die Ausführung des Symbols kann dann aufgezeichnet und dieser konkreten Schnittstellenanweisung, dem Wort, dem Zeichen oder anderen Daten in der oben beschriebenen Weise zugeordnet werden.In some embodiments, the calibration is performed in combination with an application running on a mobile phone or other device of the user. Through the application, the user may be instructed to execute a symbol for a particular interface statement, word, character, or other data, and the execution of the symbol may then be recorded and that particular interface statement, word, character, or other data in the above be assigned described manner.
In einigen Ausführungsformen kann, wie oben angemerkt, eine Liste von Zielstellen als skelettartige Abbildungsvektoren verkörpert sein oder in diese umgewandelt werden, die die Position und Ausrichtung der Knochen des Benutzers basierend auf den Zielstellen repräsentieren. Die skelettartigen Abbildungsvektoren können dann mit kalibrierten skelettartigen Abbildungsvektoren verglichen werden, die aus der Beobachtung des Benutzers erlangt wurden, der Symbole während der Kalibrierungsphase, wie oben beschrieben, ausführt.In some embodiments, as noted above, a list of target sites may be embodied or transformed into skeletal imaging vectors that represent the location and orientation of the user's bones based on the target sites. The skeletal imaging vectors may then be compared to calibrated skeletal imaging vectors obtained from the observation of the user performing symbols during the calibration phase as described above.
Das Identifizieren (
Sobald eine Übereinstimmung identifiziert ist, wird das Symbol, das auf die identifizierte kalibrierte Liste oder den identifizieren kalibrierten Satz von Listen abgebildet ist, auf einen Fahrzeugschnittstellenbefehl abgebildet (
Bezugnehmend auf
In einigen Ausführungsformen kann eine Übersetzungsfunktion derart implementiert sein, dass eine Text- oder Sprachwiedergabe eines oder mehrerer decodierter Symbole ausgegeben wird. Zum Beispiel kann ein Fahrer ASL-Symbole eingeben, die dann für einen Beifahrer, der keine ASL versteht, in Text oder Sprache übersetzt werden.In some embodiments, a translation function may be implemented such that a text or voice representation of one or more decoded symbols is output. For example, a driver may enter ASL symbols which may then be translated into text or speech for a passenger who does not understand ASL.
Bezugnehmend auf die
Die vorliegende Erfindung kann in anderen konkreten Formen ausgeführt sein, ohne von ihrem Geist oder ihren wesentlichen Eigenschaften abzuweichen. Die beschriebenen Ausführungsformen sind in jeder Hinsicht nur als veranschaulichend und nicht einschränkend zu betrachten. Der Umfang der Erfindung wird daher vielmehr von den beigefügten Patentansprüchen als von der vorangegangenen Beschreibung angegeben. Alle Änderungen, die in die Bedeutung und den Bereich der Äquivalenz der Patentansprüche fallen, sind als in deren Umfang eingeschlossen zu verstehen.The present invention may be embodied in other specific forms without departing from its spirit or essential characteristics. The described embodiments are to be considered in all respects only as illustrative and not restrictive. The scope of the invention is, therefore, indicated by the appended claims rather than by the foregoing description. All changes which come within the meaning and range of the equivalency of the claims are to be understood as included within the scope thereof.
Claims (20)
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2016/033606 WO2017200553A1 (en) | 2016-05-20 | 2016-05-20 | Sign language inputs to a vehicle user interface |
Publications (2)
Publication Number | Publication Date |
---|---|
DE112016006769T5 true DE112016006769T5 (en) | 2019-01-03 |
DE112016006769B4 DE112016006769B4 (en) | 2024-03-28 |
Family
ID=60325410
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112016006769.0T Active DE112016006769B4 (en) | 2016-05-20 | 2016-05-20 | Method for sign language input into a user interface of a vehicle and vehicle |
Country Status (4)
Country | Link |
---|---|
US (1) | US11009963B2 (en) |
CN (1) | CN109153332B (en) |
DE (1) | DE112016006769B4 (en) |
WO (1) | WO2017200553A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020193123A1 (en) * | 2019-03-25 | 2020-10-01 | Volkswagen Aktiengesellschaft | Method for providing voice control in sign language in a voice control system for a vehicle |
DE102022102596A1 (en) | 2022-02-03 | 2023-08-03 | Audi Aktiengesellschaft | Device for communicating with people, in particular people who are deaf and dumb, when operating a vehicle |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3707693A1 (en) * | 2017-11-08 | 2020-09-16 | Signall Technologies Zrt | Computer vision based sign language interpreter |
KR102554934B1 (en) * | 2018-04-17 | 2023-07-12 | 현대자동차주식회사 | Vehicle including communication system for disabled person and control method of communication system for disabled person |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030202683A1 (en) * | 2002-04-30 | 2003-10-30 | Yue Ma | Vehicle navigation system that automatically translates roadside signs and objects |
WO2004107266A1 (en) * | 2003-05-29 | 2004-12-09 | Honda Motor Co., Ltd. | Visual tracking using depth data |
US7308112B2 (en) | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
US8577593B2 (en) | 2005-08-18 | 2013-11-05 | General Motors Llc | Navigation system for hearing-impaired operators |
US7801332B2 (en) | 2007-01-12 | 2010-09-21 | International Business Machines Corporation | Controlling a system based on user behavioral signals detected from a 3D captured image stream |
US20100014711A1 (en) * | 2008-07-16 | 2010-01-21 | Volkswagen Group Of America, Inc. | Method for controlling an illumination in a vehicle interior in dependence on a head pose detected with a 3D sensor |
US8396252B2 (en) * | 2010-05-20 | 2013-03-12 | Edge 3 Technologies | Systems and related methods for three dimensional gesture recognition in vehicles |
US8751215B2 (en) | 2010-06-04 | 2014-06-10 | Microsoft Corporation | Machine based sign language interpreter |
US9296299B2 (en) | 2011-11-16 | 2016-03-29 | Autoconnect Holdings Llc | Behavioral tracking and vehicle applications |
US20130050131A1 (en) * | 2011-08-23 | 2013-02-28 | Garmin Switzerland Gmbh | Hover based navigation user interface control |
DE102012000274A1 (en) * | 2012-01-10 | 2013-07-11 | Daimler Ag | A method and apparatus for operating functions in a vehicle using gestures executed in three-dimensional space and related computer program product |
US9235941B2 (en) * | 2012-03-14 | 2016-01-12 | Autoconnect Holdings Llc | Simultaneous video streaming across multiple channels |
US9147298B2 (en) * | 2012-03-14 | 2015-09-29 | Flextronics Ap, Llc | Behavior modification via altered map routes based on user profile information |
US8942881B2 (en) * | 2012-04-02 | 2015-01-27 | Google Inc. | Gesture-based automotive controls |
DE102012020607B4 (en) | 2012-10-19 | 2015-06-11 | Audi Ag | A motor vehicle with a gesture control device and method for controlling a selection element |
EP2738645A1 (en) * | 2012-11-30 | 2014-06-04 | Harman Becker Automotive Systems GmbH | Vehicle gesture recognition system and method |
US9122916B2 (en) | 2013-03-14 | 2015-09-01 | Honda Motor Co., Ltd. | Three dimensional fingertip tracking |
DE102013010932B4 (en) * | 2013-06-29 | 2015-02-12 | Audi Ag | Method for operating a user interface, user interface and motor vehicle with a user interface |
EP2857276B1 (en) * | 2013-08-20 | 2018-12-12 | Harman International Industries, Incorporated | Driver assistance system |
US20150081133A1 (en) * | 2013-09-17 | 2015-03-19 | Toyota Motor Sales, U.S.A., Inc. | Gesture-based system enabling children to control some vehicle functions in a vehicle |
DE102013224810A1 (en) | 2013-12-04 | 2015-06-11 | Volkswagen Aktiengesellschaft | System for monitoring an interior of a vehicle |
JP6553052B2 (en) * | 2014-01-03 | 2019-07-31 | ハーマン インターナショナル インダストリーズ インコーポレイテッド | Gesture-interactive wearable spatial audio system |
EP2891950B1 (en) | 2014-01-07 | 2018-08-15 | Sony Depthsensing Solutions | Human-to-computer natural three-dimensional hand gesture based navigation method |
DE102014202834A1 (en) * | 2014-02-17 | 2015-09-03 | Volkswagen Aktiengesellschaft | User interface and method for contactless operation of a hardware-designed control element in a 3D gesture mode |
GB2523353B (en) * | 2014-02-21 | 2017-03-01 | Jaguar Land Rover Ltd | System for use in a vehicle |
KR101854633B1 (en) | 2014-08-26 | 2018-05-04 | 도요타 모터 세일즈, 유.에스.에이., 인코포레이티드 | Integrated wearable article for interactive vehicle control system |
EP3245093B1 (en) * | 2015-01-12 | 2021-09-01 | Harman International Industries, Incorporated | Cognitive load driving assistant |
US10481696B2 (en) * | 2015-03-03 | 2019-11-19 | Nvidia Corporation | Radar based user interface |
US10310617B2 (en) * | 2015-06-11 | 2019-06-04 | Intel Corporation | Drone controlling device and method |
-
2016
- 2016-05-20 DE DE112016006769.0T patent/DE112016006769B4/en active Active
- 2016-05-20 US US16/302,242 patent/US11009963B2/en active Active
- 2016-05-20 WO PCT/US2016/033606 patent/WO2017200553A1/en active Application Filing
- 2016-05-20 CN CN201680085694.0A patent/CN109153332B/en active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020193123A1 (en) * | 2019-03-25 | 2020-10-01 | Volkswagen Aktiengesellschaft | Method for providing voice control in sign language in a voice control system for a vehicle |
CN113573938A (en) * | 2019-03-25 | 2021-10-29 | 大众汽车股份公司 | Method for providing a language dialogue in sign language in a language dialogue system of a vehicle |
DE102022102596A1 (en) | 2022-02-03 | 2023-08-03 | Audi Aktiengesellschaft | Device for communicating with people, in particular people who are deaf and dumb, when operating a vehicle |
Also Published As
Publication number | Publication date |
---|---|
WO2017200553A1 (en) | 2017-11-23 |
DE112016006769B4 (en) | 2024-03-28 |
US20190204931A1 (en) | 2019-07-04 |
CN109153332A (en) | 2019-01-04 |
CN109153332B (en) | 2022-07-08 |
US11009963B2 (en) | 2021-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102012212217B4 (en) | Control system for a vehicle | |
DE112016006769B4 (en) | Method for sign language input into a user interface of a vehicle and vehicle | |
DE202017105184U1 (en) | Deep machine learning to perform a touch movement prediction | |
DE102016210288A1 (en) | Eyetracker unit operating device and method for calibrating an eyetracker unit of an operating device | |
DE102014200782A1 (en) | Operating a vehicle according to the desire of a vehicle occupant | |
DE102014206626A1 (en) | Fatigue detection using data glasses (HMD) | |
DE102020126953B3 (en) | System and method for detecting a spatial orientation of a portable device | |
EP3435202A1 (en) | Allocation of a tool to a gesture | |
EP3865915A1 (en) | Position estimation in different coordinate systems | |
DE102014226553A1 (en) | Method for operating an input device, input device, motor vehicle | |
DE102015201613A1 (en) | Method and device for operating an input device, input device | |
DE102021005092A1 (en) | Method and device for recognizing emotional states of occupants of a vehicle | |
DE102016001054A1 (en) | Method for entering a command in a control unit of a vehicle | |
DE112019007569T5 (en) | Operator judging device and operator judging method | |
DE102017122554A1 (en) | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING AND STORAGE MEDIUM | |
DE102014224599A1 (en) | Method for operating an input device, input device | |
DE102017215074A1 (en) | Method and selection unit for selecting a virtual object or a picture parameter value | |
WO2022106414A2 (en) | Method and system for annotating sensor data | |
DE102015215044A1 (en) | Method and system for processing multimodal input signals | |
DE102014017179B4 (en) | Method for operating a navigation system of a motor vehicle using an operating gesture | |
DE102018217014A1 (en) | Dynamic qualification of user data | |
DE102014211865A1 (en) | Custom interface system and operating method thereof | |
DE102013211046A1 (en) | Method and device for obtaining a control signal from an operating gesture | |
DE102018100335A1 (en) | Method for 3D gesture recognition | |
WO2024099605A1 (en) | Method and device for tracking an object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R082 | Change of representative |
Representative=s name: LORENZ SEIDLER GOSSEL RECHTSANWAELTE PATENTANW, DE |
|
R084 | Declaration of willingness to licence | ||
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: B60K0037060000 Ipc: B60K0035100000 |
|
R018 | Grant decision by examination section/examining division |