DE112015003655T5 - Radarbasierte Gestenerkennung - Google Patents
Radarbasierte Gestenerkennung Download PDFInfo
- Publication number
- DE112015003655T5 DE112015003655T5 DE112015003655.5T DE112015003655T DE112015003655T5 DE 112015003655 T5 DE112015003655 T5 DE 112015003655T5 DE 112015003655 T DE112015003655 T DE 112015003655T DE 112015003655 T5 DE112015003655 T5 DE 112015003655T5
- Authority
- DE
- Germany
- Prior art keywords
- radar
- gesture
- interaction
- actor
- computer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/04—Systems determining presence of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/415—Identification of targets based on measurements of movement associated with the target
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/08—Network architectures or network communication protocols for network security for authentication of entities
- H04L63/0861—Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
Description
- PRIORITÄTSANMELDUNG
- Diese Anwendung beansprucht die Priorität unter 35 U.S.C. § 119(e) gegenüber der provisorischen US-Patentanmeldung Nr. 62/034,581, die den Titel „Radarbasierte Gestenerkennung“ trägt und am 7. August 2014 eingereicht wurde und deren Offenbarung vollständig durch Bezugnahme hierin aufgenommen wird.
- HINTERGRUND
- Die Verwendung von Gesten zur Interaktion mit Computergeräten wird immer beliebter. Mithilfe von Gestenerkennungstechniken ist eine erfolgreiche Gesteninteraktion mit Geräten möglich, wenn diese Gesten auf Geräteoberflächen, wie beispielsweise Touchscreens von Telefonen und Tablets und auf Touchpads von Desktop-Computern, ausgeführt werden. Benutzer möchten jedoch mehr und mehr über Gesten mit ihren Geräten interagieren, die nicht auf einer Oberfläche ausgeführt werden, sondern z. B. durch Winken mit einem Arm ein Videospiel steuern. Für aktuelle Gestenerkennungstechniken ist eine präzise Erkennung dieser berührungslosen Gesten schwierig.
- ZUSAMMENFASSUNG
- In diesem Dokument werden Techniken und Geräte für eine radarbasierte Gestenerkennung beschrieben. Diese Techniken und Geräte können dreidimensionale Gesten, wie beispielsweise berührungslose Gesten, präzise erkennen. Diese berührungslosen Gesten können in unterschiedlichen Abständen ausgeführt werden, z. B. von einer auf einer Couch sitzenden Person zur Steuerung eines Fernsehers, von einer in einer Küche stehenden Person zur Steuerung eines Backofens oder Kühlschranks oder von einer Person in einem Abstand von nur wenigen Millimetern von einem Display eines Desktop-Computers.
- Darüber hinaus verwenden die beschriebenen Techniken unter Umständen ein Radarfeld zur Erfassung von Gesten. Dieses kann die Genauigkeit durch die Unterscheidung zwischen Kleidung und Haut, die Durchdringung von Objekten, die Gesten verdecken, und die Identifizierung von verschiedenen Akteuren verbessern.
- Diese Zusammenfassung wird bereitgestellt, um vereinfachte Konzepte bezüglich der radarbasierten Gestenerkennung einzuführen, die weiter in der nachfolgenden ausführlichen Beschreibung beschrieben wird. Diese Zusammenfassung dient weder der Identifizierung von Schlüsselmerkmalen oder wesentlichen Merkmalen des beanspruchten Gegenstandes, noch ist sie zur Verwendung beim Festlegen des Schutzumfangs des beanspruchten Gegenstandes beabsichtigt.
- KURZE BESCHREIBUNG DER ZEICHNUNGEN
- Ausführungsformen von Techniken und Geräten für die radarbasierte Gestenerkennung werden unter Bezugnahme auf die folgenden Zeichnungen beschrieben. Es werden in allen Zeichnungen die gleichen Nummern verwendet, um sich auf gleiche Merkmale und Komponenten zu beziehen:
-
1 veranschaulicht eine exemplarische Umgebung, in der eine radarbasierte Gestenerkennung implementiert werden kann. -
2 veranschaulicht das radarbasierte Gestenerkennungssystem und Computergerät aus1 im Detail. -
3 veranschaulicht ein Beispielverfahren, das eine radarbasierte Gestenerkennung ermöglicht, die die Bestimmung einer Identität eines Akteurs in einem Radarfeld beinhaltet. -
4 veranschaulicht ein exemplarisches Radarfeld, wobei sich drei Personen innerhalb des Radarfelds befinden. -
5 veranschaulicht ein Beispielverfahren, das eine radarbasierte Gestenerkennung mithilfe eines Radarfelds ermöglicht, das so konfiguriert ist, dass es Stoffe durchdringt, aber von menschlichem Gewebe reflektiert wird. -
6 veranschaulicht ein radarbasiertes Gestenerkennungssystem, ein Fernsehgerät, ein Radarfeld, zwei Personen und verschiedene Hindernisse, einschließlich einer Couch, einer Lampe und einer Zeitung. -
7 zeigt einen exemplarischen Arm in drei Positionen und verdeckt von einem Hemdsärmel. -
8 veranschaulicht ein Beispiel-Computersystem, das eine radarbasierte Gestenerkennung beinhaltet oder in dem unter Umständen Techniken implementiert sind, die die Nutzung einer radarbasierten Gestenerkennung ermöglicht. - AUSFÜHRLICHE BESCHREIBUNG
- Überblick
- In diesem Dokument werden Techniken zur Verwendung und Geräte mit einer radarbasierten Gestenerkennung beschrieben. Diese Techniken und Geräte können die Erkennung einer Vielzahl von Gesten ermöglichen und zahlreiche Anwendungsmöglichkeiten für diese Gesten bieten, wie beispielsweise Gesten zur Bedienung, Steuerung und Interaktion mit verschiedenen Geräten (von Desktops bis hin zu Kühlschränken). Die Techniken und Geräte können ein Radarfeld erzeugen, das Gesten von mehreren Akteuren gleichzeitig und durch Hindernisse hindurch erfassen kann, wodurch im Vergleich zu vielen herkömmlichen Techniken das Spektrum der Gesten vergrößert und die Erkennungsgenauigkeit verbessert wird.
- Nachfolgend wird in diesem Dokument eine exemplarische Umgebung beschrieben, woraufhin eine Beschreibung exemplarischer radarbasierter Gestenerkennungssysteme und Radarfelder, exemplarischer Verfahren sowie eines exemplarischen Computersystems folgt.
- Exemplarische Umgebung
-
1 veranschaulicht eine exemplarische Umgebung100 , in der Techniken, die ein radarbasiertes Gestenerkennungssystem verwenden, und eine Vorrichtung, die ein derartiges System beinhaltet, möglicherweise implementiert sind. Die Umgebung100 beinhaltet zwei Beispielgeräte und Arten zur Nutzung des radarbasierten Gestenerkennungssystems102 . Im ersten erzeugt das radarbasierte Gestenerkennungssystem102-1 ein Radar-Nahfeld, um mit einem der Computergeräte104 , dem Desktop-Computer104-1 , zu interagieren, und im zweiten erzeugt das radarbasierte Gestenerkennungssystem102-2 ein Radar-Mittelfeld (z. B. ein Raumgröße), um mit dem Fernsehgerät104-2 zu interagieren. Diese radarbasierten Gestenerkennungssysteme102-1 und102-2 erzeugen Radarfelder106 , das Radar-Nahfeld106-1 und das Radar-Mittelfeld106-2 , und werden nachfolgend näher beschrieben. - Der Desktop-Computer
104-1 beinhaltet das radarbasierte Gestenerkennungssystem102-1 oder ist mit diesem verknüpft. Diese Geräte arbeiten zusammen, um die Benutzerinteraktion mit dem Desktop-Computer104-1 zu verbessern. Nehmen wir beispielsweise einmal an, dass der Desktop-Computer104-1 einen Touchscreen108 beinhaltet, über den die Anzeige- und Benutzerinteraktion erfolgen kann. Dieser Touchscreen108 kann Benutzer vor einige Herausforderungen stellen. So muss beispielsweise eine Person in einer bestimmten Position, d. h. aufrecht und nach vorn gerichtet, sitzen, um den Bildschirm berühren zu können. Darüber hinaus kann bei einigen Benutzern auch die Größe eine Interaktion, wie beispielsweise die Auswahl von Bedienelementen über den Touchscreen108 , erschweren und somit zeitaufwändig machen. Betrachten Sie hingegen das radarbasierte Gestenerkennungssystem102-1 , das ein Radar-Nahfeld106-1 erzeugt, wodurch ein Benutzer mit der Hand mit dem Desktop-Computer104-1 durch z. B kleine oder große, einfache oder komplexe Gesten, einschließlich Gesten mit einer Hand oder zwei Händen oder dreidimensionaler Gesten, interagieren kann. Wie unschwer erkennbar ist, kann ein großer Erfassungsbereich die Auswahl von Optionen wesentlich erleichtern und im Vergleich zu einer flachen Oberfläche wie die des Touchscreens108 ein besseres Benutzererlebnis bieten. - Betrachten Sie gleichermaßen das radarbasierte Gestenerkennungssystem
102-2 , das ein Radar-Mittelfeld106-2 erzeugt, wodurch ein Benutzer aus der Ferne und mithilfe von verschiedenen Gesten (von Handgesten über Armgesten bis hin zu Ganzkörpergesten) mit dem Fernsehgerät104-2 interagieren kann. Auf diese Weise kann die Auswahl durch den Benutzer im Vergleich zu einer flachen Oberfläche (z. B. eines Touchscreens108 ), einer Fernbedienung (z. B. die Fernbedienung für ein Videospiel oder Fernsehgerät) und anderen konventionellen Steuermechanismen vereinfacht und erleichtert werden. - Die radarbasierten Gestenerkennungssysteme
102 können mit Anwendungen oder einem Betriebssystem von Computergeräten104 oder aus der Ferne über ein Kommunikationsnetzwerk interagieren, indem Eingabereaktionen zur Erkennung von Gesten übertragen werden. Gesten können verschiedenen Anwendungen und Geräten zugeordnet werden und so die Steuerung von vielen Geräten und Anwendungen ermöglichen. Die radarbasierten Gestenerkennungssysteme102 können viele komplexe und eindeutige Gesten erkennen, was eine präzise Steuerung und/oder Einzelgestensteuerung selbst bei mehreren Anwendungen gestattet. Die radarbasierten Gestenerkennungssysteme102 können egal, ob sie in einem Computergerät integriert sind oder mit umfangreichen oder nur begrenzten Computerfunktionen ausgestattet sind, jeweils verwendet werden, um mit zahlreichen Geräten und Anwendungen zu interagieren. - Nähere Details finden Sie in
2 , die das radarbasierte Gestenerkennungssystem102 als Teil eines der Computergeräte104 zeigt. Das Computergerät104 wird mit verschiedenen nicht darauf begrenzten Beispielgeräten, wie dem beschriebenen Desktop-Computer104-1 , dem Fernseher104-2 sowie dem Tablet104-3 , dem Laptop104-4 , dem Kühlschrank104-5 und der Mikrowelle104-6 , dargestellt, obwohl auch andere Geräte, wie beispielsweise Automatisierungs- und Steuersysteme für private Haushalte, Sound- oder Unterhaltungssysteme, Haushaltsvorrichtungen, Sicherheitssysteme, Netbooks-Smartphones und e-Lesegeräte, verwendet werden können. Zu beachten ist, dass das Computergerät104 tragbar, nicht tragbar, aber mobil oder verhältnismäßig immobil (z. B. Desktops und Vorrichtungen) sein kann. - Ferner ist zu beachten, dass das radarbasierte Gestenerkennungssystem
102 mit vielen verschiedenen Computer- oder Peripheriegeräten verwendet oder in sie eingebettet sein kann, wie beispielsweise in die Wände eines Hauses zur Steuerung von Haushaltsgeräten und -systemen (z. B. Automatisierungssteuertafel), in Fahrzeugen zur Steuerung interner Funktionen (z. B. Lautstärke- und Geschwindigkeitssteuerung oder sogar die Lenkung des Fahrzeugs) oder als Zubehörteil eines Laptop-Computers zur Steuerung von Computeranwendungen auf einem Laptop. - Darüber hinaus kann das Radarfeld
106 unsichtbar sein und einige Materialien, wie beispielsweise Textilien, durchdringen und dadurch erweitern, wie das radarbasierte Gestenerkennungssystem102 verwendet und implementiert werden kann. Die hierin dargestellten Beispiele zeigen allgemein ein radarbasiertes Gestenerkennungssystem102 pro Gerät, es können jedoch auch mehrere verwendet werden, wodurch sich die Anzahl und Komplexität der Gesten sowie die Präzision und Stabilität der Erkennung erhöhen. - Das Computergerät
104 beinhaltet einen Computerprozessor oder mehrere Computerprozessoren202 und computerlesbare Medien204 , die Speicher- und Archivierungsmedien beinhalten. Anwendungen und/oder ein Betriebssystem (nicht gezeigt), die oder das als computerlesbare Anweisungen auf computerlesbaren Medien204 vorhanden sind oder ist, können über Prozessoren202 ausgeführt werden, um einige der hierin beschriebene Funktionalitäten bereitzustellen. Die computerlesbaren Medien204 beinhalten auch einen Gestenmanager206 (nachfolgend beschrieben). - Das Computergerät
104 kann auch Netzwerkschnittstellen208 zur Übertragung von Daten über verdrahtete, drahtlose oder optische Netzwerke und ein Display210 beinhalten. Exemplarisch und nicht darauf beschränkt kann die Netzwerkschnittstelle208 Daten über ein lokales Netzwerk (LAN), ein drahtloses lokales Netzwerk (WLAN), ein Personal Area Network (PAN), ein Wide Area Network (WAN), ein Intranet, das Internet, ein Peer-to-Peer-Netzwerk, ein Punkt-zu-Punkt-Netzwerk, ein Maschennetzwerk und dergleichen übertragen. - Das radarbasierte Gestenerkennungssystem
102 ist, wie zuvor beschrieben, so konfiguriert, dass es Gesten erfasst. Um dies ausführen zu können, beinhaltet das radarbasierte Gestenerkennungssystem102 ein Radarsignale emittierendes Element212 , ein Antennenelement214 und einen Signalprozessor216 . - In der Regel ist das Radarsignale emittierende Element
212 so konfiguriert, dass es ein Radarfeld erzeugt und zwar in einigen Fällen ein solches, das Stoffe oder andere Hindernisse durchdringt und von menschlichem Gewebe reflektiert wird. Zu den Stoffen oder Hindernissen können Holz, Glas, Kunststoff, Baumwolle, Wolle, Nylon und ähnliche Fasern usw. gehören, während es sich bei dem reflektierenden menschlichen Gewebe z. B. um die Hand einer Person handeln kann. - Dieses Radarfeld kann klein sein und von null über einige Millimeter bis hin zu 1,5 Meter reichen oder eine mittlere Größe aufweisen, wie 1 Meter bis hin zu 30 Metern. Bei mittlerer Größe ist das Antennenelement
214 oder der Signalprozessor216 so konfiguriert, dass es oder er die Reflexionen des Radarfelds empfangen und verarbeiten kann, um große Körpergesten basierend auf den Reflexionen vom menschlichen Gewebe durch Körper-, Arm- oder Beinbewegungen erfassen zu können. Aber auch kleinere und präzisere Gesten können erfasst werden. Exemplarische mittelgroße Radarfelder beinhaltet solche, in denen ein Benutzer Gesten ausführt, um ein Fernsehgerät von einer Couch aus zu steuern, ein anderes Lied oder die Lautstärke einer Stereoanlage vom anderen Ende eines Raums aus einzustellen, einen Backofen oder Backofen-Timer auszuschalten (ein Nahfeld würde hier ebenfalls sinnvoll sein), die Beleuchtung in einem Raum ein- oder auszuschalten usw. - Das Radarsignale emittierende Element
212 kann stattdessen so konfiguriert sein, dass es ein kleines Radarfeld in beliebigen Abstand von einem Computergerät oder dessen Display erzeugt. Ein exemplarisches Nahfeld ist in1 mit dem Radar-Nahfeld106-1 dargestellt, das so konfiguriert ist, dass Gesten von einem Benutzer erfasst, der einen Laptop, einen Desktop, den Wasserspender eines Kühlschranks und andere Geräte verwendet, bei denen es sinnvoll ist, Gesten in der Nähe des Geräts auszuführen. - Das Radarsignale emittierende Element
212 kann so konfiguriert werden, dass es kontinuierlich modulierte Strahlen, Ultrabreitbandstrahlen oder Strahlen im Sub-Millimeterbereich emittiert. Das Radarsignale emittierende Element212 ist in einigen Fällen so konfiguriert, dass es Strahlenbündel formt, die dem Antennenelement214 und dem Signalprozessor216 dabei helfen, zu erkennen, welche der Strahlenbündel unterbrochen werden, und so die Positionen der Interaktionen innerhalb des Radarfelds zu bestimmen. - Das Antennenelement
214 ist so konfiguriert, dass es die Reflexionen des Radarfelds empfängt oder die Interaktionen im Radarfeld erfasst. In einigen Fällen beinhalten die Reflexionen diejenigen, die von menschlichem Gewebe reflektiert werden, das sich innerhalb des Radarfelds, z. B. von einer Hand oder einem Arm, die oder der sich bewegt. Das Antennenelement214 kann eine Antenne oder mehrere Antennen oder einen Sensor oder mehrere Sensoren beinhalten, wie beispielsweise eine Anordnung von Strahlensensoren. Die Anzahl der Sensoren in der Anordnung basiert auf der gewünschten Auflösung und der Angabe, ob das Feld eine Fläche oder ein dreidimensionaler Bereich ist. - Der Signalprozessor
216 ist so konfiguriert, dass er die empfangenen Reflexionen innerhalb des Radarfelds verarbeitet und Gestendaten bereitzustellen, die zur Bestimmung einer Geste verwendet werden können. Das Antennenelement214 kann in einigen Fällen so konfiguriert sein, dass es Reflexionen von mehreren Zielen menschlichen Gewebes empfängt, die sich innerhalb des Radarfelds befinden, und der Signalprozessor216 kann so konfiguriert sein, dass er die empfangenen Interaktionen hinreichend bearbeitet, um eines der mehreren Ziele menschlichen Gewebes von einem anderen der mehreren Ziele menschlichen Gewebes zu unterscheiden. Zu diesen Zielen können Hände, Arme, Beine, der Kopf und der Körper von einer Person oder von verschiedenen Personen gehören. Auf diese Weise ist eine Steuerung durch mehrere Personen möglich, wie z. B. bei einem Videospiel, das von zwei Personen gleichzeitig gespielt wird. - Das von dem Radarsignale emittierenden Element
212 erzeugte Feld kann ein dreidimensionales (3D) Volumen (z. B. eine Halbkugel, ein Würfel, ein volumetrischer Fächer, Kegel oder Zylinder) sein, um die berührungslosen Gesten zu erfassen, obwohl stattdessen auch ein Oberflächenfeld (z. B. die Projektion auf die Oberfläche einer Person) verwendet werden kann. Das Antennenelement214 ist in einigen Fällen so konfiguriert, dass es Reflexionen von Interaktionen im Radarfeld von zwei oder mehreren Zielen (z. B. Finger, Arme oder Personen) empfängt, und der Signalprozessor216 ist so konfiguriert, dass er die empfangenen Reflexionen hinreichend bearbeitet, um Gestendaten bereitzustellen, die zur Bestimmung von auf einer Oberfläche oder in einem 3D-Volumen ausgeführten Gesten verwendet werden können. Interaktionen in einer Tiefendimension, die bei einigen konventionellen Techniken schwierig sein können, können vom radarbasierten Gestenerkennungssystem102 präzise erfasst werden. - Um Gesten durch Hindernisse hindurch zu erfassen, kann das Radarsignale emittierende Element
212 auch so konfiguriert sein, dass es Strahlen emittiert, die im hohen Maße Stoffe, Holz und Glas durchdringen können. Das Antennenelement214 ist so konfiguriert, dass es die Reflexionen von menschlichem Gewebe durch Stoffe, Holz oder Glas empfängt, und der Signalprozessor216 ist so konfiguriert, dass er die empfangenen Reflexionen selbst dann als Gesten erkennt, wenn die empfangenen Reflexionen durch zweimaliges Passieren von Hindernissen teilweise verändert wurden. So können die Radarsignale beispielsweise eine Stoffschicht zwischen dem Radarsender und einem menschlichen Arm durchdringen, am menschlichen Arm reflektiert und dann durch die Stoffschicht zum Antennenelement zurückgesendet werden. - Exemplarische Radarfelder werden in
1 dargestellt, wobei es sich bei dem einen um ein Radarnahfeld106-1 handelt, das von dem radarbasierten Gestenerkennungssystem102-1 des Desktop-Computers104-1 emittiert wird. Innerhalb des Radarnahfelds106-1 kann ein Benutzer komplexe oder einfache Gesten mit einer Hand oder beiden Händen (oder einem Gerät wie einem Stift) ausführen, die das Radarfeld unterbrechen. Exemplarische Gesten beinhalten die vielen Gesten, die bei den gegenwärtigen berührungsempfindlichen Displays verwendet werden können, wie z. B. Wischen, Zusammen- oder Auseinanderziehen mit zwei Fingern, Drehen, Tippen usw. Beispiele anderer möglicher Gesten, die komplex oder einfach, aber dreidimensional sind, sind unter anderem die vielen Gesten der Gebärdensprache, wie z. B. die der American Sign Language (ASL) und anderen Gebärdensprachen weltweit. Folgende Gesten sind nur einige Beispiele dafür: eine Auf- und Abbewegung der Faust bedeutet in der ASL „Ja“; die Bewegung der ausgestreckten Zeige- und Mittelfinger zum gestreckten Daumen, um diesen zu berühren, bedeutet „Nein“; eine flache Hand, die eine Stufe hinaufbewegt wird, bedeutet „Voranschreiten“; ein flache und angewinkelte Hand, die nach oben und unten bewegt wird, bedeutet „Nachmittag“; geballte Finger und ein ausgestreckter Daumen, die geöffnet werden, während der Daumen ausgestreckt bleibt, bedeutet „Taxi“; ein Zeigefinger, der grob in vertikaler Richtung nach oben bewegt wird, bedeutet „Aufwärts“ usw. Dieses sind nur einige wenige der vielen Gesten, die erfasst sowie bestimmten Geräten oder Anwendungen zugewiesen werden können, wie beispielsweise die Voranschreiten-Geste zum Springen zu einem anderen Lied in einer webbasierten Radioanwendung, zum nächsten Lied auf einer CD, die von einer Stereoanlage abgespielt wird, zur nächsten Seite oder zum nächsten Bild in einer Datei oder einem Album auf einem Computer-Display oder in einem digitalen Bilderrahmen. - Es werden drei exemplarische Radar-Mittelfelder dargestellt: das zuvor beschriebene Radar-Mittelfeld
106-2 aus1 sowie die zwei raumgroßen Radar-Mittelfelder aus4 und6 , die nachfolgend beschrieben werden. - Wieder bezugnehmend auf
2 beinhaltet das radarbasierte Gestenerkennungssystem102 auch ein Übertragungsgerät, das so konfiguriert ist, dass es Gestendaten an ein Remote-Gerät überträgt, wobei dieses nicht benötigt wird, wenn das radarbasierte Gestenerkennungssystem102 in ein Computergerät104 integriert ist. Wenn ein derartiges Gerät vorhanden, können Gestendaten in einem Format bereitgestellt werden, die von einem Remote-Computergerät verwendet werden können, und die ausreichen, damit das Remote-Computergerät die Geste in Fällen bestimmen kann, in denen die Geste nicht vom radarbasierten Gestenerkennungssystem102 oder vom Computergerät104 bestimmt wird. - Genauer gesagt kann das Radarsignale emittierende Element
212 so konfiguriert sein, dass es Mikrowellenstrahlen in einem Bereich von 1 GHz bis 300 GHz, in einem Bereich von 3 GHz bis 100 GHz und in schmaleren Bereichen, wie 57 GHz bis 63 GHz, emittiert, um das Radarfeld zu erzeugen. Dieser Bereich beeinflusst die Fähigkeit des Antennenelements214 , Interaktionen zu empfangen, wie z. B. die Positionen von zwei oder mehreren Zielen zu verfolgen für eine Auflösung von ca. 2 bis ca. 25 mm. Das Radarsignale emittierende Element212 kann neben anderen Entitäten des radarbasierten Gestenerkennungssystems102 so konfiguriert sein, dass es über eine relativ schnelle Aktualisierungsrate verfügt, was die Auflösung der Interaktionen verbessert. - Durch die Auswahl bestimmter Frequenzen kann das radarbasierte Gestenerkennungssystem
102 so betrieben werden, dass es Kleidung im hohen Maße durchdringt, während menschliches Gewebe nicht durchdrungen wird. Darüber hinaus kann das Antennenelement214 oder der Signalprozessor216 so konfiguriert sein, dass es oder er zwischen durch Kleidung verursachte Interaktionen im Radarfeld und durch menschliches Gewebe verursachte Interaktionen im Radarfeld unterscheidet. So kann eine Person, die Handschuhe und einen langärmeligen Pullover trägt, die bei konventionellen Techniken die Erfassung von Gesten beeinträchtigen könnten, bei einem radarbasierten Gestenerkennungssystem102 dennoch erfasst werden. - Das radarbasierte Gestenerkennungssystem
102 beinhaltet möglicherweise auch einen Systemprozessor oder mehrere Systemprozessoren220 und Systemmedien222 (z. B. ein computerlesbares Speichermedium oder mehrere computerlesbare Speichermedien). Die Systemmedien222 beinhalten einen Systemmanager224 , der verschiedene Operationen ausführen kann, einschließlich der Bestimmung einer Geste basierend auf den Gestendaten vom Signalprozessor216 , der Zuordnung der bestimmten Geste zu einer vorkonfigurierten Steuergeste, die mit einer Steuereingabe für eine Anwendung verknüpft ist, die mit dem Remote-Gerät108 verknüpft ist, und der Anweisung des Sendeempfängers218 zur Übertragung der Steuereingabe an das effektive Remote-Gerät, um die Steuerung der Anwendung zu aktivieren (bei Fernzugriff). Dies ist aber nur einer der Wege, wie die zuvor beschriebene Steuerung über das radarbasierte Gestenerkennungssystem102 aktiviert werden kann. Die Operationen des Systemmanagers224 werden nachfolgend im Rahmen der Verfahren300 und500 detaillierter beschrieben. - Diese und andere Funktionen und Konfigurationen sowie die Möglichkeiten, wie die Entitäten in den
1 und2 agieren und interagieren, werden nachfolgend näher erläutert. Diese Entitäten können weiter unterteilt, kombiniert usw. werden. Die Umgebung100 aus1 und die detaillierten Abbildungen der2 und8 veranschaulichen einige der vielen möglichen Umgebungen und Geräte, die fähig sind, die beschriebenen Techniken zu verwenden. - Exemplarische Verfahren
- Die
3 und5 zeigen Verfahren, die eine radarbasierte Gestenerkennung ermöglichen. Das Verfahren300 bestimmt die Identität eines Akteurs und ist mithilfe dieser Identität besser in der Lage, die in einem Radarfeld ausgeführten Gesten zu bestimmen. Das Verfahren500 ermöglicht eine radarbasierte Gestenerkennung mithilfe eines Radarfelds, das so konfiguriert ist, dass es Stoffe durchdringt, aber von menschlichem Gewebe reflektiert wird. Dieses Verfahren kann getrennt von oder in Verbindung mit dem gesamten Verfahren300 oder Teilen davon verwendet werden. - Diese Verfahren werden anhand von Blocksätzen dargestellt, welche durchgeführte Operationen spezifizieren, jedoch nicht zwingend auf die dargestellte Reihenfolge oder Kombinationen beschränkt sind, um die Operationen seitens der entsprechenden Blöcke durchführen zu können. In Teilen der folgenden Beschreibung kann als Beispiel auf die Umgebung
100 von1 , die in2 näher beschrieben wird, Bezug genommen werden. Die Techniken sind nicht auf die Leistung einer Entität oder mehreren Entitäten begrenzt, die auf einem Gerät ausgeführt werden. - Bei
302 wird ein Radarfeld erzeugt. Dieses Radarfeld kann auf Anweisung von einem oder mehreren der folgenden Komponenten erzeugt werden: Gestenmanager206 , Systemmanager224 oder Signalprozessor216 . So weist der Systemmanager224 möglicherweise das Radarsignale emittierende Element212 des radarbasierten Gestenerkennungssystems102 an, eines der zuvor beschriebenen Radarfelder zu erzeugen (z. B. projizieren oder emittieren). - Bei
304 wird eine erste Interaktion bzw. werden mehrere erste Interaktionen von einem Akteur im Radarfeld erfasst. Diese ersten Interaktionen können einer der zahlreichen hierin beschriebenen Gesten entsprechen oder einfach eine Interaktion sein, die dazu dient, eine Größe oder einen anderen identifizierenden Faktor für den Akteur zu bestimmen. Der Akteur kann eines von zahlreichen Elementen sein, die eine Geste ausführen, wie z. B. ein bestimmter Finger oder Arm oder eine bestimmte Hand eines Menschen usw. Ist das Radarfeld darüber hinaus so konfiguriert, dass es von menschlichem Gewebe reflektiert wird und Kleidung und andere Hindernisse durchdringt, kann der Gestenmanager206 den Akteur präziser bestimmen. - Bei
306 wird die Identität des Akteurs basierend auf einer ersten Interaktion oder mehreren ersten Interaktionen im Radarfeld bestimmt. Diese ersten Interaktionen können Gesten oder andere Interaktionen sein, wie beispielsweise eine Person, die durch ein Radarfeld läuft, sodass der Gestenmanager die Größe, den Armumfang, das Gewicht, das Gate oder andere vom Radar erkennbare Objekte, wie zum Beispiel ein vom Benutzer getragenes Computergerät, Mobiltelefon usw., bestimmen kann. - Bei
308 wird eine Interaktion im Radarfeld erfasst. Diese Interaktion wird erfasst, indem die emittierten Radarstrahlen vom Akteur reflektiert werden und die Reflexion dann empfangen wird. Diese Reflexion kann zum Beispiel vom menschlichen Gewebe stammen. Details zum Radarfeld und zu dessen Funktionsweise werden näher im Rahmen des Verfahrens500 und in den zahlreichen hierin beschriebenen Beispielgeräten erläutert. - Bei
310 wird bestimmt, dass die Interaktion von dem Akteur mit der entsprechenden Identität ausgeführt wird. Dazu verfolgt der Gestenmanager206 den Akteur, sobald die Identität des Akteurs bei306 bestimmt ist. Diese Nachverfolgung ist eine effektive Möglichkeit, den Akteur von anderen Akteuren zu unterscheiden. Nehmen Sie beispielsweise an, dass bestimmt wurde, dass der Akteur die rechte Hand einer bestimmten Person ist. Das Nachverfolgen kann eine effektive Möglichkeit sein, um die rechte Hand von der linken Hand der Person zu unterscheiden, was bei der Bestimmung der erfassten Interaktionen hilft, wenn sich diese möglicherweise überlappen oder wenn einfach beide Hände gleichzeitig mit dem Radarfeld interagieren. Bei den Akteuren kann es sich auch um ganze Personen handeln, sodass der Gestenmanager206 möglicherweise zwischen Interaktionen von einer Person und einer anderen unterscheidet. - Nehmen wir in einem anderen Beispiel an, dass sich zwei Personen in einem Raum befinden, die gleichzeitig ein Videospiel spielen möchten. Die eine Person fährt ein Fahrzeug in dem Spiel und die andere Person ein anderes. Mithilfe des Gestenmanagers
206 können die Interaktionen beider Personen verfolgt werden, sodass ihre jeweiligen Gesten voneinander unterschieden werden. Dies fördern zudem eine präzise Gestenerkennung für jede der Personen basierend auf den Informationen der jeweiligen Person, wie nachfolgend näher beschrieben wird. - Bei
312 wird eine der Interaktion entsprechende Geste basierend auf den mit der Identität des Akteurs verknüpften Informationen bestimmt. Diese Informationen helfen bei der Bestimmung der Geste basierend auf der Interaktion und können von jedweder Art sein. Es kann sich um eine einfache Information, wie zum Beispiel, dass es sich um einen identifizierten Akteur und nicht um einen anderen Akteur oder eine Interferenz handelt, oder um detailliertere Informationen, wie historische Gestenabweichungen, basierend auf dem identifizierten Akteur, handeln. - So kann in einigen Fällen der Verlauf für einen bestimmten Akteur, wie beispielsweise die rechte Hand einer bestimmten Person, für die bereits Vor- und Zurück-Bewegungen mit einer kleinen Bewegung (z. B. ein Finger, der nur jeweils zwei Zentimeter vor und zurück bewegt wird) in einem Verlauf registriert wurden, zur Bestimmung der gewünschten Geste für eine Interaktion verwendet werden. Andere Arten von Informationen beinhalten physikalische Merkmale des Akteurs, selbst wenn diese Informationen nicht auf historischen Gesten basieren. Die Körperbewegungen einer stämmigen Person erzeugen beispielsweise andere Daten für dieselbe beabsichtigte Geste, wie die Bewegung einer kleinen, leichten Person. Andere Beispiele beinhalten akteurspezifische Gesten (identitätsspezifische Gesten), wenn beispielsweise eine Person auswählt, eine Steuergeste für sich selbst vorzukonfigurieren. Betrachten wir einen Fall, in dem ein Benutzer eine zylindrische Greifgeste mit der rechten Hand ausführt, gerade so, als ob er einen Lautstärkeregler ergreift, und dann fortfährt, indem er seine Hand im Uhrzeigersinn dreht. Diese Steuergeste kann so konfiguriert werden, dass durch sie die Lautstärke von verschiedenen Geräten oder Anwendungen erhöht wird. Sie kann auch nur mit einem einzelnen Gerät verknüpft werden, sodass nur die Lautstärke eines Fernsehgeräts oder Audiosystems erhöht wird.
- Bei
314 wird die bestimmte Geste erfolgreich übertragen, um die Interaktion mit dem Radarfeld zur Steuerung oder anderweitigen Interaktion mit einem Gerät zu ermöglichen. So leitet das Verfahren300 die bestimmte Geste möglicherweise erfolgreich an eine Anwendung oder ein Betriebssystem eines Computergeräts weiter, um die Anwendung oder das Betriebssystem anzuweisen, einen Eingang zu empfangen, der der bestimmten Geste entspricht. - Nehmen wir zum Abschluss des Beispiels mit den beiden ein Auto-Rennspiel spielenden Personen an, dass die Interaktionen beider Personen Arm- und Körperbewegungen sind. Der Gestenmanager
206 empfängt Interaktionen von beiden Personen, legt basierend auf deren Identitäten fest, welche Person welche ist, und bestimmt anhand der Informationen zu jeder Person, welche Interaktionen welchen Gesten entsprechen, und eine für diese Gesten geeignete Größenordnung. Wenn eine Person ein Kind bzw. körperlich klein ist und deren Verlauf übertriebene Bewegungen aufzeigt, wird der Gestenmanager206 die bestimmten Gesten (und deren Größenordnung – z. B. wie weit rechts befindet sich das Kind, das das Auto lenken will) auf Grundlage der Informationen über das Kind festlegen. Desgleichen wird der Gestenmanager206 , wenn die andere Person ein Erwachsener ist, die bestimmte Geste und deren Größenordnung auf den physikalischen Merkmalen des Erwachsenen und dem Verlauf von durchschnittlichen Größenbewegungen festlegen. - Wieder bezugnehmend auf das Beispiel einer vorkonfigurierten Geste zur Erhöhung der Lautstärke, die mit einem bestimmten Akteur (in diesem Fall die rechte Hand einer bestimmten Person) verknüpft ist, wird die rechte Hand der Person bei
306 als Reaktion auf die Interaktion der rechten Hand der Person oder der Person im Allgemeinen im Radarfeld bei304 bestimmt. Bei Erfassung einer Interaktion mit dem Radarfeld bei308 legt der Gestenmanager dann bei310 fest, dass der Akteur die rechte Hand der Person ist, und bestimmt dann basierend auf den für die rechte Hand der Person gespeicherten Informationen bezüglich der vorkonfigurierten Geste bei312 , dass die Interaktion eine Geste zur Erhöhung der Lautstärke eines Fernsehgeräts ist. Nach dieser Bestimmung leitet der Gestenmanager206 die Geste zur Erhöhung der Lautstärke an das Fernsehgerät weiter, um erfolgreich anzuweisen, dass die Lautstärke des Fernsehgeräts erhöht wird. - Ein weiteres Beispiel finden Sie in
4 , die ein Computergerät402 , ein Radarfeld404 und drei Personen406 ,408 und410 zeigt. Jede der Personen406 ,408 und410 kann ein Akteur sein, der eine Geste ausführt, wobei jede Person mehrere Akteure beinhalten kann, wie beispielsweise beide Hände der Person410 . Nehmen wir einmal an, dass die Person410 mit dem Radarfeld404 interagiert, wobei die Interaktion bei der Operation304 vom radarbasierten Gestenerkennungssystem102 über die Reflexionen erfasst wird, die vom Antennenelement214 empfangen werden (dargestellt in1 und2 ). Für diese erste Interaktion muss die Person410 nur wenig tun, sofern überhaupt etwas explizit gefordert wird. Explizite Interaktionen sind jedoch auch gestattet. In diesem Fall kommt die Person410 einfach herein und setzt sich auf einen Stuhl und begibt sich so in das Radarfeld404 . Das Antennensystem214 erfasst diese Interaktion basierend auf den empfangenen Reflexionen von der Person410 . - Das radarbasierte Gestenerkennungssystem
102 ermittelt die Informationen über die Person410 , wie beispielsweise die Größe, das Gewicht, den Skelettaufbau, die Gesichtsform und die Haare (oder das Fehlen von Haaren). Auf diese Weise kann das radarbasierte Gestenerkennungssystem102 bestimmen, dass es sich bei der Person410 um eine bestimmte bekannte Person handelt, oder einfach nur die Person410 identifizieren, um sie von anderen Personen im Raum (den Personen406 und408 ) zu unterscheiden, was in der Operation310 durchgeführt wird. Nehmen wir nach der Bestimmung der Identität der Person410 einmal an, dass die Person410 mit ihrer linken Hand gestikuliert, um von der aktuellen Seite einer Diashow-Präsentation zur nächsten Seite zu wechseln. Nehmen wir ferner an, dass sich die anderen Personen406 und408 auch bewegen und unterhalten und so möglicherweise diese Geste der Person410 stören oder dass sie Gesten für dieselbe Anwendung oder andere Anwendungen ausführen. In diesen Fällen kann eine Identifizierung, welcher Akteur welcher ist, wie nachfolgend beschrieben, hilfreich sein. - Das fortlaufende Beispiel der drei Personen
406 ,408 und410 in4 abschließend wird die von der Person410 ausgeführte Geste vom Gestenmanager206 als schnelle Wischgeste (wie z. B. beim Verscheuchen einer Fliege, analog zu dem zweidimensionalen Wischen auf einem Touchscreen) bei der Operation312 erkannt. Bei der Operation314 wird die schnelle Wischgeste an eine Diashow-Softwareanwendung, die auf dem Display412 angezeigt wird, weitergeleitet, um die Anwendung anzuweisen, eine andere Seite der Diashow auszuwählen. Wie dieses Beispiel und die anderen zuvor beschriebenen Beispiele zeigen, können die Techniken Gesten, einschließlich berührungslose, dreidimensionale Gesten und Gesten mehrerer Akteure, präzise bestimmen. - Das Verfahren
500 ermöglicht eine radarbasierte Gestenerkennung mithilfe eines Radarfelds, das so konfiguriert ist, dass es Stoffe oder andere Hindernisse durchdringt, aber von menschlichem Gewebe reflektiert wird. Das Verfahren500 kann so zusammen mit oder getrennt von dem Verfahren300 arbeiten, dass es ein radarbasiertes Gestenerkennungssystem verwendet, um ein Radarfeld zu erzeugen und die durch die im Verfahren300 beschriebenen Interaktionen verursachten Reflexionen zu erfassen. - Bei
502 wird ein Radarsignale emittierendes Element eines radarbasierten Gestenerkennungssystems angewiesen, ein Radarfeld zu erzeugen, wie z. B. das Radarsignale emittierende Element212 in2 . Bei diesem Radarfeld kann es sich, wie zuvor beschrieben, um ein Nah- oder Mittelfeld handeln, d. h. um ein kleines Feld, das von null bis zu einem Abstand von 1,5 m reicht, oder ein mittelgroßes Feld, das von 1 m bis hin zu 30 m reicht. Ziehen Sie beispielsweise ein Radar-Nahfeld für feine, detaillierte Gesten in Erwägung, die mit einer Hand und beiden Händen ausgeführt werden, während Sie an einem Desktop-Computer mit großem Bildschirm sitzen, um Operationen auszuführen, ohne das Display, die Bilder usw. berühren zu müssen. Die Techniken ermöglichen die Nutzung einer feinen Auflösung oder von komplexen Gesten, um beispielsweise ein Porträt mithilfe von Gesten zu „zeichnen“ oder dreidimensionale CAD(Computer Aided Design)-Bilder mit zwei Händen zu bearbeiten. Wie zuvor beschrieben, können Radar-Mittelfelder zur Steuerung eines Videospiels, eines Fernsehgeräts und anderer Geräte verwendet werden, auch von zwei Personen gleichzeitig. - Bei
504 wird ein Antennenelement des radarbasierten Gestenerkennungssystem angewiesen, eine Interaktion im Radarfeld zu empfangen. Das Antennenelement214 in2 kann zum Beispiel Reflexionen empfangen, gesteuert vom Gestenmanager206 , Systemprozessor220 oder Signalprozessor216 . - Bei
506 wird ein Signalprozessor des radarbasierten Gestenerkennungssystems angewiesen, die Reflexionen zu verarbeiten, um Daten für die Interaktion im Radarfeld bereitzustellen. Die Reflexionen für die Interaktion können vom Signalprozessor216 verarbeitet werden, der möglicherweise Gestendaten für die spätere Bestimmung als vorgesehene Geste durch den Systemmanager224 oder Gestenmanager206 bereitgestellt. Beachten Sie, dass das Radarsignale emittierende Element212 , das Antennenelement214 und der Signalprozessor216 mit oder ohne Prozessoren und von Prozessoren ausführbaren Anweisungen agieren können. So kann das radarbasierte Gestenerkennungssystem102 in einigen Fällen in Hardware oder in Hardware in Verbindung mit Software und/oder Firmware implementiert werden. - Betrachten Sie zur Veranschaulichung
6 , die ein radarbasiertes Gestenerkennungssystem102 , ein Fernsehgerät602 , ein Radarfeld604 , zwei Personen606 und608 , eine Couch610 , eine Lampe612 und eine Zeitung614 zeigt. Das radarbasierte Gestenerkennungssystem102 kann, wie zuvor beschrieben, ein Radarfeld erzeugen, das Objekte und Kleidung durchdringen kann, aber von menschlichem Gewebe reflektiert wird. So erzeugt und erfasst das radarbasierte Gestenerkennungssystem102 bei den Operationen502 ,504 und506 Gesten von Personen, selbst wenn diese Gesten verdeckt sind, wie z B. eine Geste mit dem Körper oder Bein der Person608 hinter der Couch610 (dargestellte Radarstrahlen dringen durch die Couch610 bei den Objektdurchdringungslinien616 und werden bei den Durchleitungslinien618 fortgesetzt) oder eine Handgeste der Person606 , die von der Zeitung614 verdeckt wird, oder eine Hand- oder Armgeste der Person606 oder der Person608 , die von einer Jacke oder einem Shirt verdeckt wird. - Bei
508 wird die Identität eines Akteurs, der die Interaktion verursacht hat, basierend auf den für die Interaktion bereitgestellten Daten bestimmt. Diese Identität ist nicht erforderlich, aber die Bestimmung dieser Identität kann die Genauigkeit erhöhen, Interferenzen verringern oder, wie hierin beschrieben, identitätsspezifische Gesten gestatten. - Nach der Bestimmung der Identität des Akteurs fährt das Verfahren
500 unter Umständen mit502 fort, um erfolgreich Operationen zu wiederholen, um eine zweite Interaktion zu erfassen und dann eine Geste für die zweite Interaktion zu bestimmen. In einem Fall basiert diese zweite Interaktion auf der Identität des Akteurs sowie auf den Daten für die Interaktion selbst. Dies ist jedoch nicht erforderlich, da das Verfahren500 unter Umständen von506 zu510 voranschreitet, um bei510 eine Geste ohne Verwendung der Identität zu bestimmen. - Bei
510 wird die Geste für die Interaktion im Radarfeld bestimmt. Wie zuvor beschrieben, kann es sich bei dieser Interaktion um die erste, zweite oder eine spätere Interaktion handeln und sie kann (oder auch nicht) auf der Identität des Akteurs basieren, der die Interaktion verursacht hat. - Als Reaktion auf die Bestimmung der Geste bei
510 wird die Geste bei512 erfolgreich an eine Anwendung oder ein Betriebssystem eines Computergeräts weitergeleitet, um die Anwendung oder das Betriebssystem anzuweisen, einen Eingang zu empfangen, der der bestimmten Geste entspricht. Auf diese Weise kann ein Benutzer zum Beispiel eine Geste zum Anhalten der Wiedergabe von Medien auf einem Remote-Gerät (wie z. B. eine Fernsehshow auf einem Fernsehgerät) ausführen. In einigen Ausführungsformen fungieren das radarbasierte Gestenerkennungssystem102 und diese Techniken als Universal-Controller für Fernsehgeräte, Computer, Apparate usw. - Während oder vor der Weiterleitung der Geste kann der Gestenmanager
206 bestimmen, für welche Anwendung oder Gerät die Geste gültig sein soll. Diese Entscheidung kann auf identitätsspezifischen Gesten, einem aktuellen Gerät, mit dem der Benutzer derzeit interagiert, und/oder auf den Steuerungen basieren, über die ein Benutzer mit einer Anwendung interagiert. Steuerungen können durch Untersuchung der Schnittstelle (z. B. visuelle Steuerungen), veröffentlichte APIs und dergleichen ermittelt werden. - Wie bereits zuvor in Teilen angeführt erzeugt das radarbasierte Gestenerkennungssystem
102 ein Radarfeld, das zahlreiche Hindernisse durchdringen kann, aber von menschlichem Gewebe reflektiert wird, was potenziell zu einer Verbesserung der Gestenerkennung führt. Betrachten wir nun zur Veranschaulichung das Beispiel einer Armgeste, bei der der die Geste ausführende Arm durch einen Hemdsärmel verdeckt ist. Dieser Vorgang ist in7 dargestellt, die den Arm702 , der von einem Hemdsärmel704 verdeckt ist, an drei Positionen bei der verdeckten Armgeste706 zeigt. Bei einigen konventionellen Techniken kann der Hemdsärmel704 die Erkennung einiger Arten von Gesten erschweren oder sogar unmöglich machen. Der Hemdsärmel704 kann jedoch von den Radarstrahlen durchdrungen werden, die dann vom Arm702 reflektiert und durch den Hemdsärmel704 zurück gesendet werden. Etwas vereinfacht gesagt, kann das radarbasierte Gestenerkennungssystem102 den Hemdsärmel704 durchdringen und so die Armgeste, wie bei der unverdeckten Armgeste708 , erfassen. Dies gestattet nicht nur eine präzisere Erfassung von Bewegungen und somit der Gesten, sondern auch eine leichte Erkennung von Identitäten der Akteure, die die Geste ausführen, wie in diesem Fall der rechte Arm einer bestimmten Person. Auch wenn sich das menschliche Gewebe mit der Zeit verändert, ist dessen Abweichung im Allgemeinen sehr viel kleiner als die, die sich durch die täglichen und saisonbedingten Änderungen in Bezug auf Kleidung, anderen Hindernissen usw. ergibt. - In einigen Fällen wird das Verfahren
300 oder500 auf einem Gerät ausgeführt, das sich entfernt von dem zu steuernden Gerät befindet. In diesem Fall beinhaltet das Remote-Gerät Entitäten des Computergeräts104 aus den1 und2 und es leitet die Geste über einen Kommunikationsweg oder mehrere Kommunikationswege wie z. B. drahtlos über Transceiver und/oder Netzwerkschnittstellen (wie z. B. die Netzwerkschnittstelle208 und den Transceiver218 ) weiter. Dieses Remote-Gerät benötigt nicht alle Elemente des Computergeräts104 . Das radarbasierte Gestenerkennungssystem102 kann Gestendaten weiterleiten, die für ein anderes Gerät mit einem Gestenmanager206 zur Bestimmung und Verwendung der Geste ausreichen. - Die Operationen der Verfahren
300 und500 können wiederholt werden, beispielsweise durch die Bestimmung für mehrere andere Anwendungen und andere Steuerungen, über die die mehreren anderen Anwendungen gesteuert werden können. Die Verfahren500 kann dann zahlreiche verschiedene Steuerungen anzeigen, um zahlreiche Anwendungen zu steuern, die mit der Anwendung oder dem Akteur verknüpft sind. In einigen Fällen bestimmen die Techniken einzigartige und/oder komplexe und dreidimensionale Steuerungen oder verknüpfen diese mit verschiedenen Anwendungen, um so einem Benutzer die Möglichkeit zur Steuerung zahlreicher Anwendungen zu bieten, ohne dass er die Steuerung zwischendurch wechseln muss. So kann einem Akteur eine bestimmte Geste zur Steuerung einer Softwareanwendung auf einem Computergerät104 , eine andere bestimmte Geste zur Steuerung einer anderen Softwareanwendung und ein noch andere zur Steuerung eines Thermostats oder einer Stereoanlage zugewiesen werden. Diese Geste kann von mehreren verschiedenen Personen ausgeführt oder diesem bestimmten Akteur zugewiesen werden, sobald die Identität des Akteurs bestimmt ist. - In der bisherigen Erörterung wurden Verfahren bezüglich der radarbasierten Gestenerkennung beschrieben. Aspekte dieser Verfahren können in Hardware (z. B. feste Logikschaltung), Firmware, Software, manueller Verarbeitung oder jeder Kombination davon implementiert sein. Diese Techniken können auf einer Entität oder mehreren Entitäten ausgeführt werden, die in den
1 ,2 ,4 ,6 und8 (das Computersystem800 wird nachfolgend in8 beschrieben) dargestellt sind, wobei diese weiter unterteilt, kombiniert usw. werden können. Daher veranschaulichen diese Figuren einige der vielen möglichen Systeme oder Vorrichtungen, die fähig sind, die beschriebenen Techniken einzusetzen. Die Entitäten dieser Figuren stellen generell Software, Firmware, Hardware, komplette Geräte oder Netzwerke oder eine Kombination davon dar. - Exemplarisches Computersystem
-
8 veranschaulicht verschiedene Komponenten eines exemplarischen Computersystems800 , das als irgendeine Art von Client, Server und/oder Computergerät, wie beschrieben, unter Bezugnahme auf die vorhergehenden1 –7 implementiert werden kann, um eine radarbasierte Gestenerkennung zu implementieren. - Das Computersystem
800 umfasst Kommunikationsgeräte802 , die eine verdrahtete und/oder drahtlose Kommunikation von Gerätedaten804 ermöglichen (z. B. empfangene Daten, Daten, die empfangen werden, Daten, die für die Übertragung eingeplant sind, Datenpakete von Daten usw.). Die Gerätedaten804 oder andere Geräteinhalte können Konfigurationseinstellungen des Geräts, Medieninhalte, die im Gerät gespeichert sind, und/oder mit einem Benutzer des Geräts verbundene Informationen (z. B. eine Identität eines Akteurs, der eine Geste ausführt) beinhalten. Die Medieninhalte, die im Computersystem800 gespeichert sind, können jede Art von Audio-, Video- und/oder Bilddaten beinhalten. Das Computersystem800 umfasst eine oder mehrere Dateneingaben806 , über die jede Art von Daten, Medieninhalten und/oder Eingaben, wie menschliche Äußerungen, Interaktionen mit einem Radarfeld, vom Benutzer wählbare Eingaben (explizit oder implizit), Nachrichten, Musik, Fernsehmedieninhalten, aufgezeichnete Videoinhalte und jede andere Art von von irgendeiner Inhalts- und/oder Datenquelle empfangenen Audio-, Video- und/oder Bilddaten, empfangen werden kann. - Das Computersystem
800 beinhaltet zudem Kommunikationsschnittstellen808 , die als irgendeine oder mehrere einer seriellen und/oder parallelen Schnittstelle, einer drahtlosen Schnittstelle, irgendeine Art einer Netzwerkschnittstelle, eines Modems und als jede andere Art von Kommunikationsschnittstelle implementiert sein kann. Die Kommunikationsschnittstelle808 stellt eine Verbindung und/oder Kommunikationslinks zwischen dem Computersystem800 und einem Kommunikationsnetzwerk bereit, mittels dem andere Elektronik-, Computer- und Kommunikationsgeräte Daten mit dem Computersystem800 austauschen. - Das Computersystem
800 umfasst einen Prozessor oder mehrere Prozessoren810 (z. B. irgendwelche von Mikroprozessoren, Steuerungen und dergleichen), die verschiedene computerausführbare Anweisungen verarbeiten, um den Betrieb des Computersystems800 zu steuern und um Techniken für eine radarbasierte Gestenerkennung oder Techniken, in denen diese verkörpert werden können, zu ermöglichen. Alternativ oder zusätzlich kann das Computersystem800 mit irgendeiner oder einer Kombination von Hardware, Firmware oder fester Logikschaltung implementiert sein, die in Verbindung mit Verarbeitungs- und Steuerschaltungen, die generell bei812 identifiziert sind, implementiert ist. Obwohl dies nicht gezeigt ist, kann das Computersystem800 einen Systembus oder ein Datenübertragungssystem beinhalten, der oder das die verschiedenen Komponenten innerhalb des Geräts verbindet. Ein Systembus kann irgendeine Busstruktur oder eine Kombination von unterschiedlichen Busstrukturen, wie einen Speicherbus oder Memory-Controller, einen Peripheriebus, einen universellen seriellen Bus und/oder einen Prozessor- oder lokalen Bus, beinhalten, der irgendwelche aus einer Vielzahl von Busarchitekturen verwendet. - Das Computersystem
800 beinhaltet zudem computerlesbare Medien814 , wie ein Speichergerät oder mehrere Speichergeräte, das oder die eine permanente und/oder nicht flüchtige Datenspeicherung ermöglicht oder ermöglichen (d. h. im Gegensatz zu reiner Signalübertragung), wobei Beispiele davon einen Speicher mit wahlfreiem Zugriff (Random Access Memory, RAM), einen nicht flüchtigen Speicher (z. B. einen oder mehrere von einem schreibgeschützten Speicher (Read Only Memory, ROM), Flash-Speicher, EPROM, EEPROM usw.) und ein Festplattenspeichergerät beinhalten. Ein Festplattenspeichergerät kann als jede Art von magnetischem oder optischem Speichergerät, wie ein Festplattenlaufwerk, eine beschreibbare und/oder überschreibbare Compact Disc (CD), jede Art einer Digital Versatile Disc (DVD) und dergleichen, implementiert werden. Das Computersystem800 kann zudem ein Massenspeichermediengerät (Speichermedien)816 beinhalten. - Die computerlesbaren Medien
814 stellen Datenspeichermechanismen bereit, um Gerätedaten804 zu speichern, sowie verschiedene Geräteanwendungen818 und irgendwelche anderen Arten von Informationen und/oder Daten, die mit operativen Aspekten des Computersystems800 verbunden sind. Ein Betriebssystem820 kann beispielsweise als eine Computeranwendung mit computerlesbaren Medien814 aufrechterhalten und über die Prozessoren810 ausgeführt werden. Die Geräteanwendungen818 können einen Gerätemanager, wie irgendeine Form einer Steuerungsanwendung, einer Softwareanwendung, eines Signalverarbeitungs- und Steuermoduls, eines Codes, der einem bestimmten Gerät eigen ist, einer Hardwareabstraktionsschicht für eine bestimmte Vorrichtung und so weiter, beinhalten. Geräteanwendungen818 können zudem Systemkomponenten, Engines oder Manager zur Implementierung einer radarbasierten Gestenerkennung, wie beispielsweise einen Gestenmanager206 und einen Systemmanager224 , beinhalten. - Schlussfolgerung
- Obwohl Ausführungsformen von Techniken, die eine radarbasierte Gestenerkennung verwenden, und Vorrichtungen, die diese beinhalten, in Sprache beschrieben wurden, die für Merkmale und/oder Verfahren spezifisch ist, versteht es sich, dass der Gegenstand der angefügten Ansprüche nicht zwangsläufig auf die spezifischen beschriebenen Merkmale oder Verfahren begrenzt ist. Die spezifischen Merkmale und Verfahren werden vielmehr als exemplarische Implementierungen der radarbasierten Gestenerkennung offenbart.
Claims (20)
- Computerimplementiertes Verfahren, das Folgendes umfasst: das Erzeugen durch ein radarbasiertes Gestenerkennungssystem eines Radarfelds; das Erfassen durch das radarbasierte Gestenerkennungssystem von einer ersten Interaktion bzw. von mehreren ersten Interaktionen von einem Akteur im Radarfeld; das Bestimmen der Identität des Akteurs basierend auf der ersten Interaktion oder mehreren ersten Interaktionen im Radarfeld; das Erfassen durch das radarbasierte Gestenerkennungssystem einer Interaktion; das Bestimmen, dass die Interaktion von dem Akteur mit der entsprechenden Identität ausgeführt wird; und das Bestimmen einer der Interaktion entsprechenden Geste basierend auf den mit der Identität des Akteurs verknüpften Informationen.
- Computerimplementiertes Verfahren nach Anspruch 1, wobei nach der Bestimmung, dass die Interaktion von dem Akteur mit der entsprechenden Identität ausgeführt wird, der Akteur mithilfe des radarbasierten Gestenerkennungssystems verfolgt wird. Diese Nachverfolgung ist eine effektive Möglichkeit, den Akteur von anderen Akteuren zu unterscheiden.
- Computerimplementiertes Verfahren nach Anspruch 2, wobei der Akteur die erste Hand einer Person und einer der anderen Akteure die zweite Hand der Person ist.
- Computerimplementiertes Verfahren nach Anspruch 2, wobei der Akteur die erste Person und einer der anderen Akteure eine zweite Person ist.
- Computerimplementiertes Verfahren nach Anspruch 4, wobei die Interaktion eine Arm- oder Körperbewegung der ersten Person ist und das Verfahren ferner Folgendes umfasst: das Empfangen einer zweiten Interaktion; das Bestimmen durch Nachverfolgung der zweiten Person, dass die zweite Interaktion von der zweiten Person ausgeführt wird; das Bestimmen basierend auf den zweiten Informationen, die mit der zweiten Person verknüpft sind, einer zweiten Geste, die der zweiten Interaktion entspricht; und das erfolgreiche Bereitstellen der Geste und der zweiten Geste, um eine Anwendung oder ein Betriebssystem anzuweisen, die ersten und zweiten Eingänge zu empfangen, die entsprechend mit der ersten und der zweiten Geste verknüpft sind.
- Computerimplementiertes Verfahren nach Anspruch 1, das ferner die Weiterleitung der bestimmten Geste an eine Anwendung oder ein Betriebssystem eines Computergeräts umfasst, das das Verfahren effektiv ausführt, um die Anwendung oder das Betriebssystem anzuweisen, einen Eingang zu empfangen, der der bestimmten Geste entspricht.
- Computerimplementiertes Verfahren nach Anspruch 1, wobei die Informationen bei der Bestimmung der Geste basierend auf der Interaktion helfen, wobei es sich um Informationen, die die historische Gestenabweichung anzeigen, oder Informationen zu physikalischen Merkmalen des Akteurs handeln kann, die die Bestimmung der Geste beeinflussen.
- Computerimplementiertes Verfahren nach Anspruch 1, wobei die Bestimmung der Geste, die den Interaktionszuordnungen entspricht, auf den Informationen, die mit der Identität des Akteurs verknüpft ist, und der Interaktion mit einem identitätsspezifischen Geste, die mit dem Akteur verknüpft ist, basiert.
- Computerimplementiertes Verfahren nach Anspruch 8, wobei die identitätsspezifische Geste eine vorkonfigurierte Steuergeste ist, die ausschließlich mit dem Akteur und einer Anwendung verknüpft ist, wobei das Verfahren ferner die erfolgreiche Weiterleitung der vorkonfigurierten Steuergeste an die Anwendung umfasst, um anzuweisen, dass die Anwendung mit der identitätsspezifischen Geste gesteuert wird.
- Computerimplementiertes Verfahren nach Anspruch 1, das ferner die Bestimmung, dass die Geste mit einem Remote-Gerät verknüpft ist, und die Weiterleitung der Geste an das Remote-Gerät umfasst.
- Computerimplementiertes Verfahren nach Anspruch 1, wobei mindestens ein Teil der Interaktion Reflexionen von menschlichem Gewebe beinhaltet, bei denen sich eine Materialschicht zwischen dem radarbasierten Gestenerkennungssystem und dem menschlichen Gewebe befindet, wobei die Materialschicht aus Glas, Holz, Nylon, Baumwolle oder Wolle bestehen kann.
- Computerimplementiertes Verfahren nach Anspruch 1, wobei das radarbasierte Gestenerkennungssystem mit einem Computergerät verknüpft ist, das das Verfahren ausführt, das Radarfeld ein Radar-Nahfeld ist und die Interaktion innerhalb eines Bereichs von 1 mm bis hin zu 1,5 m vom Display des Computergeräts erfasst wird.
- Computerimplementiertes Verfahren nach Anspruch 1, wobei die mit der Identität des Akteurs verknüpften Informationen eine physikalische Größe des Akteurs oder eine Größenordnung für die vom Akteur ausgeführten Gesten angeben und wobei die Bestimmung der Geste, die der Interaktion entspricht, auf der physikalischen Größe oder der Größenordnung für die Gesten basiert.
- Radarbasiertes Gestenerkennungssystem, das Folgendes umfasst: ein Radarsignale emittierendes Element, das so konfiguriert ist, dass es ein Radarfeld erzeugt, wobei dieses Radarfeld so konfiguriert ist, dass es Stoffe oder andere Hindernisse durchdringt und von menschlichem Gewebe reflektiert wird; ein Antennenelement, das so konfiguriert ist, dass es Reflexionen von mehreren Zielen menschlichen Gewebes empfängt, die sich innerhalb des Radarfelds befinden; und einen Signalprozessor, der so konfiguriert ist, dass er die empfangenen Reflexionen von den mehreren Zielen menschlichen Gewebes innerhalb des Radarfelds ausreichend verarbeitet, um eines der mehreren Ziele menschlichen Gewebes von einem anderen der mehreren Ziele menschlichen Gewebes zu unterscheiden und so Gestendaten bereitzustellen, die zur Bestimmung einer Geste von einem der mehreren Ziele menschlichen Gewebes verwendet werden können.
- Radarbasiertes Gestenerkennungssystem nach Anspruch 14, wobei die mehreren Ziele menschlichen Gewebes verschiedene Teile derselben Person sind.
- Radarbasiertes Gestenerkennungssystem nach Anspruch 14, wobei die mehreren Ziele menschlichen Gewebes zu unterschiedlichen Personen gehören und die Unterscheidung eines der mehreren Ziele menschlichen Gewebes von einem anderen der mehreren Ziele menschlichen Gewebes eine effektive Möglichkeit ist, um Gestendaten für eine der verschiedenen Personen bereitzustellen.
- Radarbasiertes Gestenerkennungssystem nach Anspruch 14, wobei das Radarfeld ca. 1 bis 10 m tief ist und das Antennenelement oder der Signalprozessor so konfiguriert ist, dass es oder er die empfangenen Reflexionen verarbeitet, um große Körpergesten basierend auf den Reflexionen von menschlichem Gewebe bereitzustellen, die durch Körper-, Arm- oder Beinbewegungen verursacht werden.
- Radarbasiertes Gestenerkennungssystem nach Anspruch 14, wobei das Radarsignale emittierende Element das Radarfeld als dreidimensionales Volumen erzeugt, das Antennenelement die Reflexionen im dreidimensionalen Volumen empfangen kann und der Signalprozessor so konfiguriert ist, dass er die empfangenen Reflexionen im dreidimensionalen Volumen ausreichend verarbeiten kann, um Gestendaten bereitzustellen, die zur Bestimmung von Gesten in drei Dimensionen verwendet werden können.
- Radarbasiertes Gestenerkennungssystem nach Anspruch 14, wobei das Radarsignale emittierende Element so konfiguriert ist, dass es Mikrowellenstrahlen innerhalb eines Bereichs von ca. 57 GHz bis ca. 63 GHz emittiert.
- Vorrichtung, die Folgendes umfasst: ein radarbasiertes Gestenerkennungssystem, das Folgendes umfasst: ein Radarsignale emittierendes Element, das so konfiguriert ist, dass es ein Radarfeld erzeugt, wobei dieses Radarfeld so konfiguriert ist, dass es Stoffe oder andere Hindernisse durchdringt und von menschlichem Gewebe reflektiert wird; ein Antennenelement, das so konfiguriert ist, dass es Reflexionen von menschlichem Gewebe empfängt, das sich innerhalb des Radarfelds befindet; und einen Signalprozessor, der so konfiguriert ist, dass er die empfangenen Reflexionen vom menschlichen Gewebe verarbeitet, um mit den empfangenen Reflexionen verknüpfte Daten bereitzustellen; einen Computerprozessor oder mehrere Computerprozessoren; und ein computerlesbares Speichermedium oder mehrere computerlesbare Speichermedien mit darauf gespeicherten Anweisungen, die bei Ausführung durch den einen Computerprozessor und die mehreren Computerprozessoren Operationen ausführen, die Folgendes umfassen: das Anweisen des radarbasierten Gestenerkennungssystems, ein Radarfeld mithilfe des Radarsignale emittierenden Elements zu erzeugen; das Anweisen des radarbasierten Gestenerkennungssystems, mit dem Antennenelement erste Reflexionen für eine erste Interaktion im Radarfeld zu empfangen; das Anweisen des Signalprozessors zur Verarbeitung der empfangenen Reflexionen, um Daten für die erste Interaktion bereitzustellen; das Bestimmen basierend auf den bereitgestellten Daten für die erste Interaktion der Identität eines Akteurs, der die erste Interaktion verursacht hat; das Anweisen des radarbasierten Gestenerkennungssystems, mit dem Antennenelement zweite Reflexionen für eine zweite Interaktion im Radarfeld zu empfangen; das Anweisen des Signalprozessors zur Verarbeitung der zweiten empfangenen Reflexionen, um zweite Daten für die zweite Interaktion bereitzustellen; das Bestimmen basierend auf den bereitgestellten zweiten Daten für die zweite Interaktion und der Identität des Akteurs einer Geste, die der zweiten Interaktion entspricht; und das erfolgreiche Weiterleiten der bestimmte Geste an eine Anwendung oder ein Betriebssystem, um die Anwendung oder das Betriebssystem anzuweisen, einen Eingang zu empfangen, der der bestimmten Geste entspricht.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201462034581P | 2014-08-07 | 2014-08-07 | |
US62/034,581 | 2014-08-07 | ||
PCT/US2015/043949 WO2016022764A1 (en) | 2014-08-07 | 2015-08-06 | Radar-based gesture recognition |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112015003655T5 true DE112015003655T5 (de) | 2017-05-11 |
Family
ID=54072946
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112015003655.5T Pending DE112015003655T5 (de) | 2014-08-07 | 2015-08-06 | Radarbasierte Gestenerkennung |
Country Status (6)
Country | Link |
---|---|
US (1) | US9921660B2 (de) |
JP (1) | JP6364505B2 (de) |
KR (1) | KR101914850B1 (de) |
CN (1) | CN106537173B (de) |
DE (1) | DE112015003655T5 (de) |
WO (1) | WO2016022764A1 (de) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019057509A1 (de) | 2017-09-20 | 2019-03-28 | BSH Hausgeräte GmbH | Haushaltsgerät mit einem sensor |
DE102018126231A1 (de) * | 2018-10-22 | 2020-04-23 | Endress+Hauser SE+Co. KG | Bedienmodul für ein Feldgerät der Automatisierungstechnik und selbiges Feldgerät |
DE102019103584A1 (de) * | 2019-02-13 | 2020-08-13 | Liebherr-Elektronik Gmbh | Verfahren zur Steuerung einer berührungsempfindlichen Anzeige- und Eingabevorrichtung und Vorrichtung zur Ausführung des Verfahrens |
WO2020187397A1 (en) | 2019-03-19 | 2020-09-24 | HELLA GmbH & Co. KGaA | A method for a detection and classification of gestures using a radar system |
WO2020193123A1 (de) * | 2019-03-25 | 2020-10-01 | Volkswagen Aktiengesellschaft | Verfahren zur bereitstellung eines sprachdialogs in gebärdensprache bei einem sprachdialog-system für ein fahrzeug |
DE102019205638A1 (de) * | 2019-04-17 | 2020-10-22 | BSH Hausgeräte GmbH | Hausgerät und Verfahren zur Verbesserung von Radar-basierten Messungen |
US20220318544A1 (en) * | 2021-04-01 | 2022-10-06 | KaiKuTek Inc. | Generic gesture detecting method and generic gesture detecting device |
DE102022209220A1 (de) | 2022-09-06 | 2024-03-07 | Robert Bosch Gesellschaft mit beschränkter Haftung | Gesten-Bedieneinrichtung zur berührungslosen Bedienung einer Geräte-Einrichtung und Verfahren zur berührungslosen Gesten-Bedienung einer Geräte-Einrichtung |
Families Citing this family (134)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10152136B2 (en) * | 2013-10-16 | 2018-12-11 | Leap Motion, Inc. | Velocity field interaction for free space gesture interface and control |
US9575560B2 (en) | 2014-06-03 | 2017-02-21 | Google Inc. | Radar-based gesture-recognition through a wearable device |
US9811164B2 (en) | 2014-08-07 | 2017-11-07 | Google Inc. | Radar-based gesture sensing and data transmission |
US9921660B2 (en) * | 2014-08-07 | 2018-03-20 | Google Llc | Radar-based gesture recognition |
US10268321B2 (en) | 2014-08-15 | 2019-04-23 | Google Llc | Interactive textiles within hard objects |
US9588625B2 (en) | 2014-08-15 | 2017-03-07 | Google Inc. | Interactive textiles |
US9778749B2 (en) | 2014-08-22 | 2017-10-03 | Google Inc. | Occluded gesture recognition |
US11169988B2 (en) | 2014-08-22 | 2021-11-09 | Google Llc | Radar recognition-aided search |
US9600080B2 (en) | 2014-10-02 | 2017-03-21 | Google Inc. | Non-line-of-sight radar-based gesture recognition |
US10016162B1 (en) | 2015-03-23 | 2018-07-10 | Google Llc | In-ear health monitoring |
US9983747B2 (en) | 2015-03-26 | 2018-05-29 | Google Llc | Two-layer interactive textiles |
US9848780B1 (en) | 2015-04-08 | 2017-12-26 | Google Inc. | Assessing cardiovascular function using an optical sensor |
KR102002112B1 (ko) | 2015-04-30 | 2019-07-19 | 구글 엘엘씨 | 제스처 추적 및 인식을 위한 rf―기반 마이크로―모션 추적 |
KR102327044B1 (ko) | 2015-04-30 | 2021-11-15 | 구글 엘엘씨 | 타입-애그노스틱 rf 신호 표현들 |
CN111880650A (zh) | 2015-04-30 | 2020-11-03 | 谷歌有限责任公司 | 基于宽场雷达的手势识别 |
US10080528B2 (en) | 2015-05-19 | 2018-09-25 | Google Llc | Optical central venous pressure measurement |
US10088908B1 (en) | 2015-05-27 | 2018-10-02 | Google Llc | Gesture detection and interactions |
US9693592B2 (en) | 2015-05-27 | 2017-07-04 | Google Inc. | Attaching electronic components to interactive textiles |
US10376195B1 (en) | 2015-06-04 | 2019-08-13 | Google Llc | Automated nursing assessment |
CN107025780B (zh) | 2015-06-25 | 2020-09-01 | 北京智谷睿拓技术服务有限公司 | 交互方法及通信设备 |
CN106297230B (zh) | 2015-06-25 | 2019-07-26 | 北京智谷睿拓技术服务有限公司 | 交互方法及通信设备 |
CN106297229B (zh) * | 2015-06-25 | 2019-08-02 | 北京智谷睿拓技术服务有限公司 | 交互方法及通信设备 |
US10817065B1 (en) | 2015-10-06 | 2020-10-27 | Google Llc | Gesture recognition using multiple antenna |
US9837760B2 (en) | 2015-11-04 | 2017-12-05 | Google Inc. | Connectors for connecting electronics embedded in garments to external devices |
US10492302B2 (en) | 2016-05-03 | 2019-11-26 | Google Llc | Connecting an electronic component to an interactive textile |
WO2017200570A1 (en) | 2016-05-16 | 2017-11-23 | Google Llc | Interactive object with multiple electronics modules |
WO2017200949A1 (en) | 2016-05-16 | 2017-11-23 | Google Llc | Interactive fabric |
WO2017200571A1 (en) | 2016-05-16 | 2017-11-23 | Google Llc | Gesture-based control of a user interface |
KR101852675B1 (ko) * | 2016-05-25 | 2018-06-04 | 연세대학교 산학협력단 | 차량의 장치들을 제어하기 위한 장치 및 방법 |
US10181653B2 (en) | 2016-07-21 | 2019-01-15 | Infineon Technologies Ag | Radio frequency system for wearable device |
US10218407B2 (en) | 2016-08-08 | 2019-02-26 | Infineon Technologies Ag | Radio frequency system and method for wearable device |
EP3545335B1 (de) * | 2016-11-22 | 2024-03-06 | Sony Group Corporation | Radarassistiertes verfolgen von mobilgeräten um die verbindungsqualität in einter hochfrequenz kommunikation zu verbessern |
US10579150B2 (en) | 2016-12-05 | 2020-03-03 | Google Llc | Concurrent detection of absolute distance and relative movement for sensing action gestures |
US10466772B2 (en) | 2017-01-09 | 2019-11-05 | Infineon Technologies Ag | System and method of gesture detection for a remote device |
US10505255B2 (en) | 2017-01-30 | 2019-12-10 | Infineon Technologies Ag | Radio frequency device packages and methods of formation thereof |
US11243293B2 (en) | 2017-02-07 | 2022-02-08 | Samsung Electronics Company, Ltd. | Radar-based system for sensing touch and in-the-air interactions |
KR101892650B1 (ko) * | 2017-02-15 | 2018-08-28 | (주)더블유알티랩 | 레이더를 이용하여 포인팅 위치를 인식하는 방법 및 장치 |
KR101883228B1 (ko) | 2017-02-16 | 2018-07-30 | (주)더블유알티랩 | 제스처 인식 방법 및 장치 |
US10684693B2 (en) | 2017-03-02 | 2020-06-16 | Samsung Electronics Co., Ltd. | Method for recognizing a gesture and an electronic device thereof |
US10602548B2 (en) | 2017-06-22 | 2020-03-24 | Infineon Technologies Ag | System and method for gesture sensing |
CN107273869B (zh) * | 2017-06-29 | 2020-04-24 | 联想(北京)有限公司 | 手势识别控制方法和电子设备 |
US11079289B2 (en) * | 2017-08-18 | 2021-08-03 | Google Llc | Radar-based force sensing |
CN107688431B (zh) * | 2017-08-23 | 2021-04-30 | 上海喵呜信息科技有限公司 | 基于雷达定位的人机交互方法 |
US10725161B2 (en) * | 2017-12-15 | 2020-07-28 | Google Llc | Seamless authentication using radar |
US10746625B2 (en) | 2017-12-22 | 2020-08-18 | Infineon Technologies Ag | System and method of monitoring a structural object using a millimeter-wave radar sensor |
US11278241B2 (en) | 2018-01-16 | 2022-03-22 | Infineon Technologies Ag | System and method for vital signal sensing using a millimeter-wave radar sensor |
US11346936B2 (en) | 2018-01-16 | 2022-05-31 | Infineon Technologies Ag | System and method for vital signal sensing using a millimeter-wave radar sensor |
US10795012B2 (en) | 2018-01-22 | 2020-10-06 | Infineon Technologies Ag | System and method for human behavior modelling and power control using a millimeter-wave radar sensor |
CN108344995A (zh) * | 2018-01-25 | 2018-07-31 | 宁波隔空智能科技有限公司 | 一种基于微波雷达技术的手势识别装置及手势识别方法 |
KR102116604B1 (ko) | 2018-01-26 | 2020-05-28 | 한양대학교 산학협력단 | 레이더를 이용한 제스처 인식 장치 및 방법 |
US10576328B2 (en) | 2018-02-06 | 2020-03-03 | Infineon Technologies Ag | System and method for contactless sensing on a treadmill |
US10705198B2 (en) | 2018-03-27 | 2020-07-07 | Infineon Technologies Ag | System and method of monitoring an air flow using a millimeter-wave radar sensor |
US10775482B2 (en) | 2018-04-11 | 2020-09-15 | Infineon Technologies Ag | Human detection and identification in a setting using millimeter-wave radar |
US10761187B2 (en) | 2018-04-11 | 2020-09-01 | Infineon Technologies Ag | Liquid detection using millimeter-wave radar sensor |
US10794841B2 (en) | 2018-05-07 | 2020-10-06 | Infineon Technologies Ag | Composite material structure monitoring system |
US10772511B2 (en) * | 2018-05-16 | 2020-09-15 | Qualcomm Incorporated | Motion sensor using cross coupling |
US10399393B1 (en) | 2018-05-29 | 2019-09-03 | Infineon Technologies Ag | Radar sensor system for tire monitoring |
US10903567B2 (en) | 2018-06-04 | 2021-01-26 | Infineon Technologies Ag | Calibrating a phased array system |
US11416077B2 (en) * | 2018-07-19 | 2022-08-16 | Infineon Technologies Ag | Gesture detection system and method using a radar sensor |
CN110850404B (zh) * | 2018-08-20 | 2023-05-16 | 富士通株式会社 | 基于微波雷达的动作识别装置及方法、电子设备 |
US10794997B2 (en) * | 2018-08-21 | 2020-10-06 | Google Llc | Smartphone-based power-efficient radar processing and memory provisioning for detecting gestures |
US10890653B2 (en) | 2018-08-22 | 2021-01-12 | Google Llc | Radar-based gesture enhancement for voice interfaces |
US10770035B2 (en) * | 2018-08-22 | 2020-09-08 | Google Llc | Smartphone-based radar system for facilitating awareness of user presence and orientation |
US10698603B2 (en) | 2018-08-24 | 2020-06-30 | Google Llc | Smartphone-based radar system facilitating ease and accuracy of user interactions with displayed objects in an augmented-reality interface |
US10928501B2 (en) | 2018-08-28 | 2021-02-23 | Infineon Technologies Ag | Target detection in rainfall and snowfall conditions using mmWave radar |
US11183772B2 (en) | 2018-09-13 | 2021-11-23 | Infineon Technologies Ag | Embedded downlight and radar system |
US10732726B2 (en) * | 2018-09-21 | 2020-08-04 | International Business Machines Corporation | Gesture recognition using 3D MM-wave radar |
US11125869B2 (en) | 2018-10-16 | 2021-09-21 | Infineon Technologies Ag | Estimating angle of human target using mmWave radar |
CN109459119B (zh) * | 2018-10-17 | 2020-06-05 | 京东数字科技控股有限公司 | 一种体重测量方法、设备和计算机可读存储介质 |
US10788880B2 (en) | 2018-10-22 | 2020-09-29 | Google Llc | Smartphone-based radar system for determining user intention in a lower-power mode |
US11360185B2 (en) | 2018-10-24 | 2022-06-14 | Infineon Technologies Ag | Phase coded FMCW radar |
US11397239B2 (en) | 2018-10-24 | 2022-07-26 | Infineon Technologies Ag | Radar sensor FSM low power mode |
US11016574B2 (en) | 2018-10-31 | 2021-05-25 | Rogers Corporation | Millimeter-wave-radar-based electromagnetic apparatus |
US10761611B2 (en) | 2018-11-13 | 2020-09-01 | Google Llc | Radar-image shaper for radar-based applications |
EP3654053A1 (de) | 2018-11-14 | 2020-05-20 | Infineon Technologies AG | Verpackung mit akustischen sensorvorrichtungen und millimeterwellenabtastelementen |
CN111184437A (zh) * | 2018-11-15 | 2020-05-22 | 施特里克斯有限公司 | 手势控制的液体加热器具及用于其的手势控制的方法 |
US11583199B2 (en) | 2018-12-18 | 2023-02-21 | Movano Inc. | Systems for health monitoring using radio waves that include mixing signals at different frequencies |
US11486962B2 (en) | 2018-12-18 | 2022-11-01 | Movano Inc. | Methods for operating stepped frequency radar systems with step size zoom |
US10856766B2 (en) | 2018-12-18 | 2020-12-08 | Movano Inc. | Removable smartphone case for radio wave based health monitoring that generates alignment signals |
US11576586B2 (en) | 2018-12-18 | 2023-02-14 | Movano Inc. | Methods for radio wave based health monitoring that utilize data derived from amplitude and/or phase data |
US11087115B2 (en) | 2019-01-22 | 2021-08-10 | Infineon Technologies Ag | User authentication using mm-Wave sensor for automotive radar systems |
US11355838B2 (en) | 2019-03-18 | 2022-06-07 | Infineon Technologies Ag | Integration of EBG structures (single layer/multi-layer) for isolation enhancement in multilayer embedded packaging technology at mmWave |
US11126885B2 (en) | 2019-03-21 | 2021-09-21 | Infineon Technologies Ag | Character recognition in air-writing based on network of radars |
US11454696B2 (en) | 2019-04-05 | 2022-09-27 | Infineon Technologies Ag | FMCW radar integration with communication system |
US11301672B2 (en) | 2019-04-16 | 2022-04-12 | The Board Of Trustees Of The University Of Alabama | Radar-based methods and apparatus for communication and interpretation of sign languages |
US11442550B2 (en) * | 2019-05-06 | 2022-09-13 | Samsung Electronics Co., Ltd. | Methods for gesture recognition and control |
CN113924568A (zh) | 2019-06-26 | 2022-01-11 | 谷歌有限责任公司 | 基于雷达的认证状态反馈 |
KR102228524B1 (ko) * | 2019-06-27 | 2021-03-15 | 한양대학교 산학협력단 | 비접촉식 제스쳐 인식 장치 및 방법 |
CN112181265B (zh) | 2019-07-04 | 2022-04-15 | 北京小米移动软件有限公司 | 一种触控信号处理方法、装置及介质 |
KR102254331B1 (ko) * | 2019-07-04 | 2021-05-20 | 한양대학교 산학협력단 | 공중 제스쳐 인식 장치 및 방법 |
WO2021021224A1 (en) * | 2019-07-26 | 2021-02-04 | Google Llc | Context-sensitive control of radar-based gesture-recognition |
KR20220005081A (ko) | 2019-07-26 | 2022-01-12 | 구글 엘엘씨 | Imu 및 레이더를 기반으로 한 상태 감소 |
US11868537B2 (en) | 2019-07-26 | 2024-01-09 | Google Llc | Robust radar-based gesture-recognition by user equipment |
US11385722B2 (en) | 2019-07-26 | 2022-07-12 | Google Llc | Robust radar-based gesture-recognition by user equipment |
CN113906367B (zh) | 2019-07-26 | 2024-03-29 | 谷歌有限责任公司 | 通过imu和雷达的认证管理 |
US11080383B2 (en) * | 2019-08-09 | 2021-08-03 | BehavioSec Inc | Radar-based behaviometric user authentication |
CN112395920B (zh) * | 2019-08-16 | 2024-03-19 | 富士通株式会社 | 基于雷达的姿态识别装置、方法以及电子设备 |
KR102479012B1 (ko) * | 2019-08-30 | 2022-12-20 | 구글 엘엘씨 | 일시정지된 레이더 제스처에 대한 시각적 표시자 |
KR102416386B1 (ko) | 2019-08-30 | 2022-07-05 | 구글 엘엘씨 | 다중 입력 모드에 대한 입력 모드 통지 |
KR20210151957A (ko) | 2019-08-30 | 2021-12-14 | 구글 엘엘씨 | 모바일 디바이스에 대한 입력 방법 |
WO2021040749A1 (en) * | 2019-08-30 | 2021-03-04 | Google Llc | Detecting and processing unsuccessfully recognized or unsuccessfully utilized non-contact gestures for a computing system |
US11467672B2 (en) | 2019-08-30 | 2022-10-11 | Google Llc | Context-sensitive control of radar-based gesture-recognition |
US11327167B2 (en) | 2019-09-13 | 2022-05-10 | Infineon Technologies Ag | Human target tracking system and method |
US11774592B2 (en) | 2019-09-18 | 2023-10-03 | Infineon Technologies Ag | Multimode communication and radar system resource allocation |
KR20210034843A (ko) * | 2019-09-23 | 2021-03-31 | 삼성전자주식회사 | 차량의 제어 장치 및 방법 |
CN110781764B (zh) * | 2019-09-30 | 2021-08-03 | 北京大学 | 智能微波手语识别方法 |
CN110908516A (zh) * | 2019-10-03 | 2020-03-24 | 谷歌有限责任公司 | 促进用户熟练使用雷达手势来与电子设备交互 |
KR102107685B1 (ko) | 2019-10-11 | 2020-05-07 | 주식회사 에이치랩 | 신호 검출 및 인식을 위한 장치 및 방법 |
US11435443B2 (en) | 2019-10-22 | 2022-09-06 | Infineon Technologies Ag | Integration of tracking with classifier in mmwave radar |
CN110989384A (zh) * | 2019-12-10 | 2020-04-10 | 珠海格力电器股份有限公司 | 厨房电器控制方法、系统、存储介质及装置 |
CN111258419B (zh) * | 2020-01-09 | 2022-04-12 | Oppo广东移动通信有限公司 | 电子设备控制方法和装置、电子设备、计算机可读存储介质 |
US11513603B2 (en) | 2020-01-30 | 2022-11-29 | Toyota Motor Engineering & Manufacturing North America, Inc. | System and method for interpreting gestures |
US11808883B2 (en) | 2020-01-31 | 2023-11-07 | Infineon Technologies Ag | Synchronization of multiple mmWave devices |
US11614516B2 (en) | 2020-02-19 | 2023-03-28 | Infineon Technologies Ag | Radar vital signal tracking using a Kalman filter |
JP2021152727A (ja) * | 2020-03-24 | 2021-09-30 | ブラザー工業株式会社 | プログラムおよび電子デバイス |
WO2021068470A1 (zh) * | 2020-04-09 | 2021-04-15 | 浙江大学 | 一种基于雷达信号的身份及手势识别方法 |
US11585891B2 (en) | 2020-04-20 | 2023-02-21 | Infineon Technologies Ag | Radar-based vital sign estimation |
US11567185B2 (en) | 2020-05-05 | 2023-01-31 | Infineon Technologies Ag | Radar-based target tracking using motion detection |
US11774553B2 (en) | 2020-06-18 | 2023-10-03 | Infineon Technologies Ag | Parametric CNN for radar processing |
US11704917B2 (en) | 2020-07-09 | 2023-07-18 | Infineon Technologies Ag | Multi-sensor analysis of food |
US11614511B2 (en) | 2020-09-17 | 2023-03-28 | Infineon Technologies Ag | Radar interference mitigation |
US11719787B2 (en) | 2020-10-30 | 2023-08-08 | Infineon Technologies Ag | Radar-based target set generation |
US11719805B2 (en) | 2020-11-18 | 2023-08-08 | Infineon Technologies Ag | Radar based tracker using empirical mode decomposition (EMD) and invariant feature transform (IFT) |
US11832919B2 (en) | 2020-12-18 | 2023-12-05 | Movano Inc. | Method for generating training data for use in monitoring the blood pressure of a person that utilizes a pulse wave signal generated from radio frequency scanning |
US11883134B2 (en) | 2020-12-18 | 2024-01-30 | Movano Inc. | System for monitoring a physiological parameter in a person that involves coherently combining data generated from an RF-based sensor system |
US11786133B2 (en) | 2020-12-18 | 2023-10-17 | Movano Inc. | System for monitoring a health parameter of a person utilizing a pulse wave signal |
US11864861B2 (en) | 2020-12-18 | 2024-01-09 | Movano Inc. | Method for monitoring a physiological parameter in a person that involves spectral agility |
CN112612365B (zh) * | 2020-12-25 | 2023-02-17 | 深圳大学 | 手势识别方法、装置、电子设备和存储介质 |
US11573643B2 (en) | 2021-01-04 | 2023-02-07 | Bank Of America Corporation | Apparatus and methods for contact-minimized ATM transaction processing using radar-based gesture recognition and authentication |
US11662430B2 (en) | 2021-03-17 | 2023-05-30 | Infineon Technologies Ag | MmWave radar testing |
CN113085870B (zh) * | 2021-04-02 | 2024-02-06 | 淮南联合大学 | 一种基于毫米波雷达的手势识别系统 |
US11950895B2 (en) | 2021-05-28 | 2024-04-09 | Infineon Technologies Ag | Radar sensor system for blood pressure sensing, and associated method |
CN116034287A (zh) * | 2021-06-24 | 2023-04-28 | 京东方科技集团股份有限公司 | 交互控制装置和交互系统 |
WO2024072458A1 (en) * | 2022-09-30 | 2024-04-04 | Google Llc | User distinction for radar-based gesture detectors |
Family Cites Families (336)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3610874A (en) | 1969-11-21 | 1971-10-05 | Western Electric Co | Laser welding technique |
US3953706A (en) | 1974-03-29 | 1976-04-27 | Martin Marietta Corporation | Laser bent beam controlled dwell wire stripper |
GB2070469B (en) | 1980-02-29 | 1983-06-08 | Raychem Gmbh | Electrical interconnection |
GB8411480D0 (en) | 1984-05-04 | 1984-06-13 | Raychem Corp | Sensor array |
DE3432735A1 (de) | 1984-09-06 | 1986-03-06 | Philips Patentverwaltung Gmbh, 2000 Hamburg | Verfahren und vorrichtung zum ordnen und ausrichten flexibler, isolierter leiter |
US4700044A (en) | 1986-07-31 | 1987-10-13 | Hutchinson Technology Inc. | Laser soldering apparatus and method |
US4838797A (en) | 1987-06-19 | 1989-06-13 | The United States Of America As Represented By The Secretary Of The Navy | Underwater connect and disconnect plug and receptacle |
US4986277A (en) | 1988-08-24 | 1991-01-22 | Sackner Marvin A | Method and apparatus for non-invasive monitoring of central venous pressure |
US5298715A (en) | 1992-04-27 | 1994-03-29 | International Business Machines Corporation | Lasersonic soldering of fine insulated wires to heat-sensitive substrates |
US5497546A (en) | 1992-09-21 | 1996-03-12 | Matsushita Electric Works, Ltd. | Method for mounting lead terminals to circuit board |
US5564571A (en) | 1993-07-19 | 1996-10-15 | Cembre S.P.A. | Strip for electrical connectors |
US5454043A (en) * | 1993-07-30 | 1995-09-26 | Mitsubishi Electric Research Laboratories, Inc. | Dynamic and static hand gesture recognition through low-level image analysis |
US5341979A (en) | 1993-09-03 | 1994-08-30 | Motorola, Inc. | Method of bonding a semiconductor substrate to a support substrate and structure therefore |
US6835898B2 (en) | 1993-11-16 | 2004-12-28 | Formfactor, Inc. | Electrical contact structures formed by configuring a flexible wire to have a springable shape and overcoating the wire with at least one layer of a resilient conductive material, methods of mounting the contact structures to electronic components, and applications for employing the contact structures |
US5468917A (en) | 1994-03-23 | 1995-11-21 | International Business Machines Corporation | Circuitized structure including flexible circuit with elastomeric member bonded thereto |
US5517251A (en) | 1994-04-28 | 1996-05-14 | The Regents Of The University Of California | Acquisition of video images simultaneously with analog signals |
US5724707A (en) | 1996-06-17 | 1998-03-10 | The United States Of America As Represented By The Secretary Of The Army | Interlock attaching strap system |
CH690686A5 (de) | 1996-07-01 | 2000-12-15 | Spoerry & Co Ag | Verfahren zur Herstellung eines elektrisch leitenden Garnes, elektrisch leitendes Garn und Verwendung des elektrisch leitenden Garnes. |
US5959529A (en) | 1997-03-07 | 1999-09-28 | Kail, Iv; Karl A. | Reprogrammable remote sensor monitoring system |
CN100394885C (zh) | 1997-07-16 | 2008-06-18 | 泰尔茂株式会社 | 耳塞式医用体温计 |
US6210771B1 (en) | 1997-09-24 | 2001-04-03 | Massachusetts Institute Of Technology | Electrically active textiles and articles made therefrom |
WO1999028811A1 (en) | 1997-12-04 | 1999-06-10 | Northern Telecom Limited | Contextual gesture interface |
JP3176580B2 (ja) | 1998-04-09 | 2001-06-18 | 太陽誘電株式会社 | 電子部品の実装方法及び実装装置 |
US6080690A (en) | 1998-04-29 | 2000-06-27 | Motorola, Inc. | Textile fabric with integrated sensing device and clothing fabricated thereof |
US6369804B1 (en) | 1998-09-26 | 2002-04-09 | Eleksen Limited | Detector constructed from fabric having non-uniform conductivity |
DE69934508T2 (de) | 1998-10-20 | 2007-09-27 | Omron Healthcare Co., Ltd. | Infrarotthermometer |
US6854985B1 (en) | 1998-12-16 | 2005-02-15 | Paricon Technologies Corporation | Elastomeric interconnection device and methods for making same |
US6791580B1 (en) | 1998-12-18 | 2004-09-14 | Tangis Corporation | Supplying notifications related to supply and consumption of user context data |
US6313825B1 (en) * | 1998-12-28 | 2001-11-06 | Gateway, Inc. | Virtual input device |
JP2000333910A (ja) | 1999-05-25 | 2000-12-05 | Nippon Colin Co Ltd | 心機能監視装置 |
EP1281153A2 (de) | 1999-10-12 | 2003-02-05 | THE GOVERNMENT OF THE UNITED STATES OF AMERICA, as represented by THE SECRETARY, DEPARTMENT OF HEALTH AND HUMAN SERVICES | Bildsynchronisiertes mehrkanals biomedizinisches datenerfassungssystem |
JP2003512734A (ja) | 1999-10-18 | 2003-04-02 | マサチューセッツ・インスティテュート・オブ・テクノロジー | 可撓性電子回路及びその製造方法 |
US6802720B2 (en) | 1999-12-16 | 2004-10-12 | Paricon Technologies Corporation | Pin-array, separable, compliant electrical contact member |
US7223105B2 (en) | 1999-12-16 | 2007-05-29 | Paricon Technologies Corporation | Cable connector incorporating anisotropically conductive elastomer |
US6440593B2 (en) | 2000-02-16 | 2002-08-27 | The University Of Massachusetts | Molded article |
US7194371B1 (en) | 2000-03-27 | 2007-03-20 | Cardiobeat.Com | Medical testing system and method |
AU770743B2 (en) | 2000-04-03 | 2004-03-04 | Intelligent Textiles Limited | Conductive pressure sensitive textile |
US6616613B1 (en) | 2000-04-27 | 2003-09-09 | Vitalsines International, Inc. | Physiological signal monitoring system |
WO2002008941A1 (en) | 2000-07-20 | 2002-01-31 | Marchosky J Alexander | Patient-controlled automated medical record, diagnosis, and treatment system and method |
JP2002262438A (ja) | 2001-03-05 | 2002-09-13 | Yazaki Corp | 補機モジュール用中継部品および補機モジュール |
JP2002298940A (ja) | 2001-03-30 | 2002-10-11 | Jst Mfg Co Ltd | 樹脂ハンダを用いた電気接触子、電気コネクタ及びこれらのプリント配線板への接続方法 |
WO2002082999A1 (en) | 2001-04-10 | 2002-10-24 | Battelle Memorial Institute | Image analysis system and method for discriminating movements of an individual |
JP2004537777A (ja) * | 2001-05-14 | 2004-12-16 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | リアルタイムのコンテンツのストリームと対話するための装置 |
US20020170897A1 (en) | 2001-05-21 | 2002-11-21 | Hall Frank L. | Methods for preparing ball grid array substrates via use of a laser |
WO2003034300A2 (en) | 2001-09-04 | 2003-04-24 | Ramon Van Der Riet | Marketing communication and transaction/distribution services platform for building and managing personalized customer relationships |
EP1461179B1 (de) | 2001-11-24 | 2016-01-20 | Delphi Technologies, Inc. | Verbesserungen bei kabelbäumen |
WO2003052541A2 (de) | 2001-12-14 | 2003-06-26 | Infineon Technologies Ag | Keypad in textilien mit kapazativer ausleseschaltung |
DE10161527A1 (de) | 2001-12-14 | 2003-07-03 | Infineon Technologies Ag | Aufbau- und Verbindungstechnik in textilen Strukturen |
US7845022B1 (en) | 2002-02-14 | 2010-12-07 | Nike, Inc. | Deposition of electronic circuits on fibers and other materials |
US7249954B2 (en) | 2002-02-26 | 2007-07-31 | Paricon Technologies Corporation | Separable electrical interconnect with anisotropic conductive elastomer for translating footprint |
US7592276B2 (en) | 2002-05-10 | 2009-09-22 | Sarnoff Corporation | Woven electronic textile, yarn and article |
AU2003279888A1 (en) | 2002-06-28 | 2004-01-19 | North Carolina State University | Fabric and yarn structures for improving signal integrity in fabric based electrical circuits |
US8190239B2 (en) | 2002-09-03 | 2012-05-29 | Fujitsu Limited | Individual identification device |
US20090177068A1 (en) | 2002-10-09 | 2009-07-09 | Stivoric John M | Method and apparatus for providing derived glucose information utilizing physiological and/or contextual parameters |
US7602413B2 (en) | 2002-10-18 | 2009-10-13 | Sony Corporation | Information processing system and method, information processing apparatus, image-capturing device and method, recording medium, and program |
US20080065291A1 (en) | 2002-11-04 | 2008-03-13 | Automotive Technologies International, Inc. | Gesture-Based Control of Vehicular Components |
EP1576456A1 (de) | 2002-11-07 | 2005-09-21 | Personics A/S | Steuerung mit adaptivem bewegungsdetektor |
US6929484B2 (en) | 2003-01-09 | 2005-08-16 | Roger E. Weiss | Apparatus for applying a mechanically-releasable balanced compressive load to an assembly such as a compliant anisotropic conductive elastomer electrical connector |
DE10307505B4 (de) | 2003-02-21 | 2005-03-03 | Infineon Technologies Ag | Textilgewebestruktur, Flächenverkleidungsstruktur und Verfahren zum Bestimmen eines Abstands von Mikroelektronikelementen der Textilgewebestruktur zu mindestens einer Referenzposition |
US20040249250A1 (en) | 2003-06-04 | 2004-12-09 | Mcgee Michael D. | System and apparatus for monitoring and prompting medical self-care events and communicating medical self-care status |
JP2005019393A (ja) | 2003-06-05 | 2005-01-20 | Sharp Corp | 異方性導電物、表示装置、表示装置の製造方法および導電部材 |
JP2005051129A (ja) | 2003-07-30 | 2005-02-24 | Sony Corp | 電子機器 |
CN100435723C (zh) | 2003-08-20 | 2008-11-26 | 纽卡迪奥公司 | 用于三种特定导联心电图的无线记录、电信传送及处理的设备 |
WO2005022556A2 (en) | 2003-09-02 | 2005-03-10 | Integral Technologies, Inc. | Very low resistance electrical interfaces to conductive loaded resin-based materials |
DE10344285A1 (de) | 2003-09-24 | 2005-05-12 | Infineon Technologies Ag | Prozessor-Anordnung, Textilgewebestruktur, Flächenverkleidungsstruktur und Verfahren zum Weiterleiten von elektrischer Energieversorgung zwischen einer Vielzahl einander örtlich benachbart angeordneter Prozessorelemente |
WO2005033387A2 (en) | 2003-09-30 | 2005-04-14 | Milliken & Company | Wrapped conductive yarn |
US7299964B2 (en) | 2004-01-15 | 2007-11-27 | Georgia Tech Research Corp. | Method and apparatus to create electrical junctions for information routing in textile structures |
DE102004004604B4 (de) | 2004-01-29 | 2016-12-29 | Siemens Healthcare Gmbh | Verfahren und Bildgebungssystem zur Kompensation von Patientenbewegungen bei Serienaufnahmen in der medizinischen Bildgebung |
GB0404419D0 (en) | 2004-02-27 | 2004-03-31 | Intelligent Textiles Ltd | Electrical components and circuits constructed as textiles |
US20050248566A1 (en) * | 2004-04-05 | 2005-11-10 | Vesely Michael A | Horizontal perspective hands-on simulator |
GB0408607D0 (en) | 2004-04-17 | 2004-05-19 | Koninkl Philips Electronics Nv | Electrical connector |
WO2006006159A1 (en) | 2004-07-09 | 2006-01-19 | Aerotel Medical Systems (1998) Ltd. | A wearable device, system and method for monitoring physiological and/or environmental parameters |
US8560972B2 (en) | 2004-08-10 | 2013-10-15 | Microsoft Corporation | Surface UI for gesture-based interaction |
US7942744B2 (en) | 2004-08-19 | 2011-05-17 | Igt | Virtual input system |
US8646675B2 (en) | 2004-11-02 | 2014-02-11 | Hid Global Gmbh | Laying apparatus, contact-making apparatus, movement system, laying and contact-making unit, production system, method for production and a transponder unit |
JP2006196802A (ja) | 2005-01-17 | 2006-07-27 | Sony Corp | 半導体装置および半導体装置の製造方法 |
DE102005003370A1 (de) | 2005-01-24 | 2006-07-27 | Juma Pcb Gmbh | Verfahren zur durchgehenden Verlegung eines Leitungsdrahtes auf einer Leiterplatte und Vorrichtung zur Durchführung des Verfahrens |
CN101238244B (zh) | 2005-01-24 | 2011-03-30 | 株式会社昭和 | 采用阳极电解氧化处理的结晶性氧化钛被膜的制造方法 |
JP2006234716A (ja) | 2005-02-28 | 2006-09-07 | Aichi Prefecture | シート状センサ装置 |
US7544627B2 (en) | 2005-05-12 | 2009-06-09 | The Hong Kong Polytechnic University | Pressure sensing fabric |
EP1727408A1 (de) | 2005-05-13 | 2006-11-29 | Eidgenössische Technische Hochschule Zürich | Textil mit einem Leiterbahnsystem und Verfahren zu dessen Herstellung |
WO2006128633A1 (en) | 2005-06-02 | 2006-12-07 | Nv Bekaert Sa | Electrically conductive elastic composite yarn |
US7462035B2 (en) | 2005-07-27 | 2008-12-09 | Physical Optics Corporation | Electrical connector configured as a fastening element |
US7791700B2 (en) | 2005-09-16 | 2010-09-07 | Kent Displays Incorporated | Liquid crystal display on a printed circuit board |
US20070118043A1 (en) | 2005-11-23 | 2007-05-24 | Microsoft Corporation | Algorithms for computing heart rate and movement speed of a user from sensor data |
JP4682028B2 (ja) | 2005-11-28 | 2011-05-11 | Hoya株式会社 | 導電層の製造方法、導電層、及び、信号伝送基板 |
US7834276B2 (en) | 2005-12-16 | 2010-11-16 | Unitech Printed Circuit Board Corp. | Structure for connecting a USB communication interface in a flash memory card by the height difference of a rigid flexible board |
US7317416B2 (en) * | 2005-12-22 | 2008-01-08 | Leonard Flom | Skeletal topography imaging radar for unique individual identification |
US20070161921A1 (en) | 2006-01-07 | 2007-07-12 | Rausch Jeffrey L | Bio-accurate temperature measurement device and method of quantitatively normalizing a body temperature measurement to determine a physiologically significant temperature event |
FI119456B (fi) | 2006-01-31 | 2008-11-14 | Polar Electro Oy | Liitinmekanismi |
US7395717B2 (en) | 2006-02-10 | 2008-07-08 | Milliken & Company | Flexible capacitive sensor |
KR100729676B1 (ko) | 2006-02-17 | 2007-06-18 | 한국생산기술연구원 | 금속 필라멘트를 이용한 정보통신용 디지털사의 제조방법,제조장치 및 이에 의하여 제조된 디지털사 |
EP1835786B1 (de) | 2006-02-24 | 2009-07-01 | Sefar AG | Flächenheizelement und Verfahren zur Herstellung eines Flächenheizelementes |
DE102006018445B4 (de) | 2006-04-18 | 2008-04-24 | Imedos Gmbh | Vorrichtung und Verfahren zur Bestimmung arterio-venöser Verhältniswerte durch quantitative Analyse retinaler Gefäße |
GB2437997B (en) | 2006-04-27 | 2011-07-27 | Eleksen Ltd | Manually operable position sensor |
US7558622B2 (en) | 2006-05-24 | 2009-07-07 | Bao Tran | Mesh network stroke monitoring appliance |
US9814425B2 (en) | 2006-05-12 | 2017-11-14 | Koninklijke Philips N.V. | Health monitoring appliance |
US7691067B2 (en) | 2006-06-14 | 2010-04-06 | Advanced Brain Monitoring, Inc. | Method for measuring central venous pressure or respiratory effort |
GB2440568A (en) | 2006-07-28 | 2008-02-06 | Eleksen Ltd | Interface apparatus connecting fabric sensor and electronic device |
US8169404B1 (en) | 2006-08-15 | 2012-05-01 | Navisense | Method and device for planary sensory detection |
GB2443208A (en) | 2006-10-27 | 2008-04-30 | Studio 1 Ventures Ltd | Textile pressure sensor |
WO2008061385A2 (de) | 2006-11-20 | 2008-05-29 | Gerhard Staufert | Leitertextil |
NZ551819A (en) | 2006-12-04 | 2009-03-31 | Zephyr Technology Ltd | Impact detection system |
US20080134102A1 (en) | 2006-12-05 | 2008-06-05 | Sony Ericsson Mobile Communications Ab | Method and system for detecting movement of an object |
JPWO2008069275A1 (ja) | 2006-12-07 | 2010-03-25 | 日本電気株式会社 | 配線板およびその製造方法 |
US20080136775A1 (en) | 2006-12-08 | 2008-06-12 | Conant Carson V | Virtual input device for computing |
US10437459B2 (en) | 2007-01-07 | 2019-10-08 | Apple Inc. | Multitouch data fusion |
US8607167B2 (en) | 2007-01-07 | 2013-12-10 | Apple Inc. | Portable multifunction device, method, and graphical user interface for providing maps and directions |
US20090017910A1 (en) | 2007-06-22 | 2009-01-15 | Broadcom Corporation | Position and motion tracking of an object |
US7846104B2 (en) | 2007-02-08 | 2010-12-07 | Heart Force Medical Inc. | Monitoring physiological condition and detecting abnormalities |
US8918153B2 (en) | 2007-02-16 | 2014-12-23 | Mespere Lifesciences Inc. | Method and device for measuring parameters of cardiac function |
US8639309B2 (en) | 2007-07-31 | 2014-01-28 | J&M Shuler, Inc. | Method and system for monitoring oxygenation levels of compartments and tissue |
JP5255623B2 (ja) | 2007-04-20 | 2013-08-07 | ソフトキネティック エス.エイ. | ボリューム認識方法およびシステム |
EP2144556A4 (de) | 2007-05-10 | 2012-02-22 | Burdea Grigore | Systeme und verfahren für periodische beurteilung und telerehabilitation |
KR100888864B1 (ko) * | 2007-05-21 | 2009-03-17 | 한국과학기술원 | 바이오 레이더와 기울기 센서를 이용한 문자 입력 장치 |
WO2008147901A2 (en) | 2007-05-22 | 2008-12-04 | Qsi Corporation | System and method for reducing vibrational effects on a force-based touch panel |
US20080294012A1 (en) | 2007-05-22 | 2008-11-27 | Kurtz Andrew F | Monitoring physiological conditions |
US8554297B2 (en) | 2009-06-17 | 2013-10-08 | Sotera Wireless, Inc. | Body-worn pulse oximeter |
US8302033B2 (en) | 2007-06-22 | 2012-10-30 | Apple Inc. | Touch screen device, method, and graphical user interface for providing maps, directions, and location-based information |
JP5060186B2 (ja) | 2007-07-05 | 2012-10-31 | 株式会社東芝 | 脈波処理装置及び方法 |
CA2591808A1 (en) * | 2007-07-11 | 2009-01-11 | Hsien-Hsiang Chiu | Intelligent object tracking and gestures sensing input device |
US8505474B2 (en) | 2007-07-31 | 2013-08-13 | Snu R&Db Foundation | Electrically conductive metal composite embroidery yarn and embroidered circuit using thereof |
WO2009032073A1 (en) | 2007-08-28 | 2009-03-12 | Woolsthorpe, Llc | Non-invasive method and system for determining physiological characteristics |
US20090058820A1 (en) | 2007-09-04 | 2009-03-05 | Microsoft Corporation | Flick-based in situ search from ink, text, or an empty selection region |
EP2194864B1 (de) | 2007-09-14 | 2018-08-29 | Medtronic Monitoring, Inc. | System und verfahren für die drahtlose überwachung von körperflüssigkeiten |
US8655004B2 (en) | 2007-10-16 | 2014-02-18 | Apple Inc. | Sports monitoring system for headphones, earbuds and/or headsets |
JP4858400B2 (ja) | 2007-10-17 | 2012-01-18 | ソニー株式会社 | 情報提供システム、情報提供装置、情報提供方法 |
US9513699B2 (en) | 2007-10-24 | 2016-12-06 | Invention Science Fund I, LL | Method of selecting a second content based on a user's reaction to a first content |
US20120029369A1 (en) | 2007-10-31 | 2012-02-02 | Icove David J | Passive Microwave Assessment of Human Body Core to Surface Temperature Gradients and Basal Metabolic Rate |
JP5385555B2 (ja) | 2007-11-14 | 2014-01-08 | 日立コンシューマエレクトロニクス株式会社 | 生体検査システム、生体検査装置および生体検査方法 |
WO2009108228A1 (en) | 2008-02-25 | 2009-09-03 | Kingsdown, Inc. | Systems and methods for controlling a bedroom environment and for providing sleep data |
KR100982533B1 (ko) | 2008-02-26 | 2010-09-16 | 한국생산기술연구원 | 디지털 밴드를 이용한 디지털 가먼트 및 그 제조 방법 |
US8341762B2 (en) | 2008-03-21 | 2013-01-01 | Alfiero Balzano | Safety vest assembly including a high reliability communication system |
US20090270690A1 (en) | 2008-04-29 | 2009-10-29 | University Of Miami | System and method for using interactive voice-recognition to automate a patient-centered best practice approach to disease evaluation and management |
AU2009252769B2 (en) | 2008-05-29 | 2014-03-20 | Kimberly-Clark Worldwide, Inc. | Conductive webs containing electrical pathways and method for making same |
US20090295712A1 (en) | 2008-05-29 | 2009-12-03 | Sony Ericsson Mobile Communications Ab | Portable projector and method of operating a portable projector |
CN102057763B (zh) | 2008-06-10 | 2016-01-20 | 皇家飞利浦电子股份有限公司 | 电子纺织品、制造其的方法以及用于其的纱线 |
JP5567574B2 (ja) | 2008-09-19 | 2014-08-06 | コーニンクレッカ フィリップス エヌ ヴェ | 電子織物及び電子織物の機能領域を決定する方法 |
US9758907B2 (en) | 2008-09-22 | 2017-09-12 | Intel Corporation | Method and apparatus for attaching chip to a textile |
US20100094141A1 (en) | 2008-10-14 | 2010-04-15 | Amal Lesly Puswella | Jugular venous pressure ruler |
US7952512B1 (en) | 2008-10-14 | 2011-05-31 | Sprint Communications Company L.P. | Mobile device enabled radar tags |
DE102008060862B4 (de) | 2008-12-09 | 2010-10-28 | Werthschützky, Roland, Prof. Dr.-Ing.habil. | Verfahren zur miniaturisierbaren Kontaktierung isolierter Drähte |
US20120123232A1 (en) | 2008-12-16 | 2012-05-17 | Kayvan Najarian | Method and apparatus for determining heart rate variability using wavelet transformation |
US8688467B2 (en) | 2009-01-09 | 2014-04-01 | Cerner Innovation, Inc. | Automated analysis of data collected by in-vivo devices |
WO2010120395A2 (en) | 2009-01-15 | 2010-10-21 | Duke University | Broadband metamaterial apparatus, methods, systems, and computer readable media |
US20130035563A1 (en) | 2010-01-26 | 2013-02-07 | Angelides Kimon J | Progressively Personalized Wireless-Based Interactive Diabetes Treatment |
EP2216866A3 (de) | 2009-02-06 | 2011-07-13 | HID Global GmbH | Verfahren zum Abziehen eines isolierten Drahtabschnitts |
WO2010101697A2 (en) * | 2009-02-06 | 2010-09-10 | Oculis Labs, Inc. | Video-based privacy supporting system |
US9164168B2 (en) | 2009-03-20 | 2015-10-20 | Wright State University | Systems for detecting movement of a target |
TWM365363U (en) | 2009-04-08 | 2009-09-21 | Fu-Biau Hsu | Illuminating textile article |
US9498718B2 (en) * | 2009-05-01 | 2016-11-22 | Microsoft Technology Licensing, Llc | Altering a view perspective within a display environment |
US8289185B2 (en) | 2009-05-05 | 2012-10-16 | Advanced Technologies Group, LLC | Sports telemetry system for collecting performance metrics and data |
KR101127991B1 (ko) | 2009-05-20 | 2012-03-29 | 주식회사 아모그린텍 | 은합연사와 이를 이용한 기능성 원단 및 그 제조방법 |
US8856691B2 (en) * | 2009-05-29 | 2014-10-07 | Microsoft Corporation | Gesture tool |
RU2011154465A (ru) | 2009-06-03 | 2013-07-20 | ДжиЛТ ТЕХНОВЭЙШНЗ, ЛЛСи | Материал для использования с емкостным сенсорным экраном |
US8759713B2 (en) | 2009-06-14 | 2014-06-24 | Terepac Corporation | Methods for interconnecting bonding pads between components |
US8020290B2 (en) | 2009-06-14 | 2011-09-20 | Jayna Sheats | Processes for IC fabrication |
US8821350B2 (en) | 2009-07-02 | 2014-09-02 | Richard J. Maertz | Exercise and communications system and associated methods |
US20110073353A1 (en) | 2009-09-29 | 2011-03-31 | Tex-Ray Industrial Co., Ltd. | Conductive fabric and method for forming the same |
JP5668966B2 (ja) | 2009-10-15 | 2015-02-12 | 株式会社槌屋 | 導電性織物及び導電性織物を使用したタッチセンサ装置 |
US9400548B2 (en) * | 2009-10-19 | 2016-07-26 | Microsoft Technology Licensing, Llc | Gesture personalization and profile roaming |
US8367942B2 (en) | 2009-10-27 | 2013-02-05 | Hon Hai Precision Ind. Co., Ltd. | Low profile electrical interposer of woven structure and method of making same |
US9832019B2 (en) | 2009-11-17 | 2017-11-28 | Unho Choi | Authentication in ubiquitous environment |
CN102713794A (zh) | 2009-11-24 | 2012-10-03 | 奈克斯特控股公司 | 用于手势识别模式控制的方法和装置 |
US20110213218A1 (en) | 2009-12-17 | 2011-09-01 | Weiner Bert A | Patient healthcare monitoring/maintenance system |
US9069067B2 (en) | 2010-09-17 | 2015-06-30 | The Invention Science Fund I, Llc | Control of an electronic apparatus using micro-impulse radar |
KR101325817B1 (ko) | 2010-01-14 | 2013-11-05 | 실버레이 주식회사 | 도전성 직조물, 그 제조방법 및 제조장치 |
US9335825B2 (en) | 2010-01-26 | 2016-05-10 | Nokia Technologies Oy | Gesture control |
US20110181510A1 (en) | 2010-01-26 | 2011-07-28 | Nokia Corporation | Gesture Control |
FR2955972B1 (fr) | 2010-02-03 | 2012-03-09 | Commissariat Energie Atomique | Procede d'assemblage d'au moins une puce avec un tissu incluant un dispositif a puce |
US8522308B2 (en) | 2010-02-11 | 2013-08-27 | Verizon Patent And Licensing Inc. | Systems and methods for providing a spatial-input-based multi-user shared display experience |
US9104312B2 (en) | 2010-03-12 | 2015-08-11 | Nuance Communications, Inc. | Multimodal text input system, such as for use with touch screens on mobile phones |
US20140297006A1 (en) | 2010-03-12 | 2014-10-02 | Rajendra Padma Sadhu | System and method for providing physiological feedback and rewards for engaging user and retention of customer |
US9477324B2 (en) | 2010-03-29 | 2016-10-25 | Hewlett-Packard Development Company, L.P. | Gesture processing |
US20110245688A1 (en) | 2010-03-31 | 2011-10-06 | General Electric Company | System and method of performing electrocardiography with motion detection |
US8102306B2 (en) | 2010-05-13 | 2012-01-24 | The United States Of America As Represented By The Secretary Of The Navy | Active-radar-assisted passive composite imagery for aiding navigation or detecting threats |
US9642536B2 (en) | 2010-06-07 | 2017-05-09 | Affectiva, Inc. | Mental state analysis using heart rate collection based on video imagery |
US8301232B2 (en) | 2010-06-08 | 2012-10-30 | Alivecor, Inc. | Wireless, ultrasonic personal health monitoring system |
US20110307842A1 (en) | 2010-06-14 | 2011-12-15 | I-Jen Chiang | Electronic reading device |
US20110318985A1 (en) | 2010-06-23 | 2011-12-29 | Mcdermid William James | Touch Sensor Fabric |
US20110317871A1 (en) * | 2010-06-29 | 2011-12-29 | Microsoft Corporation | Skeletal joint recognition and tracking system |
JP2012028015A (ja) * | 2010-07-20 | 2012-02-09 | Toshiba Corp | 照明制御システムおよび照明制御方法 |
US9075434B2 (en) * | 2010-08-20 | 2015-07-07 | Microsoft Technology Licensing, Llc | Translating user motion into multiple object responses |
WO2012026974A2 (en) | 2010-08-23 | 2012-03-01 | Foster-Miller, Inc. | Pals compliant routing system |
WO2012026013A1 (ja) | 2010-08-26 | 2012-03-01 | 京セミ株式会社 | 半導体素子付き織網基材の製造方法、その製造装置及び半導体素子付き織網基材 |
WO2012030299A1 (en) | 2010-09-03 | 2012-03-08 | Jsb Tech Private Limited | A rigid-flex circuit board and manufacturing method |
US9148949B2 (en) | 2010-09-21 | 2015-09-29 | Koninklijke Philips N.V. | Electronic textile and method of manufacturing an electronic textile |
US9569003B2 (en) * | 2010-09-30 | 2017-02-14 | Broadcom Corporation | Portable computing device including a three-dimensional touch screen |
WO2012064847A1 (en) * | 2010-11-09 | 2012-05-18 | Smule, Inc. | System and method for capture and rendering of performance on synthetic string instrument |
KR20130143697A (ko) | 2010-11-20 | 2013-12-31 | 뉘앙스 커뮤니케이션즈, 인코포레이티드 | 상황 키보드를 이용한 컴퓨팅 장치 상에서의 액션 수행 |
JP5510302B2 (ja) | 2010-12-15 | 2014-06-04 | トヨタ紡織株式会社 | 接続部材、その製造方法及び接続構造体 |
US8475367B1 (en) | 2011-01-09 | 2013-07-02 | Fitbit, Inc. | Biometric monitoring device having a body weight sensor, and methods of operating same |
DE102011009577A1 (de) | 2011-01-27 | 2012-08-02 | Texas Instruments Deutschland Gmbh | RFID-Transponder und Verfahren zum Verbinden eines Halbleiter-Dies mit einer Antenne |
US20120220835A1 (en) | 2011-02-14 | 2012-08-30 | Wayne Chung | Wireless physiological sensor system and method |
US9318884B2 (en) | 2011-03-30 | 2016-04-19 | Illinois Tool Works Inc. | Induction heating wire insulation heating and removal |
US9298287B2 (en) | 2011-03-31 | 2016-03-29 | Microsoft Technology Licensing, Llc | Combined activation for natural user interface systems |
US8681122B2 (en) | 2011-04-19 | 2014-03-25 | Cypress Semiconductor Corporation | Capacitive sensing with programmable logic for touch sense arrays |
US20120280900A1 (en) | 2011-05-06 | 2012-11-08 | Nokia Corporation | Gesture recognition using plural sensors |
DE102011075725A1 (de) | 2011-05-12 | 2012-11-15 | Robert Bosch Gmbh | Verfahren zum Erkennen von Gesten |
US20140139616A1 (en) | 2012-01-27 | 2014-05-22 | Intouch Technologies, Inc. | Enhanced Diagnostics for a Telepresence Robot |
US20120310665A1 (en) | 2011-06-01 | 2012-12-06 | Xerox Corporation | Personalized medical record |
US8851372B2 (en) | 2011-07-18 | 2014-10-07 | Tiger T G Zhou | Wearable personal digital device with changeable bendable battery and expandable display used as standalone electronic payment card |
US9069164B2 (en) | 2011-07-12 | 2015-06-30 | Google Inc. | Methods and systems for a virtual input device |
US8179604B1 (en) | 2011-07-13 | 2012-05-15 | Google Inc. | Wearable marker for passive interaction |
US8740793B2 (en) | 2011-08-29 | 2014-06-03 | General Electric Company | Radar based systems and methods for monitoring a subject |
EP2760363A4 (de) | 2011-09-29 | 2015-06-24 | Magic Leap Inc | Taktiler handschuh zur mensch-computer-interaktion |
US9268406B2 (en) * | 2011-09-30 | 2016-02-23 | Microsoft Technology Licensing, Llc | Virtual spectator experience with a personal audio/visual apparatus |
WO2013050621A2 (en) | 2011-10-06 | 2013-04-11 | Iee International Electronics & Engineering S.A. | Electrically conductive textiles for occupant sensing and/or heating applications |
US20130104084A1 (en) | 2011-10-21 | 2013-04-25 | Digital Artforms, Inc. | Systems and methods for human-computer interaction using a two handed interface |
US8869115B2 (en) | 2011-11-23 | 2014-10-21 | General Electric Company | Systems and methods for emotive software usability |
CN104067201B (zh) * | 2011-11-23 | 2018-02-16 | 英特尔公司 | 带有多个视图、显示器以及物理学的姿势输入 |
WO2013084108A1 (en) | 2011-12-07 | 2013-06-13 | Koninklijke Philips Electronics N.V. | Electronic textile with means for facilitating waste sorting |
CN104094194A (zh) | 2011-12-09 | 2014-10-08 | 诺基亚公司 | 用于基于多个传感器信号的融合识别手势的方法和设备 |
US9684379B2 (en) | 2011-12-23 | 2017-06-20 | Intel Corporation | Computing system utilizing coordinated two-hand command gestures |
US9141194B1 (en) | 2012-01-04 | 2015-09-22 | Google Inc. | Magnetometer-based gesture sensing with a wearable device |
US8682395B2 (en) | 2012-01-27 | 2014-03-25 | Blackberry Limited | Communications device and method having non-touch based input screen |
KR101849373B1 (ko) * | 2012-01-31 | 2018-04-17 | 한국전자통신연구원 | 인체의 관절구조를 추정하기 위한 장치 및 방법 |
US20130194173A1 (en) | 2012-02-01 | 2013-08-01 | Ingeonix Corporation | Touch free control of electronic systems and associated methods |
US20130207962A1 (en) | 2012-02-10 | 2013-08-15 | Float Hybrid Entertainment Inc. | User interactive kiosk with three-dimensional display |
US9125456B2 (en) | 2012-03-26 | 2015-09-08 | Chong Sun CHOW | Object-containing button |
TWI604097B (zh) | 2012-03-30 | 2017-11-01 | 英威達技術有限公司 | 具有控制紗線系統之拉伸梭織物及其製備方法 |
US9448636B2 (en) * | 2012-04-18 | 2016-09-20 | Arb Labs Inc. | Identifying gestures using gesture data compressed by PCA, principal joint variable analysis, and compressed feature matrices |
US20130283203A1 (en) | 2012-04-24 | 2013-10-24 | Yahoo! Inc. | Method and system for displaying search results |
US20140121540A1 (en) | 2012-05-09 | 2014-05-01 | Aliphcom | System and method for monitoring the health of a user |
US8897522B2 (en) | 2012-05-30 | 2014-11-25 | Xerox Corporation | Processing a video for vascular pattern detection and cardiac function analysis |
RU2635479C2 (ru) | 2012-06-12 | 2017-11-13 | Конинклейке Филипс Н.В. | Система для измерения показателей жизнедеятельности с использованием камеры |
US9183310B2 (en) | 2012-06-12 | 2015-11-10 | Microsoft Technology Licensing, Llc | Disambiguating intents within search engine result pages |
US20130338460A1 (en) | 2012-06-18 | 2013-12-19 | David Da He | Wearable Device for Continuous Cardiac Monitoring |
BR112014031856A2 (pt) | 2012-06-19 | 2017-06-27 | Nat Univ Singapore | sistema de método para avaliação de situação e encontro remoto com o uso de dados paralelos e trajetos de comunicação por voz |
US9005129B2 (en) | 2012-06-22 | 2015-04-14 | Fitbit, Inc. | Wearable heart rate monitor |
US9042971B2 (en) | 2012-06-22 | 2015-05-26 | Fitbit, Inc. | Biometric monitoring device with heart rate measurement activated by a single user-gesture |
US8768438B2 (en) | 2012-06-25 | 2014-07-01 | Xerox Corporation | Determining cardiac arrhythmia from a video of a subject being monitored for cardiac function |
US9183163B2 (en) * | 2012-06-27 | 2015-11-10 | Ubiquiti Networks, Inc. | Method and apparatus for distributed control of an interfacing-device network |
FR2992784B1 (fr) | 2012-06-29 | 2015-08-07 | Laselec | Dispositif de denudage de cables electriques utilisant des diodes laser violettes ou bleues |
WO2014019085A1 (en) | 2012-08-01 | 2014-02-06 | Whirlscape, Inc. | One-dimensional input system and method |
US20140051941A1 (en) | 2012-08-17 | 2014-02-20 | Rare Light, Inc. | Obtaining physiological measurements using a portable device |
US20140049487A1 (en) | 2012-08-17 | 2014-02-20 | Qualcomm Incorporated | Interactive user interface for clothing displays |
US9230160B1 (en) | 2012-08-27 | 2016-01-05 | Amazon Technologies, Inc. | Method, medium, and system for online ordering using sign language |
WO2014036436A1 (en) | 2012-08-30 | 2014-03-06 | Alivecor, Inc. | Cardiac performance monitoring system for use with mobile communications devices |
CA2883852A1 (en) | 2012-09-04 | 2014-03-13 | Whoop, Inc. | Systems, devices and methods for continuous heart rate monitoring and interpretation |
US9811901B2 (en) | 2012-09-07 | 2017-11-07 | Massachusetts Institute Of Technology | Linear-based Eulerian motion modulation |
US8945328B2 (en) | 2012-09-11 | 2015-02-03 | L.I.F.E. Corporation S.A. | Methods of making garments having stretchable and conductive ink |
EP2895050B8 (de) | 2012-09-11 | 2018-12-19 | L.I.F.E. Corporation S.A. | Tragbare kommunikationsplattform |
US20140073969A1 (en) | 2012-09-12 | 2014-03-13 | Neurosky, Inc. | Mobile cardiac health monitoring |
US9877650B2 (en) | 2012-09-20 | 2018-01-30 | Masimo Corporation | Physiological monitor with mobile computing device connectivity |
US9002174B2 (en) | 2012-10-01 | 2015-04-07 | Microsoft Technology Licensing, Llc | Semantic zoom for related content |
JP6025854B2 (ja) | 2012-10-12 | 2016-11-16 | 帝人株式会社 | 圧電素子 |
CN202887794U (zh) | 2012-10-12 | 2013-04-17 | 上海斯麟特种设备工程有限公司 | 一种涂胶棉纱编织电缆 |
US9632574B2 (en) * | 2012-10-31 | 2017-04-25 | Sony Corporation | Device and method for authenticating a user |
US9892505B2 (en) | 2012-11-11 | 2018-02-13 | Kenkou Gmbh | Method and device for determining vital parameters |
US9477313B2 (en) | 2012-11-20 | 2016-10-25 | Samsung Electronics Co., Ltd. | User gesture input to wearable electronic device involving outward-facing sensor of device |
US10551928B2 (en) | 2012-11-20 | 2020-02-04 | Samsung Electronics Company, Ltd. | GUI transitions on wearable electronic device |
FI124657B (en) | 2012-12-31 | 2014-11-28 | Suunto Oy | Male connector for telemetric receiver |
EP2951811A4 (de) | 2013-01-03 | 2016-08-17 | Meta Co | Digitale brillenvorrichtungen für extramissive räumliche bildgebung, verfahren und systeme zur virtuellen oder vergrösserten sicht, manipulation, erzeugung oder interaktion mit objekten, materialien, oder anderen einheiten |
US20140191939A1 (en) | 2013-01-09 | 2014-07-10 | Microsoft Corporation | Using nonverbal communication in determining actions |
EP2948880A1 (de) | 2013-01-25 | 2015-12-02 | Vanderbilt University | Mobiles intelligentes gesundheitsüberwachungssystem und zugehörige verfahren |
DE102013201359A1 (de) | 2013-01-29 | 2014-07-31 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Steuern eines Werkstattgeräts |
US9146668B2 (en) | 2013-01-31 | 2015-09-29 | Hewlett-Packard Development Company, L.P. | Graphical element placement on a display surface |
WO2014124520A1 (en) | 2013-02-13 | 2014-08-21 | Mespere Lifesciences Inc. | Method and device for measuring venous blood oxygenation |
IN2013CH00818A (de) | 2013-02-25 | 2015-08-14 | Cognizant Technology Solutions India Pvt Ltd | |
US9203835B2 (en) | 2013-03-01 | 2015-12-01 | Paypal, Inc. | Systems and methods for authenticating a user based on a biometric model associated with the user |
WO2014138280A1 (en) | 2013-03-05 | 2014-09-12 | Vtm, Llc | Medical telecommunications system |
WO2014136027A1 (en) | 2013-03-06 | 2014-09-12 | Koninklijke Philips N.V. | System and method for determining vital sign information |
US9519351B2 (en) | 2013-03-08 | 2016-12-13 | Google Inc. | Providing a gesture-based interface |
US9913415B2 (en) | 2013-03-13 | 2018-03-06 | Federal-Mogul Powertrain Llc | EMI shielding textile fabric, wrappable sleeve constructed therefrom and method of construction thereof |
US20140280295A1 (en) | 2013-03-14 | 2014-09-18 | Microsoft Corporation | Multi-language information retrieval and advertising |
US20140281975A1 (en) | 2013-03-15 | 2014-09-18 | Glen J. Anderson | System for adaptive selection and presentation of context-based media in communications |
WO2014144269A1 (en) | 2013-03-15 | 2014-09-18 | Mary Hogue Barrett | Managing and accounting for privacy settings through tiered cookie set access |
WO2014144261A2 (en) | 2013-03-15 | 2014-09-18 | Medusa Scientific Llc | Electric field sensing and e field visualization |
US20140364711A1 (en) | 2013-03-27 | 2014-12-11 | AkibaH Health Corporation | All-in-one analyte sensor in a detachable external mobile device case |
US9971414B2 (en) | 2013-04-01 | 2018-05-15 | University Of Washington Through Its Center For Commercialization | Devices, systems, and methods for detecting gestures using wireless communication signals |
GB201306475D0 (en) * | 2013-04-10 | 2013-05-22 | Elliptic Laboratories As | Touchless interaction devices |
EP2986997A4 (de) | 2013-04-18 | 2017-02-08 | California Institute of Technology | Lebenserkennungsradare |
KR101373633B1 (ko) | 2013-04-23 | 2014-03-13 | 상명대학교서울산학협력단 | 항복강력이 증가된 도전성금속복합사의 제조방법과, 이 제조방법에 의해 제조된 도전성금속복합사와, 이 도전성금속복합사를 이용하여 제조되는 자수회로제품 |
US20160103500A1 (en) | 2013-05-21 | 2016-04-14 | Stanley Innovation, Inc. | System and method for a human machine interface utilizing near-field quasi-state electrical field sensing technology |
KR101999958B1 (ko) | 2013-05-22 | 2019-07-15 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어 방법 |
US20140357369A1 (en) * | 2013-06-04 | 2014-12-04 | Microsoft Corporation | Group inputs via image sensor system |
US9055879B2 (en) | 2013-06-14 | 2015-06-16 | Suunto Oy | Device and method for assembling an electronic device and a flexible element for facilitating assembly of electronic components |
WO2014204323A1 (en) | 2013-06-17 | 2014-12-24 | Stretchsense Limited | Stretchable fabric sensors |
US9423879B2 (en) | 2013-06-28 | 2016-08-23 | Chia Ming Chen | Systems and methods for controlling device operation according to hand gestures |
KR20150006195A (ko) | 2013-07-08 | 2015-01-16 | 엘지전자 주식회사 | 웨어러블 디바이스 및 그 제어 방법 |
US20150029050A1 (en) * | 2013-07-25 | 2015-01-29 | Elwha Llc | Wearable radar reflectors |
US20150068069A1 (en) | 2013-07-27 | 2015-03-12 | Alexander Bach Tran | Personally powered appliance |
US9529513B2 (en) | 2013-08-05 | 2016-12-27 | Microsoft Technology Licensing, Llc | Two-hand interaction with natural user interface |
US20150042789A1 (en) | 2013-08-07 | 2015-02-12 | Blackberry Limited | Determining the distance of an object to an electronic device |
US20150046183A1 (en) | 2013-08-12 | 2015-02-12 | James V. Cireddu | Remote, virtual physical exam acquisition and distribution |
EP3033448A1 (de) | 2013-08-16 | 2016-06-22 | Footfalls and Heartbeats Limited | Verfahren zur herstellung von elektrisch leitfähigen textilien und textiliensensor |
WO2015038684A1 (en) | 2013-09-10 | 2015-03-19 | Polyera Corporation | Attachable article with signaling, split display and messaging features |
US9244578B2 (en) | 2013-09-12 | 2016-01-26 | Intel Corporation | Detecting gestures on the side of a computing device |
FI126008B (en) | 2013-09-13 | 2016-05-31 | Murata Manufacturing Co | cardiac monitoring system |
US9383426B2 (en) * | 2013-09-17 | 2016-07-05 | Farrokh Mohamadi | Real-time, two dimensional (2-D) tracking of first responders with identification inside premises |
US20150085060A1 (en) * | 2013-09-20 | 2015-03-26 | Microsoft Corporation | User experience for conferencing with a touch screen display |
US9001082B1 (en) | 2013-09-27 | 2015-04-07 | Sensel, Inc. | Touch sensor detector system and method |
US10152761B2 (en) | 2013-10-04 | 2018-12-11 | Iqvia Inc. | Facilitating transactions for health applications designed for mobile devices |
JP2016538097A (ja) | 2013-10-23 | 2016-12-08 | クアンタス, インコーポレイテッド | 消費者バイオメトリックデバイス |
US10228801B2 (en) | 2013-10-24 | 2019-03-12 | University Of Maryland, Baltimore County | System and method for proximity-based position, movement and gesture detection using capacitive sensor arrays |
US10429888B2 (en) | 2014-02-25 | 2019-10-01 | Medibotics Llc | Wearable computer display devices for the forearm, wrist, and/or hand |
US9594443B2 (en) | 2014-02-26 | 2017-03-14 | Lenovo (Singapore) Pte. Ltd. | Wearable device authentication and operation |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US9921657B2 (en) * | 2014-03-28 | 2018-03-20 | Intel Corporation | Radar-based gesture recognition |
EP3143474B1 (de) | 2014-05-15 | 2020-10-07 | Federal Express Corporation | Am körper tragbare vorrichtung für kurierdienste und verfahren zur verwendung davon |
US9575560B2 (en) * | 2014-06-03 | 2017-02-21 | Google Inc. | Radar-based gesture-recognition through a wearable device |
US9331422B2 (en) | 2014-06-09 | 2016-05-03 | Apple Inc. | Electronic device with hidden connector |
US10099315B2 (en) | 2014-06-27 | 2018-10-16 | Jabil Inc. | System, apparatus and method for hybrid function micro welding |
GB2528044B (en) | 2014-07-04 | 2018-08-22 | Arc Devices Ni Ltd | Non-touch optical detection of vital signs |
US10234952B2 (en) | 2014-07-18 | 2019-03-19 | Maxim Integrated Products, Inc. | Wearable device for using human body as input mechanism |
US9921660B2 (en) * | 2014-08-07 | 2018-03-20 | Google Llc | Radar-based gesture recognition |
US9811164B2 (en) * | 2014-08-07 | 2017-11-07 | Google Inc. | Radar-based gesture sensing and data transmission |
WO2016023027A1 (en) | 2014-08-08 | 2016-02-11 | Orn, Inc. | Garment including integrated sensor components and feedback components |
US10268321B2 (en) | 2014-08-15 | 2019-04-23 | Google Llc | Interactive textiles within hard objects |
US9588625B2 (en) | 2014-08-15 | 2017-03-07 | Google Inc. | Interactive textiles |
US9778749B2 (en) | 2014-08-22 | 2017-10-03 | Google Inc. | Occluded gesture recognition |
US11169988B2 (en) | 2014-08-22 | 2021-11-09 | Google Llc | Radar recognition-aided search |
US20160054792A1 (en) | 2014-08-22 | 2016-02-25 | Google Inc. | Radar-Based Biometric Recognition |
JP6623218B2 (ja) | 2014-09-30 | 2019-12-18 | アップル インコーポレイテッドApple Inc. | ファブリック感知デバイス |
US9600080B2 (en) | 2014-10-02 | 2017-03-21 | Google Inc. | Non-line-of-sight radar-based gesture recognition |
GB201417536D0 (en) * | 2014-10-03 | 2014-11-19 | Microsoft Corp | Adapting quantization |
US20160106328A1 (en) | 2014-10-16 | 2016-04-21 | Xerox Corporation | Determining arterial pulse transit time from time-series signals obtained at proximal and distal arterial sites |
KR101560282B1 (ko) | 2015-03-06 | 2015-10-14 | 주식회사 휴이노 | 생체 신호 측정 및 측정된 생체 신호에 기초한 실시간 혈압 추정 모니터링 기능을 구비한 모바일 단말기 |
US9552097B2 (en) | 2015-01-28 | 2017-01-24 | Qualcomm Incorporated | Techniques for discerning between intended and unintended gestures on wearable touch-sensitive fabric |
US10660382B2 (en) | 2015-02-27 | 2020-05-26 | Honeywell Safety Products Usa, Inc. | Apparatus, systems and methods for optimizing and masking compression in a biosensing garment |
US10168785B2 (en) | 2015-03-03 | 2019-01-01 | Nvidia Corporation | Multi-sensor based user interface |
US20160284436A1 (en) | 2015-03-26 | 2016-09-29 | Google Inc. | Conductive Thread for Interactive Textiles |
US20160283101A1 (en) | 2015-03-26 | 2016-09-29 | Google Inc. | Gestures for Interactive Textiles |
US9983747B2 (en) | 2015-03-26 | 2018-05-29 | Google Llc | Two-layer interactive textiles |
US20160321428A1 (en) | 2015-04-29 | 2016-11-03 | Google, Inc. | Customizable Health Monitoring |
KR102327044B1 (ko) | 2015-04-30 | 2021-11-15 | 구글 엘엘씨 | 타입-애그노스틱 rf 신호 표현들 |
CN111880650A (zh) | 2015-04-30 | 2020-11-03 | 谷歌有限责任公司 | 基于宽场雷达的手势识别 |
KR102002112B1 (ko) | 2015-04-30 | 2019-07-19 | 구글 엘엘씨 | 제스처 추적 및 인식을 위한 rf―기반 마이크로―모션 추적 |
US20160338599A1 (en) | 2015-05-22 | 2016-11-24 | Google, Inc. | Synchronizing Cardiovascular Sensors for Cardiovascular Monitoring |
US9693592B2 (en) | 2015-05-27 | 2017-07-04 | Google Inc. | Attaching electronic components to interactive textiles |
US20160349845A1 (en) | 2015-05-28 | 2016-12-01 | Google Inc. | Gesture Detection Haptics and Virtual Tools |
KR101938215B1 (ko) | 2015-08-26 | 2019-01-14 | 주식회사 퓨처플레이 | 스마트 인터렉션 장치 |
US20170097684A1 (en) | 2015-10-06 | 2017-04-06 | Google, Inc. | Compressed Sensing for Gesture Tracking and Recognition with Radar |
US10817065B1 (en) | 2015-10-06 | 2020-10-27 | Google Llc | Gesture recognition using multiple antenna |
US9837760B2 (en) | 2015-11-04 | 2017-12-05 | Google Inc. | Connectors for connecting electronics embedded in garments to external devices |
-
2014
- 2014-10-01 US US14/504,038 patent/US9921660B2/en active Active
-
2015
- 2015-08-06 KR KR1020167036396A patent/KR101914850B1/ko active IP Right Grant
- 2015-08-06 CN CN201580034908.7A patent/CN106537173B/zh active Active
- 2015-08-06 DE DE112015003655.5T patent/DE112015003655T5/de active Pending
- 2015-08-06 WO PCT/US2015/043949 patent/WO2016022764A1/en active Application Filing
- 2015-08-06 JP JP2016567813A patent/JP6364505B2/ja active Active
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019057509A1 (de) | 2017-09-20 | 2019-03-28 | BSH Hausgeräte GmbH | Haushaltsgerät mit einem sensor |
DE102017216622C5 (de) | 2017-09-20 | 2023-11-16 | BSH Hausgeräte GmbH | Haushaltsgerät mit einem Sensor |
DE102018126231A1 (de) * | 2018-10-22 | 2020-04-23 | Endress+Hauser SE+Co. KG | Bedienmodul für ein Feldgerät der Automatisierungstechnik und selbiges Feldgerät |
DE102019103584A1 (de) * | 2019-02-13 | 2020-08-13 | Liebherr-Elektronik Gmbh | Verfahren zur Steuerung einer berührungsempfindlichen Anzeige- und Eingabevorrichtung und Vorrichtung zur Ausführung des Verfahrens |
WO2020187397A1 (en) | 2019-03-19 | 2020-09-24 | HELLA GmbH & Co. KGaA | A method for a detection and classification of gestures using a radar system |
DE112019007053T5 (de) | 2019-03-19 | 2022-01-27 | HELLA GmbH & Co. KGaA | Verfahren für eine Detektion und Klassifizierung von Gesten unter Verwendung eines Radarsystems |
WO2020193123A1 (de) * | 2019-03-25 | 2020-10-01 | Volkswagen Aktiengesellschaft | Verfahren zur bereitstellung eines sprachdialogs in gebärdensprache bei einem sprachdialog-system für ein fahrzeug |
DE102019205638A1 (de) * | 2019-04-17 | 2020-10-22 | BSH Hausgeräte GmbH | Hausgerät und Verfahren zur Verbesserung von Radar-basierten Messungen |
US20220318544A1 (en) * | 2021-04-01 | 2022-10-06 | KaiKuTek Inc. | Generic gesture detecting method and generic gesture detecting device |
US11804077B2 (en) * | 2021-04-01 | 2023-10-31 | KaiKuTek Inc. | Generic gesture detecting method and generic gesture detecting device |
DE102022209220A1 (de) | 2022-09-06 | 2024-03-07 | Robert Bosch Gesellschaft mit beschränkter Haftung | Gesten-Bedieneinrichtung zur berührungslosen Bedienung einer Geräte-Einrichtung und Verfahren zur berührungslosen Gesten-Bedienung einer Geräte-Einrichtung |
Also Published As
Publication number | Publication date |
---|---|
US9921660B2 (en) | 2018-03-20 |
JP6364505B2 (ja) | 2018-07-25 |
CN106537173B (zh) | 2019-11-26 |
KR20170012422A (ko) | 2017-02-02 |
US20160041617A1 (en) | 2016-02-11 |
JP2017524170A (ja) | 2017-08-24 |
KR101914850B1 (ko) | 2018-11-02 |
CN106537173A (zh) | 2017-03-22 |
WO2016022764A1 (en) | 2016-02-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112015003655T5 (de) | Radarbasierte Gestenerkennung | |
US10948996B2 (en) | Radar-based gesture-recognition at a surface of an object | |
US10664061B2 (en) | Wide-field radar-based gesture recognition | |
DE112015004519T5 (de) | Nicht-Sichtlinien-Gesteinerkennung auf Radarbasis | |
DE202015009692U1 (de) | Radarbasierte Gestenerkennung und Datenübertragung | |
DE112015002463T5 (de) | Systeme und Verfahren zum gestischen Interagieren in einer im Umfeld vorhandenen Computerumgebung | |
DE112017004677T5 (de) | Berührungsempfindliche Tastatur | |
DE102016124419A1 (de) | Gestenbasierte steuerung einer benutzerschnittstelle | |
DE102009025236A1 (de) | Schnittstellensystem zur Gestenerkennung mit einem lichtstreuenden Bildschirm | |
DE112014000441T5 (de) | Dynamische Benutzerinteraktionen für Displaysteuerung und Angepaßte Gesten Interpretation | |
DE102010031878A1 (de) | System und Verfahren zur entfernten virtuellen auf-einen-Schirm-Eingabe | |
CN105960622A (zh) | 选择吸引式接口、包括该接口的系统和装置及其制造和使用方法 | |
Freud et al. | Visual control of action directed toward two-dimensional objects relies on holistic processing of object shape | |
DE112022002985T5 (de) | Verfahren, system und computerprogramm zur berührungsstabilisierung | |
DE102019113133A1 (de) | Systeme und verfahren zur beeinflussung von spotlight-effekten_ |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R081 | Change of applicant/patentee |
Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US Free format text: FORMER OWNER: GOOGLE INC., MOUNTAIN VIEW, CALIF., US |
|
R082 | Change of representative |
Representative=s name: VENNER SHIPLEY LLP, DE Representative=s name: MAIKOWSKI & NINNEMANN PATENTANWAELTE PARTNERSC, DE Representative=s name: VENNER SHIPLEY LLP, GB Representative=s name: BUCHER, RALF, DIPL.-ING. UNIV., DE |
|
R082 | Change of representative |
Representative=s name: VENNER SHIPLEY LLP, DE Representative=s name: MAIKOWSKI & NINNEMANN PATENTANWAELTE PARTNERSC, DE Representative=s name: BUCHER, RALF, DIPL.-ING. UNIV., DE |
|
R082 | Change of representative |
Representative=s name: VENNER SHIPLEY LLP, DE Representative=s name: MAIKOWSKI & NINNEMANN PATENTANWAELTE PARTNERSC, DE |
|
R082 | Change of representative |
Representative=s name: MAIKOWSKI & NINNEMANN PATENTANWAELTE PARTNERSC, DE |