DE112015003655T5 - Radarbasierte Gestenerkennung - Google Patents

Radarbasierte Gestenerkennung Download PDF

Info

Publication number
DE112015003655T5
DE112015003655T5 DE112015003655.5T DE112015003655T DE112015003655T5 DE 112015003655 T5 DE112015003655 T5 DE 112015003655T5 DE 112015003655 T DE112015003655 T DE 112015003655T DE 112015003655 T5 DE112015003655 T5 DE 112015003655T5
Authority
DE
Germany
Prior art keywords
radar
gesture
interaction
actor
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112015003655.5T
Other languages
English (en)
Inventor
Ivan Poupyrev
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE112015003655T5 publication Critical patent/DE112015003655T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/04Systems determining presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

In diesem Dokument werden Techniken zur Verwendung und Geräte mit einer radarbasierten Gestenerkennung beschrieben. Diese Techniken und Geräte können die Erkennung einer Vielzahl von Gesten ermöglichen und zahlreiche Anwendungsmöglichkeiten für diese Gesten bieten, wie beispielsweise Gesten zur Bedienung, Steuerung und Interaktion mit Computergeräten und Nicht-Computergeräten (von Desktops bis hin zu Kühlschränken). Die Techniken und Geräte können ein Radarfeld erzeugen, das Gesten von mehreren Akteuren gleichzeitig und durch Hindernisse hindurch erfassen kann, wodurch im Vergleich zu vielen herkömmlichen Techniken das Spektrum der Gesten vergrößert und die Erkennungsgenauigkeit verbessert wird.

Description

  • PRIORITÄTSANMELDUNG
  • Diese Anwendung beansprucht die Priorität unter 35 U.S.C. § 119(e) gegenüber der provisorischen US-Patentanmeldung Nr. 62/034,581, die den Titel „Radarbasierte Gestenerkennung“ trägt und am 7. August 2014 eingereicht wurde und deren Offenbarung vollständig durch Bezugnahme hierin aufgenommen wird.
  • HINTERGRUND
  • Die Verwendung von Gesten zur Interaktion mit Computergeräten wird immer beliebter. Mithilfe von Gestenerkennungstechniken ist eine erfolgreiche Gesteninteraktion mit Geräten möglich, wenn diese Gesten auf Geräteoberflächen, wie beispielsweise Touchscreens von Telefonen und Tablets und auf Touchpads von Desktop-Computern, ausgeführt werden. Benutzer möchten jedoch mehr und mehr über Gesten mit ihren Geräten interagieren, die nicht auf einer Oberfläche ausgeführt werden, sondern z. B. durch Winken mit einem Arm ein Videospiel steuern. Für aktuelle Gestenerkennungstechniken ist eine präzise Erkennung dieser berührungslosen Gesten schwierig.
  • ZUSAMMENFASSUNG
  • In diesem Dokument werden Techniken und Geräte für eine radarbasierte Gestenerkennung beschrieben. Diese Techniken und Geräte können dreidimensionale Gesten, wie beispielsweise berührungslose Gesten, präzise erkennen. Diese berührungslosen Gesten können in unterschiedlichen Abständen ausgeführt werden, z. B. von einer auf einer Couch sitzenden Person zur Steuerung eines Fernsehers, von einer in einer Küche stehenden Person zur Steuerung eines Backofens oder Kühlschranks oder von einer Person in einem Abstand von nur wenigen Millimetern von einem Display eines Desktop-Computers.
  • Darüber hinaus verwenden die beschriebenen Techniken unter Umständen ein Radarfeld zur Erfassung von Gesten. Dieses kann die Genauigkeit durch die Unterscheidung zwischen Kleidung und Haut, die Durchdringung von Objekten, die Gesten verdecken, und die Identifizierung von verschiedenen Akteuren verbessern.
  • Diese Zusammenfassung wird bereitgestellt, um vereinfachte Konzepte bezüglich der radarbasierten Gestenerkennung einzuführen, die weiter in der nachfolgenden ausführlichen Beschreibung beschrieben wird. Diese Zusammenfassung dient weder der Identifizierung von Schlüsselmerkmalen oder wesentlichen Merkmalen des beanspruchten Gegenstandes, noch ist sie zur Verwendung beim Festlegen des Schutzumfangs des beanspruchten Gegenstandes beabsichtigt.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Ausführungsformen von Techniken und Geräten für die radarbasierte Gestenerkennung werden unter Bezugnahme auf die folgenden Zeichnungen beschrieben. Es werden in allen Zeichnungen die gleichen Nummern verwendet, um sich auf gleiche Merkmale und Komponenten zu beziehen:
  • 1 veranschaulicht eine exemplarische Umgebung, in der eine radarbasierte Gestenerkennung implementiert werden kann.
  • 2 veranschaulicht das radarbasierte Gestenerkennungssystem und Computergerät aus 1 im Detail.
  • 3 veranschaulicht ein Beispielverfahren, das eine radarbasierte Gestenerkennung ermöglicht, die die Bestimmung einer Identität eines Akteurs in einem Radarfeld beinhaltet.
  • 4 veranschaulicht ein exemplarisches Radarfeld, wobei sich drei Personen innerhalb des Radarfelds befinden.
  • 5 veranschaulicht ein Beispielverfahren, das eine radarbasierte Gestenerkennung mithilfe eines Radarfelds ermöglicht, das so konfiguriert ist, dass es Stoffe durchdringt, aber von menschlichem Gewebe reflektiert wird.
  • 6 veranschaulicht ein radarbasiertes Gestenerkennungssystem, ein Fernsehgerät, ein Radarfeld, zwei Personen und verschiedene Hindernisse, einschließlich einer Couch, einer Lampe und einer Zeitung.
  • 7 zeigt einen exemplarischen Arm in drei Positionen und verdeckt von einem Hemdsärmel.
  • 8 veranschaulicht ein Beispiel-Computersystem, das eine radarbasierte Gestenerkennung beinhaltet oder in dem unter Umständen Techniken implementiert sind, die die Nutzung einer radarbasierten Gestenerkennung ermöglicht.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Überblick
  • In diesem Dokument werden Techniken zur Verwendung und Geräte mit einer radarbasierten Gestenerkennung beschrieben. Diese Techniken und Geräte können die Erkennung einer Vielzahl von Gesten ermöglichen und zahlreiche Anwendungsmöglichkeiten für diese Gesten bieten, wie beispielsweise Gesten zur Bedienung, Steuerung und Interaktion mit verschiedenen Geräten (von Desktops bis hin zu Kühlschränken). Die Techniken und Geräte können ein Radarfeld erzeugen, das Gesten von mehreren Akteuren gleichzeitig und durch Hindernisse hindurch erfassen kann, wodurch im Vergleich zu vielen herkömmlichen Techniken das Spektrum der Gesten vergrößert und die Erkennungsgenauigkeit verbessert wird.
  • Nachfolgend wird in diesem Dokument eine exemplarische Umgebung beschrieben, woraufhin eine Beschreibung exemplarischer radarbasierter Gestenerkennungssysteme und Radarfelder, exemplarischer Verfahren sowie eines exemplarischen Computersystems folgt.
  • Exemplarische Umgebung
  • 1 veranschaulicht eine exemplarische Umgebung 100, in der Techniken, die ein radarbasiertes Gestenerkennungssystem verwenden, und eine Vorrichtung, die ein derartiges System beinhaltet, möglicherweise implementiert sind. Die Umgebung 100 beinhaltet zwei Beispielgeräte und Arten zur Nutzung des radarbasierten Gestenerkennungssystems 102. Im ersten erzeugt das radarbasierte Gestenerkennungssystem 102-1 ein Radar-Nahfeld, um mit einem der Computergeräte 104, dem Desktop-Computer 104-1, zu interagieren, und im zweiten erzeugt das radarbasierte Gestenerkennungssystem 102-2 ein Radar-Mittelfeld (z. B. ein Raumgröße), um mit dem Fernsehgerät 104-2 zu interagieren. Diese radarbasierten Gestenerkennungssysteme 102-1 und 102-2 erzeugen Radarfelder 106, das Radar-Nahfeld 106-1 und das Radar-Mittelfeld 106-2, und werden nachfolgend näher beschrieben.
  • Der Desktop-Computer 104-1 beinhaltet das radarbasierte Gestenerkennungssystem 102-1 oder ist mit diesem verknüpft. Diese Geräte arbeiten zusammen, um die Benutzerinteraktion mit dem Desktop-Computer 104-1 zu verbessern. Nehmen wir beispielsweise einmal an, dass der Desktop-Computer 104-1 einen Touchscreen 108 beinhaltet, über den die Anzeige- und Benutzerinteraktion erfolgen kann. Dieser Touchscreen 108 kann Benutzer vor einige Herausforderungen stellen. So muss beispielsweise eine Person in einer bestimmten Position, d. h. aufrecht und nach vorn gerichtet, sitzen, um den Bildschirm berühren zu können. Darüber hinaus kann bei einigen Benutzern auch die Größe eine Interaktion, wie beispielsweise die Auswahl von Bedienelementen über den Touchscreen 108, erschweren und somit zeitaufwändig machen. Betrachten Sie hingegen das radarbasierte Gestenerkennungssystem 102-1, das ein Radar-Nahfeld 106-1 erzeugt, wodurch ein Benutzer mit der Hand mit dem Desktop-Computer 104-1 durch z. B kleine oder große, einfache oder komplexe Gesten, einschließlich Gesten mit einer Hand oder zwei Händen oder dreidimensionaler Gesten, interagieren kann. Wie unschwer erkennbar ist, kann ein großer Erfassungsbereich die Auswahl von Optionen wesentlich erleichtern und im Vergleich zu einer flachen Oberfläche wie die des Touchscreens 108 ein besseres Benutzererlebnis bieten.
  • Betrachten Sie gleichermaßen das radarbasierte Gestenerkennungssystem 102-2, das ein Radar-Mittelfeld 106-2 erzeugt, wodurch ein Benutzer aus der Ferne und mithilfe von verschiedenen Gesten (von Handgesten über Armgesten bis hin zu Ganzkörpergesten) mit dem Fernsehgerät 104-2 interagieren kann. Auf diese Weise kann die Auswahl durch den Benutzer im Vergleich zu einer flachen Oberfläche (z. B. eines Touchscreens 108), einer Fernbedienung (z. B. die Fernbedienung für ein Videospiel oder Fernsehgerät) und anderen konventionellen Steuermechanismen vereinfacht und erleichtert werden.
  • Die radarbasierten Gestenerkennungssysteme 102 können mit Anwendungen oder einem Betriebssystem von Computergeräten 104 oder aus der Ferne über ein Kommunikationsnetzwerk interagieren, indem Eingabereaktionen zur Erkennung von Gesten übertragen werden. Gesten können verschiedenen Anwendungen und Geräten zugeordnet werden und so die Steuerung von vielen Geräten und Anwendungen ermöglichen. Die radarbasierten Gestenerkennungssysteme 102 können viele komplexe und eindeutige Gesten erkennen, was eine präzise Steuerung und/oder Einzelgestensteuerung selbst bei mehreren Anwendungen gestattet. Die radarbasierten Gestenerkennungssysteme 102 können egal, ob sie in einem Computergerät integriert sind oder mit umfangreichen oder nur begrenzten Computerfunktionen ausgestattet sind, jeweils verwendet werden, um mit zahlreichen Geräten und Anwendungen zu interagieren.
  • Nähere Details finden Sie in 2, die das radarbasierte Gestenerkennungssystem 102 als Teil eines der Computergeräte 104 zeigt. Das Computergerät 104 wird mit verschiedenen nicht darauf begrenzten Beispielgeräten, wie dem beschriebenen Desktop-Computer 104-1, dem Fernseher 104-2 sowie dem Tablet 104-3, dem Laptop 104-4, dem Kühlschrank 104-5 und der Mikrowelle 104-6, dargestellt, obwohl auch andere Geräte, wie beispielsweise Automatisierungs- und Steuersysteme für private Haushalte, Sound- oder Unterhaltungssysteme, Haushaltsvorrichtungen, Sicherheitssysteme, Netbooks-Smartphones und e-Lesegeräte, verwendet werden können. Zu beachten ist, dass das Computergerät 104 tragbar, nicht tragbar, aber mobil oder verhältnismäßig immobil (z. B. Desktops und Vorrichtungen) sein kann.
  • Ferner ist zu beachten, dass das radarbasierte Gestenerkennungssystem 102 mit vielen verschiedenen Computer- oder Peripheriegeräten verwendet oder in sie eingebettet sein kann, wie beispielsweise in die Wände eines Hauses zur Steuerung von Haushaltsgeräten und -systemen (z. B. Automatisierungssteuertafel), in Fahrzeugen zur Steuerung interner Funktionen (z. B. Lautstärke- und Geschwindigkeitssteuerung oder sogar die Lenkung des Fahrzeugs) oder als Zubehörteil eines Laptop-Computers zur Steuerung von Computeranwendungen auf einem Laptop.
  • Darüber hinaus kann das Radarfeld 106 unsichtbar sein und einige Materialien, wie beispielsweise Textilien, durchdringen und dadurch erweitern, wie das radarbasierte Gestenerkennungssystem 102 verwendet und implementiert werden kann. Die hierin dargestellten Beispiele zeigen allgemein ein radarbasiertes Gestenerkennungssystem 102 pro Gerät, es können jedoch auch mehrere verwendet werden, wodurch sich die Anzahl und Komplexität der Gesten sowie die Präzision und Stabilität der Erkennung erhöhen.
  • Das Computergerät 104 beinhaltet einen Computerprozessor oder mehrere Computerprozessoren 202 und computerlesbare Medien 204, die Speicher- und Archivierungsmedien beinhalten. Anwendungen und/oder ein Betriebssystem (nicht gezeigt), die oder das als computerlesbare Anweisungen auf computerlesbaren Medien 204 vorhanden sind oder ist, können über Prozessoren 202 ausgeführt werden, um einige der hierin beschriebene Funktionalitäten bereitzustellen. Die computerlesbaren Medien 204 beinhalten auch einen Gestenmanager 206 (nachfolgend beschrieben).
  • Das Computergerät 104 kann auch Netzwerkschnittstellen 208 zur Übertragung von Daten über verdrahtete, drahtlose oder optische Netzwerke und ein Display 210 beinhalten. Exemplarisch und nicht darauf beschränkt kann die Netzwerkschnittstelle 208 Daten über ein lokales Netzwerk (LAN), ein drahtloses lokales Netzwerk (WLAN), ein Personal Area Network (PAN), ein Wide Area Network (WAN), ein Intranet, das Internet, ein Peer-to-Peer-Netzwerk, ein Punkt-zu-Punkt-Netzwerk, ein Maschennetzwerk und dergleichen übertragen.
  • Das radarbasierte Gestenerkennungssystem 102 ist, wie zuvor beschrieben, so konfiguriert, dass es Gesten erfasst. Um dies ausführen zu können, beinhaltet das radarbasierte Gestenerkennungssystem 102 ein Radarsignale emittierendes Element 212, ein Antennenelement 214 und einen Signalprozessor 216.
  • In der Regel ist das Radarsignale emittierende Element 212 so konfiguriert, dass es ein Radarfeld erzeugt und zwar in einigen Fällen ein solches, das Stoffe oder andere Hindernisse durchdringt und von menschlichem Gewebe reflektiert wird. Zu den Stoffen oder Hindernissen können Holz, Glas, Kunststoff, Baumwolle, Wolle, Nylon und ähnliche Fasern usw. gehören, während es sich bei dem reflektierenden menschlichen Gewebe z. B. um die Hand einer Person handeln kann.
  • Dieses Radarfeld kann klein sein und von null über einige Millimeter bis hin zu 1,5 Meter reichen oder eine mittlere Größe aufweisen, wie 1 Meter bis hin zu 30 Metern. Bei mittlerer Größe ist das Antennenelement 214 oder der Signalprozessor 216 so konfiguriert, dass es oder er die Reflexionen des Radarfelds empfangen und verarbeiten kann, um große Körpergesten basierend auf den Reflexionen vom menschlichen Gewebe durch Körper-, Arm- oder Beinbewegungen erfassen zu können. Aber auch kleinere und präzisere Gesten können erfasst werden. Exemplarische mittelgroße Radarfelder beinhaltet solche, in denen ein Benutzer Gesten ausführt, um ein Fernsehgerät von einer Couch aus zu steuern, ein anderes Lied oder die Lautstärke einer Stereoanlage vom anderen Ende eines Raums aus einzustellen, einen Backofen oder Backofen-Timer auszuschalten (ein Nahfeld würde hier ebenfalls sinnvoll sein), die Beleuchtung in einem Raum ein- oder auszuschalten usw.
  • Das Radarsignale emittierende Element 212 kann stattdessen so konfiguriert sein, dass es ein kleines Radarfeld in beliebigen Abstand von einem Computergerät oder dessen Display erzeugt. Ein exemplarisches Nahfeld ist in 1 mit dem Radar-Nahfeld 106-1 dargestellt, das so konfiguriert ist, dass Gesten von einem Benutzer erfasst, der einen Laptop, einen Desktop, den Wasserspender eines Kühlschranks und andere Geräte verwendet, bei denen es sinnvoll ist, Gesten in der Nähe des Geräts auszuführen.
  • Das Radarsignale emittierende Element 212 kann so konfiguriert werden, dass es kontinuierlich modulierte Strahlen, Ultrabreitbandstrahlen oder Strahlen im Sub-Millimeterbereich emittiert. Das Radarsignale emittierende Element 212 ist in einigen Fällen so konfiguriert, dass es Strahlenbündel formt, die dem Antennenelement 214 und dem Signalprozessor 216 dabei helfen, zu erkennen, welche der Strahlenbündel unterbrochen werden, und so die Positionen der Interaktionen innerhalb des Radarfelds zu bestimmen.
  • Das Antennenelement 214 ist so konfiguriert, dass es die Reflexionen des Radarfelds empfängt oder die Interaktionen im Radarfeld erfasst. In einigen Fällen beinhalten die Reflexionen diejenigen, die von menschlichem Gewebe reflektiert werden, das sich innerhalb des Radarfelds, z. B. von einer Hand oder einem Arm, die oder der sich bewegt. Das Antennenelement 214 kann eine Antenne oder mehrere Antennen oder einen Sensor oder mehrere Sensoren beinhalten, wie beispielsweise eine Anordnung von Strahlensensoren. Die Anzahl der Sensoren in der Anordnung basiert auf der gewünschten Auflösung und der Angabe, ob das Feld eine Fläche oder ein dreidimensionaler Bereich ist.
  • Der Signalprozessor 216 ist so konfiguriert, dass er die empfangenen Reflexionen innerhalb des Radarfelds verarbeitet und Gestendaten bereitzustellen, die zur Bestimmung einer Geste verwendet werden können. Das Antennenelement 214 kann in einigen Fällen so konfiguriert sein, dass es Reflexionen von mehreren Zielen menschlichen Gewebes empfängt, die sich innerhalb des Radarfelds befinden, und der Signalprozessor 216 kann so konfiguriert sein, dass er die empfangenen Interaktionen hinreichend bearbeitet, um eines der mehreren Ziele menschlichen Gewebes von einem anderen der mehreren Ziele menschlichen Gewebes zu unterscheiden. Zu diesen Zielen können Hände, Arme, Beine, der Kopf und der Körper von einer Person oder von verschiedenen Personen gehören. Auf diese Weise ist eine Steuerung durch mehrere Personen möglich, wie z. B. bei einem Videospiel, das von zwei Personen gleichzeitig gespielt wird.
  • Das von dem Radarsignale emittierenden Element 212 erzeugte Feld kann ein dreidimensionales (3D) Volumen (z. B. eine Halbkugel, ein Würfel, ein volumetrischer Fächer, Kegel oder Zylinder) sein, um die berührungslosen Gesten zu erfassen, obwohl stattdessen auch ein Oberflächenfeld (z. B. die Projektion auf die Oberfläche einer Person) verwendet werden kann. Das Antennenelement 214 ist in einigen Fällen so konfiguriert, dass es Reflexionen von Interaktionen im Radarfeld von zwei oder mehreren Zielen (z. B. Finger, Arme oder Personen) empfängt, und der Signalprozessor 216 ist so konfiguriert, dass er die empfangenen Reflexionen hinreichend bearbeitet, um Gestendaten bereitzustellen, die zur Bestimmung von auf einer Oberfläche oder in einem 3D-Volumen ausgeführten Gesten verwendet werden können. Interaktionen in einer Tiefendimension, die bei einigen konventionellen Techniken schwierig sein können, können vom radarbasierten Gestenerkennungssystem 102 präzise erfasst werden.
  • Um Gesten durch Hindernisse hindurch zu erfassen, kann das Radarsignale emittierende Element 212 auch so konfiguriert sein, dass es Strahlen emittiert, die im hohen Maße Stoffe, Holz und Glas durchdringen können. Das Antennenelement 214 ist so konfiguriert, dass es die Reflexionen von menschlichem Gewebe durch Stoffe, Holz oder Glas empfängt, und der Signalprozessor 216 ist so konfiguriert, dass er die empfangenen Reflexionen selbst dann als Gesten erkennt, wenn die empfangenen Reflexionen durch zweimaliges Passieren von Hindernissen teilweise verändert wurden. So können die Radarsignale beispielsweise eine Stoffschicht zwischen dem Radarsender und einem menschlichen Arm durchdringen, am menschlichen Arm reflektiert und dann durch die Stoffschicht zum Antennenelement zurückgesendet werden.
  • Exemplarische Radarfelder werden in 1 dargestellt, wobei es sich bei dem einen um ein Radarnahfeld 106-1 handelt, das von dem radarbasierten Gestenerkennungssystem 102-1 des Desktop-Computers 104-1 emittiert wird. Innerhalb des Radarnahfelds 106-1 kann ein Benutzer komplexe oder einfache Gesten mit einer Hand oder beiden Händen (oder einem Gerät wie einem Stift) ausführen, die das Radarfeld unterbrechen. Exemplarische Gesten beinhalten die vielen Gesten, die bei den gegenwärtigen berührungsempfindlichen Displays verwendet werden können, wie z. B. Wischen, Zusammen- oder Auseinanderziehen mit zwei Fingern, Drehen, Tippen usw. Beispiele anderer möglicher Gesten, die komplex oder einfach, aber dreidimensional sind, sind unter anderem die vielen Gesten der Gebärdensprache, wie z. B. die der American Sign Language (ASL) und anderen Gebärdensprachen weltweit. Folgende Gesten sind nur einige Beispiele dafür: eine Auf- und Abbewegung der Faust bedeutet in der ASL „Ja“; die Bewegung der ausgestreckten Zeige- und Mittelfinger zum gestreckten Daumen, um diesen zu berühren, bedeutet „Nein“; eine flache Hand, die eine Stufe hinaufbewegt wird, bedeutet „Voranschreiten“; ein flache und angewinkelte Hand, die nach oben und unten bewegt wird, bedeutet „Nachmittag“; geballte Finger und ein ausgestreckter Daumen, die geöffnet werden, während der Daumen ausgestreckt bleibt, bedeutet „Taxi“; ein Zeigefinger, der grob in vertikaler Richtung nach oben bewegt wird, bedeutet „Aufwärts“ usw. Dieses sind nur einige wenige der vielen Gesten, die erfasst sowie bestimmten Geräten oder Anwendungen zugewiesen werden können, wie beispielsweise die Voranschreiten-Geste zum Springen zu einem anderen Lied in einer webbasierten Radioanwendung, zum nächsten Lied auf einer CD, die von einer Stereoanlage abgespielt wird, zur nächsten Seite oder zum nächsten Bild in einer Datei oder einem Album auf einem Computer-Display oder in einem digitalen Bilderrahmen.
  • Es werden drei exemplarische Radar-Mittelfelder dargestellt: das zuvor beschriebene Radar-Mittelfeld 106-2 aus 1 sowie die zwei raumgroßen Radar-Mittelfelder aus 4 und 6, die nachfolgend beschrieben werden.
  • Wieder bezugnehmend auf 2 beinhaltet das radarbasierte Gestenerkennungssystem 102 auch ein Übertragungsgerät, das so konfiguriert ist, dass es Gestendaten an ein Remote-Gerät überträgt, wobei dieses nicht benötigt wird, wenn das radarbasierte Gestenerkennungssystem 102 in ein Computergerät 104 integriert ist. Wenn ein derartiges Gerät vorhanden, können Gestendaten in einem Format bereitgestellt werden, die von einem Remote-Computergerät verwendet werden können, und die ausreichen, damit das Remote-Computergerät die Geste in Fällen bestimmen kann, in denen die Geste nicht vom radarbasierten Gestenerkennungssystem 102 oder vom Computergerät 104 bestimmt wird.
  • Genauer gesagt kann das Radarsignale emittierende Element 212 so konfiguriert sein, dass es Mikrowellenstrahlen in einem Bereich von 1 GHz bis 300 GHz, in einem Bereich von 3 GHz bis 100 GHz und in schmaleren Bereichen, wie 57 GHz bis 63 GHz, emittiert, um das Radarfeld zu erzeugen. Dieser Bereich beeinflusst die Fähigkeit des Antennenelements 214, Interaktionen zu empfangen, wie z. B. die Positionen von zwei oder mehreren Zielen zu verfolgen für eine Auflösung von ca. 2 bis ca. 25 mm. Das Radarsignale emittierende Element 212 kann neben anderen Entitäten des radarbasierten Gestenerkennungssystems 102 so konfiguriert sein, dass es über eine relativ schnelle Aktualisierungsrate verfügt, was die Auflösung der Interaktionen verbessert.
  • Durch die Auswahl bestimmter Frequenzen kann das radarbasierte Gestenerkennungssystem 102 so betrieben werden, dass es Kleidung im hohen Maße durchdringt, während menschliches Gewebe nicht durchdrungen wird. Darüber hinaus kann das Antennenelement 214 oder der Signalprozessor 216 so konfiguriert sein, dass es oder er zwischen durch Kleidung verursachte Interaktionen im Radarfeld und durch menschliches Gewebe verursachte Interaktionen im Radarfeld unterscheidet. So kann eine Person, die Handschuhe und einen langärmeligen Pullover trägt, die bei konventionellen Techniken die Erfassung von Gesten beeinträchtigen könnten, bei einem radarbasierten Gestenerkennungssystem 102 dennoch erfasst werden.
  • Das radarbasierte Gestenerkennungssystem 102 beinhaltet möglicherweise auch einen Systemprozessor oder mehrere Systemprozessoren 220 und Systemmedien 222 (z. B. ein computerlesbares Speichermedium oder mehrere computerlesbare Speichermedien). Die Systemmedien 222 beinhalten einen Systemmanager 224, der verschiedene Operationen ausführen kann, einschließlich der Bestimmung einer Geste basierend auf den Gestendaten vom Signalprozessor 216, der Zuordnung der bestimmten Geste zu einer vorkonfigurierten Steuergeste, die mit einer Steuereingabe für eine Anwendung verknüpft ist, die mit dem Remote-Gerät 108 verknüpft ist, und der Anweisung des Sendeempfängers 218 zur Übertragung der Steuereingabe an das effektive Remote-Gerät, um die Steuerung der Anwendung zu aktivieren (bei Fernzugriff). Dies ist aber nur einer der Wege, wie die zuvor beschriebene Steuerung über das radarbasierte Gestenerkennungssystem 102 aktiviert werden kann. Die Operationen des Systemmanagers 224 werden nachfolgend im Rahmen der Verfahren 300 und 500 detaillierter beschrieben.
  • Diese und andere Funktionen und Konfigurationen sowie die Möglichkeiten, wie die Entitäten in den 1 und 2 agieren und interagieren, werden nachfolgend näher erläutert. Diese Entitäten können weiter unterteilt, kombiniert usw. werden. Die Umgebung 100 aus 1 und die detaillierten Abbildungen der 2 und 8 veranschaulichen einige der vielen möglichen Umgebungen und Geräte, die fähig sind, die beschriebenen Techniken zu verwenden.
  • Exemplarische Verfahren
  • Die 3 und 5 zeigen Verfahren, die eine radarbasierte Gestenerkennung ermöglichen. Das Verfahren 300 bestimmt die Identität eines Akteurs und ist mithilfe dieser Identität besser in der Lage, die in einem Radarfeld ausgeführten Gesten zu bestimmen. Das Verfahren 500 ermöglicht eine radarbasierte Gestenerkennung mithilfe eines Radarfelds, das so konfiguriert ist, dass es Stoffe durchdringt, aber von menschlichem Gewebe reflektiert wird. Dieses Verfahren kann getrennt von oder in Verbindung mit dem gesamten Verfahren 300 oder Teilen davon verwendet werden.
  • Diese Verfahren werden anhand von Blocksätzen dargestellt, welche durchgeführte Operationen spezifizieren, jedoch nicht zwingend auf die dargestellte Reihenfolge oder Kombinationen beschränkt sind, um die Operationen seitens der entsprechenden Blöcke durchführen zu können. In Teilen der folgenden Beschreibung kann als Beispiel auf die Umgebung 100 von 1, die in 2 näher beschrieben wird, Bezug genommen werden. Die Techniken sind nicht auf die Leistung einer Entität oder mehreren Entitäten begrenzt, die auf einem Gerät ausgeführt werden.
  • Bei 302 wird ein Radarfeld erzeugt. Dieses Radarfeld kann auf Anweisung von einem oder mehreren der folgenden Komponenten erzeugt werden: Gestenmanager 206, Systemmanager 224 oder Signalprozessor 216. So weist der Systemmanager 224 möglicherweise das Radarsignale emittierende Element 212 des radarbasierten Gestenerkennungssystems 102 an, eines der zuvor beschriebenen Radarfelder zu erzeugen (z. B. projizieren oder emittieren).
  • Bei 304 wird eine erste Interaktion bzw. werden mehrere erste Interaktionen von einem Akteur im Radarfeld erfasst. Diese ersten Interaktionen können einer der zahlreichen hierin beschriebenen Gesten entsprechen oder einfach eine Interaktion sein, die dazu dient, eine Größe oder einen anderen identifizierenden Faktor für den Akteur zu bestimmen. Der Akteur kann eines von zahlreichen Elementen sein, die eine Geste ausführen, wie z. B. ein bestimmter Finger oder Arm oder eine bestimmte Hand eines Menschen usw. Ist das Radarfeld darüber hinaus so konfiguriert, dass es von menschlichem Gewebe reflektiert wird und Kleidung und andere Hindernisse durchdringt, kann der Gestenmanager 206 den Akteur präziser bestimmen.
  • Bei 306 wird die Identität des Akteurs basierend auf einer ersten Interaktion oder mehreren ersten Interaktionen im Radarfeld bestimmt. Diese ersten Interaktionen können Gesten oder andere Interaktionen sein, wie beispielsweise eine Person, die durch ein Radarfeld läuft, sodass der Gestenmanager die Größe, den Armumfang, das Gewicht, das Gate oder andere vom Radar erkennbare Objekte, wie zum Beispiel ein vom Benutzer getragenes Computergerät, Mobiltelefon usw., bestimmen kann.
  • Bei 308 wird eine Interaktion im Radarfeld erfasst. Diese Interaktion wird erfasst, indem die emittierten Radarstrahlen vom Akteur reflektiert werden und die Reflexion dann empfangen wird. Diese Reflexion kann zum Beispiel vom menschlichen Gewebe stammen. Details zum Radarfeld und zu dessen Funktionsweise werden näher im Rahmen des Verfahrens 500 und in den zahlreichen hierin beschriebenen Beispielgeräten erläutert.
  • Bei 310 wird bestimmt, dass die Interaktion von dem Akteur mit der entsprechenden Identität ausgeführt wird. Dazu verfolgt der Gestenmanager 206 den Akteur, sobald die Identität des Akteurs bei 306 bestimmt ist. Diese Nachverfolgung ist eine effektive Möglichkeit, den Akteur von anderen Akteuren zu unterscheiden. Nehmen Sie beispielsweise an, dass bestimmt wurde, dass der Akteur die rechte Hand einer bestimmten Person ist. Das Nachverfolgen kann eine effektive Möglichkeit sein, um die rechte Hand von der linken Hand der Person zu unterscheiden, was bei der Bestimmung der erfassten Interaktionen hilft, wenn sich diese möglicherweise überlappen oder wenn einfach beide Hände gleichzeitig mit dem Radarfeld interagieren. Bei den Akteuren kann es sich auch um ganze Personen handeln, sodass der Gestenmanager 206 möglicherweise zwischen Interaktionen von einer Person und einer anderen unterscheidet.
  • Nehmen wir in einem anderen Beispiel an, dass sich zwei Personen in einem Raum befinden, die gleichzeitig ein Videospiel spielen möchten. Die eine Person fährt ein Fahrzeug in dem Spiel und die andere Person ein anderes. Mithilfe des Gestenmanagers 206 können die Interaktionen beider Personen verfolgt werden, sodass ihre jeweiligen Gesten voneinander unterschieden werden. Dies fördern zudem eine präzise Gestenerkennung für jede der Personen basierend auf den Informationen der jeweiligen Person, wie nachfolgend näher beschrieben wird.
  • Bei 312 wird eine der Interaktion entsprechende Geste basierend auf den mit der Identität des Akteurs verknüpften Informationen bestimmt. Diese Informationen helfen bei der Bestimmung der Geste basierend auf der Interaktion und können von jedweder Art sein. Es kann sich um eine einfache Information, wie zum Beispiel, dass es sich um einen identifizierten Akteur und nicht um einen anderen Akteur oder eine Interferenz handelt, oder um detailliertere Informationen, wie historische Gestenabweichungen, basierend auf dem identifizierten Akteur, handeln.
  • So kann in einigen Fällen der Verlauf für einen bestimmten Akteur, wie beispielsweise die rechte Hand einer bestimmten Person, für die bereits Vor- und Zurück-Bewegungen mit einer kleinen Bewegung (z. B. ein Finger, der nur jeweils zwei Zentimeter vor und zurück bewegt wird) in einem Verlauf registriert wurden, zur Bestimmung der gewünschten Geste für eine Interaktion verwendet werden. Andere Arten von Informationen beinhalten physikalische Merkmale des Akteurs, selbst wenn diese Informationen nicht auf historischen Gesten basieren. Die Körperbewegungen einer stämmigen Person erzeugen beispielsweise andere Daten für dieselbe beabsichtigte Geste, wie die Bewegung einer kleinen, leichten Person. Andere Beispiele beinhalten akteurspezifische Gesten (identitätsspezifische Gesten), wenn beispielsweise eine Person auswählt, eine Steuergeste für sich selbst vorzukonfigurieren. Betrachten wir einen Fall, in dem ein Benutzer eine zylindrische Greifgeste mit der rechten Hand ausführt, gerade so, als ob er einen Lautstärkeregler ergreift, und dann fortfährt, indem er seine Hand im Uhrzeigersinn dreht. Diese Steuergeste kann so konfiguriert werden, dass durch sie die Lautstärke von verschiedenen Geräten oder Anwendungen erhöht wird. Sie kann auch nur mit einem einzelnen Gerät verknüpft werden, sodass nur die Lautstärke eines Fernsehgeräts oder Audiosystems erhöht wird.
  • Bei 314 wird die bestimmte Geste erfolgreich übertragen, um die Interaktion mit dem Radarfeld zur Steuerung oder anderweitigen Interaktion mit einem Gerät zu ermöglichen. So leitet das Verfahren 300 die bestimmte Geste möglicherweise erfolgreich an eine Anwendung oder ein Betriebssystem eines Computergeräts weiter, um die Anwendung oder das Betriebssystem anzuweisen, einen Eingang zu empfangen, der der bestimmten Geste entspricht.
  • Nehmen wir zum Abschluss des Beispiels mit den beiden ein Auto-Rennspiel spielenden Personen an, dass die Interaktionen beider Personen Arm- und Körperbewegungen sind. Der Gestenmanager 206 empfängt Interaktionen von beiden Personen, legt basierend auf deren Identitäten fest, welche Person welche ist, und bestimmt anhand der Informationen zu jeder Person, welche Interaktionen welchen Gesten entsprechen, und eine für diese Gesten geeignete Größenordnung. Wenn eine Person ein Kind bzw. körperlich klein ist und deren Verlauf übertriebene Bewegungen aufzeigt, wird der Gestenmanager 206 die bestimmten Gesten (und deren Größenordnung – z. B. wie weit rechts befindet sich das Kind, das das Auto lenken will) auf Grundlage der Informationen über das Kind festlegen. Desgleichen wird der Gestenmanager 206, wenn die andere Person ein Erwachsener ist, die bestimmte Geste und deren Größenordnung auf den physikalischen Merkmalen des Erwachsenen und dem Verlauf von durchschnittlichen Größenbewegungen festlegen.
  • Wieder bezugnehmend auf das Beispiel einer vorkonfigurierten Geste zur Erhöhung der Lautstärke, die mit einem bestimmten Akteur (in diesem Fall die rechte Hand einer bestimmten Person) verknüpft ist, wird die rechte Hand der Person bei 306 als Reaktion auf die Interaktion der rechten Hand der Person oder der Person im Allgemeinen im Radarfeld bei 304 bestimmt. Bei Erfassung einer Interaktion mit dem Radarfeld bei 308 legt der Gestenmanager dann bei 310 fest, dass der Akteur die rechte Hand der Person ist, und bestimmt dann basierend auf den für die rechte Hand der Person gespeicherten Informationen bezüglich der vorkonfigurierten Geste bei 312, dass die Interaktion eine Geste zur Erhöhung der Lautstärke eines Fernsehgeräts ist. Nach dieser Bestimmung leitet der Gestenmanager 206 die Geste zur Erhöhung der Lautstärke an das Fernsehgerät weiter, um erfolgreich anzuweisen, dass die Lautstärke des Fernsehgeräts erhöht wird.
  • Ein weiteres Beispiel finden Sie in 4, die ein Computergerät 402, ein Radarfeld 404 und drei Personen 406, 408 und 410 zeigt. Jede der Personen 406, 408 und 410 kann ein Akteur sein, der eine Geste ausführt, wobei jede Person mehrere Akteure beinhalten kann, wie beispielsweise beide Hände der Person 410. Nehmen wir einmal an, dass die Person 410 mit dem Radarfeld 404 interagiert, wobei die Interaktion bei der Operation 304 vom radarbasierten Gestenerkennungssystem 102 über die Reflexionen erfasst wird, die vom Antennenelement 214 empfangen werden (dargestellt in 1 und 2). Für diese erste Interaktion muss die Person 410 nur wenig tun, sofern überhaupt etwas explizit gefordert wird. Explizite Interaktionen sind jedoch auch gestattet. In diesem Fall kommt die Person 410 einfach herein und setzt sich auf einen Stuhl und begibt sich so in das Radarfeld 404. Das Antennensystem 214 erfasst diese Interaktion basierend auf den empfangenen Reflexionen von der Person 410.
  • Das radarbasierte Gestenerkennungssystem 102 ermittelt die Informationen über die Person 410, wie beispielsweise die Größe, das Gewicht, den Skelettaufbau, die Gesichtsform und die Haare (oder das Fehlen von Haaren). Auf diese Weise kann das radarbasierte Gestenerkennungssystem 102 bestimmen, dass es sich bei der Person 410 um eine bestimmte bekannte Person handelt, oder einfach nur die Person 410 identifizieren, um sie von anderen Personen im Raum (den Personen 406 und 408) zu unterscheiden, was in der Operation 310 durchgeführt wird. Nehmen wir nach der Bestimmung der Identität der Person 410 einmal an, dass die Person 410 mit ihrer linken Hand gestikuliert, um von der aktuellen Seite einer Diashow-Präsentation zur nächsten Seite zu wechseln. Nehmen wir ferner an, dass sich die anderen Personen 406 und 408 auch bewegen und unterhalten und so möglicherweise diese Geste der Person 410 stören oder dass sie Gesten für dieselbe Anwendung oder andere Anwendungen ausführen. In diesen Fällen kann eine Identifizierung, welcher Akteur welcher ist, wie nachfolgend beschrieben, hilfreich sein.
  • Das fortlaufende Beispiel der drei Personen 406, 408 und 410 in 4 abschließend wird die von der Person 410 ausgeführte Geste vom Gestenmanager 206 als schnelle Wischgeste (wie z. B. beim Verscheuchen einer Fliege, analog zu dem zweidimensionalen Wischen auf einem Touchscreen) bei der Operation 312 erkannt. Bei der Operation 314 wird die schnelle Wischgeste an eine Diashow-Softwareanwendung, die auf dem Display 412 angezeigt wird, weitergeleitet, um die Anwendung anzuweisen, eine andere Seite der Diashow auszuwählen. Wie dieses Beispiel und die anderen zuvor beschriebenen Beispiele zeigen, können die Techniken Gesten, einschließlich berührungslose, dreidimensionale Gesten und Gesten mehrerer Akteure, präzise bestimmen.
  • Das Verfahren 500 ermöglicht eine radarbasierte Gestenerkennung mithilfe eines Radarfelds, das so konfiguriert ist, dass es Stoffe oder andere Hindernisse durchdringt, aber von menschlichem Gewebe reflektiert wird. Das Verfahren 500 kann so zusammen mit oder getrennt von dem Verfahren 300 arbeiten, dass es ein radarbasiertes Gestenerkennungssystem verwendet, um ein Radarfeld zu erzeugen und die durch die im Verfahren 300 beschriebenen Interaktionen verursachten Reflexionen zu erfassen.
  • Bei 502 wird ein Radarsignale emittierendes Element eines radarbasierten Gestenerkennungssystems angewiesen, ein Radarfeld zu erzeugen, wie z. B. das Radarsignale emittierende Element 212 in 2. Bei diesem Radarfeld kann es sich, wie zuvor beschrieben, um ein Nah- oder Mittelfeld handeln, d. h. um ein kleines Feld, das von null bis zu einem Abstand von 1,5 m reicht, oder ein mittelgroßes Feld, das von 1 m bis hin zu 30 m reicht. Ziehen Sie beispielsweise ein Radar-Nahfeld für feine, detaillierte Gesten in Erwägung, die mit einer Hand und beiden Händen ausgeführt werden, während Sie an einem Desktop-Computer mit großem Bildschirm sitzen, um Operationen auszuführen, ohne das Display, die Bilder usw. berühren zu müssen. Die Techniken ermöglichen die Nutzung einer feinen Auflösung oder von komplexen Gesten, um beispielsweise ein Porträt mithilfe von Gesten zu „zeichnen“ oder dreidimensionale CAD(Computer Aided Design)-Bilder mit zwei Händen zu bearbeiten. Wie zuvor beschrieben, können Radar-Mittelfelder zur Steuerung eines Videospiels, eines Fernsehgeräts und anderer Geräte verwendet werden, auch von zwei Personen gleichzeitig.
  • Bei 504 wird ein Antennenelement des radarbasierten Gestenerkennungssystem angewiesen, eine Interaktion im Radarfeld zu empfangen. Das Antennenelement 214 in 2 kann zum Beispiel Reflexionen empfangen, gesteuert vom Gestenmanager 206, Systemprozessor 220 oder Signalprozessor 216.
  • Bei 506 wird ein Signalprozessor des radarbasierten Gestenerkennungssystems angewiesen, die Reflexionen zu verarbeiten, um Daten für die Interaktion im Radarfeld bereitzustellen. Die Reflexionen für die Interaktion können vom Signalprozessor 216 verarbeitet werden, der möglicherweise Gestendaten für die spätere Bestimmung als vorgesehene Geste durch den Systemmanager 224 oder Gestenmanager 206 bereitgestellt. Beachten Sie, dass das Radarsignale emittierende Element 212, das Antennenelement 214 und der Signalprozessor 216 mit oder ohne Prozessoren und von Prozessoren ausführbaren Anweisungen agieren können. So kann das radarbasierte Gestenerkennungssystem 102 in einigen Fällen in Hardware oder in Hardware in Verbindung mit Software und/oder Firmware implementiert werden.
  • Betrachten Sie zur Veranschaulichung 6, die ein radarbasiertes Gestenerkennungssystem 102, ein Fernsehgerät 602, ein Radarfeld 604, zwei Personen 606 und 608, eine Couch 610, eine Lampe 612 und eine Zeitung 614 zeigt. Das radarbasierte Gestenerkennungssystem 102 kann, wie zuvor beschrieben, ein Radarfeld erzeugen, das Objekte und Kleidung durchdringen kann, aber von menschlichem Gewebe reflektiert wird. So erzeugt und erfasst das radarbasierte Gestenerkennungssystem 102 bei den Operationen 502, 504 und 506 Gesten von Personen, selbst wenn diese Gesten verdeckt sind, wie z B. eine Geste mit dem Körper oder Bein der Person 608 hinter der Couch 610 (dargestellte Radarstrahlen dringen durch die Couch 610 bei den Objektdurchdringungslinien 616 und werden bei den Durchleitungslinien 618 fortgesetzt) oder eine Handgeste der Person 606, die von der Zeitung 614 verdeckt wird, oder eine Hand- oder Armgeste der Person 606 oder der Person 608, die von einer Jacke oder einem Shirt verdeckt wird.
  • Bei 508 wird die Identität eines Akteurs, der die Interaktion verursacht hat, basierend auf den für die Interaktion bereitgestellten Daten bestimmt. Diese Identität ist nicht erforderlich, aber die Bestimmung dieser Identität kann die Genauigkeit erhöhen, Interferenzen verringern oder, wie hierin beschrieben, identitätsspezifische Gesten gestatten.
  • Nach der Bestimmung der Identität des Akteurs fährt das Verfahren 500 unter Umständen mit 502 fort, um erfolgreich Operationen zu wiederholen, um eine zweite Interaktion zu erfassen und dann eine Geste für die zweite Interaktion zu bestimmen. In einem Fall basiert diese zweite Interaktion auf der Identität des Akteurs sowie auf den Daten für die Interaktion selbst. Dies ist jedoch nicht erforderlich, da das Verfahren 500 unter Umständen von 506 zu 510 voranschreitet, um bei 510 eine Geste ohne Verwendung der Identität zu bestimmen.
  • Bei 510 wird die Geste für die Interaktion im Radarfeld bestimmt. Wie zuvor beschrieben, kann es sich bei dieser Interaktion um die erste, zweite oder eine spätere Interaktion handeln und sie kann (oder auch nicht) auf der Identität des Akteurs basieren, der die Interaktion verursacht hat.
  • Als Reaktion auf die Bestimmung der Geste bei 510 wird die Geste bei 512 erfolgreich an eine Anwendung oder ein Betriebssystem eines Computergeräts weitergeleitet, um die Anwendung oder das Betriebssystem anzuweisen, einen Eingang zu empfangen, der der bestimmten Geste entspricht. Auf diese Weise kann ein Benutzer zum Beispiel eine Geste zum Anhalten der Wiedergabe von Medien auf einem Remote-Gerät (wie z. B. eine Fernsehshow auf einem Fernsehgerät) ausführen. In einigen Ausführungsformen fungieren das radarbasierte Gestenerkennungssystem 102 und diese Techniken als Universal-Controller für Fernsehgeräte, Computer, Apparate usw.
  • Während oder vor der Weiterleitung der Geste kann der Gestenmanager 206 bestimmen, für welche Anwendung oder Gerät die Geste gültig sein soll. Diese Entscheidung kann auf identitätsspezifischen Gesten, einem aktuellen Gerät, mit dem der Benutzer derzeit interagiert, und/oder auf den Steuerungen basieren, über die ein Benutzer mit einer Anwendung interagiert. Steuerungen können durch Untersuchung der Schnittstelle (z. B. visuelle Steuerungen), veröffentlichte APIs und dergleichen ermittelt werden.
  • Wie bereits zuvor in Teilen angeführt erzeugt das radarbasierte Gestenerkennungssystem 102 ein Radarfeld, das zahlreiche Hindernisse durchdringen kann, aber von menschlichem Gewebe reflektiert wird, was potenziell zu einer Verbesserung der Gestenerkennung führt. Betrachten wir nun zur Veranschaulichung das Beispiel einer Armgeste, bei der der die Geste ausführende Arm durch einen Hemdsärmel verdeckt ist. Dieser Vorgang ist in 7 dargestellt, die den Arm 702, der von einem Hemdsärmel 704 verdeckt ist, an drei Positionen bei der verdeckten Armgeste 706 zeigt. Bei einigen konventionellen Techniken kann der Hemdsärmel 704 die Erkennung einiger Arten von Gesten erschweren oder sogar unmöglich machen. Der Hemdsärmel 704 kann jedoch von den Radarstrahlen durchdrungen werden, die dann vom Arm 702 reflektiert und durch den Hemdsärmel 704 zurück gesendet werden. Etwas vereinfacht gesagt, kann das radarbasierte Gestenerkennungssystem 102 den Hemdsärmel 704 durchdringen und so die Armgeste, wie bei der unverdeckten Armgeste 708, erfassen. Dies gestattet nicht nur eine präzisere Erfassung von Bewegungen und somit der Gesten, sondern auch eine leichte Erkennung von Identitäten der Akteure, die die Geste ausführen, wie in diesem Fall der rechte Arm einer bestimmten Person. Auch wenn sich das menschliche Gewebe mit der Zeit verändert, ist dessen Abweichung im Allgemeinen sehr viel kleiner als die, die sich durch die täglichen und saisonbedingten Änderungen in Bezug auf Kleidung, anderen Hindernissen usw. ergibt.
  • In einigen Fällen wird das Verfahren 300 oder 500 auf einem Gerät ausgeführt, das sich entfernt von dem zu steuernden Gerät befindet. In diesem Fall beinhaltet das Remote-Gerät Entitäten des Computergeräts 104 aus den 1 und 2 und es leitet die Geste über einen Kommunikationsweg oder mehrere Kommunikationswege wie z. B. drahtlos über Transceiver und/oder Netzwerkschnittstellen (wie z. B. die Netzwerkschnittstelle 208 und den Transceiver 218) weiter. Dieses Remote-Gerät benötigt nicht alle Elemente des Computergeräts 104. Das radarbasierte Gestenerkennungssystem 102 kann Gestendaten weiterleiten, die für ein anderes Gerät mit einem Gestenmanager 206 zur Bestimmung und Verwendung der Geste ausreichen.
  • Die Operationen der Verfahren 300 und 500 können wiederholt werden, beispielsweise durch die Bestimmung für mehrere andere Anwendungen und andere Steuerungen, über die die mehreren anderen Anwendungen gesteuert werden können. Die Verfahren 500 kann dann zahlreiche verschiedene Steuerungen anzeigen, um zahlreiche Anwendungen zu steuern, die mit der Anwendung oder dem Akteur verknüpft sind. In einigen Fällen bestimmen die Techniken einzigartige und/oder komplexe und dreidimensionale Steuerungen oder verknüpfen diese mit verschiedenen Anwendungen, um so einem Benutzer die Möglichkeit zur Steuerung zahlreicher Anwendungen zu bieten, ohne dass er die Steuerung zwischendurch wechseln muss. So kann einem Akteur eine bestimmte Geste zur Steuerung einer Softwareanwendung auf einem Computergerät 104, eine andere bestimmte Geste zur Steuerung einer anderen Softwareanwendung und ein noch andere zur Steuerung eines Thermostats oder einer Stereoanlage zugewiesen werden. Diese Geste kann von mehreren verschiedenen Personen ausgeführt oder diesem bestimmten Akteur zugewiesen werden, sobald die Identität des Akteurs bestimmt ist.
  • In der bisherigen Erörterung wurden Verfahren bezüglich der radarbasierten Gestenerkennung beschrieben. Aspekte dieser Verfahren können in Hardware (z. B. feste Logikschaltung), Firmware, Software, manueller Verarbeitung oder jeder Kombination davon implementiert sein. Diese Techniken können auf einer Entität oder mehreren Entitäten ausgeführt werden, die in den 1, 2, 4, 6 und 8 (das Computersystem 800 wird nachfolgend in 8 beschrieben) dargestellt sind, wobei diese weiter unterteilt, kombiniert usw. werden können. Daher veranschaulichen diese Figuren einige der vielen möglichen Systeme oder Vorrichtungen, die fähig sind, die beschriebenen Techniken einzusetzen. Die Entitäten dieser Figuren stellen generell Software, Firmware, Hardware, komplette Geräte oder Netzwerke oder eine Kombination davon dar.
  • Exemplarisches Computersystem
  • 8 veranschaulicht verschiedene Komponenten eines exemplarischen Computersystems 800, das als irgendeine Art von Client, Server und/oder Computergerät, wie beschrieben, unter Bezugnahme auf die vorhergehenden 17 implementiert werden kann, um eine radarbasierte Gestenerkennung zu implementieren.
  • Das Computersystem 800 umfasst Kommunikationsgeräte 802, die eine verdrahtete und/oder drahtlose Kommunikation von Gerätedaten 804 ermöglichen (z. B. empfangene Daten, Daten, die empfangen werden, Daten, die für die Übertragung eingeplant sind, Datenpakete von Daten usw.). Die Gerätedaten 804 oder andere Geräteinhalte können Konfigurationseinstellungen des Geräts, Medieninhalte, die im Gerät gespeichert sind, und/oder mit einem Benutzer des Geräts verbundene Informationen (z. B. eine Identität eines Akteurs, der eine Geste ausführt) beinhalten. Die Medieninhalte, die im Computersystem 800 gespeichert sind, können jede Art von Audio-, Video- und/oder Bilddaten beinhalten. Das Computersystem 800 umfasst eine oder mehrere Dateneingaben 806, über die jede Art von Daten, Medieninhalten und/oder Eingaben, wie menschliche Äußerungen, Interaktionen mit einem Radarfeld, vom Benutzer wählbare Eingaben (explizit oder implizit), Nachrichten, Musik, Fernsehmedieninhalten, aufgezeichnete Videoinhalte und jede andere Art von von irgendeiner Inhalts- und/oder Datenquelle empfangenen Audio-, Video- und/oder Bilddaten, empfangen werden kann.
  • Das Computersystem 800 beinhaltet zudem Kommunikationsschnittstellen 808, die als irgendeine oder mehrere einer seriellen und/oder parallelen Schnittstelle, einer drahtlosen Schnittstelle, irgendeine Art einer Netzwerkschnittstelle, eines Modems und als jede andere Art von Kommunikationsschnittstelle implementiert sein kann. Die Kommunikationsschnittstelle 808 stellt eine Verbindung und/oder Kommunikationslinks zwischen dem Computersystem 800 und einem Kommunikationsnetzwerk bereit, mittels dem andere Elektronik-, Computer- und Kommunikationsgeräte Daten mit dem Computersystem 800 austauschen.
  • Das Computersystem 800 umfasst einen Prozessor oder mehrere Prozessoren 810 (z. B. irgendwelche von Mikroprozessoren, Steuerungen und dergleichen), die verschiedene computerausführbare Anweisungen verarbeiten, um den Betrieb des Computersystems 800 zu steuern und um Techniken für eine radarbasierte Gestenerkennung oder Techniken, in denen diese verkörpert werden können, zu ermöglichen. Alternativ oder zusätzlich kann das Computersystem 800 mit irgendeiner oder einer Kombination von Hardware, Firmware oder fester Logikschaltung implementiert sein, die in Verbindung mit Verarbeitungs- und Steuerschaltungen, die generell bei 812 identifiziert sind, implementiert ist. Obwohl dies nicht gezeigt ist, kann das Computersystem 800 einen Systembus oder ein Datenübertragungssystem beinhalten, der oder das die verschiedenen Komponenten innerhalb des Geräts verbindet. Ein Systembus kann irgendeine Busstruktur oder eine Kombination von unterschiedlichen Busstrukturen, wie einen Speicherbus oder Memory-Controller, einen Peripheriebus, einen universellen seriellen Bus und/oder einen Prozessor- oder lokalen Bus, beinhalten, der irgendwelche aus einer Vielzahl von Busarchitekturen verwendet.
  • Das Computersystem 800 beinhaltet zudem computerlesbare Medien 814, wie ein Speichergerät oder mehrere Speichergeräte, das oder die eine permanente und/oder nicht flüchtige Datenspeicherung ermöglicht oder ermöglichen (d. h. im Gegensatz zu reiner Signalübertragung), wobei Beispiele davon einen Speicher mit wahlfreiem Zugriff (Random Access Memory, RAM), einen nicht flüchtigen Speicher (z. B. einen oder mehrere von einem schreibgeschützten Speicher (Read Only Memory, ROM), Flash-Speicher, EPROM, EEPROM usw.) und ein Festplattenspeichergerät beinhalten. Ein Festplattenspeichergerät kann als jede Art von magnetischem oder optischem Speichergerät, wie ein Festplattenlaufwerk, eine beschreibbare und/oder überschreibbare Compact Disc (CD), jede Art einer Digital Versatile Disc (DVD) und dergleichen, implementiert werden. Das Computersystem 800 kann zudem ein Massenspeichermediengerät (Speichermedien) 816 beinhalten.
  • Die computerlesbaren Medien 814 stellen Datenspeichermechanismen bereit, um Gerätedaten 804 zu speichern, sowie verschiedene Geräteanwendungen 818 und irgendwelche anderen Arten von Informationen und/oder Daten, die mit operativen Aspekten des Computersystems 800 verbunden sind. Ein Betriebssystem 820 kann beispielsweise als eine Computeranwendung mit computerlesbaren Medien 814 aufrechterhalten und über die Prozessoren 810 ausgeführt werden. Die Geräteanwendungen 818 können einen Gerätemanager, wie irgendeine Form einer Steuerungsanwendung, einer Softwareanwendung, eines Signalverarbeitungs- und Steuermoduls, eines Codes, der einem bestimmten Gerät eigen ist, einer Hardwareabstraktionsschicht für eine bestimmte Vorrichtung und so weiter, beinhalten. Geräteanwendungen 818 können zudem Systemkomponenten, Engines oder Manager zur Implementierung einer radarbasierten Gestenerkennung, wie beispielsweise einen Gestenmanager 206 und einen Systemmanager 224, beinhalten.
  • Schlussfolgerung
  • Obwohl Ausführungsformen von Techniken, die eine radarbasierte Gestenerkennung verwenden, und Vorrichtungen, die diese beinhalten, in Sprache beschrieben wurden, die für Merkmale und/oder Verfahren spezifisch ist, versteht es sich, dass der Gegenstand der angefügten Ansprüche nicht zwangsläufig auf die spezifischen beschriebenen Merkmale oder Verfahren begrenzt ist. Die spezifischen Merkmale und Verfahren werden vielmehr als exemplarische Implementierungen der radarbasierten Gestenerkennung offenbart.

Claims (20)

  1. Computerimplementiertes Verfahren, das Folgendes umfasst: das Erzeugen durch ein radarbasiertes Gestenerkennungssystem eines Radarfelds; das Erfassen durch das radarbasierte Gestenerkennungssystem von einer ersten Interaktion bzw. von mehreren ersten Interaktionen von einem Akteur im Radarfeld; das Bestimmen der Identität des Akteurs basierend auf der ersten Interaktion oder mehreren ersten Interaktionen im Radarfeld; das Erfassen durch das radarbasierte Gestenerkennungssystem einer Interaktion; das Bestimmen, dass die Interaktion von dem Akteur mit der entsprechenden Identität ausgeführt wird; und das Bestimmen einer der Interaktion entsprechenden Geste basierend auf den mit der Identität des Akteurs verknüpften Informationen.
  2. Computerimplementiertes Verfahren nach Anspruch 1, wobei nach der Bestimmung, dass die Interaktion von dem Akteur mit der entsprechenden Identität ausgeführt wird, der Akteur mithilfe des radarbasierten Gestenerkennungssystems verfolgt wird. Diese Nachverfolgung ist eine effektive Möglichkeit, den Akteur von anderen Akteuren zu unterscheiden.
  3. Computerimplementiertes Verfahren nach Anspruch 2, wobei der Akteur die erste Hand einer Person und einer der anderen Akteure die zweite Hand der Person ist.
  4. Computerimplementiertes Verfahren nach Anspruch 2, wobei der Akteur die erste Person und einer der anderen Akteure eine zweite Person ist.
  5. Computerimplementiertes Verfahren nach Anspruch 4, wobei die Interaktion eine Arm- oder Körperbewegung der ersten Person ist und das Verfahren ferner Folgendes umfasst: das Empfangen einer zweiten Interaktion; das Bestimmen durch Nachverfolgung der zweiten Person, dass die zweite Interaktion von der zweiten Person ausgeführt wird; das Bestimmen basierend auf den zweiten Informationen, die mit der zweiten Person verknüpft sind, einer zweiten Geste, die der zweiten Interaktion entspricht; und das erfolgreiche Bereitstellen der Geste und der zweiten Geste, um eine Anwendung oder ein Betriebssystem anzuweisen, die ersten und zweiten Eingänge zu empfangen, die entsprechend mit der ersten und der zweiten Geste verknüpft sind.
  6. Computerimplementiertes Verfahren nach Anspruch 1, das ferner die Weiterleitung der bestimmten Geste an eine Anwendung oder ein Betriebssystem eines Computergeräts umfasst, das das Verfahren effektiv ausführt, um die Anwendung oder das Betriebssystem anzuweisen, einen Eingang zu empfangen, der der bestimmten Geste entspricht.
  7. Computerimplementiertes Verfahren nach Anspruch 1, wobei die Informationen bei der Bestimmung der Geste basierend auf der Interaktion helfen, wobei es sich um Informationen, die die historische Gestenabweichung anzeigen, oder Informationen zu physikalischen Merkmalen des Akteurs handeln kann, die die Bestimmung der Geste beeinflussen.
  8. Computerimplementiertes Verfahren nach Anspruch 1, wobei die Bestimmung der Geste, die den Interaktionszuordnungen entspricht, auf den Informationen, die mit der Identität des Akteurs verknüpft ist, und der Interaktion mit einem identitätsspezifischen Geste, die mit dem Akteur verknüpft ist, basiert.
  9. Computerimplementiertes Verfahren nach Anspruch 8, wobei die identitätsspezifische Geste eine vorkonfigurierte Steuergeste ist, die ausschließlich mit dem Akteur und einer Anwendung verknüpft ist, wobei das Verfahren ferner die erfolgreiche Weiterleitung der vorkonfigurierten Steuergeste an die Anwendung umfasst, um anzuweisen, dass die Anwendung mit der identitätsspezifischen Geste gesteuert wird.
  10. Computerimplementiertes Verfahren nach Anspruch 1, das ferner die Bestimmung, dass die Geste mit einem Remote-Gerät verknüpft ist, und die Weiterleitung der Geste an das Remote-Gerät umfasst.
  11. Computerimplementiertes Verfahren nach Anspruch 1, wobei mindestens ein Teil der Interaktion Reflexionen von menschlichem Gewebe beinhaltet, bei denen sich eine Materialschicht zwischen dem radarbasierten Gestenerkennungssystem und dem menschlichen Gewebe befindet, wobei die Materialschicht aus Glas, Holz, Nylon, Baumwolle oder Wolle bestehen kann.
  12. Computerimplementiertes Verfahren nach Anspruch 1, wobei das radarbasierte Gestenerkennungssystem mit einem Computergerät verknüpft ist, das das Verfahren ausführt, das Radarfeld ein Radar-Nahfeld ist und die Interaktion innerhalb eines Bereichs von 1 mm bis hin zu 1,5 m vom Display des Computergeräts erfasst wird.
  13. Computerimplementiertes Verfahren nach Anspruch 1, wobei die mit der Identität des Akteurs verknüpften Informationen eine physikalische Größe des Akteurs oder eine Größenordnung für die vom Akteur ausgeführten Gesten angeben und wobei die Bestimmung der Geste, die der Interaktion entspricht, auf der physikalischen Größe oder der Größenordnung für die Gesten basiert.
  14. Radarbasiertes Gestenerkennungssystem, das Folgendes umfasst: ein Radarsignale emittierendes Element, das so konfiguriert ist, dass es ein Radarfeld erzeugt, wobei dieses Radarfeld so konfiguriert ist, dass es Stoffe oder andere Hindernisse durchdringt und von menschlichem Gewebe reflektiert wird; ein Antennenelement, das so konfiguriert ist, dass es Reflexionen von mehreren Zielen menschlichen Gewebes empfängt, die sich innerhalb des Radarfelds befinden; und einen Signalprozessor, der so konfiguriert ist, dass er die empfangenen Reflexionen von den mehreren Zielen menschlichen Gewebes innerhalb des Radarfelds ausreichend verarbeitet, um eines der mehreren Ziele menschlichen Gewebes von einem anderen der mehreren Ziele menschlichen Gewebes zu unterscheiden und so Gestendaten bereitzustellen, die zur Bestimmung einer Geste von einem der mehreren Ziele menschlichen Gewebes verwendet werden können.
  15. Radarbasiertes Gestenerkennungssystem nach Anspruch 14, wobei die mehreren Ziele menschlichen Gewebes verschiedene Teile derselben Person sind.
  16. Radarbasiertes Gestenerkennungssystem nach Anspruch 14, wobei die mehreren Ziele menschlichen Gewebes zu unterschiedlichen Personen gehören und die Unterscheidung eines der mehreren Ziele menschlichen Gewebes von einem anderen der mehreren Ziele menschlichen Gewebes eine effektive Möglichkeit ist, um Gestendaten für eine der verschiedenen Personen bereitzustellen.
  17. Radarbasiertes Gestenerkennungssystem nach Anspruch 14, wobei das Radarfeld ca. 1 bis 10 m tief ist und das Antennenelement oder der Signalprozessor so konfiguriert ist, dass es oder er die empfangenen Reflexionen verarbeitet, um große Körpergesten basierend auf den Reflexionen von menschlichem Gewebe bereitzustellen, die durch Körper-, Arm- oder Beinbewegungen verursacht werden.
  18. Radarbasiertes Gestenerkennungssystem nach Anspruch 14, wobei das Radarsignale emittierende Element das Radarfeld als dreidimensionales Volumen erzeugt, das Antennenelement die Reflexionen im dreidimensionalen Volumen empfangen kann und der Signalprozessor so konfiguriert ist, dass er die empfangenen Reflexionen im dreidimensionalen Volumen ausreichend verarbeiten kann, um Gestendaten bereitzustellen, die zur Bestimmung von Gesten in drei Dimensionen verwendet werden können.
  19. Radarbasiertes Gestenerkennungssystem nach Anspruch 14, wobei das Radarsignale emittierende Element so konfiguriert ist, dass es Mikrowellenstrahlen innerhalb eines Bereichs von ca. 57 GHz bis ca. 63 GHz emittiert.
  20. Vorrichtung, die Folgendes umfasst: ein radarbasiertes Gestenerkennungssystem, das Folgendes umfasst: ein Radarsignale emittierendes Element, das so konfiguriert ist, dass es ein Radarfeld erzeugt, wobei dieses Radarfeld so konfiguriert ist, dass es Stoffe oder andere Hindernisse durchdringt und von menschlichem Gewebe reflektiert wird; ein Antennenelement, das so konfiguriert ist, dass es Reflexionen von menschlichem Gewebe empfängt, das sich innerhalb des Radarfelds befindet; und einen Signalprozessor, der so konfiguriert ist, dass er die empfangenen Reflexionen vom menschlichen Gewebe verarbeitet, um mit den empfangenen Reflexionen verknüpfte Daten bereitzustellen; einen Computerprozessor oder mehrere Computerprozessoren; und ein computerlesbares Speichermedium oder mehrere computerlesbare Speichermedien mit darauf gespeicherten Anweisungen, die bei Ausführung durch den einen Computerprozessor und die mehreren Computerprozessoren Operationen ausführen, die Folgendes umfassen: das Anweisen des radarbasierten Gestenerkennungssystems, ein Radarfeld mithilfe des Radarsignale emittierenden Elements zu erzeugen; das Anweisen des radarbasierten Gestenerkennungssystems, mit dem Antennenelement erste Reflexionen für eine erste Interaktion im Radarfeld zu empfangen; das Anweisen des Signalprozessors zur Verarbeitung der empfangenen Reflexionen, um Daten für die erste Interaktion bereitzustellen; das Bestimmen basierend auf den bereitgestellten Daten für die erste Interaktion der Identität eines Akteurs, der die erste Interaktion verursacht hat; das Anweisen des radarbasierten Gestenerkennungssystems, mit dem Antennenelement zweite Reflexionen für eine zweite Interaktion im Radarfeld zu empfangen; das Anweisen des Signalprozessors zur Verarbeitung der zweiten empfangenen Reflexionen, um zweite Daten für die zweite Interaktion bereitzustellen; das Bestimmen basierend auf den bereitgestellten zweiten Daten für die zweite Interaktion und der Identität des Akteurs einer Geste, die der zweiten Interaktion entspricht; und das erfolgreiche Weiterleiten der bestimmte Geste an eine Anwendung oder ein Betriebssystem, um die Anwendung oder das Betriebssystem anzuweisen, einen Eingang zu empfangen, der der bestimmten Geste entspricht.
DE112015003655.5T 2014-08-07 2015-08-06 Radarbasierte Gestenerkennung Pending DE112015003655T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201462034581P 2014-08-07 2014-08-07
US62/034,581 2014-08-07
PCT/US2015/043949 WO2016022764A1 (en) 2014-08-07 2015-08-06 Radar-based gesture recognition

Publications (1)

Publication Number Publication Date
DE112015003655T5 true DE112015003655T5 (de) 2017-05-11

Family

ID=54072946

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112015003655.5T Pending DE112015003655T5 (de) 2014-08-07 2015-08-06 Radarbasierte Gestenerkennung

Country Status (6)

Country Link
US (1) US9921660B2 (de)
JP (1) JP6364505B2 (de)
KR (1) KR101914850B1 (de)
CN (1) CN106537173B (de)
DE (1) DE112015003655T5 (de)
WO (1) WO2016022764A1 (de)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019057509A1 (de) 2017-09-20 2019-03-28 BSH Hausgeräte GmbH Haushaltsgerät mit einem sensor
DE102018126231A1 (de) * 2018-10-22 2020-04-23 Endress+Hauser SE+Co. KG Bedienmodul für ein Feldgerät der Automatisierungstechnik und selbiges Feldgerät
DE102019103584A1 (de) * 2019-02-13 2020-08-13 Liebherr-Elektronik Gmbh Verfahren zur Steuerung einer berührungsempfindlichen Anzeige- und Eingabevorrichtung und Vorrichtung zur Ausführung des Verfahrens
WO2020187397A1 (en) 2019-03-19 2020-09-24 HELLA GmbH & Co. KGaA A method for a detection and classification of gestures using a radar system
WO2020193123A1 (de) * 2019-03-25 2020-10-01 Volkswagen Aktiengesellschaft Verfahren zur bereitstellung eines sprachdialogs in gebärdensprache bei einem sprachdialog-system für ein fahrzeug
DE102019205638A1 (de) * 2019-04-17 2020-10-22 BSH Hausgeräte GmbH Hausgerät und Verfahren zur Verbesserung von Radar-basierten Messungen
US20220318544A1 (en) * 2021-04-01 2022-10-06 KaiKuTek Inc. Generic gesture detecting method and generic gesture detecting device
DE102022209220A1 (de) 2022-09-06 2024-03-07 Robert Bosch Gesellschaft mit beschränkter Haftung Gesten-Bedieneinrichtung zur berührungslosen Bedienung einer Geräte-Einrichtung und Verfahren zur berührungslosen Gesten-Bedienung einer Geräte-Einrichtung

Families Citing this family (134)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10152136B2 (en) * 2013-10-16 2018-12-11 Leap Motion, Inc. Velocity field interaction for free space gesture interface and control
US9575560B2 (en) 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
US9811164B2 (en) 2014-08-07 2017-11-07 Google Inc. Radar-based gesture sensing and data transmission
US9921660B2 (en) * 2014-08-07 2018-03-20 Google Llc Radar-based gesture recognition
US10268321B2 (en) 2014-08-15 2019-04-23 Google Llc Interactive textiles within hard objects
US9588625B2 (en) 2014-08-15 2017-03-07 Google Inc. Interactive textiles
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
US9600080B2 (en) 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition
US10016162B1 (en) 2015-03-23 2018-07-10 Google Llc In-ear health monitoring
US9983747B2 (en) 2015-03-26 2018-05-29 Google Llc Two-layer interactive textiles
US9848780B1 (en) 2015-04-08 2017-12-26 Google Inc. Assessing cardiovascular function using an optical sensor
KR102002112B1 (ko) 2015-04-30 2019-07-19 구글 엘엘씨 제스처 추적 및 인식을 위한 rf―기반 마이크로―모션 추적
KR102327044B1 (ko) 2015-04-30 2021-11-15 구글 엘엘씨 타입-애그노스틱 rf 신호 표현들
CN111880650A (zh) 2015-04-30 2020-11-03 谷歌有限责任公司 基于宽场雷达的手势识别
US10080528B2 (en) 2015-05-19 2018-09-25 Google Llc Optical central venous pressure measurement
US10088908B1 (en) 2015-05-27 2018-10-02 Google Llc Gesture detection and interactions
US9693592B2 (en) 2015-05-27 2017-07-04 Google Inc. Attaching electronic components to interactive textiles
US10376195B1 (en) 2015-06-04 2019-08-13 Google Llc Automated nursing assessment
CN107025780B (zh) 2015-06-25 2020-09-01 北京智谷睿拓技术服务有限公司 交互方法及通信设备
CN106297230B (zh) 2015-06-25 2019-07-26 北京智谷睿拓技术服务有限公司 交互方法及通信设备
CN106297229B (zh) * 2015-06-25 2019-08-02 北京智谷睿拓技术服务有限公司 交互方法及通信设备
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
US9837760B2 (en) 2015-11-04 2017-12-05 Google Inc. Connectors for connecting electronics embedded in garments to external devices
US10492302B2 (en) 2016-05-03 2019-11-26 Google Llc Connecting an electronic component to an interactive textile
WO2017200570A1 (en) 2016-05-16 2017-11-23 Google Llc Interactive object with multiple electronics modules
WO2017200949A1 (en) 2016-05-16 2017-11-23 Google Llc Interactive fabric
WO2017200571A1 (en) 2016-05-16 2017-11-23 Google Llc Gesture-based control of a user interface
KR101852675B1 (ko) * 2016-05-25 2018-06-04 연세대학교 산학협력단 차량의 장치들을 제어하기 위한 장치 및 방법
US10181653B2 (en) 2016-07-21 2019-01-15 Infineon Technologies Ag Radio frequency system for wearable device
US10218407B2 (en) 2016-08-08 2019-02-26 Infineon Technologies Ag Radio frequency system and method for wearable device
EP3545335B1 (de) * 2016-11-22 2024-03-06 Sony Group Corporation Radarassistiertes verfolgen von mobilgeräten um die verbindungsqualität in einter hochfrequenz kommunikation zu verbessern
US10579150B2 (en) 2016-12-05 2020-03-03 Google Llc Concurrent detection of absolute distance and relative movement for sensing action gestures
US10466772B2 (en) 2017-01-09 2019-11-05 Infineon Technologies Ag System and method of gesture detection for a remote device
US10505255B2 (en) 2017-01-30 2019-12-10 Infineon Technologies Ag Radio frequency device packages and methods of formation thereof
US11243293B2 (en) 2017-02-07 2022-02-08 Samsung Electronics Company, Ltd. Radar-based system for sensing touch and in-the-air interactions
KR101892650B1 (ko) * 2017-02-15 2018-08-28 (주)더블유알티랩 레이더를 이용하여 포인팅 위치를 인식하는 방법 및 장치
KR101883228B1 (ko) 2017-02-16 2018-07-30 (주)더블유알티랩 제스처 인식 방법 및 장치
US10684693B2 (en) 2017-03-02 2020-06-16 Samsung Electronics Co., Ltd. Method for recognizing a gesture and an electronic device thereof
US10602548B2 (en) 2017-06-22 2020-03-24 Infineon Technologies Ag System and method for gesture sensing
CN107273869B (zh) * 2017-06-29 2020-04-24 联想(北京)有限公司 手势识别控制方法和电子设备
US11079289B2 (en) * 2017-08-18 2021-08-03 Google Llc Radar-based force sensing
CN107688431B (zh) * 2017-08-23 2021-04-30 上海喵呜信息科技有限公司 基于雷达定位的人机交互方法
US10725161B2 (en) * 2017-12-15 2020-07-28 Google Llc Seamless authentication using radar
US10746625B2 (en) 2017-12-22 2020-08-18 Infineon Technologies Ag System and method of monitoring a structural object using a millimeter-wave radar sensor
US11278241B2 (en) 2018-01-16 2022-03-22 Infineon Technologies Ag System and method for vital signal sensing using a millimeter-wave radar sensor
US11346936B2 (en) 2018-01-16 2022-05-31 Infineon Technologies Ag System and method for vital signal sensing using a millimeter-wave radar sensor
US10795012B2 (en) 2018-01-22 2020-10-06 Infineon Technologies Ag System and method for human behavior modelling and power control using a millimeter-wave radar sensor
CN108344995A (zh) * 2018-01-25 2018-07-31 宁波隔空智能科技有限公司 一种基于微波雷达技术的手势识别装置及手势识别方法
KR102116604B1 (ko) 2018-01-26 2020-05-28 한양대학교 산학협력단 레이더를 이용한 제스처 인식 장치 및 방법
US10576328B2 (en) 2018-02-06 2020-03-03 Infineon Technologies Ag System and method for contactless sensing on a treadmill
US10705198B2 (en) 2018-03-27 2020-07-07 Infineon Technologies Ag System and method of monitoring an air flow using a millimeter-wave radar sensor
US10775482B2 (en) 2018-04-11 2020-09-15 Infineon Technologies Ag Human detection and identification in a setting using millimeter-wave radar
US10761187B2 (en) 2018-04-11 2020-09-01 Infineon Technologies Ag Liquid detection using millimeter-wave radar sensor
US10794841B2 (en) 2018-05-07 2020-10-06 Infineon Technologies Ag Composite material structure monitoring system
US10772511B2 (en) * 2018-05-16 2020-09-15 Qualcomm Incorporated Motion sensor using cross coupling
US10399393B1 (en) 2018-05-29 2019-09-03 Infineon Technologies Ag Radar sensor system for tire monitoring
US10903567B2 (en) 2018-06-04 2021-01-26 Infineon Technologies Ag Calibrating a phased array system
US11416077B2 (en) * 2018-07-19 2022-08-16 Infineon Technologies Ag Gesture detection system and method using a radar sensor
CN110850404B (zh) * 2018-08-20 2023-05-16 富士通株式会社 基于微波雷达的动作识别装置及方法、电子设备
US10794997B2 (en) * 2018-08-21 2020-10-06 Google Llc Smartphone-based power-efficient radar processing and memory provisioning for detecting gestures
US10890653B2 (en) 2018-08-22 2021-01-12 Google Llc Radar-based gesture enhancement for voice interfaces
US10770035B2 (en) * 2018-08-22 2020-09-08 Google Llc Smartphone-based radar system for facilitating awareness of user presence and orientation
US10698603B2 (en) 2018-08-24 2020-06-30 Google Llc Smartphone-based radar system facilitating ease and accuracy of user interactions with displayed objects in an augmented-reality interface
US10928501B2 (en) 2018-08-28 2021-02-23 Infineon Technologies Ag Target detection in rainfall and snowfall conditions using mmWave radar
US11183772B2 (en) 2018-09-13 2021-11-23 Infineon Technologies Ag Embedded downlight and radar system
US10732726B2 (en) * 2018-09-21 2020-08-04 International Business Machines Corporation Gesture recognition using 3D MM-wave radar
US11125869B2 (en) 2018-10-16 2021-09-21 Infineon Technologies Ag Estimating angle of human target using mmWave radar
CN109459119B (zh) * 2018-10-17 2020-06-05 京东数字科技控股有限公司 一种体重测量方法、设备和计算机可读存储介质
US10788880B2 (en) 2018-10-22 2020-09-29 Google Llc Smartphone-based radar system for determining user intention in a lower-power mode
US11360185B2 (en) 2018-10-24 2022-06-14 Infineon Technologies Ag Phase coded FMCW radar
US11397239B2 (en) 2018-10-24 2022-07-26 Infineon Technologies Ag Radar sensor FSM low power mode
US11016574B2 (en) 2018-10-31 2021-05-25 Rogers Corporation Millimeter-wave-radar-based electromagnetic apparatus
US10761611B2 (en) 2018-11-13 2020-09-01 Google Llc Radar-image shaper for radar-based applications
EP3654053A1 (de) 2018-11-14 2020-05-20 Infineon Technologies AG Verpackung mit akustischen sensorvorrichtungen und millimeterwellenabtastelementen
CN111184437A (zh) * 2018-11-15 2020-05-22 施特里克斯有限公司 手势控制的液体加热器具及用于其的手势控制的方法
US11583199B2 (en) 2018-12-18 2023-02-21 Movano Inc. Systems for health monitoring using radio waves that include mixing signals at different frequencies
US11486962B2 (en) 2018-12-18 2022-11-01 Movano Inc. Methods for operating stepped frequency radar systems with step size zoom
US10856766B2 (en) 2018-12-18 2020-12-08 Movano Inc. Removable smartphone case for radio wave based health monitoring that generates alignment signals
US11576586B2 (en) 2018-12-18 2023-02-14 Movano Inc. Methods for radio wave based health monitoring that utilize data derived from amplitude and/or phase data
US11087115B2 (en) 2019-01-22 2021-08-10 Infineon Technologies Ag User authentication using mm-Wave sensor for automotive radar systems
US11355838B2 (en) 2019-03-18 2022-06-07 Infineon Technologies Ag Integration of EBG structures (single layer/multi-layer) for isolation enhancement in multilayer embedded packaging technology at mmWave
US11126885B2 (en) 2019-03-21 2021-09-21 Infineon Technologies Ag Character recognition in air-writing based on network of radars
US11454696B2 (en) 2019-04-05 2022-09-27 Infineon Technologies Ag FMCW radar integration with communication system
US11301672B2 (en) 2019-04-16 2022-04-12 The Board Of Trustees Of The University Of Alabama Radar-based methods and apparatus for communication and interpretation of sign languages
US11442550B2 (en) * 2019-05-06 2022-09-13 Samsung Electronics Co., Ltd. Methods for gesture recognition and control
CN113924568A (zh) 2019-06-26 2022-01-11 谷歌有限责任公司 基于雷达的认证状态反馈
KR102228524B1 (ko) * 2019-06-27 2021-03-15 한양대학교 산학협력단 비접촉식 제스쳐 인식 장치 및 방법
CN112181265B (zh) 2019-07-04 2022-04-15 北京小米移动软件有限公司 一种触控信号处理方法、装置及介质
KR102254331B1 (ko) * 2019-07-04 2021-05-20 한양대학교 산학협력단 공중 제스쳐 인식 장치 및 방법
WO2021021224A1 (en) * 2019-07-26 2021-02-04 Google Llc Context-sensitive control of radar-based gesture-recognition
KR20220005081A (ko) 2019-07-26 2022-01-12 구글 엘엘씨 Imu 및 레이더를 기반으로 한 상태 감소
US11868537B2 (en) 2019-07-26 2024-01-09 Google Llc Robust radar-based gesture-recognition by user equipment
US11385722B2 (en) 2019-07-26 2022-07-12 Google Llc Robust radar-based gesture-recognition by user equipment
CN113906367B (zh) 2019-07-26 2024-03-29 谷歌有限责任公司 通过imu和雷达的认证管理
US11080383B2 (en) * 2019-08-09 2021-08-03 BehavioSec Inc Radar-based behaviometric user authentication
CN112395920B (zh) * 2019-08-16 2024-03-19 富士通株式会社 基于雷达的姿态识别装置、方法以及电子设备
KR102479012B1 (ko) * 2019-08-30 2022-12-20 구글 엘엘씨 일시정지된 레이더 제스처에 대한 시각적 표시자
KR102416386B1 (ko) 2019-08-30 2022-07-05 구글 엘엘씨 다중 입력 모드에 대한 입력 모드 통지
KR20210151957A (ko) 2019-08-30 2021-12-14 구글 엘엘씨 모바일 디바이스에 대한 입력 방법
WO2021040749A1 (en) * 2019-08-30 2021-03-04 Google Llc Detecting and processing unsuccessfully recognized or unsuccessfully utilized non-contact gestures for a computing system
US11467672B2 (en) 2019-08-30 2022-10-11 Google Llc Context-sensitive control of radar-based gesture-recognition
US11327167B2 (en) 2019-09-13 2022-05-10 Infineon Technologies Ag Human target tracking system and method
US11774592B2 (en) 2019-09-18 2023-10-03 Infineon Technologies Ag Multimode communication and radar system resource allocation
KR20210034843A (ko) * 2019-09-23 2021-03-31 삼성전자주식회사 차량의 제어 장치 및 방법
CN110781764B (zh) * 2019-09-30 2021-08-03 北京大学 智能微波手语识别方法
CN110908516A (zh) * 2019-10-03 2020-03-24 谷歌有限责任公司 促进用户熟练使用雷达手势来与电子设备交互
KR102107685B1 (ko) 2019-10-11 2020-05-07 주식회사 에이치랩 신호 검출 및 인식을 위한 장치 및 방법
US11435443B2 (en) 2019-10-22 2022-09-06 Infineon Technologies Ag Integration of tracking with classifier in mmwave radar
CN110989384A (zh) * 2019-12-10 2020-04-10 珠海格力电器股份有限公司 厨房电器控制方法、系统、存储介质及装置
CN111258419B (zh) * 2020-01-09 2022-04-12 Oppo广东移动通信有限公司 电子设备控制方法和装置、电子设备、计算机可读存储介质
US11513603B2 (en) 2020-01-30 2022-11-29 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for interpreting gestures
US11808883B2 (en) 2020-01-31 2023-11-07 Infineon Technologies Ag Synchronization of multiple mmWave devices
US11614516B2 (en) 2020-02-19 2023-03-28 Infineon Technologies Ag Radar vital signal tracking using a Kalman filter
JP2021152727A (ja) * 2020-03-24 2021-09-30 ブラザー工業株式会社 プログラムおよび電子デバイス
WO2021068470A1 (zh) * 2020-04-09 2021-04-15 浙江大学 一种基于雷达信号的身份及手势识别方法
US11585891B2 (en) 2020-04-20 2023-02-21 Infineon Technologies Ag Radar-based vital sign estimation
US11567185B2 (en) 2020-05-05 2023-01-31 Infineon Technologies Ag Radar-based target tracking using motion detection
US11774553B2 (en) 2020-06-18 2023-10-03 Infineon Technologies Ag Parametric CNN for radar processing
US11704917B2 (en) 2020-07-09 2023-07-18 Infineon Technologies Ag Multi-sensor analysis of food
US11614511B2 (en) 2020-09-17 2023-03-28 Infineon Technologies Ag Radar interference mitigation
US11719787B2 (en) 2020-10-30 2023-08-08 Infineon Technologies Ag Radar-based target set generation
US11719805B2 (en) 2020-11-18 2023-08-08 Infineon Technologies Ag Radar based tracker using empirical mode decomposition (EMD) and invariant feature transform (IFT)
US11832919B2 (en) 2020-12-18 2023-12-05 Movano Inc. Method for generating training data for use in monitoring the blood pressure of a person that utilizes a pulse wave signal generated from radio frequency scanning
US11883134B2 (en) 2020-12-18 2024-01-30 Movano Inc. System for monitoring a physiological parameter in a person that involves coherently combining data generated from an RF-based sensor system
US11786133B2 (en) 2020-12-18 2023-10-17 Movano Inc. System for monitoring a health parameter of a person utilizing a pulse wave signal
US11864861B2 (en) 2020-12-18 2024-01-09 Movano Inc. Method for monitoring a physiological parameter in a person that involves spectral agility
CN112612365B (zh) * 2020-12-25 2023-02-17 深圳大学 手势识别方法、装置、电子设备和存储介质
US11573643B2 (en) 2021-01-04 2023-02-07 Bank Of America Corporation Apparatus and methods for contact-minimized ATM transaction processing using radar-based gesture recognition and authentication
US11662430B2 (en) 2021-03-17 2023-05-30 Infineon Technologies Ag MmWave radar testing
CN113085870B (zh) * 2021-04-02 2024-02-06 淮南联合大学 一种基于毫米波雷达的手势识别系统
US11950895B2 (en) 2021-05-28 2024-04-09 Infineon Technologies Ag Radar sensor system for blood pressure sensing, and associated method
CN116034287A (zh) * 2021-06-24 2023-04-28 京东方科技集团股份有限公司 交互控制装置和交互系统
WO2024072458A1 (en) * 2022-09-30 2024-04-04 Google Llc User distinction for radar-based gesture detectors

Family Cites Families (336)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3610874A (en) 1969-11-21 1971-10-05 Western Electric Co Laser welding technique
US3953706A (en) 1974-03-29 1976-04-27 Martin Marietta Corporation Laser bent beam controlled dwell wire stripper
GB2070469B (en) 1980-02-29 1983-06-08 Raychem Gmbh Electrical interconnection
GB8411480D0 (en) 1984-05-04 1984-06-13 Raychem Corp Sensor array
DE3432735A1 (de) 1984-09-06 1986-03-06 Philips Patentverwaltung Gmbh, 2000 Hamburg Verfahren und vorrichtung zum ordnen und ausrichten flexibler, isolierter leiter
US4700044A (en) 1986-07-31 1987-10-13 Hutchinson Technology Inc. Laser soldering apparatus and method
US4838797A (en) 1987-06-19 1989-06-13 The United States Of America As Represented By The Secretary Of The Navy Underwater connect and disconnect plug and receptacle
US4986277A (en) 1988-08-24 1991-01-22 Sackner Marvin A Method and apparatus for non-invasive monitoring of central venous pressure
US5298715A (en) 1992-04-27 1994-03-29 International Business Machines Corporation Lasersonic soldering of fine insulated wires to heat-sensitive substrates
US5497546A (en) 1992-09-21 1996-03-12 Matsushita Electric Works, Ltd. Method for mounting lead terminals to circuit board
US5564571A (en) 1993-07-19 1996-10-15 Cembre S.P.A. Strip for electrical connectors
US5454043A (en) * 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5341979A (en) 1993-09-03 1994-08-30 Motorola, Inc. Method of bonding a semiconductor substrate to a support substrate and structure therefore
US6835898B2 (en) 1993-11-16 2004-12-28 Formfactor, Inc. Electrical contact structures formed by configuring a flexible wire to have a springable shape and overcoating the wire with at least one layer of a resilient conductive material, methods of mounting the contact structures to electronic components, and applications for employing the contact structures
US5468917A (en) 1994-03-23 1995-11-21 International Business Machines Corporation Circuitized structure including flexible circuit with elastomeric member bonded thereto
US5517251A (en) 1994-04-28 1996-05-14 The Regents Of The University Of California Acquisition of video images simultaneously with analog signals
US5724707A (en) 1996-06-17 1998-03-10 The United States Of America As Represented By The Secretary Of The Army Interlock attaching strap system
CH690686A5 (de) 1996-07-01 2000-12-15 Spoerry & Co Ag Verfahren zur Herstellung eines elektrisch leitenden Garnes, elektrisch leitendes Garn und Verwendung des elektrisch leitenden Garnes.
US5959529A (en) 1997-03-07 1999-09-28 Kail, Iv; Karl A. Reprogrammable remote sensor monitoring system
CN100394885C (zh) 1997-07-16 2008-06-18 泰尔茂株式会社 耳塞式医用体温计
US6210771B1 (en) 1997-09-24 2001-04-03 Massachusetts Institute Of Technology Electrically active textiles and articles made therefrom
WO1999028811A1 (en) 1997-12-04 1999-06-10 Northern Telecom Limited Contextual gesture interface
JP3176580B2 (ja) 1998-04-09 2001-06-18 太陽誘電株式会社 電子部品の実装方法及び実装装置
US6080690A (en) 1998-04-29 2000-06-27 Motorola, Inc. Textile fabric with integrated sensing device and clothing fabricated thereof
US6369804B1 (en) 1998-09-26 2002-04-09 Eleksen Limited Detector constructed from fabric having non-uniform conductivity
DE69934508T2 (de) 1998-10-20 2007-09-27 Omron Healthcare Co., Ltd. Infrarotthermometer
US6854985B1 (en) 1998-12-16 2005-02-15 Paricon Technologies Corporation Elastomeric interconnection device and methods for making same
US6791580B1 (en) 1998-12-18 2004-09-14 Tangis Corporation Supplying notifications related to supply and consumption of user context data
US6313825B1 (en) * 1998-12-28 2001-11-06 Gateway, Inc. Virtual input device
JP2000333910A (ja) 1999-05-25 2000-12-05 Nippon Colin Co Ltd 心機能監視装置
EP1281153A2 (de) 1999-10-12 2003-02-05 THE GOVERNMENT OF THE UNITED STATES OF AMERICA, as represented by THE SECRETARY, DEPARTMENT OF HEALTH AND HUMAN SERVICES Bildsynchronisiertes mehrkanals biomedizinisches datenerfassungssystem
JP2003512734A (ja) 1999-10-18 2003-04-02 マサチューセッツ・インスティテュート・オブ・テクノロジー 可撓性電子回路及びその製造方法
US6802720B2 (en) 1999-12-16 2004-10-12 Paricon Technologies Corporation Pin-array, separable, compliant electrical contact member
US7223105B2 (en) 1999-12-16 2007-05-29 Paricon Technologies Corporation Cable connector incorporating anisotropically conductive elastomer
US6440593B2 (en) 2000-02-16 2002-08-27 The University Of Massachusetts Molded article
US7194371B1 (en) 2000-03-27 2007-03-20 Cardiobeat.Com Medical testing system and method
AU770743B2 (en) 2000-04-03 2004-03-04 Intelligent Textiles Limited Conductive pressure sensitive textile
US6616613B1 (en) 2000-04-27 2003-09-09 Vitalsines International, Inc. Physiological signal monitoring system
WO2002008941A1 (en) 2000-07-20 2002-01-31 Marchosky J Alexander Patient-controlled automated medical record, diagnosis, and treatment system and method
JP2002262438A (ja) 2001-03-05 2002-09-13 Yazaki Corp 補機モジュール用中継部品および補機モジュール
JP2002298940A (ja) 2001-03-30 2002-10-11 Jst Mfg Co Ltd 樹脂ハンダを用いた電気接触子、電気コネクタ及びこれらのプリント配線板への接続方法
WO2002082999A1 (en) 2001-04-10 2002-10-24 Battelle Memorial Institute Image analysis system and method for discriminating movements of an individual
JP2004537777A (ja) * 2001-05-14 2004-12-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ リアルタイムのコンテンツのストリームと対話するための装置
US20020170897A1 (en) 2001-05-21 2002-11-21 Hall Frank L. Methods for preparing ball grid array substrates via use of a laser
WO2003034300A2 (en) 2001-09-04 2003-04-24 Ramon Van Der Riet Marketing communication and transaction/distribution services platform for building and managing personalized customer relationships
EP1461179B1 (de) 2001-11-24 2016-01-20 Delphi Technologies, Inc. Verbesserungen bei kabelbäumen
WO2003052541A2 (de) 2001-12-14 2003-06-26 Infineon Technologies Ag Keypad in textilien mit kapazativer ausleseschaltung
DE10161527A1 (de) 2001-12-14 2003-07-03 Infineon Technologies Ag Aufbau- und Verbindungstechnik in textilen Strukturen
US7845022B1 (en) 2002-02-14 2010-12-07 Nike, Inc. Deposition of electronic circuits on fibers and other materials
US7249954B2 (en) 2002-02-26 2007-07-31 Paricon Technologies Corporation Separable electrical interconnect with anisotropic conductive elastomer for translating footprint
US7592276B2 (en) 2002-05-10 2009-09-22 Sarnoff Corporation Woven electronic textile, yarn and article
AU2003279888A1 (en) 2002-06-28 2004-01-19 North Carolina State University Fabric and yarn structures for improving signal integrity in fabric based electrical circuits
US8190239B2 (en) 2002-09-03 2012-05-29 Fujitsu Limited Individual identification device
US20090177068A1 (en) 2002-10-09 2009-07-09 Stivoric John M Method and apparatus for providing derived glucose information utilizing physiological and/or contextual parameters
US7602413B2 (en) 2002-10-18 2009-10-13 Sony Corporation Information processing system and method, information processing apparatus, image-capturing device and method, recording medium, and program
US20080065291A1 (en) 2002-11-04 2008-03-13 Automotive Technologies International, Inc. Gesture-Based Control of Vehicular Components
EP1576456A1 (de) 2002-11-07 2005-09-21 Personics A/S Steuerung mit adaptivem bewegungsdetektor
US6929484B2 (en) 2003-01-09 2005-08-16 Roger E. Weiss Apparatus for applying a mechanically-releasable balanced compressive load to an assembly such as a compliant anisotropic conductive elastomer electrical connector
DE10307505B4 (de) 2003-02-21 2005-03-03 Infineon Technologies Ag Textilgewebestruktur, Flächenverkleidungsstruktur und Verfahren zum Bestimmen eines Abstands von Mikroelektronikelementen der Textilgewebestruktur zu mindestens einer Referenzposition
US20040249250A1 (en) 2003-06-04 2004-12-09 Mcgee Michael D. System and apparatus for monitoring and prompting medical self-care events and communicating medical self-care status
JP2005019393A (ja) 2003-06-05 2005-01-20 Sharp Corp 異方性導電物、表示装置、表示装置の製造方法および導電部材
JP2005051129A (ja) 2003-07-30 2005-02-24 Sony Corp 電子機器
CN100435723C (zh) 2003-08-20 2008-11-26 纽卡迪奥公司 用于三种特定导联心电图的无线记录、电信传送及处理的设备
WO2005022556A2 (en) 2003-09-02 2005-03-10 Integral Technologies, Inc. Very low resistance electrical interfaces to conductive loaded resin-based materials
DE10344285A1 (de) 2003-09-24 2005-05-12 Infineon Technologies Ag Prozessor-Anordnung, Textilgewebestruktur, Flächenverkleidungsstruktur und Verfahren zum Weiterleiten von elektrischer Energieversorgung zwischen einer Vielzahl einander örtlich benachbart angeordneter Prozessorelemente
WO2005033387A2 (en) 2003-09-30 2005-04-14 Milliken & Company Wrapped conductive yarn
US7299964B2 (en) 2004-01-15 2007-11-27 Georgia Tech Research Corp. Method and apparatus to create electrical junctions for information routing in textile structures
DE102004004604B4 (de) 2004-01-29 2016-12-29 Siemens Healthcare Gmbh Verfahren und Bildgebungssystem zur Kompensation von Patientenbewegungen bei Serienaufnahmen in der medizinischen Bildgebung
GB0404419D0 (en) 2004-02-27 2004-03-31 Intelligent Textiles Ltd Electrical components and circuits constructed as textiles
US20050248566A1 (en) * 2004-04-05 2005-11-10 Vesely Michael A Horizontal perspective hands-on simulator
GB0408607D0 (en) 2004-04-17 2004-05-19 Koninkl Philips Electronics Nv Electrical connector
WO2006006159A1 (en) 2004-07-09 2006-01-19 Aerotel Medical Systems (1998) Ltd. A wearable device, system and method for monitoring physiological and/or environmental parameters
US8560972B2 (en) 2004-08-10 2013-10-15 Microsoft Corporation Surface UI for gesture-based interaction
US7942744B2 (en) 2004-08-19 2011-05-17 Igt Virtual input system
US8646675B2 (en) 2004-11-02 2014-02-11 Hid Global Gmbh Laying apparatus, contact-making apparatus, movement system, laying and contact-making unit, production system, method for production and a transponder unit
JP2006196802A (ja) 2005-01-17 2006-07-27 Sony Corp 半導体装置および半導体装置の製造方法
DE102005003370A1 (de) 2005-01-24 2006-07-27 Juma Pcb Gmbh Verfahren zur durchgehenden Verlegung eines Leitungsdrahtes auf einer Leiterplatte und Vorrichtung zur Durchführung des Verfahrens
CN101238244B (zh) 2005-01-24 2011-03-30 株式会社昭和 采用阳极电解氧化处理的结晶性氧化钛被膜的制造方法
JP2006234716A (ja) 2005-02-28 2006-09-07 Aichi Prefecture シート状センサ装置
US7544627B2 (en) 2005-05-12 2009-06-09 The Hong Kong Polytechnic University Pressure sensing fabric
EP1727408A1 (de) 2005-05-13 2006-11-29 Eidgenössische Technische Hochschule Zürich Textil mit einem Leiterbahnsystem und Verfahren zu dessen Herstellung
WO2006128633A1 (en) 2005-06-02 2006-12-07 Nv Bekaert Sa Electrically conductive elastic composite yarn
US7462035B2 (en) 2005-07-27 2008-12-09 Physical Optics Corporation Electrical connector configured as a fastening element
US7791700B2 (en) 2005-09-16 2010-09-07 Kent Displays Incorporated Liquid crystal display on a printed circuit board
US20070118043A1 (en) 2005-11-23 2007-05-24 Microsoft Corporation Algorithms for computing heart rate and movement speed of a user from sensor data
JP4682028B2 (ja) 2005-11-28 2011-05-11 Hoya株式会社 導電層の製造方法、導電層、及び、信号伝送基板
US7834276B2 (en) 2005-12-16 2010-11-16 Unitech Printed Circuit Board Corp. Structure for connecting a USB communication interface in a flash memory card by the height difference of a rigid flexible board
US7317416B2 (en) * 2005-12-22 2008-01-08 Leonard Flom Skeletal topography imaging radar for unique individual identification
US20070161921A1 (en) 2006-01-07 2007-07-12 Rausch Jeffrey L Bio-accurate temperature measurement device and method of quantitatively normalizing a body temperature measurement to determine a physiologically significant temperature event
FI119456B (fi) 2006-01-31 2008-11-14 Polar Electro Oy Liitinmekanismi
US7395717B2 (en) 2006-02-10 2008-07-08 Milliken & Company Flexible capacitive sensor
KR100729676B1 (ko) 2006-02-17 2007-06-18 한국생산기술연구원 금속 필라멘트를 이용한 정보통신용 디지털사의 제조방법,제조장치 및 이에 의하여 제조된 디지털사
EP1835786B1 (de) 2006-02-24 2009-07-01 Sefar AG Flächenheizelement und Verfahren zur Herstellung eines Flächenheizelementes
DE102006018445B4 (de) 2006-04-18 2008-04-24 Imedos Gmbh Vorrichtung und Verfahren zur Bestimmung arterio-venöser Verhältniswerte durch quantitative Analyse retinaler Gefäße
GB2437997B (en) 2006-04-27 2011-07-27 Eleksen Ltd Manually operable position sensor
US7558622B2 (en) 2006-05-24 2009-07-07 Bao Tran Mesh network stroke monitoring appliance
US9814425B2 (en) 2006-05-12 2017-11-14 Koninklijke Philips N.V. Health monitoring appliance
US7691067B2 (en) 2006-06-14 2010-04-06 Advanced Brain Monitoring, Inc. Method for measuring central venous pressure or respiratory effort
GB2440568A (en) 2006-07-28 2008-02-06 Eleksen Ltd Interface apparatus connecting fabric sensor and electronic device
US8169404B1 (en) 2006-08-15 2012-05-01 Navisense Method and device for planary sensory detection
GB2443208A (en) 2006-10-27 2008-04-30 Studio 1 Ventures Ltd Textile pressure sensor
WO2008061385A2 (de) 2006-11-20 2008-05-29 Gerhard Staufert Leitertextil
NZ551819A (en) 2006-12-04 2009-03-31 Zephyr Technology Ltd Impact detection system
US20080134102A1 (en) 2006-12-05 2008-06-05 Sony Ericsson Mobile Communications Ab Method and system for detecting movement of an object
JPWO2008069275A1 (ja) 2006-12-07 2010-03-25 日本電気株式会社 配線板およびその製造方法
US20080136775A1 (en) 2006-12-08 2008-06-12 Conant Carson V Virtual input device for computing
US10437459B2 (en) 2007-01-07 2019-10-08 Apple Inc. Multitouch data fusion
US8607167B2 (en) 2007-01-07 2013-12-10 Apple Inc. Portable multifunction device, method, and graphical user interface for providing maps and directions
US20090017910A1 (en) 2007-06-22 2009-01-15 Broadcom Corporation Position and motion tracking of an object
US7846104B2 (en) 2007-02-08 2010-12-07 Heart Force Medical Inc. Monitoring physiological condition and detecting abnormalities
US8918153B2 (en) 2007-02-16 2014-12-23 Mespere Lifesciences Inc. Method and device for measuring parameters of cardiac function
US8639309B2 (en) 2007-07-31 2014-01-28 J&M Shuler, Inc. Method and system for monitoring oxygenation levels of compartments and tissue
JP5255623B2 (ja) 2007-04-20 2013-08-07 ソフトキネティック エス.エイ. ボリューム認識方法およびシステム
EP2144556A4 (de) 2007-05-10 2012-02-22 Burdea Grigore Systeme und verfahren für periodische beurteilung und telerehabilitation
KR100888864B1 (ko) * 2007-05-21 2009-03-17 한국과학기술원 바이오 레이더와 기울기 센서를 이용한 문자 입력 장치
WO2008147901A2 (en) 2007-05-22 2008-12-04 Qsi Corporation System and method for reducing vibrational effects on a force-based touch panel
US20080294012A1 (en) 2007-05-22 2008-11-27 Kurtz Andrew F Monitoring physiological conditions
US8554297B2 (en) 2009-06-17 2013-10-08 Sotera Wireless, Inc. Body-worn pulse oximeter
US8302033B2 (en) 2007-06-22 2012-10-30 Apple Inc. Touch screen device, method, and graphical user interface for providing maps, directions, and location-based information
JP5060186B2 (ja) 2007-07-05 2012-10-31 株式会社東芝 脈波処理装置及び方法
CA2591808A1 (en) * 2007-07-11 2009-01-11 Hsien-Hsiang Chiu Intelligent object tracking and gestures sensing input device
US8505474B2 (en) 2007-07-31 2013-08-13 Snu R&Db Foundation Electrically conductive metal composite embroidery yarn and embroidered circuit using thereof
WO2009032073A1 (en) 2007-08-28 2009-03-12 Woolsthorpe, Llc Non-invasive method and system for determining physiological characteristics
US20090058820A1 (en) 2007-09-04 2009-03-05 Microsoft Corporation Flick-based in situ search from ink, text, or an empty selection region
EP2194864B1 (de) 2007-09-14 2018-08-29 Medtronic Monitoring, Inc. System und verfahren für die drahtlose überwachung von körperflüssigkeiten
US8655004B2 (en) 2007-10-16 2014-02-18 Apple Inc. Sports monitoring system for headphones, earbuds and/or headsets
JP4858400B2 (ja) 2007-10-17 2012-01-18 ソニー株式会社 情報提供システム、情報提供装置、情報提供方法
US9513699B2 (en) 2007-10-24 2016-12-06 Invention Science Fund I, LL Method of selecting a second content based on a user's reaction to a first content
US20120029369A1 (en) 2007-10-31 2012-02-02 Icove David J Passive Microwave Assessment of Human Body Core to Surface Temperature Gradients and Basal Metabolic Rate
JP5385555B2 (ja) 2007-11-14 2014-01-08 日立コンシューマエレクトロニクス株式会社 生体検査システム、生体検査装置および生体検査方法
WO2009108228A1 (en) 2008-02-25 2009-09-03 Kingsdown, Inc. Systems and methods for controlling a bedroom environment and for providing sleep data
KR100982533B1 (ko) 2008-02-26 2010-09-16 한국생산기술연구원 디지털 밴드를 이용한 디지털 가먼트 및 그 제조 방법
US8341762B2 (en) 2008-03-21 2013-01-01 Alfiero Balzano Safety vest assembly including a high reliability communication system
US20090270690A1 (en) 2008-04-29 2009-10-29 University Of Miami System and method for using interactive voice-recognition to automate a patient-centered best practice approach to disease evaluation and management
AU2009252769B2 (en) 2008-05-29 2014-03-20 Kimberly-Clark Worldwide, Inc. Conductive webs containing electrical pathways and method for making same
US20090295712A1 (en) 2008-05-29 2009-12-03 Sony Ericsson Mobile Communications Ab Portable projector and method of operating a portable projector
CN102057763B (zh) 2008-06-10 2016-01-20 皇家飞利浦电子股份有限公司 电子纺织品、制造其的方法以及用于其的纱线
JP5567574B2 (ja) 2008-09-19 2014-08-06 コーニンクレッカ フィリップス エヌ ヴェ 電子織物及び電子織物の機能領域を決定する方法
US9758907B2 (en) 2008-09-22 2017-09-12 Intel Corporation Method and apparatus for attaching chip to a textile
US20100094141A1 (en) 2008-10-14 2010-04-15 Amal Lesly Puswella Jugular venous pressure ruler
US7952512B1 (en) 2008-10-14 2011-05-31 Sprint Communications Company L.P. Mobile device enabled radar tags
DE102008060862B4 (de) 2008-12-09 2010-10-28 Werthschützky, Roland, Prof. Dr.-Ing.habil. Verfahren zur miniaturisierbaren Kontaktierung isolierter Drähte
US20120123232A1 (en) 2008-12-16 2012-05-17 Kayvan Najarian Method and apparatus for determining heart rate variability using wavelet transformation
US8688467B2 (en) 2009-01-09 2014-04-01 Cerner Innovation, Inc. Automated analysis of data collected by in-vivo devices
WO2010120395A2 (en) 2009-01-15 2010-10-21 Duke University Broadband metamaterial apparatus, methods, systems, and computer readable media
US20130035563A1 (en) 2010-01-26 2013-02-07 Angelides Kimon J Progressively Personalized Wireless-Based Interactive Diabetes Treatment
EP2216866A3 (de) 2009-02-06 2011-07-13 HID Global GmbH Verfahren zum Abziehen eines isolierten Drahtabschnitts
WO2010101697A2 (en) * 2009-02-06 2010-09-10 Oculis Labs, Inc. Video-based privacy supporting system
US9164168B2 (en) 2009-03-20 2015-10-20 Wright State University Systems for detecting movement of a target
TWM365363U (en) 2009-04-08 2009-09-21 Fu-Biau Hsu Illuminating textile article
US9498718B2 (en) * 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US8289185B2 (en) 2009-05-05 2012-10-16 Advanced Technologies Group, LLC Sports telemetry system for collecting performance metrics and data
KR101127991B1 (ko) 2009-05-20 2012-03-29 주식회사 아모그린텍 은합연사와 이를 이용한 기능성 원단 및 그 제조방법
US8856691B2 (en) * 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
RU2011154465A (ru) 2009-06-03 2013-07-20 ДжиЛТ ТЕХНОВЭЙШНЗ, ЛЛСи Материал для использования с емкостным сенсорным экраном
US8759713B2 (en) 2009-06-14 2014-06-24 Terepac Corporation Methods for interconnecting bonding pads between components
US8020290B2 (en) 2009-06-14 2011-09-20 Jayna Sheats Processes for IC fabrication
US8821350B2 (en) 2009-07-02 2014-09-02 Richard J. Maertz Exercise and communications system and associated methods
US20110073353A1 (en) 2009-09-29 2011-03-31 Tex-Ray Industrial Co., Ltd. Conductive fabric and method for forming the same
JP5668966B2 (ja) 2009-10-15 2015-02-12 株式会社槌屋 導電性織物及び導電性織物を使用したタッチセンサ装置
US9400548B2 (en) * 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
US8367942B2 (en) 2009-10-27 2013-02-05 Hon Hai Precision Ind. Co., Ltd. Low profile electrical interposer of woven structure and method of making same
US9832019B2 (en) 2009-11-17 2017-11-28 Unho Choi Authentication in ubiquitous environment
CN102713794A (zh) 2009-11-24 2012-10-03 奈克斯特控股公司 用于手势识别模式控制的方法和装置
US20110213218A1 (en) 2009-12-17 2011-09-01 Weiner Bert A Patient healthcare monitoring/maintenance system
US9069067B2 (en) 2010-09-17 2015-06-30 The Invention Science Fund I, Llc Control of an electronic apparatus using micro-impulse radar
KR101325817B1 (ko) 2010-01-14 2013-11-05 실버레이 주식회사 도전성 직조물, 그 제조방법 및 제조장치
US9335825B2 (en) 2010-01-26 2016-05-10 Nokia Technologies Oy Gesture control
US20110181510A1 (en) 2010-01-26 2011-07-28 Nokia Corporation Gesture Control
FR2955972B1 (fr) 2010-02-03 2012-03-09 Commissariat Energie Atomique Procede d'assemblage d'au moins une puce avec un tissu incluant un dispositif a puce
US8522308B2 (en) 2010-02-11 2013-08-27 Verizon Patent And Licensing Inc. Systems and methods for providing a spatial-input-based multi-user shared display experience
US9104312B2 (en) 2010-03-12 2015-08-11 Nuance Communications, Inc. Multimodal text input system, such as for use with touch screens on mobile phones
US20140297006A1 (en) 2010-03-12 2014-10-02 Rajendra Padma Sadhu System and method for providing physiological feedback and rewards for engaging user and retention of customer
US9477324B2 (en) 2010-03-29 2016-10-25 Hewlett-Packard Development Company, L.P. Gesture processing
US20110245688A1 (en) 2010-03-31 2011-10-06 General Electric Company System and method of performing electrocardiography with motion detection
US8102306B2 (en) 2010-05-13 2012-01-24 The United States Of America As Represented By The Secretary Of The Navy Active-radar-assisted passive composite imagery for aiding navigation or detecting threats
US9642536B2 (en) 2010-06-07 2017-05-09 Affectiva, Inc. Mental state analysis using heart rate collection based on video imagery
US8301232B2 (en) 2010-06-08 2012-10-30 Alivecor, Inc. Wireless, ultrasonic personal health monitoring system
US20110307842A1 (en) 2010-06-14 2011-12-15 I-Jen Chiang Electronic reading device
US20110318985A1 (en) 2010-06-23 2011-12-29 Mcdermid William James Touch Sensor Fabric
US20110317871A1 (en) * 2010-06-29 2011-12-29 Microsoft Corporation Skeletal joint recognition and tracking system
JP2012028015A (ja) * 2010-07-20 2012-02-09 Toshiba Corp 照明制御システムおよび照明制御方法
US9075434B2 (en) * 2010-08-20 2015-07-07 Microsoft Technology Licensing, Llc Translating user motion into multiple object responses
WO2012026974A2 (en) 2010-08-23 2012-03-01 Foster-Miller, Inc. Pals compliant routing system
WO2012026013A1 (ja) 2010-08-26 2012-03-01 京セミ株式会社 半導体素子付き織網基材の製造方法、その製造装置及び半導体素子付き織網基材
WO2012030299A1 (en) 2010-09-03 2012-03-08 Jsb Tech Private Limited A rigid-flex circuit board and manufacturing method
US9148949B2 (en) 2010-09-21 2015-09-29 Koninklijke Philips N.V. Electronic textile and method of manufacturing an electronic textile
US9569003B2 (en) * 2010-09-30 2017-02-14 Broadcom Corporation Portable computing device including a three-dimensional touch screen
WO2012064847A1 (en) * 2010-11-09 2012-05-18 Smule, Inc. System and method for capture and rendering of performance on synthetic string instrument
KR20130143697A (ko) 2010-11-20 2013-12-31 뉘앙스 커뮤니케이션즈, 인코포레이티드 상황 키보드를 이용한 컴퓨팅 장치 상에서의 액션 수행
JP5510302B2 (ja) 2010-12-15 2014-06-04 トヨタ紡織株式会社 接続部材、その製造方法及び接続構造体
US8475367B1 (en) 2011-01-09 2013-07-02 Fitbit, Inc. Biometric monitoring device having a body weight sensor, and methods of operating same
DE102011009577A1 (de) 2011-01-27 2012-08-02 Texas Instruments Deutschland Gmbh RFID-Transponder und Verfahren zum Verbinden eines Halbleiter-Dies mit einer Antenne
US20120220835A1 (en) 2011-02-14 2012-08-30 Wayne Chung Wireless physiological sensor system and method
US9318884B2 (en) 2011-03-30 2016-04-19 Illinois Tool Works Inc. Induction heating wire insulation heating and removal
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US8681122B2 (en) 2011-04-19 2014-03-25 Cypress Semiconductor Corporation Capacitive sensing with programmable logic for touch sense arrays
US20120280900A1 (en) 2011-05-06 2012-11-08 Nokia Corporation Gesture recognition using plural sensors
DE102011075725A1 (de) 2011-05-12 2012-11-15 Robert Bosch Gmbh Verfahren zum Erkennen von Gesten
US20140139616A1 (en) 2012-01-27 2014-05-22 Intouch Technologies, Inc. Enhanced Diagnostics for a Telepresence Robot
US20120310665A1 (en) 2011-06-01 2012-12-06 Xerox Corporation Personalized medical record
US8851372B2 (en) 2011-07-18 2014-10-07 Tiger T G Zhou Wearable personal digital device with changeable bendable battery and expandable display used as standalone electronic payment card
US9069164B2 (en) 2011-07-12 2015-06-30 Google Inc. Methods and systems for a virtual input device
US8179604B1 (en) 2011-07-13 2012-05-15 Google Inc. Wearable marker for passive interaction
US8740793B2 (en) 2011-08-29 2014-06-03 General Electric Company Radar based systems and methods for monitoring a subject
EP2760363A4 (de) 2011-09-29 2015-06-24 Magic Leap Inc Taktiler handschuh zur mensch-computer-interaktion
US9268406B2 (en) * 2011-09-30 2016-02-23 Microsoft Technology Licensing, Llc Virtual spectator experience with a personal audio/visual apparatus
WO2013050621A2 (en) 2011-10-06 2013-04-11 Iee International Electronics & Engineering S.A. Electrically conductive textiles for occupant sensing and/or heating applications
US20130104084A1 (en) 2011-10-21 2013-04-25 Digital Artforms, Inc. Systems and methods for human-computer interaction using a two handed interface
US8869115B2 (en) 2011-11-23 2014-10-21 General Electric Company Systems and methods for emotive software usability
CN104067201B (zh) * 2011-11-23 2018-02-16 英特尔公司 带有多个视图、显示器以及物理学的姿势输入
WO2013084108A1 (en) 2011-12-07 2013-06-13 Koninklijke Philips Electronics N.V. Electronic textile with means for facilitating waste sorting
CN104094194A (zh) 2011-12-09 2014-10-08 诺基亚公司 用于基于多个传感器信号的融合识别手势的方法和设备
US9684379B2 (en) 2011-12-23 2017-06-20 Intel Corporation Computing system utilizing coordinated two-hand command gestures
US9141194B1 (en) 2012-01-04 2015-09-22 Google Inc. Magnetometer-based gesture sensing with a wearable device
US8682395B2 (en) 2012-01-27 2014-03-25 Blackberry Limited Communications device and method having non-touch based input screen
KR101849373B1 (ko) * 2012-01-31 2018-04-17 한국전자통신연구원 인체의 관절구조를 추정하기 위한 장치 및 방법
US20130194173A1 (en) 2012-02-01 2013-08-01 Ingeonix Corporation Touch free control of electronic systems and associated methods
US20130207962A1 (en) 2012-02-10 2013-08-15 Float Hybrid Entertainment Inc. User interactive kiosk with three-dimensional display
US9125456B2 (en) 2012-03-26 2015-09-08 Chong Sun CHOW Object-containing button
TWI604097B (zh) 2012-03-30 2017-11-01 英威達技術有限公司 具有控制紗線系統之拉伸梭織物及其製備方法
US9448636B2 (en) * 2012-04-18 2016-09-20 Arb Labs Inc. Identifying gestures using gesture data compressed by PCA, principal joint variable analysis, and compressed feature matrices
US20130283203A1 (en) 2012-04-24 2013-10-24 Yahoo! Inc. Method and system for displaying search results
US20140121540A1 (en) 2012-05-09 2014-05-01 Aliphcom System and method for monitoring the health of a user
US8897522B2 (en) 2012-05-30 2014-11-25 Xerox Corporation Processing a video for vascular pattern detection and cardiac function analysis
RU2635479C2 (ru) 2012-06-12 2017-11-13 Конинклейке Филипс Н.В. Система для измерения показателей жизнедеятельности с использованием камеры
US9183310B2 (en) 2012-06-12 2015-11-10 Microsoft Technology Licensing, Llc Disambiguating intents within search engine result pages
US20130338460A1 (en) 2012-06-18 2013-12-19 David Da He Wearable Device for Continuous Cardiac Monitoring
BR112014031856A2 (pt) 2012-06-19 2017-06-27 Nat Univ Singapore sistema de método para avaliação de situação e encontro remoto com o uso de dados paralelos e trajetos de comunicação por voz
US9005129B2 (en) 2012-06-22 2015-04-14 Fitbit, Inc. Wearable heart rate monitor
US9042971B2 (en) 2012-06-22 2015-05-26 Fitbit, Inc. Biometric monitoring device with heart rate measurement activated by a single user-gesture
US8768438B2 (en) 2012-06-25 2014-07-01 Xerox Corporation Determining cardiac arrhythmia from a video of a subject being monitored for cardiac function
US9183163B2 (en) * 2012-06-27 2015-11-10 Ubiquiti Networks, Inc. Method and apparatus for distributed control of an interfacing-device network
FR2992784B1 (fr) 2012-06-29 2015-08-07 Laselec Dispositif de denudage de cables electriques utilisant des diodes laser violettes ou bleues
WO2014019085A1 (en) 2012-08-01 2014-02-06 Whirlscape, Inc. One-dimensional input system and method
US20140051941A1 (en) 2012-08-17 2014-02-20 Rare Light, Inc. Obtaining physiological measurements using a portable device
US20140049487A1 (en) 2012-08-17 2014-02-20 Qualcomm Incorporated Interactive user interface for clothing displays
US9230160B1 (en) 2012-08-27 2016-01-05 Amazon Technologies, Inc. Method, medium, and system for online ordering using sign language
WO2014036436A1 (en) 2012-08-30 2014-03-06 Alivecor, Inc. Cardiac performance monitoring system for use with mobile communications devices
CA2883852A1 (en) 2012-09-04 2014-03-13 Whoop, Inc. Systems, devices and methods for continuous heart rate monitoring and interpretation
US9811901B2 (en) 2012-09-07 2017-11-07 Massachusetts Institute Of Technology Linear-based Eulerian motion modulation
US8945328B2 (en) 2012-09-11 2015-02-03 L.I.F.E. Corporation S.A. Methods of making garments having stretchable and conductive ink
EP2895050B8 (de) 2012-09-11 2018-12-19 L.I.F.E. Corporation S.A. Tragbare kommunikationsplattform
US20140073969A1 (en) 2012-09-12 2014-03-13 Neurosky, Inc. Mobile cardiac health monitoring
US9877650B2 (en) 2012-09-20 2018-01-30 Masimo Corporation Physiological monitor with mobile computing device connectivity
US9002174B2 (en) 2012-10-01 2015-04-07 Microsoft Technology Licensing, Llc Semantic zoom for related content
JP6025854B2 (ja) 2012-10-12 2016-11-16 帝人株式会社 圧電素子
CN202887794U (zh) 2012-10-12 2013-04-17 上海斯麟特种设备工程有限公司 一种涂胶棉纱编织电缆
US9632574B2 (en) * 2012-10-31 2017-04-25 Sony Corporation Device and method for authenticating a user
US9892505B2 (en) 2012-11-11 2018-02-13 Kenkou Gmbh Method and device for determining vital parameters
US9477313B2 (en) 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
FI124657B (en) 2012-12-31 2014-11-28 Suunto Oy Male connector for telemetric receiver
EP2951811A4 (de) 2013-01-03 2016-08-17 Meta Co Digitale brillenvorrichtungen für extramissive räumliche bildgebung, verfahren und systeme zur virtuellen oder vergrösserten sicht, manipulation, erzeugung oder interaktion mit objekten, materialien, oder anderen einheiten
US20140191939A1 (en) 2013-01-09 2014-07-10 Microsoft Corporation Using nonverbal communication in determining actions
EP2948880A1 (de) 2013-01-25 2015-12-02 Vanderbilt University Mobiles intelligentes gesundheitsüberwachungssystem und zugehörige verfahren
DE102013201359A1 (de) 2013-01-29 2014-07-31 Robert Bosch Gmbh Verfahren und Vorrichtung zum Steuern eines Werkstattgeräts
US9146668B2 (en) 2013-01-31 2015-09-29 Hewlett-Packard Development Company, L.P. Graphical element placement on a display surface
WO2014124520A1 (en) 2013-02-13 2014-08-21 Mespere Lifesciences Inc. Method and device for measuring venous blood oxygenation
IN2013CH00818A (de) 2013-02-25 2015-08-14 Cognizant Technology Solutions India Pvt Ltd
US9203835B2 (en) 2013-03-01 2015-12-01 Paypal, Inc. Systems and methods for authenticating a user based on a biometric model associated with the user
WO2014138280A1 (en) 2013-03-05 2014-09-12 Vtm, Llc Medical telecommunications system
WO2014136027A1 (en) 2013-03-06 2014-09-12 Koninklijke Philips N.V. System and method for determining vital sign information
US9519351B2 (en) 2013-03-08 2016-12-13 Google Inc. Providing a gesture-based interface
US9913415B2 (en) 2013-03-13 2018-03-06 Federal-Mogul Powertrain Llc EMI shielding textile fabric, wrappable sleeve constructed therefrom and method of construction thereof
US20140280295A1 (en) 2013-03-14 2014-09-18 Microsoft Corporation Multi-language information retrieval and advertising
US20140281975A1 (en) 2013-03-15 2014-09-18 Glen J. Anderson System for adaptive selection and presentation of context-based media in communications
WO2014144269A1 (en) 2013-03-15 2014-09-18 Mary Hogue Barrett Managing and accounting for privacy settings through tiered cookie set access
WO2014144261A2 (en) 2013-03-15 2014-09-18 Medusa Scientific Llc Electric field sensing and e field visualization
US20140364711A1 (en) 2013-03-27 2014-12-11 AkibaH Health Corporation All-in-one analyte sensor in a detachable external mobile device case
US9971414B2 (en) 2013-04-01 2018-05-15 University Of Washington Through Its Center For Commercialization Devices, systems, and methods for detecting gestures using wireless communication signals
GB201306475D0 (en) * 2013-04-10 2013-05-22 Elliptic Laboratories As Touchless interaction devices
EP2986997A4 (de) 2013-04-18 2017-02-08 California Institute of Technology Lebenserkennungsradare
KR101373633B1 (ko) 2013-04-23 2014-03-13 상명대학교서울산학협력단 항복강력이 증가된 도전성금속복합사의 제조방법과, 이 제조방법에 의해 제조된 도전성금속복합사와, 이 도전성금속복합사를 이용하여 제조되는 자수회로제품
US20160103500A1 (en) 2013-05-21 2016-04-14 Stanley Innovation, Inc. System and method for a human machine interface utilizing near-field quasi-state electrical field sensing technology
KR101999958B1 (ko) 2013-05-22 2019-07-15 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US20140357369A1 (en) * 2013-06-04 2014-12-04 Microsoft Corporation Group inputs via image sensor system
US9055879B2 (en) 2013-06-14 2015-06-16 Suunto Oy Device and method for assembling an electronic device and a flexible element for facilitating assembly of electronic components
WO2014204323A1 (en) 2013-06-17 2014-12-24 Stretchsense Limited Stretchable fabric sensors
US9423879B2 (en) 2013-06-28 2016-08-23 Chia Ming Chen Systems and methods for controlling device operation according to hand gestures
KR20150006195A (ko) 2013-07-08 2015-01-16 엘지전자 주식회사 웨어러블 디바이스 및 그 제어 방법
US20150029050A1 (en) * 2013-07-25 2015-01-29 Elwha Llc Wearable radar reflectors
US20150068069A1 (en) 2013-07-27 2015-03-12 Alexander Bach Tran Personally powered appliance
US9529513B2 (en) 2013-08-05 2016-12-27 Microsoft Technology Licensing, Llc Two-hand interaction with natural user interface
US20150042789A1 (en) 2013-08-07 2015-02-12 Blackberry Limited Determining the distance of an object to an electronic device
US20150046183A1 (en) 2013-08-12 2015-02-12 James V. Cireddu Remote, virtual physical exam acquisition and distribution
EP3033448A1 (de) 2013-08-16 2016-06-22 Footfalls and Heartbeats Limited Verfahren zur herstellung von elektrisch leitfähigen textilien und textiliensensor
WO2015038684A1 (en) 2013-09-10 2015-03-19 Polyera Corporation Attachable article with signaling, split display and messaging features
US9244578B2 (en) 2013-09-12 2016-01-26 Intel Corporation Detecting gestures on the side of a computing device
FI126008B (en) 2013-09-13 2016-05-31 Murata Manufacturing Co cardiac monitoring system
US9383426B2 (en) * 2013-09-17 2016-07-05 Farrokh Mohamadi Real-time, two dimensional (2-D) tracking of first responders with identification inside premises
US20150085060A1 (en) * 2013-09-20 2015-03-26 Microsoft Corporation User experience for conferencing with a touch screen display
US9001082B1 (en) 2013-09-27 2015-04-07 Sensel, Inc. Touch sensor detector system and method
US10152761B2 (en) 2013-10-04 2018-12-11 Iqvia Inc. Facilitating transactions for health applications designed for mobile devices
JP2016538097A (ja) 2013-10-23 2016-12-08 クアンタス, インコーポレイテッド 消費者バイオメトリックデバイス
US10228801B2 (en) 2013-10-24 2019-03-12 University Of Maryland, Baltimore County System and method for proximity-based position, movement and gesture detection using capacitive sensor arrays
US10429888B2 (en) 2014-02-25 2019-10-01 Medibotics Llc Wearable computer display devices for the forearm, wrist, and/or hand
US9594443B2 (en) 2014-02-26 2017-03-14 Lenovo (Singapore) Pte. Ltd. Wearable device authentication and operation
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US9921657B2 (en) * 2014-03-28 2018-03-20 Intel Corporation Radar-based gesture recognition
EP3143474B1 (de) 2014-05-15 2020-10-07 Federal Express Corporation Am körper tragbare vorrichtung für kurierdienste und verfahren zur verwendung davon
US9575560B2 (en) * 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
US9331422B2 (en) 2014-06-09 2016-05-03 Apple Inc. Electronic device with hidden connector
US10099315B2 (en) 2014-06-27 2018-10-16 Jabil Inc. System, apparatus and method for hybrid function micro welding
GB2528044B (en) 2014-07-04 2018-08-22 Arc Devices Ni Ltd Non-touch optical detection of vital signs
US10234952B2 (en) 2014-07-18 2019-03-19 Maxim Integrated Products, Inc. Wearable device for using human body as input mechanism
US9921660B2 (en) * 2014-08-07 2018-03-20 Google Llc Radar-based gesture recognition
US9811164B2 (en) * 2014-08-07 2017-11-07 Google Inc. Radar-based gesture sensing and data transmission
WO2016023027A1 (en) 2014-08-08 2016-02-11 Orn, Inc. Garment including integrated sensor components and feedback components
US10268321B2 (en) 2014-08-15 2019-04-23 Google Llc Interactive textiles within hard objects
US9588625B2 (en) 2014-08-15 2017-03-07 Google Inc. Interactive textiles
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
US20160054792A1 (en) 2014-08-22 2016-02-25 Google Inc. Radar-Based Biometric Recognition
JP6623218B2 (ja) 2014-09-30 2019-12-18 アップル インコーポレイテッドApple Inc. ファブリック感知デバイス
US9600080B2 (en) 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition
GB201417536D0 (en) * 2014-10-03 2014-11-19 Microsoft Corp Adapting quantization
US20160106328A1 (en) 2014-10-16 2016-04-21 Xerox Corporation Determining arterial pulse transit time from time-series signals obtained at proximal and distal arterial sites
KR101560282B1 (ko) 2015-03-06 2015-10-14 주식회사 휴이노 생체 신호 측정 및 측정된 생체 신호에 기초한 실시간 혈압 추정 모니터링 기능을 구비한 모바일 단말기
US9552097B2 (en) 2015-01-28 2017-01-24 Qualcomm Incorporated Techniques for discerning between intended and unintended gestures on wearable touch-sensitive fabric
US10660382B2 (en) 2015-02-27 2020-05-26 Honeywell Safety Products Usa, Inc. Apparatus, systems and methods for optimizing and masking compression in a biosensing garment
US10168785B2 (en) 2015-03-03 2019-01-01 Nvidia Corporation Multi-sensor based user interface
US20160284436A1 (en) 2015-03-26 2016-09-29 Google Inc. Conductive Thread for Interactive Textiles
US20160283101A1 (en) 2015-03-26 2016-09-29 Google Inc. Gestures for Interactive Textiles
US9983747B2 (en) 2015-03-26 2018-05-29 Google Llc Two-layer interactive textiles
US20160321428A1 (en) 2015-04-29 2016-11-03 Google, Inc. Customizable Health Monitoring
KR102327044B1 (ko) 2015-04-30 2021-11-15 구글 엘엘씨 타입-애그노스틱 rf 신호 표현들
CN111880650A (zh) 2015-04-30 2020-11-03 谷歌有限责任公司 基于宽场雷达的手势识别
KR102002112B1 (ko) 2015-04-30 2019-07-19 구글 엘엘씨 제스처 추적 및 인식을 위한 rf―기반 마이크로―모션 추적
US20160338599A1 (en) 2015-05-22 2016-11-24 Google, Inc. Synchronizing Cardiovascular Sensors for Cardiovascular Monitoring
US9693592B2 (en) 2015-05-27 2017-07-04 Google Inc. Attaching electronic components to interactive textiles
US20160349845A1 (en) 2015-05-28 2016-12-01 Google Inc. Gesture Detection Haptics and Virtual Tools
KR101938215B1 (ko) 2015-08-26 2019-01-14 주식회사 퓨처플레이 스마트 인터렉션 장치
US20170097684A1 (en) 2015-10-06 2017-04-06 Google, Inc. Compressed Sensing for Gesture Tracking and Recognition with Radar
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
US9837760B2 (en) 2015-11-04 2017-12-05 Google Inc. Connectors for connecting electronics embedded in garments to external devices

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019057509A1 (de) 2017-09-20 2019-03-28 BSH Hausgeräte GmbH Haushaltsgerät mit einem sensor
DE102017216622C5 (de) 2017-09-20 2023-11-16 BSH Hausgeräte GmbH Haushaltsgerät mit einem Sensor
DE102018126231A1 (de) * 2018-10-22 2020-04-23 Endress+Hauser SE+Co. KG Bedienmodul für ein Feldgerät der Automatisierungstechnik und selbiges Feldgerät
DE102019103584A1 (de) * 2019-02-13 2020-08-13 Liebherr-Elektronik Gmbh Verfahren zur Steuerung einer berührungsempfindlichen Anzeige- und Eingabevorrichtung und Vorrichtung zur Ausführung des Verfahrens
WO2020187397A1 (en) 2019-03-19 2020-09-24 HELLA GmbH & Co. KGaA A method for a detection and classification of gestures using a radar system
DE112019007053T5 (de) 2019-03-19 2022-01-27 HELLA GmbH & Co. KGaA Verfahren für eine Detektion und Klassifizierung von Gesten unter Verwendung eines Radarsystems
WO2020193123A1 (de) * 2019-03-25 2020-10-01 Volkswagen Aktiengesellschaft Verfahren zur bereitstellung eines sprachdialogs in gebärdensprache bei einem sprachdialog-system für ein fahrzeug
DE102019205638A1 (de) * 2019-04-17 2020-10-22 BSH Hausgeräte GmbH Hausgerät und Verfahren zur Verbesserung von Radar-basierten Messungen
US20220318544A1 (en) * 2021-04-01 2022-10-06 KaiKuTek Inc. Generic gesture detecting method and generic gesture detecting device
US11804077B2 (en) * 2021-04-01 2023-10-31 KaiKuTek Inc. Generic gesture detecting method and generic gesture detecting device
DE102022209220A1 (de) 2022-09-06 2024-03-07 Robert Bosch Gesellschaft mit beschränkter Haftung Gesten-Bedieneinrichtung zur berührungslosen Bedienung einer Geräte-Einrichtung und Verfahren zur berührungslosen Gesten-Bedienung einer Geräte-Einrichtung

Also Published As

Publication number Publication date
US9921660B2 (en) 2018-03-20
JP6364505B2 (ja) 2018-07-25
CN106537173B (zh) 2019-11-26
KR20170012422A (ko) 2017-02-02
US20160041617A1 (en) 2016-02-11
JP2017524170A (ja) 2017-08-24
KR101914850B1 (ko) 2018-11-02
CN106537173A (zh) 2017-03-22
WO2016022764A1 (en) 2016-02-11

Similar Documents

Publication Publication Date Title
DE112015003655T5 (de) Radarbasierte Gestenerkennung
US10948996B2 (en) Radar-based gesture-recognition at a surface of an object
US10664061B2 (en) Wide-field radar-based gesture recognition
DE112015004519T5 (de) Nicht-Sichtlinien-Gesteinerkennung auf Radarbasis
DE202015009692U1 (de) Radarbasierte Gestenerkennung und Datenübertragung
DE112015002463T5 (de) Systeme und Verfahren zum gestischen Interagieren in einer im Umfeld vorhandenen Computerumgebung
DE112017004677T5 (de) Berührungsempfindliche Tastatur
DE102016124419A1 (de) Gestenbasierte steuerung einer benutzerschnittstelle
DE102009025236A1 (de) Schnittstellensystem zur Gestenerkennung mit einem lichtstreuenden Bildschirm
DE112014000441T5 (de) Dynamische Benutzerinteraktionen für Displaysteuerung und Angepaßte Gesten Interpretation
DE102010031878A1 (de) System und Verfahren zur entfernten virtuellen auf-einen-Schirm-Eingabe
CN105960622A (zh) 选择吸引式接口、包括该接口的系统和装置及其制造和使用方法
Freud et al. Visual control of action directed toward two-dimensional objects relies on holistic processing of object shape
DE112022002985T5 (de) Verfahren, system und computerprogramm zur berührungsstabilisierung
DE102019113133A1 (de) Systeme und verfahren zur beeinflussung von spotlight-effekten_

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US

Free format text: FORMER OWNER: GOOGLE INC., MOUNTAIN VIEW, CALIF., US

R082 Change of representative

Representative=s name: VENNER SHIPLEY LLP, DE

Representative=s name: MAIKOWSKI & NINNEMANN PATENTANWAELTE PARTNERSC, DE

Representative=s name: VENNER SHIPLEY LLP, GB

Representative=s name: BUCHER, RALF, DIPL.-ING. UNIV., DE

R082 Change of representative

Representative=s name: VENNER SHIPLEY LLP, DE

Representative=s name: MAIKOWSKI & NINNEMANN PATENTANWAELTE PARTNERSC, DE

Representative=s name: BUCHER, RALF, DIPL.-ING. UNIV., DE

R082 Change of representative

Representative=s name: VENNER SHIPLEY LLP, DE

Representative=s name: MAIKOWSKI & NINNEMANN PATENTANWAELTE PARTNERSC, DE

R082 Change of representative

Representative=s name: MAIKOWSKI & NINNEMANN PATENTANWAELTE PARTNERSC, DE