DE202014103729U1 - Augmented-Reality mit Bewegungserfassung - Google Patents
Augmented-Reality mit Bewegungserfassung Download PDFInfo
- Publication number
- DE202014103729U1 DE202014103729U1 DE202014103729.2U DE202014103729U DE202014103729U1 DE 202014103729 U1 DE202014103729 U1 DE 202014103729U1 DE 202014103729 U DE202014103729 U DE 202014103729U DE 202014103729 U1 DE202014103729 U1 DE 202014103729U1
- Authority
- DE
- Germany
- Prior art keywords
- information
- image
- sensors
- world space
- real world
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/257—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/11—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
- H04S7/304—For headphones
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
Abstract
Bewegungssensorische und bildgebende Vorrichtung, umfassend: eine Vielzahl bildgebender Sensoren, die angeordnet ist, um stereoskopische Bildinformationen einer betrachteten Szene bereitzustellen; eine oder mehr über den Bildsensoren angeordnete Beleuchtungsquellen; und eine Steuerung, die an die bildgebenden Sensoren und die Beleuchtungsquellen gekoppelt ist, um deren Betrieb zu steuern, Bildinformationen einer Szene zu erhalten und wenigstens eine nahezu Echtzeit-Weiterleitung von Bildinformationen an einen Benutzer bereitzustellen.
Description
- TECHNISCHES GEBIET
- Die vorliegende Erfindung betrifft eine hochfunktionelle/hochgenaue sensorische und bildgebende Vorrichtung für die Verwendung in tragbaren Sensorsysteme zur Erfassung von Gesten in einem dreidimensionalen (3D) sensorischen Raum mit Bildgebung oder anderen Sensoren und zur Darstellung einer 3D Augmented-Reality-Umgebung für einen Benutzer.
- HINTERGRUND
- Eine Geräteklasse, wie Google Glass, bietet die Möglichkeit, Informationen darzustellen, die auf einem durchsichtigen, von einem Benutzer getragenen Bildschirm eingeblendet sind. Eine andere Geräteart, wie Oculus Rift, stellt dem Benutzer einen Virtual-Reality-Anzeige, ohne Informationen aus der realen Welt, die den Benutzer umgibt, zur Verfügung. Beide Arten von Vorrichtungen berücksichtigen jedoch nicht ausreichend die Einbindung virtueller (z. B., rechnerischer) Informationen in einen Echtzeit-Bilddatenstrom, der die Umgebung, in der sich der Träger befindet, wiedergibt. Daher besteht ein Bedarf für eine hochfunktionelle sensorische und bildgebende Vorrichtung, die zur Erfassung von Bildinformationen des Orts und zur Bereitstellung wenigstens einer nahezu Echtzeit-Weiterleitung von Bildgebungsinformationen an einen Benutzer geeignet ist. Die sensorische und bildgebende Vorrichtung könnte im Idealfall an ein tragbares oder ein transportables Gerät gekoppelt werden, um ein tragbares sensorisches System zu bilden, das in der Lage ist, dem Träger die Bildinformation anzuzeigen, die um virtuelle oder erzeugte Informationsdarstellungen erweitert wurde. Keine bisher bekannten Geräte bieten diese Fähigkeiten.
- ZUSAMMENFASSUNG
- Ausführungsformen der vorliegenden Erfindung befassen sich mit diesen und anderen Problemen durch Bereitstellen einer bewegungssensorischen und bildgebenden Vorrichtung, die zur Erfassung von Bildinformationen des Orts und zur Bereitstellung wenigstens einer nahezu Echtzeit-Weiterleitung von Bildgebungsinformationen an einen Benutzer geeignet ist. Die sensorische und bildgebende Vorrichtung kann als eigenständiges Gerät oder an ein tragbares oder transportables Gerät gekoppelt verwendet werden, um ein tragbares sensorisches System zu bilden, das in der Lage ist, dem Träger die Bildinformation anzuzeigen, die um virtuelle oder erzeugte Informationsdarstellungen erweitert wurde.
- Eine Ausführungsform einer bewegungssensorischen und bildgebenden Vorrichtung umfasst eine Vielzahl bildgebender Sensoren, die angeordnet ist, um stereoskopische Bildgebungsinformationen für eine betrachtete Szene zu bilden; eine oder mehrere über den bildgebenden Sensoren angeordnete Beleuchtungsquellen; und eine an die bildgebenden Sensoren und Lichtquellen gekoppelte Steuerung, um deren Betrieb zu steuern. Durch die Steuerung kann die Vorrichtung Bildinformationen der Szene erfassen und eine wenigstens nahezu Echtzeit-Weiterleitung von Bildinformationen an einen Benutzer bereitstellen. Die Vorrichtung ist an ein tragbares Gerät koppelbar, um ein tragbares sensorisches System zu bilden, das in der Lage ist, dem Träger die Bildinformation anzuzeigen, die um virtuelle oder erzeugte Informationsdarstellungen erweitert wurde.
- In einer Ausführungsform nimmt eine bewegungssensorische und bildgebende Vorrichtung ferner Bildinformation für Steuerobjekte – einschließlich Steuerobjekte wie menschliche Hände – innerhalb des Sichtfeldes der bildgebenden Sensoren auf. Die Bildgebungsinformationen für die Steuerobjekte von Interesse können verwendet werden, um Gesteninformationen, die einen Befehl an eine gesteuerte Maschine anzeigen, zu ermitteln. In den Ausführungsformen kann die Vorrichtung Positionen, Posen und Bewegungen von Objekten, die den Träger der Vorrichtung umgeben, mit einer Sub-Millimeter-Genauigkeit erfassen und diese Informationen zur Einbindung in die an den Benutzer übermittelte Darstellung bereitstellen.
- In einer Ausführungsform umfasst eine bewegungssensorische und bildgebende Vorrichtung Funktionen, um Informationen aus Pixeln, die für IR-Licht empfindlich sind, von Informationen aus Pixeln, die für sichtbares Licht, z. B., RGB (rot, grün und blau), empfindlich sind, voneinander zu trennen und Bildinformationen von IR-(Infrarot)-Sensoren für die Gestenerkennung und Bildinformationen von RGB-Sensoren, die als Live-Video-Feed (bzw. Live-Videozuspielung) über eine Darstellungsschnittstelle zur Verfügung gestellt werden, zu verarbeiten. Beispielsweise wird ein Videodatenstrom mit einer Bildersequenz einer Szene in der realen Welt mit Kameras, die einen Satz RGB-Pixel und einen Satz IR-Pixel aufweisen, aufgenommen. Informationen aus den IR-empfindlichen Pixeln werden für die Verarbeitung aussortiert, um Gesten zu erkennen. Informationen aus den RGB-empfindlichen Pixeln werden an eine Darstellungsschnittstelle einer tragbaren Vorrichtung (HUD, HMD, etc.) als Live-Video-Feed zur Ausgabe einer Darstellung weitergegeben. Die Darstellungsausgabe wird einem Benutzer der tragbaren Vorrichtung angezeigt. Ein oder mehrere virtuelle Objekte können in den Videodatenstrombildern eingebunden sein, um die Darstellungsausgabe zu bilden. Dementsprechend kann die Vorrichtung eine Gestenerkennung, eine Realwelt-Darstellung von Realwelt-Objekten durch Weiterleiten von Video-Feeds, und/oder eine Augmented-Reality-Umgebung (bzw. eine erweiterte Realität) mit virtuellen Objekten, die in die Realwelt-Ansicht eingebunden sind, bereitstellen.
- In einer Ausführungsform kann eine bewegungssensorische und bildgebende Vorrichtung zur Bewegungsverfolgung der Vorrichtung selbst unter Verwendung einer Kombination von RGB- und IR-Pixeln der Kameras verwendet werden. Insbesondere umfasst dies die Erfassung von ungenauen oder groben Merkmalen und entsprechenden Merkmalswerten eines Realwelt-Raums mit RGB-Pixeln und die Erfassung von feinen oder genauen Merkmalen und entsprechenden Merkmalswerten des Realwelt-Raums mit IR-Pixeln. Einmal erfasst, wird die Bewegungsinformation des tragbaren Sensorsystems hinsichtlich wenigstens eines Merkmals der Szene auf der Grundlage des Vergleichs von Merkmalswerten, die zu unterschiedlichen Zeitpunkten erfasst wurden, ermittelt. Zum Beispiel ist ein Merkmal eines Realwelt-Raums ein Objekt an einer bestimmten Position in dem Realwelt-Raum, und dann kann der Merkmalswert die dreidimensionalen (3D) Koordinaten der Position des Objekts in dem Realwelt-Raum darstellen. Wenn sich zwischen Paaren von Bildausschnitten oder anderen Bildvolumen der Wert der Positionskoordinaten ändert, dann kann dies dazu verwendet werden, um Bewegungsinformationen des tragbaren sensorischen Systems in Bezug auf das Objekt, dessen Position sich zwischen den Bildausschnitten geändert hat, zu bestimmen.
- In einem anderen Beispiel ist ein Merkmal eines Realwelt-Raums eine Wand in dem Realwelt-Raum und der entsprechende Merkmalswert ist die Ausrichtung der Wand wie sie von einem Betrachter, der mit einem tragbaren sensorischen System verbunden ist, wahrgenommen wird. In diesem Beispiel kann dies, wenn eine Änderung in der Ausrichtung der Wand zwischen aufeinanderfolgenden Bildausschnitten, die von einer elektronisch an das tragbare sensorische System gekoppelten Kamera erfasst werden, registriert wird, dann eine Positionsänderung des tragbaren sensorischen Systems, das auf die Wand sieht, anzeigen.
- Gemäß einer Ausführungsform können Informationen von RGB-Pixeln einer Kamera verwendet werden, um ein Objekt in dem Realwelt-Raum zusammen mit markanten oder groben Merkmalen des Objekts aus einem Bild oder einer Sequenz von Bildern, wie Objektkontur, Form, volumetrische Form, Skelettform, Silhouetten, Gesamtanordnung und/oder Struktur der Objekte in einem Realwelt-Raum zu identifizieren. Dies kann durch Messen einer Durchschnittspixelintensität eines Bereichs oder unterschiedlicher Strukturen von Bereichen erreicht werden. Somit ermöglichen die RGB-Pixel die Erfassung einer groben Schätzung des Realwelt-Raums und/oder der Objekte in dem Realwelt-Raum.
- Ferner können Daten aus den IR-Pixeln verwendet werden, um feine oder genaue Merkmale des Realwelt-Raums aufzunehmen, die die aus den RGB-Pixeln extrahierten Daten verbessern. Beispiele für feine Merkmale sind Oberflächenstrukturen, Kanten, Rundungen und andere schwache Merkmale des Realwelt-Raums und der Objekte in dem Realwelt-Raum. In einem Beispiel werden, während die RGB-Pixel ein Volumenmodell einer Hand erfassen, IR-Pixel verwendet, die Venen- und/oder Arterienmuster oder Fingerabdrücke der Hand zu erfassen.
- Einige andere Ausführungsformen umfassen die Erfassung von Bilddaten unter Verwendung der RGB- und IR-Pixel in verschiedenen Kombinationen und Permutationen. Zum Beispiel kann eine Ausführungsform die RGB- und IR-Pixel zur Durchführung einer Gesamtgrößenerfassung von Bilddaten gleichzeitig aktivieren, ohne zwischen groben oder feinen Merkmalen zu unterscheiden. Eine weitere Ausführungsform kann die periodische Verwendung der RGB- und IR-Pixel umfassen. Noch eine weitere Ausführungsform kann die Aktivierung der RGB- und IR-Pixel gemäß einer quadratischen oder Gauß-Funktion umfassen. Einige andere Ausführungsformen können das Durchführen eines ersten Scans unter Verwendung der IR-Pixel, gefolgt von einem RGB-Scan, und umgekehrt, umfassen.
- In einer Ausführungsform werden die Umgebungslichtbedingungen bestimmt und verwendet, die Anzeige der Ausgabe anzupassen. Zum Beispiel werden Informationen aus dem RGB-Pixelsatz bei normalen Lichtverhältnissen und Informationen aus dem IR-Pixelsatz bei dunklen Lichtverhältnissen angezeigt. Alternativ oder zusätzlich dazu können Informationen aus dem IR-Pixelsatz verwendet werden, um die Informationen aus dem RGB-Pixelsatz bei schwachen Lichtverhältnissen zu verbessern, oder umgekehrt. Einige Ausführungsformen erhalten von einem Benutzer eine Auswahl, die einen bevorzugten Bildschirm anzeigt, der aus Farbbildern von den RGB-Pixel und IR-Bildern von den IR-Pixel, oder Kombinationen davon ausgewählt wird. Alternativ oder zusätzlich dazu kann die Vorrichtung selbst dynamisch zwischen Videoinformationen, die mittels RGB-empfindlicher Pixel erfasst wurden, und Videoinformationen, die mittels IR-empfindlicher Pixel erfasst wurden, für die Anzeige in Abhängigkeit von den Umgebungsbedingungen, den Benutzereinstellungen, der Situationswahrnehmung, anderer Faktoren oder Kombinationen davon wechseln.
- In einer Ausführungsform werden Informationen aus den IR-empfindlichen Pixeln für die Verarbeitung einer Gestenerkennung ausgesondert, während die Informationen aus den RGB-empfindlichen Pixeln als ein Live-Video-Feed zu einem Ausgang weitergeleitet werden, wodurch die Bandbreite bei der Verarbeitung der Gestenerkennung bewahrt werden kann. Bei der Gestenverarbeitung können Merkmale in den Bildern, die Objekten in der realen Welt entsprechen, erfasst werden. Die Merkmale der Objekte werden über mehrere Bilder hinweg korreliert, um Veränderungen zu ermitteln, die sich auf Gestenbewegungen beziehen können. Die Gestenbewegungen können verwendet werden, um Befehlsinformationen an eine gesteuerte Maschine, darauf angesiedelte Anwendungen oder Kombinationen davon zu ermitteln.
- In einer Ausführungsform werden Bewegungssensoren und/oder andere Arten von Sensoren an ein Bewegungserfassungssystem gekoppelt, um die Bewegung von zumindest dem Sensor des Bewegungserfassungssystems, die zum Beispiel auf die Berührung durch den Benutzer zurückzuführen ist, zu überprüfen. Eine Information der Bewegungssensoren kann verwendet werden, um eine erste und eine zweite Positionsinformation des Sensors in Bezug auf einen festen Punkt zu einem ersten und zweiten Zeitpunkt zu bestimmen. Es wird eine Information über eine Differenz zwischen der ersten und der zweiten Positionsinformation ermittelt. Eine Bewegungsinformation für den Sensor mit Bezug auf den festen Punkt wird aus der Differenzinformation berechnet. Die Bewegungsinformation für den Sensor wird auf eine scheinbare, von dem Sensor erfasste Umgebungsinformation angewendet, um die Bewegung des Sensors daraus zu entfernen, um die tatsächliche Umgebungsinformation zu erhalten, die übermittelt wird. Eine Steuerinformation kann an ein System übermittelt werden, das ausgebildet ist, ein Virtual-Reality- oder Augmented-Reality-Erlebnis über ein tragbares Gerät und/oder an Systeme weiterzuleiten, die Maschinen oder dergleichen steuern, auf der Grundlage einer Bewegungserfassungsinformation für ein sich im Raum bewegendes Objekt, die vom Sensor stammt und eingestellt ist, die Bewegung des Sensors selbst zu entfernen. In einigen Anwendungen kann ein Erlebnis von einer virtuellen Vorrichtung durch Hinzufügen von haptischen, audiobezogenen und/oder visuellen Projektionsmittel erweitert werden.
- In einer Ausführung wird eine scheinbare Umgebungsinformation aus einer Positionsinformation eines Objektabschnitts zu dem ersten Zeitpunkt und dem zweiten Zeitpunkt mit Hilfe eines Sensors des Bewegungserfassungssystems erfasst. Die Objektabschnittsbewegungsinformation bezogen auf den festen Punkt zum ersten Zeitpunkt und zum zweiten Zeitpunkt wird auf Grundlage der Differenzinformation und der Bewegungsinformation des Sensors berechnet.
- In weiteren Ausführungsformen wird ein Pfad (bzw. Bahn) des Objektes durch wiederholtes Bestimmen von Bewegungsinformationen des Sensors mittels der Bewegungssensoren und des Objektabschnitts mittels des Sensors zu aufeinanderfolgenden Zeitpunkten und durch Analysieren einer Sequenz von Bewegungsinformationen berechnet, um einen Pfad des Objektabschnitts in Bezug auf den festen Punkt zu bestimmen. Die Pfade können mit Vorlagen zur Ermittlung von Bewegungsabläufen verglichen werden. Bewegungsabläufe von Körperteilen können als Gesten erkannt werden. Gesten können Befehlsinformationen anzeigen, die an ein System übermittelt werden. Einige Gesten übermitteln Befehle, um die Betriebsweisen eines Systems zu ändern (z. B., vergrößern, verkleinern, schwenken, mehr Details anzeigen, nächste Bildschirmseite, und so weiter).
- Vorteilhafterweise können einige Ausführungsformen ein verbessertes Benutzererlebnis, mehr Sicherheit und eine verbesserte Funktionalität für Benutzer von tragbaren Geräten ermöglichen. Einige Ausführungsformen bieten weitere Möglichkeiten für Bewegungserfassungssysteme, Gesten zu erkennen, so dass der Benutzer intuitiv Gesten ausführt, die einen virtualisierten Kontakt mit einem virtuellen Objekt beinhalten. Zum Beispiel kann eine Vorrichtung die Funktion aufweisen, die Bewegung von Objekten von Bewegungen der Vorrichtung selbst zu unterscheiden, um eine genaue Gestenerkennung zu erleichtern. Einige Ausführungsformen können eine verbesserte Kopplung mit einer Vielzahl von tragbaren oder transportablen Maschinen gewährleisten (z. B., Smartphones, tragbare Computersysteme, einschließlich Laptops, Tablets, Minicomputer, zweckgebundene Visualisierungscomputer, einschließlich Head-Up-Displays (HUD) für beispielsweise den Einsatz in Flugzeugen oder Autos, tragbare Virtual- und/oder Augmented-Reality-Systeme, einschließlich Google Glass, und andere, Grafikprozessoren, Embedded-Mikrocontroller, Spielkonsolen, oder dergleichen; drahtgebundene oder drahtlose Netzwerke von einer oder mehreren der vorstehenden Ausführungen und/oder Kombinationen davon), und die Notwendigkeit für kontaktbasierte Eingabegeräte wie eine Maus, Joystick, Touchpad oder Touchscreen beseitigen oder verringern. Einige Ausführungsformen können eine bessere Kopplung mit Rechnern und/oder anderen Maschinen bereitstellen als dies mit bisher bekannten Technologien möglich ist. In einigen Ausführungsformen können vielfältigere Erlebnisse bei einer Mensch-Maschine-Verbindung zur Verfügung gestellt werden.
- Weitere Aspekte und Vorteile der vorliegenden Erfindung sind aus der folgenden Beschreibung der Zeichnungen, der detaillierten Beschreibung und den Ansprüchen ersichtlich.
- KURZE BESCHREIBUNG DER ZEICHNUNGEN
-
1 zeigt ein Beispiel einer bewegungssensorischen und bildgebenden Vorrichtung. -
2 zeigt ein Beispiel eines tragbaren sensorischen Systems auf Grundlage einer bewegungssensorischen und bildgebenden Vorrichtung. -
3 zeigt ein vereinfachtes Blockdiagramm eines Computersystems. -
4 zeigt grundlegende Operationen und Funktionseinheiten, die bei der Bewegungserfassung und Bildanalyse verwendet werden. -
5 zeigt ein Beispiel einer Augmented-Reality-Weiterleitung, die von einer bewegungssensorischen und bildgebenden Vorrichtung dargestellt wird. - BESCHREIBUNG
- Die vorliegende Erfindung betrifft eine bewegungssensorische und bildgebende Vorrichtung, die Echtzeit oder nahezu Echtzeitbilder einer Szene erfassen, eine Geste in einem sensorischen 3D-Raum erkennen und die Geste als einen Befehl an ein System oder gesteuerte Maschine auswerten, und die erfasste Bildinformationen und gegebenenfalls den Befehl zur Verfügung stellen kann.
- Ausführungsformen umfassen das Bereitstellen eines ”Pass-Through” (bzw. einer Weiterleitung), bei dem eine Live-Videozuspielung an den Benutzer der Vorrichtung mit virtueller Realität, entweder allein oder in Verbindung mit dem Anzeigen eines oder mehrerer virtueller Objekte, weitergeleitet wird, so dass der Benutzer die reale Welt direkt wahrnehmen kann. Zum Beispiel kann der Benutzer eine tatsächliche Schreibtischumgebung sowie virtuelle Anwendungen oder Objekte darin vermischt sehen. Durch die Gestenerkennung und -erfassung können Implementierungen den Benutzer befähigen, neben den virtuellen Objekten (beispielsweise das Schweben eines virtuellen Dokuments über der Oberfläche des Schreibtischs des Benutzers) mit Objekten in Echt (z. B., eine Cola-Dose des Benutzers) zu interagieren und diese zu greifen. In einigen Ausführungsformen werden Informationen aus unterschiedlichen Spektralquellen gezielt eingesetzt, um den einen oder anderen Aspekt des Erlebnisses zu steuern. Beispielsweise können Informationen von IR-empfindlichen Sensoren verwendet werden, um Handbewegungen des Benutzers zu erfassen und Gesten zu erkennen. Während Informationen aus dem sichtbaren Lichtbereich eingesetzt werden, um die Weiterleitung einer Video-Darstellung zu steuern, wird eine Realwelt-Darstellung aus realen und virtuellen Objekten erzeugt. In einem weiteren Beispiel, können Kombinationen von Bildinformationen aus verschiedenen Quellen verwendet werden; das System – oder der Benutzer – wählt zwischen IR-Bildern und Bildern aus sichtbarem Licht, auf der Grundlage situationsabhängiger, zustandsabhängiger, umweltabhängiger oder anderer Faktoren oder Kombinationen davon. Beispielsweise kann die Vorrichtung von einer Bildgebung mit sichtbarem Licht zu einer Bildgebung mit IR wechseln, wenn es die Umgebungslichtbedingungen erfordern. Der Benutzer ist befähigt, auch die Bildgebungsquelle zu steuern. In noch weiteren Beispielen können Informationen einer Sensorart verwendet werden, um Informationen einer anderen Sensorart zu erweitern, zu korrigieren oder zu untermauern. Informationen von IR-Sensoren können verwendet werden, um die Anzeige der Bildgebung, die von Sensoren, die für sichtbares Licht empfindlich sind, durchgeführt werden, zu korrigieren, und umgekehrt. Bei schwachem Licht oder in anderen Situationen, die der optischen Bildgebung nicht zuträglich sind, in denen Freiform-Gesten nicht mit ausreichender Zuverlässigkeit optisch erfasst können, können Audio-Signale oder Vibrationswellen erfasst und verwendet werden, um die Richtung und Lage des Objekts, wie im Nachfolgenden genauer beschrieben, bereitzustellen.
- Die vorliegende Erfindung kann angewendet werden, um ein Benutzererlebnis in umfassenden Virtual-Reality-Umgebungen mit tragbaren Sensorsysteme zu verbessern. Beispiele von Systemen, Vorrichtungen und Verfahren gemäß den offenbarten Ausführungsformen werden in einem ”tragbare Sensorsysteme”-Kontext beschrieben. Die Beispiele für ”tragbare Sensorsysteme” dienen ausschließlich der näheren Beschreibung der Zusammenhänge und dem besseren Verständnis der offenbarten Ausführungsformen. In anderen Fällen können Beispiele gestenbasierter Interaktionen in anderen Zusammenhängen, wie Kraftfahrzeugen, Robotern oder anderen Maschinen, auf virtuelle Spiele, virtuelle Anwendungen, virtuelle Programme, virtuelle Betriebssysteme, etc., angewandt werden. Zudem sind andere Anwendungen möglich, sodass die folgenden Beispiele nicht als endgültig oder einschränkend im Hinblick auf Umfang, Kontext, oder Umgebungssituationen aufgefasst werden sollten. Es ist somit für einen Fachmann offensichtlich, dass die Ausführungsformen innerhalb oder außerhalb des ”tragbare Sensorsysteme”-Kontexts ausführbar sind.
- Zunächst wird auf
1 Bezug genommen, die ein Beispiel einer bewegungssensorischen Vorrichtung100 , die eine Beleuchtungsplatine172 aufweist, die mit Befestigungselementen oder dergleichen an eine Hauptplatine182 gekoppelt werden kann, zeigt. Eine Verkabelung (der Übersichtlichkeit halber nicht in1 dargestellt) ist für eine elektrische Verbindung zwischen der Beleuchtungsplatine172 und der Hauptplatine182 für den Austausch von Signalen und Energiefluss vorgesehen. Die Befestigungselemente, die die Hauptplatine182 (erster Teil) und die Beleuchtungsplatine172 (zweiter Teil) miteinander verbinden, können ferner diese Teile an eine Montagefläche A einer tragbaren oder transportablen elektronischen Vorrichtung (z. B., HMD, HUD, Smartphone oder dergleichen) befestigen. Die Montagefläche A kann eine Fläche (intern oder extern) von einer tragbaren oder transportablen elektronischen Vorrichtung sein. Alternativ kann die Vorrichtung in einem Hohlraum oder einer Aufnahme einer tragbaren oder transportablen elektronischen Vorrichtung mit Reibungsschluss, einem Befestigungsmittel oder einer beliebigen Kombination davon angeordnet sein. Die Vorrichtung100 kann in einer Vielzahl von tragbaren oder transportablen elektronischen Vorrichtungen eingebaut sein, um den Konstruktionsanforderungen einer Vielzahl von Anwendungen zu genügen. - Die Beleuchtungsplatine
172 weist eine Reihe von individuell steuerbaren Beleuchtungsquellen115 ,117 auf, wie zum Beispiel LEDs, die darauf eingebettet sind. Zwei Kameras102 ,104 erstellen eine stereoskopische Bild-basierte Erfassung einer betrachteten Szene und befinden sich in der vorliegenden Ausführungsform auf der Hauptplatine182 der Vorrichtung100 . Die Hauptplatine182 kann auch einen Prozessor für die Basisbildverarbeitung, die Steuerung der Kameras102 ,104 und der LEDs der Platine172 umfassen. Es sind verschiedene Modifikationen des in1 gezeigten Aufbaus möglich; beispielsweise können die Anzahl und die Anordnung der LEDs, der Photodetektoren und der Kameras variieren und die Abtast- und Bildgebungshardware auf einer einzigen Platine integriert sein, oder beides, abhängig von den Anforderungen einer bestimmten Anwendung. - Stereoskopische Bildgebungsinformationen der Kameras,
102 ,104 werden selektiv oder kontinuierlich an einen Benutzer, der die tragbare oder transportable elektronische Vorrichtung trägt oder transportiert, übermittelt. Die Vorrichtung100 kann direkte ”Echtzeit” oder nahezu Echtzeit-Zuspielungen von Bildinformationen der Kameras, Echtzeit oder nahezu Echtzeit-Bildinformationen, die durch computergenerierten Grafiken erweitert wurden, Informationen, Icons oder andere virtuelle Darstellungen, virtuelle Darstellungen der betrachteten Szene, und daraus ausgewählte zeitlich variierende Kombinationen umfassen. Auch können die von einem Benutzer durchgeführten Gesten von den Kameras102 ,104 der sensorischen Vorrichtung100 aufgenommen werden, und die resultierende Bildinformation kann an ein Bewegungserfassungssystem zur Identifizierung und Bestimmung von Befehlen an jedes von den Gesten gesteuerte System (einschließlich der tragbaren bzw. mobile Vorrichtung selbst) weitergeleitet werden. Vorteilhafterweise kann durch das Einbinden einer Gestenerkennung mit Bildgebungsfunktionen in einer einzigen Bewegungssensorvorrichtung100 eine hochfunktionelle, flexible und dennoch kompakte Vorrichtung gebildet werden, die zum Einbau in tragbare oder mobile elektronische Vorrichtungen geeignet ist, und so weiter. - Einige der Beleuchtungsquellen
115 ,117 können in einigen Ausführungsformen eine zugeordnete Fokussierungsoptik aufweisen (der Klarheit halber nicht in1 gezeigt). Eine der Platinen172 oder182 kann auch eine Steckdose/Steckdosen zur Kopplung eines Photodetektors/Photodetektoren (oder andere Sensoren), die der Klarheit halber nicht in1 gezeigt sind, aufweisen. Informationen einer Erfassung durch den Photodetektor ändern sich hinsichtlich des Reflexionsvermögens, wodurch das Vorhandensein oder Fehlen von Objekten innerhalb eines Raumabschnitts, in den von den Beleuchtungsquellen, während einer ”Abtastung” des Raumabschnitts durch die Beleuchtungsquellen, z. B., LEDs, Licht emittiert wird, angezeigt wird. - Im Folgenden wird auf die
2 Bezug genommen, die ein System200 zur Erfassung von Bilddaten gemäß einer Ausführungsform der vorliegenden Erfindung zeigt. Das System200 ist vorzugsweise an eine tragbare Vorrichtung201 gekoppelt, die ein persönliches Head-Mounted-Display (HMD) in Brillenform, wie in2 gezeigt, oder in Helmform aufweist, oder mit einer Uhr, einem Smartphone oder einer anderen tragbaren Vorrichtungsart gekoppelt oder darin eingebaut, um ein tragbares Sensorsystem zu bilden. - In verschiedenen Ausführungsformen kann das System und Verfahren zur Erfassung einer 3D-Bewegung eines Objekts, wie hierin beschrieben, mit anderen Anwendungen, wie beispielsweise einer Head-Mounted-Vorrichtung oder einer mobilen Vorrichtung, ausgestattet sein. Unter erneuter Bezugnahme auf die
2 , kann eine Head-Mounted-Vorrichtung201 eine optische Anordnung203 umfassen, die dem Benutzer eine Umgebung oder eine virtuelle Umgebung anzeigt; der Einbau des Bewegungserfassungssystems200 in die Head-Mounted-Vorrichtung201 ermöglicht es dem Benutzer, die angezeigte Umgebung interaktiv zu steuern. Beispielsweise kann eine virtuelle Umgebung virtuelle Objekte umfassen, die durch Handbewegungen des Benutzers, die von dem Bewegungserfassungssystem200 nachverfolgt werden, betätigt werden können. In einer Ausführungsform erfasst das in die Head-Mounted-Vorrichtung201 integrierte Bewegungserfassungssystem200 eine Position und Form der Hand des Benutzers und projiziert diese auf die Anzeige der Head-Mounted-Vorrichtung201 , so dass der Benutzer seine Gesten sehen und die Objekte in der virtuellen Umgebung interaktiv steuern kann. Dies findet zum Beispiel bei Spielen oder beim Internet-Surfen Anwendung. - Das System
200 enthält einige Kameras102 ,104 , die mit einem sensorischen Verarbeitungssystem206 gekoppelt sind. Die Kameras102 ,104 können jede Art von Kamera umfassen, einschließlich Kameras, die für das gesamte sichtbare Spektrum empfindlich sind oder eine erhöhte Empfindlichkeit gegenüber einem bestimmten Wellenlängenbereich (z. B., dem Infrarot-(IR)-Bereich oder der Ultraviolettbereich) aufweisen; Im Allgemeinen bezieht sich der Begriff ”Kamera” hierin auf jede Vorrichtung (oder eine Kombination von Vorrichtungen), die zum Aufnehmen eines Bildes eines Objekts geeignet ist und das Bild in Form von digitalen Daten wiedergibt. Zum Beispiel können Zeilensensoren oder Zeilenkameras anstelle herkömmlicher Vorrichtungen, die ein zweidimensionales (2D)-Bild erfassen, verwendet werden. Der Begriff ”Licht” wird in der Regel verwendet, um irgendeine elektromagnetische Strahlung anzugeben, die sich innerhalb des sichtbaren Spektrums befinden kann oder nicht und ein Breitband (z. B., weißes Licht) oder Schmalband (z. B., eine einzelne Wellenlänge oder ein Wellenlängenschmalband) aufweisen kann. - Die Kameras
102 ,104 sind vorzugsweise in der Lage, Videobilder aufzunehmen (d. h., aufeinanderfolgende Bildausschnitte mit einer gleichmäßigen Geschwindigkeit von ungefähr 15 Bilder pro Sekunde), obwohl keine bestimmter Bildfolge erforderlich ist. Die Funktionen der Kameras102 ,104 sind für die vorliegende Erfindung nicht entscheidend, und die Kameras können in Hinblick auf die Bildfolge, die Bildauflösung (z. B., Pixel pro Bild), die Farb- oder Intensitätsauflösung (z. B., die Bitanzahl der Intensitätsdaten pro Pixel), die Brennweite der Linsen, die Feldtiefe, usw., variieren. Im Allgemeinen können für eine bestimmte Anwendung alle Kameras verwendet werden, die in der Lage sind, auf Objekte in einem Raumvolumen von Interesse zu fokussieren. Zur Erfassung der Handbewegung einer ansonsten sich nicht bewegenden Person kann beispielsweise das Volumen von Interesse als ein Würfel mit etwa einem Meter auf einer Seite definiert werden. - Wie dargestellt, werden die Kameras
102 ,104 durch die Bewegung der Vorrichtung201 auf Teile eines Bereichs von Interesse212 gerichtet, um eine virtuell wiedergegebene oder virtuell erweiterte Ansicht des Bereichs von Interesse212 zu betrachten, der eine Vielzahl virtueller Objekte216 umfassen und auch ein Objekt von Interesse214 (in diesem Beispiel eine oder mehrere Hände), das sich innerhalb des Bereichs von Interesse212 bewegt, enthalten kann. Ein oder mehrere Sensoren208 ,210 erfassen die Bewegungen der Vorrichtung201 . In einigen Ausführungsformen sind eine oder mehrere Lichtquellen115 ,117 angeordnet, um den Bereich von Interesse212 zu beleuchten. In einigen Ausführungsformen sind eine oder mehrere der Kameras102 ,104 gegenüber der zu erfassenden Bewegung angeordnet, z. B., dort, wo sich die Hand214 voraussichtlich hin bewegen wird. Dies ist eine optimale Position, da die Menge der über die Hand aufgezeichneten Informationen proportional zu der Anzahl der Pixel ist, die sie in den Kamerabildern besetzt, wobei die Hand mehr Pixel besetzen wird, wenn der Kamerawinkel in Bezug auf die „Zeigerichtung” der Hand so senkrecht wie möglich ist. Das sensorische Verarbeitungssystem206 , das beispielsweise ein Computersystem sein kann, kann den Betrieb der Kameras102 ,104 zur Aufnahme von Bildern des Bereichs von Interesse212 und der Sensoren208 ,210 zur Erfassung von Bewegungen der Vorrichtung201 steuern. Informationen von den Sensoren208 ,210 können auf Modelle der von den Kameras102 ,104 aufgenommenen Bilder angewendet werden, um die Auswirkungen durch die Bewegungen der Vorrichtung201 aufzuheben, und um eine größere Genauigkeit des virtuellen Erlebnisses, das die Vorrichtung201 wiedergibt, zu gewährleisten. Auf Grundlage der erfassten Bilder und Bewegungen der Vorrichtung201 ermittelt das sensorische Verarbeitungssystem206 die Position und/oder die Bewegung des Objekts214 und gibt die Darstellungen davon über die Anordnung203 für den Benutzer wieder. - Beispielsweise kann das Bildanalysesystem
206 als Schritt bei der Bestimmung der Position des Objekts214 bestimmen, welche Pixel der von den Kameras102 ,104 aufgenommenen, verschiedenen Bilder Teile des Objekts114 enthalten. In einigen Ausführungsformen kann jedes Pixel in einem Bild als ein ”Objekt”-Pixel oder ein ”Hintergrund”-Pixel eingeordnet werden, je nachdem, ob das Pixel einen Teil des Objekts214 aufweist oder nicht. Die Objekt-Pixel können somit leicht auf Grundlage der Helligkeit von den Hintergrund-Pixel unterschieden werden. Ferner können Kanten des Objekts auch ohne weiteres auf Grundlage von Unterschieden in der Helligkeit zwischen benachbarten Pixeln auf einfache Weise erfasst werden, wodurch die Position des Objektes in jedem Bild bestimmbar ist. In einigen Ausführungsformen werden die Silhouetten eines Objekts von einem oder mehreren Bildern des Objekts, das Informationen über das Objekt aus verschiedenen Blickwinkeln zeigt, extrahiert. Während die Silhouetten unter Verwendung einer Anzahl verschiedener Verfahren erhalten werden können, werden die Silhouetten in einigen Ausführungsformen unter Verwendung von Kameras zur Aufnahme von Bildern des Objekts und durch Analysieren der Bilder zur Erfassung von Objektkanten erhalten. Die Korrelation von Objektpositionen zwischen den Bildern von Kameras102 ,104 und die Aufhebung der erfassten Bewegungen der Vorrichtung201 von den Sensoren208 ,210 ermöglicht es dem Bildanalysesystem206 , die Position im 3D-Raum des Objekts214 zu bestimmen, und die Analyse von Bildsequenzen ermöglicht es dem Bildanalysesystem206 , die 3D-Bewegung des Objekts214 mit herkömmlichen Bewegungsalgorithmen oder anderen Verfahren zu rekonstruieren. Siehe zum Beispiel US-Patentanmeldung Nr. 13/414,485 (am 7. März 2012 eingereicht) und die vorläufigen US-Patentanmeldungen Nr. 61/724,091 (am 8. November 2012 eingereicht) und 61/587,554 (am 7. Januar 2012 eingereicht), deren gesamte Offenbarungen hiermit durch Bezugnahme aufgenommen sind. - Eine Darstellungsschnittstelle
220 verwendet Projektionstechniken in Verbindung mit der sensorbasierten Verfolgung, um virtuelle (oder virtualisiert reale) Objekte (visuelle, akustische, haptische und so weiter) darzustellen, die durch Anwendungen, die in die optische Anordnung203 der Vorrichtung201 ladbar oder in kooperativer Verbindung mit dieser sind, erzeugt werden, um einen Benutzer der Vorrichtung ein persönliches virtuelles Erlebnis zur Verfügung zu stellen. Die Projektion kann ein Bild oder eine andere visuelle Darstellung eines Objekts enthalten. - Eine Ausführungsform verwendet die Bewegungssensoren und/oder andere Arten von Sensoren, die an ein Bewegungserfassungssystem gekoppelt sind, um Bewegungen innerhalb einer realen Umgebung zu überwachen. Ein virtuelles Objekt, das in eine erweiterte Wiedergabe einer realen Umgebung eingebunden ist, kann zu einem Benutzer einer tragbaren Vorrichtung
201 projiziert werden. Eine Bewegungsinformation eines Körperteils des Benutzers kann zumindest teilweise auf der Grundlage einer sensorischen Information von den Bildgebungsmittel102 ,104 oder akustisch oder von anderen sensorischen Geräten bestimmt werden. Die Steuerinformation wird teilweise auf Grundlage einer Kombination der Bewegung der tragbaren Vorrichtung201 an ein System weitergeleitet, und die erfasste Bewegung des Benutzers wird aus der sensorischen Information ermittelt, die von den Bildgebungsmittel102 ,104 oder akustisch oder von anderen sensorischen Geräten erhalten werden. Das virtuelle Erlebnis von der Vorrichtung kann in einigen Ausführungsformen durch Hinzufügen haptischer, audiobezogener und/oder anderer sensorischer Informationsprojektionen erweitert werden. Zum Beispiel kann mit Bezug auf5 eine visuelle Projektionsanordnung504 ein Bild einer Seite (z. B., ein virtuelle Vorrichtung501 ) eines virtuellen Buches projizieren, das auf ein Objekt der realen Welt eingeblendet ist, z. B., der an einen Benutzer per Live-Video-Feed angezeigte Schreibtisch216 , wodurch ein virtuelles Erlebnis des Lesens eines Buches selbst, oder eines elektronisches Buches auf einem physischen E-Reader erzeugt wird, auch wenn kein Buch oder E-Reader vorhanden ist. Ein haptisches Projektionsmittel506 kann das Gefühl der Textur des ”virtuellen Papiers” des Buches auf die Finger des Lesers projizieren bzw. übertragen. Ein Audio-Projektionsmittel502 kann den Klang des Seitenumblätterns in Reaktion auf das Detektieren, dass der Leser eine Streifbewegung zum Umblättern der Seite durchgeführt hat, projizieren. Weil eine Augmented-Reality-Welt dargestellt wird, wird die Handrückseite214 des Benutzers derart projiziert, dass die Szene für den Benutzer so aussieht, als ob der Benutzer auf seine eigene Hand (Hände) sähe. - Mit erneutem Bezug auf
2 ist eine Vielzahl von Sensoren208 ,210 an das sensorische Verarbeitungssystem206 gekoppelt, um Bewegungen der Vorrichtung201 zu erfassen. Die Sensoren208 ,210 können jede Art von Sensor umfassen, die nützlich sind, um Signale von verschiedenen Bewegungsparametern (Beschleunigung, Geschwindigkeit, Winkelbeschleunigung, Winkelgeschwindigkeit, Position/Orte) zu erhalten; im Allgemeinen bezieht sich der Begriff ”Bewegungsdetektor” hierin auf jede Vorrichtung (oder Kombination von Vorrichtungen) zur Umwandlung mechanischer Bewegung in ein elektrisches Signal. Solche Vorrichtungen können, einzeln oder in verschiedenen Kombinationen, Beschleunigungsmesser, Gyroskope und Magnetometer umfassen, die ausgebildet sind, Bewegungen durch Veränderungen in der Orientierung, dem Magnetismus oder der Schwerkraft zu erfassen. Es gibt viele Arten von Bewegungssensoren und Alternativen der Ausführungsformen unterscheiden sich stark. - Das dargestellte System
200 kann irgendeinen von verschiedenen anderen Sensoren, die der Klarheit halber nicht in der2 gezeigt sind, alleine oder in verschiedenen Kombinationen umfassen, um das virtuelle Erlebnis für den Benutzer der Vorrichtung201 zu verbessern. Zum Beispiel kann das System206 in Situationen mit wenig Licht, in denen Freiform-Gesten optisch nicht mit hinreichender Sicherheit erkannt werden, in einen Touch-Modus wechseln, in dem Berührungsgesten auf der Grundlage akustischer oder vibrierender Sensoren erfasst werden. Alternativ kann das System206 in den Touch-Modus oder in eine zusätzliche Bildaufnahme und -verarbeitung mit Berührungserfassung wechseln, wenn Signale von den akustischen oder vibrierenden Sensoren erfasst werden. In noch einem anderen Betriebsmodus kann eine Tipp- oder Berührungsgeste als ”Aufwach”-Signal dienen, um das Bild- und Audio-Analysesystem206 von einem Standby-Modus in einen Betriebsmodus zu bringen. Zum Beispiel kann das System206 in den Standby-Modus übergehen, wenn optische Signale von den Kameras102 ,104 nicht länger als eine Schwellwertzeitdauer vorhanden sind. - Es versteht sich, dass die Elemente in
2 veranschaulichend sind. In einigen Ausführungsformen kann es wünschenswert sein, das System200 in einem anders geformten Gehäuse unterzubringen oder in eine größere Komponente oder Baugruppe einzubauen. Ferner sind Anzahl und Typ der Bildsensoren, der Bewegungsdetektoren, der Lichtquellen usw. der Klarheit halber schematisch dargestellt, aber weder die Größe noch die Anzahl ist in allen Ausführungsformen die gleiche. - Im Folgenden wird auf
3 Bezug genommen, die ein vereinfachtes Blockdiagramm eines Computersystems300 zur Realisierung des sensorischen Verarbeitungssystems206 zeigt. Das Computersystem300 enthält einen Prozessor302 , einen Speicher304 , eine Bewegungsdetektor- und Kameraschnittstelle306 , die Darstellungsschnittstelle220 , Lautsprecher309 , ein Mikrophon(e)310 und ein drahtlose Schnittstelle311 . Der Speicher304 kann verwendet werden, um von dem Prozessor302 auszuführende Befehle sowie Eingangs- und/oder Ausgangsdaten, die mit der Ausführung der Befehle in Verbindung gebracht werden, zu speichern. Insbesondere umfasst der Speicher304 Anweisungen, die konzeptionell als eine Gruppe von im Folgenden näher beschriebenen Modulen dargestellt sind, die den Betrieb des Prozessors302 und seine Interaktion mit anderen Hardware-Komponenten steuern. Ein Betriebssystem steuert die Durchführung systemnaher Systembasisfunktionen, wie Speicherzuweisung, Dateimanagement und Massenspeichergerätevorgänge. Das Betriebssystem kann eine Vielzahl von Betriebssystemen, wie das Microsoft WINDOWS-Betriebssystem, das Unix-Betriebssystem, das Linux-Betriebssystem, das Xenix-Betriebssystem, das IBM AIX-Betriebssystem, das Hewlett Packard UX-Betriebssystem, das Novell NETWARE-Betriebssystem, das Sun Microsystems SOLARIS-Betriebssystem, das OS/2-Betriebssystem, das BeOS-Betriebssystem, das MACINTOSH-Betriebssystem, das APACHE-Betriebssystem, ein OPENSTEP-Betriebssystem oder eine andere Betriebssystemplattform sein oder umfassen. - Die Rechnerumgebung kann auch andere entfernbare/nicht-entfernbare, flüchtige/nichtflüchtige Computerspeichermedien umfassen. Zum Beispiel kann ein Festplattenlaufwerk von nicht-entfernbaren, nichtflüchtigen magnetischen Medien lesen oder darauf schreiben. Eine Magnetplattenlaufwerk kann von einer entfernbaren, nichtflüchtigen Magnetplatte lesen oder darauf schreiben, und ein optisches Plattenlaufwerk kann von einer entfernbaren, nichtflüchtigen optischen Platte, wie einer CD-ROM oder anderen optischen Medien, lesen oder darauf schreiben. Andere entfernbare/nicht-entfernbare, flüchtige/nichtflüchtige Computerspeichermedien, die in der beispielhaften Betriebsumgebung verwendbar sind, umfassen Magnetbandkassetten, Flash-Speicherkarten, digitale, vielseitig verwendbare Disks, ein digitales Videoband, Halbleiterspeicher RAM, Halbleiterspeicher ROM und dergleichen, sind aber nicht darauf beschränkt. Die Speichermedien sind typischerweise über eine entfernbare oder nicht entfernbare Speicherschnittstelle mit dem Systembus verbunden.
- Der Prozessor
302 kann ein Allzweck-Mikroprozessor sein, aber je nach Anwendung alternativ einen Mikrocontroller, ein peripheres integriertes Schaltkreiselement, ein CSIC (anwenderspezifisch-integrierte Schaltung), ein ASIC (anwenderspezifisch-integrierte Schaltung), eine logische Schaltung, einen digitalen Signalprozessor, eine programmierbare Logikvorrichtung, wie ein FPGA (Field Programmable Gate Array), eine PLD (programmierbare Logikvorrichtung), eine PLA (programmierbares Logik-Array), einen RFID-Prozessor, Smart Chip oder ein anderes Gerät oder Vorrichtungsanordnung, die für die Umsetzung der Verfahrensschritte der Erfindung geeignet ist, umfassen. - Die Bewegungsdetektor- und Kamera-Schnittstelle
306 kann Hardware und/oder Software umfassen, die die Kommunikation zwischen dem Computersystem300 und den Kameras102 ,104 , sowie den Sensoren208 ,210 (siehe2 ) ermöglicht. Somit kann zum Beispiel die Bewegungsdetektor- und Kameraschnittstelle306 eine oder mehrere Kameradatenanschlüsse316 ,318 , Beleuchtungsquellenanschlüsse313 ,315 und Bewegungsdetektoranschlüsse317 ,319 an die die Kameras, Beleuchtungsquellen und Bewegungsdetektoren angeschlossen werden können (unter Verwendung herkömmlicher Stecker und Buchsen), sowie Hardware- und/oder Software-Signalprozessoren zur Modifizierung von Datensignalen, die aus den Kameras und Bewegungsdetektoren empfangen werden (z. B., zur Verringerung von Rauschen oder Umformatierung von Daten), vor dem Bereitstellen der Signale als Eingänge an ein Bewegungserfassungsprogramm (”mocap”)314 , das auf dem Prozessor302 ausführt wird, umfassen. In einigen Ausführungsformen kann die Bewegungsdetektor- und Kameraschnittstelle306 auch Signale an die Kameras, Beleuchtungsquellen und Sensoren übertragen, beispielsweise zur Aktivierung oder zur Deaktivierung derselben, um die Kameraeinstellungen (Bildfolge, Bildqualität, Empfindlichkeit, etc.), die Beleuchtungseinstellungen (Intensität, Dauer, etc.), die Sensoreinstellungen (Kalibrierung, Empfindlichkeitsstufe, etc) oder dergleichen zu steuern. Solche Signale können beispielsweise in Reaktion auf die Steuerungssignale von dem Prozessor302 übertragen werden, die wiederum in Reaktion auf Benutzereingaben oder andere detektierte Ereignisse erzeugt werden können. - Die das mocap Programm
314 definierenden Befehle werden im Speicher304 gespeichert, und diese Befehle führen bei deren Ausführung bei den von den Kameras bereitgestellten Bildern und den Audiosignalen von den Sensoren, die mit der Bewegungsdetektor- und Kameraschnittstelle306 verbunden sind, eine Bewegungserfassungsanalyse durch. In einer Ausführungsform umfasst das mocap Programm314 verschiedene Module, wie beispielsweise ein Objektanalysemodul322 und ein Pfadanalysemodul324 . Das Objektanalysemodul322 kann Bilder analysieren (z. B., die über die Schnittstelle306 erfassten Bilder), um Kanten eines Objekts darin und/oder andere Informationen über die Position des Objekts zu erfassen. In einigen Ausführungsformen kann das Objektanalysemodul322 auch Audiosignale analysieren (z. B., die über die Schnittstelle306 erfassten Audiosignale), um das Objekt beispielsweise durch die Zeitspanne bis zum Empfang, Multilateration und dergleichen zu lokalisieren. ("Die Multilateration ist eine Navigationstechnik auf der Grundlage der Messung in der Entfernung zu zwei Stationen an bekannten Positionen, die Signale zu bekannten Zeitpunkten übertragen." Siehe Wikipedia, unter http://en.wikipedia.org/w/index.php?title=Multilateration&oldid=523281858, aufgerufen am 16. November 2012, um 06:07 UTC). Das Pfadanalysemodul324 kann Objektbewegungen in 3D auf der Grundlage von Informationen, die über die Kameras erhalten werden, verfolgen und vorhersagen. Einige Ausführungsformen umfassen einen Virtual-Reality/Augmented-Reality-Umgebungsmanager326 , der die Integration von virtuellen Objekten, die reale Objekte (z. B., eine Hand214 ) sowie synthetisierte Objekte216 darstellen, ermöglicht, um diese dem Benutzer der Vorrichtung201 über die Darstellungsschnittstelle220 zur Bildung eines persönlichen virtuellen Erlebnisses213 anzuzeigen. Es können eine oder mehrere Anwendungen328 in den Speicher304 geladen werden (oder auf andere Weise für den Prozessor302 zugänglich gemacht werden), um die Arbeitsweise der Vorrichtung201 zu erweitern oder anzupassen, wodurch das System200 als Plattform arbeiten kann. Aufeinanderfolgende Kamerabilder werden auf Pixelebene analysiert, um Objektbewegungen und Geschwindigkeiten zu extrahieren. Audiosignale verorten das Objekt auf einer bekannten Fläche, und die Stärke und die Schwankungen der Signale können verwendet werden, um das Vorhandensein des Objekts zu erfassen. Wenn sowohl eine Audio- als auch eine Bildinformation gleichzeitig zur Verfügung stehen, können beide Arten von Informationen zur Erzeugung einer detaillierteren und/oder genauen Pfad-Analyse analysiert und aufeinander abgestimmt werden. Ein Video-Feed-Integrator329 ermöglicht die Integration von Live-Video-Feeds von den Kameras102 ,104 und eines oder mehrerer virtueller Objekte (z. B.,501 der5 ). Der Video-Feed-Integrator329 regelt die Verarbeitung von Videoinformationen von ganz verschiedenen Kameratypen102 ,104 . Zum Beispiel kann die Information, die von den für IR-Licht empfindlichen Pixeln und den für sichtbares Licht empfindlichen Pixeln (z. B., RGB) erhalten wird, durch den Integrator329 getrennt und unterschiedlich verarbeitet werden. Die von den IR-Sensoren erhaltene Bildinformation kann zur Erkennung von Gesten verwendet werden, während die von den RGB-Sensoren erhaltene Bildinformation als Live-Video-Feed über die Darstellungsschnittstelle220 zur Verfügung gestellt werden kann. Die Information einer Sensorart kann verwendet werden, um die Information einer anderen Sensorart zu verbessern, zu korrigieren und/oder zu untermauern. Die Information von einer Sensorart kann bei bestimmten situationsabhängigen oder umgebungsabhängigen Bedingungen (z. B., schwaches Licht, Nebel, helles Licht und so weiter) bevorzugt werden. Die Vorrichtung kann bei der Bereitstellung einer Darstellungsausgabe, entweder automatisch oder durch Erhalt einer Benutzerauswahl, zwischen einer Art oder den anderen Arten von Bildinformation auswählen. Der Integrator329 steuert in Verbindung mit dem VR/AR-Umgebungsmanager326 die Erzeugung der Umgebung, die dem Benutzer über die Darstellungsschnittstelle220 angezeigt wird. - Die Darstellungsschnittstelle
220 , Lautsprecher309 , Mikrofone310 und die drahtlose Netzwerkschnittstelle311 können verwendet werden, um die Wechselbeziehung des Benutzers mit dem Computersystem200 über die Vorrichtung201 zu erleichtern. Diese Komponenten können einen im Allgemeinen herkömmlichen Aufbau aufweisen oder wie gewünscht modifiziert werden, um jegliche Art von Benutzerinteraktion zu gewährleisten. In einigen Ausführungsformen können die Ergebnisse der Bewegungserfassung unter Verwendung der Bewegungsdetektor- und Kameraschnittstelle306 und des mocap-Programms314 als Benutzereingaben interpretiert werden. Zum Beispiel kann ein Benutzer Handgesten oder Bewegungen über eine Oberfläche ausführen, die mit dem mocap-Programm314 analysiert werden, und die Ergebnisse dieser Analyse können als ein Befehl an ein anderes Programm, das auf dem Prozessor302 ausgeführt wird (z. B. einen Web-Browser, eine Textverarbeitung oder eine andere Anwendung), interpretiert werden. Somit kann zum Zwecke der Veranschaulichung ein Benutzer nach oben oder unten verlaufende, streichende Gesten verwenden, um in einer angezeigten Webseite, die momentan dem Benutzer der Vorrichtung201 über die Darstellungsschnittstelle220 angezeigt wird, „zu blättern” (engl. scroll), und rotierende Gesten verwenden, um die Lautstärke der Audioausgabe über die Lautsprecher309 zu erhöhen oder zu verringern, und so weiter. Ein Pfadanalysemodul324 kann den erfassten Pfad als Vektor darstellen und eine Extrapolation durchführen, um den Pfad vorherzusagen, z. B., um die Wiedergabe einer Handlung auf der Vorrichtung201 durch die Darstellungsschnittstelle220 durch Vorhersagen einer Bewegung zu verbessern. - Es versteht sich, dass das Computersystem
300 veranschaulichend ist und Änderungen und Modifikationen möglich sind. Computersysteme können in einer Vielzahl von Formfaktoren, einschließlich Server-Systemen, Desktop-Systemen, Laptop-Systemen, Tablets, Smartphones oder Minicomputer (PDA's) und so weiter, implementiert werden. Eine besondere Anwendung kann eine andere Funktionsweise, die hier nicht beschrieben ist, wie beispielsweise drahtgebundene und/oder drahtlose Netzwerkschnittstellen, Medienabspiel- und/oder -aufnahmefunktionen usw., umfassen. In einigen Ausführungsformen können eine oder mehrere Kameras und zwei oder mehre Mikrofone in den Computer eingebaut sein, anstatt sie als separate Komponenten bereitzustellen. Ferner kann eine Bild- oder Audioanalysevorrichtung implementiert werden, die nur einen Teilsatz von Computersystemkomponenten verwendet (z. B., ein Programm-Code ausführender Prozessor, ein ASIC oder ein digitaler Signalprozessor mit festen Funktionen, der geeignete I/O-Schnittstellen aufweist, um Bilddaten zu empfangen und Analyseergebnisse auszugeben). - Während das Computersystem
300 hierin mit Bezug auf bestimmte Blöcke beschrieben wurde, sollte verstanden werden, dass die Blöcke zur Vereinfachung der Beschreibung definiert wurden und nicht dazu gedacht sind, eine bestimmte physikalische Anordnung der Komponenten zu implizieren. Ferner müssen die Blöcke nicht physisch getrennten Komponenten entsprechen. Soweit physisch getrennte Komponenten verwendet werden, können Verbindungen zwischen den Komponenten (z. B. zur Datenkommunikation) je nach Bedarf drahtgebunden und/oder drahtlos sein. So kann beispielsweise die Ausführung des Objektanalysemoduls322 durch den Prozessor302 den Prozessor302 dazu veranlassen, die Bewegungsdetektor- und Kameraschnittstelle306 zu steuern, um Bilder und/oder Audiosignale eines Objekts zu erfassen, das sich über und in Kontakt mit einer Oberfläche bewegt, um dessen Aussehen durch Analysieren der Bild- und/oder Audiodaten zu detektieren. -
4 zeigt die Grundfunktionen und Funktionseinheiten400 , die bei der Bewegungserfassungs- und Bildanalyse gemäß den Ausführungsformen der vorliegenden Erfindung verwendet werden. Wie in4 gezeigt, zeichnen die Kamera(s)402 ,404 digitale Bilder410 von einer Szene auf. Jedes digitale Bild wird durch den Bildsensor der zugeordneten Kamera als ein Pixelwert-Array erfasst, und die digitalen Bilder werden – entweder im ”Roh”-Format oder nach herkömmlicher Vorverarbeitung – an einen oder mehrere Bildspeicher415 übertragen. Ein Bildspeicher (engl. frame Puffer) ist ein Teilbereich oder ein bestimmter Teilabschnitt eines flüchtigen Speichers, der einen ”Bitmap”-Bildausschnitt420 entsprechend der Pixelwerte eines Bildes, wie sie von der Kamera, die sie aufgezeichnet hat, ausgegeben werden, speichert. Die Bitmap ist im Allgemeinen konzeptionell als ein Gitter organisiert, wobei jedes Pixel ein-zu-eins oder anderweitig auf Ausgabeelemente einer Anzeige abgebildet werden. Es sollte jedoch beachtet werden, dass die Topologie (bzw. die räumliche Struktur), wie die Speicherzellen physisch in dem Bildspeicher415 organisiert sind, keine Rolle spielt und der konzeptionellen Organisation nicht direkt entsprechen muss. - Die Anzahl der Bildspeicher in einem System spiegelt im Allgemeinen die Anzahl der Bilder wieder, die gleichzeitig durch das Analysesystem oder -modul
430 , das im Nachfolgenden detaillierter beschrieben wird, analysiert werden. Kurz gesagt, analysiert das Analysemodul430 die Pixeldaten in jeder Sequenz einer Bildfolge420 , um Objekte darin zu lokalisieren und deren Bewegung über die Zeit (wie in440 angedeutet) nach zu verfolgen. Diese Analyse kann verschiedene Formen annehmen, und der die Analyse durchführende Algorithmus bestimmt, wie Pixel in den Bildausschnitten420 gehandhabt werden. Zum Beispiel kann der durch das Analysemodul430 implementierte Algorithmus die Pixel jedes Bildspeichers auf einer Zeile-für-Zeile-Basis bearbeiten – d. h., jede Zeile des Pixelrasters wird nacheinander analysiert. Andere Algorithmen können Pixel spaltenweise, in Form fliesenförmiger Flächen oder anderer geordneter Formate analysieren. - In verschiedenen Ausführungsformen wird die in einer Reihe von Kamerabildern aufgenommene Bewegung benutzt, um eine entsprechende Reihe von Ausgabebildern zur Anzeige auf der Anzeige
220 zu berechnen. Zum Beispiel können Kamerabilder einer sich bewegenden Hand durch den Prozessor302 in ein Drahtgitter oder eine andere grafische Darstellung der Hand umgewandelt werden. Alternativ können Handgesten als Eingabe interpretiert werden, um eine separate visuelle Ausgabe zu steuern; zur Veranschaulichung kann ein Benutzer nach oben oder unten gerichtete Streichgesten verwenden, um in einer Webseite oder in einem anderen Dokument, das gerade angezeigt wird, zu ”blättern”, oder seine Hand öffnen und schließen, um die Seite heran zu zoomen oder heraus zu zoomen. In jedem Fall werden die Ausgabebilder im Allgemeinen in Form von Pixeldaten in einem Bildspeicher gespeichert, z. B., einen der Bildspeicher415 . Eine Videoanzeige-Steuervorrichtung liest den Bildspeicher aus, um einen Datenstrom und zugehörige Steuersignale zur Ausgabe der Bilder an die Anordnung203 zu erzeugen. Eine von der Darstellungsschnittstelle220 bereitgestellte Videoanzeigesteuerung kann zusammen mit dem Prozessor302 und dem Speicher304 auf der Hauptplatine des Computersystems300 ausgebildet werden, und kann mit dem Prozessor302 eingebaut sein oder als Co-Prozessor, der einen separaten Videospeicher betätigt, verwendet werden. Wie erwähnt, kann das Computersystem300 mit einer separaten Grafik- oder Videokarte ausgestattet sein, die dabei helfen, die Ausgabebilderzuspielung für die Anordnung203 zu erzeugen. Eine Ausführungsform umfasst eine Videokarte, die im Allgemeinen eine Grafikverarbeitungseinheit (GPU) und einen Videospeicher aufweist, und die sich insbesondere für komplexe und rechenintensive Bildverarbeitungen und -wiedergaben eignet. Die Grafikkarte kann den Bildspeicher und die Funktionsweise der Videoanzeigesteuervorrichtung umfassen (und die auf der Platine angeordnete Videoanzeigesteuerung kann deaktiviert werden). Im Allgemeinen kann die Funktionsweise der Bildverarbeitung und Bewegungserfassung des Systems zwischen der GPU und dem Hauptprozessor302 unterschiedlich verteilt werden. - Geeignete Algorithmen für das Bewegungserfassungsprogramm
314 sind sowohl im Nachfolgen beschrieben als auch detaillierter in denUS-Seriennummern 61/587,554 13/414,485 61/724,091 13/724,357 13/742,953 - Mit erneutem Bezug auf
4 , können die Betriebsarten einer Vorrichtung, die mit einer bewegungssensorischen Steuervorrichtung ausgestattet ist, die Grobheit (bzw. Ungenauigkeit) der an das Bildanalysemodul430 bereitgestellten Daten, die Grobheit der Analyse, oder beides gemäß den Einträgen in einer Leistungsdatenbank bestimmen. Zum Beispiel kann bei einer Weitverkehrsbetriebsart das Bildanalysemodul430 auf jeden Bildausschnitt und auf alle Daten innerhalb eines Ausschnitts zugreifen, und Kapazitätsbeschränkungen können eine Analyse einer reduzierten Bilddatenmenge pro Ausschnitt (d. h., die Auflösung) vorschreiben oder einige Ausschnitte völlig verwerfen, wenn die Daten in jedem der Bildspeicher415 als eine Sequenz von Datenleitungen organisiert sind. Die Art und Weise wie Daten von der Analyse entfernt werden, hängt von dem Bildanalyse-Algorithmus oder den Verwendungen, an die die Bewegungserfassungsausgabe ausgegeben wird, ab. In einigen Ausführungsformen werden Daten auf eine symmetrische oder gleichmäßige Art und Weise entfernt – z. B., wird jede zweite Zeile, jede dritte Zeile usw. bis zu einer Toleranzgrenze des Bildanalyse-Algorithmus oder einer Anwendung, die dessen Ausgabe verwendet, verworfen. In anderen Ausführungsformen kann sich die Frequenz der Zeilenentfernung zu den Rändern des Bildausschnitts hin erhöhen. Noch andere variierbare Bilderfassungsparameter umfassen die Bildausschnittgröße, die Bildausschnittauflösung und die Anzahl der pro Sekunde erfassten Bildausschnitte. Insbesondere kann die Bildausschnittgröße beispielsweise durch Verwerfen der Kantenpixel oder durch erneutes Abtasten mit einer niedrigeren Auflösung (und unter Verwendung nur eines Teils der Bildspeicherkapazität) verringert werden. Die zur Erfassung von Bilddaten (z. B., Größe und Bildfolge und Eigenschaften) relevanten Parameter werden zusammenfassend als ”Erfassungsparameter” bezeichnet, während die für den Betrieb des Bildanalysemoduls430 (z. B. durch Definieren der Kontur eines Objekts) relevanten Parameter zusammenfassend als ”Bildanalyseparameter” bezeichnet werden. Die vorstehenden Beispiele der Erfassungsparameter und der Bildanalyseparameter sind lediglich darstellend und nicht einschränkend. - Die Erfassungsparameter können auf die Kameras
402 ,404 und/oder auf den Bildspeicher415 angewendet werden. Die Kamera402 ,404 kann beispielsweise auf die Erfassungsparameter beim Betrieb der Kameras402 ,404 ansprechen, um Bilder mit einer angeordneten Geschwindigkeit zu erfassen oder sie kann stattdessen die Anzahl der erfassten Bildausschnitte, die an den Bildspeicher415 (pro Zeiteinheit) weitergegeben werden, begrenzen. Die Bildanalyseparameter können als numerische Größen, die den Betrieb des konturdefinierenden Algorithmus beeinflussen, auf das Bildanalysemodul430 angewendet werden. - Die gewünschten Werte für die Erfassungsparameter und die Bildanalyseparameter können entsprechend eines bestimmten Werts der verfügbaren Ressourcen beispielsweise von den Eigenschaften des Bildanalysemoduls
430 , der Art der Anwendung, die die mocap-Ausgabe verwendet, und den Designpräferenzen abhängen. Während einige Bildverarbeitungsalgorithmen die Auflösung der Konturnäherung gegen die Auflösung der Bildausschnitteingabe über einen weiten Bereich abwägen können, können andere Algorithmen gar keinen Toleranzspielraum aufweisen – wobei zum Beispiel eine minimale Bildauflösung benötigt wird, bei der der gesamte Algorithmus aussetzt. - Einige Ausführungsformen können auf Virtual-Reality- oder Augmented-Reality-Anwendungen angewendet werden. Zum Beispiel und unter Bezugnahme auf
5 ist gemäß einer Ausführungsform der vorliegenden Erfindung ein System500 zum Projizieren eines Augmented-Reality Erlebnisses213 von einer virtuellen Vorrichtung mit einer Ansicht eines realen Objekts, beispielsweise einer Schreibtischfläche516 , und eines oder mehrerer virtueller Objekte (z. B. Objekt501 ) gezeigt. Das System500 umfasst ein Verarbeitungssystem206 , das eine Vielzahl von Sensoren und Projektionsmittel, wie beispielsweise eine oder mehrere Kameras102 ,104 (oder anderen Bildsensoren) und gegebenenfalls einige Beleuchtungsquellen115 ,117 , die ein Bildgebungssystem aufweisen, steuert. Gegebenenfalls kann eine Vielzahl von vibrierenden (oder akustischen) Sensoren508 ,510 enthalten sein, die angeordnet sind, um Kontakte mit dem Schreibtisch516 zu erfassen. Optionale Projektionsmittel, die von dem System206 gesteuert werden, können beispielsweise ein optionales Audioprojektionsmittel502 zur Erzeugung eines Audio-Feedbacks, ein optionales Videoprojektionsmittel504 , ein optionales haptisches Projektionsmittel506 zur Erzeugung eines haptischen Feedbacks an einen Benutzer zur Erweiterung der Realität umfassen. Für weitere Informationen über Projektionsmittel kann auf "Visio-Tactile-Projector" Youtube (https://www.youtube.com/watch?v=Bb0hNMxxewg) (aufgerufen am 15. Januar 2014) verwiesen werden. Im Betrieb werden die Sensoren und Projektionsmittel auf einen Bereich212 von Interesse gerichtet, der wenigstens einen Abschnitt eines Schreibtisches516 , oder einen leeren Raum, in dem sich ein Objekt von Interesse214 (in diesem Beispiel eine Hand) entlang der angezeigten Bahn518 bewegt, umfassen kann. Eine oder mehrere Anwendungen521 und522 können als virtuelle Objekte, die in der Anzeige der erweiterten Realität213 integriert sind, vorgesehen sein. Dementsprechend kann der Benutzer (z. B. der Besitzer der Hand214 ) mit den realen Objekten, z. B., Schreibtisch516 , Cola517 , interagieren, die sich in der gleichen Umgebung wie die virtuellen Objekte501 befinden. - In einigen Ausführungsformen wird eine virtuelle Vorrichtung zu dem Benutzer projiziert. Die Projektion kann ein Bild oder eine andere visuelle Darstellung eines Objekts enthalten. Zum Beispiel kann mit Bezug auf
5 ein visueller Projektionsmechanismus504 ein Bild einer Seite (z. B., ein virtuelle Vorrichtung501 ) von einem Buch in eine Augmented-Reality-Umgebung213 eines Lesers (z. B., Flächenabschnitt516 und/oder Umgebungsraum212 ) projizieren, wodurch ein virtuelles Erlebnis des Lesens eines Buches selbst, oder eines elektronisches Buches auf einem physischen E-Reader erzeugt wird, auch wenn auch kein Buch oder E-Reader vorhanden ist. In einigen Ausführungsformen kann ein haptisches Projektionsmittel506 das Gefühl der Textur des ”virtuellen Papiers” des Buches auf die Finger des Lesers projizieren bzw. übertragen. In einigen Ausführungsformen kann ein Audio-Projektionsmittel502 den Klang des Seitenumblätterns in Reaktion auf das Detektieren, dass der Leser eine Streifbewegung zum Umblättern der Seite durchgeführt hat, projizieren. - ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- US 61/587554 [0053]
- US 13/414485 [0053]
- US 61724091 [0053]
- US 13/724357 [0053]
- US 13742953 [0053]
- Zitierte Nicht-Patentliteratur
-
- ”Die Multilateration ist eine Navigationstechnik auf der Grundlage der Messung in der Entfernung zu zwei Stationen an bekannten Positionen, die Signale zu bekannten Zeitpunkten übertragen.” Siehe Wikipedia, unter http://en.wikipedia.org/w/index.php?title=Multilateration&oldid=523281858, aufgerufen am 16. November 2012, um 06:07 UTC [0046]
- ”Visio-Tactile-Projector” Youtube (https://www.youtube.com/watch?v=Bb0hNMxxewg) (aufgerufen am 15. Januar 2014) [0057]
Claims (17)
- Bewegungssensorische und bildgebende Vorrichtung, umfassend: eine Vielzahl bildgebender Sensoren, die angeordnet ist, um stereoskopische Bildinformationen einer betrachteten Szene bereitzustellen; eine oder mehr über den Bildsensoren angeordnete Beleuchtungsquellen; und eine Steuerung, die an die bildgebenden Sensoren und die Beleuchtungsquellen gekoppelt ist, um deren Betrieb zu steuern, Bildinformationen einer Szene zu erhalten und wenigstens eine nahezu Echtzeit-Weiterleitung von Bildinformationen an einen Benutzer bereitzustellen.
- Vorrichtung nach Anspruch 1, wobei die Steuerung ferner umfasst: Erfassen von Bildinformationen zur Steuerung von Objekten im Blickfeld der Bildsensoren; wobei die Bildinformationen zur Steuerung von Objekten von Interesse verwendet werden, um eine Information über Gesten zu ermitteln, die einen Befehl an ein gesteuertes Gerät anzeigt.
- Vorrichtung nach Anspruch 2, wobei das Erfassen ferner umfasst: Trennen einer Information, die von IR-lichtempfindlichen Pixeln empfangen werden, von einer Information, die von Pixeln empfangen werden, die für sichtbares Licht (z. B., RGB) empfindlich sind; Verarbeiten der Bildinformationen von IR-Sensoren, die für die Gestenerkennung verwendet werden; und Verarbeiten von Bildinformationen von RGB-Sensoren, die als Live-Video-Feed über eine Darstellungsschnittstelle zur Verfügung gestellt werden.
- Vorrichtung nach Anspruch 3, wobei das Verarbeiten von Bildinformationen von den RGB-Sensoren ferner umfasst: Extrahieren von groben Merkmalen eines Realwelt-Raums unter Verwendung der RGB-Pixel, die jeweils rote, grüne und blaue Komponenten der Beleuchtung in der Szene erfassen.
- Vorrichtung nach Anspruch 3, wobei das Verarbeiten von Bildinformationen von den IR-Sensoren ferner umfasst: Extrahieren von feinen Merkmalen eines Realwelt-Raums unter Verwendung der IR-Pixel, die Infrarotkomponenten der Beleuchtung in der Szene erfassen.
- Vorrichtung nach Anspruch 5, wobei die feinen Merkmale des Realwelt-Raums eine Oberflächenstruktur des Realwelt-Raums umfasst.
- Vorrichtung nach Anspruch 5, wobei die feinen Merkmale des Realwelt-Raums Kanten des Realwelt-Raums umfassen.
- Vorrichtung nach Anspruch 5, wobei die feinen Merkmale des Realwelt-Raums Krümmungen des Realwelt-Raums umfassen.
- Vorrichtung nach Anspruch 5, wobei die feinen Merkmale des Realwelt-Raums eine Oberflächenstruktur von Objekten in dem Realwelt-Raum umfassen.
- Vorrichtung nach Anspruch 5, wobei die feinen Merkmale des Realwelt-Raums Kanten von Objekten in dem Realwelt-Raum umfassen.
- Vorrichtung nach Anspruch 5, wobei die feinen Merkmale des Realwelt-Raums Krümmungen von Objekten in dem Realwelt-Raum umfassen.
- Vorrichtung nach Anspruch 1, wobei die Steuerung ferner umfasst: Bestimmen von Umgebungslichtbedingungen; und Einstellen der Ausgabeanzeige auf der Grundlage der ermittelten Bedingungen; Bestimmen einer ersten und einer zweiten Positionsinformation des Sensors in Bezug auf einen festen Punkt zu einem ersten und zweiten Zeitpunkt.
- Vorrichtung nach Anspruch 1, ferner umfassend: einen Bewegungssensor; und wobei die Steuerung ferner umfasst: Bestimmen einer Differenzinformation zwischen einer ersten und einer zweiten Positionsinformationen von dem Bewegungssensor; und Berechnen einer Bewegungsinformation für die Vorrichtung in Bezug auf einen festen Punkt auf der Grundlage der Differenzinformation.
- Vorrichtung nach Anspruch 1, ferner umfassend: ein oder mehrere Verbindungselemente zur Befestigung der Bildsensoren und der Beleuchtungsquellen an einer Montagefläche in einer tragbaren Darstellungsvorrichtung.
- Vorrichtung nach Anspruch 1, ferner umfassend: ein oder mehrere Verbindungselemente zur Befestigung der Bildsensoren und der Beleuchtungsquellen in einem Hohlraum in einer tragbaren Darstellungsvorrichtung.
- Vorrichtung nach Anspruch 1, ferner umfassend: ein oder mehrere Verbindungselemente zur Befestigung der Bildsensoren und der Beleuchtungsquellen an einer Montagefläche in einer transportierbaren Darstellungsvorrichtung.
- Vorrichtung nach Anspruch 1, ferner umfassend: ein oder mehrere Verbindungselemente zur Befestigung der Bildsensoren und der Beleuchtungsquellen in einem Hohlraum in einer transportierbaren Darstellungsvorrichtung.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201462035008P | 2014-08-08 | 2014-08-08 | |
US62/035,008 | 2014-08-08 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE202014103729U1 true DE202014103729U1 (de) | 2014-09-09 |
Family
ID=51618846
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE202014103729.2U Expired - Lifetime DE202014103729U1 (de) | 2014-08-08 | 2014-08-12 | Augmented-Reality mit Bewegungserfassung |
Country Status (4)
Country | Link |
---|---|
US (5) | US10349036B2 (de) |
JP (1) | JP2016038889A (de) |
CN (1) | CN204480228U (de) |
DE (1) | DE202014103729U1 (de) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3179338A1 (de) * | 2015-12-11 | 2017-06-14 | Tata Consultancy Services Ltd. | Auf hybrider realität basierte objektinteraktion und steuerung |
EP3234685A4 (de) * | 2014-12-18 | 2018-06-13 | Facebook, Inc. | System, vorrichtung und verfahren zur bereitstellung einer benutzerschnittstelle für eine virtuelle realität |
Families Citing this family (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9857919B2 (en) * | 2012-05-17 | 2018-01-02 | Hong Kong Applied Science And Technology Research | Wearable device with intelligent user-input interface |
US10295338B2 (en) | 2013-07-12 | 2019-05-21 | Magic Leap, Inc. | Method and system for generating map data from an image |
US10007329B1 (en) | 2014-02-11 | 2018-06-26 | Leap Motion, Inc. | Drift cancelation for portable object detection and tracking |
US9754167B1 (en) | 2014-04-17 | 2017-09-05 | Leap Motion, Inc. | Safety for wearable virtual reality devices via object detection and tracking |
US10007350B1 (en) | 2014-06-26 | 2018-06-26 | Leap Motion, Inc. | Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments |
CN204480228U (zh) | 2014-08-08 | 2015-07-15 | 厉动公司 | 运动感测和成像设备 |
US9407865B1 (en) | 2015-01-21 | 2016-08-02 | Microsoft Technology Licensing, Llc | Shared scene mesh data synchronization |
US10616561B2 (en) * | 2015-09-03 | 2020-04-07 | Inuitive Ltd. | Method and apparatus for generating a 3-D image |
CN105657494B (zh) * | 2015-12-31 | 2018-12-25 | 北京小鸟看看科技有限公司 | 一种虚拟影院及其实现方法 |
US10908694B2 (en) * | 2016-02-01 | 2021-02-02 | Microsoft Technology Licensing, Llc | Object motion tracking with remote device |
US10067636B2 (en) * | 2016-02-09 | 2018-09-04 | Unity IPR ApS | Systems and methods for a virtual reality editor |
JP2019113882A (ja) | 2016-03-23 | 2019-07-11 | 株式会社ソニー・インタラクティブエンタテインメント | 頭部装着装置 |
CN108139799B (zh) * | 2016-04-22 | 2022-01-14 | 深圳市大疆创新科技有限公司 | 基于用户的兴趣区(roi)处理图像数据的系统和方法 |
US20180005437A1 (en) * | 2016-06-30 | 2018-01-04 | Glen J. Anderson | Virtual manipulator rendering |
CN106228614A (zh) * | 2016-07-29 | 2016-12-14 | 宇龙计算机通信科技(深圳)有限公司 | 一种场景再现方法和装置 |
JP6857980B2 (ja) | 2016-08-02 | 2021-04-14 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法およびプログラム |
CA3032812A1 (en) | 2016-08-04 | 2018-02-08 | Reification Inc. | Methods for simultaneous localization and mapping (slam) and related apparatus and systems |
US9983687B1 (en) * | 2017-01-06 | 2018-05-29 | Adtile Technologies Inc. | Gesture-controlled augmented reality experience using a mobile communications device |
US10482900B2 (en) | 2017-01-18 | 2019-11-19 | Microsoft Technology Licensing, Llc | Organization of signal segments supporting sensed features |
US10679669B2 (en) | 2017-01-18 | 2020-06-09 | Microsoft Technology Licensing, Llc | Automatic narration of signal segment |
US10635981B2 (en) | 2017-01-18 | 2020-04-28 | Microsoft Technology Licensing, Llc | Automated movement orchestration |
US10437884B2 (en) | 2017-01-18 | 2019-10-08 | Microsoft Technology Licensing, Llc | Navigation of computer-navigable physical feature graph |
US11094212B2 (en) | 2017-01-18 | 2021-08-17 | Microsoft Technology Licensing, Llc | Sharing signal segments of physical graph |
US10637814B2 (en) | 2017-01-18 | 2020-04-28 | Microsoft Technology Licensing, Llc | Communication routing based on physical status |
US10606814B2 (en) | 2017-01-18 | 2020-03-31 | Microsoft Technology Licensing, Llc | Computer-aided tracking of physical entities |
FR3062488B1 (fr) * | 2017-02-01 | 2020-12-25 | Peugeot Citroen Automobiles Sa | Dispositif d'analyse pour la determination d'un temps de latence d'un systeme immersif de realite virtuelle |
CN108399633A (zh) * | 2017-02-06 | 2018-08-14 | 罗伯团队家居有限公司 | 用于立体视觉的方法和装置 |
US10401954B2 (en) * | 2017-04-17 | 2019-09-03 | Intel Corporation | Sensory enhanced augmented reality and virtual reality device |
CN107095384B (zh) * | 2017-04-26 | 2023-11-24 | 左志权 | 一种基于wifi传输的智能消防头盔装置 |
US11480790B2 (en) * | 2017-06-14 | 2022-10-25 | Hewlett-Packard Development Company, L.P. | Display adjustments |
WO2018236601A1 (en) * | 2017-06-19 | 2018-12-27 | Get Attached, Inc. | EXPLORING DIGITAL MEDIA BASED ON AUTOMATIC DIGITAL MEDIA INTERACTION CONTEXT AND FEEDBACK INTERACTION |
US11127212B1 (en) * | 2017-08-24 | 2021-09-21 | Sean Asher Wilens | Method of projecting virtual reality imagery for augmenting real world objects and surfaces |
US11128783B2 (en) * | 2018-03-07 | 2021-09-21 | Disney Enterprises, Inc. | Systems and methods for tracking objects in a field of view |
US11189054B2 (en) * | 2018-09-28 | 2021-11-30 | Apple Inc. | Localization and mapping using images from multiple devices |
KR20200098034A (ko) | 2019-02-11 | 2020-08-20 | 삼성전자주식회사 | 가상 현실 유저 인터페이스를 제공하기 위한 전자 장치 및 그의 동작 방법 |
TW202141120A (zh) * | 2020-02-19 | 2021-11-01 | 美商海思智財控股有限公司 | 具可調整影像感測模組的頭戴式裝置及其系統 |
EP3984016A4 (de) | 2020-08-14 | 2023-09-06 | HES IP Holdings, LLC | Systeme und verfahren zur überlagerung von virtuellen bildern auf echtzeitbildern |
CN114616511A (zh) | 2020-09-03 | 2022-06-10 | 海思智财控股有限公司 | 改善双眼视觉的系统与方法 |
CN116420104A (zh) | 2020-09-30 | 2023-07-11 | 海思智财控股有限公司 | 用于虚拟实境及扩增实境装置的虚拟影像显示系统 |
EP4244821A1 (de) * | 2020-11-10 | 2023-09-20 | Noderix Teknoloji Sanayi Ticaret Anonim Sirketi | Systeme und verfahren für personalisierte und interaktive erfahrungen mit erweiterter realität |
US11556169B2 (en) * | 2021-02-11 | 2023-01-17 | Meta Platforms Technologies, Llc | Adaptable personal user interfaces in cross-application virtual reality settings |
US20230107097A1 (en) * | 2021-10-06 | 2023-04-06 | Fotonation Limited | Method for identifying a gesture |
WO2023235519A1 (en) * | 2022-06-03 | 2023-12-07 | Datasya Ltd. | Interactive multimedia collaboration platform with remote-controlled camera and annotation |
CN115630131B (zh) * | 2022-12-19 | 2023-04-07 | 北京码牛科技股份有限公司 | 一种轨迹数据时空切片方法、系统及电子设备 |
Family Cites Families (514)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US2665041A (en) | 1952-01-09 | 1954-01-05 | Daniel J Maffucci | Combination form for washing woolen socks |
US4175862A (en) | 1975-08-27 | 1979-11-27 | Solid Photography Inc. | Arrangement for sensing the geometric characteristics of an object |
US4879659A (en) | 1987-11-24 | 1989-11-07 | Bowlin William P | Log processing systems |
US4876455A (en) | 1988-02-25 | 1989-10-24 | Westinghouse Electric Corp. | Fiber optic solder joint inspection system |
US4893223A (en) | 1989-01-10 | 1990-01-09 | Northern Telecom Limited | Illumination devices for inspection systems |
DE8915535U1 (de) | 1989-03-02 | 1990-10-25 | Fa. Carl Zeiss, 7920 Heidenheim, De | |
JPH076782B2 (ja) | 1989-03-10 | 1995-01-30 | 工業技術院長 | 物体の形状測定方法及び装置 |
US5134661A (en) | 1991-03-04 | 1992-07-28 | Reinsch Roger A | Method of capture and analysis of digitized image data |
US5282067A (en) | 1991-10-07 | 1994-01-25 | California Institute Of Technology | Self-amplified optical pattern recognition system |
DE4201934A1 (de) | 1992-01-24 | 1993-07-29 | Siemens Ag | Gestik computer |
US6184326B1 (en) | 1992-03-20 | 2001-02-06 | Fina Technology, Inc. | Syndiotactic polypropylene |
US7983817B2 (en) | 1995-06-07 | 2011-07-19 | Automotive Technologies Internatinoal, Inc. | Method and arrangement for obtaining information about vehicle occupants |
JP3244798B2 (ja) | 1992-09-08 | 2002-01-07 | 株式会社東芝 | 動画像処理装置 |
WO1994017636A1 (en) | 1993-01-29 | 1994-08-04 | Bell Communications Research, Inc. | Automatic tracking camera control system |
AU6577194A (en) | 1993-04-29 | 1994-11-21 | Scientific Generics Limited | Background separation for still and moving images |
US5454043A (en) | 1993-07-30 | 1995-09-26 | Mitsubishi Electric Research Laboratories, Inc. | Dynamic and static hand gesture recognition through low-level image analysis |
US6061064A (en) | 1993-08-31 | 2000-05-09 | Sun Microsystems, Inc. | System and method for providing and using a computer user interface with a view space having discrete portions |
JPH0795561A (ja) | 1993-09-21 | 1995-04-07 | Sony Corp | 展示物説明システム |
US5659475A (en) | 1994-03-17 | 1997-08-19 | Brown; Daniel M. | Electronic air traffic control system for use in airport towers |
US5594469A (en) | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
US5900863A (en) | 1995-03-16 | 1999-05-04 | Kabushiki Kaisha Toshiba | Method and apparatus for controlling computer without touching input device |
JP3737537B2 (ja) | 1995-03-22 | 2006-01-18 | 帝人ファイバー株式会社 | 画像処理用照明手段の劣化検出方法 |
GB2301216A (en) | 1995-05-25 | 1996-11-27 | Philips Electronics Uk Ltd | Display headset |
IL114838A0 (en) | 1995-08-04 | 1996-11-14 | Spiegel Ehud | Apparatus and method for object tracking |
US5574511A (en) | 1995-10-18 | 1996-11-12 | Polaroid Corporation | Background replacement for an image |
US5742263A (en) | 1995-12-18 | 1998-04-21 | Telxon Corporation | Head tracking system for a head mounted display system |
JPH09259278A (ja) | 1996-03-25 | 1997-10-03 | Matsushita Electric Ind Co Ltd | 画像処理装置 |
US6002808A (en) | 1996-07-26 | 1999-12-14 | Mitsubishi Electric Information Technology Center America, Inc. | Hand gesture control system |
US6184926B1 (en) | 1996-11-26 | 2001-02-06 | Ncr Corporation | System and method for detecting a human face in uncontrolled environments |
JP3438855B2 (ja) | 1997-01-23 | 2003-08-18 | 横河電機株式会社 | 共焦点装置 |
US6492986B1 (en) | 1997-06-02 | 2002-12-10 | The Trustees Of The University Of Pennsylvania | Method for human face shape and motion estimation based on integrating optical flow and deformable models |
US6075895A (en) | 1997-06-20 | 2000-06-13 | Holoplex | Methods and apparatus for gesture recognition based on templates |
US6252598B1 (en) | 1997-07-03 | 2001-06-26 | Lucent Technologies Inc. | Video hand image computer interface |
US6720949B1 (en) | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
US6263091B1 (en) | 1997-08-22 | 2001-07-17 | International Business Machines Corporation | System and method for identifying foreground and background portions of digitized images |
US6072494A (en) | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
US6181343B1 (en) | 1997-12-23 | 2001-01-30 | Philips Electronics North America Corp. | System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs |
US6195104B1 (en) | 1997-12-23 | 2001-02-27 | Philips Electronics North America Corp. | System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs |
US6031161A (en) | 1998-02-04 | 2000-02-29 | Dekalb Genetics Corporation | Inbred corn plant GM9215 and seeds thereof |
US6154558A (en) | 1998-04-22 | 2000-11-28 | Hsieh; Kuan-Hong | Intention identification method |
US6421453B1 (en) | 1998-05-15 | 2002-07-16 | International Business Machines Corporation | Apparatus and methods for user recognition employing behavioral passwords |
JP2000023038A (ja) | 1998-06-30 | 2000-01-21 | Toshiba Corp | 画像抽出装置 |
US6493041B1 (en) | 1998-06-30 | 2002-12-10 | Sun Microsystems, Inc. | Method and apparatus for the detection of motion in video |
US7036094B1 (en) | 1998-08-10 | 2006-04-25 | Cybernet Systems Corporation | Behavior recognition system |
US6950534B2 (en) | 1998-08-10 | 2005-09-27 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
JP4016526B2 (ja) | 1998-09-08 | 2007-12-05 | 富士ゼロックス株式会社 | 3次元物体識別装置 |
US6501515B1 (en) | 1998-10-13 | 2002-12-31 | Sony Corporation | Remote control system |
US6594632B1 (en) | 1998-11-02 | 2003-07-15 | Ncr Corporation | Methods and apparatus for hands-free operation of a voice recognition system |
US7483049B2 (en) | 1998-11-20 | 2009-01-27 | Aman James A | Optimizations for live event, real-time, 3D object tracking |
US6661918B1 (en) | 1998-12-04 | 2003-12-09 | Interval Research Corporation | Background estimation and segmentation based on range and color |
US6204852B1 (en) | 1998-12-09 | 2001-03-20 | Lucent Technologies Inc. | Video hand image three-dimensional computer interface |
US6147678A (en) | 1998-12-09 | 2000-11-14 | Lucent Technologies Inc. | Video hand image-three-dimensional computer interface with multiple degrees of freedom |
US6578203B1 (en) | 1999-03-08 | 2003-06-10 | Tazwell L. Anderson, Jr. | Audio/video signal distribution system for head mounted displays |
US6993157B1 (en) | 1999-05-18 | 2006-01-31 | Sanyo Electric Co., Ltd. | Dynamic image processing method and device and medium |
US6804656B1 (en) | 1999-06-23 | 2004-10-12 | Visicu, Inc. | System and method for providing continuous, expert network critical care services from a remote location(s) |
US6346933B1 (en) | 1999-09-21 | 2002-02-12 | Seiko Epson Corporation | Interactive display presentation system |
US6734911B1 (en) | 1999-09-30 | 2004-05-11 | Koninklijke Philips Electronics N.V. | Tracking camera using a lens that generates both wide-angle and narrow-angle views |
JP4332964B2 (ja) | 1999-12-21 | 2009-09-16 | ソニー株式会社 | 情報入出力システム及び情報入出力方法 |
US6738424B1 (en) | 1999-12-27 | 2004-05-18 | Objectvideo, Inc. | Scene model generation from video for use in video processing |
US6771294B1 (en) | 1999-12-29 | 2004-08-03 | Petri Pulli | User interface |
GB2358098A (en) | 2000-01-06 | 2001-07-11 | Sharp Kk | Method of segmenting a pixelled image |
US6674877B1 (en) | 2000-02-03 | 2004-01-06 | Microsoft Corporation | System and method for visually tracking occluded objects in real time |
US6965113B2 (en) | 2000-02-10 | 2005-11-15 | Evotec Ag | Fluorescence intensity multiple distributions analysis: concurrent determination of diffusion times and molecular brightness |
US6798628B1 (en) | 2000-11-17 | 2004-09-28 | Pass & Seymour, Inc. | Arc fault circuit detector having two arc fault detection levels |
US6463402B1 (en) | 2000-03-06 | 2002-10-08 | Ralph W. Bennett | Infeed log scanning for lumber optimization |
CA2406124A1 (en) | 2000-04-21 | 2001-11-22 | Lawrence E. Albertelli | Wide-field extended-depth doubly telecentric catadioptric optical system for digital imaging |
AU2001275308A1 (en) | 2000-06-06 | 2001-12-17 | Frauenhofer Institut Fuer Graphische Datenverarbeitung | The extended virtual table: an optical extension for table-like projection systems |
US6417970B1 (en) | 2000-06-08 | 2002-07-09 | Interactive Imaging Systems | Two stage optical system for head mounted display |
JP4040825B2 (ja) | 2000-06-12 | 2008-01-30 | 富士フイルム株式会社 | 画像撮像装置及び距離測定方法 |
ES2396587T3 (es) | 2000-07-05 | 2013-02-22 | Smart Technologies Ulc | Método y aparato táctil en base a cámara |
US7227526B2 (en) | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
US6850872B1 (en) | 2000-08-30 | 2005-02-01 | Microsoft Corporation | Facial image processing methods and systems |
US6901170B1 (en) | 2000-09-05 | 2005-05-31 | Fuji Xerox Co., Ltd. | Image processing device and recording medium |
US20020105484A1 (en) | 2000-09-25 | 2002-08-08 | Nassir Navab | System and method for calibrating a monocular optical see-through head-mounted display system for augmented reality |
JP4483067B2 (ja) | 2000-10-24 | 2010-06-16 | 沖電気工業株式会社 | 対象物体抽出画像処理装置 |
US8042740B2 (en) | 2000-11-24 | 2011-10-25 | Metrologic Instruments, Inc. | Method of reading bar code symbols on objects at a point-of-sale station by passing said objects through a complex of stationary coplanar illumination and imaging planes projected into a 3D imaging volume |
US6774869B2 (en) | 2000-12-22 | 2004-08-10 | Board Of Trustees Operating Michigan State University | Teleportal face-to-face system |
EP1444654A2 (de) | 2001-03-08 | 2004-08-11 | Universite Joseph Fourier | Quantitative analyse, visualisierung und bewegungskorrektur in dynamischen prozessen |
US7542586B2 (en) | 2001-03-13 | 2009-06-02 | Johnson Raymond C | Touchless identification system for monitoring hand washing or application of a disinfectant |
US6814656B2 (en) | 2001-03-20 | 2004-11-09 | Luis J. Rodriguez | Surface treatment disks for rotary tools |
DE50207722D1 (de) | 2001-03-20 | 2006-09-14 | Thomson Licensing | Element zur kombinierten symmetrisierung und homogenisierung eines strahlenbündels |
US7009773B2 (en) | 2001-05-23 | 2006-03-07 | Research Foundation Of The University Of Central Florida, Inc. | Compact microlenslet arrays imager |
US6919880B2 (en) | 2001-06-01 | 2005-07-19 | Smart Technologies Inc. | Calibrating camera offsets to facilitate object position determination using triangulation |
US8035612B2 (en) | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
US20030123703A1 (en) | 2001-06-29 | 2003-07-03 | Honeywell International Inc. | Method for monitoring a moving object and system regarding same |
US20030053659A1 (en) | 2001-06-29 | 2003-03-20 | Honeywell International Inc. | Moving object assessment system and method |
US20030053658A1 (en) | 2001-06-29 | 2003-03-20 | Honeywell International Inc. | Surveillance system and methods regarding same |
US20040125228A1 (en) | 2001-07-25 | 2004-07-01 | Robert Dougherty | Apparatus and method for determining the range of remote objects |
US6999126B2 (en) | 2001-09-17 | 2006-02-14 | Mazzapica C Douglas | Method of eliminating hot spot in digital photograph |
US6937742B2 (en) | 2001-09-28 | 2005-08-30 | Bellsouth Intellectual Property Corporation | Gesture activated home appliance |
US7213707B2 (en) | 2001-12-11 | 2007-05-08 | Walgreen Co. | Product shipping and display carton |
US6804654B2 (en) | 2002-02-11 | 2004-10-12 | Telemanager Technologies, Inc. | System and method for providing prescription services using voice recognition |
US7215828B2 (en) | 2002-02-13 | 2007-05-08 | Eastman Kodak Company | Method and system for determining image orientation |
WO2003071410A2 (en) | 2002-02-15 | 2003-08-28 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
JP2003256814A (ja) | 2002-02-27 | 2003-09-12 | Olympus Optical Co Ltd | 基板検査装置 |
MXPA04008749A (es) | 2002-03-08 | 2005-09-08 | Revelations In Design Lp | Aparato de control de dispositivo electrico. |
DE10213643A1 (de) | 2002-03-27 | 2003-10-09 | Geka Brush Gmbh | Kosmetikeinheit |
US7120297B2 (en) | 2002-04-25 | 2006-10-10 | Microsoft Corporation | Segmented layered image system |
US7646372B2 (en) | 2003-09-15 | 2010-01-12 | Sony Computer Entertainment Inc. | Methods and systems for enabling direction detection when interfacing with a computer program |
US8570378B2 (en) | 2002-07-27 | 2013-10-29 | Sony Computer Entertainment Inc. | Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera |
US7760248B2 (en) | 2002-07-27 | 2010-07-20 | Sony Computer Entertainment Inc. | Selective sound source listening in conjunction with computer interactive processing |
US7046924B2 (en) | 2002-11-25 | 2006-05-16 | Eastman Kodak Company | Method and computer program product for determining an area of importance in an image using eye monitoring information |
US7400344B2 (en) | 2002-12-19 | 2008-07-15 | Hitachi Kokusai Electric Inc. | Object tracking method and object tracking apparatus |
GB2398469B (en) | 2003-02-12 | 2005-10-26 | Canon Europa Nv | Image processing apparatus |
JP2004246252A (ja) | 2003-02-17 | 2004-09-02 | Takenaka Komuten Co Ltd | 画像情報収集装置及び方法 |
US7257237B1 (en) | 2003-03-07 | 2007-08-14 | Sandia Corporation | Real time markerless motion tracking using linked kinematic chains |
US7532206B2 (en) | 2003-03-11 | 2009-05-12 | Smart Technologies Ulc | System and method for differentiating between pointers used to contact touch surface |
US7738725B2 (en) | 2003-03-19 | 2010-06-15 | Mitsubishi Electric Research Laboratories, Inc. | Stylized rendering using a multi-flash camera |
US7665041B2 (en) | 2003-03-25 | 2010-02-16 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
DE602004006190T8 (de) | 2003-03-31 | 2008-04-10 | Honda Motor Co., Ltd. | Vorrichtung, Verfahren und Programm zur Gestenerkennung |
WO2004104566A1 (de) | 2003-05-19 | 2004-12-02 | Micro-Epsilon Messtechnik Gmbh & Co. Kg | Verfahren und vorrichtung zur optischen qualitätsprüfung von objekten mit vorzugsweise kreisförmig umlaufendem rand |
US8072470B2 (en) | 2003-05-29 | 2011-12-06 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
DE10326035B4 (de) | 2003-06-10 | 2005-12-22 | Hema Electronic Gmbh | Verfahren zur adaptiven Fehlererkennung auf einer strukturierten Oberfläche |
US7492934B2 (en) | 2003-06-17 | 2009-02-17 | Brown University | Methods and apparatus for model-based detection of structure in view data |
US7606417B2 (en) | 2004-08-16 | 2009-10-20 | Fotonation Vision Limited | Foreground/background segmentation in digital images with differential exposure calculations |
US7244233B2 (en) | 2003-07-29 | 2007-07-17 | Ntd Laboratories, Inc. | System and method for utilizing shape analysis to assess fetal abnormality |
US7633633B2 (en) | 2003-08-29 | 2009-12-15 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Position determination that is responsive to a retro-reflective object |
WO2005041579A2 (en) | 2003-10-24 | 2005-05-06 | Reactrix Systems, Inc. | Method and system for processing captured image information in an interactive video display system |
GB2407635B (en) | 2003-10-31 | 2006-07-12 | Hewlett Packard Development Co | Improvements in and relating to camera control |
JP4162095B2 (ja) | 2003-12-11 | 2008-10-08 | ストライダー ラブス,インコーポレイテッド | 遮蔽された部分の表面を対称性の算出により見込み復元するための技術 |
US7217913B2 (en) | 2003-12-18 | 2007-05-15 | Micron Technology, Inc. | Method and system for wavelength-dependent imaging and detection using a hybrid filter |
US7184022B2 (en) | 2004-01-16 | 2007-02-27 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Position determination and motion tracking |
US7663689B2 (en) | 2004-01-16 | 2010-02-16 | Sony Computer Entertainment Inc. | Method and apparatus for optimizing capture device settings through depth information |
US7707039B2 (en) | 2004-02-15 | 2010-04-27 | Exbiblio B.V. | Automatic modification of web pages |
US8872914B2 (en) | 2004-02-04 | 2014-10-28 | Acushnet Company | One camera stereo system |
US7812860B2 (en) | 2004-04-01 | 2010-10-12 | Exbiblio B.V. | Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device |
EP1599033A4 (de) | 2004-02-18 | 2008-02-13 | Matsushita Electric Ind Co Ltd | Bildkorrekturverfahren und bildkorrekturvorrichtung |
JP4419603B2 (ja) | 2004-02-25 | 2010-02-24 | 日本電気株式会社 | 液晶表示装置の駆動方法 |
JP2005277445A (ja) | 2004-03-22 | 2005-10-06 | Fuji Xerox Co Ltd | 会議映像処理装置、会議映像処理方法およびプログラム |
DE102004015785B4 (de) | 2004-03-25 | 2012-06-06 | Sikora Ag | Verfahren zur Bestimmung der Abmessung eines Querschnitts eines Flachkabels oder eines Sektorleiters |
US7325735B2 (en) | 2004-04-02 | 2008-02-05 | K-Nfb Reading Technology, Inc. | Directed reading mode for portable reading machine |
US7379563B2 (en) | 2004-04-15 | 2008-05-27 | Gesturetek, Inc. | Tracking bimanual movements |
JP4751032B2 (ja) | 2004-04-22 | 2011-08-17 | 株式会社森精機製作所 | 変位検出装置 |
US7308112B2 (en) | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
US7519223B2 (en) | 2004-06-28 | 2009-04-14 | Microsoft Corporation | Recognizing gestures and using gestures for interacting with software applications |
JP2008505383A (ja) | 2004-06-29 | 2008-02-21 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 個人ジェスチャ署名 |
US7743348B2 (en) | 2004-06-30 | 2010-06-22 | Microsoft Corporation | Using physical objects to adjust attributes of an interactive display application |
JP4916096B2 (ja) | 2004-07-01 | 2012-04-11 | イビデン株式会社 | 光通信用デバイス |
US20060017720A1 (en) | 2004-07-15 | 2006-01-26 | Li You F | System and method for 3D measurement and surface reconstruction |
US7576767B2 (en) | 2004-07-26 | 2009-08-18 | Geo Semiconductors Inc. | Panoramic vision system and method |
WO2006020846A2 (en) | 2004-08-11 | 2006-02-23 | THE GOVERNMENT OF THE UNITED STATES OF AMERICA as represented by THE SECRETARY OF THE NAVY Naval Research Laboratory | Simulated locomotion method and apparatus |
EP1645944B1 (de) | 2004-10-05 | 2012-08-15 | Sony France S.A. | Eine Inhalt-Verwaltungsschnittstelle |
US7706571B2 (en) | 2004-10-13 | 2010-04-27 | Sarnoff Corporation | Flexible layer tracking with weak online appearance model |
GB2419433A (en) | 2004-10-20 | 2006-04-26 | Glasgow School Of Art | Automated Gesture Recognition |
AU2005309950B2 (en) | 2004-11-24 | 2011-04-21 | Battelle Memorial Institute | Optical system for cell imaging |
WO2006074310A2 (en) | 2005-01-07 | 2006-07-13 | Gesturetek, Inc. | Creating 3d images of objects by illuminating with infrared patterns |
CN101536494B (zh) | 2005-02-08 | 2017-04-26 | 奥布隆工业有限公司 | 用于基于姿势的控制系统的系统和方法 |
KR20070119018A (ko) | 2005-02-23 | 2007-12-18 | 크레이그 써머스 | 3d 카메라 및 3d비디오를 위한 자동 씬 모델링 |
EP1851606A1 (de) | 2005-02-24 | 2007-11-07 | Nokia Corporation | Bewegungseingabegerät für ein datenverarbeitungsterminal und betriebsverfahren dafür |
US7715589B2 (en) | 2005-03-07 | 2010-05-11 | Massachusetts Institute Of Technology | Occluding contour detection and storage for digital photography |
JP4678487B2 (ja) | 2005-03-15 | 2011-04-27 | オムロン株式会社 | 画像処理システム、画像処理装置および方法、記録媒体、並びにプログラム |
US20060239921A1 (en) | 2005-04-26 | 2006-10-26 | Novadaq Technologies Inc. | Real time vascular imaging during solid organ transplant |
US8185176B2 (en) | 2005-04-26 | 2012-05-22 | Novadaq Technologies, Inc. | Method and apparatus for vasculature visualization with applications in neurosurgery and neurology |
WO2006118076A1 (ja) | 2005-04-28 | 2006-11-09 | Aisin Seiki Kabushiki Kaisha | 車両周辺監視システム |
JP2006323212A (ja) | 2005-05-19 | 2006-11-30 | Konica Minolta Photo Imaging Inc | レンズユニット、およびそれを備えた撮像装置 |
US7613363B2 (en) | 2005-06-23 | 2009-11-03 | Microsoft Corp. | Image superresolution through edge extraction and contrast enhancement |
CN101208594B (zh) | 2005-07-08 | 2010-10-13 | 伊雷克托科学工业股份有限公司 | 光源的平面阵列所发射的收敛光线的获得 |
KR101019569B1 (ko) | 2005-08-29 | 2011-03-08 | 에브릭스 테크놀로지스, 인코포레이티드 | 모바일 이미지 인식을 통한 상호작용 |
WO2007030026A1 (en) | 2005-09-09 | 2007-03-15 | Industrial Research Limited | A 3d scene scanner and a position and orientation system |
JP4622763B2 (ja) | 2005-09-14 | 2011-02-02 | 日本電気株式会社 | 携帯通信端末装置及び認証方法 |
AU2006292461A1 (en) | 2005-09-16 | 2007-03-29 | Flixor, Inc. | Personalizing a video |
US8057408B2 (en) | 2005-09-22 | 2011-11-15 | The Regents Of The University Of Michigan | Pulsed cavitational ultrasound therapy |
DE102005047160B4 (de) | 2005-09-30 | 2007-06-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung, Verfahren und Computerprogramm zum Ermitteln einer Information über eine Form und/oder eine Lage einer Ellipse in einem graphischen Bild |
US8050461B2 (en) | 2005-10-11 | 2011-11-01 | Primesense Ltd. | Depth-varying light fields for three dimensional sensing |
US9046962B2 (en) | 2005-10-31 | 2015-06-02 | Extreme Reality Ltd. | Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region |
US7570732B2 (en) | 2005-11-09 | 2009-08-04 | Dexela Limited | Methods and apparatus for obtaining low-dose imaging |
US20070130547A1 (en) | 2005-12-01 | 2007-06-07 | Navisense, Llc | Method and system for touchless user interface control |
CN100502463C (zh) | 2005-12-14 | 2009-06-17 | 浙江工业大学 | 一种交通流信息视频检测中的特征采集方法 |
DE102005061557B3 (de) | 2005-12-22 | 2007-11-22 | Siemens Ag | Bildgebungsgerät sowie Verfahren zum Betrieb eines Bildgebungsgerätes |
JP5201999B2 (ja) * | 2006-02-03 | 2013-06-05 | パナソニック株式会社 | 入力装置、及びその方法 |
US8219571B2 (en) | 2006-02-21 | 2012-07-10 | Samsung Electronics Co., Ltd. | Object verification apparatus and method |
US7466790B2 (en) | 2006-03-02 | 2008-12-16 | General Electric Company | Systems and methods for improving a resolution of an image |
US7834780B2 (en) | 2006-03-20 | 2010-11-16 | Tektronix, Inc. | Waveform compression and display |
JP2007271876A (ja) | 2006-03-31 | 2007-10-18 | Denso Corp | 音声認識装置および音声認識用のプログラム |
JP4797752B2 (ja) | 2006-03-31 | 2011-10-19 | 株式会社デンソー | 移動体用操作物体抽出装置 |
AU2006352758A1 (en) | 2006-04-10 | 2008-12-24 | Avaworks Incorporated | Talking Head Creation System and Method |
WO2007137093A2 (en) | 2006-05-16 | 2007-11-29 | Madentec | Systems and methods for a hands free mouse |
US7676169B2 (en) | 2006-05-22 | 2010-03-09 | Lexmark International, Inc. | Multipath toner patch sensor for use in an image forming device |
US8086971B2 (en) | 2006-06-28 | 2011-12-27 | Nokia Corporation | Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications |
US7983451B2 (en) | 2006-06-30 | 2011-07-19 | Motorola Mobility, Inc. | Recognition method using hand biometrics with anti-counterfeiting |
EP1879149B1 (de) | 2006-07-10 | 2016-03-16 | Fondazione Bruno Kessler | Vorrichtung und Verfahren zur Verfolgung einer Anzahl von Objekten oder Objektteilen in einer Bildsequenz |
US9696808B2 (en) | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
US8589824B2 (en) | 2006-07-13 | 2013-11-19 | Northrop Grumman Systems Corporation | Gesture recognition interface system |
US8180114B2 (en) | 2006-07-13 | 2012-05-15 | Northrop Grumman Systems Corporation | Gesture recognition interface system with vertical display |
US20080030429A1 (en) | 2006-08-07 | 2008-02-07 | International Business Machines Corporation | System and method of enhanced virtual reality |
US7875260B2 (en) | 2006-08-24 | 2011-01-25 | Baylor College Of Medicine | Imaging agents for functional imaging of lymphatic structures |
KR100783552B1 (ko) | 2006-10-11 | 2007-12-07 | 삼성전자주식회사 | 휴대 단말기의 입력 제어 방법 및 장치 |
US8102465B2 (en) | 2006-11-07 | 2012-01-24 | Fujifilm Corporation | Photographing apparatus and photographing method for photographing an image by controlling light irradiation on a subject |
US20110025818A1 (en) | 2006-11-07 | 2011-02-03 | Jonathan Gallmeier | System and Method for Controlling Presentations and Videoconferences Using Hand Motions |
EP2081494B1 (de) | 2006-11-16 | 2018-07-11 | Vanderbilt University | System und verfahren zur kompensation von organverformungen |
US7605686B2 (en) | 2006-11-16 | 2009-10-20 | Motorola, Inc. | Alerting system for a communication device |
WO2008064270A2 (en) | 2006-11-20 | 2008-05-29 | Micropower Appliance | Wireless network camera systems |
SE0602545L (en) | 2006-11-29 | 2008-05-30 | Tobii Technology Ab | Eye tracking illumination |
US7840031B2 (en) | 2007-01-12 | 2010-11-23 | International Business Machines Corporation | Tracking a range of body movement based on 3D captured image streams of a user |
US7971156B2 (en) | 2007-01-12 | 2011-06-28 | International Business Machines Corporation | Controlling resource access based on user gesturing in a 3D captured image stream of the user |
WO2008087652A2 (en) | 2007-01-21 | 2008-07-24 | Prime Sense Ltd. | Depth mapping using multi-beam illumination |
KR20080073933A (ko) | 2007-02-07 | 2008-08-12 | 삼성전자주식회사 | 객체 트래킹 방법 및 장치, 그리고 객체 포즈 정보 산출방법 및 장치 |
CN101681438A (zh) | 2007-03-02 | 2010-03-24 | 有机运动公司 | 跟踪三维对象的系统和方法 |
JP2008227569A (ja) | 2007-03-08 | 2008-09-25 | Seiko Epson Corp | 撮影装置、電子機器、撮影制御方法、及び、撮影制御プログラム |
JP4605170B2 (ja) | 2007-03-23 | 2011-01-05 | 株式会社デンソー | 操作入力装置 |
JP2008250774A (ja) | 2007-03-30 | 2008-10-16 | Denso Corp | 情報機器操作装置 |
US8493496B2 (en) | 2007-04-02 | 2013-07-23 | Primesense Ltd. | Depth mapping using projected patterns |
WO2008129643A1 (ja) | 2007-04-13 | 2008-10-30 | Pioneer Corporation | ショットサイズ識別装置及び方法、電子機器、並びにコンピュータプログラム |
JP4854582B2 (ja) | 2007-04-25 | 2012-01-18 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
US20080291160A1 (en) | 2007-05-09 | 2008-11-27 | Nintendo Co., Ltd. | System and method for recognizing multi-axis gestures based on handheld controller accelerometer outputs |
US20080278589A1 (en) | 2007-05-11 | 2008-11-13 | Karl Ola Thorn | Methods for identifying a target subject to automatically focus a digital camera and related systems, and computer program products |
US8229134B2 (en) | 2007-05-24 | 2012-07-24 | University Of Maryland | Audio camera using microphone arrays for real time capture of audio images and method for jointly processing the audio images with video images |
US7940985B2 (en) | 2007-06-06 | 2011-05-10 | Microsoft Corporation | Salient object detection |
US8027518B2 (en) | 2007-06-25 | 2011-09-27 | Microsoft Corporation | Automatic configuration of devices based on biometric data |
US20090002489A1 (en) | 2007-06-29 | 2009-01-01 | Fuji Xerox Co., Ltd. | Efficient tracking multiple objects through occlusion |
JP2009031939A (ja) | 2007-07-25 | 2009-02-12 | Advanced Telecommunication Research Institute International | 画像処理装置、画像処理方法及び画像処理プログラム |
CN101802760B (zh) | 2007-08-30 | 2013-03-20 | 奈克斯特控股有限公司 | 具有改进照明的光学触摸屏 |
JP4929109B2 (ja) | 2007-09-25 | 2012-05-09 | 株式会社東芝 | ジェスチャ認識装置及びその方法 |
GB2453163B (en) * | 2007-09-26 | 2011-06-29 | Christopher Douglas Blair | Three-dimensional imaging system |
US8144233B2 (en) | 2007-10-03 | 2012-03-27 | Sony Corporation | Display control device, display control method, and display control program for superimposing images to create a composite image |
US20090093307A1 (en) | 2007-10-08 | 2009-04-09 | Sony Computer Entertainment America Inc. | Enhanced game controller |
US8139110B2 (en) | 2007-11-01 | 2012-03-20 | Northrop Grumman Systems Corporation | Calibration of a gesture recognition interface system |
US8288968B2 (en) | 2007-11-08 | 2012-10-16 | Lite-On It Corporation | Lighting system arranged with multiple light units where each of adjacent light units having light beams overlap each other |
US8777875B2 (en) | 2008-07-23 | 2014-07-15 | Otismed Corporation | System and method for manufacturing arthroplasty jigs having improved mating accuracy |
WO2009085233A2 (en) | 2007-12-21 | 2009-07-09 | 21Ct, Inc. | System and method for visually tracking with occlusions |
US20120204133A1 (en) | 2009-01-13 | 2012-08-09 | Primesense Ltd. | Gesture-Based User Interface |
US8319832B2 (en) | 2008-01-31 | 2012-11-27 | Denso Corporation | Input apparatus and imaging apparatus |
US8270669B2 (en) | 2008-02-06 | 2012-09-18 | Denso Corporation | Apparatus for extracting operating object and apparatus for projecting operating hand |
US8555207B2 (en) | 2008-02-27 | 2013-10-08 | Qualcomm Incorporated | Enhanced input using recognized gestures |
DE102008000479A1 (de) | 2008-03-03 | 2009-09-10 | Amad - Mennekes Holding Gmbh & Co. Kg | Steckvorrichtung mit Zugentlastung |
US9503562B2 (en) | 2008-03-19 | 2016-11-22 | Universal Electronics Inc. | System and method for appliance control via a personal communication or entertainment device |
US8073203B2 (en) | 2008-04-15 | 2011-12-06 | Cyberlink Corp. | Generating effects in a webcam application |
US8970374B2 (en) | 2008-04-17 | 2015-03-03 | Shilat Optronics Ltd | Intrusion warning system |
WO2009127431A1 (en) | 2008-04-18 | 2009-10-22 | Eidgenössische Technische Hochschule (ETH) | Travelling-wave nuclear magnetic resonance method |
US8249345B2 (en) | 2008-06-27 | 2012-08-21 | Mako Surgical Corp. | Automatic image segmentation using contour propagation |
US8131063B2 (en) | 2008-07-16 | 2012-03-06 | Seiko Epson Corporation | Model-based object image processing |
US20100013662A1 (en) | 2008-07-17 | 2010-01-21 | Michael Stude | Product locating system |
JP2010033367A (ja) | 2008-07-29 | 2010-02-12 | Canon Inc | 情報処理装置及び情報処理方法 |
US20100027845A1 (en) | 2008-07-31 | 2010-02-04 | Samsung Electronics Co., Ltd. | System and method for motion detection based on object trajectory |
DE102008040949B4 (de) | 2008-08-01 | 2012-03-08 | Sirona Dental Systems Gmbh | Optisches Projektionsgitter, Messkamera mit optischem Projektionsgitter und Verfahren zur Erzeugung eines optischen Projektionsgitters |
US8520979B2 (en) | 2008-08-19 | 2013-08-27 | Digimarc Corporation | Methods and systems for content processing |
TW201009650A (en) | 2008-08-28 | 2010-03-01 | Acer Inc | Gesture guide system and method for controlling computer system by gesture |
US20100053209A1 (en) | 2008-08-29 | 2010-03-04 | Siemens Medical Solutions Usa, Inc. | System for Processing Medical Image data to Provide Vascular Function Information |
DE102008045387B4 (de) | 2008-09-02 | 2017-02-09 | Carl Zeiss Ag | Vorrichtung und Verfahren zum Vermessen einer Oberfläche |
US20100053151A1 (en) | 2008-09-02 | 2010-03-04 | Samsung Electronics Co., Ltd | In-line mediation for manipulating three-dimensional content on a display device |
TWI425203B (zh) | 2008-09-03 | 2014-02-01 | Univ Nat Central | 高頻譜掃描裝置及其方法 |
US20110163948A1 (en) * | 2008-09-04 | 2011-07-07 | Dor Givon | Method system and software for providing image sensor based human machine interfacing |
JP4613994B2 (ja) | 2008-09-16 | 2011-01-19 | ソニー株式会社 | 動態推定装置、動態推定方法、プログラム |
WO2010032268A2 (en) | 2008-09-19 | 2010-03-25 | Avinash Saxena | System and method for controlling graphical objects |
US9030564B2 (en) | 2008-10-10 | 2015-05-12 | Qualcomm Incorporated | Single camera tracker |
CN101729808B (zh) | 2008-10-14 | 2012-03-28 | Tcl集团股份有限公司 | 一种电视遥控方法及用该方法遥控操作电视机的系统 |
WO2010045406A2 (en) | 2008-10-15 | 2010-04-22 | The Regents Of The University Of California | Camera system with autonomous miniature camera and light source assembly and method for image enhancement |
US8744122B2 (en) | 2008-10-22 | 2014-06-03 | Sri International | System and method for object detection from a moving platform |
CN201332447Y (zh) | 2008-10-22 | 2009-10-21 | 康佳集团股份有限公司 | 一种通过手势变化控制或操作游戏的电视 |
DE102008052928A1 (de) | 2008-10-23 | 2010-05-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung, Verfahren und Computerprogramm zur Erkennung einer Geste in einem Bild, sowie Vorrichtung, Verfahren und Computerprogramm zur Steuerung eines Geräts |
US20100121189A1 (en) | 2008-11-12 | 2010-05-13 | Sonosite, Inc. | Systems and methods for image presentation for medical examination and interventional procedures |
TW201020896A (en) | 2008-11-19 | 2010-06-01 | Nat Applied Res Laboratories | Method of gesture control |
US8502787B2 (en) | 2008-11-26 | 2013-08-06 | Panasonic Corporation | System and method for differentiating between intended and unintended user input on a touchpad |
EP2193825B1 (de) | 2008-12-03 | 2017-03-22 | Alcatel Lucent | Mobile Vorrichtung für Anwendungen mit erweiteter Realität |
US20100153457A1 (en) | 2008-12-15 | 2010-06-17 | Grant Isaac W | Gestural Interface Device and Method |
US8289162B2 (en) | 2008-12-22 | 2012-10-16 | Wimm Labs, Inc. | Gesture-based user interface for a wearable portable device |
KR101215987B1 (ko) | 2008-12-22 | 2012-12-28 | 한국전자통신연구원 | 전경/배경 분리 장치 및 방법 |
US8379987B2 (en) | 2008-12-30 | 2013-02-19 | Nokia Corporation | Method, apparatus and computer program product for providing hand segmentation for gesture analysis |
US8126985B1 (en) | 2008-12-31 | 2012-02-28 | Qurio Holdings, Inc. | Prioritizing virtual object downloads in a distributed virtual environment |
US8290208B2 (en) | 2009-01-12 | 2012-10-16 | Eastman Kodak Company | Enhanced safety during laser projection |
JP2012515966A (ja) | 2009-01-26 | 2012-07-12 | ズッロ・テクノロジーズ・(2009)・リミテッド | 物体の挙動を監視するためのデバイスおよび方法 |
US8448094B2 (en) | 2009-01-30 | 2013-05-21 | Microsoft Corporation | Mapping a natural input device to a legacy system |
US7996793B2 (en) | 2009-01-30 | 2011-08-09 | Microsoft Corporation | Gesture recognizer system architecture |
JP4771183B2 (ja) | 2009-01-30 | 2011-09-14 | 株式会社デンソー | 操作装置 |
US8624962B2 (en) | 2009-02-02 | 2014-01-07 | Ydreams—Informatica, S.A. Ydreams | Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images |
CN102356398B (zh) | 2009-02-02 | 2016-11-23 | 视力移动技术有限公司 | 用于视频流中的对象识别和跟踪的系统和方法 |
US9569001B2 (en) | 2009-02-03 | 2017-02-14 | Massachusetts Institute Of Technology | Wearable gestural interface |
EP2394224A1 (de) | 2009-02-05 | 2011-12-14 | Digimarc Corporation | Werbung auf fernsehbasis und ausgabe von fernsehapplikationen für mobiltelefone |
KR100992411B1 (ko) | 2009-02-06 | 2010-11-05 | (주)실리콘화일 | 피사체의 근접여부 판단이 가능한 이미지센서 |
US8775023B2 (en) | 2009-02-15 | 2014-07-08 | Neanode Inc. | Light-based touch controls on a steering wheel and dashboard |
US8976158B2 (en) | 2009-02-15 | 2015-03-10 | Neonode Inc. | User interface for white goods and associated multi-channel proximity sensors |
GB2467932A (en) | 2009-02-19 | 2010-08-25 | Sony Corp | Image processing device and method |
US20100216508A1 (en) | 2009-02-23 | 2010-08-26 | Augusta Technology, Inc. | Systems and Methods for Driving an External Display Device Using a Mobile Phone Device |
JP2010204730A (ja) | 2009-02-27 | 2010-09-16 | Seiko Epson Corp | ジェスチャーに応答して機器を制御するシステム |
US9317128B2 (en) | 2009-04-02 | 2016-04-19 | Oblong Industries, Inc. | Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control |
JP4840620B2 (ja) | 2009-04-30 | 2011-12-21 | 株式会社デンソー | 車載用電子機器操作装置 |
US9898675B2 (en) | 2009-05-01 | 2018-02-20 | Microsoft Technology Licensing, Llc | User movement tracking feedback to improve tracking |
EP2430826A1 (de) | 2009-05-12 | 2012-03-21 | Koninklijke Philips Electronics N.V. | Kamera, system mit einer kamera, verfahren zum betrieb einer kamera und verfahren zum entfalten eines aufgezeichneten bildes |
WO2010134512A1 (ja) | 2009-05-20 | 2010-11-25 | 株式会社 日立メディコ | 医用画像診断装置とその関心領域設定方法 |
TWI395483B (zh) | 2009-05-25 | 2013-05-01 | Visionatics Inc | 使用適應性背景模型之移動物體偵測方法及其電腦程式產品 |
US8112719B2 (en) | 2009-05-26 | 2012-02-07 | Topseed Technology Corp. | Method for controlling gesture-based remote control system |
US20100302357A1 (en) | 2009-05-26 | 2010-12-02 | Che-Hao Hsu | Gesture-based remote control system |
JP2011010258A (ja) | 2009-05-27 | 2011-01-13 | Seiko Epson Corp | 画像処理装置、画像表示システム、画像抽出装置 |
CN102460563B (zh) | 2009-05-27 | 2016-01-06 | 美国亚德诺半导体公司 | 使用位置敏感检测器的位置测量系统 |
US8693724B2 (en) | 2009-05-29 | 2014-04-08 | Microsoft Corporation | Method and system implementing user-centric gesture control |
US8418085B2 (en) | 2009-05-29 | 2013-04-09 | Microsoft Corporation | Gesture coach |
US8009022B2 (en) | 2009-05-29 | 2011-08-30 | Microsoft Corporation | Systems and methods for immersive interaction with virtual objects |
US20100309097A1 (en) | 2009-06-04 | 2010-12-09 | Roni Raviv | Head mounted 3d display |
US9594431B2 (en) | 2009-06-19 | 2017-03-14 | Hewlett-Packard Development Company, L.P. | Qualified command |
US8907941B2 (en) | 2009-06-23 | 2014-12-09 | Disney Enterprises, Inc. | System and method for integrating multiple virtual rendering systems to provide an augmented reality |
CN101930610B (zh) | 2009-06-26 | 2012-05-02 | 思创影像科技股份有限公司 | 使用适应性背景模型的移动物体侦测方法 |
US8356261B1 (en) | 2009-07-02 | 2013-01-15 | Asml Netherlands B.V. | Determining the gradient and hessian of the image log slope for design rule optimization for accelerating source mask optimization (SMO) |
US20110007072A1 (en) | 2009-07-09 | 2011-01-13 | University Of Central Florida Research Foundation, Inc. | Systems and methods for three-dimensionally modeling moving objects |
US9131142B2 (en) | 2009-07-17 | 2015-09-08 | Nikon Corporation | Focusing device and camera |
JP5771913B2 (ja) | 2009-07-17 | 2015-09-02 | 株式会社ニコン | 焦点調節装置、およびカメラ |
US8428368B2 (en) | 2009-07-31 | 2013-04-23 | Echostar Technologies L.L.C. | Systems and methods for hand gesture control of an electronic device |
WO2011024193A2 (en) | 2009-08-20 | 2011-03-03 | Natarajan Kannan | Electronically variable field of view (fov) infrared illuminator |
JP5614014B2 (ja) | 2009-09-04 | 2014-10-29 | ソニー株式会社 | 情報処理装置、表示制御方法及び表示制御プログラム |
US8341558B2 (en) | 2009-09-16 | 2012-12-25 | Google Inc. | Gesture recognition on computing device correlating input to a template |
US8681124B2 (en) | 2009-09-22 | 2014-03-25 | Microsoft Corporation | Method and system for recognition of user gesture interaction with passive surface video displays |
EP2480955B1 (de) | 2009-09-22 | 2018-05-16 | Facebook Inc. | Fernsteuerung von computern |
JP2011081453A (ja) | 2009-10-02 | 2011-04-21 | Toshiba Corp | 映像再生装置及び映像再生方法 |
US8547327B2 (en) | 2009-10-07 | 2013-10-01 | Qualcomm Incorporated | Proximity object tracker |
DE102009049073A1 (de) | 2009-10-12 | 2011-04-21 | Metaio Gmbh | Verfahren zur Darstellung von virtueller Information in einer Ansicht einer realen Umgebung |
US9292084B2 (en) | 2009-10-13 | 2016-03-22 | Intel Corporation | Control systems and methods for head-mounted information systems |
GB2474536B (en) | 2009-10-13 | 2011-11-02 | Pointgrab Ltd | Computer vision gesture based control of a device |
US9400548B2 (en) | 2009-10-19 | 2016-07-26 | Microsoft Technology Licensing, Llc | Gesture personalization and profile roaming |
KR101633359B1 (ko) | 2009-10-20 | 2016-06-27 | 삼성전자 주식회사 | 투사 불변량을 이용한 무표식 증강 현실 구현 시스템 및 그 방법 |
US20110107216A1 (en) | 2009-11-03 | 2011-05-05 | Qualcomm Incorporated | Gesture-based user interface |
US8843857B2 (en) | 2009-11-19 | 2014-09-23 | Microsoft Corporation | Distance scalable no touch computing |
KR101092909B1 (ko) | 2009-11-27 | 2011-12-12 | (주)디스트릭트홀딩스 | 제스쳐 인터렉티브 홀로그램 출력장치 및 방법 |
WO2011069152A2 (en) | 2009-12-04 | 2011-06-09 | Next Holdings Limited | Imaging methods and systems for position detection |
GB0921461D0 (en) | 2009-12-08 | 2010-01-20 | Qinetiq Ltd | Range based sensing |
KR101373285B1 (ko) | 2009-12-08 | 2014-03-11 | 한국전자통신연구원 | 제스쳐 인식 기능을 갖는 휴대 단말기 및 이를 이용한 인터페이스 시스템 |
EP2337323A1 (de) | 2009-12-17 | 2011-06-22 | NTT DoCoMo, Inc. | Verfahren und Vorrichtung zur Interaktion zwischen einer mobilen Vorrichtung und einem Bildschirm |
KR101307341B1 (ko) | 2009-12-18 | 2013-09-11 | 한국전자통신연구원 | 동적 개체 모션 캡쳐 방법 및 그 장치 |
US8232990B2 (en) | 2010-01-05 | 2012-07-31 | Apple Inc. | Working with 3D objects |
US9019201B2 (en) | 2010-01-08 | 2015-04-28 | Microsoft Technology Licensing, Llc | Evolving universal gesture sets |
US8631355B2 (en) | 2010-01-08 | 2014-01-14 | Microsoft Corporation | Assigning gesture dictionaries |
US9268404B2 (en) | 2010-01-08 | 2016-02-23 | Microsoft Technology Licensing, Llc | Application gesture interpretation |
US8933884B2 (en) | 2010-01-15 | 2015-01-13 | Microsoft Corporation | Tracking groups of users in motion capture system |
US9335825B2 (en) | 2010-01-26 | 2016-05-10 | Nokia Technologies Oy | Gesture control |
RU2422878C1 (ru) | 2010-02-04 | 2011-06-27 | Владимир Валентинович Девятков | Способ управления телевизором с помощью мультимодального интерфейса |
KR101184460B1 (ko) | 2010-02-05 | 2012-09-19 | 연세대학교 산학협력단 | 마우스 포인터 제어 장치 및 방법 |
US8659658B2 (en) | 2010-02-09 | 2014-02-25 | Microsoft Corporation | Physical interaction zone for gesture-based user interfaces |
US20110213664A1 (en) | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US20140063055A1 (en) | 2010-02-28 | 2014-03-06 | Osterhout Group, Inc. | Ar glasses specific user interface and control interface based on a connected external device type |
WO2011106797A1 (en) | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Projection triggering through an external marker in an augmented reality eyepiece |
TW201133358A (en) | 2010-03-18 | 2011-10-01 | Hon Hai Prec Ind Co Ltd | System and method for detecting objects in a video image |
CN102201121A (zh) | 2010-03-23 | 2011-09-28 | 鸿富锦精密工业(深圳)有限公司 | 视频场景中的物件侦测系统与方法 |
CN102822773A (zh) | 2010-03-24 | 2012-12-12 | 惠普开发有限公司 | 用于显示设备的手势映射 |
US9218119B2 (en) | 2010-03-25 | 2015-12-22 | Blackberry Limited | System and method for gesture detection and feedback |
US20110234631A1 (en) | 2010-03-25 | 2011-09-29 | Bizmodeline Co., Ltd. | Augmented reality systems |
JP5743416B2 (ja) | 2010-03-29 | 2015-07-01 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2011210139A (ja) | 2010-03-30 | 2011-10-20 | Sony Corp | 画像処理装置および方法、並びにプログラム |
EP2372512A1 (de) | 2010-03-30 | 2011-10-05 | Harman Becker Automotive Systems GmbH | Fahrzeug-Benutzeroberflächeneinheit für eine elektronische Fahrzeugvorrichtung |
US20110251896A1 (en) | 2010-04-09 | 2011-10-13 | Affine Systems, Inc. | Systems and methods for matching an advertisement to a video |
CN201859393U (zh) | 2010-04-13 | 2011-06-08 | 任峰 | 三维手势识别盒 |
US8405680B1 (en) | 2010-04-19 | 2013-03-26 | YDreams S.A., A Public Limited Liability Company | Various methods and apparatuses for achieving augmented reality |
US20130038694A1 (en) | 2010-04-27 | 2013-02-14 | Sanjay Nichani | Method for moving object detection using an image sensor and structured light |
WO2011134083A1 (en) | 2010-04-28 | 2011-11-03 | Ryerson University | System and methods for intraoperative guidance feedback |
CN102236412A (zh) | 2010-04-30 | 2011-11-09 | 宏碁股份有限公司 | 三维手势识别系统以及基于视觉的手势识别方法 |
US9539510B2 (en) | 2010-04-30 | 2017-01-10 | Microsoft Technology Licensing, Llc | Reshapable connector with variable rigidity |
CA2798148A1 (en) | 2010-05-04 | 2011-11-10 | Timocco Ltd. | System and method for tracking and mapping an object to a target |
US8457353B2 (en) | 2010-05-18 | 2013-06-04 | Microsoft Corporation | Gestures and gesture modifiers for manipulating a user-interface |
US20110289455A1 (en) | 2010-05-18 | 2011-11-24 | Microsoft Corporation | Gestures And Gesture Recognition For Manipulating A User-Interface |
US8396252B2 (en) | 2010-05-20 | 2013-03-12 | Edge 3 Technologies | Systems and related methods for three dimensional gesture recognition in vehicles |
US20110299737A1 (en) | 2010-06-04 | 2011-12-08 | Acer Incorporated | Vision-based hand movement recognition system and method thereof |
EP2395413B1 (de) | 2010-06-09 | 2018-10-03 | The Boeing Company | Mensch-Maschine-Schnittstelle auf Gestenbasis |
JP2011257337A (ja) | 2010-06-11 | 2011-12-22 | Seiko Epson Corp | 光学式位置検出装置および位置検出機能付き表示装置 |
US8670029B2 (en) | 2010-06-16 | 2014-03-11 | Microsoft Corporation | Depth camera illuminator with superluminescent light-emitting diode |
US8542320B2 (en) | 2010-06-17 | 2013-09-24 | Sony Corporation | Method and system to control a non-gesture controlled device using gesture interactions with a gesture controlled device |
US20110314427A1 (en) | 2010-06-18 | 2011-12-22 | Samsung Electronics Co., Ltd. | Personalization using custom gestures |
US8416187B2 (en) | 2010-06-22 | 2013-04-09 | Microsoft Corporation | Item navigation using motion-capture data |
DE102010030616A1 (de) | 2010-06-28 | 2011-12-29 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Erkennen eines Störobjekts in einem Kamerabild |
US20120050007A1 (en) | 2010-08-24 | 2012-03-01 | Babak Forutanpour | Methods and apparatus for interacting with an electronic device application by moving an object in the air over an electronic device display |
US9111498B2 (en) | 2010-08-25 | 2015-08-18 | Eastman Kodak Company | Head-mounted display with environmental state detection |
US10026227B2 (en) | 2010-09-02 | 2018-07-17 | The Boeing Company | Portable augmented reality |
WO2012032515A1 (en) | 2010-09-07 | 2012-03-15 | Zrro Technologies (2009) Ltd. | Device and method for controlling the behavior of virtual objects on a display |
US8842084B2 (en) | 2010-09-08 | 2014-09-23 | Telefonaktiebolaget L M Ericsson (Publ) | Gesture-based object manipulation methods and devices |
US8619005B2 (en) | 2010-09-09 | 2013-12-31 | Eastman Kodak Company | Switchable head-mounted display transition |
US8706170B2 (en) | 2010-09-20 | 2014-04-22 | Kopin Corporation | Miniature communications gateway for head mounted display |
US8941559B2 (en) * | 2010-09-21 | 2015-01-27 | Microsoft Corporation | Opacity filter for display device |
US8781234B2 (en) | 2010-10-01 | 2014-07-15 | Intel Corporation | Optimized fast hessian matrix computation architecture |
WO2012048252A1 (en) | 2010-10-07 | 2012-04-12 | Aria Glassworks, Inc. | System and method for transitioning between interface modes in virtual and augmented reality applications |
IL208600A (en) | 2010-10-10 | 2016-07-31 | Rafael Advanced Defense Systems Ltd | Real-time network-based laminated reality for mobile devices |
CN101951474A (zh) | 2010-10-12 | 2011-01-19 | 冠捷显示科技(厦门)有限公司 | 基于手势控制的电视技术 |
US10036891B2 (en) | 2010-10-12 | 2018-07-31 | DISH Technologies L.L.C. | Variable transparency heads up displays |
US8884984B2 (en) * | 2010-10-15 | 2014-11-11 | Microsoft Corporation | Fusing virtual content into real content |
IL208910A0 (en) | 2010-10-24 | 2011-02-28 | Rafael Advanced Defense Sys | Tracking and identification of a moving object from a moving sensor using a 3d model |
CN102053702A (zh) | 2010-10-26 | 2011-05-11 | 南京航空航天大学 | 动态手势控制系统与方法 |
US8817087B2 (en) | 2010-11-01 | 2014-08-26 | Robert Bosch Gmbh | Robust video-based handwriting and gesture recognition for in-car applications |
US20120113223A1 (en) | 2010-11-05 | 2012-05-10 | Microsoft Corporation | User Interaction in Augmented Reality |
US9244606B2 (en) | 2010-12-20 | 2016-01-26 | Apple Inc. | Device, method, and graphical user interface for navigation of concurrently open software applications |
DK2656181T3 (da) | 2010-12-22 | 2020-01-13 | Zspace Inc | Tredimensionel sporing af en brugerstyringsanordning i et volumen |
KR101587962B1 (ko) | 2010-12-22 | 2016-01-28 | 한국전자통신연구원 | 모션 캡처 장치 및 방법 |
US8929609B2 (en) | 2011-01-05 | 2015-01-06 | Qualcomm Incorporated | Method and apparatus for scaling gesture recognition to physical dimensions of a user |
US8570320B2 (en) | 2011-01-31 | 2013-10-29 | Microsoft Corporation | Using a three-dimensional environment model in gameplay |
SG182880A1 (en) | 2011-02-01 | 2012-08-30 | Univ Singapore | A method and system for interaction with micro-objects |
EP3527121B1 (de) | 2011-02-09 | 2023-08-23 | Apple Inc. | Gestenerfassung in einer umgebung zur 3d-bildgebung |
EP2677936B1 (de) | 2011-02-25 | 2021-09-29 | Smiths Heimann GmbH | Bildrekonstruktion auf basis von parametermodellen |
US20120223959A1 (en) | 2011-03-01 | 2012-09-06 | Apple Inc. | System and method for a touchscreen slider with toggle control |
US8600107B2 (en) | 2011-03-31 | 2013-12-03 | Smart Technologies Ulc | Interactive input system and method |
US8824749B2 (en) | 2011-04-05 | 2014-09-02 | Microsoft Corporation | Biometric recognition |
US9117147B2 (en) | 2011-04-29 | 2015-08-25 | Siemens Aktiengesellschaft | Marginal space learning for multi-person tracking over mega pixel imagery |
US8718334B2 (en) | 2011-05-05 | 2014-05-06 | Honeywell International Inc. | System for biometric hand analysis |
US8457355B2 (en) | 2011-05-05 | 2013-06-04 | International Business Machines Corporation | Incorporating video meta-data in 3D models |
CN102184014B (zh) | 2011-05-12 | 2013-03-20 | 浙江大学 | 基于移动设备指向的智能家电交互控制方法及装置 |
US8810640B2 (en) | 2011-05-16 | 2014-08-19 | Ut-Battelle, Llc | Intrinsic feature-based pose measurement for imaging motion compensation |
US8842163B2 (en) | 2011-06-07 | 2014-09-23 | International Business Machines Corporation | Estimation of object properties in 3D world |
KR101255950B1 (ko) | 2011-06-13 | 2013-05-02 | 연세대학교 산학협력단 | 위치기반 건설 현장 관리 방법 및 시스템 |
US20120320080A1 (en) | 2011-06-14 | 2012-12-20 | Microsoft Corporation | Motion based virtual object navigation |
US8773512B1 (en) | 2011-06-30 | 2014-07-08 | Aquifi, Inc. | Portable remote control device enabling three-dimensional user interaction with at least one appliance |
US8881051B2 (en) | 2011-07-05 | 2014-11-04 | Primesense Ltd | Zoom-based gesture user interface |
US9086794B2 (en) | 2011-07-14 | 2015-07-21 | Microsoft Technology Licensing, Llc | Determining gestures on context based menus |
US8891868B1 (en) | 2011-08-04 | 2014-11-18 | Amazon Technologies, Inc. | Recognizing gestures captured by video |
US10019962B2 (en) * | 2011-08-17 | 2018-07-10 | Microsoft Technology Licensing, Llc | Context adaptive user interface for augmented reality display |
TW201310389A (zh) | 2011-08-19 | 2013-03-01 | Vatics Inc | 使用影像對比增進的移動物件偵測方法 |
CN103636191B (zh) | 2011-08-23 | 2016-11-02 | 松下电器产业株式会社 | 三维摄像装置、透镜控制装置 |
US8830302B2 (en) | 2011-08-24 | 2014-09-09 | Lg Electronics Inc. | Gesture-based user interface method and apparatus |
KR20140060297A (ko) | 2011-09-07 | 2014-05-19 | 닛토덴코 가부시키가이샤 | 입력체의 움직임 검출 방법 및 그것을 이용한 입력 디바이스 |
US20130080898A1 (en) | 2011-09-26 | 2013-03-28 | Tal Lavian | Systems and methods for electronic communications |
JP5624530B2 (ja) | 2011-09-29 | 2014-11-12 | 株式会社東芝 | コマンド発行装置、方法及びプログラム |
US20130097566A1 (en) | 2011-10-17 | 2013-04-18 | Carl Fredrik Alexander BERGLUND | System and method for displaying items on electronic devices |
US9195900B2 (en) | 2011-11-21 | 2015-11-24 | Pixart Imaging Inc. | System and method based on hybrid biometric detection |
US8235529B1 (en) | 2011-11-30 | 2012-08-07 | Google Inc. | Unlocking a screen using eye tracking information |
AU2011253910B2 (en) | 2011-12-08 | 2015-02-26 | Canon Kabushiki Kaisha | Method, apparatus and system for tracking an object in a sequence of images |
WO2013103410A1 (en) | 2012-01-05 | 2013-07-11 | California Institute Of Technology | Imaging surround systems for touch-free display control |
US8878749B1 (en) | 2012-01-06 | 2014-11-04 | Google Inc. | Systems and methods for position estimation |
US20150097772A1 (en) | 2012-01-06 | 2015-04-09 | Thad Eugene Starner | Gaze Signal Based on Physical Characteristics of the Eye |
US9230171B2 (en) | 2012-01-06 | 2016-01-05 | Google Inc. | Object outlining to initiate a visual search |
US20150084864A1 (en) | 2012-01-09 | 2015-03-26 | Google Inc. | Input Method |
US8693731B2 (en) | 2012-01-17 | 2014-04-08 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
JP2015510169A (ja) | 2012-01-17 | 2015-04-02 | リープ モーション, インコーポレーテッドLeap Motion, Inc. | 物体検出のためのコントラストの改善及び光学画像化による特徴評価 |
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
US9070019B2 (en) | 2012-01-17 | 2015-06-30 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US20140307920A1 (en) | 2013-04-12 | 2014-10-16 | David Holz | Systems and methods for tracking occluded objects in three-dimensional space |
US20130182079A1 (en) | 2012-01-17 | 2013-07-18 | Ocuspec | Motion capture using cross-sections of an object |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US9213822B2 (en) | 2012-01-20 | 2015-12-15 | Apple Inc. | Device, method, and graphical user interface for accessing an application in a locked device |
US20130194304A1 (en) * | 2012-02-01 | 2013-08-01 | Stephen Latta | Coordinate-system sharing for augmented reality |
KR101905648B1 (ko) | 2012-02-27 | 2018-10-11 | 삼성전자 주식회사 | 카메라 장치의 동영상 촬영방법 및 장치 |
US9093012B2 (en) | 2012-02-29 | 2015-07-28 | Lenovo (Beijing) Co., Ltd. | Operation mode switching method and electronic device |
TWI456486B (zh) | 2012-03-06 | 2014-10-11 | Acer Inc | 電子裝置及控制電子裝置的方法 |
WO2013136053A1 (en) | 2012-03-10 | 2013-09-19 | Digitaloptics Corporation | Miniature camera module with mems-actuated autofocus |
CN104471511B (zh) | 2012-03-13 | 2018-04-20 | 视力移动技术有限公司 | 识别指点手势的装置、用户接口和方法 |
US9122354B2 (en) | 2012-03-14 | 2015-09-01 | Texas Instruments Incorporated | Detecting wave gestures near an illuminated surface |
US9218723B2 (en) | 2012-03-20 | 2015-12-22 | Intralot S.A.—Integrated Lottery Systems and Services | Methods and systems for a gesture-controlled lottery terminal |
JP5938977B2 (ja) | 2012-03-23 | 2016-06-22 | ソニー株式会社 | ヘッドマウントディスプレイ及び手術システム |
US8942881B2 (en) * | 2012-04-02 | 2015-01-27 | Google Inc. | Gesture-based automotive controls |
TWI464640B (zh) | 2012-04-03 | 2014-12-11 | Wistron Corp | 手勢感測裝置及具有手勢輸入功能的電子系統 |
US9448635B2 (en) | 2012-04-16 | 2016-09-20 | Qualcomm Incorporated | Rapid gesture re-engagement |
GB2501768A (en) | 2012-05-04 | 2013-11-06 | Sony Comp Entertainment Europe | Head mounted display |
US20130300831A1 (en) | 2012-05-11 | 2013-11-14 | Loren Mavromatis | Camera scene fitting of real world scenes |
JP2013250637A (ja) | 2012-05-30 | 2013-12-12 | Toshiba Corp | 認識装置 |
US20130328867A1 (en) | 2012-06-06 | 2013-12-12 | Samsung Electronics Co. Ltd. | Apparatus and method for providing augmented reality information using three dimension map |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
US9245492B2 (en) | 2012-06-28 | 2016-01-26 | Intermec Ip Corp. | Dual screen display for mobile computing device |
US9697418B2 (en) | 2012-07-09 | 2017-07-04 | Qualcomm Incorporated | Unsupervised movement detection and gesture recognition |
KR20140010616A (ko) | 2012-07-16 | 2014-01-27 | 한국전자통신연구원 | 3d 가상 객체에 대한 조작 처리 장치 및 방법 |
JP6024952B2 (ja) | 2012-07-19 | 2016-11-16 | パナソニックIpマネジメント株式会社 | 画像送信装置、画像送信方法、画像送信プログラム及び画像認識認証システム |
JP5997276B2 (ja) | 2012-07-27 | 2016-09-28 | 日産自動車株式会社 | 立体物検出装置及び異物検出装置 |
US10839227B2 (en) | 2012-08-29 | 2020-11-17 | Conduent Business Services, Llc | Queue group leader identification |
US9124778B1 (en) | 2012-08-29 | 2015-09-01 | Nomi Corporation | Apparatuses and methods for disparity-based tracking and analysis of objects in a region of interest |
JP6186689B2 (ja) | 2012-09-26 | 2017-08-30 | セイコーエプソン株式会社 | 映像表示システム |
JP2014071499A (ja) | 2012-09-27 | 2014-04-21 | Kyocera Corp | 表示装置および制御方法 |
DE102012109481A1 (de) | 2012-10-05 | 2014-04-10 | Faro Technologies, Inc. | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung |
US9386298B2 (en) | 2012-11-08 | 2016-07-05 | Leap Motion, Inc. | Three-dimensional image sensors |
US9285893B2 (en) | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
WO2014078414A1 (en) | 2012-11-13 | 2014-05-22 | Joseph Wu | Chemically defined production of cardiomyocytes from pluripotent stem cells |
JP6058978B2 (ja) | 2012-11-19 | 2017-01-11 | サターン ライセンシング エルエルシーSaturn Licensing LLC | 画像処理装置及び画像処理方法、撮影装置、並びにコンピューター・プログラム |
CN104798129B (zh) | 2012-11-27 | 2018-10-19 | 索尼公司 | 显示装置、显示方法和计算机可读介质 |
US10912131B2 (en) | 2012-12-03 | 2021-02-02 | Samsung Electronics Co., Ltd. | Method and mobile terminal for controlling bluetooth low energy device |
KR101448749B1 (ko) | 2012-12-10 | 2014-10-08 | 현대자동차 주식회사 | 물체 영상 검출 시스템 및 방법 |
US9274608B2 (en) | 2012-12-13 | 2016-03-01 | Eyesight Mobile Technologies Ltd. | Systems and methods for triggering actions based on touch-free gesture detection |
US9483934B2 (en) | 2012-12-26 | 2016-11-01 | Oren Kotlicki | Presence based system and method for controlling devices |
US9733713B2 (en) | 2012-12-26 | 2017-08-15 | Futurewei Technologies, Inc. | Laser beam based gesture control interface for mobile devices |
US20140189579A1 (en) | 2013-01-02 | 2014-07-03 | Zrro Technologies (2009) Ltd. | System and method for controlling zooming and/or scrolling |
US9465461B2 (en) | 2013-01-08 | 2016-10-11 | Leap Motion, Inc. | Object detection and tracking with audio and optical signals |
US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
CN103090862A (zh) | 2013-01-18 | 2013-05-08 | 华为终端有限公司 | 一种终端设备及终端设备的导航模式切换方法 |
US9720504B2 (en) | 2013-02-05 | 2017-08-01 | Qualcomm Incorporated | Methods for system engagement via 3D object detection |
US10133342B2 (en) | 2013-02-14 | 2018-11-20 | Qualcomm Incorporated | Human-body-gesture-based region and volume selection for HMD |
JP6380374B2 (ja) | 2013-02-22 | 2018-08-29 | ソニー株式会社 | ヘッドマウントディスプレイ |
US20140240215A1 (en) | 2013-02-26 | 2014-08-28 | Corel Corporation | System and method for controlling a user interface utility using a vision system |
US20140240225A1 (en) | 2013-02-26 | 2014-08-28 | Pointgrab Ltd. | Method for touchless control of a device |
GB201303707D0 (en) | 2013-03-01 | 2013-04-17 | Tosas Bautista Martin | System and method of interaction for mobile devices |
DE102013203667B4 (de) | 2013-03-04 | 2024-02-22 | Adidas Ag | Kabine zum Ausprobieren eines oder mehrerer Bekleidungsstücke |
US9056396B1 (en) | 2013-03-05 | 2015-06-16 | Autofuss | Programming of a robotic arm using a motion capture system |
US20140253711A1 (en) | 2013-03-07 | 2014-09-11 | Advanced Optical Systems, Inc. | Agile non-contact biometric sensor |
US20140253785A1 (en) | 2013-03-07 | 2014-09-11 | Mediatek Inc. | Auto Focus Based on Analysis of State or State Change of Image Content |
JP6037901B2 (ja) | 2013-03-11 | 2016-12-07 | 日立マクセル株式会社 | 操作検出装置、操作検出方法及び表示制御データ生成方法 |
KR102037930B1 (ko) | 2013-03-15 | 2019-10-30 | 엘지전자 주식회사 | 이동 단말기 및 이의 제어방법 |
US9766709B2 (en) | 2013-03-15 | 2017-09-19 | Leap Motion, Inc. | Dynamic user interactions for display control |
US9702977B2 (en) | 2013-03-15 | 2017-07-11 | Leap Motion, Inc. | Determining positional information of an object in space |
US8954340B2 (en) | 2013-03-15 | 2015-02-10 | State Farm Mutual Automobile Insurance Company | Risk evaluation based on vehicle operator behavior |
JP5900393B2 (ja) | 2013-03-21 | 2016-04-06 | ソニー株式会社 | 情報処理装置、操作制御方法及びプログラム |
JP6107276B2 (ja) | 2013-03-22 | 2017-04-05 | セイコーエプソン株式会社 | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
US9367136B2 (en) | 2013-04-12 | 2016-06-14 | Microsoft Technology Licensing, Llc | Holographic object feedback |
US10509533B2 (en) | 2013-05-14 | 2019-12-17 | Qualcomm Incorporated | Systems and methods of generating augmented reality (AR) objects |
US10137361B2 (en) | 2013-06-07 | 2018-11-27 | Sony Interactive Entertainment America Llc | Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system |
US10019057B2 (en) | 2013-06-07 | 2018-07-10 | Sony Interactive Entertainment Inc. | Switching mode of operation in a head mounted display |
US9908048B2 (en) | 2013-06-08 | 2018-03-06 | Sony Interactive Entertainment Inc. | Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display |
WO2014208087A1 (ja) | 2013-06-27 | 2014-12-31 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 複数の光源を有するモーションセンサ装置 |
US9239950B2 (en) | 2013-07-01 | 2016-01-19 | Hand Held Products, Inc. | Dimensioning system |
US9857876B2 (en) | 2013-07-22 | 2018-01-02 | Leap Motion, Inc. | Non-linear motion capture using Frenet-Serret frames |
US9514571B2 (en) | 2013-07-25 | 2016-12-06 | Microsoft Technology Licensing, Llc | Late stage reprojection |
JP2015027015A (ja) | 2013-07-29 | 2015-02-05 | ソニー株式会社 | 情報提示装置及び情報処理システム |
GB201314984D0 (en) | 2013-08-21 | 2013-10-02 | Sony Comp Entertainment Europe | Head-mountable apparatus and systems |
US9261966B2 (en) | 2013-08-22 | 2016-02-16 | Sony Corporation | Close range natural user interface system and method of operation thereof |
US9630105B2 (en) | 2013-09-30 | 2017-04-25 | Sony Interactive Entertainment Inc. | Camera based safety mechanisms for users of head mounted displays |
US8922590B1 (en) | 2013-10-01 | 2014-12-30 | Myth Innovations, Inc. | Augmented reality interface and method of use |
US10318100B2 (en) | 2013-10-16 | 2019-06-11 | Atheer, Inc. | Method and apparatus for addressing obstruction in an interface |
WO2015065341A1 (en) | 2013-10-29 | 2015-05-07 | Intel Corporation | Gesture based human computer interaction |
US9546776B2 (en) | 2013-10-31 | 2017-01-17 | General Electric Company | Customizable modular luminaire |
US9402018B2 (en) | 2013-12-17 | 2016-07-26 | Amazon Technologies, Inc. | Distributing processing for imaging processing |
US20150205358A1 (en) | 2014-01-20 | 2015-07-23 | Philip Scott Lyren | Electronic Device with Touchless User Interface |
US20150205400A1 (en) | 2014-01-21 | 2015-07-23 | Microsoft Corporation | Grip Detection |
US9311718B2 (en) | 2014-01-23 | 2016-04-12 | Microsoft Technology Licensing, Llc | Automated content scrolling |
US9691181B2 (en) | 2014-02-24 | 2017-06-27 | Sony Interactive Entertainment Inc. | Methods and systems for social sharing head mounted display (HMD) content with a second screen |
US20150253574A1 (en) | 2014-03-10 | 2015-09-10 | Ion Virtual Technology Corporation | Modular and Convertible Virtual Reality Headset System |
CN106233227B (zh) | 2014-03-14 | 2020-04-28 | 索尼互动娱乐股份有限公司 | 具有体积感测的游戏装置 |
EP3117263B1 (de) | 2014-03-14 | 2018-05-09 | Sony Interactive Entertainment Inc. | Verfahren und systeme zur verfolgung einer kopfmontierten anzeige sowie kalibrierungen für anpassungen der kopfmontierten anzeige |
US9361732B2 (en) | 2014-05-01 | 2016-06-07 | Microsoft Technology Licensing, Llc | Transitions between body-locked and world-locked augmented reality |
US9442293B2 (en) | 2014-05-06 | 2016-09-13 | Microsoft Technology Licensing, Llc | Composite variable light attenuator |
US9741169B1 (en) | 2014-05-20 | 2017-08-22 | Leap Motion, Inc. | Wearable augmented reality devices with object detection and tracking |
US10782657B2 (en) | 2014-05-27 | 2020-09-22 | Ultrahaptics IP Two Limited | Systems and methods of gestural interaction in a pervasive computing environment |
US9868449B1 (en) | 2014-05-30 | 2018-01-16 | Leap Motion, Inc. | Recognizing in-air gestures of a control object to control a vehicular control system |
US10371944B2 (en) | 2014-07-22 | 2019-08-06 | Sony Interactive Entertainment Inc. | Virtual reality headset with see-through mode |
CN204480228U (zh) * | 2014-08-08 | 2015-07-15 | 厉动公司 | 运动感测和成像设备 |
US10073590B2 (en) | 2014-09-02 | 2018-09-11 | Apple Inc. | Reduced size user interface |
US9984505B2 (en) | 2014-09-30 | 2018-05-29 | Sony Interactive Entertainment Inc. | Display of text information on a head-mounted display |
US9740010B2 (en) | 2014-11-28 | 2017-08-22 | Mahmoud A. ALHASHIM | Waterproof virtual reality goggle and sensor system |
-
2014
- 2014-08-12 CN CN201420453536.4U patent/CN204480228U/zh active Active
- 2014-08-12 JP JP2014164597A patent/JP2016038889A/ja active Pending
- 2014-08-12 DE DE202014103729.2U patent/DE202014103729U1/de not_active Expired - Lifetime
-
2015
- 2015-08-07 US US14/821,499 patent/US10349036B2/en active Active
-
2019
- 2019-07-08 US US16/505,265 patent/US10880537B2/en active Active
-
2020
- 2020-12-23 US US17/133,616 patent/US11483538B2/en active Active
-
2022
- 2022-10-24 US US17/972,288 patent/US11778159B2/en active Active
-
2023
- 2023-09-28 US US18/374,661 patent/US20240031547A1/en active Pending
Non-Patent Citations (2)
Title |
---|
"Die Multilateration ist eine Navigationstechnik auf der Grundlage der Messung in der Entfernung zu zwei Stationen an bekannten Positionen, die Signale zu bekannten Zeitpunkten übertragen." Siehe Wikipedia, unter http://en.wikipedia.org/w/index.php?title=Multilateration&oldid=523281858, aufgerufen am 16. November 2012, um 06:07 UTC |
"Visio-Tactile-Projector" Youtube (https://www.youtube.com/watch?v=Bb0hNMxxewg) (aufgerufen am 15. Januar 2014) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3234685A4 (de) * | 2014-12-18 | 2018-06-13 | Facebook, Inc. | System, vorrichtung und verfahren zur bereitstellung einer benutzerschnittstelle für eine virtuelle realität |
US10559113B2 (en) | 2014-12-18 | 2020-02-11 | Facebook Technologies, Llc | System, device and method for providing user interface for a virtual reality environment |
EP3179338A1 (de) * | 2015-12-11 | 2017-06-14 | Tata Consultancy Services Ltd. | Auf hybrider realität basierte objektinteraktion und steuerung |
EP3179338B1 (de) * | 2015-12-11 | 2021-07-14 | Tata Consultancy Services Ltd. | Auf hybrider realität basierte objektinteraktion und steuerung |
Also Published As
Publication number | Publication date |
---|---|
US20190335158A1 (en) | 2019-10-31 |
US20160044298A1 (en) | 2016-02-11 |
US20210120222A1 (en) | 2021-04-22 |
US20240031547A1 (en) | 2024-01-25 |
JP2016038889A (ja) | 2016-03-22 |
US11483538B2 (en) | 2022-10-25 |
CN204480228U (zh) | 2015-07-15 |
US11778159B2 (en) | 2023-10-03 |
US10349036B2 (en) | 2019-07-09 |
US10880537B2 (en) | 2020-12-29 |
US20230042990A1 (en) | 2023-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE202014103729U1 (de) | Augmented-Reality mit Bewegungserfassung | |
US10437347B2 (en) | Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments | |
US11676349B2 (en) | Wearable augmented reality devices with object detection and tracking | |
US11782513B2 (en) | Mode switching for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments | |
US20230125265A1 (en) | Safety for wearable virtual reality devices via object detection and tracking | |
CN106255943B (zh) | 身体锁定增强现实与世界锁定增强现实之间的转换 | |
CN107066962B (zh) | 用于通过光学成像进行的对象检测和表征的增强对比度 | |
DE202014104297U1 (de) | Kraftfahrzeug- und Industriebewegungssensorvorrichtung | |
WO2020132243A1 (en) | Multi-camera cross reality device | |
TW201506806A (zh) | 凝視追蹤之方法 | |
DE102018103572A1 (de) | Informationsverarbeitungseinrichtung, informationsverarbeitungsverfahren und aufzeichnungsmedium | |
CN113822977A (zh) | 图像渲染方法、装置、设备以及存储介质 | |
US20230140737A1 (en) | Drift cancelation for portable object detection and tracking | |
EP3141985A1 (de) | Modul zu identifizierung angeschauter virtueller objekte, system zur implementierung von blickdurchlässigkeit und zugehöriges verfahren | |
CN106470337B (zh) | 用于个性化全方向视频景深的方法、装置和计算机可读存储介质 | |
DE112018008019T5 (de) | Echtzeit-Multi View-Detektion von Objekten in Multicamera-Umgebungen | |
US20230122149A1 (en) | Asymmetric communication system with viewer position indications | |
Lo | Embodied Humanistic Intelligence: Design of Augmediated Reality Digital Eye Glass | |
Rampersad | Three-Dimensional High Dynamic Range For Wearable Sousveillance Technologies |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R207 | Utility model specification |
Effective date: 20141016 |
|
R156 | Lapse of ip right after 3 years |