DE202014103729U1 - Augmented-Reality mit Bewegungserfassung - Google Patents

Augmented-Reality mit Bewegungserfassung Download PDF

Info

Publication number
DE202014103729U1
DE202014103729U1 DE202014103729.2U DE202014103729U DE202014103729U1 DE 202014103729 U1 DE202014103729 U1 DE 202014103729U1 DE 202014103729 U DE202014103729 U DE 202014103729U DE 202014103729 U1 DE202014103729 U1 DE 202014103729U1
Authority
DE
Germany
Prior art keywords
information
image
sensors
world space
real world
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202014103729.2U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leap Motion Inc
Original Assignee
Leap Motion Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leap Motion Inc filed Critical Leap Motion Inc
Publication of DE202014103729U1 publication Critical patent/DE202014103729U1/de
Expired - Lifetime legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

Bewegungssensorische und bildgebende Vorrichtung, umfassend: eine Vielzahl bildgebender Sensoren, die angeordnet ist, um stereoskopische Bildinformationen einer betrachteten Szene bereitzustellen; eine oder mehr über den Bildsensoren angeordnete Beleuchtungsquellen; und eine Steuerung, die an die bildgebenden Sensoren und die Beleuchtungsquellen gekoppelt ist, um deren Betrieb zu steuern, Bildinformationen einer Szene zu erhalten und wenigstens eine nahezu Echtzeit-Weiterleitung von Bildinformationen an einen Benutzer bereitzustellen.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft eine hochfunktionelle/hochgenaue sensorische und bildgebende Vorrichtung für die Verwendung in tragbaren Sensorsysteme zur Erfassung von Gesten in einem dreidimensionalen (3D) sensorischen Raum mit Bildgebung oder anderen Sensoren und zur Darstellung einer 3D Augmented-Reality-Umgebung für einen Benutzer.
  • HINTERGRUND
  • Eine Geräteklasse, wie Google Glass, bietet die Möglichkeit, Informationen darzustellen, die auf einem durchsichtigen, von einem Benutzer getragenen Bildschirm eingeblendet sind. Eine andere Geräteart, wie Oculus Rift, stellt dem Benutzer einen Virtual-Reality-Anzeige, ohne Informationen aus der realen Welt, die den Benutzer umgibt, zur Verfügung. Beide Arten von Vorrichtungen berücksichtigen jedoch nicht ausreichend die Einbindung virtueller (z. B., rechnerischer) Informationen in einen Echtzeit-Bilddatenstrom, der die Umgebung, in der sich der Träger befindet, wiedergibt. Daher besteht ein Bedarf für eine hochfunktionelle sensorische und bildgebende Vorrichtung, die zur Erfassung von Bildinformationen des Orts und zur Bereitstellung wenigstens einer nahezu Echtzeit-Weiterleitung von Bildgebungsinformationen an einen Benutzer geeignet ist. Die sensorische und bildgebende Vorrichtung könnte im Idealfall an ein tragbares oder ein transportables Gerät gekoppelt werden, um ein tragbares sensorisches System zu bilden, das in der Lage ist, dem Träger die Bildinformation anzuzeigen, die um virtuelle oder erzeugte Informationsdarstellungen erweitert wurde. Keine bisher bekannten Geräte bieten diese Fähigkeiten.
  • ZUSAMMENFASSUNG
  • Ausführungsformen der vorliegenden Erfindung befassen sich mit diesen und anderen Problemen durch Bereitstellen einer bewegungssensorischen und bildgebenden Vorrichtung, die zur Erfassung von Bildinformationen des Orts und zur Bereitstellung wenigstens einer nahezu Echtzeit-Weiterleitung von Bildgebungsinformationen an einen Benutzer geeignet ist. Die sensorische und bildgebende Vorrichtung kann als eigenständiges Gerät oder an ein tragbares oder transportables Gerät gekoppelt verwendet werden, um ein tragbares sensorisches System zu bilden, das in der Lage ist, dem Träger die Bildinformation anzuzeigen, die um virtuelle oder erzeugte Informationsdarstellungen erweitert wurde.
  • Eine Ausführungsform einer bewegungssensorischen und bildgebenden Vorrichtung umfasst eine Vielzahl bildgebender Sensoren, die angeordnet ist, um stereoskopische Bildgebungsinformationen für eine betrachtete Szene zu bilden; eine oder mehrere über den bildgebenden Sensoren angeordnete Beleuchtungsquellen; und eine an die bildgebenden Sensoren und Lichtquellen gekoppelte Steuerung, um deren Betrieb zu steuern. Durch die Steuerung kann die Vorrichtung Bildinformationen der Szene erfassen und eine wenigstens nahezu Echtzeit-Weiterleitung von Bildinformationen an einen Benutzer bereitstellen. Die Vorrichtung ist an ein tragbares Gerät koppelbar, um ein tragbares sensorisches System zu bilden, das in der Lage ist, dem Träger die Bildinformation anzuzeigen, die um virtuelle oder erzeugte Informationsdarstellungen erweitert wurde.
  • In einer Ausführungsform nimmt eine bewegungssensorische und bildgebende Vorrichtung ferner Bildinformation für Steuerobjekte – einschließlich Steuerobjekte wie menschliche Hände – innerhalb des Sichtfeldes der bildgebenden Sensoren auf. Die Bildgebungsinformationen für die Steuerobjekte von Interesse können verwendet werden, um Gesteninformationen, die einen Befehl an eine gesteuerte Maschine anzeigen, zu ermitteln. In den Ausführungsformen kann die Vorrichtung Positionen, Posen und Bewegungen von Objekten, die den Träger der Vorrichtung umgeben, mit einer Sub-Millimeter-Genauigkeit erfassen und diese Informationen zur Einbindung in die an den Benutzer übermittelte Darstellung bereitstellen.
  • In einer Ausführungsform umfasst eine bewegungssensorische und bildgebende Vorrichtung Funktionen, um Informationen aus Pixeln, die für IR-Licht empfindlich sind, von Informationen aus Pixeln, die für sichtbares Licht, z. B., RGB (rot, grün und blau), empfindlich sind, voneinander zu trennen und Bildinformationen von IR-(Infrarot)-Sensoren für die Gestenerkennung und Bildinformationen von RGB-Sensoren, die als Live-Video-Feed (bzw. Live-Videozuspielung) über eine Darstellungsschnittstelle zur Verfügung gestellt werden, zu verarbeiten. Beispielsweise wird ein Videodatenstrom mit einer Bildersequenz einer Szene in der realen Welt mit Kameras, die einen Satz RGB-Pixel und einen Satz IR-Pixel aufweisen, aufgenommen. Informationen aus den IR-empfindlichen Pixeln werden für die Verarbeitung aussortiert, um Gesten zu erkennen. Informationen aus den RGB-empfindlichen Pixeln werden an eine Darstellungsschnittstelle einer tragbaren Vorrichtung (HUD, HMD, etc.) als Live-Video-Feed zur Ausgabe einer Darstellung weitergegeben. Die Darstellungsausgabe wird einem Benutzer der tragbaren Vorrichtung angezeigt. Ein oder mehrere virtuelle Objekte können in den Videodatenstrombildern eingebunden sein, um die Darstellungsausgabe zu bilden. Dementsprechend kann die Vorrichtung eine Gestenerkennung, eine Realwelt-Darstellung von Realwelt-Objekten durch Weiterleiten von Video-Feeds, und/oder eine Augmented-Reality-Umgebung (bzw. eine erweiterte Realität) mit virtuellen Objekten, die in die Realwelt-Ansicht eingebunden sind, bereitstellen.
  • In einer Ausführungsform kann eine bewegungssensorische und bildgebende Vorrichtung zur Bewegungsverfolgung der Vorrichtung selbst unter Verwendung einer Kombination von RGB- und IR-Pixeln der Kameras verwendet werden. Insbesondere umfasst dies die Erfassung von ungenauen oder groben Merkmalen und entsprechenden Merkmalswerten eines Realwelt-Raums mit RGB-Pixeln und die Erfassung von feinen oder genauen Merkmalen und entsprechenden Merkmalswerten des Realwelt-Raums mit IR-Pixeln. Einmal erfasst, wird die Bewegungsinformation des tragbaren Sensorsystems hinsichtlich wenigstens eines Merkmals der Szene auf der Grundlage des Vergleichs von Merkmalswerten, die zu unterschiedlichen Zeitpunkten erfasst wurden, ermittelt. Zum Beispiel ist ein Merkmal eines Realwelt-Raums ein Objekt an einer bestimmten Position in dem Realwelt-Raum, und dann kann der Merkmalswert die dreidimensionalen (3D) Koordinaten der Position des Objekts in dem Realwelt-Raum darstellen. Wenn sich zwischen Paaren von Bildausschnitten oder anderen Bildvolumen der Wert der Positionskoordinaten ändert, dann kann dies dazu verwendet werden, um Bewegungsinformationen des tragbaren sensorischen Systems in Bezug auf das Objekt, dessen Position sich zwischen den Bildausschnitten geändert hat, zu bestimmen.
  • In einem anderen Beispiel ist ein Merkmal eines Realwelt-Raums eine Wand in dem Realwelt-Raum und der entsprechende Merkmalswert ist die Ausrichtung der Wand wie sie von einem Betrachter, der mit einem tragbaren sensorischen System verbunden ist, wahrgenommen wird. In diesem Beispiel kann dies, wenn eine Änderung in der Ausrichtung der Wand zwischen aufeinanderfolgenden Bildausschnitten, die von einer elektronisch an das tragbare sensorische System gekoppelten Kamera erfasst werden, registriert wird, dann eine Positionsänderung des tragbaren sensorischen Systems, das auf die Wand sieht, anzeigen.
  • Gemäß einer Ausführungsform können Informationen von RGB-Pixeln einer Kamera verwendet werden, um ein Objekt in dem Realwelt-Raum zusammen mit markanten oder groben Merkmalen des Objekts aus einem Bild oder einer Sequenz von Bildern, wie Objektkontur, Form, volumetrische Form, Skelettform, Silhouetten, Gesamtanordnung und/oder Struktur der Objekte in einem Realwelt-Raum zu identifizieren. Dies kann durch Messen einer Durchschnittspixelintensität eines Bereichs oder unterschiedlicher Strukturen von Bereichen erreicht werden. Somit ermöglichen die RGB-Pixel die Erfassung einer groben Schätzung des Realwelt-Raums und/oder der Objekte in dem Realwelt-Raum.
  • Ferner können Daten aus den IR-Pixeln verwendet werden, um feine oder genaue Merkmale des Realwelt-Raums aufzunehmen, die die aus den RGB-Pixeln extrahierten Daten verbessern. Beispiele für feine Merkmale sind Oberflächenstrukturen, Kanten, Rundungen und andere schwache Merkmale des Realwelt-Raums und der Objekte in dem Realwelt-Raum. In einem Beispiel werden, während die RGB-Pixel ein Volumenmodell einer Hand erfassen, IR-Pixel verwendet, die Venen- und/oder Arterienmuster oder Fingerabdrücke der Hand zu erfassen.
  • Einige andere Ausführungsformen umfassen die Erfassung von Bilddaten unter Verwendung der RGB- und IR-Pixel in verschiedenen Kombinationen und Permutationen. Zum Beispiel kann eine Ausführungsform die RGB- und IR-Pixel zur Durchführung einer Gesamtgrößenerfassung von Bilddaten gleichzeitig aktivieren, ohne zwischen groben oder feinen Merkmalen zu unterscheiden. Eine weitere Ausführungsform kann die periodische Verwendung der RGB- und IR-Pixel umfassen. Noch eine weitere Ausführungsform kann die Aktivierung der RGB- und IR-Pixel gemäß einer quadratischen oder Gauß-Funktion umfassen. Einige andere Ausführungsformen können das Durchführen eines ersten Scans unter Verwendung der IR-Pixel, gefolgt von einem RGB-Scan, und umgekehrt, umfassen.
  • In einer Ausführungsform werden die Umgebungslichtbedingungen bestimmt und verwendet, die Anzeige der Ausgabe anzupassen. Zum Beispiel werden Informationen aus dem RGB-Pixelsatz bei normalen Lichtverhältnissen und Informationen aus dem IR-Pixelsatz bei dunklen Lichtverhältnissen angezeigt. Alternativ oder zusätzlich dazu können Informationen aus dem IR-Pixelsatz verwendet werden, um die Informationen aus dem RGB-Pixelsatz bei schwachen Lichtverhältnissen zu verbessern, oder umgekehrt. Einige Ausführungsformen erhalten von einem Benutzer eine Auswahl, die einen bevorzugten Bildschirm anzeigt, der aus Farbbildern von den RGB-Pixel und IR-Bildern von den IR-Pixel, oder Kombinationen davon ausgewählt wird. Alternativ oder zusätzlich dazu kann die Vorrichtung selbst dynamisch zwischen Videoinformationen, die mittels RGB-empfindlicher Pixel erfasst wurden, und Videoinformationen, die mittels IR-empfindlicher Pixel erfasst wurden, für die Anzeige in Abhängigkeit von den Umgebungsbedingungen, den Benutzereinstellungen, der Situationswahrnehmung, anderer Faktoren oder Kombinationen davon wechseln.
  • In einer Ausführungsform werden Informationen aus den IR-empfindlichen Pixeln für die Verarbeitung einer Gestenerkennung ausgesondert, während die Informationen aus den RGB-empfindlichen Pixeln als ein Live-Video-Feed zu einem Ausgang weitergeleitet werden, wodurch die Bandbreite bei der Verarbeitung der Gestenerkennung bewahrt werden kann. Bei der Gestenverarbeitung können Merkmale in den Bildern, die Objekten in der realen Welt entsprechen, erfasst werden. Die Merkmale der Objekte werden über mehrere Bilder hinweg korreliert, um Veränderungen zu ermitteln, die sich auf Gestenbewegungen beziehen können. Die Gestenbewegungen können verwendet werden, um Befehlsinformationen an eine gesteuerte Maschine, darauf angesiedelte Anwendungen oder Kombinationen davon zu ermitteln.
  • In einer Ausführungsform werden Bewegungssensoren und/oder andere Arten von Sensoren an ein Bewegungserfassungssystem gekoppelt, um die Bewegung von zumindest dem Sensor des Bewegungserfassungssystems, die zum Beispiel auf die Berührung durch den Benutzer zurückzuführen ist, zu überprüfen. Eine Information der Bewegungssensoren kann verwendet werden, um eine erste und eine zweite Positionsinformation des Sensors in Bezug auf einen festen Punkt zu einem ersten und zweiten Zeitpunkt zu bestimmen. Es wird eine Information über eine Differenz zwischen der ersten und der zweiten Positionsinformation ermittelt. Eine Bewegungsinformation für den Sensor mit Bezug auf den festen Punkt wird aus der Differenzinformation berechnet. Die Bewegungsinformation für den Sensor wird auf eine scheinbare, von dem Sensor erfasste Umgebungsinformation angewendet, um die Bewegung des Sensors daraus zu entfernen, um die tatsächliche Umgebungsinformation zu erhalten, die übermittelt wird. Eine Steuerinformation kann an ein System übermittelt werden, das ausgebildet ist, ein Virtual-Reality- oder Augmented-Reality-Erlebnis über ein tragbares Gerät und/oder an Systeme weiterzuleiten, die Maschinen oder dergleichen steuern, auf der Grundlage einer Bewegungserfassungsinformation für ein sich im Raum bewegendes Objekt, die vom Sensor stammt und eingestellt ist, die Bewegung des Sensors selbst zu entfernen. In einigen Anwendungen kann ein Erlebnis von einer virtuellen Vorrichtung durch Hinzufügen von haptischen, audiobezogenen und/oder visuellen Projektionsmittel erweitert werden.
  • In einer Ausführung wird eine scheinbare Umgebungsinformation aus einer Positionsinformation eines Objektabschnitts zu dem ersten Zeitpunkt und dem zweiten Zeitpunkt mit Hilfe eines Sensors des Bewegungserfassungssystems erfasst. Die Objektabschnittsbewegungsinformation bezogen auf den festen Punkt zum ersten Zeitpunkt und zum zweiten Zeitpunkt wird auf Grundlage der Differenzinformation und der Bewegungsinformation des Sensors berechnet.
  • In weiteren Ausführungsformen wird ein Pfad (bzw. Bahn) des Objektes durch wiederholtes Bestimmen von Bewegungsinformationen des Sensors mittels der Bewegungssensoren und des Objektabschnitts mittels des Sensors zu aufeinanderfolgenden Zeitpunkten und durch Analysieren einer Sequenz von Bewegungsinformationen berechnet, um einen Pfad des Objektabschnitts in Bezug auf den festen Punkt zu bestimmen. Die Pfade können mit Vorlagen zur Ermittlung von Bewegungsabläufen verglichen werden. Bewegungsabläufe von Körperteilen können als Gesten erkannt werden. Gesten können Befehlsinformationen anzeigen, die an ein System übermittelt werden. Einige Gesten übermitteln Befehle, um die Betriebsweisen eines Systems zu ändern (z. B., vergrößern, verkleinern, schwenken, mehr Details anzeigen, nächste Bildschirmseite, und so weiter).
  • Vorteilhafterweise können einige Ausführungsformen ein verbessertes Benutzererlebnis, mehr Sicherheit und eine verbesserte Funktionalität für Benutzer von tragbaren Geräten ermöglichen. Einige Ausführungsformen bieten weitere Möglichkeiten für Bewegungserfassungssysteme, Gesten zu erkennen, so dass der Benutzer intuitiv Gesten ausführt, die einen virtualisierten Kontakt mit einem virtuellen Objekt beinhalten. Zum Beispiel kann eine Vorrichtung die Funktion aufweisen, die Bewegung von Objekten von Bewegungen der Vorrichtung selbst zu unterscheiden, um eine genaue Gestenerkennung zu erleichtern. Einige Ausführungsformen können eine verbesserte Kopplung mit einer Vielzahl von tragbaren oder transportablen Maschinen gewährleisten (z. B., Smartphones, tragbare Computersysteme, einschließlich Laptops, Tablets, Minicomputer, zweckgebundene Visualisierungscomputer, einschließlich Head-Up-Displays (HUD) für beispielsweise den Einsatz in Flugzeugen oder Autos, tragbare Virtual- und/oder Augmented-Reality-Systeme, einschließlich Google Glass, und andere, Grafikprozessoren, Embedded-Mikrocontroller, Spielkonsolen, oder dergleichen; drahtgebundene oder drahtlose Netzwerke von einer oder mehreren der vorstehenden Ausführungen und/oder Kombinationen davon), und die Notwendigkeit für kontaktbasierte Eingabegeräte wie eine Maus, Joystick, Touchpad oder Touchscreen beseitigen oder verringern. Einige Ausführungsformen können eine bessere Kopplung mit Rechnern und/oder anderen Maschinen bereitstellen als dies mit bisher bekannten Technologien möglich ist. In einigen Ausführungsformen können vielfältigere Erlebnisse bei einer Mensch-Maschine-Verbindung zur Verfügung gestellt werden.
  • Weitere Aspekte und Vorteile der vorliegenden Erfindung sind aus der folgenden Beschreibung der Zeichnungen, der detaillierten Beschreibung und den Ansprüchen ersichtlich.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt ein Beispiel einer bewegungssensorischen und bildgebenden Vorrichtung.
  • 2 zeigt ein Beispiel eines tragbaren sensorischen Systems auf Grundlage einer bewegungssensorischen und bildgebenden Vorrichtung.
  • 3 zeigt ein vereinfachtes Blockdiagramm eines Computersystems.
  • 4 zeigt grundlegende Operationen und Funktionseinheiten, die bei der Bewegungserfassung und Bildanalyse verwendet werden.
  • 5 zeigt ein Beispiel einer Augmented-Reality-Weiterleitung, die von einer bewegungssensorischen und bildgebenden Vorrichtung dargestellt wird.
  • BESCHREIBUNG
  • Die vorliegende Erfindung betrifft eine bewegungssensorische und bildgebende Vorrichtung, die Echtzeit oder nahezu Echtzeitbilder einer Szene erfassen, eine Geste in einem sensorischen 3D-Raum erkennen und die Geste als einen Befehl an ein System oder gesteuerte Maschine auswerten, und die erfasste Bildinformationen und gegebenenfalls den Befehl zur Verfügung stellen kann.
  • Ausführungsformen umfassen das Bereitstellen eines ”Pass-Through” (bzw. einer Weiterleitung), bei dem eine Live-Videozuspielung an den Benutzer der Vorrichtung mit virtueller Realität, entweder allein oder in Verbindung mit dem Anzeigen eines oder mehrerer virtueller Objekte, weitergeleitet wird, so dass der Benutzer die reale Welt direkt wahrnehmen kann. Zum Beispiel kann der Benutzer eine tatsächliche Schreibtischumgebung sowie virtuelle Anwendungen oder Objekte darin vermischt sehen. Durch die Gestenerkennung und -erfassung können Implementierungen den Benutzer befähigen, neben den virtuellen Objekten (beispielsweise das Schweben eines virtuellen Dokuments über der Oberfläche des Schreibtischs des Benutzers) mit Objekten in Echt (z. B., eine Cola-Dose des Benutzers) zu interagieren und diese zu greifen. In einigen Ausführungsformen werden Informationen aus unterschiedlichen Spektralquellen gezielt eingesetzt, um den einen oder anderen Aspekt des Erlebnisses zu steuern. Beispielsweise können Informationen von IR-empfindlichen Sensoren verwendet werden, um Handbewegungen des Benutzers zu erfassen und Gesten zu erkennen. Während Informationen aus dem sichtbaren Lichtbereich eingesetzt werden, um die Weiterleitung einer Video-Darstellung zu steuern, wird eine Realwelt-Darstellung aus realen und virtuellen Objekten erzeugt. In einem weiteren Beispiel, können Kombinationen von Bildinformationen aus verschiedenen Quellen verwendet werden; das System – oder der Benutzer – wählt zwischen IR-Bildern und Bildern aus sichtbarem Licht, auf der Grundlage situationsabhängiger, zustandsabhängiger, umweltabhängiger oder anderer Faktoren oder Kombinationen davon. Beispielsweise kann die Vorrichtung von einer Bildgebung mit sichtbarem Licht zu einer Bildgebung mit IR wechseln, wenn es die Umgebungslichtbedingungen erfordern. Der Benutzer ist befähigt, auch die Bildgebungsquelle zu steuern. In noch weiteren Beispielen können Informationen einer Sensorart verwendet werden, um Informationen einer anderen Sensorart zu erweitern, zu korrigieren oder zu untermauern. Informationen von IR-Sensoren können verwendet werden, um die Anzeige der Bildgebung, die von Sensoren, die für sichtbares Licht empfindlich sind, durchgeführt werden, zu korrigieren, und umgekehrt. Bei schwachem Licht oder in anderen Situationen, die der optischen Bildgebung nicht zuträglich sind, in denen Freiform-Gesten nicht mit ausreichender Zuverlässigkeit optisch erfasst können, können Audio-Signale oder Vibrationswellen erfasst und verwendet werden, um die Richtung und Lage des Objekts, wie im Nachfolgenden genauer beschrieben, bereitzustellen.
  • Die vorliegende Erfindung kann angewendet werden, um ein Benutzererlebnis in umfassenden Virtual-Reality-Umgebungen mit tragbaren Sensorsysteme zu verbessern. Beispiele von Systemen, Vorrichtungen und Verfahren gemäß den offenbarten Ausführungsformen werden in einem ”tragbare Sensorsysteme”-Kontext beschrieben. Die Beispiele für ”tragbare Sensorsysteme” dienen ausschließlich der näheren Beschreibung der Zusammenhänge und dem besseren Verständnis der offenbarten Ausführungsformen. In anderen Fällen können Beispiele gestenbasierter Interaktionen in anderen Zusammenhängen, wie Kraftfahrzeugen, Robotern oder anderen Maschinen, auf virtuelle Spiele, virtuelle Anwendungen, virtuelle Programme, virtuelle Betriebssysteme, etc., angewandt werden. Zudem sind andere Anwendungen möglich, sodass die folgenden Beispiele nicht als endgültig oder einschränkend im Hinblick auf Umfang, Kontext, oder Umgebungssituationen aufgefasst werden sollten. Es ist somit für einen Fachmann offensichtlich, dass die Ausführungsformen innerhalb oder außerhalb des ”tragbare Sensorsysteme”-Kontexts ausführbar sind.
  • Zunächst wird auf 1 Bezug genommen, die ein Beispiel einer bewegungssensorischen Vorrichtung 100, die eine Beleuchtungsplatine 172 aufweist, die mit Befestigungselementen oder dergleichen an eine Hauptplatine 182 gekoppelt werden kann, zeigt. Eine Verkabelung (der Übersichtlichkeit halber nicht in 1 dargestellt) ist für eine elektrische Verbindung zwischen der Beleuchtungsplatine 172 und der Hauptplatine 182 für den Austausch von Signalen und Energiefluss vorgesehen. Die Befestigungselemente, die die Hauptplatine 182 (erster Teil) und die Beleuchtungsplatine 172 (zweiter Teil) miteinander verbinden, können ferner diese Teile an eine Montagefläche A einer tragbaren oder transportablen elektronischen Vorrichtung (z. B., HMD, HUD, Smartphone oder dergleichen) befestigen. Die Montagefläche A kann eine Fläche (intern oder extern) von einer tragbaren oder transportablen elektronischen Vorrichtung sein. Alternativ kann die Vorrichtung in einem Hohlraum oder einer Aufnahme einer tragbaren oder transportablen elektronischen Vorrichtung mit Reibungsschluss, einem Befestigungsmittel oder einer beliebigen Kombination davon angeordnet sein. Die Vorrichtung 100 kann in einer Vielzahl von tragbaren oder transportablen elektronischen Vorrichtungen eingebaut sein, um den Konstruktionsanforderungen einer Vielzahl von Anwendungen zu genügen.
  • Die Beleuchtungsplatine 172 weist eine Reihe von individuell steuerbaren Beleuchtungsquellen 115, 117 auf, wie zum Beispiel LEDs, die darauf eingebettet sind. Zwei Kameras 102, 104 erstellen eine stereoskopische Bild-basierte Erfassung einer betrachteten Szene und befinden sich in der vorliegenden Ausführungsform auf der Hauptplatine 182 der Vorrichtung 100. Die Hauptplatine 182 kann auch einen Prozessor für die Basisbildverarbeitung, die Steuerung der Kameras 102, 104 und der LEDs der Platine 172 umfassen. Es sind verschiedene Modifikationen des in 1 gezeigten Aufbaus möglich; beispielsweise können die Anzahl und die Anordnung der LEDs, der Photodetektoren und der Kameras variieren und die Abtast- und Bildgebungshardware auf einer einzigen Platine integriert sein, oder beides, abhängig von den Anforderungen einer bestimmten Anwendung.
  • Stereoskopische Bildgebungsinformationen der Kameras, 102, 104 werden selektiv oder kontinuierlich an einen Benutzer, der die tragbare oder transportable elektronische Vorrichtung trägt oder transportiert, übermittelt. Die Vorrichtung 100 kann direkte ”Echtzeit” oder nahezu Echtzeit-Zuspielungen von Bildinformationen der Kameras, Echtzeit oder nahezu Echtzeit-Bildinformationen, die durch computergenerierten Grafiken erweitert wurden, Informationen, Icons oder andere virtuelle Darstellungen, virtuelle Darstellungen der betrachteten Szene, und daraus ausgewählte zeitlich variierende Kombinationen umfassen. Auch können die von einem Benutzer durchgeführten Gesten von den Kameras 102, 104 der sensorischen Vorrichtung 100 aufgenommen werden, und die resultierende Bildinformation kann an ein Bewegungserfassungssystem zur Identifizierung und Bestimmung von Befehlen an jedes von den Gesten gesteuerte System (einschließlich der tragbaren bzw. mobile Vorrichtung selbst) weitergeleitet werden. Vorteilhafterweise kann durch das Einbinden einer Gestenerkennung mit Bildgebungsfunktionen in einer einzigen Bewegungssensorvorrichtung 100 eine hochfunktionelle, flexible und dennoch kompakte Vorrichtung gebildet werden, die zum Einbau in tragbare oder mobile elektronische Vorrichtungen geeignet ist, und so weiter.
  • Einige der Beleuchtungsquellen 115, 117 können in einigen Ausführungsformen eine zugeordnete Fokussierungsoptik aufweisen (der Klarheit halber nicht in 1 gezeigt). Eine der Platinen 172 oder 182 kann auch eine Steckdose/Steckdosen zur Kopplung eines Photodetektors/Photodetektoren (oder andere Sensoren), die der Klarheit halber nicht in 1 gezeigt sind, aufweisen. Informationen einer Erfassung durch den Photodetektor ändern sich hinsichtlich des Reflexionsvermögens, wodurch das Vorhandensein oder Fehlen von Objekten innerhalb eines Raumabschnitts, in den von den Beleuchtungsquellen, während einer ”Abtastung” des Raumabschnitts durch die Beleuchtungsquellen, z. B., LEDs, Licht emittiert wird, angezeigt wird.
  • Im Folgenden wird auf die 2 Bezug genommen, die ein System 200 zur Erfassung von Bilddaten gemäß einer Ausführungsform der vorliegenden Erfindung zeigt. Das System 200 ist vorzugsweise an eine tragbare Vorrichtung 201 gekoppelt, die ein persönliches Head-Mounted-Display (HMD) in Brillenform, wie in 2 gezeigt, oder in Helmform aufweist, oder mit einer Uhr, einem Smartphone oder einer anderen tragbaren Vorrichtungsart gekoppelt oder darin eingebaut, um ein tragbares Sensorsystem zu bilden.
  • In verschiedenen Ausführungsformen kann das System und Verfahren zur Erfassung einer 3D-Bewegung eines Objekts, wie hierin beschrieben, mit anderen Anwendungen, wie beispielsweise einer Head-Mounted-Vorrichtung oder einer mobilen Vorrichtung, ausgestattet sein. Unter erneuter Bezugnahme auf die 2, kann eine Head-Mounted-Vorrichtung 201 eine optische Anordnung 203 umfassen, die dem Benutzer eine Umgebung oder eine virtuelle Umgebung anzeigt; der Einbau des Bewegungserfassungssystems 200 in die Head-Mounted-Vorrichtung 201 ermöglicht es dem Benutzer, die angezeigte Umgebung interaktiv zu steuern. Beispielsweise kann eine virtuelle Umgebung virtuelle Objekte umfassen, die durch Handbewegungen des Benutzers, die von dem Bewegungserfassungssystem 200 nachverfolgt werden, betätigt werden können. In einer Ausführungsform erfasst das in die Head-Mounted-Vorrichtung 201 integrierte Bewegungserfassungssystem 200 eine Position und Form der Hand des Benutzers und projiziert diese auf die Anzeige der Head-Mounted-Vorrichtung 201, so dass der Benutzer seine Gesten sehen und die Objekte in der virtuellen Umgebung interaktiv steuern kann. Dies findet zum Beispiel bei Spielen oder beim Internet-Surfen Anwendung.
  • Das System 200 enthält einige Kameras 102, 104, die mit einem sensorischen Verarbeitungssystem 206 gekoppelt sind. Die Kameras 102, 104 können jede Art von Kamera umfassen, einschließlich Kameras, die für das gesamte sichtbare Spektrum empfindlich sind oder eine erhöhte Empfindlichkeit gegenüber einem bestimmten Wellenlängenbereich (z. B., dem Infrarot-(IR)-Bereich oder der Ultraviolettbereich) aufweisen; Im Allgemeinen bezieht sich der Begriff ”Kamera” hierin auf jede Vorrichtung (oder eine Kombination von Vorrichtungen), die zum Aufnehmen eines Bildes eines Objekts geeignet ist und das Bild in Form von digitalen Daten wiedergibt. Zum Beispiel können Zeilensensoren oder Zeilenkameras anstelle herkömmlicher Vorrichtungen, die ein zweidimensionales (2D)-Bild erfassen, verwendet werden. Der Begriff ”Licht” wird in der Regel verwendet, um irgendeine elektromagnetische Strahlung anzugeben, die sich innerhalb des sichtbaren Spektrums befinden kann oder nicht und ein Breitband (z. B., weißes Licht) oder Schmalband (z. B., eine einzelne Wellenlänge oder ein Wellenlängenschmalband) aufweisen kann.
  • Die Kameras 102, 104 sind vorzugsweise in der Lage, Videobilder aufzunehmen (d. h., aufeinanderfolgende Bildausschnitte mit einer gleichmäßigen Geschwindigkeit von ungefähr 15 Bilder pro Sekunde), obwohl keine bestimmter Bildfolge erforderlich ist. Die Funktionen der Kameras 102, 104 sind für die vorliegende Erfindung nicht entscheidend, und die Kameras können in Hinblick auf die Bildfolge, die Bildauflösung (z. B., Pixel pro Bild), die Farb- oder Intensitätsauflösung (z. B., die Bitanzahl der Intensitätsdaten pro Pixel), die Brennweite der Linsen, die Feldtiefe, usw., variieren. Im Allgemeinen können für eine bestimmte Anwendung alle Kameras verwendet werden, die in der Lage sind, auf Objekte in einem Raumvolumen von Interesse zu fokussieren. Zur Erfassung der Handbewegung einer ansonsten sich nicht bewegenden Person kann beispielsweise das Volumen von Interesse als ein Würfel mit etwa einem Meter auf einer Seite definiert werden.
  • Wie dargestellt, werden die Kameras 102, 104 durch die Bewegung der Vorrichtung 201 auf Teile eines Bereichs von Interesse 212 gerichtet, um eine virtuell wiedergegebene oder virtuell erweiterte Ansicht des Bereichs von Interesse 212 zu betrachten, der eine Vielzahl virtueller Objekte 216 umfassen und auch ein Objekt von Interesse 214 (in diesem Beispiel eine oder mehrere Hände), das sich innerhalb des Bereichs von Interesse 212 bewegt, enthalten kann. Ein oder mehrere Sensoren 208, 210 erfassen die Bewegungen der Vorrichtung 201. In einigen Ausführungsformen sind eine oder mehrere Lichtquellen 115, 117 angeordnet, um den Bereich von Interesse 212 zu beleuchten. In einigen Ausführungsformen sind eine oder mehrere der Kameras 102, 104 gegenüber der zu erfassenden Bewegung angeordnet, z. B., dort, wo sich die Hand 214 voraussichtlich hin bewegen wird. Dies ist eine optimale Position, da die Menge der über die Hand aufgezeichneten Informationen proportional zu der Anzahl der Pixel ist, die sie in den Kamerabildern besetzt, wobei die Hand mehr Pixel besetzen wird, wenn der Kamerawinkel in Bezug auf die „Zeigerichtung” der Hand so senkrecht wie möglich ist. Das sensorische Verarbeitungssystem 206, das beispielsweise ein Computersystem sein kann, kann den Betrieb der Kameras 102, 104 zur Aufnahme von Bildern des Bereichs von Interesse 212 und der Sensoren 208, 210 zur Erfassung von Bewegungen der Vorrichtung 201 steuern. Informationen von den Sensoren 208, 210 können auf Modelle der von den Kameras 102, 104 aufgenommenen Bilder angewendet werden, um die Auswirkungen durch die Bewegungen der Vorrichtung 201 aufzuheben, und um eine größere Genauigkeit des virtuellen Erlebnisses, das die Vorrichtung 201 wiedergibt, zu gewährleisten. Auf Grundlage der erfassten Bilder und Bewegungen der Vorrichtung 201 ermittelt das sensorische Verarbeitungssystem 206 die Position und/oder die Bewegung des Objekts 214 und gibt die Darstellungen davon über die Anordnung 203 für den Benutzer wieder.
  • Beispielsweise kann das Bildanalysesystem 206 als Schritt bei der Bestimmung der Position des Objekts 214 bestimmen, welche Pixel der von den Kameras 102, 104 aufgenommenen, verschiedenen Bilder Teile des Objekts 114 enthalten. In einigen Ausführungsformen kann jedes Pixel in einem Bild als ein ”Objekt”-Pixel oder ein ”Hintergrund”-Pixel eingeordnet werden, je nachdem, ob das Pixel einen Teil des Objekts 214 aufweist oder nicht. Die Objekt-Pixel können somit leicht auf Grundlage der Helligkeit von den Hintergrund-Pixel unterschieden werden. Ferner können Kanten des Objekts auch ohne weiteres auf Grundlage von Unterschieden in der Helligkeit zwischen benachbarten Pixeln auf einfache Weise erfasst werden, wodurch die Position des Objektes in jedem Bild bestimmbar ist. In einigen Ausführungsformen werden die Silhouetten eines Objekts von einem oder mehreren Bildern des Objekts, das Informationen über das Objekt aus verschiedenen Blickwinkeln zeigt, extrahiert. Während die Silhouetten unter Verwendung einer Anzahl verschiedener Verfahren erhalten werden können, werden die Silhouetten in einigen Ausführungsformen unter Verwendung von Kameras zur Aufnahme von Bildern des Objekts und durch Analysieren der Bilder zur Erfassung von Objektkanten erhalten. Die Korrelation von Objektpositionen zwischen den Bildern von Kameras 102, 104 und die Aufhebung der erfassten Bewegungen der Vorrichtung 201 von den Sensoren 208, 210 ermöglicht es dem Bildanalysesystem 206, die Position im 3D-Raum des Objekts 214 zu bestimmen, und die Analyse von Bildsequenzen ermöglicht es dem Bildanalysesystem 206, die 3D-Bewegung des Objekts 214 mit herkömmlichen Bewegungsalgorithmen oder anderen Verfahren zu rekonstruieren. Siehe zum Beispiel US-Patentanmeldung Nr. 13/414,485 (am 7. März 2012 eingereicht) und die vorläufigen US-Patentanmeldungen Nr. 61/724,091 (am 8. November 2012 eingereicht) und 61/587,554 (am 7. Januar 2012 eingereicht), deren gesamte Offenbarungen hiermit durch Bezugnahme aufgenommen sind.
  • Eine Darstellungsschnittstelle 220 verwendet Projektionstechniken in Verbindung mit der sensorbasierten Verfolgung, um virtuelle (oder virtualisiert reale) Objekte (visuelle, akustische, haptische und so weiter) darzustellen, die durch Anwendungen, die in die optische Anordnung 203 der Vorrichtung 201 ladbar oder in kooperativer Verbindung mit dieser sind, erzeugt werden, um einen Benutzer der Vorrichtung ein persönliches virtuelles Erlebnis zur Verfügung zu stellen. Die Projektion kann ein Bild oder eine andere visuelle Darstellung eines Objekts enthalten.
  • Eine Ausführungsform verwendet die Bewegungssensoren und/oder andere Arten von Sensoren, die an ein Bewegungserfassungssystem gekoppelt sind, um Bewegungen innerhalb einer realen Umgebung zu überwachen. Ein virtuelles Objekt, das in eine erweiterte Wiedergabe einer realen Umgebung eingebunden ist, kann zu einem Benutzer einer tragbaren Vorrichtung 201 projiziert werden. Eine Bewegungsinformation eines Körperteils des Benutzers kann zumindest teilweise auf der Grundlage einer sensorischen Information von den Bildgebungsmittel 102, 104 oder akustisch oder von anderen sensorischen Geräten bestimmt werden. Die Steuerinformation wird teilweise auf Grundlage einer Kombination der Bewegung der tragbaren Vorrichtung 201 an ein System weitergeleitet, und die erfasste Bewegung des Benutzers wird aus der sensorischen Information ermittelt, die von den Bildgebungsmittel 102, 104 oder akustisch oder von anderen sensorischen Geräten erhalten werden. Das virtuelle Erlebnis von der Vorrichtung kann in einigen Ausführungsformen durch Hinzufügen haptischer, audiobezogener und/oder anderer sensorischer Informationsprojektionen erweitert werden. Zum Beispiel kann mit Bezug auf 5 eine visuelle Projektionsanordnung 504 ein Bild einer Seite (z. B., ein virtuelle Vorrichtung 501) eines virtuellen Buches projizieren, das auf ein Objekt der realen Welt eingeblendet ist, z. B., der an einen Benutzer per Live-Video-Feed angezeigte Schreibtisch 216, wodurch ein virtuelles Erlebnis des Lesens eines Buches selbst, oder eines elektronisches Buches auf einem physischen E-Reader erzeugt wird, auch wenn kein Buch oder E-Reader vorhanden ist. Ein haptisches Projektionsmittel 506 kann das Gefühl der Textur des ”virtuellen Papiers” des Buches auf die Finger des Lesers projizieren bzw. übertragen. Ein Audio-Projektionsmittel 502 kann den Klang des Seitenumblätterns in Reaktion auf das Detektieren, dass der Leser eine Streifbewegung zum Umblättern der Seite durchgeführt hat, projizieren. Weil eine Augmented-Reality-Welt dargestellt wird, wird die Handrückseite 214 des Benutzers derart projiziert, dass die Szene für den Benutzer so aussieht, als ob der Benutzer auf seine eigene Hand (Hände) sähe.
  • Mit erneutem Bezug auf 2 ist eine Vielzahl von Sensoren 208, 210 an das sensorische Verarbeitungssystem 206 gekoppelt, um Bewegungen der Vorrichtung 201 zu erfassen. Die Sensoren 208, 210 können jede Art von Sensor umfassen, die nützlich sind, um Signale von verschiedenen Bewegungsparametern (Beschleunigung, Geschwindigkeit, Winkelbeschleunigung, Winkelgeschwindigkeit, Position/Orte) zu erhalten; im Allgemeinen bezieht sich der Begriff ”Bewegungsdetektor” hierin auf jede Vorrichtung (oder Kombination von Vorrichtungen) zur Umwandlung mechanischer Bewegung in ein elektrisches Signal. Solche Vorrichtungen können, einzeln oder in verschiedenen Kombinationen, Beschleunigungsmesser, Gyroskope und Magnetometer umfassen, die ausgebildet sind, Bewegungen durch Veränderungen in der Orientierung, dem Magnetismus oder der Schwerkraft zu erfassen. Es gibt viele Arten von Bewegungssensoren und Alternativen der Ausführungsformen unterscheiden sich stark.
  • Das dargestellte System 200 kann irgendeinen von verschiedenen anderen Sensoren, die der Klarheit halber nicht in der 2 gezeigt sind, alleine oder in verschiedenen Kombinationen umfassen, um das virtuelle Erlebnis für den Benutzer der Vorrichtung 201 zu verbessern. Zum Beispiel kann das System 206 in Situationen mit wenig Licht, in denen Freiform-Gesten optisch nicht mit hinreichender Sicherheit erkannt werden, in einen Touch-Modus wechseln, in dem Berührungsgesten auf der Grundlage akustischer oder vibrierender Sensoren erfasst werden. Alternativ kann das System 206 in den Touch-Modus oder in eine zusätzliche Bildaufnahme und -verarbeitung mit Berührungserfassung wechseln, wenn Signale von den akustischen oder vibrierenden Sensoren erfasst werden. In noch einem anderen Betriebsmodus kann eine Tipp- oder Berührungsgeste als ”Aufwach”-Signal dienen, um das Bild- und Audio-Analysesystem 206 von einem Standby-Modus in einen Betriebsmodus zu bringen. Zum Beispiel kann das System 206 in den Standby-Modus übergehen, wenn optische Signale von den Kameras 102, 104 nicht länger als eine Schwellwertzeitdauer vorhanden sind.
  • Es versteht sich, dass die Elemente in 2 veranschaulichend sind. In einigen Ausführungsformen kann es wünschenswert sein, das System 200 in einem anders geformten Gehäuse unterzubringen oder in eine größere Komponente oder Baugruppe einzubauen. Ferner sind Anzahl und Typ der Bildsensoren, der Bewegungsdetektoren, der Lichtquellen usw. der Klarheit halber schematisch dargestellt, aber weder die Größe noch die Anzahl ist in allen Ausführungsformen die gleiche.
  • Im Folgenden wird auf 3 Bezug genommen, die ein vereinfachtes Blockdiagramm eines Computersystems 300 zur Realisierung des sensorischen Verarbeitungssystems 206 zeigt. Das Computersystem 300 enthält einen Prozessor 302, einen Speicher 304, eine Bewegungsdetektor- und Kameraschnittstelle 306, die Darstellungsschnittstelle 220, Lautsprecher 309, ein Mikrophon(e) 310 und ein drahtlose Schnittstelle 311. Der Speicher 304 kann verwendet werden, um von dem Prozessor 302 auszuführende Befehle sowie Eingangs- und/oder Ausgangsdaten, die mit der Ausführung der Befehle in Verbindung gebracht werden, zu speichern. Insbesondere umfasst der Speicher 304 Anweisungen, die konzeptionell als eine Gruppe von im Folgenden näher beschriebenen Modulen dargestellt sind, die den Betrieb des Prozessors 302 und seine Interaktion mit anderen Hardware-Komponenten steuern. Ein Betriebssystem steuert die Durchführung systemnaher Systembasisfunktionen, wie Speicherzuweisung, Dateimanagement und Massenspeichergerätevorgänge. Das Betriebssystem kann eine Vielzahl von Betriebssystemen, wie das Microsoft WINDOWS-Betriebssystem, das Unix-Betriebssystem, das Linux-Betriebssystem, das Xenix-Betriebssystem, das IBM AIX-Betriebssystem, das Hewlett Packard UX-Betriebssystem, das Novell NETWARE-Betriebssystem, das Sun Microsystems SOLARIS-Betriebssystem, das OS/2-Betriebssystem, das BeOS-Betriebssystem, das MACINTOSH-Betriebssystem, das APACHE-Betriebssystem, ein OPENSTEP-Betriebssystem oder eine andere Betriebssystemplattform sein oder umfassen.
  • Die Rechnerumgebung kann auch andere entfernbare/nicht-entfernbare, flüchtige/nichtflüchtige Computerspeichermedien umfassen. Zum Beispiel kann ein Festplattenlaufwerk von nicht-entfernbaren, nichtflüchtigen magnetischen Medien lesen oder darauf schreiben. Eine Magnetplattenlaufwerk kann von einer entfernbaren, nichtflüchtigen Magnetplatte lesen oder darauf schreiben, und ein optisches Plattenlaufwerk kann von einer entfernbaren, nichtflüchtigen optischen Platte, wie einer CD-ROM oder anderen optischen Medien, lesen oder darauf schreiben. Andere entfernbare/nicht-entfernbare, flüchtige/nichtflüchtige Computerspeichermedien, die in der beispielhaften Betriebsumgebung verwendbar sind, umfassen Magnetbandkassetten, Flash-Speicherkarten, digitale, vielseitig verwendbare Disks, ein digitales Videoband, Halbleiterspeicher RAM, Halbleiterspeicher ROM und dergleichen, sind aber nicht darauf beschränkt. Die Speichermedien sind typischerweise über eine entfernbare oder nicht entfernbare Speicherschnittstelle mit dem Systembus verbunden.
  • Der Prozessor 302 kann ein Allzweck-Mikroprozessor sein, aber je nach Anwendung alternativ einen Mikrocontroller, ein peripheres integriertes Schaltkreiselement, ein CSIC (anwenderspezifisch-integrierte Schaltung), ein ASIC (anwenderspezifisch-integrierte Schaltung), eine logische Schaltung, einen digitalen Signalprozessor, eine programmierbare Logikvorrichtung, wie ein FPGA (Field Programmable Gate Array), eine PLD (programmierbare Logikvorrichtung), eine PLA (programmierbares Logik-Array), einen RFID-Prozessor, Smart Chip oder ein anderes Gerät oder Vorrichtungsanordnung, die für die Umsetzung der Verfahrensschritte der Erfindung geeignet ist, umfassen.
  • Die Bewegungsdetektor- und Kamera-Schnittstelle 306 kann Hardware und/oder Software umfassen, die die Kommunikation zwischen dem Computersystem 300 und den Kameras 102, 104, sowie den Sensoren 208, 210 (siehe 2) ermöglicht. Somit kann zum Beispiel die Bewegungsdetektor- und Kameraschnittstelle 306 eine oder mehrere Kameradatenanschlüsse 316, 318, Beleuchtungsquellenanschlüsse 313, 315 und Bewegungsdetektoranschlüsse 317, 319 an die die Kameras, Beleuchtungsquellen und Bewegungsdetektoren angeschlossen werden können (unter Verwendung herkömmlicher Stecker und Buchsen), sowie Hardware- und/oder Software-Signalprozessoren zur Modifizierung von Datensignalen, die aus den Kameras und Bewegungsdetektoren empfangen werden (z. B., zur Verringerung von Rauschen oder Umformatierung von Daten), vor dem Bereitstellen der Signale als Eingänge an ein Bewegungserfassungsprogramm (”mocap”) 314, das auf dem Prozessor 302 ausführt wird, umfassen. In einigen Ausführungsformen kann die Bewegungsdetektor- und Kameraschnittstelle 306 auch Signale an die Kameras, Beleuchtungsquellen und Sensoren übertragen, beispielsweise zur Aktivierung oder zur Deaktivierung derselben, um die Kameraeinstellungen (Bildfolge, Bildqualität, Empfindlichkeit, etc.), die Beleuchtungseinstellungen (Intensität, Dauer, etc.), die Sensoreinstellungen (Kalibrierung, Empfindlichkeitsstufe, etc) oder dergleichen zu steuern. Solche Signale können beispielsweise in Reaktion auf die Steuerungssignale von dem Prozessor 302 übertragen werden, die wiederum in Reaktion auf Benutzereingaben oder andere detektierte Ereignisse erzeugt werden können.
  • Die das mocap Programm 314 definierenden Befehle werden im Speicher 304 gespeichert, und diese Befehle führen bei deren Ausführung bei den von den Kameras bereitgestellten Bildern und den Audiosignalen von den Sensoren, die mit der Bewegungsdetektor- und Kameraschnittstelle 306 verbunden sind, eine Bewegungserfassungsanalyse durch. In einer Ausführungsform umfasst das mocap Programm 314 verschiedene Module, wie beispielsweise ein Objektanalysemodul 322 und ein Pfadanalysemodul 324. Das Objektanalysemodul 322 kann Bilder analysieren (z. B., die über die Schnittstelle 306 erfassten Bilder), um Kanten eines Objekts darin und/oder andere Informationen über die Position des Objekts zu erfassen. In einigen Ausführungsformen kann das Objektanalysemodul 322 auch Audiosignale analysieren (z. B., die über die Schnittstelle 306 erfassten Audiosignale), um das Objekt beispielsweise durch die Zeitspanne bis zum Empfang, Multilateration und dergleichen zu lokalisieren. ("Die Multilateration ist eine Navigationstechnik auf der Grundlage der Messung in der Entfernung zu zwei Stationen an bekannten Positionen, die Signale zu bekannten Zeitpunkten übertragen." Siehe Wikipedia, unter http://en.wikipedia.org/w/index.php?title=Multilateration&oldid=523281858, aufgerufen am 16. November 2012, um 06:07 UTC). Das Pfadanalysemodul 324 kann Objektbewegungen in 3D auf der Grundlage von Informationen, die über die Kameras erhalten werden, verfolgen und vorhersagen. Einige Ausführungsformen umfassen einen Virtual-Reality/Augmented-Reality-Umgebungsmanager 326, der die Integration von virtuellen Objekten, die reale Objekte (z. B., eine Hand 214) sowie synthetisierte Objekte 216 darstellen, ermöglicht, um diese dem Benutzer der Vorrichtung 201 über die Darstellungsschnittstelle 220 zur Bildung eines persönlichen virtuellen Erlebnisses 213 anzuzeigen. Es können eine oder mehrere Anwendungen 328 in den Speicher 304 geladen werden (oder auf andere Weise für den Prozessor 302 zugänglich gemacht werden), um die Arbeitsweise der Vorrichtung 201 zu erweitern oder anzupassen, wodurch das System 200 als Plattform arbeiten kann. Aufeinanderfolgende Kamerabilder werden auf Pixelebene analysiert, um Objektbewegungen und Geschwindigkeiten zu extrahieren. Audiosignale verorten das Objekt auf einer bekannten Fläche, und die Stärke und die Schwankungen der Signale können verwendet werden, um das Vorhandensein des Objekts zu erfassen. Wenn sowohl eine Audio- als auch eine Bildinformation gleichzeitig zur Verfügung stehen, können beide Arten von Informationen zur Erzeugung einer detaillierteren und/oder genauen Pfad-Analyse analysiert und aufeinander abgestimmt werden. Ein Video-Feed-Integrator 329 ermöglicht die Integration von Live-Video-Feeds von den Kameras 102, 104 und eines oder mehrerer virtueller Objekte (z. B., 501 der 5). Der Video-Feed-Integrator 329 regelt die Verarbeitung von Videoinformationen von ganz verschiedenen Kameratypen 102, 104. Zum Beispiel kann die Information, die von den für IR-Licht empfindlichen Pixeln und den für sichtbares Licht empfindlichen Pixeln (z. B., RGB) erhalten wird, durch den Integrator 329 getrennt und unterschiedlich verarbeitet werden. Die von den IR-Sensoren erhaltene Bildinformation kann zur Erkennung von Gesten verwendet werden, während die von den RGB-Sensoren erhaltene Bildinformation als Live-Video-Feed über die Darstellungsschnittstelle 220 zur Verfügung gestellt werden kann. Die Information einer Sensorart kann verwendet werden, um die Information einer anderen Sensorart zu verbessern, zu korrigieren und/oder zu untermauern. Die Information von einer Sensorart kann bei bestimmten situationsabhängigen oder umgebungsabhängigen Bedingungen (z. B., schwaches Licht, Nebel, helles Licht und so weiter) bevorzugt werden. Die Vorrichtung kann bei der Bereitstellung einer Darstellungsausgabe, entweder automatisch oder durch Erhalt einer Benutzerauswahl, zwischen einer Art oder den anderen Arten von Bildinformation auswählen. Der Integrator 329 steuert in Verbindung mit dem VR/AR-Umgebungsmanager 326 die Erzeugung der Umgebung, die dem Benutzer über die Darstellungsschnittstelle 220 angezeigt wird.
  • Die Darstellungsschnittstelle 220, Lautsprecher 309, Mikrofone 310 und die drahtlose Netzwerkschnittstelle 311 können verwendet werden, um die Wechselbeziehung des Benutzers mit dem Computersystem 200 über die Vorrichtung 201 zu erleichtern. Diese Komponenten können einen im Allgemeinen herkömmlichen Aufbau aufweisen oder wie gewünscht modifiziert werden, um jegliche Art von Benutzerinteraktion zu gewährleisten. In einigen Ausführungsformen können die Ergebnisse der Bewegungserfassung unter Verwendung der Bewegungsdetektor- und Kameraschnittstelle 306 und des mocap-Programms 314 als Benutzereingaben interpretiert werden. Zum Beispiel kann ein Benutzer Handgesten oder Bewegungen über eine Oberfläche ausführen, die mit dem mocap-Programm 314 analysiert werden, und die Ergebnisse dieser Analyse können als ein Befehl an ein anderes Programm, das auf dem Prozessor 302 ausgeführt wird (z. B. einen Web-Browser, eine Textverarbeitung oder eine andere Anwendung), interpretiert werden. Somit kann zum Zwecke der Veranschaulichung ein Benutzer nach oben oder unten verlaufende, streichende Gesten verwenden, um in einer angezeigten Webseite, die momentan dem Benutzer der Vorrichtung 201 über die Darstellungsschnittstelle 220 angezeigt wird, „zu blättern” (engl. scroll), und rotierende Gesten verwenden, um die Lautstärke der Audioausgabe über die Lautsprecher 309 zu erhöhen oder zu verringern, und so weiter. Ein Pfadanalysemodul 324 kann den erfassten Pfad als Vektor darstellen und eine Extrapolation durchführen, um den Pfad vorherzusagen, z. B., um die Wiedergabe einer Handlung auf der Vorrichtung 201 durch die Darstellungsschnittstelle 220 durch Vorhersagen einer Bewegung zu verbessern.
  • Es versteht sich, dass das Computersystem 300 veranschaulichend ist und Änderungen und Modifikationen möglich sind. Computersysteme können in einer Vielzahl von Formfaktoren, einschließlich Server-Systemen, Desktop-Systemen, Laptop-Systemen, Tablets, Smartphones oder Minicomputer (PDA's) und so weiter, implementiert werden. Eine besondere Anwendung kann eine andere Funktionsweise, die hier nicht beschrieben ist, wie beispielsweise drahtgebundene und/oder drahtlose Netzwerkschnittstellen, Medienabspiel- und/oder -aufnahmefunktionen usw., umfassen. In einigen Ausführungsformen können eine oder mehrere Kameras und zwei oder mehre Mikrofone in den Computer eingebaut sein, anstatt sie als separate Komponenten bereitzustellen. Ferner kann eine Bild- oder Audioanalysevorrichtung implementiert werden, die nur einen Teilsatz von Computersystemkomponenten verwendet (z. B., ein Programm-Code ausführender Prozessor, ein ASIC oder ein digitaler Signalprozessor mit festen Funktionen, der geeignete I/O-Schnittstellen aufweist, um Bilddaten zu empfangen und Analyseergebnisse auszugeben).
  • Während das Computersystem 300 hierin mit Bezug auf bestimmte Blöcke beschrieben wurde, sollte verstanden werden, dass die Blöcke zur Vereinfachung der Beschreibung definiert wurden und nicht dazu gedacht sind, eine bestimmte physikalische Anordnung der Komponenten zu implizieren. Ferner müssen die Blöcke nicht physisch getrennten Komponenten entsprechen. Soweit physisch getrennte Komponenten verwendet werden, können Verbindungen zwischen den Komponenten (z. B. zur Datenkommunikation) je nach Bedarf drahtgebunden und/oder drahtlos sein. So kann beispielsweise die Ausführung des Objektanalysemoduls 322 durch den Prozessor 302 den Prozessor 302 dazu veranlassen, die Bewegungsdetektor- und Kameraschnittstelle 306 zu steuern, um Bilder und/oder Audiosignale eines Objekts zu erfassen, das sich über und in Kontakt mit einer Oberfläche bewegt, um dessen Aussehen durch Analysieren der Bild- und/oder Audiodaten zu detektieren.
  • 4 zeigt die Grundfunktionen und Funktionseinheiten 400, die bei der Bewegungserfassungs- und Bildanalyse gemäß den Ausführungsformen der vorliegenden Erfindung verwendet werden. Wie in 4 gezeigt, zeichnen die Kamera(s) 402, 404 digitale Bilder 410 von einer Szene auf. Jedes digitale Bild wird durch den Bildsensor der zugeordneten Kamera als ein Pixelwert-Array erfasst, und die digitalen Bilder werden – entweder im ”Roh”-Format oder nach herkömmlicher Vorverarbeitung – an einen oder mehrere Bildspeicher 415 übertragen. Ein Bildspeicher (engl. frame Puffer) ist ein Teilbereich oder ein bestimmter Teilabschnitt eines flüchtigen Speichers, der einen ”Bitmap”-Bildausschnitt 420 entsprechend der Pixelwerte eines Bildes, wie sie von der Kamera, die sie aufgezeichnet hat, ausgegeben werden, speichert. Die Bitmap ist im Allgemeinen konzeptionell als ein Gitter organisiert, wobei jedes Pixel ein-zu-eins oder anderweitig auf Ausgabeelemente einer Anzeige abgebildet werden. Es sollte jedoch beachtet werden, dass die Topologie (bzw. die räumliche Struktur), wie die Speicherzellen physisch in dem Bildspeicher 415 organisiert sind, keine Rolle spielt und der konzeptionellen Organisation nicht direkt entsprechen muss.
  • Die Anzahl der Bildspeicher in einem System spiegelt im Allgemeinen die Anzahl der Bilder wieder, die gleichzeitig durch das Analysesystem oder -modul 430, das im Nachfolgenden detaillierter beschrieben wird, analysiert werden. Kurz gesagt, analysiert das Analysemodul 430 die Pixeldaten in jeder Sequenz einer Bildfolge 420, um Objekte darin zu lokalisieren und deren Bewegung über die Zeit (wie in 440 angedeutet) nach zu verfolgen. Diese Analyse kann verschiedene Formen annehmen, und der die Analyse durchführende Algorithmus bestimmt, wie Pixel in den Bildausschnitten 420 gehandhabt werden. Zum Beispiel kann der durch das Analysemodul 430 implementierte Algorithmus die Pixel jedes Bildspeichers auf einer Zeile-für-Zeile-Basis bearbeiten – d. h., jede Zeile des Pixelrasters wird nacheinander analysiert. Andere Algorithmen können Pixel spaltenweise, in Form fliesenförmiger Flächen oder anderer geordneter Formate analysieren.
  • In verschiedenen Ausführungsformen wird die in einer Reihe von Kamerabildern aufgenommene Bewegung benutzt, um eine entsprechende Reihe von Ausgabebildern zur Anzeige auf der Anzeige 220 zu berechnen. Zum Beispiel können Kamerabilder einer sich bewegenden Hand durch den Prozessor 302 in ein Drahtgitter oder eine andere grafische Darstellung der Hand umgewandelt werden. Alternativ können Handgesten als Eingabe interpretiert werden, um eine separate visuelle Ausgabe zu steuern; zur Veranschaulichung kann ein Benutzer nach oben oder unten gerichtete Streichgesten verwenden, um in einer Webseite oder in einem anderen Dokument, das gerade angezeigt wird, zu ”blättern”, oder seine Hand öffnen und schließen, um die Seite heran zu zoomen oder heraus zu zoomen. In jedem Fall werden die Ausgabebilder im Allgemeinen in Form von Pixeldaten in einem Bildspeicher gespeichert, z. B., einen der Bildspeicher 415. Eine Videoanzeige-Steuervorrichtung liest den Bildspeicher aus, um einen Datenstrom und zugehörige Steuersignale zur Ausgabe der Bilder an die Anordnung 203 zu erzeugen. Eine von der Darstellungsschnittstelle 220 bereitgestellte Videoanzeigesteuerung kann zusammen mit dem Prozessor 302 und dem Speicher 304 auf der Hauptplatine des Computersystems 300 ausgebildet werden, und kann mit dem Prozessor 302 eingebaut sein oder als Co-Prozessor, der einen separaten Videospeicher betätigt, verwendet werden. Wie erwähnt, kann das Computersystem 300 mit einer separaten Grafik- oder Videokarte ausgestattet sein, die dabei helfen, die Ausgabebilderzuspielung für die Anordnung 203 zu erzeugen. Eine Ausführungsform umfasst eine Videokarte, die im Allgemeinen eine Grafikverarbeitungseinheit (GPU) und einen Videospeicher aufweist, und die sich insbesondere für komplexe und rechenintensive Bildverarbeitungen und -wiedergaben eignet. Die Grafikkarte kann den Bildspeicher und die Funktionsweise der Videoanzeigesteuervorrichtung umfassen (und die auf der Platine angeordnete Videoanzeigesteuerung kann deaktiviert werden). Im Allgemeinen kann die Funktionsweise der Bildverarbeitung und Bewegungserfassung des Systems zwischen der GPU und dem Hauptprozessor 302 unterschiedlich verteilt werden.
  • Geeignete Algorithmen für das Bewegungserfassungsprogramm 314 sind sowohl im Nachfolgen beschrieben als auch detaillierter in den US-Seriennummern 61/587,554 , 13/414,485 , 61/724,091 , 13/724,357 und 13/742,953 , die jeweils am 17. Januar 2012, am 7. März 2012, am 8. November 2012, am 21. Dezember 2012 und am 16. Januar 2013 eingereicht wurden und die durch Bezugnahme in ihrer Gesamtheit hierin aufgenommen sind. Die verschiedenen Module können in jeder geeigneten Programmiersprache programmiert werden, einschließlich, ohne Einschränkung, höherer Programmiersprachen wie C, C++, C#, OpenGL, Ada, Basic, Cobra, FORTRAN, Java, Lisp, Perl, Python, Ruby oder Object Pascal, oder untergeordneter Assemblersprachen.
  • Mit erneutem Bezug auf 4, können die Betriebsarten einer Vorrichtung, die mit einer bewegungssensorischen Steuervorrichtung ausgestattet ist, die Grobheit (bzw. Ungenauigkeit) der an das Bildanalysemodul 430 bereitgestellten Daten, die Grobheit der Analyse, oder beides gemäß den Einträgen in einer Leistungsdatenbank bestimmen. Zum Beispiel kann bei einer Weitverkehrsbetriebsart das Bildanalysemodul 430 auf jeden Bildausschnitt und auf alle Daten innerhalb eines Ausschnitts zugreifen, und Kapazitätsbeschränkungen können eine Analyse einer reduzierten Bilddatenmenge pro Ausschnitt (d. h., die Auflösung) vorschreiben oder einige Ausschnitte völlig verwerfen, wenn die Daten in jedem der Bildspeicher 415 als eine Sequenz von Datenleitungen organisiert sind. Die Art und Weise wie Daten von der Analyse entfernt werden, hängt von dem Bildanalyse-Algorithmus oder den Verwendungen, an die die Bewegungserfassungsausgabe ausgegeben wird, ab. In einigen Ausführungsformen werden Daten auf eine symmetrische oder gleichmäßige Art und Weise entfernt – z. B., wird jede zweite Zeile, jede dritte Zeile usw. bis zu einer Toleranzgrenze des Bildanalyse-Algorithmus oder einer Anwendung, die dessen Ausgabe verwendet, verworfen. In anderen Ausführungsformen kann sich die Frequenz der Zeilenentfernung zu den Rändern des Bildausschnitts hin erhöhen. Noch andere variierbare Bilderfassungsparameter umfassen die Bildausschnittgröße, die Bildausschnittauflösung und die Anzahl der pro Sekunde erfassten Bildausschnitte. Insbesondere kann die Bildausschnittgröße beispielsweise durch Verwerfen der Kantenpixel oder durch erneutes Abtasten mit einer niedrigeren Auflösung (und unter Verwendung nur eines Teils der Bildspeicherkapazität) verringert werden. Die zur Erfassung von Bilddaten (z. B., Größe und Bildfolge und Eigenschaften) relevanten Parameter werden zusammenfassend als ”Erfassungsparameter” bezeichnet, während die für den Betrieb des Bildanalysemoduls 430 (z. B. durch Definieren der Kontur eines Objekts) relevanten Parameter zusammenfassend als ”Bildanalyseparameter” bezeichnet werden. Die vorstehenden Beispiele der Erfassungsparameter und der Bildanalyseparameter sind lediglich darstellend und nicht einschränkend.
  • Die Erfassungsparameter können auf die Kameras 402, 404 und/oder auf den Bildspeicher 415 angewendet werden. Die Kamera 402, 404 kann beispielsweise auf die Erfassungsparameter beim Betrieb der Kameras 402, 404 ansprechen, um Bilder mit einer angeordneten Geschwindigkeit zu erfassen oder sie kann stattdessen die Anzahl der erfassten Bildausschnitte, die an den Bildspeicher 415 (pro Zeiteinheit) weitergegeben werden, begrenzen. Die Bildanalyseparameter können als numerische Größen, die den Betrieb des konturdefinierenden Algorithmus beeinflussen, auf das Bildanalysemodul 430 angewendet werden.
  • Die gewünschten Werte für die Erfassungsparameter und die Bildanalyseparameter können entsprechend eines bestimmten Werts der verfügbaren Ressourcen beispielsweise von den Eigenschaften des Bildanalysemoduls 430, der Art der Anwendung, die die mocap-Ausgabe verwendet, und den Designpräferenzen abhängen. Während einige Bildverarbeitungsalgorithmen die Auflösung der Konturnäherung gegen die Auflösung der Bildausschnitteingabe über einen weiten Bereich abwägen können, können andere Algorithmen gar keinen Toleranzspielraum aufweisen – wobei zum Beispiel eine minimale Bildauflösung benötigt wird, bei der der gesamte Algorithmus aussetzt.
  • Einige Ausführungsformen können auf Virtual-Reality- oder Augmented-Reality-Anwendungen angewendet werden. Zum Beispiel und unter Bezugnahme auf 5 ist gemäß einer Ausführungsform der vorliegenden Erfindung ein System 500 zum Projizieren eines Augmented-Reality Erlebnisses 213 von einer virtuellen Vorrichtung mit einer Ansicht eines realen Objekts, beispielsweise einer Schreibtischfläche 516, und eines oder mehrerer virtueller Objekte (z. B. Objekt 501) gezeigt. Das System 500 umfasst ein Verarbeitungssystem 206, das eine Vielzahl von Sensoren und Projektionsmittel, wie beispielsweise eine oder mehrere Kameras 102, 104 (oder anderen Bildsensoren) und gegebenenfalls einige Beleuchtungsquellen 115, 117, die ein Bildgebungssystem aufweisen, steuert. Gegebenenfalls kann eine Vielzahl von vibrierenden (oder akustischen) Sensoren 508, 510 enthalten sein, die angeordnet sind, um Kontakte mit dem Schreibtisch 516 zu erfassen. Optionale Projektionsmittel, die von dem System 206 gesteuert werden, können beispielsweise ein optionales Audioprojektionsmittel 502 zur Erzeugung eines Audio-Feedbacks, ein optionales Videoprojektionsmittel 504, ein optionales haptisches Projektionsmittel 506 zur Erzeugung eines haptischen Feedbacks an einen Benutzer zur Erweiterung der Realität umfassen. Für weitere Informationen über Projektionsmittel kann auf "Visio-Tactile-Projector" Youtube (https://www.youtube.com/watch?v=Bb0hNMxxewg) (aufgerufen am 15. Januar 2014) verwiesen werden. Im Betrieb werden die Sensoren und Projektionsmittel auf einen Bereich 212 von Interesse gerichtet, der wenigstens einen Abschnitt eines Schreibtisches 516, oder einen leeren Raum, in dem sich ein Objekt von Interesse 214 (in diesem Beispiel eine Hand) entlang der angezeigten Bahn 518 bewegt, umfassen kann. Eine oder mehrere Anwendungen 521 und 522 können als virtuelle Objekte, die in der Anzeige der erweiterten Realität 213 integriert sind, vorgesehen sein. Dementsprechend kann der Benutzer (z. B. der Besitzer der Hand 214) mit den realen Objekten, z. B., Schreibtisch 516, Cola 517, interagieren, die sich in der gleichen Umgebung wie die virtuellen Objekte 501 befinden.
  • In einigen Ausführungsformen wird eine virtuelle Vorrichtung zu dem Benutzer projiziert. Die Projektion kann ein Bild oder eine andere visuelle Darstellung eines Objekts enthalten. Zum Beispiel kann mit Bezug auf 5 ein visueller Projektionsmechanismus 504 ein Bild einer Seite (z. B., ein virtuelle Vorrichtung 501) von einem Buch in eine Augmented-Reality-Umgebung 213 eines Lesers (z. B., Flächenabschnitt 516 und/oder Umgebungsraum 212) projizieren, wodurch ein virtuelles Erlebnis des Lesens eines Buches selbst, oder eines elektronisches Buches auf einem physischen E-Reader erzeugt wird, auch wenn auch kein Buch oder E-Reader vorhanden ist. In einigen Ausführungsformen kann ein haptisches Projektionsmittel 506 das Gefühl der Textur des ”virtuellen Papiers” des Buches auf die Finger des Lesers projizieren bzw. übertragen. In einigen Ausführungsformen kann ein Audio-Projektionsmittel 502 den Klang des Seitenumblätterns in Reaktion auf das Detektieren, dass der Leser eine Streifbewegung zum Umblättern der Seite durchgeführt hat, projizieren.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 61/587554 [0053]
    • US 13/414485 [0053]
    • US 61724091 [0053]
    • US 13/724357 [0053]
    • US 13742953 [0053]
  • Zitierte Nicht-Patentliteratur
    • ”Die Multilateration ist eine Navigationstechnik auf der Grundlage der Messung in der Entfernung zu zwei Stationen an bekannten Positionen, die Signale zu bekannten Zeitpunkten übertragen.” Siehe Wikipedia, unter http://en.wikipedia.org/w/index.php?title=Multilateration&oldid=523281858, aufgerufen am 16. November 2012, um 06:07 UTC [0046]
    • ”Visio-Tactile-Projector” Youtube (https://www.youtube.com/watch?v=Bb0hNMxxewg) (aufgerufen am 15. Januar 2014) [0057]

Claims (17)

  1. Bewegungssensorische und bildgebende Vorrichtung, umfassend: eine Vielzahl bildgebender Sensoren, die angeordnet ist, um stereoskopische Bildinformationen einer betrachteten Szene bereitzustellen; eine oder mehr über den Bildsensoren angeordnete Beleuchtungsquellen; und eine Steuerung, die an die bildgebenden Sensoren und die Beleuchtungsquellen gekoppelt ist, um deren Betrieb zu steuern, Bildinformationen einer Szene zu erhalten und wenigstens eine nahezu Echtzeit-Weiterleitung von Bildinformationen an einen Benutzer bereitzustellen.
  2. Vorrichtung nach Anspruch 1, wobei die Steuerung ferner umfasst: Erfassen von Bildinformationen zur Steuerung von Objekten im Blickfeld der Bildsensoren; wobei die Bildinformationen zur Steuerung von Objekten von Interesse verwendet werden, um eine Information über Gesten zu ermitteln, die einen Befehl an ein gesteuertes Gerät anzeigt.
  3. Vorrichtung nach Anspruch 2, wobei das Erfassen ferner umfasst: Trennen einer Information, die von IR-lichtempfindlichen Pixeln empfangen werden, von einer Information, die von Pixeln empfangen werden, die für sichtbares Licht (z. B., RGB) empfindlich sind; Verarbeiten der Bildinformationen von IR-Sensoren, die für die Gestenerkennung verwendet werden; und Verarbeiten von Bildinformationen von RGB-Sensoren, die als Live-Video-Feed über eine Darstellungsschnittstelle zur Verfügung gestellt werden.
  4. Vorrichtung nach Anspruch 3, wobei das Verarbeiten von Bildinformationen von den RGB-Sensoren ferner umfasst: Extrahieren von groben Merkmalen eines Realwelt-Raums unter Verwendung der RGB-Pixel, die jeweils rote, grüne und blaue Komponenten der Beleuchtung in der Szene erfassen.
  5. Vorrichtung nach Anspruch 3, wobei das Verarbeiten von Bildinformationen von den IR-Sensoren ferner umfasst: Extrahieren von feinen Merkmalen eines Realwelt-Raums unter Verwendung der IR-Pixel, die Infrarotkomponenten der Beleuchtung in der Szene erfassen.
  6. Vorrichtung nach Anspruch 5, wobei die feinen Merkmale des Realwelt-Raums eine Oberflächenstruktur des Realwelt-Raums umfasst.
  7. Vorrichtung nach Anspruch 5, wobei die feinen Merkmale des Realwelt-Raums Kanten des Realwelt-Raums umfassen.
  8. Vorrichtung nach Anspruch 5, wobei die feinen Merkmale des Realwelt-Raums Krümmungen des Realwelt-Raums umfassen.
  9. Vorrichtung nach Anspruch 5, wobei die feinen Merkmale des Realwelt-Raums eine Oberflächenstruktur von Objekten in dem Realwelt-Raum umfassen.
  10. Vorrichtung nach Anspruch 5, wobei die feinen Merkmale des Realwelt-Raums Kanten von Objekten in dem Realwelt-Raum umfassen.
  11. Vorrichtung nach Anspruch 5, wobei die feinen Merkmale des Realwelt-Raums Krümmungen von Objekten in dem Realwelt-Raum umfassen.
  12. Vorrichtung nach Anspruch 1, wobei die Steuerung ferner umfasst: Bestimmen von Umgebungslichtbedingungen; und Einstellen der Ausgabeanzeige auf der Grundlage der ermittelten Bedingungen; Bestimmen einer ersten und einer zweiten Positionsinformation des Sensors in Bezug auf einen festen Punkt zu einem ersten und zweiten Zeitpunkt.
  13. Vorrichtung nach Anspruch 1, ferner umfassend: einen Bewegungssensor; und wobei die Steuerung ferner umfasst: Bestimmen einer Differenzinformation zwischen einer ersten und einer zweiten Positionsinformationen von dem Bewegungssensor; und Berechnen einer Bewegungsinformation für die Vorrichtung in Bezug auf einen festen Punkt auf der Grundlage der Differenzinformation.
  14. Vorrichtung nach Anspruch 1, ferner umfassend: ein oder mehrere Verbindungselemente zur Befestigung der Bildsensoren und der Beleuchtungsquellen an einer Montagefläche in einer tragbaren Darstellungsvorrichtung.
  15. Vorrichtung nach Anspruch 1, ferner umfassend: ein oder mehrere Verbindungselemente zur Befestigung der Bildsensoren und der Beleuchtungsquellen in einem Hohlraum in einer tragbaren Darstellungsvorrichtung.
  16. Vorrichtung nach Anspruch 1, ferner umfassend: ein oder mehrere Verbindungselemente zur Befestigung der Bildsensoren und der Beleuchtungsquellen an einer Montagefläche in einer transportierbaren Darstellungsvorrichtung.
  17. Vorrichtung nach Anspruch 1, ferner umfassend: ein oder mehrere Verbindungselemente zur Befestigung der Bildsensoren und der Beleuchtungsquellen in einem Hohlraum in einer transportierbaren Darstellungsvorrichtung.
DE202014103729.2U 2014-08-08 2014-08-12 Augmented-Reality mit Bewegungserfassung Expired - Lifetime DE202014103729U1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201462035008P 2014-08-08 2014-08-08
US62/035,008 2014-08-08

Publications (1)

Publication Number Publication Date
DE202014103729U1 true DE202014103729U1 (de) 2014-09-09

Family

ID=51618846

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202014103729.2U Expired - Lifetime DE202014103729U1 (de) 2014-08-08 2014-08-12 Augmented-Reality mit Bewegungserfassung

Country Status (4)

Country Link
US (5) US10349036B2 (de)
JP (1) JP2016038889A (de)
CN (1) CN204480228U (de)
DE (1) DE202014103729U1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3179338A1 (de) * 2015-12-11 2017-06-14 Tata Consultancy Services Ltd. Auf hybrider realität basierte objektinteraktion und steuerung
EP3234685A4 (de) * 2014-12-18 2018-06-13 Facebook, Inc. System, vorrichtung und verfahren zur bereitstellung einer benutzerschnittstelle für eine virtuelle realität

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9857919B2 (en) * 2012-05-17 2018-01-02 Hong Kong Applied Science And Technology Research Wearable device with intelligent user-input interface
US10295338B2 (en) 2013-07-12 2019-05-21 Magic Leap, Inc. Method and system for generating map data from an image
US10007329B1 (en) 2014-02-11 2018-06-26 Leap Motion, Inc. Drift cancelation for portable object detection and tracking
US9754167B1 (en) 2014-04-17 2017-09-05 Leap Motion, Inc. Safety for wearable virtual reality devices via object detection and tracking
US10007350B1 (en) 2014-06-26 2018-06-26 Leap Motion, Inc. Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
CN204480228U (zh) 2014-08-08 2015-07-15 厉动公司 运动感测和成像设备
US9407865B1 (en) 2015-01-21 2016-08-02 Microsoft Technology Licensing, Llc Shared scene mesh data synchronization
US10616561B2 (en) * 2015-09-03 2020-04-07 Inuitive Ltd. Method and apparatus for generating a 3-D image
CN105657494B (zh) * 2015-12-31 2018-12-25 北京小鸟看看科技有限公司 一种虚拟影院及其实现方法
US10908694B2 (en) * 2016-02-01 2021-02-02 Microsoft Technology Licensing, Llc Object motion tracking with remote device
US10067636B2 (en) * 2016-02-09 2018-09-04 Unity IPR ApS Systems and methods for a virtual reality editor
JP2019113882A (ja) 2016-03-23 2019-07-11 株式会社ソニー・インタラクティブエンタテインメント 頭部装着装置
CN108139799B (zh) * 2016-04-22 2022-01-14 深圳市大疆创新科技有限公司 基于用户的兴趣区(roi)处理图像数据的系统和方法
US20180005437A1 (en) * 2016-06-30 2018-01-04 Glen J. Anderson Virtual manipulator rendering
CN106228614A (zh) * 2016-07-29 2016-12-14 宇龙计算机通信科技(深圳)有限公司 一种场景再现方法和装置
JP6857980B2 (ja) 2016-08-02 2021-04-14 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
CA3032812A1 (en) 2016-08-04 2018-02-08 Reification Inc. Methods for simultaneous localization and mapping (slam) and related apparatus and systems
US9983687B1 (en) * 2017-01-06 2018-05-29 Adtile Technologies Inc. Gesture-controlled augmented reality experience using a mobile communications device
US10482900B2 (en) 2017-01-18 2019-11-19 Microsoft Technology Licensing, Llc Organization of signal segments supporting sensed features
US10679669B2 (en) 2017-01-18 2020-06-09 Microsoft Technology Licensing, Llc Automatic narration of signal segment
US10635981B2 (en) 2017-01-18 2020-04-28 Microsoft Technology Licensing, Llc Automated movement orchestration
US10437884B2 (en) 2017-01-18 2019-10-08 Microsoft Technology Licensing, Llc Navigation of computer-navigable physical feature graph
US11094212B2 (en) 2017-01-18 2021-08-17 Microsoft Technology Licensing, Llc Sharing signal segments of physical graph
US10637814B2 (en) 2017-01-18 2020-04-28 Microsoft Technology Licensing, Llc Communication routing based on physical status
US10606814B2 (en) 2017-01-18 2020-03-31 Microsoft Technology Licensing, Llc Computer-aided tracking of physical entities
FR3062488B1 (fr) * 2017-02-01 2020-12-25 Peugeot Citroen Automobiles Sa Dispositif d'analyse pour la determination d'un temps de latence d'un systeme immersif de realite virtuelle
CN108399633A (zh) * 2017-02-06 2018-08-14 罗伯团队家居有限公司 用于立体视觉的方法和装置
US10401954B2 (en) * 2017-04-17 2019-09-03 Intel Corporation Sensory enhanced augmented reality and virtual reality device
CN107095384B (zh) * 2017-04-26 2023-11-24 左志权 一种基于wifi传输的智能消防头盔装置
US11480790B2 (en) * 2017-06-14 2022-10-25 Hewlett-Packard Development Company, L.P. Display adjustments
WO2018236601A1 (en) * 2017-06-19 2018-12-27 Get Attached, Inc. EXPLORING DIGITAL MEDIA BASED ON AUTOMATIC DIGITAL MEDIA INTERACTION CONTEXT AND FEEDBACK INTERACTION
US11127212B1 (en) * 2017-08-24 2021-09-21 Sean Asher Wilens Method of projecting virtual reality imagery for augmenting real world objects and surfaces
US11128783B2 (en) * 2018-03-07 2021-09-21 Disney Enterprises, Inc. Systems and methods for tracking objects in a field of view
US11189054B2 (en) * 2018-09-28 2021-11-30 Apple Inc. Localization and mapping using images from multiple devices
KR20200098034A (ko) 2019-02-11 2020-08-20 삼성전자주식회사 가상 현실 유저 인터페이스를 제공하기 위한 전자 장치 및 그의 동작 방법
TW202141120A (zh) * 2020-02-19 2021-11-01 美商海思智財控股有限公司 具可調整影像感測模組的頭戴式裝置及其系統
EP3984016A4 (de) 2020-08-14 2023-09-06 HES IP Holdings, LLC Systeme und verfahren zur überlagerung von virtuellen bildern auf echtzeitbildern
CN114616511A (zh) 2020-09-03 2022-06-10 海思智财控股有限公司 改善双眼视觉的系统与方法
CN116420104A (zh) 2020-09-30 2023-07-11 海思智财控股有限公司 用于虚拟实境及扩增实境装置的虚拟影像显示系统
EP4244821A1 (de) * 2020-11-10 2023-09-20 Noderix Teknoloji Sanayi Ticaret Anonim Sirketi Systeme und verfahren für personalisierte und interaktive erfahrungen mit erweiterter realität
US11556169B2 (en) * 2021-02-11 2023-01-17 Meta Platforms Technologies, Llc Adaptable personal user interfaces in cross-application virtual reality settings
US20230107097A1 (en) * 2021-10-06 2023-04-06 Fotonation Limited Method for identifying a gesture
WO2023235519A1 (en) * 2022-06-03 2023-12-07 Datasya Ltd. Interactive multimedia collaboration platform with remote-controlled camera and annotation
CN115630131B (zh) * 2022-12-19 2023-04-07 北京码牛科技股份有限公司 一种轨迹数据时空切片方法、系统及电子设备

Family Cites Families (514)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2665041A (en) 1952-01-09 1954-01-05 Daniel J Maffucci Combination form for washing woolen socks
US4175862A (en) 1975-08-27 1979-11-27 Solid Photography Inc. Arrangement for sensing the geometric characteristics of an object
US4879659A (en) 1987-11-24 1989-11-07 Bowlin William P Log processing systems
US4876455A (en) 1988-02-25 1989-10-24 Westinghouse Electric Corp. Fiber optic solder joint inspection system
US4893223A (en) 1989-01-10 1990-01-09 Northern Telecom Limited Illumination devices for inspection systems
DE8915535U1 (de) 1989-03-02 1990-10-25 Fa. Carl Zeiss, 7920 Heidenheim, De
JPH076782B2 (ja) 1989-03-10 1995-01-30 工業技術院長 物体の形状測定方法及び装置
US5134661A (en) 1991-03-04 1992-07-28 Reinsch Roger A Method of capture and analysis of digitized image data
US5282067A (en) 1991-10-07 1994-01-25 California Institute Of Technology Self-amplified optical pattern recognition system
DE4201934A1 (de) 1992-01-24 1993-07-29 Siemens Ag Gestik computer
US6184326B1 (en) 1992-03-20 2001-02-06 Fina Technology, Inc. Syndiotactic polypropylene
US7983817B2 (en) 1995-06-07 2011-07-19 Automotive Technologies Internatinoal, Inc. Method and arrangement for obtaining information about vehicle occupants
JP3244798B2 (ja) 1992-09-08 2002-01-07 株式会社東芝 動画像処理装置
WO1994017636A1 (en) 1993-01-29 1994-08-04 Bell Communications Research, Inc. Automatic tracking camera control system
AU6577194A (en) 1993-04-29 1994-11-21 Scientific Generics Limited Background separation for still and moving images
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US6061064A (en) 1993-08-31 2000-05-09 Sun Microsystems, Inc. System and method for providing and using a computer user interface with a view space having discrete portions
JPH0795561A (ja) 1993-09-21 1995-04-07 Sony Corp 展示物説明システム
US5659475A (en) 1994-03-17 1997-08-19 Brown; Daniel M. Electronic air traffic control system for use in airport towers
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5900863A (en) 1995-03-16 1999-05-04 Kabushiki Kaisha Toshiba Method and apparatus for controlling computer without touching input device
JP3737537B2 (ja) 1995-03-22 2006-01-18 帝人ファイバー株式会社 画像処理用照明手段の劣化検出方法
GB2301216A (en) 1995-05-25 1996-11-27 Philips Electronics Uk Ltd Display headset
IL114838A0 (en) 1995-08-04 1996-11-14 Spiegel Ehud Apparatus and method for object tracking
US5574511A (en) 1995-10-18 1996-11-12 Polaroid Corporation Background replacement for an image
US5742263A (en) 1995-12-18 1998-04-21 Telxon Corporation Head tracking system for a head mounted display system
JPH09259278A (ja) 1996-03-25 1997-10-03 Matsushita Electric Ind Co Ltd 画像処理装置
US6002808A (en) 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
US6184926B1 (en) 1996-11-26 2001-02-06 Ncr Corporation System and method for detecting a human face in uncontrolled environments
JP3438855B2 (ja) 1997-01-23 2003-08-18 横河電機株式会社 共焦点装置
US6492986B1 (en) 1997-06-02 2002-12-10 The Trustees Of The University Of Pennsylvania Method for human face shape and motion estimation based on integrating optical flow and deformable models
US6075895A (en) 1997-06-20 2000-06-13 Holoplex Methods and apparatus for gesture recognition based on templates
US6252598B1 (en) 1997-07-03 2001-06-26 Lucent Technologies Inc. Video hand image computer interface
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6263091B1 (en) 1997-08-22 2001-07-17 International Business Machines Corporation System and method for identifying foreground and background portions of digitized images
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6195104B1 (en) 1997-12-23 2001-02-27 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6031161A (en) 1998-02-04 2000-02-29 Dekalb Genetics Corporation Inbred corn plant GM9215 and seeds thereof
US6154558A (en) 1998-04-22 2000-11-28 Hsieh; Kuan-Hong Intention identification method
US6421453B1 (en) 1998-05-15 2002-07-16 International Business Machines Corporation Apparatus and methods for user recognition employing behavioral passwords
JP2000023038A (ja) 1998-06-30 2000-01-21 Toshiba Corp 画像抽出装置
US6493041B1 (en) 1998-06-30 2002-12-10 Sun Microsystems, Inc. Method and apparatus for the detection of motion in video
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
JP4016526B2 (ja) 1998-09-08 2007-12-05 富士ゼロックス株式会社 3次元物体識別装置
US6501515B1 (en) 1998-10-13 2002-12-31 Sony Corporation Remote control system
US6594632B1 (en) 1998-11-02 2003-07-15 Ncr Corporation Methods and apparatus for hands-free operation of a voice recognition system
US7483049B2 (en) 1998-11-20 2009-01-27 Aman James A Optimizations for live event, real-time, 3D object tracking
US6661918B1 (en) 1998-12-04 2003-12-09 Interval Research Corporation Background estimation and segmentation based on range and color
US6204852B1 (en) 1998-12-09 2001-03-20 Lucent Technologies Inc. Video hand image three-dimensional computer interface
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
US6578203B1 (en) 1999-03-08 2003-06-10 Tazwell L. Anderson, Jr. Audio/video signal distribution system for head mounted displays
US6993157B1 (en) 1999-05-18 2006-01-31 Sanyo Electric Co., Ltd. Dynamic image processing method and device and medium
US6804656B1 (en) 1999-06-23 2004-10-12 Visicu, Inc. System and method for providing continuous, expert network critical care services from a remote location(s)
US6346933B1 (en) 1999-09-21 2002-02-12 Seiko Epson Corporation Interactive display presentation system
US6734911B1 (en) 1999-09-30 2004-05-11 Koninklijke Philips Electronics N.V. Tracking camera using a lens that generates both wide-angle and narrow-angle views
JP4332964B2 (ja) 1999-12-21 2009-09-16 ソニー株式会社 情報入出力システム及び情報入出力方法
US6738424B1 (en) 1999-12-27 2004-05-18 Objectvideo, Inc. Scene model generation from video for use in video processing
US6771294B1 (en) 1999-12-29 2004-08-03 Petri Pulli User interface
GB2358098A (en) 2000-01-06 2001-07-11 Sharp Kk Method of segmenting a pixelled image
US6674877B1 (en) 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
US6965113B2 (en) 2000-02-10 2005-11-15 Evotec Ag Fluorescence intensity multiple distributions analysis: concurrent determination of diffusion times and molecular brightness
US6798628B1 (en) 2000-11-17 2004-09-28 Pass & Seymour, Inc. Arc fault circuit detector having two arc fault detection levels
US6463402B1 (en) 2000-03-06 2002-10-08 Ralph W. Bennett Infeed log scanning for lumber optimization
CA2406124A1 (en) 2000-04-21 2001-11-22 Lawrence E. Albertelli Wide-field extended-depth doubly telecentric catadioptric optical system for digital imaging
AU2001275308A1 (en) 2000-06-06 2001-12-17 Frauenhofer Institut Fuer Graphische Datenverarbeitung The extended virtual table: an optical extension for table-like projection systems
US6417970B1 (en) 2000-06-08 2002-07-09 Interactive Imaging Systems Two stage optical system for head mounted display
JP4040825B2 (ja) 2000-06-12 2008-01-30 富士フイルム株式会社 画像撮像装置及び距離測定方法
ES2396587T3 (es) 2000-07-05 2013-02-22 Smart Technologies Ulc Método y aparato táctil en base a cámara
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US6850872B1 (en) 2000-08-30 2005-02-01 Microsoft Corporation Facial image processing methods and systems
US6901170B1 (en) 2000-09-05 2005-05-31 Fuji Xerox Co., Ltd. Image processing device and recording medium
US20020105484A1 (en) 2000-09-25 2002-08-08 Nassir Navab System and method for calibrating a monocular optical see-through head-mounted display system for augmented reality
JP4483067B2 (ja) 2000-10-24 2010-06-16 沖電気工業株式会社 対象物体抽出画像処理装置
US8042740B2 (en) 2000-11-24 2011-10-25 Metrologic Instruments, Inc. Method of reading bar code symbols on objects at a point-of-sale station by passing said objects through a complex of stationary coplanar illumination and imaging planes projected into a 3D imaging volume
US6774869B2 (en) 2000-12-22 2004-08-10 Board Of Trustees Operating Michigan State University Teleportal face-to-face system
EP1444654A2 (de) 2001-03-08 2004-08-11 Universite Joseph Fourier Quantitative analyse, visualisierung und bewegungskorrektur in dynamischen prozessen
US7542586B2 (en) 2001-03-13 2009-06-02 Johnson Raymond C Touchless identification system for monitoring hand washing or application of a disinfectant
US6814656B2 (en) 2001-03-20 2004-11-09 Luis J. Rodriguez Surface treatment disks for rotary tools
DE50207722D1 (de) 2001-03-20 2006-09-14 Thomson Licensing Element zur kombinierten symmetrisierung und homogenisierung eines strahlenbündels
US7009773B2 (en) 2001-05-23 2006-03-07 Research Foundation Of The University Of Central Florida, Inc. Compact microlenslet arrays imager
US6919880B2 (en) 2001-06-01 2005-07-19 Smart Technologies Inc. Calibrating camera offsets to facilitate object position determination using triangulation
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US20030123703A1 (en) 2001-06-29 2003-07-03 Honeywell International Inc. Method for monitoring a moving object and system regarding same
US20030053659A1 (en) 2001-06-29 2003-03-20 Honeywell International Inc. Moving object assessment system and method
US20030053658A1 (en) 2001-06-29 2003-03-20 Honeywell International Inc. Surveillance system and methods regarding same
US20040125228A1 (en) 2001-07-25 2004-07-01 Robert Dougherty Apparatus and method for determining the range of remote objects
US6999126B2 (en) 2001-09-17 2006-02-14 Mazzapica C Douglas Method of eliminating hot spot in digital photograph
US6937742B2 (en) 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
US7213707B2 (en) 2001-12-11 2007-05-08 Walgreen Co. Product shipping and display carton
US6804654B2 (en) 2002-02-11 2004-10-12 Telemanager Technologies, Inc. System and method for providing prescription services using voice recognition
US7215828B2 (en) 2002-02-13 2007-05-08 Eastman Kodak Company Method and system for determining image orientation
WO2003071410A2 (en) 2002-02-15 2003-08-28 Canesta, Inc. Gesture recognition system using depth perceptive sensors
JP2003256814A (ja) 2002-02-27 2003-09-12 Olympus Optical Co Ltd 基板検査装置
MXPA04008749A (es) 2002-03-08 2005-09-08 Revelations In Design Lp Aparato de control de dispositivo electrico.
DE10213643A1 (de) 2002-03-27 2003-10-09 Geka Brush Gmbh Kosmetikeinheit
US7120297B2 (en) 2002-04-25 2006-10-10 Microsoft Corporation Segmented layered image system
US7646372B2 (en) 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US7046924B2 (en) 2002-11-25 2006-05-16 Eastman Kodak Company Method and computer program product for determining an area of importance in an image using eye monitoring information
US7400344B2 (en) 2002-12-19 2008-07-15 Hitachi Kokusai Electric Inc. Object tracking method and object tracking apparatus
GB2398469B (en) 2003-02-12 2005-10-26 Canon Europa Nv Image processing apparatus
JP2004246252A (ja) 2003-02-17 2004-09-02 Takenaka Komuten Co Ltd 画像情報収集装置及び方法
US7257237B1 (en) 2003-03-07 2007-08-14 Sandia Corporation Real time markerless motion tracking using linked kinematic chains
US7532206B2 (en) 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US7738725B2 (en) 2003-03-19 2010-06-15 Mitsubishi Electric Research Laboratories, Inc. Stylized rendering using a multi-flash camera
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
DE602004006190T8 (de) 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
WO2004104566A1 (de) 2003-05-19 2004-12-02 Micro-Epsilon Messtechnik Gmbh & Co. Kg Verfahren und vorrichtung zur optischen qualitätsprüfung von objekten mit vor­zugsweise kreisförmig umlaufendem rand
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
DE10326035B4 (de) 2003-06-10 2005-12-22 Hema Electronic Gmbh Verfahren zur adaptiven Fehlererkennung auf einer strukturierten Oberfläche
US7492934B2 (en) 2003-06-17 2009-02-17 Brown University Methods and apparatus for model-based detection of structure in view data
US7606417B2 (en) 2004-08-16 2009-10-20 Fotonation Vision Limited Foreground/background segmentation in digital images with differential exposure calculations
US7244233B2 (en) 2003-07-29 2007-07-17 Ntd Laboratories, Inc. System and method for utilizing shape analysis to assess fetal abnormality
US7633633B2 (en) 2003-08-29 2009-12-15 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Position determination that is responsive to a retro-reflective object
WO2005041579A2 (en) 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
GB2407635B (en) 2003-10-31 2006-07-12 Hewlett Packard Development Co Improvements in and relating to camera control
JP4162095B2 (ja) 2003-12-11 2008-10-08 ストライダー ラブス,インコーポレイテッド 遮蔽された部分の表面を対称性の算出により見込み復元するための技術
US7217913B2 (en) 2003-12-18 2007-05-15 Micron Technology, Inc. Method and system for wavelength-dependent imaging and detection using a hybrid filter
US7184022B2 (en) 2004-01-16 2007-02-27 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Position determination and motion tracking
US7663689B2 (en) 2004-01-16 2010-02-16 Sony Computer Entertainment Inc. Method and apparatus for optimizing capture device settings through depth information
US7707039B2 (en) 2004-02-15 2010-04-27 Exbiblio B.V. Automatic modification of web pages
US8872914B2 (en) 2004-02-04 2014-10-28 Acushnet Company One camera stereo system
US7812860B2 (en) 2004-04-01 2010-10-12 Exbiblio B.V. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
EP1599033A4 (de) 2004-02-18 2008-02-13 Matsushita Electric Ind Co Ltd Bildkorrekturverfahren und bildkorrekturvorrichtung
JP4419603B2 (ja) 2004-02-25 2010-02-24 日本電気株式会社 液晶表示装置の駆動方法
JP2005277445A (ja) 2004-03-22 2005-10-06 Fuji Xerox Co Ltd 会議映像処理装置、会議映像処理方法およびプログラム
DE102004015785B4 (de) 2004-03-25 2012-06-06 Sikora Ag Verfahren zur Bestimmung der Abmessung eines Querschnitts eines Flachkabels oder eines Sektorleiters
US7325735B2 (en) 2004-04-02 2008-02-05 K-Nfb Reading Technology, Inc. Directed reading mode for portable reading machine
US7379563B2 (en) 2004-04-15 2008-05-27 Gesturetek, Inc. Tracking bimanual movements
JP4751032B2 (ja) 2004-04-22 2011-08-17 株式会社森精機製作所 変位検出装置
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US7519223B2 (en) 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
JP2008505383A (ja) 2004-06-29 2008-02-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 個人ジェスチャ署名
US7743348B2 (en) 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
JP4916096B2 (ja) 2004-07-01 2012-04-11 イビデン株式会社 光通信用デバイス
US20060017720A1 (en) 2004-07-15 2006-01-26 Li You F System and method for 3D measurement and surface reconstruction
US7576767B2 (en) 2004-07-26 2009-08-18 Geo Semiconductors Inc. Panoramic vision system and method
WO2006020846A2 (en) 2004-08-11 2006-02-23 THE GOVERNMENT OF THE UNITED STATES OF AMERICA as represented by THE SECRETARY OF THE NAVY Naval Research Laboratory Simulated locomotion method and apparatus
EP1645944B1 (de) 2004-10-05 2012-08-15 Sony France S.A. Eine Inhalt-Verwaltungsschnittstelle
US7706571B2 (en) 2004-10-13 2010-04-27 Sarnoff Corporation Flexible layer tracking with weak online appearance model
GB2419433A (en) 2004-10-20 2006-04-26 Glasgow School Of Art Automated Gesture Recognition
AU2005309950B2 (en) 2004-11-24 2011-04-21 Battelle Memorial Institute Optical system for cell imaging
WO2006074310A2 (en) 2005-01-07 2006-07-13 Gesturetek, Inc. Creating 3d images of objects by illuminating with infrared patterns
CN101536494B (zh) 2005-02-08 2017-04-26 奥布隆工业有限公司 用于基于姿势的控制系统的系统和方法
KR20070119018A (ko) 2005-02-23 2007-12-18 크레이그 써머스 3d 카메라 및 3d비디오를 위한 자동 씬 모델링
EP1851606A1 (de) 2005-02-24 2007-11-07 Nokia Corporation Bewegungseingabegerät für ein datenverarbeitungsterminal und betriebsverfahren dafür
US7715589B2 (en) 2005-03-07 2010-05-11 Massachusetts Institute Of Technology Occluding contour detection and storage for digital photography
JP4678487B2 (ja) 2005-03-15 2011-04-27 オムロン株式会社 画像処理システム、画像処理装置および方法、記録媒体、並びにプログラム
US20060239921A1 (en) 2005-04-26 2006-10-26 Novadaq Technologies Inc. Real time vascular imaging during solid organ transplant
US8185176B2 (en) 2005-04-26 2012-05-22 Novadaq Technologies, Inc. Method and apparatus for vasculature visualization with applications in neurosurgery and neurology
WO2006118076A1 (ja) 2005-04-28 2006-11-09 Aisin Seiki Kabushiki Kaisha 車両周辺監視システム
JP2006323212A (ja) 2005-05-19 2006-11-30 Konica Minolta Photo Imaging Inc レンズユニット、およびそれを備えた撮像装置
US7613363B2 (en) 2005-06-23 2009-11-03 Microsoft Corp. Image superresolution through edge extraction and contrast enhancement
CN101208594B (zh) 2005-07-08 2010-10-13 伊雷克托科学工业股份有限公司 光源的平面阵列所发射的收敛光线的获得
KR101019569B1 (ko) 2005-08-29 2011-03-08 에브릭스 테크놀로지스, 인코포레이티드 모바일 이미지 인식을 통한 상호작용
WO2007030026A1 (en) 2005-09-09 2007-03-15 Industrial Research Limited A 3d scene scanner and a position and orientation system
JP4622763B2 (ja) 2005-09-14 2011-02-02 日本電気株式会社 携帯通信端末装置及び認証方法
AU2006292461A1 (en) 2005-09-16 2007-03-29 Flixor, Inc. Personalizing a video
US8057408B2 (en) 2005-09-22 2011-11-15 The Regents Of The University Of Michigan Pulsed cavitational ultrasound therapy
DE102005047160B4 (de) 2005-09-30 2007-06-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zum Ermitteln einer Information über eine Form und/oder eine Lage einer Ellipse in einem graphischen Bild
US8050461B2 (en) 2005-10-11 2011-11-01 Primesense Ltd. Depth-varying light fields for three dimensional sensing
US9046962B2 (en) 2005-10-31 2015-06-02 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
US7570732B2 (en) 2005-11-09 2009-08-04 Dexela Limited Methods and apparatus for obtaining low-dose imaging
US20070130547A1 (en) 2005-12-01 2007-06-07 Navisense, Llc Method and system for touchless user interface control
CN100502463C (zh) 2005-12-14 2009-06-17 浙江工业大学 一种交通流信息视频检测中的特征采集方法
DE102005061557B3 (de) 2005-12-22 2007-11-22 Siemens Ag Bildgebungsgerät sowie Verfahren zum Betrieb eines Bildgebungsgerätes
JP5201999B2 (ja) * 2006-02-03 2013-06-05 パナソニック株式会社 入力装置、及びその方法
US8219571B2 (en) 2006-02-21 2012-07-10 Samsung Electronics Co., Ltd. Object verification apparatus and method
US7466790B2 (en) 2006-03-02 2008-12-16 General Electric Company Systems and methods for improving a resolution of an image
US7834780B2 (en) 2006-03-20 2010-11-16 Tektronix, Inc. Waveform compression and display
JP2007271876A (ja) 2006-03-31 2007-10-18 Denso Corp 音声認識装置および音声認識用のプログラム
JP4797752B2 (ja) 2006-03-31 2011-10-19 株式会社デンソー 移動体用操作物体抽出装置
AU2006352758A1 (en) 2006-04-10 2008-12-24 Avaworks Incorporated Talking Head Creation System and Method
WO2007137093A2 (en) 2006-05-16 2007-11-29 Madentec Systems and methods for a hands free mouse
US7676169B2 (en) 2006-05-22 2010-03-09 Lexmark International, Inc. Multipath toner patch sensor for use in an image forming device
US8086971B2 (en) 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
US7983451B2 (en) 2006-06-30 2011-07-19 Motorola Mobility, Inc. Recognition method using hand biometrics with anti-counterfeiting
EP1879149B1 (de) 2006-07-10 2016-03-16 Fondazione Bruno Kessler Vorrichtung und Verfahren zur Verfolgung einer Anzahl von Objekten oder Objektteilen in einer Bildsequenz
US9696808B2 (en) 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
US8589824B2 (en) 2006-07-13 2013-11-19 Northrop Grumman Systems Corporation Gesture recognition interface system
US8180114B2 (en) 2006-07-13 2012-05-15 Northrop Grumman Systems Corporation Gesture recognition interface system with vertical display
US20080030429A1 (en) 2006-08-07 2008-02-07 International Business Machines Corporation System and method of enhanced virtual reality
US7875260B2 (en) 2006-08-24 2011-01-25 Baylor College Of Medicine Imaging agents for functional imaging of lymphatic structures
KR100783552B1 (ko) 2006-10-11 2007-12-07 삼성전자주식회사 휴대 단말기의 입력 제어 방법 및 장치
US8102465B2 (en) 2006-11-07 2012-01-24 Fujifilm Corporation Photographing apparatus and photographing method for photographing an image by controlling light irradiation on a subject
US20110025818A1 (en) 2006-11-07 2011-02-03 Jonathan Gallmeier System and Method for Controlling Presentations and Videoconferences Using Hand Motions
EP2081494B1 (de) 2006-11-16 2018-07-11 Vanderbilt University System und verfahren zur kompensation von organverformungen
US7605686B2 (en) 2006-11-16 2009-10-20 Motorola, Inc. Alerting system for a communication device
WO2008064270A2 (en) 2006-11-20 2008-05-29 Micropower Appliance Wireless network camera systems
SE0602545L (en) 2006-11-29 2008-05-30 Tobii Technology Ab Eye tracking illumination
US7840031B2 (en) 2007-01-12 2010-11-23 International Business Machines Corporation Tracking a range of body movement based on 3D captured image streams of a user
US7971156B2 (en) 2007-01-12 2011-06-28 International Business Machines Corporation Controlling resource access based on user gesturing in a 3D captured image stream of the user
WO2008087652A2 (en) 2007-01-21 2008-07-24 Prime Sense Ltd. Depth mapping using multi-beam illumination
KR20080073933A (ko) 2007-02-07 2008-08-12 삼성전자주식회사 객체 트래킹 방법 및 장치, 그리고 객체 포즈 정보 산출방법 및 장치
CN101681438A (zh) 2007-03-02 2010-03-24 有机运动公司 跟踪三维对象的系统和方法
JP2008227569A (ja) 2007-03-08 2008-09-25 Seiko Epson Corp 撮影装置、電子機器、撮影制御方法、及び、撮影制御プログラム
JP4605170B2 (ja) 2007-03-23 2011-01-05 株式会社デンソー 操作入力装置
JP2008250774A (ja) 2007-03-30 2008-10-16 Denso Corp 情報機器操作装置
US8493496B2 (en) 2007-04-02 2013-07-23 Primesense Ltd. Depth mapping using projected patterns
WO2008129643A1 (ja) 2007-04-13 2008-10-30 Pioneer Corporation ショットサイズ識別装置及び方法、電子機器、並びにコンピュータプログラム
JP4854582B2 (ja) 2007-04-25 2012-01-18 キヤノン株式会社 画像処理装置、画像処理方法
US20080291160A1 (en) 2007-05-09 2008-11-27 Nintendo Co., Ltd. System and method for recognizing multi-axis gestures based on handheld controller accelerometer outputs
US20080278589A1 (en) 2007-05-11 2008-11-13 Karl Ola Thorn Methods for identifying a target subject to automatically focus a digital camera and related systems, and computer program products
US8229134B2 (en) 2007-05-24 2012-07-24 University Of Maryland Audio camera using microphone arrays for real time capture of audio images and method for jointly processing the audio images with video images
US7940985B2 (en) 2007-06-06 2011-05-10 Microsoft Corporation Salient object detection
US8027518B2 (en) 2007-06-25 2011-09-27 Microsoft Corporation Automatic configuration of devices based on biometric data
US20090002489A1 (en) 2007-06-29 2009-01-01 Fuji Xerox Co., Ltd. Efficient tracking multiple objects through occlusion
JP2009031939A (ja) 2007-07-25 2009-02-12 Advanced Telecommunication Research Institute International 画像処理装置、画像処理方法及び画像処理プログラム
CN101802760B (zh) 2007-08-30 2013-03-20 奈克斯特控股有限公司 具有改进照明的光学触摸屏
JP4929109B2 (ja) 2007-09-25 2012-05-09 株式会社東芝 ジェスチャ認識装置及びその方法
GB2453163B (en) * 2007-09-26 2011-06-29 Christopher Douglas Blair Three-dimensional imaging system
US8144233B2 (en) 2007-10-03 2012-03-27 Sony Corporation Display control device, display control method, and display control program for superimposing images to create a composite image
US20090093307A1 (en) 2007-10-08 2009-04-09 Sony Computer Entertainment America Inc. Enhanced game controller
US8139110B2 (en) 2007-11-01 2012-03-20 Northrop Grumman Systems Corporation Calibration of a gesture recognition interface system
US8288968B2 (en) 2007-11-08 2012-10-16 Lite-On It Corporation Lighting system arranged with multiple light units where each of adjacent light units having light beams overlap each other
US8777875B2 (en) 2008-07-23 2014-07-15 Otismed Corporation System and method for manufacturing arthroplasty jigs having improved mating accuracy
WO2009085233A2 (en) 2007-12-21 2009-07-09 21Ct, Inc. System and method for visually tracking with occlusions
US20120204133A1 (en) 2009-01-13 2012-08-09 Primesense Ltd. Gesture-Based User Interface
US8319832B2 (en) 2008-01-31 2012-11-27 Denso Corporation Input apparatus and imaging apparatus
US8270669B2 (en) 2008-02-06 2012-09-18 Denso Corporation Apparatus for extracting operating object and apparatus for projecting operating hand
US8555207B2 (en) 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
DE102008000479A1 (de) 2008-03-03 2009-09-10 Amad - Mennekes Holding Gmbh & Co. Kg Steckvorrichtung mit Zugentlastung
US9503562B2 (en) 2008-03-19 2016-11-22 Universal Electronics Inc. System and method for appliance control via a personal communication or entertainment device
US8073203B2 (en) 2008-04-15 2011-12-06 Cyberlink Corp. Generating effects in a webcam application
US8970374B2 (en) 2008-04-17 2015-03-03 Shilat Optronics Ltd Intrusion warning system
WO2009127431A1 (en) 2008-04-18 2009-10-22 Eidgenössische Technische Hochschule (ETH) Travelling-wave nuclear magnetic resonance method
US8249345B2 (en) 2008-06-27 2012-08-21 Mako Surgical Corp. Automatic image segmentation using contour propagation
US8131063B2 (en) 2008-07-16 2012-03-06 Seiko Epson Corporation Model-based object image processing
US20100013662A1 (en) 2008-07-17 2010-01-21 Michael Stude Product locating system
JP2010033367A (ja) 2008-07-29 2010-02-12 Canon Inc 情報処理装置及び情報処理方法
US20100027845A1 (en) 2008-07-31 2010-02-04 Samsung Electronics Co., Ltd. System and method for motion detection based on object trajectory
DE102008040949B4 (de) 2008-08-01 2012-03-08 Sirona Dental Systems Gmbh Optisches Projektionsgitter, Messkamera mit optischem Projektionsgitter und Verfahren zur Erzeugung eines optischen Projektionsgitters
US8520979B2 (en) 2008-08-19 2013-08-27 Digimarc Corporation Methods and systems for content processing
TW201009650A (en) 2008-08-28 2010-03-01 Acer Inc Gesture guide system and method for controlling computer system by gesture
US20100053209A1 (en) 2008-08-29 2010-03-04 Siemens Medical Solutions Usa, Inc. System for Processing Medical Image data to Provide Vascular Function Information
DE102008045387B4 (de) 2008-09-02 2017-02-09 Carl Zeiss Ag Vorrichtung und Verfahren zum Vermessen einer Oberfläche
US20100053151A1 (en) 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
TWI425203B (zh) 2008-09-03 2014-02-01 Univ Nat Central 高頻譜掃描裝置及其方法
US20110163948A1 (en) * 2008-09-04 2011-07-07 Dor Givon Method system and software for providing image sensor based human machine interfacing
JP4613994B2 (ja) 2008-09-16 2011-01-19 ソニー株式会社 動態推定装置、動態推定方法、プログラム
WO2010032268A2 (en) 2008-09-19 2010-03-25 Avinash Saxena System and method for controlling graphical objects
US9030564B2 (en) 2008-10-10 2015-05-12 Qualcomm Incorporated Single camera tracker
CN101729808B (zh) 2008-10-14 2012-03-28 Tcl集团股份有限公司 一种电视遥控方法及用该方法遥控操作电视机的系统
WO2010045406A2 (en) 2008-10-15 2010-04-22 The Regents Of The University Of California Camera system with autonomous miniature camera and light source assembly and method for image enhancement
US8744122B2 (en) 2008-10-22 2014-06-03 Sri International System and method for object detection from a moving platform
CN201332447Y (zh) 2008-10-22 2009-10-21 康佳集团股份有限公司 一种通过手势变化控制或操作游戏的电视
DE102008052928A1 (de) 2008-10-23 2010-05-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zur Erkennung einer Geste in einem Bild, sowie Vorrichtung, Verfahren und Computerprogramm zur Steuerung eines Geräts
US20100121189A1 (en) 2008-11-12 2010-05-13 Sonosite, Inc. Systems and methods for image presentation for medical examination and interventional procedures
TW201020896A (en) 2008-11-19 2010-06-01 Nat Applied Res Laboratories Method of gesture control
US8502787B2 (en) 2008-11-26 2013-08-06 Panasonic Corporation System and method for differentiating between intended and unintended user input on a touchpad
EP2193825B1 (de) 2008-12-03 2017-03-22 Alcatel Lucent Mobile Vorrichtung für Anwendungen mit erweiteter Realität
US20100153457A1 (en) 2008-12-15 2010-06-17 Grant Isaac W Gestural Interface Device and Method
US8289162B2 (en) 2008-12-22 2012-10-16 Wimm Labs, Inc. Gesture-based user interface for a wearable portable device
KR101215987B1 (ko) 2008-12-22 2012-12-28 한국전자통신연구원 전경/배경 분리 장치 및 방법
US8379987B2 (en) 2008-12-30 2013-02-19 Nokia Corporation Method, apparatus and computer program product for providing hand segmentation for gesture analysis
US8126985B1 (en) 2008-12-31 2012-02-28 Qurio Holdings, Inc. Prioritizing virtual object downloads in a distributed virtual environment
US8290208B2 (en) 2009-01-12 2012-10-16 Eastman Kodak Company Enhanced safety during laser projection
JP2012515966A (ja) 2009-01-26 2012-07-12 ズッロ・テクノロジーズ・(2009)・リミテッド 物体の挙動を監視するためのデバイスおよび方法
US8448094B2 (en) 2009-01-30 2013-05-21 Microsoft Corporation Mapping a natural input device to a legacy system
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
JP4771183B2 (ja) 2009-01-30 2011-09-14 株式会社デンソー 操作装置
US8624962B2 (en) 2009-02-02 2014-01-07 Ydreams—Informatica, S.A. Ydreams Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images
CN102356398B (zh) 2009-02-02 2016-11-23 视力移动技术有限公司 用于视频流中的对象识别和跟踪的系统和方法
US9569001B2 (en) 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
EP2394224A1 (de) 2009-02-05 2011-12-14 Digimarc Corporation Werbung auf fernsehbasis und ausgabe von fernsehapplikationen für mobiltelefone
KR100992411B1 (ko) 2009-02-06 2010-11-05 (주)실리콘화일 피사체의 근접여부 판단이 가능한 이미지센서
US8775023B2 (en) 2009-02-15 2014-07-08 Neanode Inc. Light-based touch controls on a steering wheel and dashboard
US8976158B2 (en) 2009-02-15 2015-03-10 Neonode Inc. User interface for white goods and associated multi-channel proximity sensors
GB2467932A (en) 2009-02-19 2010-08-25 Sony Corp Image processing device and method
US20100216508A1 (en) 2009-02-23 2010-08-26 Augusta Technology, Inc. Systems and Methods for Driving an External Display Device Using a Mobile Phone Device
JP2010204730A (ja) 2009-02-27 2010-09-16 Seiko Epson Corp ジェスチャーに応答して機器を制御するシステム
US9317128B2 (en) 2009-04-02 2016-04-19 Oblong Industries, Inc. Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control
JP4840620B2 (ja) 2009-04-30 2011-12-21 株式会社デンソー 車載用電子機器操作装置
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
EP2430826A1 (de) 2009-05-12 2012-03-21 Koninklijke Philips Electronics N.V. Kamera, system mit einer kamera, verfahren zum betrieb einer kamera und verfahren zum entfalten eines aufgezeichneten bildes
WO2010134512A1 (ja) 2009-05-20 2010-11-25 株式会社 日立メディコ 医用画像診断装置とその関心領域設定方法
TWI395483B (zh) 2009-05-25 2013-05-01 Visionatics Inc 使用適應性背景模型之移動物體偵測方法及其電腦程式產品
US8112719B2 (en) 2009-05-26 2012-02-07 Topseed Technology Corp. Method for controlling gesture-based remote control system
US20100302357A1 (en) 2009-05-26 2010-12-02 Che-Hao Hsu Gesture-based remote control system
JP2011010258A (ja) 2009-05-27 2011-01-13 Seiko Epson Corp 画像処理装置、画像表示システム、画像抽出装置
CN102460563B (zh) 2009-05-27 2016-01-06 美国亚德诺半导体公司 使用位置敏感检测器的位置测量系统
US8693724B2 (en) 2009-05-29 2014-04-08 Microsoft Corporation Method and system implementing user-centric gesture control
US8418085B2 (en) 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US8009022B2 (en) 2009-05-29 2011-08-30 Microsoft Corporation Systems and methods for immersive interaction with virtual objects
US20100309097A1 (en) 2009-06-04 2010-12-09 Roni Raviv Head mounted 3d display
US9594431B2 (en) 2009-06-19 2017-03-14 Hewlett-Packard Development Company, L.P. Qualified command
US8907941B2 (en) 2009-06-23 2014-12-09 Disney Enterprises, Inc. System and method for integrating multiple virtual rendering systems to provide an augmented reality
CN101930610B (zh) 2009-06-26 2012-05-02 思创影像科技股份有限公司 使用适应性背景模型的移动物体侦测方法
US8356261B1 (en) 2009-07-02 2013-01-15 Asml Netherlands B.V. Determining the gradient and hessian of the image log slope for design rule optimization for accelerating source mask optimization (SMO)
US20110007072A1 (en) 2009-07-09 2011-01-13 University Of Central Florida Research Foundation, Inc. Systems and methods for three-dimensionally modeling moving objects
US9131142B2 (en) 2009-07-17 2015-09-08 Nikon Corporation Focusing device and camera
JP5771913B2 (ja) 2009-07-17 2015-09-02 株式会社ニコン 焦点調節装置、およびカメラ
US8428368B2 (en) 2009-07-31 2013-04-23 Echostar Technologies L.L.C. Systems and methods for hand gesture control of an electronic device
WO2011024193A2 (en) 2009-08-20 2011-03-03 Natarajan Kannan Electronically variable field of view (fov) infrared illuminator
JP5614014B2 (ja) 2009-09-04 2014-10-29 ソニー株式会社 情報処理装置、表示制御方法及び表示制御プログラム
US8341558B2 (en) 2009-09-16 2012-12-25 Google Inc. Gesture recognition on computing device correlating input to a template
US8681124B2 (en) 2009-09-22 2014-03-25 Microsoft Corporation Method and system for recognition of user gesture interaction with passive surface video displays
EP2480955B1 (de) 2009-09-22 2018-05-16 Facebook Inc. Fernsteuerung von computern
JP2011081453A (ja) 2009-10-02 2011-04-21 Toshiba Corp 映像再生装置及び映像再生方法
US8547327B2 (en) 2009-10-07 2013-10-01 Qualcomm Incorporated Proximity object tracker
DE102009049073A1 (de) 2009-10-12 2011-04-21 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer Ansicht einer realen Umgebung
US9292084B2 (en) 2009-10-13 2016-03-22 Intel Corporation Control systems and methods for head-mounted information systems
GB2474536B (en) 2009-10-13 2011-11-02 Pointgrab Ltd Computer vision gesture based control of a device
US9400548B2 (en) 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
KR101633359B1 (ko) 2009-10-20 2016-06-27 삼성전자 주식회사 투사 불변량을 이용한 무표식 증강 현실 구현 시스템 및 그 방법
US20110107216A1 (en) 2009-11-03 2011-05-05 Qualcomm Incorporated Gesture-based user interface
US8843857B2 (en) 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
KR101092909B1 (ko) 2009-11-27 2011-12-12 (주)디스트릭트홀딩스 제스쳐 인터렉티브 홀로그램 출력장치 및 방법
WO2011069152A2 (en) 2009-12-04 2011-06-09 Next Holdings Limited Imaging methods and systems for position detection
GB0921461D0 (en) 2009-12-08 2010-01-20 Qinetiq Ltd Range based sensing
KR101373285B1 (ko) 2009-12-08 2014-03-11 한국전자통신연구원 제스쳐 인식 기능을 갖는 휴대 단말기 및 이를 이용한 인터페이스 시스템
EP2337323A1 (de) 2009-12-17 2011-06-22 NTT DoCoMo, Inc. Verfahren und Vorrichtung zur Interaktion zwischen einer mobilen Vorrichtung und einem Bildschirm
KR101307341B1 (ko) 2009-12-18 2013-09-11 한국전자통신연구원 동적 개체 모션 캡쳐 방법 및 그 장치
US8232990B2 (en) 2010-01-05 2012-07-31 Apple Inc. Working with 3D objects
US9019201B2 (en) 2010-01-08 2015-04-28 Microsoft Technology Licensing, Llc Evolving universal gesture sets
US8631355B2 (en) 2010-01-08 2014-01-14 Microsoft Corporation Assigning gesture dictionaries
US9268404B2 (en) 2010-01-08 2016-02-23 Microsoft Technology Licensing, Llc Application gesture interpretation
US8933884B2 (en) 2010-01-15 2015-01-13 Microsoft Corporation Tracking groups of users in motion capture system
US9335825B2 (en) 2010-01-26 2016-05-10 Nokia Technologies Oy Gesture control
RU2422878C1 (ru) 2010-02-04 2011-06-27 Владимир Валентинович Девятков Способ управления телевизором с помощью мультимодального интерфейса
KR101184460B1 (ko) 2010-02-05 2012-09-19 연세대학교 산학협력단 마우스 포인터 제어 장치 및 방법
US8659658B2 (en) 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US20110213664A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US20140063055A1 (en) 2010-02-28 2014-03-06 Osterhout Group, Inc. Ar glasses specific user interface and control interface based on a connected external device type
WO2011106797A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
TW201133358A (en) 2010-03-18 2011-10-01 Hon Hai Prec Ind Co Ltd System and method for detecting objects in a video image
CN102201121A (zh) 2010-03-23 2011-09-28 鸿富锦精密工业(深圳)有限公司 视频场景中的物件侦测系统与方法
CN102822773A (zh) 2010-03-24 2012-12-12 惠普开发有限公司 用于显示设备的手势映射
US9218119B2 (en) 2010-03-25 2015-12-22 Blackberry Limited System and method for gesture detection and feedback
US20110234631A1 (en) 2010-03-25 2011-09-29 Bizmodeline Co., Ltd. Augmented reality systems
JP5743416B2 (ja) 2010-03-29 2015-07-01 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2011210139A (ja) 2010-03-30 2011-10-20 Sony Corp 画像処理装置および方法、並びにプログラム
EP2372512A1 (de) 2010-03-30 2011-10-05 Harman Becker Automotive Systems GmbH Fahrzeug-Benutzeroberflächeneinheit für eine elektronische Fahrzeugvorrichtung
US20110251896A1 (en) 2010-04-09 2011-10-13 Affine Systems, Inc. Systems and methods for matching an advertisement to a video
CN201859393U (zh) 2010-04-13 2011-06-08 任峰 三维手势识别盒
US8405680B1 (en) 2010-04-19 2013-03-26 YDreams S.A., A Public Limited Liability Company Various methods and apparatuses for achieving augmented reality
US20130038694A1 (en) 2010-04-27 2013-02-14 Sanjay Nichani Method for moving object detection using an image sensor and structured light
WO2011134083A1 (en) 2010-04-28 2011-11-03 Ryerson University System and methods for intraoperative guidance feedback
CN102236412A (zh) 2010-04-30 2011-11-09 宏碁股份有限公司 三维手势识别系统以及基于视觉的手势识别方法
US9539510B2 (en) 2010-04-30 2017-01-10 Microsoft Technology Licensing, Llc Reshapable connector with variable rigidity
CA2798148A1 (en) 2010-05-04 2011-11-10 Timocco Ltd. System and method for tracking and mapping an object to a target
US8457353B2 (en) 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
US20110289455A1 (en) 2010-05-18 2011-11-24 Microsoft Corporation Gestures And Gesture Recognition For Manipulating A User-Interface
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US20110299737A1 (en) 2010-06-04 2011-12-08 Acer Incorporated Vision-based hand movement recognition system and method thereof
EP2395413B1 (de) 2010-06-09 2018-10-03 The Boeing Company Mensch-Maschine-Schnittstelle auf Gestenbasis
JP2011257337A (ja) 2010-06-11 2011-12-22 Seiko Epson Corp 光学式位置検出装置および位置検出機能付き表示装置
US8670029B2 (en) 2010-06-16 2014-03-11 Microsoft Corporation Depth camera illuminator with superluminescent light-emitting diode
US8542320B2 (en) 2010-06-17 2013-09-24 Sony Corporation Method and system to control a non-gesture controlled device using gesture interactions with a gesture controlled device
US20110314427A1 (en) 2010-06-18 2011-12-22 Samsung Electronics Co., Ltd. Personalization using custom gestures
US8416187B2 (en) 2010-06-22 2013-04-09 Microsoft Corporation Item navigation using motion-capture data
DE102010030616A1 (de) 2010-06-28 2011-12-29 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erkennen eines Störobjekts in einem Kamerabild
US20120050007A1 (en) 2010-08-24 2012-03-01 Babak Forutanpour Methods and apparatus for interacting with an electronic device application by moving an object in the air over an electronic device display
US9111498B2 (en) 2010-08-25 2015-08-18 Eastman Kodak Company Head-mounted display with environmental state detection
US10026227B2 (en) 2010-09-02 2018-07-17 The Boeing Company Portable augmented reality
WO2012032515A1 (en) 2010-09-07 2012-03-15 Zrro Technologies (2009) Ltd. Device and method for controlling the behavior of virtual objects on a display
US8842084B2 (en) 2010-09-08 2014-09-23 Telefonaktiebolaget L M Ericsson (Publ) Gesture-based object manipulation methods and devices
US8619005B2 (en) 2010-09-09 2013-12-31 Eastman Kodak Company Switchable head-mounted display transition
US8706170B2 (en) 2010-09-20 2014-04-22 Kopin Corporation Miniature communications gateway for head mounted display
US8941559B2 (en) * 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
US8781234B2 (en) 2010-10-01 2014-07-15 Intel Corporation Optimized fast hessian matrix computation architecture
WO2012048252A1 (en) 2010-10-07 2012-04-12 Aria Glassworks, Inc. System and method for transitioning between interface modes in virtual and augmented reality applications
IL208600A (en) 2010-10-10 2016-07-31 Rafael Advanced Defense Systems Ltd Real-time network-based laminated reality for mobile devices
CN101951474A (zh) 2010-10-12 2011-01-19 冠捷显示科技(厦门)有限公司 基于手势控制的电视技术
US10036891B2 (en) 2010-10-12 2018-07-31 DISH Technologies L.L.C. Variable transparency heads up displays
US8884984B2 (en) * 2010-10-15 2014-11-11 Microsoft Corporation Fusing virtual content into real content
IL208910A0 (en) 2010-10-24 2011-02-28 Rafael Advanced Defense Sys Tracking and identification of a moving object from a moving sensor using a 3d model
CN102053702A (zh) 2010-10-26 2011-05-11 南京航空航天大学 动态手势控制系统与方法
US8817087B2 (en) 2010-11-01 2014-08-26 Robert Bosch Gmbh Robust video-based handwriting and gesture recognition for in-car applications
US20120113223A1 (en) 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality
US9244606B2 (en) 2010-12-20 2016-01-26 Apple Inc. Device, method, and graphical user interface for navigation of concurrently open software applications
DK2656181T3 (da) 2010-12-22 2020-01-13 Zspace Inc Tredimensionel sporing af en brugerstyringsanordning i et volumen
KR101587962B1 (ko) 2010-12-22 2016-01-28 한국전자통신연구원 모션 캡처 장치 및 방법
US8929609B2 (en) 2011-01-05 2015-01-06 Qualcomm Incorporated Method and apparatus for scaling gesture recognition to physical dimensions of a user
US8570320B2 (en) 2011-01-31 2013-10-29 Microsoft Corporation Using a three-dimensional environment model in gameplay
SG182880A1 (en) 2011-02-01 2012-08-30 Univ Singapore A method and system for interaction with micro-objects
EP3527121B1 (de) 2011-02-09 2023-08-23 Apple Inc. Gestenerfassung in einer umgebung zur 3d-bildgebung
EP2677936B1 (de) 2011-02-25 2021-09-29 Smiths Heimann GmbH Bildrekonstruktion auf basis von parametermodellen
US20120223959A1 (en) 2011-03-01 2012-09-06 Apple Inc. System and method for a touchscreen slider with toggle control
US8600107B2 (en) 2011-03-31 2013-12-03 Smart Technologies Ulc Interactive input system and method
US8824749B2 (en) 2011-04-05 2014-09-02 Microsoft Corporation Biometric recognition
US9117147B2 (en) 2011-04-29 2015-08-25 Siemens Aktiengesellschaft Marginal space learning for multi-person tracking over mega pixel imagery
US8718334B2 (en) 2011-05-05 2014-05-06 Honeywell International Inc. System for biometric hand analysis
US8457355B2 (en) 2011-05-05 2013-06-04 International Business Machines Corporation Incorporating video meta-data in 3D models
CN102184014B (zh) 2011-05-12 2013-03-20 浙江大学 基于移动设备指向的智能家电交互控制方法及装置
US8810640B2 (en) 2011-05-16 2014-08-19 Ut-Battelle, Llc Intrinsic feature-based pose measurement for imaging motion compensation
US8842163B2 (en) 2011-06-07 2014-09-23 International Business Machines Corporation Estimation of object properties in 3D world
KR101255950B1 (ko) 2011-06-13 2013-05-02 연세대학교 산학협력단 위치기반 건설 현장 관리 방법 및 시스템
US20120320080A1 (en) 2011-06-14 2012-12-20 Microsoft Corporation Motion based virtual object navigation
US8773512B1 (en) 2011-06-30 2014-07-08 Aquifi, Inc. Portable remote control device enabling three-dimensional user interaction with at least one appliance
US8881051B2 (en) 2011-07-05 2014-11-04 Primesense Ltd Zoom-based gesture user interface
US9086794B2 (en) 2011-07-14 2015-07-21 Microsoft Technology Licensing, Llc Determining gestures on context based menus
US8891868B1 (en) 2011-08-04 2014-11-18 Amazon Technologies, Inc. Recognizing gestures captured by video
US10019962B2 (en) * 2011-08-17 2018-07-10 Microsoft Technology Licensing, Llc Context adaptive user interface for augmented reality display
TW201310389A (zh) 2011-08-19 2013-03-01 Vatics Inc 使用影像對比增進的移動物件偵測方法
CN103636191B (zh) 2011-08-23 2016-11-02 松下电器产业株式会社 三维摄像装置、透镜控制装置
US8830302B2 (en) 2011-08-24 2014-09-09 Lg Electronics Inc. Gesture-based user interface method and apparatus
KR20140060297A (ko) 2011-09-07 2014-05-19 닛토덴코 가부시키가이샤 입력체의 움직임 검출 방법 및 그것을 이용한 입력 디바이스
US20130080898A1 (en) 2011-09-26 2013-03-28 Tal Lavian Systems and methods for electronic communications
JP5624530B2 (ja) 2011-09-29 2014-11-12 株式会社東芝 コマンド発行装置、方法及びプログラム
US20130097566A1 (en) 2011-10-17 2013-04-18 Carl Fredrik Alexander BERGLUND System and method for displaying items on electronic devices
US9195900B2 (en) 2011-11-21 2015-11-24 Pixart Imaging Inc. System and method based on hybrid biometric detection
US8235529B1 (en) 2011-11-30 2012-08-07 Google Inc. Unlocking a screen using eye tracking information
AU2011253910B2 (en) 2011-12-08 2015-02-26 Canon Kabushiki Kaisha Method, apparatus and system for tracking an object in a sequence of images
WO2013103410A1 (en) 2012-01-05 2013-07-11 California Institute Of Technology Imaging surround systems for touch-free display control
US8878749B1 (en) 2012-01-06 2014-11-04 Google Inc. Systems and methods for position estimation
US20150097772A1 (en) 2012-01-06 2015-04-09 Thad Eugene Starner Gaze Signal Based on Physical Characteristics of the Eye
US9230171B2 (en) 2012-01-06 2016-01-05 Google Inc. Object outlining to initiate a visual search
US20150084864A1 (en) 2012-01-09 2015-03-26 Google Inc. Input Method
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
JP2015510169A (ja) 2012-01-17 2015-04-02 リープ モーション, インコーポレーテッドLeap Motion, Inc. 物体検出のためのコントラストの改善及び光学画像化による特徴評価
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US20140307920A1 (en) 2013-04-12 2014-10-16 David Holz Systems and methods for tracking occluded objects in three-dimensional space
US20130182079A1 (en) 2012-01-17 2013-07-18 Ocuspec Motion capture using cross-sections of an object
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US9213822B2 (en) 2012-01-20 2015-12-15 Apple Inc. Device, method, and graphical user interface for accessing an application in a locked device
US20130194304A1 (en) * 2012-02-01 2013-08-01 Stephen Latta Coordinate-system sharing for augmented reality
KR101905648B1 (ko) 2012-02-27 2018-10-11 삼성전자 주식회사 카메라 장치의 동영상 촬영방법 및 장치
US9093012B2 (en) 2012-02-29 2015-07-28 Lenovo (Beijing) Co., Ltd. Operation mode switching method and electronic device
TWI456486B (zh) 2012-03-06 2014-10-11 Acer Inc 電子裝置及控制電子裝置的方法
WO2013136053A1 (en) 2012-03-10 2013-09-19 Digitaloptics Corporation Miniature camera module with mems-actuated autofocus
CN104471511B (zh) 2012-03-13 2018-04-20 视力移动技术有限公司 识别指点手势的装置、用户接口和方法
US9122354B2 (en) 2012-03-14 2015-09-01 Texas Instruments Incorporated Detecting wave gestures near an illuminated surface
US9218723B2 (en) 2012-03-20 2015-12-22 Intralot S.A.—Integrated Lottery Systems and Services Methods and systems for a gesture-controlled lottery terminal
JP5938977B2 (ja) 2012-03-23 2016-06-22 ソニー株式会社 ヘッドマウントディスプレイ及び手術システム
US8942881B2 (en) * 2012-04-02 2015-01-27 Google Inc. Gesture-based automotive controls
TWI464640B (zh) 2012-04-03 2014-12-11 Wistron Corp 手勢感測裝置及具有手勢輸入功能的電子系統
US9448635B2 (en) 2012-04-16 2016-09-20 Qualcomm Incorporated Rapid gesture re-engagement
GB2501768A (en) 2012-05-04 2013-11-06 Sony Comp Entertainment Europe Head mounted display
US20130300831A1 (en) 2012-05-11 2013-11-14 Loren Mavromatis Camera scene fitting of real world scenes
JP2013250637A (ja) 2012-05-30 2013-12-12 Toshiba Corp 認識装置
US20130328867A1 (en) 2012-06-06 2013-12-12 Samsung Electronics Co. Ltd. Apparatus and method for providing augmented reality information using three dimension map
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US9245492B2 (en) 2012-06-28 2016-01-26 Intermec Ip Corp. Dual screen display for mobile computing device
US9697418B2 (en) 2012-07-09 2017-07-04 Qualcomm Incorporated Unsupervised movement detection and gesture recognition
KR20140010616A (ko) 2012-07-16 2014-01-27 한국전자통신연구원 3d 가상 객체에 대한 조작 처리 장치 및 방법
JP6024952B2 (ja) 2012-07-19 2016-11-16 パナソニックIpマネジメント株式会社 画像送信装置、画像送信方法、画像送信プログラム及び画像認識認証システム
JP5997276B2 (ja) 2012-07-27 2016-09-28 日産自動車株式会社 立体物検出装置及び異物検出装置
US10839227B2 (en) 2012-08-29 2020-11-17 Conduent Business Services, Llc Queue group leader identification
US9124778B1 (en) 2012-08-29 2015-09-01 Nomi Corporation Apparatuses and methods for disparity-based tracking and analysis of objects in a region of interest
JP6186689B2 (ja) 2012-09-26 2017-08-30 セイコーエプソン株式会社 映像表示システム
JP2014071499A (ja) 2012-09-27 2014-04-21 Kyocera Corp 表示装置および制御方法
DE102012109481A1 (de) 2012-10-05 2014-04-10 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US9386298B2 (en) 2012-11-08 2016-07-05 Leap Motion, Inc. Three-dimensional image sensors
US9285893B2 (en) 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
WO2014078414A1 (en) 2012-11-13 2014-05-22 Joseph Wu Chemically defined production of cardiomyocytes from pluripotent stem cells
JP6058978B2 (ja) 2012-11-19 2017-01-11 サターン ライセンシング エルエルシーSaturn Licensing LLC 画像処理装置及び画像処理方法、撮影装置、並びにコンピューター・プログラム
CN104798129B (zh) 2012-11-27 2018-10-19 索尼公司 显示装置、显示方法和计算机可读介质
US10912131B2 (en) 2012-12-03 2021-02-02 Samsung Electronics Co., Ltd. Method and mobile terminal for controlling bluetooth low energy device
KR101448749B1 (ko) 2012-12-10 2014-10-08 현대자동차 주식회사 물체 영상 검출 시스템 및 방법
US9274608B2 (en) 2012-12-13 2016-03-01 Eyesight Mobile Technologies Ltd. Systems and methods for triggering actions based on touch-free gesture detection
US9483934B2 (en) 2012-12-26 2016-11-01 Oren Kotlicki Presence based system and method for controlling devices
US9733713B2 (en) 2012-12-26 2017-08-15 Futurewei Technologies, Inc. Laser beam based gesture control interface for mobile devices
US20140189579A1 (en) 2013-01-02 2014-07-03 Zrro Technologies (2009) Ltd. System and method for controlling zooming and/or scrolling
US9465461B2 (en) 2013-01-08 2016-10-11 Leap Motion, Inc. Object detection and tracking with audio and optical signals
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
CN103090862A (zh) 2013-01-18 2013-05-08 华为终端有限公司 一种终端设备及终端设备的导航模式切换方法
US9720504B2 (en) 2013-02-05 2017-08-01 Qualcomm Incorporated Methods for system engagement via 3D object detection
US10133342B2 (en) 2013-02-14 2018-11-20 Qualcomm Incorporated Human-body-gesture-based region and volume selection for HMD
JP6380374B2 (ja) 2013-02-22 2018-08-29 ソニー株式会社 ヘッドマウントディスプレイ
US20140240215A1 (en) 2013-02-26 2014-08-28 Corel Corporation System and method for controlling a user interface utility using a vision system
US20140240225A1 (en) 2013-02-26 2014-08-28 Pointgrab Ltd. Method for touchless control of a device
GB201303707D0 (en) 2013-03-01 2013-04-17 Tosas Bautista Martin System and method of interaction for mobile devices
DE102013203667B4 (de) 2013-03-04 2024-02-22 Adidas Ag Kabine zum Ausprobieren eines oder mehrerer Bekleidungsstücke
US9056396B1 (en) 2013-03-05 2015-06-16 Autofuss Programming of a robotic arm using a motion capture system
US20140253711A1 (en) 2013-03-07 2014-09-11 Advanced Optical Systems, Inc. Agile non-contact biometric sensor
US20140253785A1 (en) 2013-03-07 2014-09-11 Mediatek Inc. Auto Focus Based on Analysis of State or State Change of Image Content
JP6037901B2 (ja) 2013-03-11 2016-12-07 日立マクセル株式会社 操作検出装置、操作検出方法及び表示制御データ生成方法
KR102037930B1 (ko) 2013-03-15 2019-10-30 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US9766709B2 (en) 2013-03-15 2017-09-19 Leap Motion, Inc. Dynamic user interactions for display control
US9702977B2 (en) 2013-03-15 2017-07-11 Leap Motion, Inc. Determining positional information of an object in space
US8954340B2 (en) 2013-03-15 2015-02-10 State Farm Mutual Automobile Insurance Company Risk evaluation based on vehicle operator behavior
JP5900393B2 (ja) 2013-03-21 2016-04-06 ソニー株式会社 情報処理装置、操作制御方法及びプログラム
JP6107276B2 (ja) 2013-03-22 2017-04-05 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
US9367136B2 (en) 2013-04-12 2016-06-14 Microsoft Technology Licensing, Llc Holographic object feedback
US10509533B2 (en) 2013-05-14 2019-12-17 Qualcomm Incorporated Systems and methods of generating augmented reality (AR) objects
US10137361B2 (en) 2013-06-07 2018-11-27 Sony Interactive Entertainment America Llc Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system
US10019057B2 (en) 2013-06-07 2018-07-10 Sony Interactive Entertainment Inc. Switching mode of operation in a head mounted display
US9908048B2 (en) 2013-06-08 2018-03-06 Sony Interactive Entertainment Inc. Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display
WO2014208087A1 (ja) 2013-06-27 2014-12-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 複数の光源を有するモーションセンサ装置
US9239950B2 (en) 2013-07-01 2016-01-19 Hand Held Products, Inc. Dimensioning system
US9857876B2 (en) 2013-07-22 2018-01-02 Leap Motion, Inc. Non-linear motion capture using Frenet-Serret frames
US9514571B2 (en) 2013-07-25 2016-12-06 Microsoft Technology Licensing, Llc Late stage reprojection
JP2015027015A (ja) 2013-07-29 2015-02-05 ソニー株式会社 情報提示装置及び情報処理システム
GB201314984D0 (en) 2013-08-21 2013-10-02 Sony Comp Entertainment Europe Head-mountable apparatus and systems
US9261966B2 (en) 2013-08-22 2016-02-16 Sony Corporation Close range natural user interface system and method of operation thereof
US9630105B2 (en) 2013-09-30 2017-04-25 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
US8922590B1 (en) 2013-10-01 2014-12-30 Myth Innovations, Inc. Augmented reality interface and method of use
US10318100B2 (en) 2013-10-16 2019-06-11 Atheer, Inc. Method and apparatus for addressing obstruction in an interface
WO2015065341A1 (en) 2013-10-29 2015-05-07 Intel Corporation Gesture based human computer interaction
US9546776B2 (en) 2013-10-31 2017-01-17 General Electric Company Customizable modular luminaire
US9402018B2 (en) 2013-12-17 2016-07-26 Amazon Technologies, Inc. Distributing processing for imaging processing
US20150205358A1 (en) 2014-01-20 2015-07-23 Philip Scott Lyren Electronic Device with Touchless User Interface
US20150205400A1 (en) 2014-01-21 2015-07-23 Microsoft Corporation Grip Detection
US9311718B2 (en) 2014-01-23 2016-04-12 Microsoft Technology Licensing, Llc Automated content scrolling
US9691181B2 (en) 2014-02-24 2017-06-27 Sony Interactive Entertainment Inc. Methods and systems for social sharing head mounted display (HMD) content with a second screen
US20150253574A1 (en) 2014-03-10 2015-09-10 Ion Virtual Technology Corporation Modular and Convertible Virtual Reality Headset System
CN106233227B (zh) 2014-03-14 2020-04-28 索尼互动娱乐股份有限公司 具有体积感测的游戏装置
EP3117263B1 (de) 2014-03-14 2018-05-09 Sony Interactive Entertainment Inc. Verfahren und systeme zur verfolgung einer kopfmontierten anzeige sowie kalibrierungen für anpassungen der kopfmontierten anzeige
US9361732B2 (en) 2014-05-01 2016-06-07 Microsoft Technology Licensing, Llc Transitions between body-locked and world-locked augmented reality
US9442293B2 (en) 2014-05-06 2016-09-13 Microsoft Technology Licensing, Llc Composite variable light attenuator
US9741169B1 (en) 2014-05-20 2017-08-22 Leap Motion, Inc. Wearable augmented reality devices with object detection and tracking
US10782657B2 (en) 2014-05-27 2020-09-22 Ultrahaptics IP Two Limited Systems and methods of gestural interaction in a pervasive computing environment
US9868449B1 (en) 2014-05-30 2018-01-16 Leap Motion, Inc. Recognizing in-air gestures of a control object to control a vehicular control system
US10371944B2 (en) 2014-07-22 2019-08-06 Sony Interactive Entertainment Inc. Virtual reality headset with see-through mode
CN204480228U (zh) * 2014-08-08 2015-07-15 厉动公司 运动感测和成像设备
US10073590B2 (en) 2014-09-02 2018-09-11 Apple Inc. Reduced size user interface
US9984505B2 (en) 2014-09-30 2018-05-29 Sony Interactive Entertainment Inc. Display of text information on a head-mounted display
US9740010B2 (en) 2014-11-28 2017-08-22 Mahmoud A. ALHASHIM Waterproof virtual reality goggle and sensor system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Die Multilateration ist eine Navigationstechnik auf der Grundlage der Messung in der Entfernung zu zwei Stationen an bekannten Positionen, die Signale zu bekannten Zeitpunkten übertragen." Siehe Wikipedia, unter http://en.wikipedia.org/w/index.php?title=Multilateration&oldid=523281858, aufgerufen am 16. November 2012, um 06:07 UTC
"Visio-Tactile-Projector" Youtube (https://www.youtube.com/watch?v=Bb0hNMxxewg) (aufgerufen am 15. Januar 2014)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3234685A4 (de) * 2014-12-18 2018-06-13 Facebook, Inc. System, vorrichtung und verfahren zur bereitstellung einer benutzerschnittstelle für eine virtuelle realität
US10559113B2 (en) 2014-12-18 2020-02-11 Facebook Technologies, Llc System, device and method for providing user interface for a virtual reality environment
EP3179338A1 (de) * 2015-12-11 2017-06-14 Tata Consultancy Services Ltd. Auf hybrider realität basierte objektinteraktion und steuerung
EP3179338B1 (de) * 2015-12-11 2021-07-14 Tata Consultancy Services Ltd. Auf hybrider realität basierte objektinteraktion und steuerung

Also Published As

Publication number Publication date
US20190335158A1 (en) 2019-10-31
US20160044298A1 (en) 2016-02-11
US20210120222A1 (en) 2021-04-22
US20240031547A1 (en) 2024-01-25
JP2016038889A (ja) 2016-03-22
US11483538B2 (en) 2022-10-25
CN204480228U (zh) 2015-07-15
US11778159B2 (en) 2023-10-03
US10349036B2 (en) 2019-07-09
US10880537B2 (en) 2020-12-29
US20230042990A1 (en) 2023-02-09

Similar Documents

Publication Publication Date Title
DE202014103729U1 (de) Augmented-Reality mit Bewegungserfassung
US10437347B2 (en) Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
US11676349B2 (en) Wearable augmented reality devices with object detection and tracking
US11782513B2 (en) Mode switching for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
US20230125265A1 (en) Safety for wearable virtual reality devices via object detection and tracking
CN106255943B (zh) 身体锁定增强现实与世界锁定增强现实之间的转换
CN107066962B (zh) 用于通过光学成像进行的对象检测和表征的增强对比度
DE202014104297U1 (de) Kraftfahrzeug- und Industriebewegungssensorvorrichtung
WO2020132243A1 (en) Multi-camera cross reality device
TW201506806A (zh) 凝視追蹤之方法
DE102018103572A1 (de) Informationsverarbeitungseinrichtung, informationsverarbeitungsverfahren und aufzeichnungsmedium
CN113822977A (zh) 图像渲染方法、装置、设备以及存储介质
US20230140737A1 (en) Drift cancelation for portable object detection and tracking
EP3141985A1 (de) Modul zu identifizierung angeschauter virtueller objekte, system zur implementierung von blickdurchlässigkeit und zugehöriges verfahren
CN106470337B (zh) 用于个性化全方向视频景深的方法、装置和计算机可读存储介质
DE112018008019T5 (de) Echtzeit-Multi View-Detektion von Objekten in Multicamera-Umgebungen
US20230122149A1 (en) Asymmetric communication system with viewer position indications
Lo Embodied Humanistic Intelligence: Design of Augmediated Reality Digital Eye Glass
Rampersad Three-Dimensional High Dynamic Range For Wearable Sousveillance Technologies

Legal Events

Date Code Title Description
R207 Utility model specification

Effective date: 20141016

R156 Lapse of ip right after 3 years