DE112011102169T5 - System für ortsbewegliche spürbare Interaktion - Google Patents

System für ortsbewegliche spürbare Interaktion Download PDF

Info

Publication number
DE112011102169T5
DE112011102169T5 DE112011102169T DE112011102169T DE112011102169T5 DE 112011102169 T5 DE112011102169 T5 DE 112011102169T5 DE 112011102169 T DE112011102169 T DE 112011102169T DE 112011102169 T DE112011102169 T DE 112011102169T DE 112011102169 T5 DE112011102169 T5 DE 112011102169T5
Authority
DE
Germany
Prior art keywords
target area
area
display
display area
graphic image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112011102169T
Other languages
English (en)
Inventor
Daniel Avrahami
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of DE112011102169T5 publication Critical patent/DE112011102169T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F3/00Board games; Raffle games
    • A63F3/00003Types of board games
    • A63F3/00094Ticktacktoe
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F3/00Board games; Raffle games
    • A63F3/00643Electric board games; Electric features of board games
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • A63F9/24Electric games; Games using electronic circuits not otherwise provided for
    • A63F2009/2401Detail of input, input devices
    • A63F2009/243Detail of input, input devices with other kinds of input
    • A63F2009/2435Detail of input, input devices with other kinds of input using a video camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Educational Technology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)

Abstract

Ausführungsformen der Erfindung beschreiben ein System, das mindestens eine Kamera und eine Anzeige zum Schaffen eines Objekts und eines kontextbewussten Systems verwendet. Ausführungsformen der Erfindung können die Kamera zum Erfassen einer Umgebung des Systems verwenden und verwenden eine Erkennungslogik oder Module zum Erfassen und Erkennen von Objekten auf dem und um das System. Systemanwendungen können ferner auf die erfassten Daten wirken und die Anzeige des Systems verwenden, um eine visuelle Rückmeldung bereitzustellen, und interaktive Elements als Mittel zur Interaktion mit dem Systemanwender verwenden.

Description

  • GEBIET
  • Ausführungsformen der vorliegenden Erfindung betreffen im Allgemeinen Vorrichtungen und Verfahren zur Bereitstellung einer verbesserten Computer-Vorrichtungs-Interaktion und insbesondere die Verarbeitung einer Objekt-Interaktion mit erweiterten mobilen Computervorrichtungssystemen.
  • ALLGEMEINER STAND DER TECHNIK
  • Die zunehmenden Verarbeitungskapazitäten mobiler Computersysteme haben die verbesserte Fähigkeit erzeugt, physische Objekte neben diesen Systemen zu verstehen und auf diese zu reagieren. Kontexte von Systemanwendern können auch zur Bereitstellung einer reicheren Interaktionserfahrung verwendet werden.
  • Die Schaffung eines Systems mit der Fähigkeit, Objekte zu verfolgen, auf sie einzuwirken und eine Rückmeldung zu liefern, würde den Wert von mobilen Computer für Endanwender erhöhen. Im Laufe der Jahre wurden Tischsysteme vorgeschlagen und entwickelt, die viele dieser Vorteile bieten; diese Systeme sind jedoch üblicherweise groß und somit weder mobil noch persönlich. Einer der Gründe für die Einschränkungen von Lösungen nach dem Stand der Technik, wie Tischsystemen, ist die Anforderung nach einem großen Vorrichtungsfußabdruck; solche Vorrichtungen verwenden zusätzliche Hardware unterhalb der Tischoberfläche zur Verarbeitung einer Aktivität auf der Oberfläche, wie Interaktionen mit dem System.
  • Somit gibt es keine aktuellen Lösungen zur Bereitstellung einer verbesserten Anwender und Objekt-Interaktion für ein mobiles Computersystem, die keine zusätzlichen Anzeigemöglichkeiten erfordern (z. B., einen zusätzlichen Bildschirm, einen Projektor), während der Mechanismus zur Verbesserung der Anwender und Objekt-Interaktion die nomadischen Eigenschaften des mobilen Rechnersystems nicht beeinflusst.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die folgende Beschreibung enthält eine Besprechung von Figuren mit beispielhaften Darstellungen von Realisierungen von Ausführungsformen der Erfindung. Die Zeichnungen sollten als Beispiel und in keiner Weise als Einschränkung verstanden werden. Wie hierin verwendet, sind Bezugnahmen auf eine oder mehrere ”Ausführungsform(en)” als Beschreibung eines besonderen Merkmals, einer Struktur oder Eigenschaft zu verstehen, die in mindestens einer Realisierung der Erfindung enthalten ist.
  • Somit beschreiben Phrasen, wie ”in einer Ausführungsform” oder ”in einer anderen Ausführungsform”, die hierin vorkommen, verschiedene Ausführungsformen und Realisierungen der Erfindung und beziehen sich nicht unbedingt auf dieselbe Ausführungsform. Sie sind aber auch nicht unbedingt wechselseitig ausschließend.
  • 1 ist ein Blockdiagramm einer Ausführungsform der Erfindung.
  • 2 ist ein Blockdiagramm einer Ausführungsform der Erfindung.
  • 3 ist ein Flussdiagramm einer Ausführungsform der Erfindung.
  • 4 ist eine Darstellung einer Anwendung unter Verwendung einer Ausführungsform der Erfindung.
  • 5 ist eine Darstellung einer Anwendung unter Verwendung einer Ausführungsform der Erfindung.
  • 6 ist eine Darstellung einer Anwendung unter Verwendung einer Ausführungsform der Erfindung.
  • Beschreibungen gewisser Einzelheiten und Realisierungen folgen, einschließlich einer Beschreibung der Figuren, die einige oder alle unten beschriebenen Ausführungsformen zeigen können, wie auch eine Besprechung anderer möglicher Ausführungsformen oder Realisierungen der hierin vorgelegten erfinderischen Konzepte. In der Folge wird ein Überblick über Ausführungsformen der Erfindung gegeben, gefolgt von einer ausführlichen Beschreibung unter Bezugnahme auf die Zeichnungen
  • AUSFÜHRLICHE BESCHREIBUNG
  • Ausführungsformen der Erfindung beschreiben ein System, das mindestens eine Kamera und einen Anzeigebildschirm zum Erzeugen eines objekt- und kontextbewussten Systems verwendet. Insbesondere verwenden Ausführungsformen der Erfindung Kameras und Sensoren zum Erfassen der Umgebung des Systems und verwenden Erkennungslogik oder Module zum Erfassen und Erkennen von Objekten auf dem und um das System. Die Erkennungslogik oder Module können ferner auf der Basis erfasster Daten und eines Verlaufskontexts oder von Informationen, die sie über den Anwender haben, Schlussfolgerungen auf den Zustand des (der) Systemanwender(s) und dessen (deren) unmittelbare Umgebung ziehen. Anwendungen können ferner auf die erfassten Daten einwirken und den Anzeigebildschirm des Systems für eine Rückmeldung und interaktive Elemente (wie Tasten, Wählscheiben, Schieber) als Mittel zur Interaktion mit dem (den) Systemanwender(n) verwenden.
  • Ausführungsformen der Erfindung können somit ein objektbewusstes mobiles Tischsystem bereitstellen. Ausführungsformen der Erfindung können eine ubiquitäre, auf einer stabilen Fläche stehende Plattform (z. B. einen Tablet-Computer oder ein konvertibles Tablet) verwenden, um eine nomadische (im Gegensatz zu einer feststehenden) Funktionalität zu erreichen. Ausführungsformen der Erfindung können Kameras/Sensoren verwenden, die betriebsbereit an den Tablet-Computer angeschlossen sind, um eine Umgebungsinstrumentierung (im Gegensatz zu deckenmontierten Kameras und Projektoren) zu vermeiden. Die Integration dieser Kameras/Sensoren bietet eine eigenständige, äußerst ortsbewegliche, aber umfassende und kostengünstige Funktionalität. Ausführungsformen der Erfindung verwenden eine Kamera, die über der Anzeigefläche eines mobilen Computers (z. B. eines Tablet-Computers) positioniert ist, wodurch das Erfassen von Objekten jenseits des Bildschirms möglich ist (diese Erfassung ist mit einer Kamera oder einem Sensor, die bzw. der unterhalb der Anzeigefläche positioniert ist, nicht möglich). Die Kamera kann mit der mobilen Vorrichtung integriert oder an der mobilen Vorrichtung befestigt ist, wobei jedes Mittel verwendet wird, das die Kamera so positioniert, dass sie auf die Anzeigefläche der Vorrichtung gerichtet ist.
  • Eine Verarbeitung, die sich auf ein Objektbewusstsein bezieht, kann durch Logik oder Module ausgeführt werden. Softwaremodule können alleine auf dem System laufen oder können auf einer Kombination aus vernetzten Systemen und einem Backend-Server laufen. Die Funktionalität der Logik/Module ist das Analysieren von Objekt, Anwender und Umgebungszuständen aus den Sensordaten und das Entscheiden, wie mit dem Anwender zu interagieren ist (unter Verwendung der Anzeige/Stellglieder des Systems selbst). Die oben genannte Verarbeitungsfunktionalität enthält: grundlegende Einzelbilderfassung, Berichtigung und Beleuchtungskorrektur; Bildsegmentierung und Merkmalextraktion; Wahrnehmungscode zum Erkennen von Objektpositonen/zustand und Anwenderhände/-position; Gesten, die Anwender mit ihren Händen machen; und optische Zeichenerkennung (OCR), Handschrift und Strichcodeerkennung, um Text aus Objekten und Dokumenten zu entnehmen.
  • 1 ist ein Blockdiagramm einer Ausführungsform der Erfindung. System 100 enthält einen Tablet-Computer 110. Der Tablet-Computer 110 wird als ein Beispiel eines mobilen Computersystems verwendet, das eine Anzeigefläche 120 enthält, die in Bezug auf eine Auflagefläche (z. B. eine Tischfläche) flach liegen kann. Es ist klar, dass der Tablet-Computer 110 ein Beispiel einer Vorrichtung ist, die eine Ausführungsform der Erfindung verwendet, und es ist ferner klar, dass einige Funktionen von Tablet-Computern (z. B., eine Berührungsbildschirmanzeige) in den Ausführungsformen der Erfindung nicht unbedingt notwendig sind.
  • Das System 100 kann ferner eine Kamera 130 enthalten, die über der Anzeigefläche 120 positioniert ist. In dieser Ausführungsform ist die Kamera 130 betriebsbereit über einen Arm 140, der drehbar vom Tablet-Computer 110 ausgefahren werden kann, an den Tablet-Computer 110 angeschlossen.
  • In einer Ausführungsform ist die Kamera 130 so positioniert, dass sie visuelle Daten innerhalb einer Zielfläche 150 erfasst. Wie in 1 dargestellt, enthält die Zielfläche 150 eine Anzeigefläche 120 und Flächen 155 außerhalb der Anzeigefläche.
  • Der Tablet-Computer 110 kann ferner eine Anwendung ausführen, die ein anzuzeigendes graphisches Bild 160 erzeugt. Die Anwendung kann auch über die Kamera 130 ein Objekt 170 innerhalb der Zielfläche 150 durch einen beliebigen Wahrnehmungsalgorithmus identifizieren, der nach dem Stand der Technik bekannt ist. Das Objekt kann irgendwo innerhalb der Zielfläche 150 erscheinen (d. h., auf Anzeigefläche 120 und Fläche 155). Die Anwendung kann eine Interaktion des Objekts 170 mit dem graphischen Bild 160, das von einer Anwendung erzeugt wird, verarbeiten.
  • In diesem Beispiel erscheint das Objekt 170 jenseits der Anzeigefläche 120, aber innerhalb einer Teilfläche 155 der Zielfläche 150. Die Anwendung, die auf dem Tablet-Computer 110 ausgeführt wird, kann ein graphisches Bild (Pfeil) 160 ausrichten, um die Position des Objekts 170 innerhalb der Zielfläche 150 festzustellen. In dieser Ausführungsform wird das graphische Bild 160 auf der Basis des Winkels zwischen dem Objekt 170 und dem Mittelpunkt des Bildschirms 120 erzeugt.
  • Somit können die Ausführungsformen der Erfindung einen Bildschirm einer Rechnervorrichtung zur Weiterleitung einer Wahrnehmung eines Objekts und Anwenderzustandes verwenden, eine Rückmeldung über Maßnahmen zum Anwender liefern und dem Anwender eine Auswahl bieten, entweder physische Objekte zu manipulieren oder mit digitalen Elementen auf dem Bildschirm zu interagieren.
  • 2 ist ein Blockdiagramm einer Ausführungsform der Erfindung, die zwei Kameras verwendet. Das System 200 enthält einen Tablet-Computer 210 mit einer Anzeigefläche 220. Das System 200 enthält ferner Kameras 230 und 240, die in Bezug auf die Anzeigefläche 220 aufrecht positioniert sind. Bei mobilen und ultra-mobilen Vorrichtungen macht es häufig ein Bildschirmraum unmöglich, Hände oder Finger eines Anwenders aufzunehmen, ohne den digitalen Inhalt auf dem Bildschirm zu blockieren. Die Verwendung mehrerer Kameras bietet einen großen Interaktionsraum trotz der begrenzten Bildschirmfläche, die der Tablet-Computer 210 bereitstellt. Das physische Design von System 200, das Kameras 230 und 240 enthält, ermöglicht die Betrachtung von und Reaktion auf Interaktionen eines Anwenders mit Objekten auf der Oberfläche, die das Tablet umgibt (d. h., der Kombination aus Zielflächen 235 und 245). Somit ist der Eingaberaum des Systems 200 (d. h., was das System sieht) deutlich größer als sein Ausgaberaum (begrenzt durch die Ränder des Bildschirms 220).
  • Damit vermieden wird, dass Kameras 230 und 240 unbeabsichtigt virtuelle Elemente erkennen, die auf dem Tablet-Bildschirm 220 dargestellt sind, können lineare Polarisierungsfilter bei dem Bildschirm 220 und den Kameras angewendet werden (die meisten LCD Bildschirme sind linear polarisiert; in vielen Tablets jedoch streut das berührungsempfindliche Element das Licht). In einer Ausführungsform sind die polarisierenden Filter für Kameras 230 und 240 drehbar, um eine Vorberechnung der Filterdrehung zu vermeiden, die zur Blockierung der Ansicht des Bildschirms 220 notwendig ist (die Drehung des Filters in die korrekte Ausrichtung muss nur einmal erfolgen).
  • Vor der Verwendung kann das System 200 kalibriert werden, um verschiedene Kameraansichten von den Kameras 230 und 240 zu erhalten und korrekte Objektpositionen zu liefern. In einer Ausführungsform besteht die Systemkalibrierung aus drei Vorgängen, von welchen jeder einmal ausgeführt werden muss. Im ersten Vorgang werden die vier Ecken des Bildschirms 220 manuell vom Anwender gewählt, einmal für jede Kamera. Unter Verwendung der ausgewählten Ecken wird eine Homographie für jede Kamera berechnet, die später zum Wechseln von der Kameraansicht auf die Ebene des Bildschirms 220 verwendet wird. Alternativ können visuelle Marker an den Bildschirmecken automatisch von dem System gelöscht werden. Die Homographie kann auf einer Datei gespeichert und automatisch geladen werden, sobald das System 200 hochfährt.
  • Nach dem ersten Kalibrierungsvorgang kann ein Objekt, das auf den Bildschirm 220 platziert wird, dieselben Koordinaten von beiden Kameras 230 und 240 empfangen; ein Objekt, das jedoch auf einer Tischfläche 260 (d. h., innerhalb der Zielfläche 235 und 245) platziert wird, empfängt verschiedene Koordinaten von den zwei Kameras, da die Ebene des Tablet-Bildschirms von der Ebene der Oberfläche 260 abgehoben ist. Somit wird im zweiten Kalibrierungsvorgang ein einziger physischer Kalibrierungsmarker auf die Oberfläche 260 innerhalb der überlappenden Fläche 265 zwischen den Kameras 230 und 240 platziert (an diesem Punkt sieht das System 200 zwei Marker auf dem Tisch). Da dem System 200 mitgeteilt wird, dass nur ein Marker auf der Oberfläche 260 ist, berechnet es einen Korrekturversatz, der bei den zwei Objekten, die es sieht, zur Ausrichtung ihrer Mittelpunkte angewendet werden sollte. Der Versatz wird gespeichert und anschließend bei den Koordinaten von Objekten angewendet, die sich außerhalb der Einfassung des Tablets 210 befinden. Nach dem zweiten Kalibrierungsvorgang hat ein einziges Objekt in der Überlappung der Kameras (d. h., Fläche 265) überlappende Koordinaten und wird nur einmal von dem Bildverarbeitungssystem korrekt gemeldet.
  • In einem dritten Vorgang wird eine Zuordnung zwischen den Bildverarbeitungssystemkoordinaten und den Anwendungsraumkoordinaten erstellt. Der Kalibrierungsmarker aus dem vorangehenden Vorgang wird an den vier Ecken des Anwendungsraums des Anwenders platziert. Unter Verwendung der Koordinaten, die vom Bildverarbeitungssystem für den Marker an jeder Ecke zurückgesendet werden, wird eine Koordinatenumformung berechnet, gespeichert und später von Anwendungen des Systems verwendet.
  • 3 ist ein Flussdiagramm einer Ausführungsform der Erfindung. Die hierin dargestellten Flussdiagramme zeigen Beispiele von Abfolgen verschiedener Verfahrensschritte. Die Schritte sind zwar in einer bestimmten Abfolge oder Reihenfolge dargestellt, aber die Reihenfolge kann, falls nicht anders angegeben, verändert werden. Daher sind die dargestellten Realisierungen nur als Beispiele zu verstehen und die dargestellten Prozesse können in einer anderen Reihenfolge ausgeführt werden und einige Schritte können parallel durchgeführt werden. Zusätzlich können eine oder mehrere Schritte in verschiedenen Ausführungsformen der Erfindung unterlassen werden; daher sind nicht alle Schritte in jeder Realisierung erforderlich. Andere Prozessabläufe sind möglich.
  • Von mindestens einer Kameravorrichtung, 300 wird ein Einzelbild gewonnen. In einer Ausführungsform werden mindestens zwei Kameras verwendet, um eine größere Zieleingangsfläche bereitzustellen. Es wird eine Hintergrundsubtraktion des gewonnenen Einzelbildes ausgeführt, 310. In einer Ausführungsform wird eine Gaußsche-Mischmodell-Strategie für eine Hintergrundsubtraktion mit einem zweckbestimmten Modell für jede Kamera verwendet. Wenn eine Hintergrundsubtraktion angewendet wird, wird eine Hintergrund/Vordergrundmaske, die mit dem Kamera-Roheinzelbildverknüpft ist, erzeugt, 320.
  • Unter Verwendung von Kalibrierungspunkten, die beim Systemaufbau ermittelt werden, wird ein erster Satz simulierter Ansichten erzeugt, der für die Objekterfassung verwendet wird, 330. In einer Ausführungsform werden drei simulierte Ansichten erzeugt. Die erste umfasst eine Bildschirm- und Einfassungsansicht, die eine berichtigte Ansicht des Tablet-Bildschirms und der Einfassung enthält und zur Durchführung einer präziseren Erfassung von Objekten nützlich ist, die auf dem Tablet platziert sind. Die zweite Ansicht umfasst eine Table-Ansicht, die eine berichtigte Ansicht des Tablet-Bildschirms und der umgebenden Oberfläche enthält und so berechnet wird, dass der Tablet-Bildschirm einen der oberen Quadranten der berichtigten Ansicht einnimmt (abhängig davon, ob eine linke oder rechte Kamera verwendet wird). Die dritte Ansicht umfasst eine Bildschirmansicht, die eine berichtigte Ansicht nur des Tablet Bildschirms enthält. Wenn die Hintergrundsubtraktion verwendet wird, verzerrt ein Ansichtsmodul die Hintergrund/Vordergrundmaske, die mit dem Kamera-Roheinzelbild empfangen wird, so dass sie mit der simulierten Ansicht übereinstimmt.
  • In einer Ausführungsform ist die Auflösung jeder der oben genannten Ansichten (roh, Bildschirm und Einfassung, und Tisch) unabhängig und kann abhängig vorwiegend von den Einzelheiten von Objekten geändert werden, die erfasst werden müssen.
  • In einer Ausführungsform enthält ein System eine Liste von maschinellen Lernklassifikatoren, die einer der oben erzeugten Ansichten entsprechen und für eine visionsbasierte Objekterkennung verantwortlich sind. Jede dieser Ansichten wird zu ihrem entsprechenden Klassifikator geleitet, 340. Diese Ansichten können mit oder ohne Hintergrundsubtraktion weitergeleitet werden. Jeder Klassifikator sendet dann eine Liste erfasster Objekte (falls vorhanden) zurück, 350.
  • Da verschiedene Ansichten verschiedene Auflösungen und Koordinatensysteme in Bezug auf den Tablet-Bildschirm haben können, ist klar, dass die Koordinaten jedes Objekts zu einem gleichförmigen Koordinatensystem umgewandelt werden müssen, bevor die Objekte zum Kameramodul weitergeleitet werden, 360. In einer Ausführungsform sind die Koordinaten jedes erfassten Objekts an das Koordinatensystem des Tablets angepasst, so dass ein Objekt, das sich an der oberen linken Seite des Tablet Bildschirms befindet, eine Koordinate von zum Beispiel (0,0) hat, und ein Objekt, das sich an der unteren rechten Ecke des Tablet-Bildschirms befindet, eine Koordinate von zum Beispiel (1280,800) hat. In diesem Beispiel haben am Ende dieses Vorgangs Objekte an der linken Seite des Tablets negative horizontale Koordinaten, Objekte vor dem Tablet haben vertikale Koordinaten größer 800, und Objekte rechts vom Tablet haben horizontale Koordinaten größer 1280. Ein Konvergieren auf diesem einzigen Koordinatensystem ermöglicht eine direkte Bestimmung, ob ein Objekt auf dem Bildschirm oder jenseits von diesem ist, und es können eine oder mehrere Visualisierungen passend gewählt werden. Eine Liste von Objekten kann dann jeweils mit den zugehörigen Koordinaten aktualisiert werden, 370.
  • Das System kann mehr als einen Satz von Objekten verarbeiten, die auf verschiedenen Ansichten mit möglichen Redundanzen klassifiziert sind; jedes Objekt muss jedoch höchstens einmal dem Ausgabesystem gemeldet werden. Somit werden die Listen von den verschiedenen Ansichten analysiert und Duplikate von Objekten, die in mehrfachen Listen auftreten, werden entfernt, 380. Duplikate werden als Objekte bestimmt, die denselben Matrizennamen haben und für die die Umrahmungskästen um mehr als zum Beispiel 75% überlappen. Wenn in einer Ausführungsform Duplikate gefunden werden, bevorzugt das System Objekte, die auf der Bildschirm- und Einfassungsansicht höherer Auflösung klassifiziert sind, gegenüber jenen, die auf der Tischansicht klassifiziert sind. Die einzige Objektliste wird dann zur Wahrnehmungsverarbeitung geleitet, 385.
  • Ähnlich wie bei dem vorangehenden Vorgang werden Objekte, die von den zwei Kameras zurückgesendet werden, vereint, 390. Es ist klar, dass, anstelle eines Vereinens von Objekten von verschiedenen Ansichten derselben Kamera, ein einziges Objekt, das von beiden Kameras erfasst wird, keine perfekte Überlappung zwischen den Ansichten haben könnte. Tatsächlich ist es für ein beliebiges 3D-Objekt wahrscheinlich nicht der Fall. In einer Ausführungsform der Erfindung wird die überlappende Fläche für ein Objekt, das von beiden Kameras gesehen wird, als die mögliche Basis des Objekts verwendet. Für überlappende Objekte kann nur die Schnittfläche an ein Ausgabesubsystem gemeldet werden, um einen Berührungspunkt des Objekts mit der Oberfläche zu nähern und eine Rückmeldung an der geeigneten Position zu liefern.
  • Objekte innerhalb der Ansicht der Systemskameras werden identifiziert und zu einer Anwendung für eine anschließende Verarbeitung geleitet, 395. Somit ist der Eingaberaum des Systems (was von den Kameras gesehen werden kann) viel größer als der Ausgaberaum (das Ausmaß des Tablet-Bildschirms).
  • Anwendungen, die den oben beschriebenen vergrößerten Eingaberaum verwenden, können das Vorhandensein eines Objekts jenseits des Bildschirms weiterleiten und es können Manipulatoren bei einer beliebigen Darstellung zum Weiterleiten des Abstands des Objekts vom Tablet angewendet werden.
  • In einer Ausführungsform wird ein Pfeil von der Mitte des Tablet-Bildschirms in die Richtung des Objekts gezogen, das sich auf dem Tisch befindet. Die Dicke des Pfeils kann zur Anzeige und Aktualisierung eines Abstandes des Objekts zum Tablet verwendet werden. Zum Beispiel kann die Pfeildicke abnehmen, wenn ein Abstand des Objekts abnimmt. Es kann auch ein Alpha-Blend-Wert zur Anzeige eines Abstands eines Objekts vom Tablet verwendet werden. Diese Visualisierungstechnik ändert den Alpha-Wert der Darstellung auf der Basis des Abstands des Objekts vom Bildschirm. Wenn das Objekt den Bildschirm berührt, ist der Alpha-Wert 100%. Als Vorgabe hat der Alpha-Wert für ein Objekt am Rand des Bildverarbeitungssystems einen Alpha-Wert von 20%.
  • In einer anderen Ausführungsform kann ein Symbol (Icon), das das Objekt darstellt, am Bildschirm angezeigt werden. Die Position des Symbols kann so berechnet werden, dass das Symbol am Rand des Bildschirms auf der imaginären Linie platziert ist, die den Mittelpunkt des Objekts mit dem Mittelpunkt des Bildschirms verbindet. Symbols können Alpha-gemischt und in der Größe verändert sein, um einen Abstand des Objekts vom Bildschirm anzugeben.
  • In einer anderen Ausführungsform und ähnlich wie bei dem oben beschriebenen Symbol kann ein Pfeil am Rand des Bildschirms gezeichnet werden, der in die Richtung des Objekts zeigt. Zum Beispiel können dünnere, längere Pfeile Objekte anzeigen, die weiter weg vom Tablet-Bildschirm sind. Andere Teile des Pfeils können den Abstand des Objekts anzeigen (z. B. kann der Schaft eines Pfeils länger werden, je weiter ein Objekt entfernt ist).
  • In einer anderen Ausführungsform, kann eine Textbox (ähnlich einer Sprechblase in einem Cartoon) ein Objekt innerhalb der Zielfläche anzeigen, einschließlich eines Schweifes, der zu dem Objekt jenseits des Bildschirms weist. Der Ausruf kann ferner eine Etikette und ein Symbol enthalten. Die Textbox kann ferner so in der Größe bemessen und alpha-gemischt sein, dass ein Abstand des Objekts vom Bildschirm angezeigt wird.
  • 4 ist ein Diagramm einer Anwendung, die eine Ausführungsform der Erfindung verwendet. Die Anwendung von 4 demonstriert die Fähigkeit, Objekte auf einem Tablet-Computer 400 und um diesen herum zu erfassen, und den Tablet-Bildschirm 410 zu nutzen. In dieser Anwendung können physische Spielsteine 401409 verwendet werden, um Tic-Tac-Toe auf einem Raster 420 zu spielen. Das System erkennt die Positionen der Spielsteine 401409 auf dem Bildschirm 410 über eine Kamera, die über dem Bildschirm positioniert ist, um den Zustand des Spielbretts zu bestimmen und die Spielsteine von unten durch Bilder 411418 aufzuzeigen (der Spielstein 409 wurde nicht auf dem Bildschirm 410 platziert und hat somit kein entsprechendes Bild auf dem Bildschirm 410). In einer Ausführungsform können Spielsteine, die jenseits des Bildschirms sind, ermittelt und mit Symbolen am Umfang des Bildschirms 410 wie oben beschrieben aufgezeigt werden.
  • In dieser Ausführungsform empfängt die Anwendung (d. h., das Tic-Tac-Toe-Spiel) einen Befehl vom Anwender zur Überwachung der Zielfläche. Nachdem zum Beispiel der Spielstein auf den Raster 420 gestellt wurde, kann ein Anwender die NEXT Taste 425 drücken, die am Bildschirm 410 angezeigt wird, um anzugeben, dass er mit seinem Zug fertig ist. An diesem Punkt kann die Anwendung die Zielfläche beobachten, um den Zustand des Spielbretts zu prüfen um sicherzustellen, dass die Objekte auf dem Bildschirm 410 mit dem Spiel übereinstimmen (mögliche Regelverletzungen, wie das Bewegen eines bereits platzieren Steins, Entfernen eines Steins des Gegners, Spielen von zwei oder mehr Steinen bei einem Zug, Unterlassen eines Zugs, Abdecken eines Spielsteins des Gegners, und so weiter). Die Anwender können über Regelverletzungen durch einen Ton und ein Symbol informiert werden, die am Bildschirm 410 angezeigt werden (z. B., Summertöne und rote Striche, die einen falschen Zug auf dem Raster 420 markieren).
  • 5 ist ein Diagramm einer Anwendung, die eine Ausführungsform der Erfindung verwendet. Die Anwendung von 5 zeigt die Möglichkeit eines Erfassens von Objekten jenseits des Bildschirms 510 des Tablet-Computers 500 als Eingang für die Anwendung. In diesem Beispiel zeigt die Anwendung ein Fußballtor 525 mit einem Tormann 530 an. Ein Anwender kann physisch ein kleines Objekt 540 in Form eines Fußballs zu einem virtuellen Tor auf dem Bildschirm 525 rollen (oder kicken). Wenn das Objekt 540 das Gehäuse des Tablets 500 trifft, erscheint ein virtueller Ball 545 und fliegt entlang derselben Flugbahn wie das eingehende physische Objekt zum Tor 525. Der Tormann 530 versucht, den Schuss zu halten, wobei die Seite begünstigt wird, aus der der Schütze schießt.
  • Diese beispielhafte Anwendung nutzt die Tatsache, dass das Tablet 500 vom Boden angehoben wird, so dass das physische Objekt 540 auf das Tablet treffen und dann mehr oder weniger zum Anwender zurückkehren kann. Geschwindigkeit und Beschleunigung in der physischen Welt werden direkt in physikalischen Gleichungen genutzt, um die physische Bewegung in eine virtuelle Bewegung eines virtuellen Balls 545 auf dem Bildschirm 510 umzusetzen. In einer Ausführungsform bewegen sich Schüsse nicht nur in zwei Dimensionen, sondern in einer dritten Dimension – über dem Bildschirm 510, wobei die Größe, die das Objekt 540 in Bezug auf die Kamera über dem Tablet 500 kommuniziert, seine Höhe vom Boden ist. Somit wäre es möglich, über das Tor wie auch an dessen linke oder rechte Seite zu schießen.
  • Die Ausführungsform der Erfindung, die in 5 dargestellt ist, zeigt die Möglichkeit von Ausführungsformen der Erfindung, Objekte jenseits des Tablet-Computers 500 zu erfassen, ihre Geschwindigkeit und Flugbahn zu verfolgen und auf dem Bildschirm 510 auf sie zu reagieren.
  • 6 ist ein Diagramm einer Anwendung, die eine Ausführungsform der Erfindung nutzt. Die Anwendung von 6 ermöglicht einem Anwender, mit einem physischen Objekt zu spielen, in diesem Beispiel einem Spielzeugzebra 650, und die Anwendung auf den Zustand des Spielzeugs auf dem oder um das Tablet 600 reagieren zu lassen.
  • In dieser Ausführungsform kann das Spielzeugzebra 650 Nahrung 615 fressen, die auf dem Bildschirm 610 angezeigt wird, oder aus einem virtuellen Wasserbecken 620 trinken, das auf dem Bildschirm 610 angezeigt wird (ein Zeitgeber kann das Wasserbecken periodisch auffüllen), indem der ”Kopf” des Spielzeugs auf die gezeigten Objekte gelegt wird. Eine Sandfläche 625 bietet einen Raum für das Spielzeugzebra 650, ein Bad zu nehmen, indem das Spielzeug vollständig auf den Bildschirm 610 innerhalb der Sandfläche gelegt wird.
  • Die physische Ausrichtung des Spielzeugzebras 650 kann auch von der Anwendung genutzt werden. Insbesondere kann das Spielzeugzebra 650 schlafen gehen, da die Anwendung zwischen einem stehenden Zebra und einem liegenden Zebra unterscheidet. Wenn das Spielzeugzebra 650 zum Beispiel vor dem Tablet 500 auf seine Seite gelegt wird, löst dies einen ”Traum” aus, in dem ein Naturvideo von Zebras in der Wildnis über dem Kopf des Zebras in der Textbox 630 des Cartoon auf dem Tablet-Bildschirm 610 gespielt wird. Wenn das Spielzeugzebra 650 inmitten des Traums aufsteht, stoppt der Traum sofort. Eine Gestenverfolgung innerhalb der Zielfläche kann ebenso verfolgt werden, um Tätigkeiten wie ein Streicheln zu erkennen und zu belohnen. Diese Anwendung zeigt die Möglichkeit von Ausführungsformen der Erfindung auf, Objekte innerhalb der Zielfläche zu erkennen und Interaktionen mit Objekten auf dem Bildschirm 610 entweder jenseits des oder auf dem Tablet-Computer(s) 600 zu erfassen.
  • Verschiedene Komponenten, auf die oben Bezug genommen wurde, wie Prozesse, Server oder Tools, wie hierin beschrieben, können ein Mittel zur Ausführung der beschriebenen Funktionen sein. Jede hierin beschriebene Komponente enthält Software oder Hardware oder eine Kombination dieser. Die Komponenten können als Software-Module, Hardware-Module, Spezialzweck-Hardware (z. B., Application Specific Integrated Circuits (ASICs), Digitale Signalprozessoren (DSPs), usw.), eingebettete Steuerungen, festverdrahteter Schaltkreis usw. ausgeführt sein. Der Software-Inhalt (z. B., Daten, Anweisungen und Konfiguration) können über einen Herstellungsartikel bereitgestellt sein, einschließlich eines computerlesbares Speichermediums, das einen Inhalt bereitstellt, der Anweisungen darstellt, die ausgeführt werden können. Der Inhalt kann zu einem Computer führen, der verschiedene hierin beschriebene Funktionen/Vorgänge ausführt. Ein computerlesbares Speichermedium enthält jeden Mechanismus, der Informationen in einer Form bereitstellt (d. h., speichert und/oder überträgt), die von einem Computer lesbar sind (z. B. Rechnervorrichtung, elektronisches System, usw.), wie aufzeichenbare/nicht aufzeichenbare Medien (z. B. Nur-Lese-Speicher (ROM), Direktzugriffsspeicher (RAM), Magnetplattenspeichermedien und optische Speichermedien, Flash-Speichervorrichtungen, usw.). Der Inhalt kann direkt ausführbar sein (”Objekt” oder ”ausführbare” Form), ein Sourcecode oder Differenzcode (”Delta” oder ”Patch”-Code) sein. Ein computerlesbares Speichermedium kann auch einen Speicher oder eine Datenbank enthalten, dessen bzw. deren Inhalt heruntergeladen werden kann. Eincomputerlesbares Speichermedium kann auch eine Vorrichtung oder ein Produkt mit einem darauf gespeicherten Inhalt zum Zeitpunkt des Verkaufs oder der Lieferung enthalten. Somit ist die Lieferung einer Vorrichtung mit gespeichertem Inhalt oder das Anbieten eines Inhalts zum Herunterladen über ein Kommunikationsmedium als Bereitstellung eines Herstellungsartikels mit einem solchen, hierin beschriebenen Inhalt zu verstehen.

Claims (22)

  1. Vorrichtung, umfassend: eine Anzeigefläche; eine Kamera, die zum Erfassen visueller Daten innerhalb einer Zielfläche positioniert ist, wobei die Zielfläche mindestens einen Teil der Anzeigefläche und eine Fläche außerhalb der Anzeigefläche enthält; einen Prozessor; und Software, die über den Prozessor ausgeführt wird, um ein graphisches Bild zu erzeugen, das auf der Anzeigefläche angezeigt wird, ein Objekt getrennt von der Anzeigefläche innerhalb der Zielfläche zu identifizieren, und eine Interaktion des Objekts mit dem graphischen Bild zu verarbeiten.
  2. Vorrichtung nach Anspruch 1, des Weiteren umfassend eine zweite Kamera, die zum Erfassen visueller Daten innerhalb der zweiten Zielfläche positioniert ist, wobei die zweite Zielfläche mindestens einen Teil der Anzeigefläche und eine zweite Fläche außerhalb der Anzeigefläche enthält.
  3. Vorrichtung nach Anspruch 2, wobei die Anzeigefläche und der Prozessor in einem Tablet-Computer enthalten sind, und wobei ferner die Kameras über ein Befestigungsmittel, das sich relativ zur Anzeigefläche nach oben erstreckt, an den Tablet-Computer angeschlossen sind.
  4. Vorrichtung nach Anspruch 1, wobei die Software ferner die Zielfläche kontinuierlich überwacht, um das Objekt innerhalb der Zielfläche zu identifizieren.
  5. Vorrichtung nach Anspruch 1, wobei die Software ferner einen Befehl zum Überwachen der Zielfläche empfängt.
  6. Vorrichtung nach Anspruch 1, wobei die Interaktion des Objekts mit dem graphischen Bild eine Bewegung des Objekts in Bezug auf das graphische Bild umfasst.
  7. Vorrichtung nach Anspruch 1, wobei die Interaktion des Objekts mit dem graphischen Bild eine Position des Objekts innerhalb der Zielfläche in Bezug auf das graphische Bild umfasst.
  8. Vorrichtung nach Anspruch 1, wobei die Software ferner ein zweites graphisches Bild erzeugt, das das Objekt darstellt und auf der Anzeigefläche als Reaktion auf das Identifizieren des Objekts innerhalb der Zielfläche und außerhalb der Anzeigefläche angezeigt wird.
  9. Vorrichtung nach Anspruch 8, wobei die Software das zweite graphische Bild zumindest teilweise auf der Basis mindestens eines von einem Abstand, einem Winkel und einer Ausrichtung zwischen dem Objekt und der Anzeigefläche erzeugt.
  10. Herstellungsartikel, umfassend ein maschinenlesbares Speichermedium, das Anweisungen liefert, die, wenn sie von der Maschine ausgeführt werden, die Maschine veranlassen, Vorgänge auszuführen, umfassend: das Erfassen visueller Daten innerhalb einer Zielfläche über eine Kamera, wobei die Zielfläche mindestens einen Teil der Anzeigefläche und eine Fläche außerhalb der Anzeigefläche enthält; das Erzeugen eines graphischen Bildes; das Anzeigen des graphischen Bildes auf der Anzeigefläche; das Identifizieren eines Objekts getrennt von der Anzeigefläche innerhalb der Zielfläche; und das Verarbeiten einer Interaktion des Objekts mit dem graphischen Bild.
  11. Herstellungsartikel nach Anspruch 10, wobei die Vorgänge des Weiteren das Erfassen visueller Daten innerhalb einer zweiten Zielfläche über eine zweite Kamera umfassen, wobei die zweite Zielfläche mindestens einen Teil der Anzeigefläche und eine zweite Fläche außerhalb der Anzeigefläche enthält.
  12. Herstellungsartikel nach Anspruch 10, wobei die Anzeigefläche in einem Tablet-Computer enthalten ist und wobei ferner die Kameras jeweils über ein Befestigungsmittel, das sich relativ zur Anzeigefläche nach oben erstreckt, an den Tablet-Computer angeschlossen sind.
  13. Herstellungsartikel nach Anspruch 10, wobei die Vorgänge des Weiteren das kontinuierliche Überwachen der Zielfläche umfassen, um das Objekt innerhalb der Zielfläche zu identifizieren.
  14. Herstellungsartikel nach Anspruch 13, wobei die Vorgänge des Weiteren das Empfangen eines Befehls zur Überwachung der Zielfläche umfassen.
  15. Herstellungsartikel nach Anspruch 10, wobei die Interaktion des Objekts mit dem graphischen Bild eine Bewegung des Objekts in Bezug auf das graphische Bild umfasst.
  16. Herstellungsartikel nach Anspruch 10, wobei die Interaktion des Objekts mit dem graphischen Bild eine Position des Objekts innerhalb der Zielfläche in Bezug auf das graphische Bild umfasst.
  17. Herstellungsartikel nach Anspruch 10, wobei die Vorgänge des Weiteren umfassen: das Identifizieren des Objekts innerhalb der Zielfläche und außerhalb der Anzeigefläche; und als Reaktion auf das Identifizieren des Objekts innerhalb der Zielfläche und außerhalb der Anzeigefläche das Erzeugen eines zweiten graphischen Bildes, das das Objekt darstellt, und das Anzeigen des zweiten graphischen Bildes auf der Anzeigefläche.
  18. Herstellungsartikel nach Anspruch 17, wobei das Erzeugen des zweiten graphischen Bildes zumindest teilweise auf einem von einem Abstand, einem Winkel und einer Ausrichtung zwischen dem Objekt und der Anzeigefläche beruht.
  19. Verfahren, umfassend: das Erfassen visueller Daten innerhalb einer Zielfläche über eine Kamera, wobei die Zielfläche mindestens einen Teil der Anzeigefläche und eine Fläche außerhalb der Anzeigefläche enthält; das Erzeugen eines graphischen Bildes; das Anzeigen des graphischen Bildes auf der Anzeigefläche; das Identifizieren eines Objekts getrennt vom Monitor innerhalb der Zielfläche; und das Verarbeiten einer Interaktion des Objekts mit dem graphischen Bild.
  20. Verfahren nach Anspruch 19, des Weiteren umfassend das Erfassen visueller Daten innerhalb einer zweiten Zielfläche über eine zweite Kamera, wobei die zweite Zielfläche mindestens einen Teil der Anzeigefläche und eine zweite Fläche außerhalb der Anzeigefläche enthält.
  21. Verfahren nach Anspruch 20, wobei die Anzeigefläche in einem Tablet-Computer enthalten ist und wobei ferner die Kameras jeweils über ein Befestigungsmittel, das sich relativ zur Anzeigefläche nach oben erstreckt, an den Tablet-Computer angeschlossen sind.
  22. Verfahren nach Anspruch 19, des Weiteren umfassend das Identifizieren des Objekts innerhalb der Zielfläche und außerhalb der Anzeigefläche; und als Reaktion auf das Identifizieren des Objekts innerhalb der Zielfläche und außerhalb der Anzeigefläche das Erzeugen eines zweiten graphischen Bildes, das das Objekt darstellt, und das Anzeigen des zweiten graphischen Bildes auf der Anzeigefläche, wobei das Erzeugen des zweiten graphischen Bildes zumindest teilweise auf einem von einem Abstand, einem Winkel und einer Ausrichtung zwischen dem Objekt und der Anzeigefläche beruht.
DE112011102169T 2010-06-28 2011-06-16 System für ortsbewegliche spürbare Interaktion Withdrawn DE112011102169T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/824,448 2010-06-28
US12/824,448 US9262015B2 (en) 2010-06-28 2010-06-28 System for portable tangible interaction
PCT/US2011/040649 WO2012009094A2 (en) 2010-06-28 2011-06-16 A system for portable tangible interaction

Publications (1)

Publication Number Publication Date
DE112011102169T5 true DE112011102169T5 (de) 2013-04-11

Family

ID=45352044

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112011102169T Withdrawn DE112011102169T5 (de) 2010-06-28 2011-06-16 System für ortsbewegliche spürbare Interaktion

Country Status (8)

Country Link
US (1) US9262015B2 (de)
JP (1) JP5548311B2 (de)
KR (1) KR101481880B1 (de)
CN (1) CN102549527B (de)
DE (1) DE112011102169T5 (de)
GB (1) GB2495026B (de)
TW (1) TWI550437B (de)
WO (1) WO2012009094A2 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10515274B2 (en) 2014-05-21 2019-12-24 Tangible Play, Inc. Virtualization of tangible interface objects
US10809900B2 (en) 2017-12-21 2020-10-20 Tangible Play, Inc. Detection of pointing object and activity object

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120194457A1 (en) * 2011-01-28 2012-08-02 Bruce Cannon Identifiable Object and a System for Identifying an Object by an Electronic Device
US9389690B2 (en) 2012-03-01 2016-07-12 Qualcomm Incorporated Gesture detection based on information from multiple types of sensors
US8512151B1 (en) * 2012-03-13 2013-08-20 Disney Enterprises, Inc. Integration of board games and touch screen devices
US8658473B2 (en) 2012-03-27 2014-02-25 General Electric Company Ultrathin buried die module and method of manufacturing thereof
US9132346B2 (en) 2012-04-04 2015-09-15 Kenneth J. Huebner Connecting video objects and physical objects for handheld projectors
JP5665140B2 (ja) * 2012-08-17 2015-02-04 Necソリューションイノベータ株式会社 入力装置、入力方法、及びプログラム
ITTO20120864A1 (it) 2012-10-04 2014-04-05 St Microelectronics Srl Procedimento e sistema per riconoscimento di forme del tatto, apparecchiatura a schermo e prodotto informatico relativi
CN103941990B (zh) * 2013-01-21 2017-12-29 联想(北京)有限公司 一种信息处理方法及电子设备
JP6286836B2 (ja) * 2013-03-04 2018-03-07 株式会社リコー 投影システム、投影装置、投影方法、及び投影プログラム
US20140267142A1 (en) * 2013-03-15 2014-09-18 Qualcomm Incorporated Extending interactive inputs via sensor fusion
JP5968840B2 (ja) * 2013-07-31 2016-08-10 株式会社ベネッセコーポレーション 入力デバイスセット及び複合入力デバイスセット
JP6452103B2 (ja) * 2014-02-14 2019-01-16 キヤノン株式会社 画像表示装置及びその制御方法
JP6335695B2 (ja) * 2014-07-09 2018-05-30 キヤノン株式会社 情報処理装置、その制御方法、プログラム、及び記憶媒体
WO2016018418A1 (en) * 2014-07-31 2016-02-04 Hewlett-Packard Development Company, L.P. Misalignment detection
EP3286718A4 (de) 2015-04-23 2018-12-05 Hasbro, Inc. Kontextbewusstes digitales spiel
JP6886236B2 (ja) * 2015-09-30 2021-06-16 富士通株式会社 視野誘導方法、視野誘導プログラム、及び視野誘導装置
US9904357B2 (en) * 2015-12-11 2018-02-27 Disney Enterprises, Inc. Launching virtual objects using a rail device
FR3061596B1 (fr) * 2016-12-30 2020-03-06 Societe Anonyme Des Eaux Minerales D'evian Et En Abrege "S.A.E.M.E" Procede de presentation d'une bouteille
WO2018080405A1 (en) * 2016-10-31 2018-05-03 Suwonpakprak Sasis Interactive display system and device
WO2019094003A1 (en) * 2017-11-08 2019-05-16 Hewlett-Packard Development Company, L.P. Determining locations of electro-optical pens
US11194464B1 (en) * 2017-11-30 2021-12-07 Amazon Technologies, Inc. Display control using objects
US20210006730A1 (en) * 2019-07-07 2021-01-07 Tangible Play, Inc. Computing device
USD907032S1 (en) 2019-07-07 2021-01-05 Tangible Play, Inc. Virtualization device
USD937868S1 (en) 2020-05-21 2021-12-07 Tangible Play, Inc. Display screen or portion thereof with a transitional graphical user interface

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4988981B1 (en) * 1987-03-17 1999-05-18 Vpl Newco Inc Computer data entry and manipulation apparatus and method
US5649706A (en) * 1994-09-21 1997-07-22 Treat, Jr.; Erwin C. Simulator and practice method
GB9521072D0 (en) * 1995-10-14 1995-12-20 Rank Xerox Ltd Calibration of an interactive desktop system
US6750848B1 (en) * 1998-11-09 2004-06-15 Timothy R. Pryor More useful man machine interfaces and applications
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6917301B2 (en) * 1999-05-04 2005-07-12 Intellimats, Llc Floor display system with variable image orientation
JP2002052246A (ja) * 2000-08-11 2002-02-19 Konami Co Ltd ゲーム機
US7058204B2 (en) * 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
TW543323B (en) 2000-10-03 2003-07-21 Jestertek Inc Multiple camera control system
JP2004523031A (ja) * 2001-01-08 2004-07-29 ヴィーケービー インコーポレイテッド データ入力装置
US8035612B2 (en) * 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
JP3920067B2 (ja) 2001-10-09 2007-05-30 株式会社イーアイティー 座標入力装置
US20050122308A1 (en) * 2002-05-28 2005-06-09 Matthew Bell Self-contained interactive video display system
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US6840627B2 (en) * 2003-01-21 2005-01-11 Hewlett-Packard Development Company, L.P. Interactive display device
US20060063574A1 (en) 2003-07-30 2006-03-23 Richardson Todd E Sports simulation system
EP1851749B1 (de) 2005-01-21 2012-03-28 Qualcomm Incorporated Auf bewegung basierendes tracking
US9046962B2 (en) * 2005-10-31 2015-06-02 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
US8094928B2 (en) 2005-11-14 2012-01-10 Microsoft Corporation Stereo video for gaming
US8395658B2 (en) * 2006-09-07 2013-03-12 Sony Computer Entertainment Inc. Touch screen-like user interface that does not require actual touching
JP2008131174A (ja) 2006-11-17 2008-06-05 Fuji Xerox Co Ltd 画像処理システム及び画像処理プログラム
CN101303634B (zh) * 2007-05-09 2012-05-23 鸿富锦精密工业(深圳)有限公司 便携式电子设备
US8199117B2 (en) * 2007-05-09 2012-06-12 Microsoft Corporation Archive for physical and digital objects
US8103109B2 (en) * 2007-06-19 2012-01-24 Microsoft Corporation Recognizing hand poses and/or object classes
US8581852B2 (en) * 2007-11-15 2013-11-12 Microsoft Corporation Fingertip detection for camera based multi-touch systems
US8368646B2 (en) * 2007-12-07 2013-02-05 Robert Welland User interface devices
US8542907B2 (en) 2007-12-17 2013-09-24 Sony Computer Entertainment America Llc Dynamic three-dimensional object mapping for user-defined control device
JP5214267B2 (ja) 2008-02-07 2013-06-19 株式会社 空間コム 映像演出システム及び映像演出方法
WO2009141913A1 (ja) 2008-05-23 2009-11-26 ログイン株式会社 ゲーム装置
CN101872268A (zh) * 2009-04-21 2010-10-27 鸿富锦精密工业(深圳)有限公司 触控装置
CN101872270B (zh) * 2009-04-25 2013-09-18 鸿富锦精密工业(深圳)有限公司 触控装置
US20110046935A1 (en) * 2009-06-09 2011-02-24 Kiminobu Sugaya Virtual surgical table
TWM380817U (en) 2009-12-25 2010-05-21 Univ Southern Taiwan Tech Virtual fish-scooping game device
TW201138532A (en) * 2010-04-22 2011-11-01 Foxsemicon Integrated Tech Inc Electronic device
US8382295B1 (en) * 2010-06-30 2013-02-26 Amazon Technologies, Inc. Optical assembly for electronic devices
US9262068B2 (en) * 2012-05-31 2016-02-16 Opportunity Partners Inc. Interactive surface
US9044863B2 (en) * 2013-02-06 2015-06-02 Steelcase Inc. Polarized enhanced confidentiality in mobile camera applications

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10515274B2 (en) 2014-05-21 2019-12-24 Tangible Play, Inc. Virtualization of tangible interface objects
US10977496B2 (en) 2014-05-21 2021-04-13 Tangible Play, Inc. Virtualization of tangible interface objects
EP3146466B1 (de) * 2014-05-21 2021-06-30 Tangible Play, Inc. Virtualisierung von spürbaren schnittstellenobjekten
US10809900B2 (en) 2017-12-21 2020-10-20 Tangible Play, Inc. Detection of pointing object and activity object
US10976906B2 (en) 2017-12-21 2021-04-13 Tangible Play, Inc. Detection and visualization of a formation of a tangible interface object
US11314403B2 (en) 2017-12-21 2022-04-26 Tangible Play, Inc. Detection of pointing object and activity object

Also Published As

Publication number Publication date
US20110316767A1 (en) 2011-12-29
TW201214199A (en) 2012-04-01
GB2495026A (en) 2013-03-27
US9262015B2 (en) 2016-02-16
GB2495026B (en) 2017-12-13
WO2012009094A2 (en) 2012-01-19
CN102549527B (zh) 2015-05-20
GB201222634D0 (en) 2013-01-30
JP5548311B2 (ja) 2014-07-16
CN102549527A (zh) 2012-07-04
KR101481880B1 (ko) 2015-01-12
WO2012009094A3 (en) 2012-04-12
KR20130042499A (ko) 2013-04-26
TWI550437B (zh) 2016-09-21
JP2013532337A (ja) 2013-08-15

Similar Documents

Publication Publication Date Title
DE112011102169T5 (de) System für ortsbewegliche spürbare Interaktion
DE60308541T2 (de) Mensch-maschine-schnittstelle unter verwendung einer deformierbaren einrichtung
US10719954B2 (en) Method and electronic device for extracting a center position of an infrared spot
DE102018207088A1 (de) Bildanalyse ohne marker für augmented reality
US9330292B2 (en) Two-dimensional code scanning method and device
CN104740869B (zh) 一种融合真实环境的虚实结合的交互方法及系统
JP2006514366A5 (de)
DE102018210633A1 (de) Verfahren und Vorrichtungen zum Erkennen von dem Benutzer zugewandten Bildschirmen bei Vorrichtungen mit mehreren Bildschirmen
US20090174656A1 (en) Electronic image identification and animation system
DE102015104511A1 (de) Verfahren zur Informationsverarbeitung und elektronisches Gerät
WO2015151106A1 (en) Vision system for monitoring board games and method thereof
CN107079139A (zh) 没有物理触发的增强现实
DE102017116854A1 (de) System und Verfahren zum Konfigurieren eines Kennungslesegeräts unter Verwendung einer Mobilvorrichtung
DE102015102679A1 (de) Effiziente freiraumfingererkennung
DE102019218787A1 (de) Verfahren, vorrichtung und system zum erzeugen von mit einer darstellung eines artikels verbundenen angeboten
CN105353829A (zh) 一种电子设备
US8938131B1 (en) Apparatus and method for registration of flat panel display device and imaging sensor, and electronic device having flat panel display device and imaging sensor which are registered using the method
DE102015105886B4 (de) Bildbearbeitungsverfahren und elektronisches Gerät zur Verwendung desselben
DE102018123925A1 (de) Finger Identification for new touch gestures using capacitance hover patterns
US11169603B2 (en) Electronic apparatus and method for recognizing view angle of displayed screen thereof
DE112011106058T5 (de) Bilderfassung mit virtuellem Verschluss
DE112017005263T5 (de) Echtzeit-aktivitätsüberwachung unter verwendung von thermo-tags
DE102014112642A1 (de) Informationsverarbeitungsverfahren und elektronische Vorrichtung
CN114518859A (zh) 显示控制方法、装置、电子设备及存储介质
DE112019007807T5 (de) Rasterbasierte Registrierung zur Gesichtsauthentifizierung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee