DE112011102140T5 - Aktivierungsobjekte für interaktive Systeme - Google Patents
Aktivierungsobjekte für interaktive Systeme Download PDFInfo
- Publication number
- DE112011102140T5 DE112011102140T5 DE112011102140T DE112011102140T DE112011102140T5 DE 112011102140 T5 DE112011102140 T5 DE 112011102140T5 DE 112011102140 T DE112011102140 T DE 112011102140T DE 112011102140 T DE112011102140 T DE 112011102140T DE 112011102140 T5 DE112011102140 T5 DE 112011102140T5
- Authority
- DE
- Germany
- Prior art keywords
- input device
- activation
- activation object
- projector
- presentation system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0317—Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0317—Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
- G06F3/0321—Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface by optically sensing the absolute position with respect to a regularly patterned surface forming a passive digitiser, e.g. pen optically detecting position indicative tags printed on a paper sheet
Abstract
Description
- QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
- Diese Anmeldung behauptet einen Nutzen gemäß 35 U. S. C § 119(e) der US Provisional Application Serial Nr. 61/358.800, eingereicht am 25. Juni 2010, deren gesamter Inhalt hiermit durch Bezugnahme eingeschlossen wird.
- TECHNISCHES GEBIET
- Verschiedene Ausführungsformen der vorliegenden Erfindung beziehen sich auf interaktive Systeme und insbesondere auf derart konfigurierte Aktivierungsobjekte, dass sie verschiedene Komponenten interaktiver Systemen antreiben.
- HINTERGRUND
- Elektronische Anzeigesysteme, wie beispielsweise elektronische Weißwandtafel-Systeme, werden immer mehr zu bevorzugten Alternativen zu herkömmlichen Whiteboards und Markersystemen. Leider haben elektronische Anzeigesysteme den großen Nachteil, dass sie unterschiedlich ausgeprägte elektrische Komponenten enthalten, die individuell betrieben werden müssen, um das elektronische Anzeigesystem zu verwenden. Somit muss sich der Benutzer zwischen dem Computer, der Anzeige und den Peripheriegeräten hin und her bewegen, um die elektronische Anzeige wie gewünscht zu benutzen.
- Um beispielsweise den Projektor eines elektronischen Anzeigesystems einzuschalten, muss der Benutzer zum Projektor gehen und einen Schalter betätigen oder einen Knopf drücken. Zu den anderen Komponenten, die individuell eingeschaltet werden müssen, gehören beispielsweise auch Audiosysteme. Selbst wenn alle Komponenten eingeschaltet sind, können Anpassungen erforderlich werden, wie z. B. das Ändern der Eingangslautstärke und die Positionierung der Projektorleinwand. Dies verlangt vom Benutzer wieder ein umständliches Umhergehen, um die verschiedenen Komponenten und Betriebseigenschaften der elektronischen Anzeigesysteme einzustellen.
- ZUSAMMENFASSUNG
- Verschiedene Ausführungsformen der vorliegenden Erfindung beziehen sich auf Aktivierungsobjekte für interaktive Systeme, wie z. B. elektronische Anzeigesysteme. In einem interaktiven System können Aktivierungsobjekte nicht-angezeigte, erkennbare Objekte sein, die vorbestimmte Aktivitäten im interaktiven System auslösen. Zum Beispiel und nicht als Einschränkung können Aktivierungsobjekte Netzteile ein- und ausschalten, Projektoren fokussieren, Projektorleinwände anheben oder absenken oder die Lautstärke eines Audiosystems verändern.
- Gemäß einigen Ausführungsbeispielen der vorliegenden Erfindung kann ein interaktives System aus einer Anzeigeeinrichtung, einer Vielzahl von Aktivierungsobjekten, einem Projektor, einer Verarbeitungseinrichtung und einer Eingabeeinrichtung bestehen.
- So umfasst der allgemeine Betrieb des interaktiven Systems ein Zusammenspiel zwischen der Eingabevorrichtung und einer Anzeigefläche der Anzeigevorrichtung, die wiederum von der Verarbeitungseinrichtung erfasst, analysiert und verarbeitet werden und dann wieder als Bild auf die Anzeigefläche projiziert und dargestellt werden kann. Deshalb können Wechselwirkungen zwischen der Eingabevorrichtung und der Anzeigeoberfläche für gegenwärtige und zukünftige Verwendungen angezeigt und digital erfasst werden. Alternativ dazu können Wechselwirkungen einen gewissen Aspekt der Verarbeitungsvorrichtung antreiben, beispielsweise können diese eine Software ansteuern.
- Ein Aktivierungsobjekt kann ein erkennbares Objekt sein, das sich auf eine bestimmte Aktivität des interaktiven Systems bezieht. Das interaktive System kann feststellen, ob sich die Eingabevorrichtung in einer Stellung befindet, in der die Eingabevorrichtung mit einem Aktivierungsobjekt interagiert. Wenn das interaktive System eine Interaktion zwischen der Eingabeeinrichtung und einem bestimmten Aktivierungsobjekt erkennt, kann das interaktive System die Aktivität des entsprechenden Aktivierungsobjektes durchführen. In einer beispielhaften Ausführungsform sind die Aktivierungsobjekte nicht-projizierte Bilder und bleiben selbst dann sichtbar und erkennbar, wenn die meisten oder alle Komponenten des interaktiven Systems in den Stand-by-Modus oder Aus-Zustand geschaltet wurden. Somit können Aktivierungsobjekte in einigen Ausführungsformen dazu verwendeten werden, Aktivitäten im Zusammenhang mit dem Einschalten von Vorrichtungen einzuleiten. Zum Beispiel und nicht als Einschränkung kann eine Wechselwirkung zwischen der Eingabeeinrichtung und einem ersten Aktivierungsobjekt das Einschalten des Projektors einzuleiten.
- In einigen Ausführungsformen kann ein Aktivierungsobjekt ein Icon (Symbol) oder Text sein oder diese(n) umfassen und die Aktivitäten des entsprechenden Aktivierungsobjektes repräsentieren. Somit kann ein Benutzer des interaktiven Systems das Symbol für eine gewünschte Aktivität auswählen und das interaktive System führt die entsprechende Aktivität des Aktivierungsobjektes, die das ausgewählte Symbol umfasst, in Reaktion auf die Auswahl aus.
- Diese und andere Objekte, Merkmale und Vorteile der Einrichtung werden beim Lesen der folgenden Beschreibung in Verbindung mit den beigefügten Bild-Zeichnungen deutlicher werden.
- KURZBESCHREIBUNG DER SCHAUBILDER
-
-
-
-
-
-
-
5C zeigen verschiedene Bilder eines Punktmusters gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung, wie sie von einer Abtasteinrichtung der Eingabevorrichtung erfasst wurden. -
-
- AUSFÜHRLICHE BESCHREIBUNG
- Um die Prinzipien und Merkmale der Erfindung leichter verständlich zu machen, werden verschiedene Ausführungsbeispiele nachfolgend erläutert. Insbesondere wird die Erfindung im Zusammenhang mit Aktivierungsobjekten beschrieben, die zum Antreiben und Einstellen von Komponenten eines elektronischen Anzeigesystems bestimmt sind. Ausführungsformen der Erfindung sind jedoch nicht auf diese Ausführungsformen beschränkt. Vielmehr können verschiedene Aspekte der vorliegenden Erfindung andere Funktionen neben dem Einschalten und Einstellen durchführen und müssen nicht auf elektronische Anzeigesysteme beschränkt bleiben.
- Die nachfolgend als Bauelemente der Erfindung beschriebene Materialien und Komponenten sollen veranschaulichend und nicht einschränkend verstanden werden. Viele geeignete Materialien und Komponenten, die die gleichen oder ähnlichen Funktionen wie die hier beschriebenen Materialien und Komponenten ausführen können, sollen im Umfang der Erfindung erfasst sein. Andere Materialien und Komponenten, die hier nicht beschrieben werden, können beispielsweise ähnliche oder analoge Materialien oder Komponenten umfassen, die nach der Entwicklung der Erfindung entwickelt wurden, sind aber nicht auf diese beschränkt.
- Verschiedene Ausführungsformen der vorliegenden Erfindung können Aktivierungsobjekte und interaktive Systeme enthalten, die Aktivierungsobjekte verwenden. Bezugnehmend auf die Abbildungen, in denen gleiche Bezugszahlen durchgängig die gleichen Teile in den Darstellungen bezeichnen, werden verschiedene Ausführungsformen der Aktivierungsobjekte und interaktiven Systeme im Detail beschrieben.
-
100 , gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung. Wie aus den Zeichnungen ersichtlich kann das interaktive System100 eine Anzeigevorrichtung110 , ein Bedienfeld120 , einen Projektor130 , eine Verarbeitungseinrichtung140 und eine Eingabeeinrichtung200 enthalten. So umfasst das Zusammenspiel zwischen der Eingabevorrichtung200 und einer Anzeigefläche115 der Anzeigeeinrichtung110 , die wiederum von der Verarbeitungseinrichtung140 erfasst, analysiert und verarbeitet werden und dann wieder als Bild auf die Anzeigefläche115 projiziert und dargestellt werden kann. Diese Wechselwirkungen können digital für gegenwärtige oder zukünftige Nutzung wie z. B. Anzeigen, Drucken oder Bearbeiten erfasst werden. - Das interaktive System
100 kann Wechselwirkungen zwischen der Eingabevorrichtung200 und verschiedenen erkennbaren Objekten105 des interaktiven Systems100 erkennen. Zum Beispiel und nicht als Einschränkung können die erkennbaren Objekte105 das Bedienfeld120 und eine Anzeigefläche115 der Anzeigeeinrichtung110 enthalten. Wird eine Interaktion zwischen der Eingabevorrichtung200 und einem erkennbaren Objekt105 erkannt, kann das interaktive System100 bestimmen, ob und wie es seinen Zustand auf irgendeine Weise verändern soll und reagiert damit auf Interaktionen. Verschiedene Technologien können im interaktiven System100 vorgesehen werden, um die Erkennung von erkennbaren Objekten105 zu aktivieren. Zum Beispiel und nicht als Einschränkung können erkennbare Objekte105 sowohl resistive Membrantechnologien, kapazitive Technologien, Erfassungskameras an den Ecken der Anzeigevorrichtung110 , Positionscodierungsmuster-Technologien oder andere Möglichkeiten zur Erfassen von Koordinaten der Eingabevorrichtung200 enthalten. - Die Verarbeitungseinrichtung
140 kann in Verbindung mit der Eingabevorrichtung200 stehen und von der Eingabevorrichtung200 empfangene Daten analysieren und interpretieren. In einigen Ausführungsformen kann die Verarbeitungseinrichtung140 eine integrierte Komponente der Anzeigevorrichtung110 sein, aber in anderen Ausführungsformen kann die Verarbeitungseinrichtung140 eine externe Komponente sein, zum Beispiel ein Notebook-Computer oder ein anderer PC. - Wie oben erwähnt kann die Eingabevorrichtung
200 seine Stellung während einer Wechselwirkung zwischen der Eingabevorrichtung200 und einem erkennbaren Objekt105 erkennen. Diese Eingabevorrichtung200 kann dann Daten übertragen, die Wechselwirkungen mit der Verarbeitungseinrichtung140 beschreiben oder repräsentieren. Die gesendeten Daten, die die Wechselwirkungen beschreiben, können beispielsweise absolute Koordinaten der erkennbaren Objekte105 , relative Koordinaten zu einer vorherigen Position der Eingabevorrichtung200 sein oder ein oder mehrere, von der Eingabevorrichtung200 auf einer Oberfläche der erkennbaren Objekte105 erfassten Bilder sein. - Die Verarbeitungseinrichtung
140 kann die von der Eingabevorrichtung200 empfangen Daten analysieren und die Stellung der Eingabevorrichtung200 in Bezug auf die erkennbaren Objekte105 bestimmen sowie feststellen, welches erkennbare Objekte105 Gegenstand der Interaktion mit der Eingabevorrichtung200 war. Basierend auf verschiedenen Faktoren, wie zum Beispiel der aktuelle Zustand des interaktiven Systems100 , kann die Verarbeitungseinrichtung140 eine Wechselwirkung als Auswahl einer Operation oder Aktivität interpretieren und entsprechend reagieren. Aufgrund entsprechender Wechselwirkungen kann die Verarbeitungseinrichtung140 beispielsweise Bewegungen der Eingabevorrichtung200 als Zeichnen oder Schreiben auf der Anzeigefläche115 oder als Cursorbewegung auf der Anzeigefläche115 interpretieren. In diesem Fall kann die Verarbeitungseinrichtung140 ein auf die Anzeigefläche115 projiziertes Bild ändern oder ein neues Bild entsprechend der Wechselwirkung darstellen. Die Verarbeitungseinrichtung140 kann daraufhin ein aktualisiertes Bild zur Projektion auf der Anzeigefläche115 an den Projektor130 senden. Um eine oder mehrere der oben beschriebenen Vorgänge auszuführen, kann die Verarbeitungseinrichtung140 ein, in einem computerlesbaren Medium oder in einer Computer-Speichereinrichtung ausgebildetes Computerprogrammprodukt enthalten. Das Computerprogrammprodukt kann Anweisungen an einen Computer-Prozessor geben, um einige oder alle der obigen Operationen auszuführen. - Der Projektor
130 kann eine oder mehrere Bilddarstellungen auf die Anzeigefläche115 projizieren. Zum Beispiel und nicht als Einschränkung kann der Projektor130 eine graphische Benutzerschnittstelle oder durch Verwendung der Eingabevorrichtung200 erzeugte Beschriftungen projizieren. Der Projektor130 kann in Verbindung mit der Verarbeitungseinrichtung140 stehen. Diese Kommunikation kann durch eine drahtgebundene oder drahtlose Verbindung, Bluetooth oder durch viele andere Mittel stattfinden, über die zwei Geräte kommunizieren. Wie bei der Verarbeitungseinrichtung140 , kann der Projektor130 mit der Anzeigeeinrichtung110 integriert werden, ohne dass dies der Fall sein muss. Alternativ kann der Projektor130 vom interaktiven System100 ausgeschlossen werden, wenn die Anzeigeeinrichtung110 intern fähig ist, Beschriftungen und andere Objekte auf seiner Oberfläche anzuzeigen. Wenn beispielsweise Anzeigeeinrichtung110 einen Computer-Monitor mit Flüssigkristall-Anzeige beinhaltet, muss kein separater Projektor130 vorgesehen werden. - In einigen Ausführungsbeispielen des interaktiven Systems
100 kann der Projektor130 als Weitwinkel- oder Ultra-Weitwinkel-Projektor konfiguriert werden und während des Betriebs des interaktiven Systems100 relativ nahe an die Anzeigeeinrichtung110 positioniert werden. Wenn er nahe der Anzeigeeinrichtung110 positioniert wird, ist es weniger wahrscheinlich, dass der Raum zwischen dem Projektor130 und der Anzeigeeinrichtung110 , über die das Licht des Projektors130 gestrahlt wird, durch den Benutzer des interaktiven Systems100 unterbrochen wird. Wird ein Weitwinkel-Projektor130 im interaktiven System100 verwendet, kann sich der Benutzer der Anzeigeeinrichtung110 nähern, ohne ein auf die Anzeigefläche115 projiziertes Bild zu blockieren. - Bei Empfang eines aktualisierten Bildes von der Verarbeitungseinrichtung
140 , kann der Projektor130 das aktualisierte Bild auf die Anzeigefläche115 projizieren. Daraus resultiert, dass die Anzeigefläche115 nicht nur physische Tinte anzeigen kann, die auf der Anzeigefläche115 gezeichnet wurde sondern auch Objekte, die als Reaktion auf Interaktionen mit der Eingabevorrichtung200 digital erzeugt wurden. Dementsprechend kann das interaktive System100 auf der Anzeigefläche115 entsprechend den, auf der Eingabevorrichtung200 vorgenommenen Bewegungen, Operation durchführen lassen. Zum Beispiel und nicht als Einschränkung können Beschriftungen auf der Eingabevorrichtung200 erzeugt werden oder die Eingabevorrichtung200 kann einen virtuellen Cursor über die Anzeigefläche115 steuern. - In einer beispielhaften Ausführungsform können die erkennbaren Objekte
105 auf ihren Oberflächen Positionscodierungsmuster500 haben, ähnlich den in5C gezeigten Punktmustern. Zum Beispiel können sowohl die Anzeigefläche115 als auch das Bedienfeld120 , eine oder mehrere Positionscodierungsmuster500 oder Teile davon aufweisen. Ein Teilausschnitt des Musters500 kann durch die Eingabevorrichtung200 erkannt werden, wie z. B. durch eine oder mehrere Kameras in der Eingabevorrichtung200 , wenn die Eingabevorrichtung200 für die Interaktion mit erkennbaren Objekten105 verwendet wird. Durch Analysieren eines erfassten Abschnittes des Musters500 kann die Eingabevorrichtung200 oder die Verarbeitungseinrichtung140 Informationen über die Position und Orientierung der Eingabevorrichtung200 relativ zu erkennbaren Objekten105 erkennen. Somit kann das interaktive System100 durch Interpretieren erfasster Abschnitte des Musters500 bestimmen, wohin eine Eingabevorrichtung200 auf dem Bedienfeld120 oder der Anzeigefläche115 gerichtet ist und das interaktive System100 kann bestimmen, wohin sich die Eingabevorrichtung200 relativ zum Bedienfeld120 oder zur Anzeigefläche115 bewegt. - In einer beispielhaften Ausführungsform des interaktiven Systems
100 kann das Muster500 so ausgelegt sein, dass ein erkannter Teilausschnitt des Musters500 die absoluten Koordinaten anzeigen kann, auf die die Eingabevorrichtung200 zu einem gegebenen Zeitpunkt gerichtet ist. Wird beispielsweise ein Punktmuster500 verwendet, kann das Muster500 so ausgelegt werden, dass die Anordnung der Punkte auf jeder Koordinate eines erkennbaren Objektes105 , bei Betrachtung aus einem geeigneten Abstand vom erkennbaren Objekt105 , einzigartig ist. In einer weiteren beispielhaften Ausführungsform können sich der Teilausschnitt oder die Teilausschnitte des Musters500 auf der Oberfläche der Anzeigefläche115 vom Teilausschnitt oder den Teilausschnitten auf dem Bedienfeld120 unterscheiden, so dass ein erkannter Teilausschnitt des Musters500 nicht nur die Koordinaten auf der Anzeigefläche115 angeben, sondern auch zwischen der Anzeigefläche115 und dem Bedienfeld120 unterscheiden kann. - Alternativ zur Verwendung eines Positionscodierungsmusters
500 auf erkennbaren Objekten105 können auch andere Mittel zur Erkennung der Stellung und Bewegungen der Eingabevorrichtung200 relativ zu den erkennbaren Objekten105 bereitgestellt werden. Zum Beispiel und nicht als Einschränkung können eine oder mehrere Bild- oder Videokameras um das Anzeigegerät200 herum oder an anderen Stellen, an denen Interaktionen für die Kameras ausreichend sichtbar sind, aufgestellt werden. Die Kameras können Bilder der Eingabevorrichtung200 periodisch erfassen. Jedes dieser Bilder kann einen Abschnitt des Positionscodierungsmusters enthalten, der analysiert werden kann, um die Stellungen und Bewegungen der Eingabevorrichtung200 zu bestimmen. -
120 gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung. Wie dargestellt, kann das Bedienfeld120 eine Vielzahl von Aktivierungsobjekten125 vorweisen, von denen jedes ein oder mehrere Symbole, Bilder oder Worte zur leichteren Erkennung durch den Benutzer enthalten kann. Jedes Aktivierungsobjekt125 kann einer Aktivität oder Funktion entsprechen, die vom interaktiven System100 ausgeführt werden kann und die Auswahl eines Aktivierungsobjektes125 kann die entsprechende Aktivität oder Funktion auslösen. - Das interaktive System
100 kann feststellen, dass der Benutzer ein bestimmtes Aktivierungsobjekt125 ausgewählt hat, beispielsweise durch erkennen, dass die Eingabevorrichtung200 auf ein Aktivierungsobjekt125 gerichtet ist, wenn sich diese in Kontakt mit oder in ausreichender Nähe zum Aktivierungsobjekt125 befindet. Diese Erkennung kann durch verschiedene Mittel erfolgen, beispielsweise u. a. durch Widerstandstechnologie, kapazitive Technologie, Triangulation mit Kameras oder Erfassen eines Positionscodierungsmusters500 . Die Auswahl eines Aktivierungsobjektes125 kann erkannt werden, wenn die Eingabevorrichtung200 mit dem Aktivierungsobjekt125 interagiert, z. B. es berührt. Gemäß einigen Ausführungsbeispielen des interaktiven Systems100 kann jedes Aktivierungsobjekt125 einen entsprechenden Teil des Positionscodierungsmusters500 auf seiner Oberfläche haben. Dementsprechend kann das interaktive System100 durch Erfassen des zugehörigen, einzigartigen Teils des Positionscodierungsmusters500 feststellen, wenn die Eingabevorrichtung200 mit einem bestimmten Aktivierungsobjekt125 interagiert. Diese Interaktion kann als Auswahl des Aktivierungsobjekts125 interpretiert werden. Wenn das interaktive System100 feststellt, dass ein Aktivierungsobjekt125 ausgewählt wurde, kann das interaktive System100 die dem ausgewählten Aktivierungsobjekt125 entsprechende Aktivität ausführen. - Das interaktive System
100 kann ein oder mehrere periphere Hardware-Geräte enthalten, darunter beispielsweise den Projektor130 , die Verarbeitungseinrichtung140 , ein Audio-System, einen Lautsprecher, Heizung, Lüftung und Klimatisierung, einen Disc-Player oder die Zimmerbeleuchtung. Das interaktive System100 kann einige Aspekte dieser Peripheriegeräte steuern, wobei diese Steuerung durch Auswahl der geeigneten Aktivierungsobjekte125 initiiert werden kann. Wie in125 verbundenen Aktivitäten, folgendes beispielhaft und nicht als Einschränkung enthalten: Ein-/Ausschalten125a des Projektors; Einstellung der Helligkeit des Projektors125b ; Video ausschalten125c ; Vergrößerung einstellen125d ; zum Zentrum des vergrößerten Bilds navigieren125e ; das projizierte Bild fokussieren125f und125g ; oder Eingangsquelle125h wählen. Neben den in130 anheben oder absenken; Jalousien öffnen oder schließen; Studenten-Beurteilungsgeräte steuern; oder von Studenten-Beurteilungsgeräten gesammelte Ergebnisse analysieren oder grafisch darstellen. So wie in diesen Beispielen kann ein Aktivierungsobjekt125 verschiedene Peripheriegeräte steuern oder die Umgebung und Geräte des interaktiven Systems100 kontrollieren. Aktivierungsobjekte125 können auch andere Tätigkeiten und Funktionen auslösen. - In einer beispielhaften Ausführungsform können das Bedienfeld
120 und seine Aktivierungsobjekte125 erkennbar bleiben, selbst wenn verschiedene Komponenten des interaktiven Systems100 in den Stand-by- oder Aus-Zustand heruntergefahren wurden. Beispielsweise können die Aktivierungsobjekte125 nicht-projizierte, taktile Objekte sein und sichtbar bleiben, wenn der Projektor130 abgeschaltet wurde. Während das Bedienfeld120 ein Teil der Anzeigefläche115 sein oder, wie in120 braucht auch keinen wertvollen Platz auf der Anzeigefläche115 besetzen. Beispielsweise kann das Bedienfeld120 ein Teil der Anzeigeeinrichtung110 sein, an einen anderen Abschnitt oder eine Wand befestigt werden. In einigen Ausführungsformen kann das Bedienfeld120 beweglich sein und an verschiedenen Oberflächen lösbar festgemacht werden. Beispielsweise kann das Bedienfeld120 eine magnetische oder haftende Rückseite haben, damit das Bedienfeld120 nach Wunsch vorübergehend an der Anzeigeeinrichtung110 befestigt und anders wohin bewegt werden kann. - Wie oben erwähnt, braucht der Projektor
130 nicht eingeschaltet sein, damit Aktivierungsobjekte125 seine entsprechenden Aktivitäten oder Funktionen auslösen können. Verschiedene andere Komponenten und Peripheriegeräte des interaktiven Systems100 können ebenfalls ausgeschaltet sein und die Aktivierungsobjekte125 können seine Aktivitäten und Funktionen dennoch steuern. In einigen Ausführungsbeispielen kann die Verarbeitungseinrichtung140 eingeschaltet sein oder sich im Standby-Modus befinden und kann mit verschiedenen anderen, mit dem interaktiven System100 verbunden Geräten, in Verbindung stehen. Die Verarbeitungseinrichtung140 kann mit anderen Geräten beispielsweise über serielle Kabel, Ethernet, USB, Bluetooth, oder andere verdrahtete oder drahtlose Verbindung verbunden werden. Aufgrund der verschiedenen Möglichkeiten, Geräte mit der Verarbeitungsvorrichtung140 zu verbinden, müssen sich angeschlossene Geräte nicht im selben Raum oder am selben Ort wie die Verarbeitungsvorrichtung140 befinden, weshalb Aktivierungsobjekte125 auch Komponenten und Peripheriegeräte an fernen Standorten steuern können. - Empfängt die Verarbeitungsvorrichtung
140 eine Meldung, dass ein bestimmtes Aktivierungsobjekt125 ausgewählt wurde (dies Meldung kann von der Eingabevorrichtung200 empfangen werden), kann die Verarbeitungsvorrichtung140 ein für die Aktivität oder Funktion des entsprechenden Aktivierungsobjektes125 benötigtes Signal an ein oder mehrere angeschlossene Geräten senden. Die Verarbeitungseinrichtung140 kann ein Signal übertragen, z. B. eine Reihe von Zeichen in einem TCP/IP-Befehl, das vom benötigten Gerät als Weckruf interpretiert werden kann, um das angeschlossene Gerät einzuschalten. In einigen Ausführungsformen kann die Verarbeitungseinrichtung140 erkennen, ob das benötigte Gerät bereits eingeschaltet ist; in diesem Fall wird kein Weckbefehl gesendet. Sobald ein Gerät eingeschaltet wurde, kann es weitere Befehle von der Verarbeitungseinrichtung140 , der Eingabevorrichtung200 oder von anderen Stellen empfangen und somit Operationen durchführen, die vom angeschlossenen Gerät in Aktivität oder Funktion entsprechend dem ausgewählten Aktivierungsobjekt125 verlangt werden. - Angenommen, das gewählte Aktivierungsobjekt
125 entspricht einem Befehl die Eingangsquelle des Projektors130 zu wechseln und nehmen wir weiter an, dass der Projektor130 ausgeschaltet ist, wenn das Aktivierungsobjekt125 ausgewählt wird. Wenn das interaktive System100 die Auswahl des Aktivierungsobjektes125 erkennt, kann die Verarbeitungseinrichtung140 ein Wecksignal an den Projektor130 senden, der das Gerät als Reaktion auf das Signal einschalten kann. Daher kann die Verarbeitungseinrichtung140 dem Projektor130 einen Befehl übertragen, die Eingangsquelle zu ändern. Im Gegenzug kann der Projektor130 seine Eingangsquelle ändern und damit die angeforderte Aktivität ausführen. Wie dieses Beispiel zeigt, kann das interaktive System100 auch einen oder mehrere implizierte Zwischenschritt(e) ausführen, wenn ein Aktivierungsobjekt125 ausgewählt ist. Wenn beispielsweise die Aktivität eines ausgewählten Aktivierungsobjektes125 nicht durchgeführt wird, weil ein benötigtes Gerät nicht eingeschaltet ist, kann die Eingabevorrichtung200 das benötigte Gerät anweisen sich einzuschalten, bevor die Aktivität durchgeführt wird. - In einigen weiteren Ausführungsbeispielen kann die Eingabevorrichtung
200 so konfiguriert werden, dass es Aktivierungsobjekte125 selbständig erkennt, z. B. durch Bestimmung der einem Aktivierungsobjekt125 zugeordneten Koordinaten, ohne dass Daten an die Verarbeitungseinrichtung140 übertragen werden müssen und Signale an ein oder mehrere elektronische Komponente(n) des interaktiven Systems100 überträgt, um diese elektronischen Komponenten entsprechend dem ausgewählten Aktivierungsobjekt125 ein- oder auszuschalten. Zu diesem Zweck kann die Eingabevorrichtung200 mit dem interaktiven System zugeordneten Geräten drahtlos oder verdrahtet verbunden werden. Die Eingabevorrichtung200 kann somit Weckbefehle und andere Anweisungen an angeschlossene Geräte übertragen, um durch Aktivierungsobjekte125 angeforderte Aktivitäten oder Funktionen auszuführen, ohne dass diese Befehle und Anweisungen über die Verarbeitungseinrichtung140 gehen müssen. Für diese Ausführungsformen gilt, dass Wechselwirkungen zwischen der Eingabevorrichtung200 und dem Bedienfeld120 selbst dann erkannt und Maßnahmen auslösen können, wenn die Verarbeitungsvorrichtung140 abgeschaltet ist. Wählt ein Benutzer beispielsweise ein Aktivierungsobjekt125 mit einer Anforderung, das interaktive System100 einzuschalten, kann diese Auswahl dazu führen, dass Einschalt-Signale an den Projektor130 , die Verarbeitungsvorrichtung140 und andere elektronische Komponenten versendete werden, die für den allgemeinen Betrieb des interaktiven Systems100 benötigt werden. - Wieder bezugnehmend auf
200 auf verschiedene Arten aktiviert werden, beispielsweise durch einen Aktuator228 (200 auf der Oberfläche der Anzeigefläche115 . Im Betrieb kann die Platzierung oder Bewegung der Eingabevorrichtung200 im Kontakt mit oder in der Nähe eines erkennbaren Objektes105 die Verarbeitungsvorrichtung140 anweisen, dass bestimmte Operationen ausgeführt werden müssen. - Wenn die Eingabevorrichtung
200 in Kontakt mit oder nahe genug an ein erkennbares Objekte105 kommt, kann die Eingabevorrichtung200 Hinweise auf seine Stellung im Verhältnis zu einem erkennbaren Objekt105 erkennen. Diese von der Eingabevorrichtung200 erfassten Anzeichen können durch das interaktive System100 analysiert werden, um die Stellung der Eingabevorrichtung200 in Bezug auf das erkennbare Objekt105 zu bestimmen. Um seine relative Stellung zu bestimmen, kann die Eingabevorrichtung200 die erfassten Kennzeichen intern analysieren oder die Eingabevorrichtung200 kann seine Koordinaten oder erfassten Anzeichen, wie z. B. Bilddaten, an die Verarbeitungsvorrichtung140 übertragen. Das interaktive System100 kann die erfassten Daten interpretieren und veranlassen, dass eine Operation ausgeführt wird. Wird die Platzierung der Eingabevorrichtung200 als Auswahl eines Aktivierungsobjektes125 interpretiert, kann die dem ausgewählten Aktivierungsobjekt125 entsprechende Aktivität ausführt werden. Handelt es sich bei der Platzierung oder Bewegung um Wechselwirkungen mit der Anzeigefläche115 , können diese Bewegungen beispielsweise anzeigen, dass Operationen an den Stellen der Anzeigefläche115 stattfinden sollen, auf die die Eingabevorrichtung200 gerichtet ist. - Durch die Interaktion mit der Anzeigefläche
115 kann die Eingabevorrichtung200 Markierungen auf der Anzeigefläche115 erzeugen, wobei diese Markierungen sowohl physikalisch, digital oder auch beides sein können. Wird die Eingabevorrichtung200 beispielsweise über die Anzeigefläche115 bewegt, kann die Eingabevorrichtung200 physische Markierungen, wie abwischbare Tinte, hinterlassen. Die Anzeigefläche115 kann so angepasst werden, dass solche physikalischen Markierungen angenommen werden. Zum Beispiel und nicht als Einschränkung kann die Anzeigeeinrichtung110 ein Whiteboard sein. Zusätzlich kann die Bewegung der Eingabevorrichtung200 so analysiert werden, dass digitale Versionen derartiger Markierungen erzeugt werden. Die digitalen Markierungen können durch das interaktive System100 für den späteren Abruf gespeichert werden, z. B. für E-Mail, Drucken oder Anzeigen. Die Anzeigefläche115 kann, muss aber digitale Markierungen nicht zum Zeitpunkt ihrer Erzeugung anzeigen, so dass digitale Markierungen im Allgemeinen physikalische Markierungen überlappen. Zum Beispiel kann die Verarbeitungseinrichtung140 den Projektor130 anweisen, digitale Markierungen auf die Anzeigefläche115 zu projizieren. - Das vollständige, auf der Anzeigefläche
115 dargestellte Bild kann sowohl aus echter Tinte35 und virtueller Tinte40 bestehen. Die echte Tinte35 umfasst physikalische und digitale Markierungen, die mit der Eingabevorrichtung200 und andere Kennzeichnungseinrichtungen erzeugt wurden. Die virtuelle Tinte40 umfasst andere Objekte, die auf die Anzeigefläche115 projiziert oder auf ihr anderweitig angezeigt werden. Zu diesen anderen Objekten gehören, ohne Einschränkung, eine grafische Benutzeroberfläche oder Fenster einer Anwendung, die auf dem interaktiven System100 laufen. Die echte Tinte35 und die virtuelle Tinte40 können sich überlappen und folglich kann echte Tinte35 dazu verwendet werden, Objekte in virtueller Tinte40 mit Anmerkungen zu versehen. -
3B zeigen partielle Querschnitt-Seitenansichten der Eingabevorrichtung200 . Wie gezeigt kann die Eingabevorrichtung200 aus einem Gehäuse210 , einer Nase218 , einem Sensorsystem220 und einem Kommunikationssystem230 bestehen. - Das Gehäuse
210 kann die Eingabevorrichtung200 strukturell unterstützen. Das Gehäuse210 kann, wie gezeigt, aus einer Hülle211 bestehen, um die inneren Funktionsteile der Eingabevorrichtung200 aufzunehmen oder das Gehäuse210 kann alternativ ein im Wesentlichen festes Element zur Halterung der Komponenten der Eingabevorrichtung200 enthalten. Das Gehäuse210 kann aus verschiedensten Materialien bestehen. Zum Beispiel kann das Gehäuse210 aus Kunststoff, Metall, Harz oder einer Kombination daraus bestehen, oder aus vielen Materialien, die den Komponenten oder der gesamten Struktur der Eingabevorrichtung200 Schutz bieten. Das Gehäuse210 kann ferner eine Kammer aus Metall enthalten, um einige oder alle empfindlichen elektronischen Komponenten der Eingabevorrichtung200 elektrisch abzuschirmen. Die Eingabevorrichtung200 kann entsprechend der Verwendung viele Formen haben. Zum Beispiel kann die Eingabevorrichtung200 eine längliche Form ähnlich der Form eines herkömmlichen Schreibgerätes haben, wie etwa einem Stift, oder eine dickere Ausführung wie die eines abwischbaren Markers. - Das Gehäuse
210 kann ein erstes Ende212 , dem Kopfstück214 des Gehäuses210 und ein zweites Ende216 , dem Endstück219 des Gehäuses210 haben. Das Kopfstück214 kann während des Betriebs der Eingabevorrichtung200 mit erkennbaren Objekten105 interagieren. - Die Nase
218 an der Spitze des Kopfstücks214 der Eingabevorrichtung200 kann so ausgerichtet oder eingesetzt werden, dass sie in die Nähe eines Punktes auf der Anzeigefläche115 oder dem Bedienfeld120 kommt, diesen berührt oder auf andere Weise auf diesen zeigt. Schreibt zum Beispiel ein Benutzer mit der Eingabevorrichtung200 auf der Anzeigefläche115 , kann die Nase218 die Anzeigefläche115 so berühren, wie die Spitze eines Kugelschreibers ein Stück Papier berühren würde. In einigen Ausführungsformen kann die Nase218 aus einer Markierspitze, wie der Spitze eines abwischbaren Markers oder Stiftes bestehen, so dass der Kontakt der Nase218 mit der Anzeigefläche115 zu physischen Markierungen auf der Anzeigefläche115 führt. Analog dazu kann der Benutzer ein Aktivierungsobjekt125 auswählen, indem er die Nase218 in Kontakt mit dem Aktivierungsobjekt125 bringt oder ausreichend nahe an dieses heran kommt. - Während der Kontakt mit der Anzeigefläche
115 oder dem Bedienfeld120 eine bequeme Ähnlichkeit zum Schreiben mit einem herkömmlichen Stift oder abwischbaren Marker hat, muss der Kontakt der Nase218 mit einem erkennbaren Objekt105 für den Betrieb der Eingabevorrichtung200 nicht erforderlich sein. Sobald die Eingabevorrichtung200 aktiviert ist, kann der Benutzer die Eingabevorrichtung200 beispielsweise in die Nähe des beabsichtigten erkennbaren Objektes105 halten oder der Benutzer kann auf dieses wie mit einem Laser-Pointer aus der Entfernung zeigen. - Das Sensorsystem
220 kann so angepasst werden, dass es Anzeichen für die Stellung der Eingabevorrichtung200 in Bezug auf erkennbare Objekte105 erfasst. In einer beispielhaften Ausführungsform des interaktiven Systems100 können die Anzeigefläche115 und das Bedienfeld120 für die Erkennung durch die Eingabevorrichtung200 als erkennbare Objekte105 konfiguriert werden, so dass die Eingabevorrichtung200 seine Stellung relativ zu diesen Komponenten erkennen kann. - Die Eingabevorrichtung
200 verfügt über sechs potenzielle Bewegungsgrade. Im zweidimensionalen Koordinatensystem der Anzeigefläche115 kann sich die Eingabevorrichtung200 in den horizontalen und vertikalen Richtungen bewegen. Die Eingabevorrichtung200 kann sich auch normal zur Anzeigefläche115 bewegen und sich um die Quer-, Längs- und Hochachse drehen. Diese Drehungen werden gemeinhin als Rollen, Gieren beziehungsweise Kippen der Eingabevorrichtung200 bezeichnet. Der Begriff ”Kippen” bezieht sich in der hier verwendeten Bedeutung auf den Anstellwinkel der Eingabevorrichtung200 aus der Normalen zur Anzeigefläche115 und beinhaltet daher Drehungen um die horizontale und vertikale Achse, d. h. das Rollen und Gieren der Eingabevorrichtung200 . Auf der anderen Seite bezieht sich ”Orientierung” in der hier verwendeten Bedeutung auf die Drehung parallel zur Ebene der Anzeigefläche115 und somit auf Drehungen um die Hochachse, also das Kippen der Eingabevorrichtung200 . Das Sensorsystem220 kann alle oder viele Kombinationen dieser sechs Bewegungsgrade relativ zu einem erkennbaren Objekt105 erkennen, beispielsweise durch Erfassen eines Teilausschnittes eines Musters500 auf einem erkennbaren Objekt105 . - Wie aus den Zeichnungen ersichtlich kann das Sensorsystem
220 einen ersten Positionsrückmelder222 und einen zweiten Positionsrückmelder224 enthalten. Jeder Positionsrückmelder222 und224 kann so eingestellt werden, dass er Anzeichen für die Stellung der Eingabevorrichtung200 erfasst, einschließlich verschiedener Kombinationen aus Entfernung, Position, Orientierung und Kippen der Eingabevorrichtung200 in Bezug auf ein erkennbares Objekt105 innerhalb der Reichweite des Sensorsystems220 . Ferner kann jeder Positionsrückmelder222 und224 Daten zur Bestimmung der Stellung der Eingabevorrichtung200 für sich erkennen oder alternativ diese Daten in Verbindung mit anderen Komponenten, wie z. B. einem anderen Positionsrückmelder, erkennen. - Der erste Positionsrückmelder
222 kann ein Oberflächen-Positionsrückmelder zum Erkennen der Lage der Eingabevorrichtung200 aufgrund der Eigenschaften des erkennbaren Objektes105 sein. Der Oberflächen-Positionsrückmelder222 kann zum Beispiel eine Kamera enthalten. Der Oberflächen-Positionsrückmelder222 kann Teilausschnitte eines Musters500 (siehe5C ) auf der Anzeigefläche115 erkennen, wie z. B. ein Punktraster- oder Punktmatrix-Positionscodierungsmuster. Die Erfassung durch den Oberflächen-Positionsrückmelder222 kann die Anzeige oder das Aufnehmen eines Bildes eines Teilausschnittes des Musters500 enthalten. In einer alternativen beispielhaften Ausführungsform kann der Oberflächen-Positionsrückmelder222 auch oder alternativ einen optischen Sensor enthalten, wie er üblicherweise in einer optischen Maus verwendet wird. In diesem Fall kann der Oberflächen-Positionsrückmelder222 Leuchtdioden und Photodioden oder eine CMOS-Kamera enthalten, um Bewegungen relativ zur Anzeigefläche115 zu erfassen. Der Oberflächen-Positionsrückmelder222 kann mit dem Gehäuse210 der Eingabevorrichtung200 in Verbindung stehen und verschiedene Positionen und Ausrichtungen in Bezug auf das Gehäuse210 haben. Zum Beispiel kann der Oberflächen-Positionsrückmelder222 , wie aus den Zeichnungen ersichtlich, im Kopfstück214 aufgenommen werden. Zusätzlich oder alternativ kann der Oberflächen-Positionsrückmelder222 auf oder in verschiedenen anderen Abschnitten des Gehäuses210 untergebracht werden. - Der zweite Positionsrückmelder
224 kann ein Berührungssensor sein. Der Berührungssensor224 kann erkennen, falls die Eingabevorrichtung200 eine Oberfläche berührt, wie zum Beispiel die Anzeigefläche115 oder die Oberfläche des Bedienfeldes120 . Der Berührungssensor224 kann mit dem Gehäuse210 und zusätzlich mit der Nase218 in Verbindung stehen. Der Berührungssensor224 kann zum Beispiel, und nicht als Einschränkung, einen Schalter enthalten, der einen Schaltkreis schließt, wenn ein Teil der Eingabevorrichtung200 , wie die Nase218 , eine Oberfläche mit einem vorbestimmten Druck berührt. Wenn die Eingabevorrichtung200 die Anzeigefläche115 oder das Bedienfeld120 berührt, kann das interaktive System100 folglich bestimmen, dass eine Operation angezeigt ist. - Um die Analyse der durch das Sensorsystem
220 erfassten Daten zu erleichtern, kann die Eingabevorrichtung200 zusätzlich ein Kommunikationssystem230 enthalten, das so eingerichtet wurde, dass es Informationen an die Verarbeitungseinrichtung140 übertragen und Informationen von der Verarbeitungseinrichtung140 empfangen kann. Wird die Verarbeitung der erfassten Daten beispielsweise von der Verarbeitungseinrichtung140 durchgeführt, kann das Kommunikationssystem230 die erfassten Daten an die Verarbeitungseinrichtung140 zur Verarbeitung übertragen. Das Kommunikationssystem230 kann zum Beispiel einen Sender, einen Empfänger oder einen Transceiver enthalten. Verschiedenste drahtgebundene oder drahtlose Technologien können durch das Kommunikationssystem230 implementiert werden. Zum Beispiel kann das Kommunikationssystem230 die Bluetooth- oder IEEE 802.11b-Technologie implementieren. -
4C zeigen eine andere Ausführungsform der Eingabevorrichtung200 . Wie in200 zusätzlich zu den oben beschriebenen Funktionen eine Marker-Patrone250 , eine interne Verarbeitungseinheit260 , einen Speicher265 , ein Netzteil270 oder eine Kombination daraus enthalten. Die verschiedenen Komponenten können ggf. elektrisch gekuppelt werden. - Die Marker-Patrone
250 kann bereitgestellt werden, um der Eingabevorrichtung200 zu ermöglichen, die Anzeigefläche115 physisch zu beschriften. Die Marker-Patrone250 oder Tintenpatrone oder das Tintenfass kann eine abwischbare Tinte enthalten, wie z. B. herkömmliche Whiteboard-Marker-Tinte. Die Marker-Patrone250 kann ein angenehmes, bekanntes Medium zur Erzeugung handgeschriebener Striche auf der Anzeigefläche115 enthalten, während die Bewegungen der Eingabevorrichtung200 digitale Markierungen erzeugen. - Die interne Verarbeitungseinheit
260 kann so angepasst werden, dass die Lage der Eingabevorrichtung200 , einschließlich der Bestimmung der relativen oder absoluten Position der Eingabevorrichtung200 im Koordinatensystem der Anzeigefläche115 , aus den vom Sensorsystem220 empfangen Daten berechnet wird. Die interne Verarbeitungseinheit260 kann vom Sensorsystem220 erfasste Daten verarbeiten. Eine solche Verarbeitung kann beispielsweise zu folgenden Bestimmungen führen: Abstand der Eingabevorrichtung200 von der Anzeigefläche115 ; Position der Eingabevorrichtung200 im Koordinatensystem der Anzeigefläche115 ; Roll-, Neige- und Gierbewegungen der Eingabevorrichtung200 in Bezug auf die Anzeigefläche115 und dementsprechend das Kippen und die Ausrichtung der Eingabevorrichtung200 . - Der Speicher
265 der Eingabevorrichtung200 kann RAM, ROM oder viele weitere Arten von Speichereinrichtungen enthalten, um Daten oder Software zum Steuern der Eingabevorrichtung200 oder zum Verarbeiten von Daten zu speichern. - Das Netzteil
270 kann die Stromversorgung der Eingabevorrichtung200 bereitzustellen. Die Eingabevorrichtung200 kann das Netzteil270 in beliebigen Positionen aufnehmen. Wenn es sich um ein austauschbares Netzteil270 handelt, wie beispielsweise eine oder mehrere Batterien, wird das Netzteil270 vorzugsweise für einen einfachen Zugang positioniert, um das Entfernen und Ersetzen des Netzteils270 zu erleichtern. Alternativ kann die Eingabevorrichtung200 an alternative Stromversorgungen gekoppelt werden, wie beispielsweise an einen Adapter zum elektrischen Koppeln der Eingabevorrichtung200 an eine Autobatterie, eine Steckdose, einen Computer oder vielen andere Netzteile. - Mit Rückbezug auf das Sensorsystem
220 kann der, soweit vorhandene, Berührungssensor224 erkennen, wenn ein bestimmter Teil der Eingabevorrichtung200 , wie die Nase218 , eine Oberfläche berührt, beispielsweise die Anzeigefläche115 oder das Bedienfeld120 . Beim Berührungssensor224 kann es sich, wie in218 eine Oberfläche berührt und so anzeigt, dass die Eingabevorrichtung200 in Kontakt mit einer Oberfläche ist. Der Berührungssensor224 kann auch ein Kraftsensor sein der anzeigt, ob die Eingabevorrichtung200 mit leichter oder großer Kraft gegen eine Oberfläche drückt. Das interaktive System100 kann basierend auf dem Grad der verwendeten Kraft unterschiedlich reagieren. Zum Beispiel kann das interaktive System100 erkennen, dass die Eingabevorrichtung200 einen Cursor bewegt, wenn die auf die Anzeigefläche115 ausgeübte Kraft unter einer bestimmten Schwelle liegt. Liegt dagegen die auf die Anzeigefläche115 oder auf ein bestimmtes Aktivierungsobjekt125 ausgeübte Kraft über einer bestimmten Schwelle, z. B. wenn der Benutzer die Eingabevorrichtung200 gegen das Board drückt, kann das interaktive System100 eine Auswahl ähnlich einem Mausklick registrieren. Ferner kann das interaktive System100 die Breite der auf die Anzeigefläche115 projizierten Markierungen aufgrund der Kraft variieren, mit der die Eingabevorrichtung200 die Anzeigefläche115 berührt. - Der Oberflächen-Positionsrückmelder
222 kann zum Beispiel einen ergänzenden Metalloxid-Halbleiter(CMOS)-Bildsensor, einen Ladungskoppelelement(CCD)-Bildsensor oder viele andere Arten von Sensoren zum Empfang von Bildinformationen enthalten. Der Oberflächen-Positionsrückmelder222 kann eine CMOS- oder CCD-Sensor-Matrix mit einer beispielhaften Größe von 128 mal 100, 128 mal 128 oder größer sein. Der Oberflächen-Positionsrückmelder222 kann Bilder des Musters500 auf erkennbaren Objekten105 erfassen, wenn der Stift bewegt wird, und durch Bildanalyse kann das interaktive System100 die Lage und Bewegung der Eingabevorrichtung200 in Bezug auf die erfassten erkennbaren Objekte105 erkennen. - Ein erkennbares Objekt
105 kann viele Arten von Bilddaten enthalten, die die relativen oder absoluten Positionen der Eingabevorrichtung200 im Koordinatensystem des erkennbaren Objektes105 angeben. Beispielsweise kann das erkennbare Objekt105 ein bekanntes Bild, eventuell mit alphanumerischen Zeichen, ein Codierungsmuster oder viele erkennbare Bilddaten-Muster enthalten, mit denen relative oder absolute Position angezeigt werden können. Das implementierte Muster kann entweder die Position der Eingabevorrichtung200 relativ zu einer früheren Position oder absolute Koordinaten angeben. - Die Bestimmung eines Punktes auf einem erkennbaren Objekt
105 durch die Eingabevorrichtung200 kann die Bestimmung der Lage der gesamten Eingabevorrichtung200 erfordern. Die Lage der Eingabevorrichtung200 kann die Position, Orientierung, Neigung oder eine Kombination daraus von der Eingabevorrichtung200 in Bezug auf die Anzeigefläche115 enthalten. Wenn die Eingabevorrichtung200 ausreichend nahe an einem erkennbaren Objekt105 ist kann es ausreichen, lediglich die Position der Eingabevorrichtung200 im zweidimensionalen Koordinatensystem der Oberfläche des erkennbaren Objektes105 zu bestimmen. Wenn die Eingabevorrichtung200 weiter entfernt ist, wie z. B. beim Zeigen auf etwas quer durch den Raum, kann die Ausrichtung und Neigung der Eingabevorrichtung200 notwendig sein, um einen angezeigten Punkt auf einem erkennbaren Objekt105 zu bestimmen. - Verschiedene Erkennungssysteme können in der Eingabevorrichtung
200 zum Erfassen der Lage der Eingabevorrichtung200 bereitgestellt werden. Zum Beispiel kann ein Neigungs-Erkennungssystem290 in der Eingabevorrichtung200 bereitgestellt werden, um den Neigungswinkel und die Neigungsrichtung der Eingabevorrichtung200 in Bezug auf das erkennbare Objekt105 zu erkennen. Ein Orientierung-Erkennungssystem292 kann implementiert werden, um Drehung der Eingabevorrichtung200 im Koordinatensystem des erkennbaren Objektes105 zu erkennen. Außerdem kann ein Abstand-Erkennungssystem294 vorgesehen werden, um den Abstand der Eingabevorrichtung200 vom erkennbaren Objekt105 zu erkennen. - Diese Erkennungssysteme
290 ,292 und294 können in das Sensorsystem220 eingebaut werden. Zum Beispiel kann die Position, Neigung, Orientierung und der Abstand der Eingabevorrichtung200 in Bezug auf die Anzeigefläche115 bzw. durch die Position, Schrägstellung, Drehung und scheinbare Größe des Musters500 auf dem erkennbaren Objekt105 aus Sicht des Oberflächen-Positionsrückmelder222 bestimmt werden. Zum Beispiel zeigen5C verschiedene Ansichten eines beispielhaften Punktmusters500 auf einem erkennbaren Objekt105 , wie beispielsweise der Anzeigefläche115 des Bedienfeldes120 . Das Punktmuster500 dient als Positionscodierungsmuster im interaktiven System100 . -
500 , das als Punktmuster betrachtet wird. Es ist bekannt, dass bestimmte Punktmuster Hinweise auf absolute Koordinaten geben und folglich spezifische Punkte auf der Anzeigefläche115 oder spezifischen Aktivierungsobjekten125 anzeigen. In der500 aus dem Normalwinkel zum erkennbaren Objekt105 betrachtet. So könnte das Punktmuster500 für den Oberflächen-Positionsrückmelder222 erscheinen, wenn der Oberflächen-Positionsrückmelder222 im normalen Winkel auf das erkennbare Objekt105 gerichtet wird. Im Bild erscheint das Punktmuster500 in gerader Ausrichtung und ist zum Oberflächen-Positionsrückmelder222 nicht abgewinkelt. Wenn der Oberflächen-Positionsrückmelder222 ein solches Bild erfasst, kann das interaktive System100 deshalb bestimmen, dass die Eingabevorrichtung200 normal zum erkennbaren Objekt105 steht und daher in etwa direkt auf das erkennbare Objekt105 zeigt. - Je weiter die Eingabevorrichtung
200 vom erkennbaren Objekt105 entfernt ist, umso mehr nimmt die Größe der Punkte und der Abstand zwischen den Punkten im erfassten Bild ab. Analog gilt, je näher die Eingabevorrichtung200 an das erkennbare Objekt105 heran kommt, umso mehr nimmt die Größe der Punkte und der Abstand zwischen den Punkten im erfassten Bild zu. Neben dem Erfassen der Neigung und Orientierung der Eingabevorrichtung200 kann der Oberflächen-Positionsrückmelder222 deshalb die Entfernung der Eingabevorrichtung200 vom erkennbaren Objekt105 erkennen. -
500 . Ein gedrehtes Punktmuster500 zeigt an, dass die Eingabevorrichtung200 um die Hochachse des erkennbaren Objektes105 gedreht ist. Wird ein erfasstes Bild des Punktmuster500 im Winkel von 30 Grad im Uhrzeigersinn gedreht darstellt, so kann beispielsweise bestimmt werden, dass die Eingabevorrichtung200 im Winkel von 30 Grad im Gegenuhrzeigersinn ausgerichtet ist. Wie im Bild der222 in normaler Ausrichtung zum erkennbaren Objekt105 aufgenommen und obwohl die Eingabevorrichtung200 gedreht ist, zeigt die Eingabevorrichtung200 nach wie vor in etwa direkt auf das erkennbare Objekt105 . -
500 aus der Sicht des Oberflächen-Positionsrückmelders222 . Das geglättete Bild zeigt Punkte, die vom Oberflächen-Positionsrückmelder222 weg geneigt sind und anzeigen, dass der Oberflächen-Positionsrückmelder222 nicht normal zum erkennbaren Objekt105 ausgerichtet ist. Die Drehung des Punktmusters500 zeigt weiter an, dass die Eingabevorrichtung200 auch um die Hochachse des erkennbaren Objektes105 gedreht ist. Das Bild kann analysiert werden, um den Neigungswinkel, die Richtung als auch den Orientierungswinkel zu bestimmen. Zum Beispiel kann festgestellt werden, dass die Eingabevorrichtung200 um 45 Grad nach unten geneigt und dann um 25 Grad gedreht wurde. Diese Winkel bestimmen, auf welchen Punkt auf dem erkennbaren Objekt105 die Eingabevorrichtung200 gerichtet ist. - Dementsprechend kann das interaktive System
100 Punkte durch die Bestimmung der Winkel, unter denen ein Bild vom Oberflächen-Positionsrückmelder222 aufgenommen wurde bestimmen, die von der Eingabevorrichtung200 angezeigt werden. -
200 in Verbindung mit einer Anzeigefläche115 gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung. Zu jedem Zeitpunkt kann die Anzeigefläche115 ein von der Verarbeitungseinrichtung140 kommuniziertes Bild anzeigen. Wenn ein Projektor130 vorhanden ist, kann ein Teil eines solchen Bildes von der Verarbeitungseinrichtung140 an den Projektor130 kommuniziert werden und dann durch den Projektor130 auf die Anzeigefläche115 projiziert werden. Zur Bildschirmanzeige können echte Tinte35 , wie z. B. von der Eingabevorrichtung200 erzeugte physische und digitale Markierungen, sowie virtuelle Tinte40 gehören. - In einer beispielhaften Ausführungsform kann ein Benutzer
90 weitere Markierung auslösen, indem ein Teil der Eingabevorrichtung200 in ausreichende Nähe zur Anzeigefläche115 oder indem ein Teil der Eingabevorrichtung200 in Kontakt mit der Anzeigefläche115 gebracht wird. Um die Anzeigefläche115 im Markiermodus zu beschriften, kann der Benutzer90 das Eingabegerät200 entlang der Anzeigefläche115 bewegen. Diese Bewegung kann echte Tinte35 erzeugen und digital als auch physisch auf der Anzeigefläche115 dargestellt werden. Alternativ kann die Bewegung der Eingabevorrichtung200 entlang der Anzeigefläche115 beispielsweise die Bewegung eines Cursors bewirken. Eine derartige Bewegung kann der Bewegung eines Mauszeigers über eine grafische Benutzeroberfläche eines PCs ähneln. - Während sich die Eingabevorrichtung
200 entlang der Anzeigefläche115 bewegt, erfasst das Sensorsystem220 kontinuierlich oder periodisch Daten, die die Veränderung der Lage der Eingabevorrichtung200 in Bezug auf die Anzeigefläche115 anzeigen. Diese Daten werden dann vom interaktiven System100 verarbeitet. In einer Ausführungsform verarbeitet die interne Verarbeitungseinheit260 der Eingabevorrichtung200 diese Daten. In einer weiteren Ausführungsform werden die Daten vom Kommunikationssystem230 der Eingabevorrichtung200 an die Verarbeitungseinrichtung140 übertragen und diese Daten werden dann von der Verarbeitungseinrichtung140 verarbeitet. Die Verarbeitung dieser Daten kann zur Bestimmung der Lage der Eingabevorrichtung200 und daher zur Bestimmung von Abschnitten der Anzeigefläche115 führen, in denen operativ gehandelt werden soll. Erfolgt eine Verarbeitung in der internen Verarbeitungseinheit260 der Eingabevorrichtung200 , werden die Ergebnisse vom Kommunikationssystem230 an die Verarbeitungseinrichtung140 übertragen. - Basierend auf der Bestimmung der relevanten Variablen kann die Verarbeitungseinrichtung
140 ein überarbeitetes Bild auf der Anzeigefläche115 anzeigen. Im Markiermodus kann das revidierte Bild nicht nur bestimmte Markierungen enthalten, die vorher noch nicht angezeigt wurden, sondern auch von der Eingabevorrichtung200 neu erzeugte Markierungen. Alternativ dazu kann das revidierte Bild das gleiche wie das vorherige Bild sein, kann aber aufgrund zusätzlicher physischer Markierungen unterschiedlich erscheinen. Derartige physische Markierungen werden von der Verarbeitungseinrichtung140 erfasst, obwohl sie nicht notwendigerweise auf die Anzeigefläche115 projiziert werden. - Im Zeigemodus kann das revidierte Bild beispielsweise die aktualisierte Platzierung des Cursors enthalten. Die Anzeigefläche
115 wird dann aktualisiert, wozu die Verarbeitungseinrichtung140 das überarbeitete Bild an den optionalen Projektor130 kommunizieren könnte. Dementsprechend können über die Eingabevorrichtung200 angezeigte Operationen und digitale Markierungen durch das interaktive System100 angezeigt werden. In einer Ausführungsform geschieht dies in Echtzeit. -
200 in Verbindung mit einem Bedienfeld120 gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung. Der Benutzer90 kann eine Aktivität einleiten, indem er ein Aktivierungsobjekt125 auf dem Bedienfeld120 auswählt. Eine solche Auswahl kann zum Beispiel durchgeführt werden, indem der Benutzer das gewünschte Aktivierungsobjekt125 mit der Nase218 der Eingabevorrichtung200 berührt oder indem der Benutzer mit der Eingabevorrichtung200 auf das Aktivierungsobjekt125 zeigt. - Die Eingabevorrichtung
200 kann Daten, wie etwa Bilddaten, kontinuierlich oder periodisch erfassen, die die Veränderung der Lage der Eingabevorrichtung200 in Bezug auf alle für das Sensorsystem220 sichtbaren erkennbaren Objekte105 anzeigen. Wenn der Benutzer90 das gewünschte Aktivierungsobjekt125 auswählt, kann die Eingabevorrichtung200 einen Ausschnitt des Musters500 auf dem ausgewählten Aktivierungsobjekt125 erfassen. In einigen beispielhaften Ausführungsformen kann das interaktive System100 dann die absoluten Koordinaten entsprechend dem erfassten Bild des Musters500 berechnen. Da sich die Ausschnitte des Musters500 auf jedem Aktivierungsobjekt125 vom Ausschnitt des Musters500 auf der Anzeigefläche115 unterscheiden, kann das interaktive System100 die berechneten Koordinaten des erfassten Bildes zu einem bestimmten Aktivierungsobjekt125 abbilden. Nachdem das ausgewählte Aktivierungsobjekt125 erkannt wurde, kann das interaktive System100 die dem ausgewählten Aktivierungsobjekt125 entsprechende Aktivität durchführen. - Zum Beispiel kann der Benutzer
90 ein Aktivierungsobjekt125h entsprechend einer Anforderung auswählen, die Eingangsquelle des Projektors130 zu ändern. Wenn der Benutzer90 das Aktivierungsobjekt125 mit der Eingabevorrichtung200 berührt oder mit der Eingabevorrichtung200 nahe genug auf das Aktivierungsobjekt125 zeigt, kann das interaktive System100 die Auswahl und Identität des Aktivierungsobjektes125 erkennen. Wie oben ausgeführt kann diese Auswahl in einigen Ausführungsformen stattfinden, wenn die Eingabevorrichtung200 das Bild eines lokalen Abschnittes eines Musters500 auf der Oberfläche eines Aktivierungsobjektes125 erfasst. Dieses Bild kann an die Verarbeitungseinrichtung140 übertragen werden, die das Bild in absolute Koordinaten auflösen und diese absoluten Koordinaten als ausgewählten Aktivierungsobjekten125 entsprechend identifizieren kann. - Nach Erfassung der Auswahl des Aktivierungsobjektes
125 und Identifizierung des bestimmten ausgewählten Aktivierungsobjektes125 kann das interaktive System100 die dem Aktivierungsobjekt125 entsprechende Aktivität durchführen, in diesem Beispiel die Änderung der Eingangsquelle des Projektors130 . Die Verarbeitungseinrichtung140 kann ein Signal an den Projektor übertragen, das den Projektor130 anweist, die Eingangsquelle zu ändern. Dementsprechend kann die dem ausgewählten Aktivierungsobjekt125 entsprechende Aktion in Reaktion auf die Auswahl eines Aktivierungsobjektes125 durch den Benutzer durchgeführt werden. - Obwohl verschiedene Ausführungsformen des interaktiven Systems in beispielhafter Form dargelegt wurden, können viele Modifikationen, Ergänzungen und Löschungen vorgenommen werden, ohne vom Geist und Umfang der Erfindung sowie seinen Äquivalente entsprechend den Patentansprüchen abzuweichen, die in einer späteren Patentanmeldung dargelegt werden.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Nicht-Patentliteratur
-
- IEEE 802.11b-Technologie [0056]
Claims (26)
- Präsentationssystem bestehend aus: eine Verarbeitungsvorrichtung; eine oder mehrere Aktivierungsobjekte, wobei jedes Objekt ein entsprechendes Positionscodierungsmuster umfasst und jedes Aktivierungsobjekt einer entsprechenden Aktivität zugeordnet ist; und ein Erkennungssystem, das so eingerichtet ist, dass es ein Positionscodierungsmuster auf einem Aktivierungsobjekt erkennt, das mit einer Eingabevorrichtung interagiert und die Auswahl eines ersten Aktivierungsobjektes aufgrund eines ersten Positionscodierungsmusters erkennt, das einem ersten Aktivierungsobjekt entspricht; die Verarbeitungseinrichtung ferner so konfiguriert ist, um eine oder mehrere Instruktionen zur Durchführung einer Tätigkeit entsprechend dem ersten Aktivierungsobjekt in Reaktion auf die Auswahl des ersten Aktivierungsobjektes an ein oder mehrere Peripheriegeräte zu übertragen.
- Präsentationssystem nach Anspruch 1 mit einer Verarbeitungseinrichtung oder einer Eingabevorrichtung, die so konfiguriert sind, um das erste Positionscodierungsmuster einer oder mehreren Koordinate(n) zuzuordnen.
- Präsentationssystem nach Anspruch 1 mit einer Verarbeitungseinrichtung, die so konfiguriert ist, um Hinweise vom ersten Aktivierungsobjekt von der Eingabevorrichtung zu empfangen.
- Präsentationssystem nach Anspruch 3 mit einer Eingabevorrichtung mit einem Bilderfassungsgerät zum Erfassen eines Bildes von zumindest einem Teil des Positionscodierungsmusters auf dem ersten Aktivierungsobjekt.
- Präsentationssystem nach Anspruch REF_Ref296005794\r\h 4 mit einer Verarbeitungseinrichtung oder einer Eingabevorrichtung, die so konfiguriert ist, einen Teilausschnitt des Positionscodierungsmusters einem ersten Aktivierungsobjekt zuzuordnen.
- Präsentationssystem nach Anspruch 3 mit einer in die Eingabevorrichtung integrierten Verarbeitungseinrichtung.
- Präsentationssystem nach Anspruch 1 enthält ferner: eine Anzeigevorrichtung mit einer Anzeigefläche; und einen Projektor zum Projizieren eines Bildes auf der Anzeigefläche; wobei das erste Aktivierungsobjekt einem Befehl entspricht, eine oder mehrere Einstellungen des Projektors zu verändern und die Verarbeitungseinrichtung ein Signal an den Projektor als Reaktion auf die Auswahl des ersten Aktivierungsobjektes überträgt.
- Präsentationssystem nach Anspruch 7, wobei das erste Aktivierungsobjekt einem Befehl zum Einschalten des Projektors entspricht.
- Präsentationssystem nach Anspruch 1 mit einer weiteren Anzeigefläche, wobei diese Anzeigefläche mit einem zweiten Positionscodierungsmuster ausgestattet ist und das Erfassungssystem ferner so konfiguriert ist, um zwischen Interaktionen zwischen der Eingabevorrichtung und der Anzeigefläche und Interaktionen zwischen der Eingabevorrichtung und den Aktivierungsobjekten zu unterscheiden.
- Präsentationssystem nach Anspruch 9, wobei das Erkennungssystem so konfiguriert ist, um die Koordinaten auf der Anzeigefläche aufgrund der Erfassung des zweiten Positionscodierungsmusters zu erkennen, an dem eine Wechselwirkung zwischen der Eingabevorrichtung und der Anzeigefläche stattfindet.
- Präsentationssystem nach Anspruch 9, wobei die Aktivierungsobjekte an der Anzeigefläche lösbar angebracht sind.
- Präsentationssystem nach Anspruch 9, wobei die Aktivierungsobjekte in die Anzeigevorrichtung integriert sind.
- Präsentationssystem nach Anspruch 1, wobei mindestens ein Peripheriegerät zu einer Einheit gehört, die aus einem Projektor, einem Audiosystem, einem Beleuchtungssystem, Heizung, Lüftung und Klimatisierung, einem Disc-Player und einer automatisierten Projektorleinwand besteht.
- Präsentationssystem nach Anspruch 1, wobei das erste Positionscodierungsmuster aus einem Muster von Punkten besteht.
- Präsentationssystem bestehend aus: einer Anzeigevorrichtung mit einer Anzeigefläche mit einem ersten Positionscodierungsmuster; einem Peripheriegerät; einem Aktivierungsobjekt mit einem zweiten Positionscodierungsmuster, wobei das Aktivierungsobjekt mit einem ersten Befehl in Bezug auf das Peripheriegerät verknüpft ist; eine Eingabeeinrichtung zum Erfassen eines lokalen Positionscodierungsmusters, die die aktuelle Stellung der Eingabeeinrichtung in Bezug auf einen Gegenstand anzeigt, der ein lokales Positionscodierungsmuster enthält; und einem Verarbeitungssystem, das so konfiguriert ist, um Anzeichen der aktuellen Lage der Eingabevorrichtung zu empfangen und, wenn diese Anzeichen die Auswahl eines Aktivierungsobjektes anzeigen, einen Befehl an das Peripheriegerät zu übertragen, um den ersten Befehl auszuführen.
- Präsentationssystem nach Anspruch 15, wobei das Verarbeitungssystem extern zur Eingabeeinrichtung angeordnet ist.
- Präsentationssystem nach Anspruch 15 mit einer Eingabevorrichtung bestehend aus Bildaufnahmeeinrichtung zum Erfassen eines oder mehrerer Bilder des lokalen Positionscodierungsmusters.
- Präsentationssystem nach Anspruch 15, wobei das Aktivierungsobjekt ein nicht-projiziertes Objekt darstellt.
- Präsentationssystem nach Anspruch 15, wobei das Aktivierungsobjekt ein greifbares Objekt darstellt.
- Verfahren bestehend aus: einem oder mehreren Aktivierungsobjekten und einem oder mehreren Positionscodierungsmustern, wobei jedes Aktivierungsobjekt ein entsprechendes Positionscodierungsmuster besitzt und jedes Aktivierungsobjekt einem entsprechenden Befehl in Bezug auf ein oder mehrere Hardware-Geräte zugeordnet ist; dem Erfassen der Lage einer Eingabeeinrichtung bezüglich den Aktivierungsobjekten aufgrund der Erfassung von mindestens einem der Positionscodierungsmuster; dem Erkennen der Auswahl eines ersten Aktivierungsobjektes aufgrund der Lage der Eingabevorrichtung; und dem Übertragen einer Anweisung an mindestens ein Hardware-Gerät, den dem ersten Aktivierungsobjekt zugeordneten Befehl in Reaktion auf die Auswahl des ersten Aktivierungsobjektes auszuführen.
- Verfahren nach Anspruch 20, wobei das Erfassen der Lage der Eingabeeinrichtung in Bezug auf ein Aktivierungsobjekt aus dem Erfassen eines Bildes von mindestens einem Positionscodierungsmuster besteht.
- Verfahren nach Anspruch 20, wobei das Aktivierungsobjekt ein greifbares Objekt darstellt.
- Verfahren nach Anspruch 22, wobei die Übertragung des Befehls an mindestens ein Hardware-Gerät aus der Übertragung eines Befehls an einen Projektor besteht, den Projektor einzuschalten.
- Verfahren nach Anspruch 20, wobei die Übertragung des Befehls an mindestens ein Hardware-Gerät aus der Übertragung eines Befehls an mindestens ein Gerät der Gruppe bestehend aus einem Projektor, einem Audiosystem, einem Beleuchtungssystem, Heizung, Lüftung und Klimatisierung, einem Disc-Player und einer automatisierten Projektorleinwand besteht.
- Verfahren nach Anspruch 20 beseht ferner aus dem Bereitstellen einer Anzeigevorrichtung mit einer Anzeigefläche mit einem entsprechenden Positionscodierungsmuster.
- Verfahren nach Anspruch 25 besteht ferner aus der Bestimmung, auf welche Anzeigefläche und welches erste Aktivierungsobjekt die Eingabevorrichtung gerichtet ist.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US35880010P | 2010-06-25 | 2010-06-25 | |
US61/358,800 | 2010-06-25 | ||
PCT/US2011/041844 WO2011163601A1 (en) | 2010-06-25 | 2011-06-24 | Activation objects for interactive systems |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112011102140T5 true DE112011102140T5 (de) | 2013-03-28 |
Family
ID=44585018
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112011102140T Withdrawn DE112011102140T5 (de) | 2010-06-25 | 2011-06-24 | Aktivierungsobjekte für interaktive Systeme |
Country Status (7)
Country | Link |
---|---|
US (1) | US20120162061A1 (de) |
JP (1) | JP2013535066A (de) |
CN (1) | CN103201709A (de) |
CA (1) | CA2803889A1 (de) |
DE (1) | DE112011102140T5 (de) |
GB (1) | GB2496772A (de) |
WO (1) | WO2011163601A1 (de) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103713775A (zh) * | 2012-09-29 | 2014-04-09 | 网奕资讯科技股份有限公司 | 互动式电子白板的具多重物件影像撷取及编排模式 |
JP2015102896A (ja) * | 2013-11-21 | 2015-06-04 | 株式会社リコー | 表示制御装置、表示制御システム、及び画像処理プログラム |
US9830723B2 (en) * | 2013-12-02 | 2017-11-28 | Seiko Epson Corporation | Both-direction display method and both-direction display apparatus |
CN103729096A (zh) * | 2013-12-25 | 2014-04-16 | 京东方科技集团股份有限公司 | 交互识别系统以及显示装置 |
WO2016036370A1 (en) * | 2014-09-04 | 2016-03-10 | Hewlett-Packard Development Company, L.P. | Projection alignment |
KR102649009B1 (ko) * | 2016-12-20 | 2024-03-20 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
CN107817992A (zh) * | 2017-10-26 | 2018-03-20 | 四川云玦科技有限公司 | 一种通用设备控制的实现方法 |
CN107765593A (zh) * | 2017-10-26 | 2018-03-06 | 四川云玦科技有限公司 | 一种通用设备控制的实现系统 |
CN111556989A (zh) * | 2018-02-23 | 2020-08-18 | 株式会社和冠 | 电子笔及电子笔主体部 |
US11190568B2 (en) * | 2019-01-09 | 2021-11-30 | Bose Corporation | Multimedia communication encoding system |
CN110413108B (zh) * | 2019-06-28 | 2023-09-01 | 广东虚拟现实科技有限公司 | 虚拟画面的处理方法、装置、系统、电子设备及存储介质 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9513744B2 (en) * | 1994-08-15 | 2016-12-06 | Apple Inc. | Control systems employing novel physical controls and touch screens |
KR0149263B1 (ko) * | 1995-03-31 | 1998-10-15 | 김광호 | 프린터를 일체화한 컴퓨터장치와 그의 전원관리 및 제어방법 |
US5790114A (en) * | 1996-10-04 | 1998-08-04 | Microtouch Systems, Inc. | Electronic whiteboard with multi-functional user interface |
EP2104055B1 (de) * | 1999-08-30 | 2013-07-03 | Anoto AB | Informationsverwaltungssystem |
US20080122799A1 (en) * | 2001-02-22 | 2008-05-29 | Pryor Timothy R | Human interfaces for vehicles, homes, and other applications |
US6999622B2 (en) * | 2000-03-31 | 2006-02-14 | Brother Kogyo Kabushiki Kaisha | Stroke data editing device |
US20010038383A1 (en) * | 2000-04-05 | 2001-11-08 | Petter Ericson | Method and apparatus for information management |
KR100552018B1 (ko) * | 2000-11-25 | 2006-02-20 | 실버브룩 리서치 피티와이 리미티드 | 방향 감지 장치 |
SE0102287L (sv) * | 2001-06-26 | 2002-12-27 | Anoto Ab | Elektronisk penna, monteringsstycke därtill samt sätt att framställa pennan |
SE0102253L (sv) * | 2001-06-26 | 2002-12-27 | Anoto Ab | Läspenna |
US20030056133A1 (en) * | 2001-09-20 | 2003-03-20 | Talley Christopher Leon | Printer wake up icon apparatus and method |
EP1306735A1 (de) * | 2001-10-25 | 2003-05-02 | ABB Installationen AG | Steuerung für einen Besprechungsraum |
TWI235926B (en) * | 2002-01-11 | 2005-07-11 | Sonix Technology Co Ltd | A method for producing indicators and processing system, coordinate positioning system and electronic book system utilizing the indicators |
US7343042B2 (en) * | 2002-09-30 | 2008-03-11 | Pitney Bowes Inc. | Method and system for identifying a paper form using a digital pen |
US20040246236A1 (en) * | 2003-06-02 | 2004-12-09 | Greensteel, Inc. | Remote control for electronic whiteboard |
CN101401059B (zh) * | 2006-03-10 | 2012-08-15 | 吉田健治 | 信息处理装置的输入处理系统 |
JP4042065B1 (ja) * | 2006-03-10 | 2008-02-06 | 健治 吉田 | 情報処理装置への入力処理システム |
JP2009545786A (ja) * | 2006-06-16 | 2009-12-24 | ケタブ・テクノロジーズ・リミテッド | インタラクティブな位置コード化パターンがプリントされたホワイトボード |
CN101816186B (zh) * | 2007-10-05 | 2013-05-22 | 吉田健治 | 能读取在媒体以及显示器上形成的点阵图形的遥控装置 |
US20110188071A1 (en) * | 2007-12-12 | 2011-08-04 | Kenji Yoshida | Information input device, information processing device, information input system, information processing system, two-dimensional format information server, information input method, control program, and recording medium |
JP2009289247A (ja) * | 2008-05-30 | 2009-12-10 | Plus Vision Corp | 筆記記録システム、筆記用シート体、及び筆記情報の処理システム |
US20090309854A1 (en) * | 2008-06-13 | 2009-12-17 | Polyvision Corporation | Input devices with multiple operating modes |
-
2011
- 2011-06-24 CA CA2803889A patent/CA2803889A1/en not_active Abandoned
- 2011-06-24 DE DE112011102140T patent/DE112011102140T5/de not_active Withdrawn
- 2011-06-24 US US13/168,651 patent/US20120162061A1/en not_active Abandoned
- 2011-06-24 CN CN2011800370520A patent/CN103201709A/zh active Pending
- 2011-06-24 JP JP2013516828A patent/JP2013535066A/ja active Pending
- 2011-06-24 GB GB1300571.5A patent/GB2496772A/en not_active Withdrawn
- 2011-06-24 WO PCT/US2011/041844 patent/WO2011163601A1/en active Application Filing
Non-Patent Citations (1)
Title |
---|
IEEE 802.11b-Technologie |
Also Published As
Publication number | Publication date |
---|---|
WO2011163601A1 (en) | 2011-12-29 |
JP2013535066A (ja) | 2013-09-09 |
GB2496772A (en) | 2013-05-22 |
CA2803889A1 (en) | 2011-12-29 |
GB201300571D0 (en) | 2013-02-27 |
US20120162061A1 (en) | 2012-06-28 |
CN103201709A (zh) | 2013-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112011102140T5 (de) | Aktivierungsobjekte für interaktive Systeme | |
US6760009B2 (en) | Coordinate position inputting/detecting device, a method for inputting/detecting the coordinate position, and a display board system | |
CN101404152B (zh) | 信息显示装置 | |
US8591039B2 (en) | Image projection methods and interactive input/projection systems employing the same | |
DE19525644C2 (de) | Vorrichtung zur Eingabe von Daten in einen Computer | |
DE102008063354B4 (de) | Selektive Zurückweisung von Berührungskontakten in einem Kantenbereich einer Berührungsoberfläche | |
DE112010002760B4 (de) | Benutzerschnittstelle | |
DE102018116244A1 (de) | Verformbares elektrisches Gerät und Verfahren und Systeme zum Steuern der verformten Benutzerschnittstelle | |
DE202017105262U1 (de) | Erzeugen virtueller Notationsoberflächen mit Gesten in einer erweiterten und/oder virtuellen Realitätsumgebung | |
JP5240653B2 (ja) | 電子ペン・システム、端末装置及びそのプログラム | |
DE112015002463T5 (de) | Systeme und Verfahren zum gestischen Interagieren in einer im Umfeld vorhandenen Computerumgebung | |
DE102010038655A1 (de) | Verfahren und Vorrichtung für das Zoomen mit einer einzigen Berührung unter Verwendung einer Spiraldrehung | |
DE112012006199T5 (de) | Virtuelle Hand basierend auf kombinierten Daten | |
DE212007000046U1 (de) | Betriebssteuerung und Datenverarbeitung in einem elektronischen Stift | |
KR101176104B1 (ko) | 광학인식펜을 이용한 인터랙티브 전자 칠판 시스템 및 운영 방법 | |
CN110489027B (zh) | 手持输入设备及其指示图标的显示位置控制方法和装置 | |
JP2006527539A (ja) | 電子白板の遠隔制御 | |
DE69919759T2 (de) | Verfahren zum digitalisieren, schreiben und zeichnen mit möglichkeit zum löschen und/oder hinweisen | |
DE102019200287A1 (de) | Bildmessgerät und computerlesbares Medium | |
EP1133752A1 (de) | Eingabevorrichtung für einen computer | |
EP3642699A1 (de) | Elektronisches gerät zur erzeugung analoger abstriche und zur digitalen speicherung der analogen abstriche, sowie eingabesystem und verfahren zur digitalisierung analoger aufzeichnungen | |
WO2013161246A1 (ja) | 表示制御システム、表示装置及び表示パネル | |
DE102013216152A1 (de) | Ultraschallkopf mit Steuerungseinrichtung sowie Verfahren zur Steuerung eines Ultraschallgeräts | |
DE102005017936A1 (de) | Fluidisches Peripherie-Eingabegerät für eine elektronische Datenverarbeitungsvorrichtung | |
CN102156580B (zh) | 一种触摸屏的触摸方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R082 | Change of representative |
Representative=s name: LORENZ SEIDLER GOSSEL RECHTSANWAELTE PATENTANW, DE Representative=s name: RECHTS- UND PATENTANWAELTE LORENZ SEIDLER GOSS, DE |
|
R083 | Amendment of/additions to inventor(s) | ||
R083 | Amendment of/additions to inventor(s) | ||
R082 | Change of representative |
Representative=s name: LORENZ SEIDLER GOSSEL RECHTSANWAELTE PATENTANW, DE |
|
R081 | Change of applicant/patentee |
Owner name: STEELCASE INC., GRAND RAPIDS, US Free format text: FORMER OWNER: POLYVISION CORPORATION, SUWANEE, GA., US Effective date: 20140625 Owner name: STEELCASE INC., GRAND RAPIDS, US Free format text: FORMER OWNER: POLYVISION CORP., SUWANEE, GA., US Effective date: 20130206 |
|
R082 | Change of representative |
Representative=s name: LORENZ SEIDLER GOSSEL RECHTSANWAELTE PATENTANW, DE Effective date: 20130206 Representative=s name: LORENZ SEIDLER GOSSEL RECHTSANWAELTE PATENTANW, DE Effective date: 20140625 |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |