DE112011102140T5 - Aktivierungsobjekte für interaktive Systeme - Google Patents

Aktivierungsobjekte für interaktive Systeme Download PDF

Info

Publication number
DE112011102140T5
DE112011102140T5 DE112011102140T DE112011102140T DE112011102140T5 DE 112011102140 T5 DE112011102140 T5 DE 112011102140T5 DE 112011102140 T DE112011102140 T DE 112011102140T DE 112011102140 T DE112011102140 T DE 112011102140T DE 112011102140 T5 DE112011102140 T5 DE 112011102140T5
Authority
DE
Germany
Prior art keywords
input device
activation
activation object
projector
presentation system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112011102140T
Other languages
English (en)
Inventor
Neal A. Hofmann
Peter W. Hildebrandt
Brand C. Kvalvle
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Steelcase Inc
Original Assignee
Polyvision Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Polyvision Corp filed Critical Polyvision Corp
Publication of DE112011102140T5 publication Critical patent/DE112011102140T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • G06F3/0321Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface by optically sensing the absolute position with respect to a regularly patterned surface forming a passive digitiser, e.g. pen optically detecting position indicative tags printed on a paper sheet

Abstract

Ein interaktives System kann aus einer Anzeigeeinrichtung, einem Bedienfeld, einem Projektor, einer Verarbeitungseinrichtung und einer Eingabeeinrichtung bestehen. Die Eingabeeinrichtung kann Anzeichen zu seiner Lage relativ zum Bedienfeld oder einer Anzeigefläche erkennen, so dass das interaktive System Wechselwirkungen zwischen der Eingabeeinrichtung und diesen Komponenten erkennen kann. Das Zusammenspiel zwischen der Eingabevorrichtung und der Anzeigefläche kann von der Verarbeitungseinrichtung erfasst, analysiert und verarbeitet werden und dann wieder als Bild auf die Anzeigefläche projiziert und dargestellt werden. Das Bedienfeld kann aus einer Vielzahl von nicht-projizierten, greifbaren Aktivierungsobjekten bestehen, wobei jedem Aktivierungsobjekt eine Aktivität oder Funktion des interaktiven Systems entsprechen kann, wie z. B. den Projektor einzuschalten. Wenn das interaktive System eine Interaktion zwischen der Eingabeeinrichtung und einem Aktivierungsobjekt erkennt, kann die dem ausgewählten Aktivierungsobjekt entsprechende Aktivität ausgeführt werden.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Diese Anmeldung behauptet einen Nutzen gemäß 35 U. S. C § 119(e) der US Provisional Application Serial Nr. 61/358.800, eingereicht am 25. Juni 2010, deren gesamter Inhalt hiermit durch Bezugnahme eingeschlossen wird.
  • TECHNISCHES GEBIET
  • Verschiedene Ausführungsformen der vorliegenden Erfindung beziehen sich auf interaktive Systeme und insbesondere auf derart konfigurierte Aktivierungsobjekte, dass sie verschiedene Komponenten interaktiver Systemen antreiben.
  • HINTERGRUND
  • Elektronische Anzeigesysteme, wie beispielsweise elektronische Weißwandtafel-Systeme, werden immer mehr zu bevorzugten Alternativen zu herkömmlichen Whiteboards und Markersystemen. Leider haben elektronische Anzeigesysteme den großen Nachteil, dass sie unterschiedlich ausgeprägte elektrische Komponenten enthalten, die individuell betrieben werden müssen, um das elektronische Anzeigesystem zu verwenden. Somit muss sich der Benutzer zwischen dem Computer, der Anzeige und den Peripheriegeräten hin und her bewegen, um die elektronische Anzeige wie gewünscht zu benutzen.
  • Um beispielsweise den Projektor eines elektronischen Anzeigesystems einzuschalten, muss der Benutzer zum Projektor gehen und einen Schalter betätigen oder einen Knopf drücken. Zu den anderen Komponenten, die individuell eingeschaltet werden müssen, gehören beispielsweise auch Audiosysteme. Selbst wenn alle Komponenten eingeschaltet sind, können Anpassungen erforderlich werden, wie z. B. das Ändern der Eingangslautstärke und die Positionierung der Projektorleinwand. Dies verlangt vom Benutzer wieder ein umständliches Umhergehen, um die verschiedenen Komponenten und Betriebseigenschaften der elektronischen Anzeigesysteme einzustellen.
  • ZUSAMMENFASSUNG
  • Verschiedene Ausführungsformen der vorliegenden Erfindung beziehen sich auf Aktivierungsobjekte für interaktive Systeme, wie z. B. elektronische Anzeigesysteme. In einem interaktiven System können Aktivierungsobjekte nicht-angezeigte, erkennbare Objekte sein, die vorbestimmte Aktivitäten im interaktiven System auslösen. Zum Beispiel und nicht als Einschränkung können Aktivierungsobjekte Netzteile ein- und ausschalten, Projektoren fokussieren, Projektorleinwände anheben oder absenken oder die Lautstärke eines Audiosystems verändern.
  • Gemäß einigen Ausführungsbeispielen der vorliegenden Erfindung kann ein interaktives System aus einer Anzeigeeinrichtung, einer Vielzahl von Aktivierungsobjekten, einem Projektor, einer Verarbeitungseinrichtung und einer Eingabeeinrichtung bestehen.
  • So umfasst der allgemeine Betrieb des interaktiven Systems ein Zusammenspiel zwischen der Eingabevorrichtung und einer Anzeigefläche der Anzeigevorrichtung, die wiederum von der Verarbeitungseinrichtung erfasst, analysiert und verarbeitet werden und dann wieder als Bild auf die Anzeigefläche projiziert und dargestellt werden kann. Deshalb können Wechselwirkungen zwischen der Eingabevorrichtung und der Anzeigeoberfläche für gegenwärtige und zukünftige Verwendungen angezeigt und digital erfasst werden. Alternativ dazu können Wechselwirkungen einen gewissen Aspekt der Verarbeitungsvorrichtung antreiben, beispielsweise können diese eine Software ansteuern.
  • Ein Aktivierungsobjekt kann ein erkennbares Objekt sein, das sich auf eine bestimmte Aktivität des interaktiven Systems bezieht. Das interaktive System kann feststellen, ob sich die Eingabevorrichtung in einer Stellung befindet, in der die Eingabevorrichtung mit einem Aktivierungsobjekt interagiert. Wenn das interaktive System eine Interaktion zwischen der Eingabeeinrichtung und einem bestimmten Aktivierungsobjekt erkennt, kann das interaktive System die Aktivität des entsprechenden Aktivierungsobjektes durchführen. In einer beispielhaften Ausführungsform sind die Aktivierungsobjekte nicht-projizierte Bilder und bleiben selbst dann sichtbar und erkennbar, wenn die meisten oder alle Komponenten des interaktiven Systems in den Stand-by-Modus oder Aus-Zustand geschaltet wurden. Somit können Aktivierungsobjekte in einigen Ausführungsformen dazu verwendeten werden, Aktivitäten im Zusammenhang mit dem Einschalten von Vorrichtungen einzuleiten. Zum Beispiel und nicht als Einschränkung kann eine Wechselwirkung zwischen der Eingabeeinrichtung und einem ersten Aktivierungsobjekt das Einschalten des Projektors einzuleiten.
  • In einigen Ausführungsformen kann ein Aktivierungsobjekt ein Icon (Symbol) oder Text sein oder diese(n) umfassen und die Aktivitäten des entsprechenden Aktivierungsobjektes repräsentieren. Somit kann ein Benutzer des interaktiven Systems das Symbol für eine gewünschte Aktivität auswählen und das interaktive System führt die entsprechende Aktivität des Aktivierungsobjektes, die das ausgewählte Symbol umfasst, in Reaktion auf die Auswahl aus.
  • Diese und andere Objekte, Merkmale und Vorteile der Einrichtung werden beim Lesen der folgenden Beschreibung in Verbindung mit den beigefügten Bild-Zeichnungen deutlicher werden.
  • KURZBESCHREIBUNG DER SCHAUBILDER
  • zeigt ein Diagramm eines interaktiven Systems, gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung.
  • zeigt eine Vorderansicht eines Bedienfeldes des interaktiven Systems gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung.
  • veranschaulicht eine teilweise Querschnitt-Seitenansicht einer abgeschlossenen Eingabevorrichtung des interaktiven Systems gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung.
  • veranschaulicht eine teilweise Querschnitt-Seitenansicht der Eingabevorrichtung ohne Abdeckung gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung.
  • veranschaulicht eine teilweise Querschnitt-Seitenansicht der Eingabevorrichtung ohne Abdeckung gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung.
  • –C veranschaulichen teilweise Querschnitt-Seitenansichten der Eingabevorrichtung mit Abdeckung gemäß beispielhaften Ausführungsformen der vorliegenden Erfindung.
  • 5C zeigen verschiedene Bilder eines Punktmusters gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung, wie sie von einer Abtasteinrichtung der Eingabevorrichtung erfasst wurden.
  • zeigt die Verwendung der Eingabevorrichtung in Verbindung mit einer Anzeigeeinrichtung des interaktiven Systems gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung.
  • zeigt eine zweite Verwendung der Eingabevorrichtung in Verbindung mit einem Aktivierungsobjekt des interaktiven Systems gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Um die Prinzipien und Merkmale der Erfindung leichter verständlich zu machen, werden verschiedene Ausführungsbeispiele nachfolgend erläutert. Insbesondere wird die Erfindung im Zusammenhang mit Aktivierungsobjekten beschrieben, die zum Antreiben und Einstellen von Komponenten eines elektronischen Anzeigesystems bestimmt sind. Ausführungsformen der Erfindung sind jedoch nicht auf diese Ausführungsformen beschränkt. Vielmehr können verschiedene Aspekte der vorliegenden Erfindung andere Funktionen neben dem Einschalten und Einstellen durchführen und müssen nicht auf elektronische Anzeigesysteme beschränkt bleiben.
  • Die nachfolgend als Bauelemente der Erfindung beschriebene Materialien und Komponenten sollen veranschaulichend und nicht einschränkend verstanden werden. Viele geeignete Materialien und Komponenten, die die gleichen oder ähnlichen Funktionen wie die hier beschriebenen Materialien und Komponenten ausführen können, sollen im Umfang der Erfindung erfasst sein. Andere Materialien und Komponenten, die hier nicht beschrieben werden, können beispielsweise ähnliche oder analoge Materialien oder Komponenten umfassen, die nach der Entwicklung der Erfindung entwickelt wurden, sind aber nicht auf diese beschränkt.
  • Verschiedene Ausführungsformen der vorliegenden Erfindung können Aktivierungsobjekte und interaktive Systeme enthalten, die Aktivierungsobjekte verwenden. Bezugnehmend auf die Abbildungen, in denen gleiche Bezugszahlen durchgängig die gleichen Teile in den Darstellungen bezeichnen, werden verschiedene Ausführungsformen der Aktivierungsobjekte und interaktiven Systeme im Detail beschrieben.
  • zeigt ein Diagramm eines interaktiven Systems 100, gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung. Wie aus den Zeichnungen ersichtlich kann das interaktive System 100 eine Anzeigevorrichtung 110, ein Bedienfeld 120, einen Projektor 130, eine Verarbeitungseinrichtung 140 und eine Eingabeeinrichtung 200 enthalten. So umfasst das Zusammenspiel zwischen der Eingabevorrichtung 200 und einer Anzeigefläche 115 der Anzeigeeinrichtung 110, die wiederum von der Verarbeitungseinrichtung 140 erfasst, analysiert und verarbeitet werden und dann wieder als Bild auf die Anzeigefläche 115 projiziert und dargestellt werden kann. Diese Wechselwirkungen können digital für gegenwärtige oder zukünftige Nutzung wie z. B. Anzeigen, Drucken oder Bearbeiten erfasst werden.
  • Das interaktive System 100 kann Wechselwirkungen zwischen der Eingabevorrichtung 200 und verschiedenen erkennbaren Objekten 105 des interaktiven Systems 100 erkennen. Zum Beispiel und nicht als Einschränkung können die erkennbaren Objekte 105 das Bedienfeld 120 und eine Anzeigefläche 115 der Anzeigeeinrichtung 110 enthalten. Wird eine Interaktion zwischen der Eingabevorrichtung 200 und einem erkennbaren Objekt 105 erkannt, kann das interaktive System 100 bestimmen, ob und wie es seinen Zustand auf irgendeine Weise verändern soll und reagiert damit auf Interaktionen. Verschiedene Technologien können im interaktiven System 100 vorgesehen werden, um die Erkennung von erkennbaren Objekten 105 zu aktivieren. Zum Beispiel und nicht als Einschränkung können erkennbare Objekte 105 sowohl resistive Membrantechnologien, kapazitive Technologien, Erfassungskameras an den Ecken der Anzeigevorrichtung 110, Positionscodierungsmuster-Technologien oder andere Möglichkeiten zur Erfassen von Koordinaten der Eingabevorrichtung 200 enthalten.
  • Die Verarbeitungseinrichtung 140 kann in Verbindung mit der Eingabevorrichtung 200 stehen und von der Eingabevorrichtung 200 empfangene Daten analysieren und interpretieren. In einigen Ausführungsformen kann die Verarbeitungseinrichtung 140 eine integrierte Komponente der Anzeigevorrichtung 110 sein, aber in anderen Ausführungsformen kann die Verarbeitungseinrichtung 140 eine externe Komponente sein, zum Beispiel ein Notebook-Computer oder ein anderer PC.
  • Wie oben erwähnt kann die Eingabevorrichtung 200 seine Stellung während einer Wechselwirkung zwischen der Eingabevorrichtung 200 und einem erkennbaren Objekt 105 erkennen. Diese Eingabevorrichtung 200 kann dann Daten übertragen, die Wechselwirkungen mit der Verarbeitungseinrichtung 140 beschreiben oder repräsentieren. Die gesendeten Daten, die die Wechselwirkungen beschreiben, können beispielsweise absolute Koordinaten der erkennbaren Objekte 105, relative Koordinaten zu einer vorherigen Position der Eingabevorrichtung 200 sein oder ein oder mehrere, von der Eingabevorrichtung 200 auf einer Oberfläche der erkennbaren Objekte 105 erfassten Bilder sein.
  • Die Verarbeitungseinrichtung 140 kann die von der Eingabevorrichtung 200 empfangen Daten analysieren und die Stellung der Eingabevorrichtung 200 in Bezug auf die erkennbaren Objekte 105 bestimmen sowie feststellen, welches erkennbare Objekte 105 Gegenstand der Interaktion mit der Eingabevorrichtung 200 war. Basierend auf verschiedenen Faktoren, wie zum Beispiel der aktuelle Zustand des interaktiven Systems 100, kann die Verarbeitungseinrichtung 140 eine Wechselwirkung als Auswahl einer Operation oder Aktivität interpretieren und entsprechend reagieren. Aufgrund entsprechender Wechselwirkungen kann die Verarbeitungseinrichtung 140 beispielsweise Bewegungen der Eingabevorrichtung 200 als Zeichnen oder Schreiben auf der Anzeigefläche 115 oder als Cursorbewegung auf der Anzeigefläche 115 interpretieren. In diesem Fall kann die Verarbeitungseinrichtung 140 ein auf die Anzeigefläche 115 projiziertes Bild ändern oder ein neues Bild entsprechend der Wechselwirkung darstellen. Die Verarbeitungseinrichtung 140 kann daraufhin ein aktualisiertes Bild zur Projektion auf der Anzeigefläche 115 an den Projektor 130 senden. Um eine oder mehrere der oben beschriebenen Vorgänge auszuführen, kann die Verarbeitungseinrichtung 140 ein, in einem computerlesbaren Medium oder in einer Computer-Speichereinrichtung ausgebildetes Computerprogrammprodukt enthalten. Das Computerprogrammprodukt kann Anweisungen an einen Computer-Prozessor geben, um einige oder alle der obigen Operationen auszuführen.
  • Der Projektor 130 kann eine oder mehrere Bilddarstellungen auf die Anzeigefläche 115 projizieren. Zum Beispiel und nicht als Einschränkung kann der Projektor 130 eine graphische Benutzerschnittstelle oder durch Verwendung der Eingabevorrichtung 200 erzeugte Beschriftungen projizieren. Der Projektor 130 kann in Verbindung mit der Verarbeitungseinrichtung 140 stehen. Diese Kommunikation kann durch eine drahtgebundene oder drahtlose Verbindung, Bluetooth oder durch viele andere Mittel stattfinden, über die zwei Geräte kommunizieren. Wie bei der Verarbeitungseinrichtung 140, kann der Projektor 130 mit der Anzeigeeinrichtung 110 integriert werden, ohne dass dies der Fall sein muss. Alternativ kann der Projektor 130 vom interaktiven System 100 ausgeschlossen werden, wenn die Anzeigeeinrichtung 110 intern fähig ist, Beschriftungen und andere Objekte auf seiner Oberfläche anzuzeigen. Wenn beispielsweise Anzeigeeinrichtung 110 einen Computer-Monitor mit Flüssigkristall-Anzeige beinhaltet, muss kein separater Projektor 130 vorgesehen werden.
  • In einigen Ausführungsbeispielen des interaktiven Systems 100 kann der Projektor 130 als Weitwinkel- oder Ultra-Weitwinkel-Projektor konfiguriert werden und während des Betriebs des interaktiven Systems 100 relativ nahe an die Anzeigeeinrichtung 110 positioniert werden. Wenn er nahe der Anzeigeeinrichtung 110 positioniert wird, ist es weniger wahrscheinlich, dass der Raum zwischen dem Projektor 130 und der Anzeigeeinrichtung 110, über die das Licht des Projektors 130 gestrahlt wird, durch den Benutzer des interaktiven Systems 100 unterbrochen wird. Wird ein Weitwinkel-Projektor 130 im interaktiven System 100 verwendet, kann sich der Benutzer der Anzeigeeinrichtung 110 nähern, ohne ein auf die Anzeigefläche 115 projiziertes Bild zu blockieren.
  • Bei Empfang eines aktualisierten Bildes von der Verarbeitungseinrichtung 140, kann der Projektor 130 das aktualisierte Bild auf die Anzeigefläche 115 projizieren. Daraus resultiert, dass die Anzeigefläche 115 nicht nur physische Tinte anzeigen kann, die auf der Anzeigefläche 115 gezeichnet wurde sondern auch Objekte, die als Reaktion auf Interaktionen mit der Eingabevorrichtung 200 digital erzeugt wurden. Dementsprechend kann das interaktive System 100 auf der Anzeigefläche 115 entsprechend den, auf der Eingabevorrichtung 200 vorgenommenen Bewegungen, Operation durchführen lassen. Zum Beispiel und nicht als Einschränkung können Beschriftungen auf der Eingabevorrichtung 200 erzeugt werden oder die Eingabevorrichtung 200 kann einen virtuellen Cursor über die Anzeigefläche 115 steuern.
  • In einer beispielhaften Ausführungsform können die erkennbaren Objekte 105 auf ihren Oberflächen Positionscodierungsmuster 500 haben, ähnlich den in 5C gezeigten Punktmustern. Zum Beispiel können sowohl die Anzeigefläche 115 als auch das Bedienfeld 120, eine oder mehrere Positionscodierungsmuster 500 oder Teile davon aufweisen. Ein Teilausschnitt des Musters 500 kann durch die Eingabevorrichtung 200 erkannt werden, wie z. B. durch eine oder mehrere Kameras in der Eingabevorrichtung 200, wenn die Eingabevorrichtung 200 für die Interaktion mit erkennbaren Objekten 105 verwendet wird. Durch Analysieren eines erfassten Abschnittes des Musters 500 kann die Eingabevorrichtung 200 oder die Verarbeitungseinrichtung 140 Informationen über die Position und Orientierung der Eingabevorrichtung 200 relativ zu erkennbaren Objekten 105 erkennen. Somit kann das interaktive System 100 durch Interpretieren erfasster Abschnitte des Musters 500 bestimmen, wohin eine Eingabevorrichtung 200 auf dem Bedienfeld 120 oder der Anzeigefläche 115 gerichtet ist und das interaktive System 100 kann bestimmen, wohin sich die Eingabevorrichtung 200 relativ zum Bedienfeld 120 oder zur Anzeigefläche 115 bewegt.
  • In einer beispielhaften Ausführungsform des interaktiven Systems 100 kann das Muster 500 so ausgelegt sein, dass ein erkannter Teilausschnitt des Musters 500 die absoluten Koordinaten anzeigen kann, auf die die Eingabevorrichtung 200 zu einem gegebenen Zeitpunkt gerichtet ist. Wird beispielsweise ein Punktmuster 500 verwendet, kann das Muster 500 so ausgelegt werden, dass die Anordnung der Punkte auf jeder Koordinate eines erkennbaren Objektes 105, bei Betrachtung aus einem geeigneten Abstand vom erkennbaren Objekt 105, einzigartig ist. In einer weiteren beispielhaften Ausführungsform können sich der Teilausschnitt oder die Teilausschnitte des Musters 500 auf der Oberfläche der Anzeigefläche 115 vom Teilausschnitt oder den Teilausschnitten auf dem Bedienfeld 120 unterscheiden, so dass ein erkannter Teilausschnitt des Musters 500 nicht nur die Koordinaten auf der Anzeigefläche 115 angeben, sondern auch zwischen der Anzeigefläche 115 und dem Bedienfeld 120 unterscheiden kann.
  • Alternativ zur Verwendung eines Positionscodierungsmusters 500 auf erkennbaren Objekten 105 können auch andere Mittel zur Erkennung der Stellung und Bewegungen der Eingabevorrichtung 200 relativ zu den erkennbaren Objekten 105 bereitgestellt werden. Zum Beispiel und nicht als Einschränkung können eine oder mehrere Bild- oder Videokameras um das Anzeigegerät 200 herum oder an anderen Stellen, an denen Interaktionen für die Kameras ausreichend sichtbar sind, aufgestellt werden. Die Kameras können Bilder der Eingabevorrichtung 200 periodisch erfassen. Jedes dieser Bilder kann einen Abschnitt des Positionscodierungsmusters enthalten, der analysiert werden kann, um die Stellungen und Bewegungen der Eingabevorrichtung 200 zu bestimmen.
  • zeigt eine Vorderansicht eines Bedienfeldes 120 gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung. Wie dargestellt, kann das Bedienfeld 120 eine Vielzahl von Aktivierungsobjekten 125 vorweisen, von denen jedes ein oder mehrere Symbole, Bilder oder Worte zur leichteren Erkennung durch den Benutzer enthalten kann. Jedes Aktivierungsobjekt 125 kann einer Aktivität oder Funktion entsprechen, die vom interaktiven System 100 ausgeführt werden kann und die Auswahl eines Aktivierungsobjektes 125 kann die entsprechende Aktivität oder Funktion auslösen.
  • Das interaktive System 100 kann feststellen, dass der Benutzer ein bestimmtes Aktivierungsobjekt 125 ausgewählt hat, beispielsweise durch erkennen, dass die Eingabevorrichtung 200 auf ein Aktivierungsobjekt 125 gerichtet ist, wenn sich diese in Kontakt mit oder in ausreichender Nähe zum Aktivierungsobjekt 125 befindet. Diese Erkennung kann durch verschiedene Mittel erfolgen, beispielsweise u. a. durch Widerstandstechnologie, kapazitive Technologie, Triangulation mit Kameras oder Erfassen eines Positionscodierungsmusters 500. Die Auswahl eines Aktivierungsobjektes 125 kann erkannt werden, wenn die Eingabevorrichtung 200 mit dem Aktivierungsobjekt 125 interagiert, z. B. es berührt. Gemäß einigen Ausführungsbeispielen des interaktiven Systems 100 kann jedes Aktivierungsobjekt 125 einen entsprechenden Teil des Positionscodierungsmusters 500 auf seiner Oberfläche haben. Dementsprechend kann das interaktive System 100 durch Erfassen des zugehörigen, einzigartigen Teils des Positionscodierungsmusters 500 feststellen, wenn die Eingabevorrichtung 200 mit einem bestimmten Aktivierungsobjekt 125 interagiert. Diese Interaktion kann als Auswahl des Aktivierungsobjekts 125 interpretiert werden. Wenn das interaktive System 100 feststellt, dass ein Aktivierungsobjekt 125 ausgewählt wurde, kann das interaktive System 100 die dem ausgewählten Aktivierungsobjekt 125 entsprechende Aktivität ausführen.
  • Das interaktive System 100 kann ein oder mehrere periphere Hardware-Geräte enthalten, darunter beispielsweise den Projektor 130, die Verarbeitungseinrichtung 140, ein Audio-System, einen Lautsprecher, Heizung, Lüftung und Klimatisierung, einen Disc-Player oder die Zimmerbeleuchtung. Das interaktive System 100 kann einige Aspekte dieser Peripheriegeräte steuern, wobei diese Steuerung durch Auswahl der geeigneten Aktivierungsobjekte 125 initiiert werden kann. Wie in gezeigt, können die verschiedenen, mit den entsprechenden Aktivierungsobjekten 125 verbundenen Aktivitäten, folgendes beispielhaft und nicht als Einschränkung enthalten: Ein-/Ausschalten 125a des Projektors; Einstellung der Helligkeit des Projektors 125b; Video ausschalten 125c; Vergrößerung einstellen 125d; zum Zentrum des vergrößerten Bilds navigieren 125e; das projizierte Bild fokussieren 125f und 125g; oder Eingangsquelle 125h wählen. Neben den in gezeigten Aktivitäten und Funktionen gehören zu den verschiedenen anderen Aktivitäten und Funktionen beispielhaft und nicht als Einschränkung: Ein-/Ausschalten oder Einstellen des Audio-Systems, Beleuchtung, Heizung, Lüftung und Klimatisierung, Fernseher, Videorecorder, DVD-Player oder andere Peripheriegeräte; eine Projektorleinwand 130 anheben oder absenken; Jalousien öffnen oder schließen; Studenten-Beurteilungsgeräte steuern; oder von Studenten-Beurteilungsgeräten gesammelte Ergebnisse analysieren oder grafisch darstellen. So wie in diesen Beispielen kann ein Aktivierungsobjekt 125 verschiedene Peripheriegeräte steuern oder die Umgebung und Geräte des interaktiven Systems 100 kontrollieren. Aktivierungsobjekte 125 können auch andere Tätigkeiten und Funktionen auslösen.
  • In einer beispielhaften Ausführungsform können das Bedienfeld 120 und seine Aktivierungsobjekte 125 erkennbar bleiben, selbst wenn verschiedene Komponenten des interaktiven Systems 100 in den Stand-by- oder Aus-Zustand heruntergefahren wurden. Beispielsweise können die Aktivierungsobjekte 125 nicht-projizierte, taktile Objekte sein und sichtbar bleiben, wenn der Projektor 130 abgeschaltet wurde. Während das Bedienfeld 120 ein Teil der Anzeigefläche 115 sein oder, wie in gezeigt, daran befestigt werden kann, muss dies nicht der Fall sein und das Bedienfeld 120 braucht auch keinen wertvollen Platz auf der Anzeigefläche 115 besetzen. Beispielsweise kann das Bedienfeld 120 ein Teil der Anzeigeeinrichtung 110 sein, an einen anderen Abschnitt oder eine Wand befestigt werden. In einigen Ausführungsformen kann das Bedienfeld 120 beweglich sein und an verschiedenen Oberflächen lösbar festgemacht werden. Beispielsweise kann das Bedienfeld 120 eine magnetische oder haftende Rückseite haben, damit das Bedienfeld 120 nach Wunsch vorübergehend an der Anzeigeeinrichtung 110 befestigt und anders wohin bewegt werden kann.
  • Wie oben erwähnt, braucht der Projektor 130 nicht eingeschaltet sein, damit Aktivierungsobjekte 125 seine entsprechenden Aktivitäten oder Funktionen auslösen können. Verschiedene andere Komponenten und Peripheriegeräte des interaktiven Systems 100 können ebenfalls ausgeschaltet sein und die Aktivierungsobjekte 125 können seine Aktivitäten und Funktionen dennoch steuern. In einigen Ausführungsbeispielen kann die Verarbeitungseinrichtung 140 eingeschaltet sein oder sich im Standby-Modus befinden und kann mit verschiedenen anderen, mit dem interaktiven System 100 verbunden Geräten, in Verbindung stehen. Die Verarbeitungseinrichtung 140 kann mit anderen Geräten beispielsweise über serielle Kabel, Ethernet, USB, Bluetooth, oder andere verdrahtete oder drahtlose Verbindung verbunden werden. Aufgrund der verschiedenen Möglichkeiten, Geräte mit der Verarbeitungsvorrichtung 140 zu verbinden, müssen sich angeschlossene Geräte nicht im selben Raum oder am selben Ort wie die Verarbeitungsvorrichtung 140 befinden, weshalb Aktivierungsobjekte 125 auch Komponenten und Peripheriegeräte an fernen Standorten steuern können.
  • Empfängt die Verarbeitungsvorrichtung 140 eine Meldung, dass ein bestimmtes Aktivierungsobjekt 125 ausgewählt wurde (dies Meldung kann von der Eingabevorrichtung 200 empfangen werden), kann die Verarbeitungsvorrichtung 140 ein für die Aktivität oder Funktion des entsprechenden Aktivierungsobjektes 125 benötigtes Signal an ein oder mehrere angeschlossene Geräten senden. Die Verarbeitungseinrichtung 140 kann ein Signal übertragen, z. B. eine Reihe von Zeichen in einem TCP/IP-Befehl, das vom benötigten Gerät als Weckruf interpretiert werden kann, um das angeschlossene Gerät einzuschalten. In einigen Ausführungsformen kann die Verarbeitungseinrichtung 140 erkennen, ob das benötigte Gerät bereits eingeschaltet ist; in diesem Fall wird kein Weckbefehl gesendet. Sobald ein Gerät eingeschaltet wurde, kann es weitere Befehle von der Verarbeitungseinrichtung 140, der Eingabevorrichtung 200 oder von anderen Stellen empfangen und somit Operationen durchführen, die vom angeschlossenen Gerät in Aktivität oder Funktion entsprechend dem ausgewählten Aktivierungsobjekt 125 verlangt werden.
  • Angenommen, das gewählte Aktivierungsobjekt 125 entspricht einem Befehl die Eingangsquelle des Projektors 130 zu wechseln und nehmen wir weiter an, dass der Projektor 130 ausgeschaltet ist, wenn das Aktivierungsobjekt 125 ausgewählt wird. Wenn das interaktive System 100 die Auswahl des Aktivierungsobjektes 125 erkennt, kann die Verarbeitungseinrichtung 140 ein Wecksignal an den Projektor 130 senden, der das Gerät als Reaktion auf das Signal einschalten kann. Daher kann die Verarbeitungseinrichtung 140 dem Projektor 130 einen Befehl übertragen, die Eingangsquelle zu ändern. Im Gegenzug kann der Projektor 130 seine Eingangsquelle ändern und damit die angeforderte Aktivität ausführen. Wie dieses Beispiel zeigt, kann das interaktive System 100 auch einen oder mehrere implizierte Zwischenschritt(e) ausführen, wenn ein Aktivierungsobjekt 125 ausgewählt ist. Wenn beispielsweise die Aktivität eines ausgewählten Aktivierungsobjektes 125 nicht durchgeführt wird, weil ein benötigtes Gerät nicht eingeschaltet ist, kann die Eingabevorrichtung 200 das benötigte Gerät anweisen sich einzuschalten, bevor die Aktivität durchgeführt wird.
  • In einigen weiteren Ausführungsbeispielen kann die Eingabevorrichtung 200 so konfiguriert werden, dass es Aktivierungsobjekte 125 selbständig erkennt, z. B. durch Bestimmung der einem Aktivierungsobjekt 125 zugeordneten Koordinaten, ohne dass Daten an die Verarbeitungseinrichtung 140 übertragen werden müssen und Signale an ein oder mehrere elektronische Komponente(n) des interaktiven Systems 100 überträgt, um diese elektronischen Komponenten entsprechend dem ausgewählten Aktivierungsobjekt 125 ein- oder auszuschalten. Zu diesem Zweck kann die Eingabevorrichtung 200 mit dem interaktiven System zugeordneten Geräten drahtlos oder verdrahtet verbunden werden. Die Eingabevorrichtung 200 kann somit Weckbefehle und andere Anweisungen an angeschlossene Geräte übertragen, um durch Aktivierungsobjekte 125 angeforderte Aktivitäten oder Funktionen auszuführen, ohne dass diese Befehle und Anweisungen über die Verarbeitungseinrichtung 140 gehen müssen. Für diese Ausführungsformen gilt, dass Wechselwirkungen zwischen der Eingabevorrichtung 200 und dem Bedienfeld 120 selbst dann erkannt und Maßnahmen auslösen können, wenn die Verarbeitungsvorrichtung 140 abgeschaltet ist. Wählt ein Benutzer beispielsweise ein Aktivierungsobjekt 125 mit einer Anforderung, das interaktive System 100 einzuschalten, kann diese Auswahl dazu führen, dass Einschalt-Signale an den Projektor 130, die Verarbeitungsvorrichtung 140 und andere elektronische Komponenten versendete werden, die für den allgemeinen Betrieb des interaktiven Systems 100 benötigt werden.
  • Wieder bezugnehmend auf kann die Eingabevorrichtung 200 auf verschiedene Arten aktiviert werden, beispielsweise durch einen Aktuator 228 ( ), wie z. B. ein Schalter oder eine Taste oder durch die Lage der Eingabevorrichtung 200 auf der Oberfläche der Anzeigefläche 115. Im Betrieb kann die Platzierung oder Bewegung der Eingabevorrichtung 200 im Kontakt mit oder in der Nähe eines erkennbaren Objektes 105 die Verarbeitungsvorrichtung 140 anweisen, dass bestimmte Operationen ausgeführt werden müssen.
  • Wenn die Eingabevorrichtung 200 in Kontakt mit oder nahe genug an ein erkennbares Objekte 105 kommt, kann die Eingabevorrichtung 200 Hinweise auf seine Stellung im Verhältnis zu einem erkennbaren Objekt 105 erkennen. Diese von der Eingabevorrichtung 200 erfassten Anzeichen können durch das interaktive System 100 analysiert werden, um die Stellung der Eingabevorrichtung 200 in Bezug auf das erkennbare Objekt 105 zu bestimmen. Um seine relative Stellung zu bestimmen, kann die Eingabevorrichtung 200 die erfassten Kennzeichen intern analysieren oder die Eingabevorrichtung 200 kann seine Koordinaten oder erfassten Anzeichen, wie z. B. Bilddaten, an die Verarbeitungsvorrichtung 140 übertragen. Das interaktive System 100 kann die erfassten Daten interpretieren und veranlassen, dass eine Operation ausgeführt wird. Wird die Platzierung der Eingabevorrichtung 200 als Auswahl eines Aktivierungsobjektes 125 interpretiert, kann die dem ausgewählten Aktivierungsobjekt 125 entsprechende Aktivität ausführt werden. Handelt es sich bei der Platzierung oder Bewegung um Wechselwirkungen mit der Anzeigefläche 115, können diese Bewegungen beispielsweise anzeigen, dass Operationen an den Stellen der Anzeigefläche 115 stattfinden sollen, auf die die Eingabevorrichtung 200 gerichtet ist.
  • Durch die Interaktion mit der Anzeigefläche 115 kann die Eingabevorrichtung 200 Markierungen auf der Anzeigefläche 115 erzeugen, wobei diese Markierungen sowohl physikalisch, digital oder auch beides sein können. Wird die Eingabevorrichtung 200 beispielsweise über die Anzeigefläche 115 bewegt, kann die Eingabevorrichtung 200 physische Markierungen, wie abwischbare Tinte, hinterlassen. Die Anzeigefläche 115 kann so angepasst werden, dass solche physikalischen Markierungen angenommen werden. Zum Beispiel und nicht als Einschränkung kann die Anzeigeeinrichtung 110 ein Whiteboard sein. Zusätzlich kann die Bewegung der Eingabevorrichtung 200 so analysiert werden, dass digitale Versionen derartiger Markierungen erzeugt werden. Die digitalen Markierungen können durch das interaktive System 100 für den späteren Abruf gespeichert werden, z. B. für E-Mail, Drucken oder Anzeigen. Die Anzeigefläche 115 kann, muss aber digitale Markierungen nicht zum Zeitpunkt ihrer Erzeugung anzeigen, so dass digitale Markierungen im Allgemeinen physikalische Markierungen überlappen. Zum Beispiel kann die Verarbeitungseinrichtung 140 den Projektor 130 anweisen, digitale Markierungen auf die Anzeigefläche 115 zu projizieren.
  • Das vollständige, auf der Anzeigefläche 115 dargestellte Bild kann sowohl aus echter Tinte 35 und virtueller Tinte 40 bestehen. Die echte Tinte 35 umfasst physikalische und digitale Markierungen, die mit der Eingabevorrichtung 200 und andere Kennzeichnungseinrichtungen erzeugt wurden. Die virtuelle Tinte 40 umfasst andere Objekte, die auf die Anzeigefläche 115 projiziert oder auf ihr anderweitig angezeigt werden. Zu diesen anderen Objekten gehören, ohne Einschränkung, eine grafische Benutzeroberfläche oder Fenster einer Anwendung, die auf dem interaktiven System 100 laufen. Die echte Tinte 35 und die virtuelle Tinte 40 können sich überlappen und folglich kann echte Tinte 35 dazu verwendet werden, Objekte in virtueller Tinte 40 mit Anmerkungen zu versehen.
  • 3B zeigen partielle Querschnitt-Seitenansichten der Eingabevorrichtung 200. Wie gezeigt kann die Eingabevorrichtung 200 aus einem Gehäuse 210, einer Nase 218, einem Sensorsystem 220 und einem Kommunikationssystem 230 bestehen.
  • Das Gehäuse 210 kann die Eingabevorrichtung 200 strukturell unterstützen. Das Gehäuse 210 kann, wie gezeigt, aus einer Hülle 211 bestehen, um die inneren Funktionsteile der Eingabevorrichtung 200 aufzunehmen oder das Gehäuse 210 kann alternativ ein im Wesentlichen festes Element zur Halterung der Komponenten der Eingabevorrichtung 200 enthalten. Das Gehäuse 210 kann aus verschiedensten Materialien bestehen. Zum Beispiel kann das Gehäuse 210 aus Kunststoff, Metall, Harz oder einer Kombination daraus bestehen, oder aus vielen Materialien, die den Komponenten oder der gesamten Struktur der Eingabevorrichtung 200 Schutz bieten. Das Gehäuse 210 kann ferner eine Kammer aus Metall enthalten, um einige oder alle empfindlichen elektronischen Komponenten der Eingabevorrichtung 200 elektrisch abzuschirmen. Die Eingabevorrichtung 200 kann entsprechend der Verwendung viele Formen haben. Zum Beispiel kann die Eingabevorrichtung 200 eine längliche Form ähnlich der Form eines herkömmlichen Schreibgerätes haben, wie etwa einem Stift, oder eine dickere Ausführung wie die eines abwischbaren Markers.
  • Das Gehäuse 210 kann ein erstes Ende 212, dem Kopfstück 214 des Gehäuses 210 und ein zweites Ende 216, dem Endstück 219 des Gehäuses 210 haben. Das Kopfstück 214 kann während des Betriebs der Eingabevorrichtung 200 mit erkennbaren Objekten 105 interagieren.
  • Die Nase 218 an der Spitze des Kopfstücks 214 der Eingabevorrichtung 200 kann so ausgerichtet oder eingesetzt werden, dass sie in die Nähe eines Punktes auf der Anzeigefläche 115 oder dem Bedienfeld 120 kommt, diesen berührt oder auf andere Weise auf diesen zeigt. Schreibt zum Beispiel ein Benutzer mit der Eingabevorrichtung 200 auf der Anzeigefläche 115, kann die Nase 218 die Anzeigefläche 115 so berühren, wie die Spitze eines Kugelschreibers ein Stück Papier berühren würde. In einigen Ausführungsformen kann die Nase 218 aus einer Markierspitze, wie der Spitze eines abwischbaren Markers oder Stiftes bestehen, so dass der Kontakt der Nase 218 mit der Anzeigefläche 115 zu physischen Markierungen auf der Anzeigefläche 115 führt. Analog dazu kann der Benutzer ein Aktivierungsobjekt 125 auswählen, indem er die Nase 218 in Kontakt mit dem Aktivierungsobjekt 125 bringt oder ausreichend nahe an dieses heran kommt.
  • Während der Kontakt mit der Anzeigefläche 115 oder dem Bedienfeld 120 eine bequeme Ähnlichkeit zum Schreiben mit einem herkömmlichen Stift oder abwischbaren Marker hat, muss der Kontakt der Nase 218 mit einem erkennbaren Objekt 105 für den Betrieb der Eingabevorrichtung 200 nicht erforderlich sein. Sobald die Eingabevorrichtung 200 aktiviert ist, kann der Benutzer die Eingabevorrichtung 200 beispielsweise in die Nähe des beabsichtigten erkennbaren Objektes 105 halten oder der Benutzer kann auf dieses wie mit einem Laser-Pointer aus der Entfernung zeigen.
  • Das Sensorsystem 220 kann so angepasst werden, dass es Anzeichen für die Stellung der Eingabevorrichtung 200 in Bezug auf erkennbare Objekte 105 erfasst. In einer beispielhaften Ausführungsform des interaktiven Systems 100 können die Anzeigefläche 115 und das Bedienfeld 120 für die Erkennung durch die Eingabevorrichtung 200 als erkennbare Objekte 105 konfiguriert werden, so dass die Eingabevorrichtung 200 seine Stellung relativ zu diesen Komponenten erkennen kann.
  • Die Eingabevorrichtung 200 verfügt über sechs potenzielle Bewegungsgrade. Im zweidimensionalen Koordinatensystem der Anzeigefläche 115 kann sich die Eingabevorrichtung 200 in den horizontalen und vertikalen Richtungen bewegen. Die Eingabevorrichtung 200 kann sich auch normal zur Anzeigefläche 115 bewegen und sich um die Quer-, Längs- und Hochachse drehen. Diese Drehungen werden gemeinhin als Rollen, Gieren beziehungsweise Kippen der Eingabevorrichtung 200 bezeichnet. Der Begriff ”Kippen” bezieht sich in der hier verwendeten Bedeutung auf den Anstellwinkel der Eingabevorrichtung 200 aus der Normalen zur Anzeigefläche 115 und beinhaltet daher Drehungen um die horizontale und vertikale Achse, d. h. das Rollen und Gieren der Eingabevorrichtung 200. Auf der anderen Seite bezieht sich ”Orientierung” in der hier verwendeten Bedeutung auf die Drehung parallel zur Ebene der Anzeigefläche 115 und somit auf Drehungen um die Hochachse, also das Kippen der Eingabevorrichtung 200. Das Sensorsystem 220 kann alle oder viele Kombinationen dieser sechs Bewegungsgrade relativ zu einem erkennbaren Objekt 105 erkennen, beispielsweise durch Erfassen eines Teilausschnittes eines Musters 500 auf einem erkennbaren Objekt 105.
  • Wie aus den Zeichnungen ersichtlich kann das Sensorsystem 220 einen ersten Positionsrückmelder 222 und einen zweiten Positionsrückmelder 224 enthalten. Jeder Positionsrückmelder 222 und 224 kann so eingestellt werden, dass er Anzeichen für die Stellung der Eingabevorrichtung 200 erfasst, einschließlich verschiedener Kombinationen aus Entfernung, Position, Orientierung und Kippen der Eingabevorrichtung 200 in Bezug auf ein erkennbares Objekt 105 innerhalb der Reichweite des Sensorsystems 220. Ferner kann jeder Positionsrückmelder 222 und 224 Daten zur Bestimmung der Stellung der Eingabevorrichtung 200 für sich erkennen oder alternativ diese Daten in Verbindung mit anderen Komponenten, wie z. B. einem anderen Positionsrückmelder, erkennen.
  • Der erste Positionsrückmelder 222 kann ein Oberflächen-Positionsrückmelder zum Erkennen der Lage der Eingabevorrichtung 200 aufgrund der Eigenschaften des erkennbaren Objektes 105 sein. Der Oberflächen-Positionsrückmelder 222 kann zum Beispiel eine Kamera enthalten. Der Oberflächen-Positionsrückmelder 222 kann Teilausschnitte eines Musters 500 (siehe 5C) auf der Anzeigefläche 115 erkennen, wie z. B. ein Punktraster- oder Punktmatrix-Positionscodierungsmuster. Die Erfassung durch den Oberflächen-Positionsrückmelder 222 kann die Anzeige oder das Aufnehmen eines Bildes eines Teilausschnittes des Musters 500 enthalten. In einer alternativen beispielhaften Ausführungsform kann der Oberflächen-Positionsrückmelder 222 auch oder alternativ einen optischen Sensor enthalten, wie er üblicherweise in einer optischen Maus verwendet wird. In diesem Fall kann der Oberflächen-Positionsrückmelder 222 Leuchtdioden und Photodioden oder eine CMOS-Kamera enthalten, um Bewegungen relativ zur Anzeigefläche 115 zu erfassen. Der Oberflächen-Positionsrückmelder 222 kann mit dem Gehäuse 210 der Eingabevorrichtung 200 in Verbindung stehen und verschiedene Positionen und Ausrichtungen in Bezug auf das Gehäuse 210 haben. Zum Beispiel kann der Oberflächen-Positionsrückmelder 222, wie aus den Zeichnungen ersichtlich, im Kopfstück 214 aufgenommen werden. Zusätzlich oder alternativ kann der Oberflächen-Positionsrückmelder 222 auf oder in verschiedenen anderen Abschnitten des Gehäuses 210 untergebracht werden.
  • Der zweite Positionsrückmelder 224 kann ein Berührungssensor sein. Der Berührungssensor 224 kann erkennen, falls die Eingabevorrichtung 200 eine Oberfläche berührt, wie zum Beispiel die Anzeigefläche 115 oder die Oberfläche des Bedienfeldes 120. Der Berührungssensor 224 kann mit dem Gehäuse 210 und zusätzlich mit der Nase 218 in Verbindung stehen. Der Berührungssensor 224 kann zum Beispiel, und nicht als Einschränkung, einen Schalter enthalten, der einen Schaltkreis schließt, wenn ein Teil der Eingabevorrichtung 200, wie die Nase 218, eine Oberfläche mit einem vorbestimmten Druck berührt. Wenn die Eingabevorrichtung 200 die Anzeigefläche 115 oder das Bedienfeld 120 berührt, kann das interaktive System 100 folglich bestimmen, dass eine Operation angezeigt ist.
  • Um die Analyse der durch das Sensorsystem 220 erfassten Daten zu erleichtern, kann die Eingabevorrichtung 200 zusätzlich ein Kommunikationssystem 230 enthalten, das so eingerichtet wurde, dass es Informationen an die Verarbeitungseinrichtung 140 übertragen und Informationen von der Verarbeitungseinrichtung 140 empfangen kann. Wird die Verarbeitung der erfassten Daten beispielsweise von der Verarbeitungseinrichtung 140 durchgeführt, kann das Kommunikationssystem 230 die erfassten Daten an die Verarbeitungseinrichtung 140 zur Verarbeitung übertragen. Das Kommunikationssystem 230 kann zum Beispiel einen Sender, einen Empfänger oder einen Transceiver enthalten. Verschiedenste drahtgebundene oder drahtlose Technologien können durch das Kommunikationssystem 230 implementiert werden. Zum Beispiel kann das Kommunikationssystem 230 die Bluetooth- oder IEEE 802.11b-Technologie implementieren.
  • 4C zeigen eine andere Ausführungsform der Eingabevorrichtung 200. Wie in gezeigt, kann die Eingabevorrichtung 200 zusätzlich zu den oben beschriebenen Funktionen eine Marker-Patrone 250, eine interne Verarbeitungseinheit 260, einen Speicher 265, ein Netzteil 270 oder eine Kombination daraus enthalten. Die verschiedenen Komponenten können ggf. elektrisch gekuppelt werden.
  • Die Marker-Patrone 250 kann bereitgestellt werden, um der Eingabevorrichtung 200 zu ermöglichen, die Anzeigefläche 115 physisch zu beschriften. Die Marker-Patrone 250 oder Tintenpatrone oder das Tintenfass kann eine abwischbare Tinte enthalten, wie z. B. herkömmliche Whiteboard-Marker-Tinte. Die Marker-Patrone 250 kann ein angenehmes, bekanntes Medium zur Erzeugung handgeschriebener Striche auf der Anzeigefläche 115 enthalten, während die Bewegungen der Eingabevorrichtung 200 digitale Markierungen erzeugen.
  • Die interne Verarbeitungseinheit 260 kann so angepasst werden, dass die Lage der Eingabevorrichtung 200, einschließlich der Bestimmung der relativen oder absoluten Position der Eingabevorrichtung 200 im Koordinatensystem der Anzeigefläche 115, aus den vom Sensorsystem 220 empfangen Daten berechnet wird. Die interne Verarbeitungseinheit 260 kann vom Sensorsystem 220 erfasste Daten verarbeiten. Eine solche Verarbeitung kann beispielsweise zu folgenden Bestimmungen führen: Abstand der Eingabevorrichtung 200 von der Anzeigefläche 115; Position der Eingabevorrichtung 200 im Koordinatensystem der Anzeigefläche 115; Roll-, Neige- und Gierbewegungen der Eingabevorrichtung 200 in Bezug auf die Anzeigefläche 115 und dementsprechend das Kippen und die Ausrichtung der Eingabevorrichtung 200.
  • Der Speicher 265 der Eingabevorrichtung 200 kann RAM, ROM oder viele weitere Arten von Speichereinrichtungen enthalten, um Daten oder Software zum Steuern der Eingabevorrichtung 200 oder zum Verarbeiten von Daten zu speichern.
  • Das Netzteil 270 kann die Stromversorgung der Eingabevorrichtung 200 bereitzustellen. Die Eingabevorrichtung 200 kann das Netzteil 270 in beliebigen Positionen aufnehmen. Wenn es sich um ein austauschbares Netzteil 270 handelt, wie beispielsweise eine oder mehrere Batterien, wird das Netzteil 270 vorzugsweise für einen einfachen Zugang positioniert, um das Entfernen und Ersetzen des Netzteils 270 zu erleichtern. Alternativ kann die Eingabevorrichtung 200 an alternative Stromversorgungen gekoppelt werden, wie beispielsweise an einen Adapter zum elektrischen Koppeln der Eingabevorrichtung 200 an eine Autobatterie, eine Steckdose, einen Computer oder vielen andere Netzteile.
  • Mit Rückbezug auf das Sensorsystem 220 kann der, soweit vorhandene, Berührungssensor 224 erkennen, wenn ein bestimmter Teil der Eingabevorrichtung 200, wie die Nase 218, eine Oberfläche berührt, beispielsweise die Anzeigefläche 115 oder das Bedienfeld 120. Beim Berührungssensor 224 kann es sich, wie in dargestellt, um einen Kontaktschalter handeln, der einen Stromkreis schließt, wenn die Nase 218 eine Oberfläche berührt und so anzeigt, dass die Eingabevorrichtung 200 in Kontakt mit einer Oberfläche ist. Der Berührungssensor 224 kann auch ein Kraftsensor sein der anzeigt, ob die Eingabevorrichtung 200 mit leichter oder großer Kraft gegen eine Oberfläche drückt. Das interaktive System 100 kann basierend auf dem Grad der verwendeten Kraft unterschiedlich reagieren. Zum Beispiel kann das interaktive System 100 erkennen, dass die Eingabevorrichtung 200 einen Cursor bewegt, wenn die auf die Anzeigefläche 115 ausgeübte Kraft unter einer bestimmten Schwelle liegt. Liegt dagegen die auf die Anzeigefläche 115 oder auf ein bestimmtes Aktivierungsobjekt 125 ausgeübte Kraft über einer bestimmten Schwelle, z. B. wenn der Benutzer die Eingabevorrichtung 200 gegen das Board drückt, kann das interaktive System 100 eine Auswahl ähnlich einem Mausklick registrieren. Ferner kann das interaktive System 100 die Breite der auf die Anzeigefläche 115 projizierten Markierungen aufgrund der Kraft variieren, mit der die Eingabevorrichtung 200 die Anzeigefläche 115 berührt.
  • Der Oberflächen-Positionsrückmelder 222 kann zum Beispiel einen ergänzenden Metalloxid-Halbleiter(CMOS)-Bildsensor, einen Ladungskoppelelement(CCD)-Bildsensor oder viele andere Arten von Sensoren zum Empfang von Bildinformationen enthalten. Der Oberflächen-Positionsrückmelder 222 kann eine CMOS- oder CCD-Sensor-Matrix mit einer beispielhaften Größe von 128 mal 100, 128 mal 128 oder größer sein. Der Oberflächen-Positionsrückmelder 222 kann Bilder des Musters 500 auf erkennbaren Objekten 105 erfassen, wenn der Stift bewegt wird, und durch Bildanalyse kann das interaktive System 100 die Lage und Bewegung der Eingabevorrichtung 200 in Bezug auf die erfassten erkennbaren Objekte 105 erkennen.
  • Ein erkennbares Objekt 105 kann viele Arten von Bilddaten enthalten, die die relativen oder absoluten Positionen der Eingabevorrichtung 200 im Koordinatensystem des erkennbaren Objektes 105 angeben. Beispielsweise kann das erkennbare Objekt 105 ein bekanntes Bild, eventuell mit alphanumerischen Zeichen, ein Codierungsmuster oder viele erkennbare Bilddaten-Muster enthalten, mit denen relative oder absolute Position angezeigt werden können. Das implementierte Muster kann entweder die Position der Eingabevorrichtung 200 relativ zu einer früheren Position oder absolute Koordinaten angeben.
  • Die Bestimmung eines Punktes auf einem erkennbaren Objekt 105 durch die Eingabevorrichtung 200 kann die Bestimmung der Lage der gesamten Eingabevorrichtung 200 erfordern. Die Lage der Eingabevorrichtung 200 kann die Position, Orientierung, Neigung oder eine Kombination daraus von der Eingabevorrichtung 200 in Bezug auf die Anzeigefläche 115 enthalten. Wenn die Eingabevorrichtung 200 ausreichend nahe an einem erkennbaren Objekt 105 ist kann es ausreichen, lediglich die Position der Eingabevorrichtung 200 im zweidimensionalen Koordinatensystem der Oberfläche des erkennbaren Objektes 105 zu bestimmen. Wenn die Eingabevorrichtung 200 weiter entfernt ist, wie z. B. beim Zeigen auf etwas quer durch den Raum, kann die Ausrichtung und Neigung der Eingabevorrichtung 200 notwendig sein, um einen angezeigten Punkt auf einem erkennbaren Objekt 105 zu bestimmen.
  • Verschiedene Erkennungssysteme können in der Eingabevorrichtung 200 zum Erfassen der Lage der Eingabevorrichtung 200 bereitgestellt werden. Zum Beispiel kann ein Neigungs-Erkennungssystem 290 in der Eingabevorrichtung 200 bereitgestellt werden, um den Neigungswinkel und die Neigungsrichtung der Eingabevorrichtung 200 in Bezug auf das erkennbare Objekt 105 zu erkennen. Ein Orientierung-Erkennungssystem 292 kann implementiert werden, um Drehung der Eingabevorrichtung 200 im Koordinatensystem des erkennbaren Objektes 105 zu erkennen. Außerdem kann ein Abstand-Erkennungssystem 294 vorgesehen werden, um den Abstand der Eingabevorrichtung 200 vom erkennbaren Objekt 105 zu erkennen.
  • Diese Erkennungssysteme 290, 292 und 294 können in das Sensorsystem 220 eingebaut werden. Zum Beispiel kann die Position, Neigung, Orientierung und der Abstand der Eingabevorrichtung 200 in Bezug auf die Anzeigefläche 115 bzw. durch die Position, Schrägstellung, Drehung und scheinbare Größe des Musters 500 auf dem erkennbaren Objekt 105 aus Sicht des Oberflächen-Positionsrückmelder 222 bestimmt werden. Zum Beispiel zeigen 5C verschiedene Ansichten eines beispielhaften Punktmusters 500 auf einem erkennbaren Objekt 105, wie beispielsweise der Anzeigefläche 115 des Bedienfeldes 120. Das Punktmuster 500 dient als Positionscodierungsmuster im interaktiven System 100.
  • zeigt ein Bild eines beispielhaften Positionscodierungsmusters 500, das als Punktmuster betrachtet wird. Es ist bekannt, dass bestimmte Punktmuster Hinweise auf absolute Koordinaten geben und folglich spezifische Punkte auf der Anzeigefläche 115 oder spezifischen Aktivierungsobjekten 125 anzeigen. In der wird das Punktmuster 500 aus dem Normalwinkel zum erkennbaren Objekt 105 betrachtet. So könnte das Punktmuster 500 für den Oberflächen-Positionsrückmelder 222 erscheinen, wenn der Oberflächen-Positionsrückmelder 222 im normalen Winkel auf das erkennbare Objekt 105 gerichtet wird. Im Bild erscheint das Punktmuster 500 in gerader Ausrichtung und ist zum Oberflächen-Positionsrückmelder 222 nicht abgewinkelt. Wenn der Oberflächen-Positionsrückmelder 222 ein solches Bild erfasst, kann das interaktive System 100 deshalb bestimmen, dass die Eingabevorrichtung 200 normal zum erkennbaren Objekt 105 steht und daher in etwa direkt auf das erkennbare Objekt 105 zeigt.
  • Je weiter die Eingabevorrichtung 200 vom erkennbaren Objekt 105 entfernt ist, umso mehr nimmt die Größe der Punkte und der Abstand zwischen den Punkten im erfassten Bild ab. Analog gilt, je näher die Eingabevorrichtung 200 an das erkennbare Objekt 105 heran kommt, umso mehr nimmt die Größe der Punkte und der Abstand zwischen den Punkten im erfassten Bild zu. Neben dem Erfassen der Neigung und Orientierung der Eingabevorrichtung 200 kann der Oberflächen-Positionsrückmelder 222 deshalb die Entfernung der Eingabevorrichtung 200 vom erkennbaren Objekt 105 erkennen.
  • zeigt ein gedrehtes Bild des Punktemusters 500. Ein gedrehtes Punktmuster 500 zeigt an, dass die Eingabevorrichtung 200 um die Hochachse des erkennbaren Objektes 105 gedreht ist. Wird ein erfasstes Bild des Punktmuster 500 im Winkel von 30 Grad im Uhrzeigersinn gedreht darstellt, so kann beispielsweise bestimmt werden, dass die Eingabevorrichtung 200 im Winkel von 30 Grad im Gegenuhrzeigersinn ausgerichtet ist. Wie im Bild der wurde dieses Bild mit dem Oberflächen-Positionsrückmelder 222 in normaler Ausrichtung zum erkennbaren Objekt 105 aufgenommen und obwohl die Eingabevorrichtung 200 gedreht ist, zeigt die Eingabevorrichtung 200 nach wie vor in etwa direkt auf das erkennbare Objekt 105.
  • zeigt ein drittes Bild des Punktmusters 500 aus der Sicht des Oberflächen-Positionsrückmelders 222. Das geglättete Bild zeigt Punkte, die vom Oberflächen-Positionsrückmelder 222 weg geneigt sind und anzeigen, dass der Oberflächen-Positionsrückmelder 222 nicht normal zum erkennbaren Objekt 105 ausgerichtet ist. Die Drehung des Punktmusters 500 zeigt weiter an, dass die Eingabevorrichtung 200 auch um die Hochachse des erkennbaren Objektes 105 gedreht ist. Das Bild kann analysiert werden, um den Neigungswinkel, die Richtung als auch den Orientierungswinkel zu bestimmen. Zum Beispiel kann festgestellt werden, dass die Eingabevorrichtung 200 um 45 Grad nach unten geneigt und dann um 25 Grad gedreht wurde. Diese Winkel bestimmen, auf welchen Punkt auf dem erkennbaren Objekt 105 die Eingabevorrichtung 200 gerichtet ist.
  • Dementsprechend kann das interaktive System 100 Punkte durch die Bestimmung der Winkel, unter denen ein Bild vom Oberflächen-Positionsrückmelder 222 aufgenommen wurde bestimmen, die von der Eingabevorrichtung 200 angezeigt werden.
  • zeigt die Verwendung der Eingabevorrichtung 200 in Verbindung mit einer Anzeigefläche 115 gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung. Zu jedem Zeitpunkt kann die Anzeigefläche 115 ein von der Verarbeitungseinrichtung 140 kommuniziertes Bild anzeigen. Wenn ein Projektor 130 vorhanden ist, kann ein Teil eines solchen Bildes von der Verarbeitungseinrichtung 140 an den Projektor 130 kommuniziert werden und dann durch den Projektor 130 auf die Anzeigefläche 115 projiziert werden. Zur Bildschirmanzeige können echte Tinte 35, wie z. B. von der Eingabevorrichtung 200 erzeugte physische und digitale Markierungen, sowie virtuelle Tinte 40 gehören.
  • In einer beispielhaften Ausführungsform kann ein Benutzer 90 weitere Markierung auslösen, indem ein Teil der Eingabevorrichtung 200 in ausreichende Nähe zur Anzeigefläche 115 oder indem ein Teil der Eingabevorrichtung 200 in Kontakt mit der Anzeigefläche 115 gebracht wird. Um die Anzeigefläche 115 im Markiermodus zu beschriften, kann der Benutzer 90 das Eingabegerät 200 entlang der Anzeigefläche 115 bewegen. Diese Bewegung kann echte Tinte 35 erzeugen und digital als auch physisch auf der Anzeigefläche 115 dargestellt werden. Alternativ kann die Bewegung der Eingabevorrichtung 200 entlang der Anzeigefläche 115 beispielsweise die Bewegung eines Cursors bewirken. Eine derartige Bewegung kann der Bewegung eines Mauszeigers über eine grafische Benutzeroberfläche eines PCs ähneln.
  • Während sich die Eingabevorrichtung 200 entlang der Anzeigefläche 115 bewegt, erfasst das Sensorsystem 220 kontinuierlich oder periodisch Daten, die die Veränderung der Lage der Eingabevorrichtung 200 in Bezug auf die Anzeigefläche 115 anzeigen. Diese Daten werden dann vom interaktiven System 100 verarbeitet. In einer Ausführungsform verarbeitet die interne Verarbeitungseinheit 260 der Eingabevorrichtung 200 diese Daten. In einer weiteren Ausführungsform werden die Daten vom Kommunikationssystem 230 der Eingabevorrichtung 200 an die Verarbeitungseinrichtung 140 übertragen und diese Daten werden dann von der Verarbeitungseinrichtung 140 verarbeitet. Die Verarbeitung dieser Daten kann zur Bestimmung der Lage der Eingabevorrichtung 200 und daher zur Bestimmung von Abschnitten der Anzeigefläche 115 führen, in denen operativ gehandelt werden soll. Erfolgt eine Verarbeitung in der internen Verarbeitungseinheit 260 der Eingabevorrichtung 200, werden die Ergebnisse vom Kommunikationssystem 230 an die Verarbeitungseinrichtung 140 übertragen.
  • Basierend auf der Bestimmung der relevanten Variablen kann die Verarbeitungseinrichtung 140 ein überarbeitetes Bild auf der Anzeigefläche 115 anzeigen. Im Markiermodus kann das revidierte Bild nicht nur bestimmte Markierungen enthalten, die vorher noch nicht angezeigt wurden, sondern auch von der Eingabevorrichtung 200 neu erzeugte Markierungen. Alternativ dazu kann das revidierte Bild das gleiche wie das vorherige Bild sein, kann aber aufgrund zusätzlicher physischer Markierungen unterschiedlich erscheinen. Derartige physische Markierungen werden von der Verarbeitungseinrichtung 140 erfasst, obwohl sie nicht notwendigerweise auf die Anzeigefläche 115 projiziert werden.
  • Im Zeigemodus kann das revidierte Bild beispielsweise die aktualisierte Platzierung des Cursors enthalten. Die Anzeigefläche 115 wird dann aktualisiert, wozu die Verarbeitungseinrichtung 140 das überarbeitete Bild an den optionalen Projektor 130 kommunizieren könnte. Dementsprechend können über die Eingabevorrichtung 200 angezeigte Operationen und digitale Markierungen durch das interaktive System 100 angezeigt werden. In einer Ausführungsform geschieht dies in Echtzeit.
  • zeigt die Verwendung der Eingabevorrichtung 200 in Verbindung mit einem Bedienfeld 120 gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung. Der Benutzer 90 kann eine Aktivität einleiten, indem er ein Aktivierungsobjekt 125 auf dem Bedienfeld 120 auswählt. Eine solche Auswahl kann zum Beispiel durchgeführt werden, indem der Benutzer das gewünschte Aktivierungsobjekt 125 mit der Nase 218 der Eingabevorrichtung 200 berührt oder indem der Benutzer mit der Eingabevorrichtung 200 auf das Aktivierungsobjekt 125 zeigt.
  • Die Eingabevorrichtung 200 kann Daten, wie etwa Bilddaten, kontinuierlich oder periodisch erfassen, die die Veränderung der Lage der Eingabevorrichtung 200 in Bezug auf alle für das Sensorsystem 220 sichtbaren erkennbaren Objekte 105 anzeigen. Wenn der Benutzer 90 das gewünschte Aktivierungsobjekt 125 auswählt, kann die Eingabevorrichtung 200 einen Ausschnitt des Musters 500 auf dem ausgewählten Aktivierungsobjekt 125 erfassen. In einigen beispielhaften Ausführungsformen kann das interaktive System 100 dann die absoluten Koordinaten entsprechend dem erfassten Bild des Musters 500 berechnen. Da sich die Ausschnitte des Musters 500 auf jedem Aktivierungsobjekt 125 vom Ausschnitt des Musters 500 auf der Anzeigefläche 115 unterscheiden, kann das interaktive System 100 die berechneten Koordinaten des erfassten Bildes zu einem bestimmten Aktivierungsobjekt 125 abbilden. Nachdem das ausgewählte Aktivierungsobjekt 125 erkannt wurde, kann das interaktive System 100 die dem ausgewählten Aktivierungsobjekt 125 entsprechende Aktivität durchführen.
  • Zum Beispiel kann der Benutzer 90 ein Aktivierungsobjekt 125h entsprechend einer Anforderung auswählen, die Eingangsquelle des Projektors 130 zu ändern. Wenn der Benutzer 90 das Aktivierungsobjekt 125 mit der Eingabevorrichtung 200 berührt oder mit der Eingabevorrichtung 200 nahe genug auf das Aktivierungsobjekt 125 zeigt, kann das interaktive System 100 die Auswahl und Identität des Aktivierungsobjektes 125 erkennen. Wie oben ausgeführt kann diese Auswahl in einigen Ausführungsformen stattfinden, wenn die Eingabevorrichtung 200 das Bild eines lokalen Abschnittes eines Musters 500 auf der Oberfläche eines Aktivierungsobjektes 125 erfasst. Dieses Bild kann an die Verarbeitungseinrichtung 140 übertragen werden, die das Bild in absolute Koordinaten auflösen und diese absoluten Koordinaten als ausgewählten Aktivierungsobjekten 125 entsprechend identifizieren kann.
  • Nach Erfassung der Auswahl des Aktivierungsobjektes 125 und Identifizierung des bestimmten ausgewählten Aktivierungsobjektes 125 kann das interaktive System 100 die dem Aktivierungsobjekt 125 entsprechende Aktivität durchführen, in diesem Beispiel die Änderung der Eingangsquelle des Projektors 130. Die Verarbeitungseinrichtung 140 kann ein Signal an den Projektor übertragen, das den Projektor 130 anweist, die Eingangsquelle zu ändern. Dementsprechend kann die dem ausgewählten Aktivierungsobjekt 125 entsprechende Aktion in Reaktion auf die Auswahl eines Aktivierungsobjektes 125 durch den Benutzer durchgeführt werden.
  • Obwohl verschiedene Ausführungsformen des interaktiven Systems in beispielhafter Form dargelegt wurden, können viele Modifikationen, Ergänzungen und Löschungen vorgenommen werden, ohne vom Geist und Umfang der Erfindung sowie seinen Äquivalente entsprechend den Patentansprüchen abzuweichen, die in einer späteren Patentanmeldung dargelegt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • IEEE 802.11b-Technologie [0056]

Claims (26)

  1. Präsentationssystem bestehend aus: eine Verarbeitungsvorrichtung; eine oder mehrere Aktivierungsobjekte, wobei jedes Objekt ein entsprechendes Positionscodierungsmuster umfasst und jedes Aktivierungsobjekt einer entsprechenden Aktivität zugeordnet ist; und ein Erkennungssystem, das so eingerichtet ist, dass es ein Positionscodierungsmuster auf einem Aktivierungsobjekt erkennt, das mit einer Eingabevorrichtung interagiert und die Auswahl eines ersten Aktivierungsobjektes aufgrund eines ersten Positionscodierungsmusters erkennt, das einem ersten Aktivierungsobjekt entspricht; die Verarbeitungseinrichtung ferner so konfiguriert ist, um eine oder mehrere Instruktionen zur Durchführung einer Tätigkeit entsprechend dem ersten Aktivierungsobjekt in Reaktion auf die Auswahl des ersten Aktivierungsobjektes an ein oder mehrere Peripheriegeräte zu übertragen.
  2. Präsentationssystem nach Anspruch 1 mit einer Verarbeitungseinrichtung oder einer Eingabevorrichtung, die so konfiguriert sind, um das erste Positionscodierungsmuster einer oder mehreren Koordinate(n) zuzuordnen.
  3. Präsentationssystem nach Anspruch 1 mit einer Verarbeitungseinrichtung, die so konfiguriert ist, um Hinweise vom ersten Aktivierungsobjekt von der Eingabevorrichtung zu empfangen.
  4. Präsentationssystem nach Anspruch 3 mit einer Eingabevorrichtung mit einem Bilderfassungsgerät zum Erfassen eines Bildes von zumindest einem Teil des Positionscodierungsmusters auf dem ersten Aktivierungsobjekt.
  5. Präsentationssystem nach Anspruch REF_Ref296005794\r\h 4 mit einer Verarbeitungseinrichtung oder einer Eingabevorrichtung, die so konfiguriert ist, einen Teilausschnitt des Positionscodierungsmusters einem ersten Aktivierungsobjekt zuzuordnen.
  6. Präsentationssystem nach Anspruch 3 mit einer in die Eingabevorrichtung integrierten Verarbeitungseinrichtung.
  7. Präsentationssystem nach Anspruch 1 enthält ferner: eine Anzeigevorrichtung mit einer Anzeigefläche; und einen Projektor zum Projizieren eines Bildes auf der Anzeigefläche; wobei das erste Aktivierungsobjekt einem Befehl entspricht, eine oder mehrere Einstellungen des Projektors zu verändern und die Verarbeitungseinrichtung ein Signal an den Projektor als Reaktion auf die Auswahl des ersten Aktivierungsobjektes überträgt.
  8. Präsentationssystem nach Anspruch 7, wobei das erste Aktivierungsobjekt einem Befehl zum Einschalten des Projektors entspricht.
  9. Präsentationssystem nach Anspruch 1 mit einer weiteren Anzeigefläche, wobei diese Anzeigefläche mit einem zweiten Positionscodierungsmuster ausgestattet ist und das Erfassungssystem ferner so konfiguriert ist, um zwischen Interaktionen zwischen der Eingabevorrichtung und der Anzeigefläche und Interaktionen zwischen der Eingabevorrichtung und den Aktivierungsobjekten zu unterscheiden.
  10. Präsentationssystem nach Anspruch 9, wobei das Erkennungssystem so konfiguriert ist, um die Koordinaten auf der Anzeigefläche aufgrund der Erfassung des zweiten Positionscodierungsmusters zu erkennen, an dem eine Wechselwirkung zwischen der Eingabevorrichtung und der Anzeigefläche stattfindet.
  11. Präsentationssystem nach Anspruch 9, wobei die Aktivierungsobjekte an der Anzeigefläche lösbar angebracht sind.
  12. Präsentationssystem nach Anspruch 9, wobei die Aktivierungsobjekte in die Anzeigevorrichtung integriert sind.
  13. Präsentationssystem nach Anspruch 1, wobei mindestens ein Peripheriegerät zu einer Einheit gehört, die aus einem Projektor, einem Audiosystem, einem Beleuchtungssystem, Heizung, Lüftung und Klimatisierung, einem Disc-Player und einer automatisierten Projektorleinwand besteht.
  14. Präsentationssystem nach Anspruch 1, wobei das erste Positionscodierungsmuster aus einem Muster von Punkten besteht.
  15. Präsentationssystem bestehend aus: einer Anzeigevorrichtung mit einer Anzeigefläche mit einem ersten Positionscodierungsmuster; einem Peripheriegerät; einem Aktivierungsobjekt mit einem zweiten Positionscodierungsmuster, wobei das Aktivierungsobjekt mit einem ersten Befehl in Bezug auf das Peripheriegerät verknüpft ist; eine Eingabeeinrichtung zum Erfassen eines lokalen Positionscodierungsmusters, die die aktuelle Stellung der Eingabeeinrichtung in Bezug auf einen Gegenstand anzeigt, der ein lokales Positionscodierungsmuster enthält; und einem Verarbeitungssystem, das so konfiguriert ist, um Anzeichen der aktuellen Lage der Eingabevorrichtung zu empfangen und, wenn diese Anzeichen die Auswahl eines Aktivierungsobjektes anzeigen, einen Befehl an das Peripheriegerät zu übertragen, um den ersten Befehl auszuführen.
  16. Präsentationssystem nach Anspruch 15, wobei das Verarbeitungssystem extern zur Eingabeeinrichtung angeordnet ist.
  17. Präsentationssystem nach Anspruch 15 mit einer Eingabevorrichtung bestehend aus Bildaufnahmeeinrichtung zum Erfassen eines oder mehrerer Bilder des lokalen Positionscodierungsmusters.
  18. Präsentationssystem nach Anspruch 15, wobei das Aktivierungsobjekt ein nicht-projiziertes Objekt darstellt.
  19. Präsentationssystem nach Anspruch 15, wobei das Aktivierungsobjekt ein greifbares Objekt darstellt.
  20. Verfahren bestehend aus: einem oder mehreren Aktivierungsobjekten und einem oder mehreren Positionscodierungsmustern, wobei jedes Aktivierungsobjekt ein entsprechendes Positionscodierungsmuster besitzt und jedes Aktivierungsobjekt einem entsprechenden Befehl in Bezug auf ein oder mehrere Hardware-Geräte zugeordnet ist; dem Erfassen der Lage einer Eingabeeinrichtung bezüglich den Aktivierungsobjekten aufgrund der Erfassung von mindestens einem der Positionscodierungsmuster; dem Erkennen der Auswahl eines ersten Aktivierungsobjektes aufgrund der Lage der Eingabevorrichtung; und dem Übertragen einer Anweisung an mindestens ein Hardware-Gerät, den dem ersten Aktivierungsobjekt zugeordneten Befehl in Reaktion auf die Auswahl des ersten Aktivierungsobjektes auszuführen.
  21. Verfahren nach Anspruch 20, wobei das Erfassen der Lage der Eingabeeinrichtung in Bezug auf ein Aktivierungsobjekt aus dem Erfassen eines Bildes von mindestens einem Positionscodierungsmuster besteht.
  22. Verfahren nach Anspruch 20, wobei das Aktivierungsobjekt ein greifbares Objekt darstellt.
  23. Verfahren nach Anspruch 22, wobei die Übertragung des Befehls an mindestens ein Hardware-Gerät aus der Übertragung eines Befehls an einen Projektor besteht, den Projektor einzuschalten.
  24. Verfahren nach Anspruch 20, wobei die Übertragung des Befehls an mindestens ein Hardware-Gerät aus der Übertragung eines Befehls an mindestens ein Gerät der Gruppe bestehend aus einem Projektor, einem Audiosystem, einem Beleuchtungssystem, Heizung, Lüftung und Klimatisierung, einem Disc-Player und einer automatisierten Projektorleinwand besteht.
  25. Verfahren nach Anspruch 20 beseht ferner aus dem Bereitstellen einer Anzeigevorrichtung mit einer Anzeigefläche mit einem entsprechenden Positionscodierungsmuster.
  26. Verfahren nach Anspruch 25 besteht ferner aus der Bestimmung, auf welche Anzeigefläche und welches erste Aktivierungsobjekt die Eingabevorrichtung gerichtet ist.
DE112011102140T 2010-06-25 2011-06-24 Aktivierungsobjekte für interaktive Systeme Withdrawn DE112011102140T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US35880010P 2010-06-25 2010-06-25
US61/358,800 2010-06-25
PCT/US2011/041844 WO2011163601A1 (en) 2010-06-25 2011-06-24 Activation objects for interactive systems

Publications (1)

Publication Number Publication Date
DE112011102140T5 true DE112011102140T5 (de) 2013-03-28

Family

ID=44585018

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112011102140T Withdrawn DE112011102140T5 (de) 2010-06-25 2011-06-24 Aktivierungsobjekte für interaktive Systeme

Country Status (7)

Country Link
US (1) US20120162061A1 (de)
JP (1) JP2013535066A (de)
CN (1) CN103201709A (de)
CA (1) CA2803889A1 (de)
DE (1) DE112011102140T5 (de)
GB (1) GB2496772A (de)
WO (1) WO2011163601A1 (de)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103713775A (zh) * 2012-09-29 2014-04-09 网奕资讯科技股份有限公司 互动式电子白板的具多重物件影像撷取及编排模式
JP2015102896A (ja) * 2013-11-21 2015-06-04 株式会社リコー 表示制御装置、表示制御システム、及び画像処理プログラム
US9830723B2 (en) * 2013-12-02 2017-11-28 Seiko Epson Corporation Both-direction display method and both-direction display apparatus
CN103729096A (zh) * 2013-12-25 2014-04-16 京东方科技集团股份有限公司 交互识别系统以及显示装置
WO2016036370A1 (en) * 2014-09-04 2016-03-10 Hewlett-Packard Development Company, L.P. Projection alignment
KR102649009B1 (ko) * 2016-12-20 2024-03-20 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
CN107817992A (zh) * 2017-10-26 2018-03-20 四川云玦科技有限公司 一种通用设备控制的实现方法
CN107765593A (zh) * 2017-10-26 2018-03-06 四川云玦科技有限公司 一种通用设备控制的实现系统
CN111556989A (zh) * 2018-02-23 2020-08-18 株式会社和冠 电子笔及电子笔主体部
US11190568B2 (en) * 2019-01-09 2021-11-30 Bose Corporation Multimedia communication encoding system
CN110413108B (zh) * 2019-06-28 2023-09-01 广东虚拟现实科技有限公司 虚拟画面的处理方法、装置、系统、电子设备及存储介质

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9513744B2 (en) * 1994-08-15 2016-12-06 Apple Inc. Control systems employing novel physical controls and touch screens
KR0149263B1 (ko) * 1995-03-31 1998-10-15 김광호 프린터를 일체화한 컴퓨터장치와 그의 전원관리 및 제어방법
US5790114A (en) * 1996-10-04 1998-08-04 Microtouch Systems, Inc. Electronic whiteboard with multi-functional user interface
EP2104055B1 (de) * 1999-08-30 2013-07-03 Anoto AB Informationsverwaltungssystem
US20080122799A1 (en) * 2001-02-22 2008-05-29 Pryor Timothy R Human interfaces for vehicles, homes, and other applications
US6999622B2 (en) * 2000-03-31 2006-02-14 Brother Kogyo Kabushiki Kaisha Stroke data editing device
US20010038383A1 (en) * 2000-04-05 2001-11-08 Petter Ericson Method and apparatus for information management
KR100552018B1 (ko) * 2000-11-25 2006-02-20 실버브룩 리서치 피티와이 리미티드 방향 감지 장치
SE0102287L (sv) * 2001-06-26 2002-12-27 Anoto Ab Elektronisk penna, monteringsstycke därtill samt sätt att framställa pennan
SE0102253L (sv) * 2001-06-26 2002-12-27 Anoto Ab Läspenna
US20030056133A1 (en) * 2001-09-20 2003-03-20 Talley Christopher Leon Printer wake up icon apparatus and method
EP1306735A1 (de) * 2001-10-25 2003-05-02 ABB Installationen AG Steuerung für einen Besprechungsraum
TWI235926B (en) * 2002-01-11 2005-07-11 Sonix Technology Co Ltd A method for producing indicators and processing system, coordinate positioning system and electronic book system utilizing the indicators
US7343042B2 (en) * 2002-09-30 2008-03-11 Pitney Bowes Inc. Method and system for identifying a paper form using a digital pen
US20040246236A1 (en) * 2003-06-02 2004-12-09 Greensteel, Inc. Remote control for electronic whiteboard
CN101401059B (zh) * 2006-03-10 2012-08-15 吉田健治 信息处理装置的输入处理系统
JP4042065B1 (ja) * 2006-03-10 2008-02-06 健治 吉田 情報処理装置への入力処理システム
JP2009545786A (ja) * 2006-06-16 2009-12-24 ケタブ・テクノロジーズ・リミテッド インタラクティブな位置コード化パターンがプリントされたホワイトボード
CN101816186B (zh) * 2007-10-05 2013-05-22 吉田健治 能读取在媒体以及显示器上形成的点阵图形的遥控装置
US20110188071A1 (en) * 2007-12-12 2011-08-04 Kenji Yoshida Information input device, information processing device, information input system, information processing system, two-dimensional format information server, information input method, control program, and recording medium
JP2009289247A (ja) * 2008-05-30 2009-12-10 Plus Vision Corp 筆記記録システム、筆記用シート体、及び筆記情報の処理システム
US20090309854A1 (en) * 2008-06-13 2009-12-17 Polyvision Corporation Input devices with multiple operating modes

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
IEEE 802.11b-Technologie

Also Published As

Publication number Publication date
WO2011163601A1 (en) 2011-12-29
JP2013535066A (ja) 2013-09-09
GB2496772A (en) 2013-05-22
CA2803889A1 (en) 2011-12-29
GB201300571D0 (en) 2013-02-27
US20120162061A1 (en) 2012-06-28
CN103201709A (zh) 2013-07-10

Similar Documents

Publication Publication Date Title
DE112011102140T5 (de) Aktivierungsobjekte für interaktive Systeme
US6760009B2 (en) Coordinate position inputting/detecting device, a method for inputting/detecting the coordinate position, and a display board system
CN101404152B (zh) 信息显示装置
US8591039B2 (en) Image projection methods and interactive input/projection systems employing the same
DE19525644C2 (de) Vorrichtung zur Eingabe von Daten in einen Computer
DE102008063354B4 (de) Selektive Zurückweisung von Berührungskontakten in einem Kantenbereich einer Berührungsoberfläche
DE112010002760B4 (de) Benutzerschnittstelle
DE102018116244A1 (de) Verformbares elektrisches Gerät und Verfahren und Systeme zum Steuern der verformten Benutzerschnittstelle
DE202017105262U1 (de) Erzeugen virtueller Notationsoberflächen mit Gesten in einer erweiterten und/oder virtuellen Realitätsumgebung
JP5240653B2 (ja) 電子ペン・システム、端末装置及びそのプログラム
DE112015002463T5 (de) Systeme und Verfahren zum gestischen Interagieren in einer im Umfeld vorhandenen Computerumgebung
DE102010038655A1 (de) Verfahren und Vorrichtung für das Zoomen mit einer einzigen Berührung unter Verwendung einer Spiraldrehung
DE112012006199T5 (de) Virtuelle Hand basierend auf kombinierten Daten
DE212007000046U1 (de) Betriebssteuerung und Datenverarbeitung in einem elektronischen Stift
KR101176104B1 (ko) 광학인식펜을 이용한 인터랙티브 전자 칠판 시스템 및 운영 방법
CN110489027B (zh) 手持输入设备及其指示图标的显示位置控制方法和装置
JP2006527539A (ja) 電子白板の遠隔制御
DE69919759T2 (de) Verfahren zum digitalisieren, schreiben und zeichnen mit möglichkeit zum löschen und/oder hinweisen
DE102019200287A1 (de) Bildmessgerät und computerlesbares Medium
EP1133752A1 (de) Eingabevorrichtung für einen computer
EP3642699A1 (de) Elektronisches gerät zur erzeugung analoger abstriche und zur digitalen speicherung der analogen abstriche, sowie eingabesystem und verfahren zur digitalisierung analoger aufzeichnungen
WO2013161246A1 (ja) 表示制御システム、表示装置及び表示パネル
DE102013216152A1 (de) Ultraschallkopf mit Steuerungseinrichtung sowie Verfahren zur Steuerung eines Ultraschallgeräts
DE102005017936A1 (de) Fluidisches Peripherie-Eingabegerät für eine elektronische Datenverarbeitungsvorrichtung
CN102156580B (zh) 一种触摸屏的触摸方法及系统

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: LORENZ SEIDLER GOSSEL RECHTSANWAELTE PATENTANW, DE

Representative=s name: RECHTS- UND PATENTANWAELTE LORENZ SEIDLER GOSS, DE

R083 Amendment of/additions to inventor(s)
R083 Amendment of/additions to inventor(s)
R082 Change of representative

Representative=s name: LORENZ SEIDLER GOSSEL RECHTSANWAELTE PATENTANW, DE

R081 Change of applicant/patentee

Owner name: STEELCASE INC., GRAND RAPIDS, US

Free format text: FORMER OWNER: POLYVISION CORPORATION, SUWANEE, GA., US

Effective date: 20140625

Owner name: STEELCASE INC., GRAND RAPIDS, US

Free format text: FORMER OWNER: POLYVISION CORP., SUWANEE, GA., US

Effective date: 20130206

R082 Change of representative

Representative=s name: LORENZ SEIDLER GOSSEL RECHTSANWAELTE PATENTANW, DE

Effective date: 20130206

Representative=s name: LORENZ SEIDLER GOSSEL RECHTSANWAELTE PATENTANW, DE

Effective date: 20140625

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee