DE69526779T2 - Vorrichtung und Verfahren zur Detektion einer angezeigten Position - Google Patents
Vorrichtung und Verfahren zur Detektion einer angezeigten PositionInfo
- Publication number
- DE69526779T2 DE69526779T2 DE69526779T DE69526779T DE69526779T2 DE 69526779 T2 DE69526779 T2 DE 69526779T2 DE 69526779 T DE69526779 T DE 69526779T DE 69526779 T DE69526779 T DE 69526779T DE 69526779 T2 DE69526779 T2 DE 69526779T2
- Authority
- DE
- Germany
- Prior art keywords
- image
- detecting
- changed
- visible image
- displayed position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 71
- 238000001514 detection method Methods 0.000 claims description 23
- 238000004590 computer program Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 31
- 230000003287 optical effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
- G06F3/0386—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry for light pen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Description
- Diese Erfindung bezieht sich auf eine Vorrichtung zur Detektion einer angezeigten Position und auf ein Verfahren zur Detektion einer angezeigten Position in einem angezeigten Bild, das ein Anwender bestimmt.
- Ein bekanntes Verfahren zum Darstellen oder dergleichen verwendet einen Digitalumsetzer als eine Projektionstafel, auf die ein Bild projiziert wird. Insbesondere wird ein Bild auf einem großflächigen Grafiktablett projiziert, und ein Zeigestab wird direkt nahe oder in Kontakt gebracht mit dem projizierten Bild (das heißt, Koordinateneingabefläche des Grafiktabletts). Dann werden die vom Grafiktablett bestimmten Koordinaten gelesen, und die Bestimmung wird auf einem Projektor wiedergegeben.
- Die herkömmliche Technik leidet jedoch unter folgenden Problemen:
- (1) Das Grafiktablett, das als Bildschirm zur Projektion von Bildern verwendet wird, muß groß sein. Dies verringert die Beweglichkeit.
- (2) Das Grafiktablett selbst erfordert einen Feststellmechanismus, wie einen elektromagnetischen Induktionsdetektor und einen Druckdetektor. Dadurch kann kein großes Grafiktablett bei geringen Kosten geschaffen werden.
- (3) Die Größe der Projektionsoberfläche wird bestimmt durch die Größe des Grafiktabletts. Dies kann den Projektor nicht entsprechend des Umfangs des Darstellplatzes installieren und ist unpraktikabel.
- Das Dokument US-A-5 138 304 lehrt eine Fleckerzeugung auf einem lichtprojizierten Bild unter Verwendung eines Lichtstiftes und zum Vergleich der Kombination des projizierten Bildes und dem Lichtfleck auf einem Videobild, aus dem das projizierte Bild geschaffen wird. Die Position des Flecks wird somit bestimmt. Jedoch leidet die Lehre dieses Dokuments an dem Nachteil, daß ein Abschnitt des sichtbaren Bildes, bestimmt vom Zeigestab, nicht korrekt bestimmbar ist.
- Das Dokument EP-A-0 613 079 lehrt, eine Oberfläche zu überwachen, bei der vorbestimmte Codebereiche festgelegt sind unter Verwendung einer Fernsehkamera, um so zu bestimmen, ob der vorbestimmte Codebereich bestimmt ist. Zu diesem Zwecke beurteilt der Stand der Technik durch Analysieren des Videosignals aus der Fernsehkamera, daß ein jeweiliger Codebereich wenigstens eine gewisse Zeit lang verdunkelt ist.
- Das Dokument EP-A-0 535 988 lehrt, Helligkeitsdaten aus einem Bild einer Eingabebedieneinheit zu gewinnen unter Verwendung einer Fernsehkamera und Auslesen der Helligkeitsdaten gemäß Markierzonen, um so zu beurteilen, daß die Markierzonen bedient werden.
- Die Dokumente EP-A-0 613 079 und EP-A-0 535 988 offenbaren jedoch lediglich die Beurteilung, ob in einer vorbestimmten Zone eine Änderung stattgefunden hat.
- Die vorliegende Erfindung ist in Hinsicht auf die obigen Probleme entstanden und hat zur Aufgabe, eine Vorrichtung zur Detektion einer angezeigten Position zu schaffen sowie ein Verfahren zur Detektion einer angezeigten Position, wobei kein Grafiktablett als Bildschirm Anwendung findet, wodurch eine Beweglichkeit bereitgestellt wird, obwohl ein großflächiger Bildschirm einsetzbar ist.
- Eine andere Aufgabe der vorliegenden Erfindung ist es, eine Vorrichtung und ein Verfahren zur Detektion einer angezeigten Position zu schaffen, die keinen Bildschirm mit einer speziellen Feststellfunktion erfordert, obwohl diese anwendbar ist bei großflächiger Projektionsoberfläche, womit die Kosten verringert werden.
- Eine weitere Aufgabe der vorliegenden Erfindung ist es, eine Vorrichtung und ein Verfahren zur Detektion einer angezeigten Position zu schaffen, mit der leicht die Größe der Projektionsoberfläche gemäß dem Umfang des Darstellungsplatzes geändert werden kann.
- Eine noch andere Aufgabe der vorliegenden Erfindung ist es, eine Vorrichtung und ein Verfahren zur Detektion einer angezeigten Position zu schaffen, die die Bestimmung durch den Anwender beurteilt auf der Grundlage von Status und Position eines Teiles vom sichtbaren Bild, das der Anwender geändert hat unter Verwendung eines Laserzeigers oder eines Zeigestabs oder dergleichen, und die Absicht des Anwenders wiedergibt.
- Gemäß der vorliegenden Erfindung werden die vorstehenden Aufgabe gelöst durch Bereitstellen einer Vorrichtung zur Detektion einer angezeigten Position, wie im Patentanspruch 1 angegeben.
- Des weiteren wird die vorstehende Aufgabe gelöst durch ein Verfahren zur Detektion einer angezeigten Position, wie es im Patentanspruch 8 angegeben ist, und ein Computerprogrammprodukt gemäß Patentanspruch 15.
- Vorteilhafte Weiterentwicklungen der vorliegenden Erfindung sind in den abhängigen Patentansprüchen angegeben.
- Gemäß der vorliegenden Erfindung, wie sie zuvor angegeben wurde, wird ein sichtbares Bild eingegeben. Des weiteren wird das sichtbare Bild teilweise geändert unter Verwendung eines Zeigestabs oder dergleichen, und das teilweise geänderte Bild wird ebenfalls eingegeben. Der geänderte Teil wird ausgelesen, und eine bestimmte Position wird festgestellt auf der Grundlage des ausgelesenen Teiles. Ein Phänomen, das die Bewegung durch den Anwender in einem sichtbaren Bild auf diese Weise als eine Änderung des sichtbaren Bildes auftritt, wird verwendet zur Feststellung von Koordinaten oder von der Bewegung des Teiles als Gegenstand der Änderung.
- Vorzugsweise stellt die vorliegende Erfindung eine Vorrichtung zur Detektion einer angezeigten Position bereit, die weiterhin über ein Anzeigemittel verfügt, das das sichtbare Bild anzeigt.
- Vorzugsweise führt das Anzeigemittel des Projektionstyps eine Bildanzeige aus, weil die Vergrößerung des sichtbaren Bildes möglich ist und weil die Größe des Anzeigebildschirms leicht gemäß einer Stelle geändert werden kann, wo das Gerät betrieben wird.
- Vorzugsweise stellt das erste Feststellmittel den Teil des sichtbaren Bildes fest, der geändert wird durch Anzeigen eines gewünschten Abschnitts des sichtbaren Bildes mit dem Zeigestab, weil die Bestimmung im sichtbaren Bild leicht erfolgen kann unter Verwendung des Zeigestabs anstelle einer speziellen Einrichtung, wie einem Laserzeiger.
- Vorzugsweise stellt das zweite Feststellmittel die Spitze des Zeigestabbildes fest, das dem sichtbaren Bild hinzugefügt ist und vom ersten Feststellmittel festgestellt wird, als die Bestimmungsposition, weil die Bestimmungsposition genauer feststellbar ist durch Feststellen der Spitze des Zeigestabs.
- Vorzugsweise stellt die vorliegende Erfindung die Vorrichtung zur Detektion einer angezeigten Position bereit, die des weiteren über ein Beurteilungsmittel verfügt, das die An- /Abwesenheit der Bedienbestimmung beurteilt auf der Grundlage, ob sich der geänderte Bildbereich, festgestellt vom ersten Feststellmittel im sichtbaren Bild, weiter geändert hat. Wenn beispielsweise ein Teil des sichtbaren Bildes geändert wird unter Verwendung eines Zeigestabs, kann leicht beurteilt werden, ob die Änderung eine vom Anwender beabsichtigte Operation ist. Dies verbessert die Handhabbarkeit.
- Die beiliegende Zeichnung, die einen Teil der Beschreibung bildet, veranschaulicht Ausführungsbeispiele der Erfindung und dient gemeinsam mit der Beschreibung der Erläuterung des Prinzips der Erfindung.
- Fig. 1 ist ein Blockdiagramm, das den funktionalen Aufbau des Grafiktabletts gemäß einem erläuternden Beispiel zum Verständnis der vorliegenden Erfindung zeigt, wobei das erläuternde Beispiel im wesentlichen eine Anordnung des Standes der Technik wiedergibt, die aus dem Dokument US-A-5 138 304 bekannt ist;
- Fig. 2 ist ein Blockdiagramm, das den Aufbau eines Grafiktabletts im erläuternden Beispiel zeigt;
- Fig. 3 ist eine erläuternde Ansicht eines Betriebsbeispiels des erläuternden Beispiels;
- Fig. 4 ist ein Beispiel eines Datenaufbaus einer Funktionstabelle, die Funktionsbuttons auf einem projizierten Bild festlegt;
- Fig. 5 ist ein Ablaufdiagramm, das die Koordinatenfeststellungsverarbeitung gemäß dem erläuternden Beispiel darstellt;
- Fig. 6 ist ein Ablaufdiagramm, das eine Verarbeitungsprozedur zum Vergleichen eines Bildes 11 mit einem Bild 12 und zum Feststellen eines geänderten Bildbereichs darstellt;
- Fig. 7 ist ein Ablaufdiagramm, das eine Verarbeitungsprozedur zum Gewinnen zentraler Koordinaten des geänderten Bildbereichs darstellt;
- Fig. 8 ist ein Ablaufdiagramm, das eine Verarbeitungsprozedur zum Feststellen eines minimalen X- Koordinatenwertes darstellt;
- Fig. 9 ist ein Ablaufdiagramm, das eine Verarbeitungsprozedur zum Feststellen eines minimalen Y- Koordinatenwertes darstellt;
- Fig. 10 ist ein Ablaufdiagramm, das eine Verarbeitungsprozedur zum Feststellen eines maximalen X- Koordinatenwertes darstellt;
- Fig. 11 ist ein Ablaufdiagramm, das eine Verarbeitungsprozedur zum Feststellen eines maximalen Y- Koordinatenwertes darstellt;
- Fig. 12 ist ein Ablaufdiagramm, das eine Verarbeitungsprozedur zum Feststellen einer Farbänderung darstellt;
- Fig. 13 ist ein Ablaufdiagramm, das eine Verarbeitungsprozedur zum Feststellen des Ein- und Ausgehens vom Licht darstellt;
- Fig. 14 ist eine erläuternde Ansicht in Verbindung mit dem Ausführungsbeispiel der vorliegenden Erfindung einer gewünschten Position auf einem Bildschirm, aufgezeigt durch einen Zeigestab 141;
- Fig. 15 ist ein Ablaufdiagramm, das eine Verarbeitungsprozedur zum Feststellen eines Endpunktes gemäß dem Ausführungsbeispiel nach der vorliegenden Erfindung darstellt, wie es beansprucht ist;
- Fig. 16A bis 16C sind erläuternde Ansichten, die eine Beziehung zwischen einem sichtbaren Bild auf dem Bildschirm und einem von einer Fernsehkamera eingegebenen Bild zeigen; und
- Fig. 17 stellt ein strukturelles Merkmal eines Programms gemäß der vorliegenden Erfindung dar.
- Nachstehend anhand der beiliegenden Zeichnung beschrieben sind bevorzugte Ausführungsbeispiele der vorliegenden Erfindung.
- Fig. 1 zeigt den funktionalen Aufbau eines Grafiktabletts als eine Vorrichtung zur Detektion einer angezeigten Position nach einem erläuternden Beispiel zum Verständnis der vorliegenden Erfindung, wobei das erläuternde Beispiel im wesentlichen eine Anordnung nach dem Stand der Technik wiedergibt, wie sie aus dem Dokument US-A-5 138 304 bekannt ist. In Fig. 1 bedeutet Bezugszeichen 1 eine Bildeingabeeinheit; Bezugszeichen 2 bedeutet eine Steuerung; Bezugszeichen 3 bedeutet eine Bildausgabeeinheit; Bezugszeichen 4 bedeutet einen Speicher; und Bezugszeichen 5 bedeutet eine Bildänderungseinheit.
- Die Steuerung 2 gewinnt ein Bild aus dem Speicher 4 und gibt das Bild an die Bildausgabeeinheit 3 ab. Des weiteren speichert die Steuerung 2 ein Bild, das sie aus der Bildeingabeeinheit 1 gewinnt, in den Speicher 4. Das von der Bildausgabeeinheit 3 ausgegebene Bild wird teilweise geändert durch die Bildänderungseinheit 5 und ausgegeben in die Bildeingabeeinheit 1. Die Steuerung 2 stellt eine Änderung im Bild fest durch Vergleichen des eingegebenen Bildes mit dem im Speicher 4 gespeicherten Bild. Dann steuert die Steuerung 2 den Speicher 4 und die Bildausgabeeinheit 3 gemäß der festgestellten Änderung. Da die Bildeingabe fortgesetzt wird, bis die Bildeingabeeinheit 1 den Betrieb stoppt, kann die fortgesetzte Bewegung festgestellt werden.
- Da es darüber hinaus möglich ist, sichtbare Gegenstände, wie einen Menschen (Präsentierender), einen Gegenstand, einen Lichtstrahl und dergleichen zwischen dem Ausgangsbild und dem Eingangsbild zu haben, ist die Steuerung auf der Grundlage der festgestellten Bewegung möglich, die herkömmlicherweise niemals berücksichtigt wurde. Darüber hinaus ist es möglich, zukünftig den natürlichen direkten Dialog zwischen der Maschine und dem Anwender über die Bilder zu realisieren durch Vergleichsmittel zum Erkennen des Anwenders und der Bewegung des Anwenders und Mittel zum Erkennen von Sprache.
- Fig. 2 zeigt den Aufbau eines Grafiktabletts vom erläuternden Beispiel. Bezugszeichen 11 bedeutet eine Bildleseeinrichtung, wie eine Fernsehkamera oder eine Stehbildkamera, die als Bildeingabeeinheit 1 arbeitet. In diesem Beispiel wird eine Fernsehkamera zur Erläuterung verwendet. Bezugszeichen 12 bedeutet eine CPU, die verschiedene Steuerungen im Grafiktablett ausführt; Bezugszeichen 13 bedeutet eine Anzeige des Projektionstyps, die als Bildausgabeeinheit 3 arbeitet; und Bezugszeichen 14 bedeutet einen Hauptspeicher, in dem ein Bild von der Anzeige 13 des Projektionstyps ausgegeben wird sowie verschiedene Steuerprogramme für die CPU gespeichert werden. Ein Steuerprogramm zum Ausführen der später zu beschreibenden Steuerung gemäß den Ablaufdiagrammen ist ebenfalls im Hauptspeicher 14 gespeichert. Bezugszeichen 15 bedeutet einen Laserzeiger, der teilweise ein Bild ändert, das von der Anzeige 13 des Projektionstyps auf einen Bildschirm 16 projiziert wird durch Strahlen eines Laserstrahls auf den Bildschirm 16. Bezugszeichen 16 bedeutet einen Bildschirm, auf den Bilder projiziert werden.
- Fig. 3 zeigt ein Betriebsbeispiel des vorliegenden erläuternden Beispiels. In Fig. 3 wird die angezeigte Seite einer Abtastung zur nächsten Seite geändert.
- Dieses Beispiel ist eine Darstellung beispielsweise eines Ereignisses oder eines Treffens einer akademischen Gesellschaft. Ein Präsentierender 30 hat Dokumente und dergleichen im Hauptspeicher 14 im voraus gespeichert. Nach Darstellung die CPU 12 die Anzeige 13 des Projektionstyps, um eines der Bilder von den gespeicherten Dokumenten auf den Bildschirm 16 zu projizieren. Der Präsentierende 30 gibt eine Erläuterung über das projizierte Bild (Dokument). Das projizierte Bild wird unmittelbar in den Hauptspeicher 14 über die Fernsehkamera 11 unter Steuerung der CPU 12 gespeichert. Im verlauf der Darstellung ändert sich das Bezugsbild teilweise, wenn der Präsentierende 30 den Laserzeiger 15 manipuliert, um einen Laserstrahl auf den Bildschirm 16 zu strahlen, und die Fernsehkamera 11 gibt das geänderte Bild ein. Die CPU 12 stellt die Änderung des Bildes durch Vergleich des zuvor im Hauptspeicher gespeicherten Bildes mit dem von der Fernsehkamera 11 eingegebenen Bildes fest, und führt die Steuerung auf der Grundlage des Feststellergebnisses aus.
- Der Präsentierende 30 strahlt beispielsweise den Laserstrahl vom Laserzeiger 15 auf einen Funktionsbutton 161 mit einer Bezeichnung "NEXT" im projizierten Bild "PAGE 1", schaltet dann das Laserlicht auf dem Funktionsbutton 161 ein und aus (anderenfalls Änderung der Farbe vom Laserlicht). Nach der Licht-Ein/Aus-Feststellroutine (oder der Farbänderungsfeststellroutine), die später zu beschrieben ist, wird eine Position (Koordinate) festgestellt, bei der das Laserlicht begann, ein- und ausgeschaltet zu werden (anderenfalls wird die Farbe des Laserlichts geändert), bezugnehmend auf einer Funktionstabelle, wie sie in Fig. 4 gezeigt ist, und welcher Button die Koordinaten der Position enthält, auf die der Laser zeigt, wird wieder aufgefunden. In diesem Beispiel wird der Button "NEXT" vom Bild "PAGE 1" wieder aufgefunden, so daß die Funktion "PageNext" gelesen wird, dann wird die Anzeige über das nächste Seitenbild geändert. Fig. 4 zeigt ein Beispiel eines Datenaufbaus der Funktionstabelle, die die obigen Funktionsbuttons festlegt. Die Funktionstabelle wird im Hauptspeicher 14 gemäß der jeweiligen Projektionsbilder gespeichert.
- Als nächstes beschrieben ist die Verarbeitung gemäß dem vorliegenden erläuternden Beispiel zum Realisieren des obigen Betriebs. Fig. 5 bis 13 sind Ablaufdiagramme, die die Verarbeitungsprozedur zum Feststellen einer Position eines geänderten Bildabschnitts darstellen. Angemerkt sei, daß vor Ausführen der in Fig. 5 gezeigten Verarbeitung (das heißt, nach Aktivieren des vorliegenden Systems) eine Verschiebung zwischen einem Eingabekoordinatensystem und einem Ausgabekoordinatensystem korrigiert wird. Das heißt, Winkel, Abstand, Vergrößerungsverhältnis und so weiter der Fernsehkamera werden justiert, und der ganze Anzeigebereich der Anzeige 13 des Projektionstyps wird eingestellt auf Eingabeannahme. Da jedes Gerät eine vorbestimmte Auflösung und eine Anzahl von Pixeln hat, wird die Verschiebung zwischen dem Eingabekoordinatensystem und dem Ausgabekoordinatensystem gewonnen als Vergrößerungskoeffizienten in X- und Y-Richtung, und diese werden mit den Koordinatenwerten der Funktionstabelle in Fig. 4 multipliziert.
- Beispielsweise werden 300 · 400 Pixelbilddaten als sichtbares Bild auf dem Bildschirm 16 von der Anzeige 13 des Projektionstyps angezeigt (wie Fig. 16A), und das angezeigte Bild wird von der Fernsehkamera 11 eingegeben, die eine Auflösung von 350 · 500 Pixeln hat (siehe Fig. 16B). Wenn bei diesem Aufbau das sichtbare Bild, angezeigt auf dem Bildschirm 16, eingegeben wird in den ganzen Bildrahmen der Fernsehkamera 11, werden die Vergrößerungskoeffizienten 300/350 in Vertikalrichtung und 400/500 in Horizontalrichtung. Wenn des weiteren, wie in Fig. 16C gezeigt, das sichtbare Bild, angezeigt auf dem Bildschirm 16, innerhalb eines Bereichs (Größe vom Y- Bereichpixel · X-Bereichpixel) kleiner als der Bildrahmen von der Fernsehkamera 11 eingegeben wird, sind die Vergrößerungskoeffizienten 300/Y-Bereich in Vertikalrichtung und 400/X-Bereich in Horizontalrichtung. Da in diesem Falle der Ausgangspunkt vom sichtbaren Bild nicht mit demjenigen des eingegebenen Bildes übereinstimmt, muß der Verschiebungsbetrag zu den Originalpunkten den Koordinatenwerten der Funktionstabelle hinzugefügt werden. In Fig. 16C werden Y-OFF- Pixel in Vertikalrichtung und X-OFF-Pixel in Horizontalrichtung den Koordinatenwerten der Funktionstabelle hinzugefügt.
- Fig. 5 zeigt die Hauptroutine bei der Verarbeitung zum Feststellen der Koordinaten des geänderten Bildabschnitts. In Schritt S41 wird ein Bild, projiziert auf den Bildschirm 16, von der Fernsehkamera 11 als Bild I1 eingegeben. Als nächstes wird ein anderes Bild von der Fernsehkamera 11 eingegeben, nachdem das Bild I1 als ein Bild I2 eingegeben worden ist. In Schritt 543 wird eine Unterroutine zum Vergleichen des Bildes I1 mit dem Bild I2 gelesen, und ein Bildbereich, bei dem das Bild teilweise geändert ist, wird festgestellt. In Schritt S44 wird eine Unterroutine zum Feststellen einer Mittelposition des festgestellten Bildbereichs gelesen, und die Mittelkoordinaten des geänderten Bildbereichs werden gewonnen. In Schritt S45 werden des weiteren gewonnene Koordinaten an eine Farbänderungs- Feststellroutine (ist später anhand der Fig. 12 oder 13 zu beschreiben) gegeben, wo eine bestimmte Funktion ausgeführt wird.
- Im Betrieb zur Änderung des angezeigten Bezugsbildes (das heißt, Wechseln auf die nächste Seite), wenn das Anfangsbild I1 ersetzt wird durch ein anderes Bild, kehrt der Prozeß von Schritt S46 zurück zu Schritt S41, bei dem das andere Bild, angezeigt nach dem Bild I1, als Anfangsbild I1 eingegeben wird. Wenn in Schritt S47 die Abschlußoperation durch den Nutzer erfolgt, wenn Störungen auftreten aufgrund eines Fehler oder dergleichen, wird andererseits bestimmt, ob die Verarbeitung abzuschließen ist. Wenn NEIN, kehrt der Prozeß zu Schritt S42 zur Eingabe des nächsten Bildes zurück und die obige Verarbeitung wird wiederholt.
- Fig. 6 zeigt die Unterroutine zum Vergleich des Bildes I1 mit dem Bild I2, um einen Minimalwert der X-Koordinate, einen Maximalwert der X-Koordinate, einen Minimumwert der Y-Koordinate und einen Maximalwert einer Y-Koordinate des Bildbereiches festzustellen, der zwischen den Bilder unterschiedlich ist. Das heißt, dieses Ablaufdiagramm zeigt die Unterroutine, die in Schritt S43 aufgerufen wird. In Schritt S51 wird eine Unterroutine (Fig. 8) zum Feststellen des Minimalwertes der X- Koordinate aufgerufen; in Schritt S52 wird eine Unterroutine (Fig. 9) zum Feststellen des Minimalwertes der Y-Koordinate aufgerufen; in Schritt S53 wird eine Unterroutine (Fig. 10) zum Feststellen des Maximalwertes der X-Koordinate aufgerufen; und in Schritt S54 wird eine Unterroutine zum Feststellen des Maximalwertes der Y-Koordinate aufgerufen. Da die Unterroutinen einander gleichen, obwohl sie unterschiedlich sind als X/Y- Koordinate und Maximal-/Minimalwert, wird nur die Unterroutine (Fig. 8) zum Feststellen des Minimalwertes der X-Koordinate beschrieben.
- Fig. 8 zeigt die Unterroutine zum Erzielen des Minimalwertes der X-Koordinate. Angemerkt sei, daß in der folgenden Erläuterung über das Ablaufdiagramm von Fig. 8 "Xmin" und "Ymin" minimale Koordinatenwerte in einem eingegebenen Bild bedeuten. Normalerweise werden diese Werte automatisch bestimmt nach Eingabe des Anfangsbildes I1 aus dem Bildeingabeeinheit 1, es sei denn, die Einstellung (Bereichsbestimmung durch den Anwender) oder dergleichen wird ausgeführt. Auch werden "Xmax" und "Ymax" automatisch bestimmt nach Eingabe des Bildes I1. Das heißt, "Xmax" und "Ymax" sind "Xmin" und "Ymin" gleich, sofern sie Maximalwerte sind.
- In Schritt S70 werden die zuvor genannten Werte Xmin und Ymin verwendet zum Einstellen der Anfangswerte für die X- und Y- Koordinate. In Schritt S71 wird der Pixelwert bei der Koordinate (X, Y) des Bildes I1 durch P1 substituiert. In Schritt S72 wird der Pixelwert der Koordinaten (X, Y) des Bildes I2 durch P2 substituiert. In Schritt S73 werden die Werte P1 und P2 miteinander verglichen, und das Vergleichsergebnis wird durch P substituiert. Beim Vergleich wird ein exklusives logisches OR (XOR) angewandt. In Schritt S74 wird das Vergleichsergebnis beurteilt. Wenn insbesondere P = 0, das heißt, die Pixelwerte P1 und P2 sind einander gleich, schreitet der Prozeß fort zu Schritt S75, um das nächste Pixel zu untersuchen. Wenn andererseits P ≠ 0, das heißt, wenn die Pixelwerte P1 und P2 unterschiedlich sind, schreitet der Prozeß fort zu Schritt S79. In Schritt S79 wird der X-Wert zu dieser Zeit als ein Minimalwert der X-Koordinate gehalten, und der Prozeß endet.
- Nach Überprüfen des nächsten Pixels wird der Y- Koordinatenwert um Eins in Schritt S75 inkrementiert (Y + 1), dann wird beurteilt, ob der Y-Koordinatenwert einen Bereich des zu überprüfenden Bildes überschreitet, und wenn NEIN, kehrt der Prozeß zu Schritt S71 zurück. Im Falle von JA, das heißt, der Y- Koordinatenwert überschreitet den Bereich (Ymax), schreitet der Prozeß fort zu Schritt S77, bei dem der Y-Koordinatenwert auf den Anfangswert (Ymin) eingestellt wird, und der X- Koordinatenwert wird um Eins inkrementiert (X + 1). In Schritt S78 wird beurteilt, ob der X-Koordinatenwert den Bereich des Bildes überschreitet, und wenn NEIN, kehrt der Prozeß zurück zu Schritt 571. Wenn der X-Koordinatenwert den Bereich (Xmax) überschreitet, schreitet der Prozeß fort zu Schritt S79, bei dem der X-Koordinatenwert als Anfangswert (Xmin) gehalten wird, und der Prozeß endet.
- Durch die Steuerung, wie sie im Ablaufdiagramm von Fig. 8 dargestellt ist, wird auf diese Weise der Minimalwert der X- Koordinate in dem geänderten Bildbereich gewonnen. Durch die Steuerung, wie sie im Ablaufdiagramm von den Fig. 9 bis 11 dargestellt ist, werden gleichermaßen der minimale Wert der Y- Koordinate, der maximale Wert der X-Koordinate und der maximale Wert der Y-Koordinate im Bildbereich gewonnen.
- Fig. 7 zeigt eine Unterroutine zum Erzielen der Mittelkoordinaten des geänderten Bildbereichs, wie die Koordinaten des Bildbereichs, bei dem das Bild geändert worden ist. Das heißt, Fig. 7 zeigt die Unterroutine, die in Schritt 544 von Fig. 5 aktiviert wurde. Die Mittelkoordinaten werden gewonnen auf der Grundlage des Minimalwertes der X-Koordinate, des Maximalwertes der X-Koordinate, des Minimalwertes der Y- Koordinate und des Maximalwertes der Y-Koordinate in den Schritten S51 bis S54 in Fig. 6, und die gewonnenen Mittelkoordinaten werden als (X, Y) zurückgegeben.
- Fig. 12 ist ein Ablaufdiagramm, das die Farbänderungs- Feststellroutine darstellt, die in Schritt S45 in Fig. 5 ausgeführt wird. In Schritt S111 werden die Koordinaten des geänderten Bildbereichs und der Pixelstatus bei den Koordinaten durch die Fernsehkamera 11 eingegeben. In Schritt S112 wird überprüft, ob sich der Pixelstatus geändert hat, und wenn sich der Pixelstatus geändert hat (das heißt, die Farbe des Laserstrahls hat sich geändert), schreitet der Prozeß fort zu Schritt S113. In Schritt S113 wird Bezug genommen auf die Funktionstabelle, wie sie in Fig. 4 gezeigt ist, und es wird ein Button gemäß den festgestellten Koordinaten herausgefunden. In Schritt S114 wird eine Funktion gemäß dem herausgefundenen Ergebnis gelesen. Bei dieser Prozedur kann die Änderungsoperation, wie die Änderung von OHP-Blättern (Overheadprojektorblätter), realisiert werden.
- Die Feststellung vom Pixelstatus in Schritt S112 erfolgt durch Feststellen, ob der Pixelwert der Koordinaten, gewonnen in Schritt S44, vom neu eingegebenen Bild in Schritt S111 unterschiedlich ist im Vergleich zu zugehörigen Pixeln in den Bildern I1 und I2. Angemerkt sei, daß, wenn in Schritt S112 eine Farbänderung nicht festgestellt wird, der Prozeß fortschreitet zu Schritt S112a. In Schritt S112a wird bestimmt, ob eine vorbestimmte Zeitdauer verstrichen ist. Wenn NEIN, kehrt der Prozeß zu Schritt S111 zurück, um die Verarbeitung fortzusetzen, während im Falle von JA der Prozeß zur Hauptroutine zurückkehrt, da die Operationsbestimmung nicht erfolgt ist.
- Fig. 13 ist ein Ablaufdiagramm, das die Licht-Ein/Aus- Feststellroutine darstellt. In Schritt S21 werden die Koordinaten des geänderten Bildbereichs und der laufende Pixelstatus bei den Koordinaten von der Fernsehkamera 11 eingegeben, ebenso wie in Schritt S111. In Schritt S122 wird überprüft, ob sich der Pixelstatus geändert hat, durch Vergleichen des Pixels mit einem zugehörigen Pixel des Bildes I2. Wenn JA (das heißt, das Licht ist ausgeschaltet), schreitet der Prozeß fort zu Schritt S123, während bei NEIN (das heißt, das Licht ist eingeschaltet geblieben), schreitet der Prozeß fort zu Schritt S122a, um die Verarbeitung fortzusetzen. In Schritt S123 werden die Koordinaten des geänderten Bildbereichs und der Pixelstatus erneut eingegeben, und in Schritt S124 wird der Pixelstatus überprüft. Wenn sich der Pixelstatus geändert hat (das heißt, das Licht hat sich wieder eingeschaltet), wird bestimmt, daß es eine Änderung im Bildbereich gegeben hat, da sich der Pixelstatus von dem vorherigen Status unterscheidet, und die Verarbeitung in Schritt S125 und die nachfolgenden Schritte werden ausgeführt. Wenn NEIN (das heißt, das Licht ist ausgeschaltet geblieben), schreitet die Verarbeitung fort zu Schritt S124a. In den Schritten S125 und S126 wird dieselbe Verarbeitung wie jene in den Schritten S113 und S114 gemäß Fig. 12 ausgeführt. Somit realisiert die obige Verarbeitung die Bestimmung des Ein- und Ausgehens vom Laserstrahl aus dem Laserzeiger.
- In den Schritten S122a und S124a wird bestimmt, ob eine vorbestimmte Zeitdauer verstrichen ist. Wenn NETN, kehrt der Prozeß von Schritt S122a zu Schritt S121 zurück und ebenso von Schritt S124a zu Schritt S123. Wenn die vorbestimmte Zeit verstrichen ist bei irgendeinem der Schritte S122a und S124a, wird bestimmt, daß es keine Betriebsbestimmung gegeben hat, und der Prozeß kehrt zur Hauptroutine zurück.
- Wie zuvor beschrieben, kann gemäß dem erläuternden Beispiel die Bestimmung einer Position eines angezeigten Bildes unter Verwendung eines Tabletts erfolgen und ein großflächiger Bildschirm eines Koordinateneingabegerätes kann leicht aufgebaut werden. Da die Farbänderung oder das Ein-/Ausschalten vom Laserstrahl aus dem Laserzeiger festgestellt wird zum Erkennen Absichtsbestimmung des Anwenders, kann die Bestimmung des Anwenders exakt wiedergegeben werden.
- Das erläuternde Beispiel verwendet einen Laserzeiger, um eine Änderung des angezeigten Bildes bereitzustellen. In diesem Ausführungsbeispiel wird ein Zeigestab anstelle des Laserzeigers 15 verwendet. Das heißt, im Ausführungsbeispiel stellt die CPU 12 einen Endpunkt eines geänderten Bildbereichs fest und bestimmt die Koordinaten des Punktes als eine Bestimmungsposition.
- Fig. 14 zeigt ein Bild, das auf dem Bildschirm angezeigt wird, und einen Zeigestab 141, der auf eine gewünschte Position des Bildes zeigt. Fig. 14 zeigt auch ein Bild, das die Fernsehkamera 11 eingegeben hat. In diesem Falle wird der Bildbereich festgestellt, der durch Anzeigen durch den Zeigestab 141 geändert wurde, als rechteckiger Bereich festgestellt mit einer Diagonalen, die festgelegt ist durch gegenstehende Winkelpunkte Q und R (durch die oben beschriebene Verarbeitung in Fig. 6). Um die bestimmten Koordinaten zu erzielen, ist es erforderlich, einen Endpunkt des Zeigestabes 141 zu kennen. Fig. 15 ist ein Ablaufdiagramm, das die Verarbeitungsprozedur gemäß dem Ausführungsbeispiel zum Feststellen des Endpunktes darstellt. Fig. 15 wird verwendet anstelle der in Fig. 7 gezeigten Bereichskoordinaten-Feststellprozedur.
- Welcher der Punkte Q und R der Endpunkt ist, wird in Schritt S131 bestimmt, basierend darauf, ob der Punkt in Kontakt mit der Kante des angezeigten Bildes ist. Der Punkt Q hat einen Wert (Xmin', Ymin'), und der Punkt R hat einen Wert (Xmax', Ymax') des Bereichs. "Xmax'", "Ymax'", "Xmin "' und "Ymin'" sind jeweils der Maximalwert der X-Koordinate, der Maximalwert der Y- Koordinate, der Minimalwert der X-Koordinate beziehungsweise der Minimalwert der Y-Koordinate, die in der in Fig. 6 beschriebenen Verarbeitung gewonnen werden. Wenn der Punkt Q in Kontakt steht mit der Kante des angezeigten Bildes, schreitet der Prozeß fort zu Schritt S132, um die Koordinaten des Punktes Q mit jenen des Punktes R zu tauschen.
- Im Falle, bei dem der Zeigestab 141 in einem entgegengesetzten Winkel zu demjenigen in Fig. 14 geneigt ist, da ein Punkt S der Bestimmungspunkt ist, werden die Koordinaten vom Punkt Q nicht als Endpunktkoordinaten verwendet. In diesem Falle wird in Schritt S133 überprüft, ob sich der Pixelstatus am Punkt Q bei den Bildern I1 und I2 unterscheidet. Wenn sich der Pixelstatus am Punkt Q geändert hat, wird bestimmt, daß der Endpunkt der Punkt Q ist und dann werden die Koordinaten des Punktes Q bereitgestellt als Endpunktkoordinaten (S134 und S136). Wenn sich andererseits der Pixelstatus am Punkt Q nicht geändert hat, wird bestimmt, daß der Endpunkt der Punkt S ist und die Koordinaten des Punktes S werden als Endpunktkoordinaten bereitgestellt (S135 und S136). Somit können die Koordinaten der Bestimmung des Zeigestabes festgestellt werden.
- Wenn der Laserzeiger in Verwendung ist, wird die Absicht des Anwenders erkannt durch Feststellen des Ein- und Ausgehens vom Laserstrahl (oder Ändern der Farbe des Laserstrahls) im Funktionsbuttonbereich. Jedoch kann der Zeigestab kein Licht emittieren, um ein- und ausgeschaltet zu werden (oder um in der Farbe geändert zu werden), und aus diesem Grund können die Zeitvorgabe der beabsichtigten Operation durch den Anwender und die Koordinaten zur Zeit der beabsichtigten Operation nicht festgestellt werden. Wenn der Funktionsbutton auf dem angezeigten Bild mit dem Zeigestab betätigt wird, erfolgt folglich die Bestimmung der beabsichtigten Operation durch Halten des Zeigestabes auf dem Funktionsbutton für eine vorbestimmte Dauer. Der gewählte Funktionsbutton wird bestimmt durch Anwenden der Koordinaten, bevor der Zeigestab gehalten wird.
- Angemerkt sei, daß die Bestimmung vom Haltestatus des Zeigestabes durch Feststellen der Anwesenheit der Spitze des Zeigestabes innerhalb eines vorbestimmten Koordinatenbereichs für eine vorbestimmte Dauer oder länger erfolgt. Vorzugsweise ist der vorbestimmte Koordinatenbereich die Position und Größe des Funktionsbuttons.
- Gemäß dem Ausführungsbeispiel kann eine spezielle Bedieneinrichtung, wie ein Laserzeiger, fortgelassen werden.
- Wie zuvor beschrieben, erfordert die Erfindung keinerlei Bildschirm (Grafiktablett), das für eine Vorrichtung zur Detektion einer angezeigten Position vorzusehen ist. Dieses stellt Beweglichkeit des Gerätes bereit, da es nicht erforderlich ist, eine große Projektionstafel zu transportieren.
- Die vorliegende Erfindung erfordert keinen Bildschirm mit einer speziellen Feststellfunktion. Wenn die Verwendung einer großen Projektionstafel in Betracht gezogen wird, stellt die vorliegende Erfindung eine Vorrichtung zur Detektion einer angezeigten Position bei geringeren Kosten bereit im Vergleich mit dem herkömmlichen Stand der Technik, der ein Grafiktablett mit großer Feststelloberfläche erfordert.
- Da herkömmlicherweise die Größe eines Projektionsbildschirms feststehend ist, ist es schwierig, die Projektionsoberflächengröße gemäß dem Umfang des Präsentationsplatzes einzustellen. Die vorliegende Erfindung stellt jedoch eine Vorrichtung zur Detektion einer angezeigten Position bereit, die anwendbar ist an einer Präsentationsstelle durch Einstellen des Bildausgabemittels und des Bildeingabemittels, womit die Vorrichtung in breitem Bereich verwendbar ist.
- Die vorliegende Erfindung verwendet das Bildeingabemittel, das heißt, des weiteren das optische Feststellmittel. Selbst an einer entfernten Stelle, von der aus der Präsentierende den Zeigestab nicht verwenden kann, kann eine Fernoperationsbestimmung erfolgen durch Anwenden eines optischen Bestimmungsmittels, wie einem Laserzeiger.
- Die vorliegende Erfindung läßt sich anwenden bei einem System, das aus einer Vielzahl von Einrichtungen besteht (beispielsweise aus einem Hauptcomputer, einer Schnittstelle, einem Leser, einem Drucker), oder bei einem Gerät, das eine einzelne Einrichtung enthält (beispielsweise ein Kopierer oder ein Fax-Gerät).
- Die Aufgabe der vorliegenden Erfindung kann des weiteren auch erreicht werden durch Bereitstellen eines Speicherträgers, der Programmcodes speichert zum Ausführen der zuvor beschriebenen Prozesse bezüglich eines Systems oder eines Gerätes, Lesen der Programmcodes mit einem Computer (das heißt CPU, CPU) vom System oder Gerät aus dem Speicherträger, und dann Ausführen des Programms.
- In diesem Falle realisieren die Programmcodes, die aus dem Speicherträger gelesen werden, die Funktionen gemäß den Ausführungsbeispielen, und der Speicherträger speichert Programmcodes, die die Erfindung beinhalten.
- Der Speicherträger, wie eine Diskette, eine Festplatte, eine optische Platte, eine magneto-optische Platte, CD-ROM, CD-R, ein Magnetband, eine nichtflüchtige Speicherkarte und ein ROM, kann des weiteren verwendet, um die Programmcodes bereitzustellen.
- Neben den zuvor genannten Funktionen gemäß dem obigen Ausführungsbeispiel, die realisiert werden durch Ausführen der Programmcodes, die von einem Computer gelesen werden, umfaßt die vorliegende Erfindung des weiteren einen Fall, bei dem ein OS (Betriebssystem) oder dergleichen, das auf dem Computer arbeitet, einen Teil der gesamten Prozesse gemäß den Bestimmung von Programmcodes ausführt und Funktionen gemäß dem obigen Ausführungsbeispiel realisiert.
- Die vorliegende Erfindung umfaßt auch des weiteren einen Fall, bei dem, nachdem die aus dem Speicherträger gelesenen Programmcodes in eine Funktionserweiterungstafel, die in den Computer eingefügt ist, oder in einen Speicher, der in einer Funktionserweiterungseinheit bereitsteht, der verbunden ist mit dem Computer, geschrieben wurden, die CPU oder dergleichen, enthalten in der Funktionserweiterungstafel, oder eine Einheit einen Teil oder den gesamten Prozeß gemäß den Bestimmungen der Programmcodes ausführen und Funktionen des obigen Ausführungsbeispiels realisieren.
- Im Falle, bei dem die vorliegende Erfindung bei dem zuvor genannten Speicherträger angewandt wird, speichert der Speicherträger Programmcodes gemäß den Ablaufdiagrammen, die im Ausführungsbeispiel beschrieben sind. Kurz gesagt, der Speicherträger speichert jedes Modul, das als ein Beispiel einer Speichertafel in Fig. 17 gezeigt ist. Genauer gesagt, Programmcodes, die einem eingegebenen Prozeßmodul, einem ersten Feststellprozeßmodul und wenigstens einem ersten Feststellprozeßmodul entsprechen, sind im Speicherträger zu speichern.
- Das eingegebene Prozeßmodul ist ein Programmodul zum Ausführen der Verarbeitung zur Eingabe eines angezeigten sichtbaren Bildes. Das erste Feststellprozeßmodul ist ein Programmodul zum Feststellen, daß sich das sichtbare Bild, eingegeben beim Eingabeprozeß, teilweise geändert hat. Das zweite Feststellprozeßmodul ist ein Programmodul zum Feststellen einer bestimmten Position in einem sichtbaren Bild, basierend auf dem Teiländerungsabschnitt des sichtbaren Bildes, der beim ersten Feststellprozeß nachgewiesen wird.
Claims (17)
1. Vorrichtung zur Detektion einer angezeigten Position, mit:
Einem Eingabemittel (11) zur Eingabe eines sichtbaren
Bildes;
einem Feststellmittel (12) zum Feststellen eines geänderten
Bildbereichs, wobei sich das sichtbare Licht im vom
Eingabemittel eingegebenen sichtbaren Bild geändert hat;
einem Erzeugungsmittel zum Erzielen einer Vielzahl von
Endpunkten (Q, R), die gegenüberliegende Enden einer Diagonalen
eines rechteckigen Bereichs im geänderten Bildbereich festlegen;
und
einem Auswahlmittel zur Auswahl eines Endpunktes (Q) aus der
Vielzahl von Endpunkten, die nicht in Kontakt mit der Kante des
sichtbaren Bildes stehen, als Bestimmungsposition im sichtbaren
Bild.
2. Vorrichtung zur Detektion einer angezeigten Position nach
Anspruch 1, die des weiteren über ein Anzeigemittel (13) zur
Anzeige des sichtbaren Bildes verfügt.
3. Vorrichtung zur Detektion einer angezeigten Position nach
Anspruch 2, deren Anzeigemittel das sichtbare Bild beim
Auftreten mit einem Projektionsverfahren anzeigt.
4. Vorrichtung zur Detektion einer angezeigten Position nach
Anspruch 1, deren Feststellmittel den durch Anzeigen einer
gewünschten Position im sichtbaren Bild unter Verwendung eines
Zeigestabs (141) geänderten Bildbereich feststellt.
5. Vorrichtung zur Detektion einer angezeigten Position nach
Anspruch 4, deren Auswahlmittel eine Spitze des Zeigestabs
auswählt, der im vom Feststellmittel als die Bestimmungsposition
festgestellten geänderten Bildbereich enthalten ist.
6. Vorrichtung zur Detektion einer angezeigten Position nach
Anspruch 1, die des weiteren über ein Speichermittel (4) verfügt
zum Speichern des sichtbaren Bildes, eingegeben vom
Eingabemittel als ein Originalbild, wobei das Feststellmittel
den geänderten Bildbereich feststellt durch Vergleichen eines
sichtbaren Bildes, das das Eingabemittel mit dem Originalbild
eingibt.
7. Vorrichtung zur Detektion einer angezeigten Position nach
Anspruch 1, deren Eingabemittel eine Bildleseeinrichtung ist.
8. Verfahren zur Detektion einer angezeigten Position, mit den
Verfahrensschritten:
Eingeben eines sichtbaren Bildes;
Feststellen eines geänderten Bildbereichs, wobei das
sichtbare Bild im sichtbaren Bild geändert ist, das im
Verfahrensschritt des Eingebens eingegeben wurde;
Gewinnen einer Vielzahl von Endpunkten (Q, R), die
gegenüberliegende Enden einer Diagonalen eines rechteckigen
Bereichs vom geänderten Bildbereich festlegen; und
Auswählen eines Endpunktes aus der Vielzahl von Endpunkten,
die nicht in Kontakt mit einer Kante des sichtbaren Bildes
stehen, als Bestimmungsposition im sichtbaren Bild.
9. Verfahren zur Detektion einer angezeigten Position nach
Anspruch 8, mit dem weiteren Verfahrensschritt des Anzeigens (3)
des sichtbaren Bildes.
10. Verfahren zur Detektion einer angezeigten Position nach
Anspruch 9, bei dem der Verfahrensschritt des Anzeigens das
sichtbare Bild gemäß einem Projektionsverfahren erfolgt.
11. Verfahren zur Detektion einer angezeigten Position nach
Anspruch 8, bei dem beim Feststellen des geänderten Bildbereichs
eine Änderung durch Anzeigen einer gewünschten Position im
sichtbaren Bild unter Verwendung eines Zeigestabs erfolgt.
12. Verfahren zur Detektion einer angezeigten Position nach
Anspruch 11, bei dem im Verfahrensschritt des Auswählens eine im
geänderten Bildbereich enthaltene Spitze des Zeigestabs
festgestellt wird im Verfahrensschritt des Feststellens,
ausgewählt als Bestimmungsposition.
13. Verfahren zur Detektion einer angezeigten Position nach
Anspruch 8, das des weiteren über den Verfahrensschritt des
Speicherns des sichtbaren Bildes, eingegeben als ein
Originalbild im Verfahrensschritt des Eingebens, wobei im
Verfahrensschritt des Feststellens der geänderte Bildbereich
festgestellt wird durch Vergleichen des sichtbaren Bildes,
eingegeben im Verfahrensschritt des Eingebens, mit dem
Originalbild.
14. Verfahren zur Detektion einer angezeigten Position nach
Anspruch 8, bei dem im Verfahrensschritt des Eingebens eine
Bildleseeinrichtung Verwendung findet.
15. Computerprogrammprodukt mit einem computerverwendbaren
Medium mit computerlesbarem Programmcodemittel, eingebettet im
Medium zum Feststellen einer angezeigten Position, mit:
Eingabeprozeßprozedurcodes zur Eingabe eines angezeigten
sichtbaren Bildes;
Feststellen von Prozeßprozedurcodes zum Feststellen eines
geänderten Bildbereichs, wobei das im Eingabeprozeß eingegebene
sichtbare Bild sich geändert hat;
Erzeugen von Prozeßprozedurcodes zum Erzielen einer Vielzahl
von Punkten (Q, R), die gegenüberliegende Ende einer Diagonalen
in einem rechteckigen Bereich vom geänderten Bildbereich
festlegen; und
Auswählen von Prozeßprozedurcodes zur Auswahl eines
Endpunktes aus der Vielzahl von Endpunkten, die nicht in Kontakt
mit der Kante des sichtbaren Bildes stehen, als eine
Bestimmungsposition im sichtbaren Bild.
16. Vorrichtung zur Detektion einer angezeigten Position nach
Anspruch 1, deren Auswahlmittel einen Punkt des geänderten
Bildbereichs auswählt, wobei der Endpunkt nicht in Kontakt mit
einer Kante des sichtbaren Bildes steht, und ein Pixelwert des
Punktes vor und nach der Feststellung eines geänderten
Bildbereichs geändert ist.
17. Verfahren zur Detektion einer angezeigten Position nach
Anspruch 8, bei dem der Verfahrensschritt des Auswählens einen
Endpunkt des geänderten Bildes auswählt, wobei der Endpunkt
nicht in Kontakt mit der Kante des sichtbaren Bildes steht, und
ein Pixelwert des Punktes vor und nach der Feststellung des
geänderten Bildbereichs geändert ist.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP32094694A JP3270643B2 (ja) | 1994-12-22 | 1994-12-22 | 指示位置検出方法及び装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69526779D1 DE69526779D1 (de) | 2002-06-27 |
DE69526779T2 true DE69526779T2 (de) | 2002-10-24 |
Family
ID=18127059
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69526779T Expired - Lifetime DE69526779T2 (de) | 1994-12-22 | 1995-12-21 | Vorrichtung und Verfahren zur Detektion einer angezeigten Position |
Country Status (4)
Country | Link |
---|---|
US (1) | US6323839B1 (de) |
EP (1) | EP0718748B1 (de) |
JP (1) | JP3270643B2 (de) |
DE (1) | DE69526779T2 (de) |
Families Citing this family (79)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5936615A (en) * | 1996-09-12 | 1999-08-10 | Digital Equipment Corporation | Image-based touchscreen |
US6512507B1 (en) * | 1998-03-31 | 2003-01-28 | Seiko Epson Corporation | Pointing position detection device, presentation system, and method, and computer-readable medium |
DE19880483C1 (de) * | 1998-10-21 | 2000-03-30 | Vlg Virtual Laser Systems Gmbh | Eingabevorrichtung für einen Computer |
US6275214B1 (en) * | 1999-07-06 | 2001-08-14 | Karl C. Hansen | Computer presentation system and method with optical tracking of wireless pointer |
US6952198B2 (en) * | 1999-07-06 | 2005-10-04 | Hansen Karl C | System and method for communication with enhanced optical pointer |
JP2001075736A (ja) * | 1999-09-06 | 2001-03-23 | Canon Inc | 座標入力装置 |
JP2001222375A (ja) * | 2000-02-08 | 2001-08-17 | Seiko Epson Corp | 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体 |
JP3640156B2 (ja) | 2000-02-22 | 2005-04-20 | セイコーエプソン株式会社 | 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体 |
JP2001274208A (ja) * | 2000-03-23 | 2001-10-05 | Mitsubishi Electric Corp | マップデータ生成装置およびマップデータ生成方法 |
WO2001099045A1 (en) * | 2000-06-19 | 2001-12-27 | Temasek Polytechnic | A system and method for use in determining a cursor position |
JP4018326B2 (ja) * | 2000-08-07 | 2007-12-05 | キヤノン株式会社 | 座標入力装置及びその制御方法、コンピュータ可読メモリ |
US6600475B2 (en) * | 2001-01-22 | 2003-07-29 | Koninklijke Philips Electronics N.V. | Single camera system for gesture-based input and target indication |
US6731330B2 (en) * | 2001-01-30 | 2004-05-04 | Hewlett-Packard Development Company, L.P. | Method for robust determination of visible points of a controllable display within a camera view |
GB2374663A (en) | 2001-04-18 | 2002-10-23 | Nokia Corp | Presentation of images |
JP2003108305A (ja) * | 2001-09-28 | 2003-04-11 | Fuji Photo Optical Co Ltd | プレゼンテーションシステム |
US6803907B2 (en) * | 2001-10-04 | 2004-10-12 | Inventec Corporation | Wireless beam-pen pointing device |
US7348946B2 (en) * | 2001-12-31 | 2008-03-25 | Intel Corporation | Energy sensing light emitting diode display |
US6909406B2 (en) * | 2002-03-15 | 2005-06-21 | Dell Products L.P. | System and method for selecting a presentation mode |
US20040001082A1 (en) * | 2002-06-26 | 2004-01-01 | Amir Said | System and method of interaction with a computer controlled image display system using a projected light source |
US7161579B2 (en) | 2002-07-18 | 2007-01-09 | Sony Computer Entertainment Inc. | Hand-held computer interactive device |
US7646372B2 (en) | 2003-09-15 | 2010-01-12 | Sony Computer Entertainment Inc. | Methods and systems for enabling direction detection when interfacing with a computer program |
US7883415B2 (en) | 2003-09-15 | 2011-02-08 | Sony Computer Entertainment Inc. | Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion |
US8797260B2 (en) | 2002-07-27 | 2014-08-05 | Sony Computer Entertainment Inc. | Inertially trackable hand-held controller |
US7623115B2 (en) | 2002-07-27 | 2009-11-24 | Sony Computer Entertainment Inc. | Method and apparatus for light input device |
US7102615B2 (en) | 2002-07-27 | 2006-09-05 | Sony Computer Entertainment Inc. | Man-machine interface using a deformable device |
US9474968B2 (en) | 2002-07-27 | 2016-10-25 | Sony Interactive Entertainment America Llc | Method and system for applying gearing effects to visual tracking |
US9393487B2 (en) | 2002-07-27 | 2016-07-19 | Sony Interactive Entertainment Inc. | Method for mapping movements of a hand-held controller to game commands |
US7627139B2 (en) | 2002-07-27 | 2009-12-01 | Sony Computer Entertainment Inc. | Computer image and audio processing of intensity and input devices for interfacing with a computer program |
US7760248B2 (en) | 2002-07-27 | 2010-07-20 | Sony Computer Entertainment Inc. | Selective sound source listening in conjunction with computer interactive processing |
US8570378B2 (en) | 2002-07-27 | 2013-10-29 | Sony Computer Entertainment Inc. | Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera |
US8313380B2 (en) | 2002-07-27 | 2012-11-20 | Sony Computer Entertainment America Llc | Scheme for translating movements of a hand-held controller into inputs for a system |
US8686939B2 (en) | 2002-07-27 | 2014-04-01 | Sony Computer Entertainment Inc. | System, method, and apparatus for three-dimensional input control |
US9682319B2 (en) | 2002-07-31 | 2017-06-20 | Sony Interactive Entertainment Inc. | Combiner method for altering game gearing |
US20040119690A1 (en) * | 2002-12-24 | 2004-06-24 | Watters Scott W. | System and method to interact remotely with an application displayed on a display device |
US9177387B2 (en) | 2003-02-11 | 2015-11-03 | Sony Computer Entertainment Inc. | Method and apparatus for real time motion capture |
US8072470B2 (en) | 2003-05-29 | 2011-12-06 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
US8287373B2 (en) | 2008-12-05 | 2012-10-16 | Sony Computer Entertainment Inc. | Control device for communicating visual information |
US7874917B2 (en) | 2003-09-15 | 2011-01-25 | Sony Computer Entertainment Inc. | Methods and systems for enabling depth and direction detection when interfacing with a computer program |
US10279254B2 (en) | 2005-10-26 | 2019-05-07 | Sony Interactive Entertainment Inc. | Controller having visually trackable object for interfacing with a gaming system |
US9573056B2 (en) | 2005-10-26 | 2017-02-21 | Sony Interactive Entertainment Inc. | Expandable control device via hardware attachment |
US8323106B2 (en) | 2008-05-30 | 2012-12-04 | Sony Computer Entertainment America Llc | Determination of controller three-dimensional location using image analysis and ultrasonic communication |
TWI226784B (en) * | 2003-10-20 | 2005-01-11 | Ind Tech Res Inst | Multi-trails spot click-event detection method |
US7663689B2 (en) | 2004-01-16 | 2010-02-16 | Sony Computer Entertainment Inc. | Method and apparatus for optimizing capture device settings through depth information |
US7221356B2 (en) | 2004-02-26 | 2007-05-22 | Microsoft Corporation | Data input device and method for detecting an off-surface condition by a laser speckle size characteristic |
US7242466B2 (en) * | 2004-03-31 | 2007-07-10 | Microsoft Corporation | Remote pointing system, device, and methods for identifying absolute position and relative movement on an encoded surface by remote optical method |
US7292232B2 (en) * | 2004-04-30 | 2007-11-06 | Microsoft Corporation | Data input devices and methods for detecting movement of a tracking surface by a laser speckle pattern |
US7683881B2 (en) * | 2004-05-24 | 2010-03-23 | Keytec, Inc. | Visual input pointing device for interactive display system |
US8547401B2 (en) | 2004-08-19 | 2013-10-01 | Sony Computer Entertainment Inc. | Portable augmented reality device and method |
NO323926B1 (no) * | 2004-11-12 | 2007-07-23 | New Index As | Visuelt system samt styringsobjekt og apparat til bruk i systemet. |
US8781151B2 (en) | 2006-09-28 | 2014-07-15 | Sony Computer Entertainment Inc. | Object detection using video input combined with tilt angle information |
USRE48417E1 (en) | 2006-09-28 | 2021-02-02 | Sony Interactive Entertainment Inc. | Object direction using video input combined with tilt angle information |
US8310656B2 (en) | 2006-09-28 | 2012-11-13 | Sony Computer Entertainment America Llc | Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen |
US20080170033A1 (en) * | 2007-01-15 | 2008-07-17 | International Business Machines Corporation | Virtual pointer |
TW200903306A (en) * | 2007-07-12 | 2009-01-16 | Utechzone Co Ltd | System, control module, and method for remotely controlling a computer with optical tracking of an optical pointer |
US20090058805A1 (en) * | 2007-08-25 | 2009-03-05 | Regina Eunice Groves | Presentation system and method for making a presentation |
JP4829855B2 (ja) * | 2007-09-04 | 2011-12-07 | キヤノン株式会社 | 画像投影装置及びその制御方法 |
JP4964729B2 (ja) * | 2007-10-01 | 2012-07-04 | 任天堂株式会社 | 画像処理プログラムおよび画像処理装置 |
TWI355511B (en) * | 2007-10-08 | 2012-01-01 | Opus Microsystems Corp | Laser pointer with the pattern and size of project |
US8542907B2 (en) | 2007-12-17 | 2013-09-24 | Sony Computer Entertainment America Llc | Dynamic three-dimensional object mapping for user-defined control device |
KR101335346B1 (ko) | 2008-02-27 | 2013-12-05 | 소니 컴퓨터 엔터테인먼트 유럽 리미티드 | 장면의 심도 데이터를 포착하고, 컴퓨터 액션을 적용하기 위한 방법들 |
DE102008014143B4 (de) * | 2008-03-14 | 2011-05-12 | Wilke, Hans-Jürgen, Dipl.-Ing. | Beleuchtungssystem |
US8368753B2 (en) | 2008-03-17 | 2013-02-05 | Sony Computer Entertainment America Llc | Controller with an integrated depth camera |
US20110025925A1 (en) * | 2008-04-10 | 2011-02-03 | Karl Christopher Hansen | Simple-to-use optical wireless remote control |
US8961313B2 (en) | 2009-05-29 | 2015-02-24 | Sony Computer Entertainment America Llc | Multi-positional three-dimensional controller |
WO2010070870A1 (ja) * | 2008-12-18 | 2010-06-24 | 日本電気株式会社 | 情報取得装置、情報取得方法およびプログラム |
US8527657B2 (en) | 2009-03-20 | 2013-09-03 | Sony Computer Entertainment America Llc | Methods and systems for dynamically adjusting update rates in multi-player network gaming |
US8342963B2 (en) | 2009-04-10 | 2013-01-01 | Sony Computer Entertainment America Inc. | Methods and systems for enabling control of artificial intelligence game characters |
US8142288B2 (en) | 2009-05-08 | 2012-03-27 | Sony Computer Entertainment America Llc | Base station movement detection and compensation |
US8393964B2 (en) | 2009-05-08 | 2013-03-12 | Sony Computer Entertainment America Llc | Base station for position location |
JP5292210B2 (ja) * | 2009-07-16 | 2013-09-18 | 株式会社エルモ社 | 資料提示装置 |
KR20110058438A (ko) * | 2009-11-26 | 2011-06-01 | 삼성전자주식회사 | 프리젠테이션 녹화 장치 및 방법 |
KR20110069958A (ko) * | 2009-12-18 | 2011-06-24 | 삼성전자주식회사 | 프로젝터 기능의 휴대 단말기의 데이터 생성 방법 및 장치 |
KR20110121125A (ko) * | 2010-04-30 | 2011-11-07 | 삼성전자주식회사 | 인터랙티브 디스플레이 장치 및 이의 동작 방법 |
JP2013070368A (ja) * | 2011-09-05 | 2013-04-18 | Panasonic Corp | テレビ対話システム、端末および方法 |
KR20140031758A (ko) * | 2012-09-05 | 2014-03-13 | 삼성전자주식회사 | 포인팅 디바이스를 이용하여 aⅴ 데이터의 메뉴를 제어하기 위한 인터랙티브 그래픽 데이터를 기록한 정보저장매체, 그 재생방법 및 장치 |
JP6255810B2 (ja) * | 2013-09-06 | 2018-01-10 | セイコーエプソン株式会社 | 表示装置、及び、表示装置の制御方法 |
US9188426B2 (en) * | 2013-04-23 | 2015-11-17 | Bradley Allen Safranski | Non-contact visual measurement device |
CN106445195B (zh) | 2015-08-11 | 2019-05-24 | 华为技术有限公司 | 屏幕中激光点的位置检测方法、装置及系统 |
DE102018110644B4 (de) * | 2018-05-03 | 2024-02-15 | Carl Zeiss Meditec Ag | Digitales Mikroskop und digitales Mikroskopieverfahren |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5115230A (en) * | 1989-07-19 | 1992-05-19 | Bell Communications Research, Inc. | Light-pen system for projected images |
US5502459A (en) * | 1989-11-07 | 1996-03-26 | Proxima Corporation | Optical auxiliary input arrangement and method of using same |
US5504501A (en) * | 1989-11-07 | 1996-04-02 | Proxima Corporation | Optical input arrangement and method of using same |
JP2622620B2 (ja) * | 1989-11-07 | 1997-06-18 | プロクシマ コーポレイション | コンピュータにより発生されたデイスプレイ可視像を変更するためのコンピュータ入力システム |
US5138304A (en) * | 1990-08-02 | 1992-08-11 | Hewlett-Packard Company | Projected image light pen |
JPH07117868B2 (ja) * | 1991-04-30 | 1995-12-18 | インターナショナル・ビジネス・マシーンズ・コーポレイション | タツチ型作動キーボード定義方法及び装置 |
JPH05303467A (ja) * | 1991-10-04 | 1993-11-16 | Shigumatsukusu Kk | 操作入力装置 |
IT1268511B1 (it) * | 1993-02-23 | 1997-03-04 | Zeltron Spa | Sistema di interfaccia uomo-macchina |
-
1994
- 1994-12-22 JP JP32094694A patent/JP3270643B2/ja not_active Expired - Fee Related
-
1995
- 1995-12-21 DE DE69526779T patent/DE69526779T2/de not_active Expired - Lifetime
- 1995-12-21 EP EP95120241A patent/EP0718748B1/de not_active Expired - Lifetime
-
1997
- 1997-11-06 US US08/968,794 patent/US6323839B1/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH08179875A (ja) | 1996-07-12 |
EP0718748A3 (de) | 1996-08-21 |
JP3270643B2 (ja) | 2002-04-02 |
DE69526779D1 (de) | 2002-06-27 |
EP0718748B1 (de) | 2002-05-22 |
US6323839B1 (en) | 2001-11-27 |
EP0718748A2 (de) | 1996-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69526779T2 (de) | Vorrichtung und Verfahren zur Detektion einer angezeigten Position | |
DE69922076T2 (de) | Vorrichtung zur Feststellung einer Hinweisposition, Anzeigesystem und Verfahren | |
DE60028894T2 (de) | Präsentationssystem mit einer interaktiven Darstellung | |
DE69530395T2 (de) | Interaktives projektiertes videobildanzeigesystem | |
DE60205662T2 (de) | Vorrichtung und Verfahren zur Berechnung einer Position einer Anzeige | |
DE69629144T2 (de) | Verfahren und Vorrichtung zur Kamerakontrolle | |
DE60023900T2 (de) | Darstellungssysem für rechner und optisches spurfolgeverfahren eines drahtlosen zeigers | |
DE69430967T2 (de) | Interaktives Kopiersystem | |
DE3427658C2 (de) | ||
DE69320746T2 (de) | Rasterbildverbesserung unter Verwendung eines reduzierten Schablonenspeichers | |
DE2801536C2 (de) | Zeichenformkodiervorrichtung | |
DE69513756T2 (de) | Anlage zur Umschreibung von Wandtafelbildern mittels eines kamerabasierten Abtasters | |
DE60127644T2 (de) | Lehrvorrichtung für einen Roboter | |
DE69317153T2 (de) | Elektronische Schreibtafel | |
DE3809676C2 (de) | Anzeige- und Eingabeeinheit für ein Druck- und Kopiergerät | |
DE10241400B4 (de) | Verfahren zum Verwalten eines sequentiellen Prozesses unter Verwendung einer graphischen Benutzerschnittstelle | |
DE69125654T2 (de) | Fernsteueranordnung zur Steuerung eines Fernsehempfängers | |
DE3536603C2 (de) | ||
DE69519548T2 (de) | Verfahren zum Interpretieren handgeschriebener schematischer Benutzerschnittstellenbefehle | |
DE19530829C2 (de) | Verfahren zum elektronischen Wiederauffinden von einem Dokument hinzugefügter Information | |
DE102009032637A1 (de) | Bildvergrößerungssystem für eine Computerschnittstelle | |
DE3615906A1 (de) | Bildinformationserkennungsgeraet | |
DE69721887T2 (de) | Koordinatenleser, Zustandsumwandlungsverfahren, Interfacegerät und zugehöriges Koordinaten-Lesesystem | |
DE69618913T2 (de) | Eichung eines interaktiven Bürosystems | |
DE69021759T2 (de) | Vorrichtung zur Erzeugung einer Bewegungsinformation. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition |