DE69526779T2 - Vorrichtung und Verfahren zur Detektion einer angezeigten Position - Google Patents

Vorrichtung und Verfahren zur Detektion einer angezeigten Position

Info

Publication number
DE69526779T2
DE69526779T2 DE69526779T DE69526779T DE69526779T2 DE 69526779 T2 DE69526779 T2 DE 69526779T2 DE 69526779 T DE69526779 T DE 69526779T DE 69526779 T DE69526779 T DE 69526779T DE 69526779 T2 DE69526779 T2 DE 69526779T2
Authority
DE
Germany
Prior art keywords
image
detecting
changed
visible image
displayed position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69526779T
Other languages
English (en)
Other versions
DE69526779D1 (de
Inventor
Ryoji Fukuda
Takashi Harada
Kazuhiro Matsubayashi
Shigeki Mori
Katsuhiko Nagasaki
Kazutoshi Shimada
Shinichi Sunakawa
Eisaku Tatsumi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of DE69526779D1 publication Critical patent/DE69526779D1/de
Application granted granted Critical
Publication of DE69526779T2 publication Critical patent/DE69526779T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0386Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry for light pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

  • Diese Erfindung bezieht sich auf eine Vorrichtung zur Detektion einer angezeigten Position und auf ein Verfahren zur Detektion einer angezeigten Position in einem angezeigten Bild, das ein Anwender bestimmt.
  • Ein bekanntes Verfahren zum Darstellen oder dergleichen verwendet einen Digitalumsetzer als eine Projektionstafel, auf die ein Bild projiziert wird. Insbesondere wird ein Bild auf einem großflächigen Grafiktablett projiziert, und ein Zeigestab wird direkt nahe oder in Kontakt gebracht mit dem projizierten Bild (das heißt, Koordinateneingabefläche des Grafiktabletts). Dann werden die vom Grafiktablett bestimmten Koordinaten gelesen, und die Bestimmung wird auf einem Projektor wiedergegeben.
  • Die herkömmliche Technik leidet jedoch unter folgenden Problemen:
  • (1) Das Grafiktablett, das als Bildschirm zur Projektion von Bildern verwendet wird, muß groß sein. Dies verringert die Beweglichkeit.
  • (2) Das Grafiktablett selbst erfordert einen Feststellmechanismus, wie einen elektromagnetischen Induktionsdetektor und einen Druckdetektor. Dadurch kann kein großes Grafiktablett bei geringen Kosten geschaffen werden.
  • (3) Die Größe der Projektionsoberfläche wird bestimmt durch die Größe des Grafiktabletts. Dies kann den Projektor nicht entsprechend des Umfangs des Darstellplatzes installieren und ist unpraktikabel.
  • Das Dokument US-A-5 138 304 lehrt eine Fleckerzeugung auf einem lichtprojizierten Bild unter Verwendung eines Lichtstiftes und zum Vergleich der Kombination des projizierten Bildes und dem Lichtfleck auf einem Videobild, aus dem das projizierte Bild geschaffen wird. Die Position des Flecks wird somit bestimmt. Jedoch leidet die Lehre dieses Dokuments an dem Nachteil, daß ein Abschnitt des sichtbaren Bildes, bestimmt vom Zeigestab, nicht korrekt bestimmbar ist.
  • Das Dokument EP-A-0 613 079 lehrt, eine Oberfläche zu überwachen, bei der vorbestimmte Codebereiche festgelegt sind unter Verwendung einer Fernsehkamera, um so zu bestimmen, ob der vorbestimmte Codebereich bestimmt ist. Zu diesem Zwecke beurteilt der Stand der Technik durch Analysieren des Videosignals aus der Fernsehkamera, daß ein jeweiliger Codebereich wenigstens eine gewisse Zeit lang verdunkelt ist.
  • Das Dokument EP-A-0 535 988 lehrt, Helligkeitsdaten aus einem Bild einer Eingabebedieneinheit zu gewinnen unter Verwendung einer Fernsehkamera und Auslesen der Helligkeitsdaten gemäß Markierzonen, um so zu beurteilen, daß die Markierzonen bedient werden.
  • Die Dokumente EP-A-0 613 079 und EP-A-0 535 988 offenbaren jedoch lediglich die Beurteilung, ob in einer vorbestimmten Zone eine Änderung stattgefunden hat.
  • Die vorliegende Erfindung ist in Hinsicht auf die obigen Probleme entstanden und hat zur Aufgabe, eine Vorrichtung zur Detektion einer angezeigten Position zu schaffen sowie ein Verfahren zur Detektion einer angezeigten Position, wobei kein Grafiktablett als Bildschirm Anwendung findet, wodurch eine Beweglichkeit bereitgestellt wird, obwohl ein großflächiger Bildschirm einsetzbar ist.
  • Eine andere Aufgabe der vorliegenden Erfindung ist es, eine Vorrichtung und ein Verfahren zur Detektion einer angezeigten Position zu schaffen, die keinen Bildschirm mit einer speziellen Feststellfunktion erfordert, obwohl diese anwendbar ist bei großflächiger Projektionsoberfläche, womit die Kosten verringert werden.
  • Eine weitere Aufgabe der vorliegenden Erfindung ist es, eine Vorrichtung und ein Verfahren zur Detektion einer angezeigten Position zu schaffen, mit der leicht die Größe der Projektionsoberfläche gemäß dem Umfang des Darstellungsplatzes geändert werden kann.
  • Eine noch andere Aufgabe der vorliegenden Erfindung ist es, eine Vorrichtung und ein Verfahren zur Detektion einer angezeigten Position zu schaffen, die die Bestimmung durch den Anwender beurteilt auf der Grundlage von Status und Position eines Teiles vom sichtbaren Bild, das der Anwender geändert hat unter Verwendung eines Laserzeigers oder eines Zeigestabs oder dergleichen, und die Absicht des Anwenders wiedergibt.
  • Gemäß der vorliegenden Erfindung werden die vorstehenden Aufgabe gelöst durch Bereitstellen einer Vorrichtung zur Detektion einer angezeigten Position, wie im Patentanspruch 1 angegeben.
  • Des weiteren wird die vorstehende Aufgabe gelöst durch ein Verfahren zur Detektion einer angezeigten Position, wie es im Patentanspruch 8 angegeben ist, und ein Computerprogrammprodukt gemäß Patentanspruch 15.
  • Vorteilhafte Weiterentwicklungen der vorliegenden Erfindung sind in den abhängigen Patentansprüchen angegeben.
  • Gemäß der vorliegenden Erfindung, wie sie zuvor angegeben wurde, wird ein sichtbares Bild eingegeben. Des weiteren wird das sichtbare Bild teilweise geändert unter Verwendung eines Zeigestabs oder dergleichen, und das teilweise geänderte Bild wird ebenfalls eingegeben. Der geänderte Teil wird ausgelesen, und eine bestimmte Position wird festgestellt auf der Grundlage des ausgelesenen Teiles. Ein Phänomen, das die Bewegung durch den Anwender in einem sichtbaren Bild auf diese Weise als eine Änderung des sichtbaren Bildes auftritt, wird verwendet zur Feststellung von Koordinaten oder von der Bewegung des Teiles als Gegenstand der Änderung.
  • Vorzugsweise stellt die vorliegende Erfindung eine Vorrichtung zur Detektion einer angezeigten Position bereit, die weiterhin über ein Anzeigemittel verfügt, das das sichtbare Bild anzeigt.
  • Vorzugsweise führt das Anzeigemittel des Projektionstyps eine Bildanzeige aus, weil die Vergrößerung des sichtbaren Bildes möglich ist und weil die Größe des Anzeigebildschirms leicht gemäß einer Stelle geändert werden kann, wo das Gerät betrieben wird.
  • Vorzugsweise stellt das erste Feststellmittel den Teil des sichtbaren Bildes fest, der geändert wird durch Anzeigen eines gewünschten Abschnitts des sichtbaren Bildes mit dem Zeigestab, weil die Bestimmung im sichtbaren Bild leicht erfolgen kann unter Verwendung des Zeigestabs anstelle einer speziellen Einrichtung, wie einem Laserzeiger.
  • Vorzugsweise stellt das zweite Feststellmittel die Spitze des Zeigestabbildes fest, das dem sichtbaren Bild hinzugefügt ist und vom ersten Feststellmittel festgestellt wird, als die Bestimmungsposition, weil die Bestimmungsposition genauer feststellbar ist durch Feststellen der Spitze des Zeigestabs.
  • Vorzugsweise stellt die vorliegende Erfindung die Vorrichtung zur Detektion einer angezeigten Position bereit, die des weiteren über ein Beurteilungsmittel verfügt, das die An- /Abwesenheit der Bedienbestimmung beurteilt auf der Grundlage, ob sich der geänderte Bildbereich, festgestellt vom ersten Feststellmittel im sichtbaren Bild, weiter geändert hat. Wenn beispielsweise ein Teil des sichtbaren Bildes geändert wird unter Verwendung eines Zeigestabs, kann leicht beurteilt werden, ob die Änderung eine vom Anwender beabsichtigte Operation ist. Dies verbessert die Handhabbarkeit.
  • Die beiliegende Zeichnung, die einen Teil der Beschreibung bildet, veranschaulicht Ausführungsbeispiele der Erfindung und dient gemeinsam mit der Beschreibung der Erläuterung des Prinzips der Erfindung.
  • Fig. 1 ist ein Blockdiagramm, das den funktionalen Aufbau des Grafiktabletts gemäß einem erläuternden Beispiel zum Verständnis der vorliegenden Erfindung zeigt, wobei das erläuternde Beispiel im wesentlichen eine Anordnung des Standes der Technik wiedergibt, die aus dem Dokument US-A-5 138 304 bekannt ist;
  • Fig. 2 ist ein Blockdiagramm, das den Aufbau eines Grafiktabletts im erläuternden Beispiel zeigt;
  • Fig. 3 ist eine erläuternde Ansicht eines Betriebsbeispiels des erläuternden Beispiels;
  • Fig. 4 ist ein Beispiel eines Datenaufbaus einer Funktionstabelle, die Funktionsbuttons auf einem projizierten Bild festlegt;
  • Fig. 5 ist ein Ablaufdiagramm, das die Koordinatenfeststellungsverarbeitung gemäß dem erläuternden Beispiel darstellt;
  • Fig. 6 ist ein Ablaufdiagramm, das eine Verarbeitungsprozedur zum Vergleichen eines Bildes 11 mit einem Bild 12 und zum Feststellen eines geänderten Bildbereichs darstellt;
  • Fig. 7 ist ein Ablaufdiagramm, das eine Verarbeitungsprozedur zum Gewinnen zentraler Koordinaten des geänderten Bildbereichs darstellt;
  • Fig. 8 ist ein Ablaufdiagramm, das eine Verarbeitungsprozedur zum Feststellen eines minimalen X- Koordinatenwertes darstellt;
  • Fig. 9 ist ein Ablaufdiagramm, das eine Verarbeitungsprozedur zum Feststellen eines minimalen Y- Koordinatenwertes darstellt;
  • Fig. 10 ist ein Ablaufdiagramm, das eine Verarbeitungsprozedur zum Feststellen eines maximalen X- Koordinatenwertes darstellt;
  • Fig. 11 ist ein Ablaufdiagramm, das eine Verarbeitungsprozedur zum Feststellen eines maximalen Y- Koordinatenwertes darstellt;
  • Fig. 12 ist ein Ablaufdiagramm, das eine Verarbeitungsprozedur zum Feststellen einer Farbänderung darstellt;
  • Fig. 13 ist ein Ablaufdiagramm, das eine Verarbeitungsprozedur zum Feststellen des Ein- und Ausgehens vom Licht darstellt;
  • Fig. 14 ist eine erläuternde Ansicht in Verbindung mit dem Ausführungsbeispiel der vorliegenden Erfindung einer gewünschten Position auf einem Bildschirm, aufgezeigt durch einen Zeigestab 141;
  • Fig. 15 ist ein Ablaufdiagramm, das eine Verarbeitungsprozedur zum Feststellen eines Endpunktes gemäß dem Ausführungsbeispiel nach der vorliegenden Erfindung darstellt, wie es beansprucht ist;
  • Fig. 16A bis 16C sind erläuternde Ansichten, die eine Beziehung zwischen einem sichtbaren Bild auf dem Bildschirm und einem von einer Fernsehkamera eingegebenen Bild zeigen; und
  • Fig. 17 stellt ein strukturelles Merkmal eines Programms gemäß der vorliegenden Erfindung dar.
  • Nachstehend anhand der beiliegenden Zeichnung beschrieben sind bevorzugte Ausführungsbeispiele der vorliegenden Erfindung.
  • [Erläuterndes Beispiel]
  • Fig. 1 zeigt den funktionalen Aufbau eines Grafiktabletts als eine Vorrichtung zur Detektion einer angezeigten Position nach einem erläuternden Beispiel zum Verständnis der vorliegenden Erfindung, wobei das erläuternde Beispiel im wesentlichen eine Anordnung nach dem Stand der Technik wiedergibt, wie sie aus dem Dokument US-A-5 138 304 bekannt ist. In Fig. 1 bedeutet Bezugszeichen 1 eine Bildeingabeeinheit; Bezugszeichen 2 bedeutet eine Steuerung; Bezugszeichen 3 bedeutet eine Bildausgabeeinheit; Bezugszeichen 4 bedeutet einen Speicher; und Bezugszeichen 5 bedeutet eine Bildänderungseinheit.
  • Die Steuerung 2 gewinnt ein Bild aus dem Speicher 4 und gibt das Bild an die Bildausgabeeinheit 3 ab. Des weiteren speichert die Steuerung 2 ein Bild, das sie aus der Bildeingabeeinheit 1 gewinnt, in den Speicher 4. Das von der Bildausgabeeinheit 3 ausgegebene Bild wird teilweise geändert durch die Bildänderungseinheit 5 und ausgegeben in die Bildeingabeeinheit 1. Die Steuerung 2 stellt eine Änderung im Bild fest durch Vergleichen des eingegebenen Bildes mit dem im Speicher 4 gespeicherten Bild. Dann steuert die Steuerung 2 den Speicher 4 und die Bildausgabeeinheit 3 gemäß der festgestellten Änderung. Da die Bildeingabe fortgesetzt wird, bis die Bildeingabeeinheit 1 den Betrieb stoppt, kann die fortgesetzte Bewegung festgestellt werden.
  • Da es darüber hinaus möglich ist, sichtbare Gegenstände, wie einen Menschen (Präsentierender), einen Gegenstand, einen Lichtstrahl und dergleichen zwischen dem Ausgangsbild und dem Eingangsbild zu haben, ist die Steuerung auf der Grundlage der festgestellten Bewegung möglich, die herkömmlicherweise niemals berücksichtigt wurde. Darüber hinaus ist es möglich, zukünftig den natürlichen direkten Dialog zwischen der Maschine und dem Anwender über die Bilder zu realisieren durch Vergleichsmittel zum Erkennen des Anwenders und der Bewegung des Anwenders und Mittel zum Erkennen von Sprache.
  • Fig. 2 zeigt den Aufbau eines Grafiktabletts vom erläuternden Beispiel. Bezugszeichen 11 bedeutet eine Bildleseeinrichtung, wie eine Fernsehkamera oder eine Stehbildkamera, die als Bildeingabeeinheit 1 arbeitet. In diesem Beispiel wird eine Fernsehkamera zur Erläuterung verwendet. Bezugszeichen 12 bedeutet eine CPU, die verschiedene Steuerungen im Grafiktablett ausführt; Bezugszeichen 13 bedeutet eine Anzeige des Projektionstyps, die als Bildausgabeeinheit 3 arbeitet; und Bezugszeichen 14 bedeutet einen Hauptspeicher, in dem ein Bild von der Anzeige 13 des Projektionstyps ausgegeben wird sowie verschiedene Steuerprogramme für die CPU gespeichert werden. Ein Steuerprogramm zum Ausführen der später zu beschreibenden Steuerung gemäß den Ablaufdiagrammen ist ebenfalls im Hauptspeicher 14 gespeichert. Bezugszeichen 15 bedeutet einen Laserzeiger, der teilweise ein Bild ändert, das von der Anzeige 13 des Projektionstyps auf einen Bildschirm 16 projiziert wird durch Strahlen eines Laserstrahls auf den Bildschirm 16. Bezugszeichen 16 bedeutet einen Bildschirm, auf den Bilder projiziert werden.
  • Fig. 3 zeigt ein Betriebsbeispiel des vorliegenden erläuternden Beispiels. In Fig. 3 wird die angezeigte Seite einer Abtastung zur nächsten Seite geändert.
  • Dieses Beispiel ist eine Darstellung beispielsweise eines Ereignisses oder eines Treffens einer akademischen Gesellschaft. Ein Präsentierender 30 hat Dokumente und dergleichen im Hauptspeicher 14 im voraus gespeichert. Nach Darstellung die CPU 12 die Anzeige 13 des Projektionstyps, um eines der Bilder von den gespeicherten Dokumenten auf den Bildschirm 16 zu projizieren. Der Präsentierende 30 gibt eine Erläuterung über das projizierte Bild (Dokument). Das projizierte Bild wird unmittelbar in den Hauptspeicher 14 über die Fernsehkamera 11 unter Steuerung der CPU 12 gespeichert. Im verlauf der Darstellung ändert sich das Bezugsbild teilweise, wenn der Präsentierende 30 den Laserzeiger 15 manipuliert, um einen Laserstrahl auf den Bildschirm 16 zu strahlen, und die Fernsehkamera 11 gibt das geänderte Bild ein. Die CPU 12 stellt die Änderung des Bildes durch Vergleich des zuvor im Hauptspeicher gespeicherten Bildes mit dem von der Fernsehkamera 11 eingegebenen Bildes fest, und führt die Steuerung auf der Grundlage des Feststellergebnisses aus.
  • Der Präsentierende 30 strahlt beispielsweise den Laserstrahl vom Laserzeiger 15 auf einen Funktionsbutton 161 mit einer Bezeichnung "NEXT" im projizierten Bild "PAGE 1", schaltet dann das Laserlicht auf dem Funktionsbutton 161 ein und aus (anderenfalls Änderung der Farbe vom Laserlicht). Nach der Licht-Ein/Aus-Feststellroutine (oder der Farbänderungsfeststellroutine), die später zu beschrieben ist, wird eine Position (Koordinate) festgestellt, bei der das Laserlicht begann, ein- und ausgeschaltet zu werden (anderenfalls wird die Farbe des Laserlichts geändert), bezugnehmend auf einer Funktionstabelle, wie sie in Fig. 4 gezeigt ist, und welcher Button die Koordinaten der Position enthält, auf die der Laser zeigt, wird wieder aufgefunden. In diesem Beispiel wird der Button "NEXT" vom Bild "PAGE 1" wieder aufgefunden, so daß die Funktion "PageNext" gelesen wird, dann wird die Anzeige über das nächste Seitenbild geändert. Fig. 4 zeigt ein Beispiel eines Datenaufbaus der Funktionstabelle, die die obigen Funktionsbuttons festlegt. Die Funktionstabelle wird im Hauptspeicher 14 gemäß der jeweiligen Projektionsbilder gespeichert.
  • Als nächstes beschrieben ist die Verarbeitung gemäß dem vorliegenden erläuternden Beispiel zum Realisieren des obigen Betriebs. Fig. 5 bis 13 sind Ablaufdiagramme, die die Verarbeitungsprozedur zum Feststellen einer Position eines geänderten Bildabschnitts darstellen. Angemerkt sei, daß vor Ausführen der in Fig. 5 gezeigten Verarbeitung (das heißt, nach Aktivieren des vorliegenden Systems) eine Verschiebung zwischen einem Eingabekoordinatensystem und einem Ausgabekoordinatensystem korrigiert wird. Das heißt, Winkel, Abstand, Vergrößerungsverhältnis und so weiter der Fernsehkamera werden justiert, und der ganze Anzeigebereich der Anzeige 13 des Projektionstyps wird eingestellt auf Eingabeannahme. Da jedes Gerät eine vorbestimmte Auflösung und eine Anzahl von Pixeln hat, wird die Verschiebung zwischen dem Eingabekoordinatensystem und dem Ausgabekoordinatensystem gewonnen als Vergrößerungskoeffizienten in X- und Y-Richtung, und diese werden mit den Koordinatenwerten der Funktionstabelle in Fig. 4 multipliziert.
  • Beispielsweise werden 300 · 400 Pixelbilddaten als sichtbares Bild auf dem Bildschirm 16 von der Anzeige 13 des Projektionstyps angezeigt (wie Fig. 16A), und das angezeigte Bild wird von der Fernsehkamera 11 eingegeben, die eine Auflösung von 350 · 500 Pixeln hat (siehe Fig. 16B). Wenn bei diesem Aufbau das sichtbare Bild, angezeigt auf dem Bildschirm 16, eingegeben wird in den ganzen Bildrahmen der Fernsehkamera 11, werden die Vergrößerungskoeffizienten 300/350 in Vertikalrichtung und 400/500 in Horizontalrichtung. Wenn des weiteren, wie in Fig. 16C gezeigt, das sichtbare Bild, angezeigt auf dem Bildschirm 16, innerhalb eines Bereichs (Größe vom Y- Bereichpixel · X-Bereichpixel) kleiner als der Bildrahmen von der Fernsehkamera 11 eingegeben wird, sind die Vergrößerungskoeffizienten 300/Y-Bereich in Vertikalrichtung und 400/X-Bereich in Horizontalrichtung. Da in diesem Falle der Ausgangspunkt vom sichtbaren Bild nicht mit demjenigen des eingegebenen Bildes übereinstimmt, muß der Verschiebungsbetrag zu den Originalpunkten den Koordinatenwerten der Funktionstabelle hinzugefügt werden. In Fig. 16C werden Y-OFF- Pixel in Vertikalrichtung und X-OFF-Pixel in Horizontalrichtung den Koordinatenwerten der Funktionstabelle hinzugefügt.
  • Fig. 5 zeigt die Hauptroutine bei der Verarbeitung zum Feststellen der Koordinaten des geänderten Bildabschnitts. In Schritt S41 wird ein Bild, projiziert auf den Bildschirm 16, von der Fernsehkamera 11 als Bild I1 eingegeben. Als nächstes wird ein anderes Bild von der Fernsehkamera 11 eingegeben, nachdem das Bild I1 als ein Bild I2 eingegeben worden ist. In Schritt 543 wird eine Unterroutine zum Vergleichen des Bildes I1 mit dem Bild I2 gelesen, und ein Bildbereich, bei dem das Bild teilweise geändert ist, wird festgestellt. In Schritt S44 wird eine Unterroutine zum Feststellen einer Mittelposition des festgestellten Bildbereichs gelesen, und die Mittelkoordinaten des geänderten Bildbereichs werden gewonnen. In Schritt S45 werden des weiteren gewonnene Koordinaten an eine Farbänderungs- Feststellroutine (ist später anhand der Fig. 12 oder 13 zu beschreiben) gegeben, wo eine bestimmte Funktion ausgeführt wird.
  • Im Betrieb zur Änderung des angezeigten Bezugsbildes (das heißt, Wechseln auf die nächste Seite), wenn das Anfangsbild I1 ersetzt wird durch ein anderes Bild, kehrt der Prozeß von Schritt S46 zurück zu Schritt S41, bei dem das andere Bild, angezeigt nach dem Bild I1, als Anfangsbild I1 eingegeben wird. Wenn in Schritt S47 die Abschlußoperation durch den Nutzer erfolgt, wenn Störungen auftreten aufgrund eines Fehler oder dergleichen, wird andererseits bestimmt, ob die Verarbeitung abzuschließen ist. Wenn NEIN, kehrt der Prozeß zu Schritt S42 zur Eingabe des nächsten Bildes zurück und die obige Verarbeitung wird wiederholt.
  • Fig. 6 zeigt die Unterroutine zum Vergleich des Bildes I1 mit dem Bild I2, um einen Minimalwert der X-Koordinate, einen Maximalwert der X-Koordinate, einen Minimumwert der Y-Koordinate und einen Maximalwert einer Y-Koordinate des Bildbereiches festzustellen, der zwischen den Bilder unterschiedlich ist. Das heißt, dieses Ablaufdiagramm zeigt die Unterroutine, die in Schritt S43 aufgerufen wird. In Schritt S51 wird eine Unterroutine (Fig. 8) zum Feststellen des Minimalwertes der X- Koordinate aufgerufen; in Schritt S52 wird eine Unterroutine (Fig. 9) zum Feststellen des Minimalwertes der Y-Koordinate aufgerufen; in Schritt S53 wird eine Unterroutine (Fig. 10) zum Feststellen des Maximalwertes der X-Koordinate aufgerufen; und in Schritt S54 wird eine Unterroutine zum Feststellen des Maximalwertes der Y-Koordinate aufgerufen. Da die Unterroutinen einander gleichen, obwohl sie unterschiedlich sind als X/Y- Koordinate und Maximal-/Minimalwert, wird nur die Unterroutine (Fig. 8) zum Feststellen des Minimalwertes der X-Koordinate beschrieben.
  • Fig. 8 zeigt die Unterroutine zum Erzielen des Minimalwertes der X-Koordinate. Angemerkt sei, daß in der folgenden Erläuterung über das Ablaufdiagramm von Fig. 8 "Xmin" und "Ymin" minimale Koordinatenwerte in einem eingegebenen Bild bedeuten. Normalerweise werden diese Werte automatisch bestimmt nach Eingabe des Anfangsbildes I1 aus dem Bildeingabeeinheit 1, es sei denn, die Einstellung (Bereichsbestimmung durch den Anwender) oder dergleichen wird ausgeführt. Auch werden "Xmax" und "Ymax" automatisch bestimmt nach Eingabe des Bildes I1. Das heißt, "Xmax" und "Ymax" sind "Xmin" und "Ymin" gleich, sofern sie Maximalwerte sind.
  • In Schritt S70 werden die zuvor genannten Werte Xmin und Ymin verwendet zum Einstellen der Anfangswerte für die X- und Y- Koordinate. In Schritt S71 wird der Pixelwert bei der Koordinate (X, Y) des Bildes I1 durch P1 substituiert. In Schritt S72 wird der Pixelwert der Koordinaten (X, Y) des Bildes I2 durch P2 substituiert. In Schritt S73 werden die Werte P1 und P2 miteinander verglichen, und das Vergleichsergebnis wird durch P substituiert. Beim Vergleich wird ein exklusives logisches OR (XOR) angewandt. In Schritt S74 wird das Vergleichsergebnis beurteilt. Wenn insbesondere P = 0, das heißt, die Pixelwerte P1 und P2 sind einander gleich, schreitet der Prozeß fort zu Schritt S75, um das nächste Pixel zu untersuchen. Wenn andererseits P ≠ 0, das heißt, wenn die Pixelwerte P1 und P2 unterschiedlich sind, schreitet der Prozeß fort zu Schritt S79. In Schritt S79 wird der X-Wert zu dieser Zeit als ein Minimalwert der X-Koordinate gehalten, und der Prozeß endet.
  • Nach Überprüfen des nächsten Pixels wird der Y- Koordinatenwert um Eins in Schritt S75 inkrementiert (Y + 1), dann wird beurteilt, ob der Y-Koordinatenwert einen Bereich des zu überprüfenden Bildes überschreitet, und wenn NEIN, kehrt der Prozeß zu Schritt S71 zurück. Im Falle von JA, das heißt, der Y- Koordinatenwert überschreitet den Bereich (Ymax), schreitet der Prozeß fort zu Schritt S77, bei dem der Y-Koordinatenwert auf den Anfangswert (Ymin) eingestellt wird, und der X- Koordinatenwert wird um Eins inkrementiert (X + 1). In Schritt S78 wird beurteilt, ob der X-Koordinatenwert den Bereich des Bildes überschreitet, und wenn NEIN, kehrt der Prozeß zurück zu Schritt 571. Wenn der X-Koordinatenwert den Bereich (Xmax) überschreitet, schreitet der Prozeß fort zu Schritt S79, bei dem der X-Koordinatenwert als Anfangswert (Xmin) gehalten wird, und der Prozeß endet.
  • Durch die Steuerung, wie sie im Ablaufdiagramm von Fig. 8 dargestellt ist, wird auf diese Weise der Minimalwert der X- Koordinate in dem geänderten Bildbereich gewonnen. Durch die Steuerung, wie sie im Ablaufdiagramm von den Fig. 9 bis 11 dargestellt ist, werden gleichermaßen der minimale Wert der Y- Koordinate, der maximale Wert der X-Koordinate und der maximale Wert der Y-Koordinate im Bildbereich gewonnen.
  • Fig. 7 zeigt eine Unterroutine zum Erzielen der Mittelkoordinaten des geänderten Bildbereichs, wie die Koordinaten des Bildbereichs, bei dem das Bild geändert worden ist. Das heißt, Fig. 7 zeigt die Unterroutine, die in Schritt 544 von Fig. 5 aktiviert wurde. Die Mittelkoordinaten werden gewonnen auf der Grundlage des Minimalwertes der X-Koordinate, des Maximalwertes der X-Koordinate, des Minimalwertes der Y- Koordinate und des Maximalwertes der Y-Koordinate in den Schritten S51 bis S54 in Fig. 6, und die gewonnenen Mittelkoordinaten werden als (X, Y) zurückgegeben.
  • Fig. 12 ist ein Ablaufdiagramm, das die Farbänderungs- Feststellroutine darstellt, die in Schritt S45 in Fig. 5 ausgeführt wird. In Schritt S111 werden die Koordinaten des geänderten Bildbereichs und der Pixelstatus bei den Koordinaten durch die Fernsehkamera 11 eingegeben. In Schritt S112 wird überprüft, ob sich der Pixelstatus geändert hat, und wenn sich der Pixelstatus geändert hat (das heißt, die Farbe des Laserstrahls hat sich geändert), schreitet der Prozeß fort zu Schritt S113. In Schritt S113 wird Bezug genommen auf die Funktionstabelle, wie sie in Fig. 4 gezeigt ist, und es wird ein Button gemäß den festgestellten Koordinaten herausgefunden. In Schritt S114 wird eine Funktion gemäß dem herausgefundenen Ergebnis gelesen. Bei dieser Prozedur kann die Änderungsoperation, wie die Änderung von OHP-Blättern (Overheadprojektorblätter), realisiert werden.
  • Die Feststellung vom Pixelstatus in Schritt S112 erfolgt durch Feststellen, ob der Pixelwert der Koordinaten, gewonnen in Schritt S44, vom neu eingegebenen Bild in Schritt S111 unterschiedlich ist im Vergleich zu zugehörigen Pixeln in den Bildern I1 und I2. Angemerkt sei, daß, wenn in Schritt S112 eine Farbänderung nicht festgestellt wird, der Prozeß fortschreitet zu Schritt S112a. In Schritt S112a wird bestimmt, ob eine vorbestimmte Zeitdauer verstrichen ist. Wenn NEIN, kehrt der Prozeß zu Schritt S111 zurück, um die Verarbeitung fortzusetzen, während im Falle von JA der Prozeß zur Hauptroutine zurückkehrt, da die Operationsbestimmung nicht erfolgt ist.
  • Fig. 13 ist ein Ablaufdiagramm, das die Licht-Ein/Aus- Feststellroutine darstellt. In Schritt S21 werden die Koordinaten des geänderten Bildbereichs und der laufende Pixelstatus bei den Koordinaten von der Fernsehkamera 11 eingegeben, ebenso wie in Schritt S111. In Schritt S122 wird überprüft, ob sich der Pixelstatus geändert hat, durch Vergleichen des Pixels mit einem zugehörigen Pixel des Bildes I2. Wenn JA (das heißt, das Licht ist ausgeschaltet), schreitet der Prozeß fort zu Schritt S123, während bei NEIN (das heißt, das Licht ist eingeschaltet geblieben), schreitet der Prozeß fort zu Schritt S122a, um die Verarbeitung fortzusetzen. In Schritt S123 werden die Koordinaten des geänderten Bildbereichs und der Pixelstatus erneut eingegeben, und in Schritt S124 wird der Pixelstatus überprüft. Wenn sich der Pixelstatus geändert hat (das heißt, das Licht hat sich wieder eingeschaltet), wird bestimmt, daß es eine Änderung im Bildbereich gegeben hat, da sich der Pixelstatus von dem vorherigen Status unterscheidet, und die Verarbeitung in Schritt S125 und die nachfolgenden Schritte werden ausgeführt. Wenn NEIN (das heißt, das Licht ist ausgeschaltet geblieben), schreitet die Verarbeitung fort zu Schritt S124a. In den Schritten S125 und S126 wird dieselbe Verarbeitung wie jene in den Schritten S113 und S114 gemäß Fig. 12 ausgeführt. Somit realisiert die obige Verarbeitung die Bestimmung des Ein- und Ausgehens vom Laserstrahl aus dem Laserzeiger.
  • In den Schritten S122a und S124a wird bestimmt, ob eine vorbestimmte Zeitdauer verstrichen ist. Wenn NETN, kehrt der Prozeß von Schritt S122a zu Schritt S121 zurück und ebenso von Schritt S124a zu Schritt S123. Wenn die vorbestimmte Zeit verstrichen ist bei irgendeinem der Schritte S122a und S124a, wird bestimmt, daß es keine Betriebsbestimmung gegeben hat, und der Prozeß kehrt zur Hauptroutine zurück.
  • Wie zuvor beschrieben, kann gemäß dem erläuternden Beispiel die Bestimmung einer Position eines angezeigten Bildes unter Verwendung eines Tabletts erfolgen und ein großflächiger Bildschirm eines Koordinateneingabegerätes kann leicht aufgebaut werden. Da die Farbänderung oder das Ein-/Ausschalten vom Laserstrahl aus dem Laserzeiger festgestellt wird zum Erkennen Absichtsbestimmung des Anwenders, kann die Bestimmung des Anwenders exakt wiedergegeben werden.
  • [Ausführungsbeispiel]
  • Das erläuternde Beispiel verwendet einen Laserzeiger, um eine Änderung des angezeigten Bildes bereitzustellen. In diesem Ausführungsbeispiel wird ein Zeigestab anstelle des Laserzeigers 15 verwendet. Das heißt, im Ausführungsbeispiel stellt die CPU 12 einen Endpunkt eines geänderten Bildbereichs fest und bestimmt die Koordinaten des Punktes als eine Bestimmungsposition.
  • Fig. 14 zeigt ein Bild, das auf dem Bildschirm angezeigt wird, und einen Zeigestab 141, der auf eine gewünschte Position des Bildes zeigt. Fig. 14 zeigt auch ein Bild, das die Fernsehkamera 11 eingegeben hat. In diesem Falle wird der Bildbereich festgestellt, der durch Anzeigen durch den Zeigestab 141 geändert wurde, als rechteckiger Bereich festgestellt mit einer Diagonalen, die festgelegt ist durch gegenstehende Winkelpunkte Q und R (durch die oben beschriebene Verarbeitung in Fig. 6). Um die bestimmten Koordinaten zu erzielen, ist es erforderlich, einen Endpunkt des Zeigestabes 141 zu kennen. Fig. 15 ist ein Ablaufdiagramm, das die Verarbeitungsprozedur gemäß dem Ausführungsbeispiel zum Feststellen des Endpunktes darstellt. Fig. 15 wird verwendet anstelle der in Fig. 7 gezeigten Bereichskoordinaten-Feststellprozedur.
  • Welcher der Punkte Q und R der Endpunkt ist, wird in Schritt S131 bestimmt, basierend darauf, ob der Punkt in Kontakt mit der Kante des angezeigten Bildes ist. Der Punkt Q hat einen Wert (Xmin', Ymin'), und der Punkt R hat einen Wert (Xmax', Ymax') des Bereichs. "Xmax'", "Ymax'", "Xmin "' und "Ymin'" sind jeweils der Maximalwert der X-Koordinate, der Maximalwert der Y- Koordinate, der Minimalwert der X-Koordinate beziehungsweise der Minimalwert der Y-Koordinate, die in der in Fig. 6 beschriebenen Verarbeitung gewonnen werden. Wenn der Punkt Q in Kontakt steht mit der Kante des angezeigten Bildes, schreitet der Prozeß fort zu Schritt S132, um die Koordinaten des Punktes Q mit jenen des Punktes R zu tauschen.
  • Im Falle, bei dem der Zeigestab 141 in einem entgegengesetzten Winkel zu demjenigen in Fig. 14 geneigt ist, da ein Punkt S der Bestimmungspunkt ist, werden die Koordinaten vom Punkt Q nicht als Endpunktkoordinaten verwendet. In diesem Falle wird in Schritt S133 überprüft, ob sich der Pixelstatus am Punkt Q bei den Bildern I1 und I2 unterscheidet. Wenn sich der Pixelstatus am Punkt Q geändert hat, wird bestimmt, daß der Endpunkt der Punkt Q ist und dann werden die Koordinaten des Punktes Q bereitgestellt als Endpunktkoordinaten (S134 und S136). Wenn sich andererseits der Pixelstatus am Punkt Q nicht geändert hat, wird bestimmt, daß der Endpunkt der Punkt S ist und die Koordinaten des Punktes S werden als Endpunktkoordinaten bereitgestellt (S135 und S136). Somit können die Koordinaten der Bestimmung des Zeigestabes festgestellt werden.
  • Wenn der Laserzeiger in Verwendung ist, wird die Absicht des Anwenders erkannt durch Feststellen des Ein- und Ausgehens vom Laserstrahl (oder Ändern der Farbe des Laserstrahls) im Funktionsbuttonbereich. Jedoch kann der Zeigestab kein Licht emittieren, um ein- und ausgeschaltet zu werden (oder um in der Farbe geändert zu werden), und aus diesem Grund können die Zeitvorgabe der beabsichtigten Operation durch den Anwender und die Koordinaten zur Zeit der beabsichtigten Operation nicht festgestellt werden. Wenn der Funktionsbutton auf dem angezeigten Bild mit dem Zeigestab betätigt wird, erfolgt folglich die Bestimmung der beabsichtigten Operation durch Halten des Zeigestabes auf dem Funktionsbutton für eine vorbestimmte Dauer. Der gewählte Funktionsbutton wird bestimmt durch Anwenden der Koordinaten, bevor der Zeigestab gehalten wird.
  • Angemerkt sei, daß die Bestimmung vom Haltestatus des Zeigestabes durch Feststellen der Anwesenheit der Spitze des Zeigestabes innerhalb eines vorbestimmten Koordinatenbereichs für eine vorbestimmte Dauer oder länger erfolgt. Vorzugsweise ist der vorbestimmte Koordinatenbereich die Position und Größe des Funktionsbuttons.
  • Gemäß dem Ausführungsbeispiel kann eine spezielle Bedieneinrichtung, wie ein Laserzeiger, fortgelassen werden.
  • Wie zuvor beschrieben, erfordert die Erfindung keinerlei Bildschirm (Grafiktablett), das für eine Vorrichtung zur Detektion einer angezeigten Position vorzusehen ist. Dieses stellt Beweglichkeit des Gerätes bereit, da es nicht erforderlich ist, eine große Projektionstafel zu transportieren.
  • Die vorliegende Erfindung erfordert keinen Bildschirm mit einer speziellen Feststellfunktion. Wenn die Verwendung einer großen Projektionstafel in Betracht gezogen wird, stellt die vorliegende Erfindung eine Vorrichtung zur Detektion einer angezeigten Position bei geringeren Kosten bereit im Vergleich mit dem herkömmlichen Stand der Technik, der ein Grafiktablett mit großer Feststelloberfläche erfordert.
  • Da herkömmlicherweise die Größe eines Projektionsbildschirms feststehend ist, ist es schwierig, die Projektionsoberflächengröße gemäß dem Umfang des Präsentationsplatzes einzustellen. Die vorliegende Erfindung stellt jedoch eine Vorrichtung zur Detektion einer angezeigten Position bereit, die anwendbar ist an einer Präsentationsstelle durch Einstellen des Bildausgabemittels und des Bildeingabemittels, womit die Vorrichtung in breitem Bereich verwendbar ist.
  • Die vorliegende Erfindung verwendet das Bildeingabemittel, das heißt, des weiteren das optische Feststellmittel. Selbst an einer entfernten Stelle, von der aus der Präsentierende den Zeigestab nicht verwenden kann, kann eine Fernoperationsbestimmung erfolgen durch Anwenden eines optischen Bestimmungsmittels, wie einem Laserzeiger.
  • Die vorliegende Erfindung läßt sich anwenden bei einem System, das aus einer Vielzahl von Einrichtungen besteht (beispielsweise aus einem Hauptcomputer, einer Schnittstelle, einem Leser, einem Drucker), oder bei einem Gerät, das eine einzelne Einrichtung enthält (beispielsweise ein Kopierer oder ein Fax-Gerät).
  • Die Aufgabe der vorliegenden Erfindung kann des weiteren auch erreicht werden durch Bereitstellen eines Speicherträgers, der Programmcodes speichert zum Ausführen der zuvor beschriebenen Prozesse bezüglich eines Systems oder eines Gerätes, Lesen der Programmcodes mit einem Computer (das heißt CPU, CPU) vom System oder Gerät aus dem Speicherträger, und dann Ausführen des Programms.
  • In diesem Falle realisieren die Programmcodes, die aus dem Speicherträger gelesen werden, die Funktionen gemäß den Ausführungsbeispielen, und der Speicherträger speichert Programmcodes, die die Erfindung beinhalten.
  • Der Speicherträger, wie eine Diskette, eine Festplatte, eine optische Platte, eine magneto-optische Platte, CD-ROM, CD-R, ein Magnetband, eine nichtflüchtige Speicherkarte und ein ROM, kann des weiteren verwendet, um die Programmcodes bereitzustellen.
  • Neben den zuvor genannten Funktionen gemäß dem obigen Ausführungsbeispiel, die realisiert werden durch Ausführen der Programmcodes, die von einem Computer gelesen werden, umfaßt die vorliegende Erfindung des weiteren einen Fall, bei dem ein OS (Betriebssystem) oder dergleichen, das auf dem Computer arbeitet, einen Teil der gesamten Prozesse gemäß den Bestimmung von Programmcodes ausführt und Funktionen gemäß dem obigen Ausführungsbeispiel realisiert.
  • Die vorliegende Erfindung umfaßt auch des weiteren einen Fall, bei dem, nachdem die aus dem Speicherträger gelesenen Programmcodes in eine Funktionserweiterungstafel, die in den Computer eingefügt ist, oder in einen Speicher, der in einer Funktionserweiterungseinheit bereitsteht, der verbunden ist mit dem Computer, geschrieben wurden, die CPU oder dergleichen, enthalten in der Funktionserweiterungstafel, oder eine Einheit einen Teil oder den gesamten Prozeß gemäß den Bestimmungen der Programmcodes ausführen und Funktionen des obigen Ausführungsbeispiels realisieren.
  • Im Falle, bei dem die vorliegende Erfindung bei dem zuvor genannten Speicherträger angewandt wird, speichert der Speicherträger Programmcodes gemäß den Ablaufdiagrammen, die im Ausführungsbeispiel beschrieben sind. Kurz gesagt, der Speicherträger speichert jedes Modul, das als ein Beispiel einer Speichertafel in Fig. 17 gezeigt ist. Genauer gesagt, Programmcodes, die einem eingegebenen Prozeßmodul, einem ersten Feststellprozeßmodul und wenigstens einem ersten Feststellprozeßmodul entsprechen, sind im Speicherträger zu speichern.
  • Das eingegebene Prozeßmodul ist ein Programmodul zum Ausführen der Verarbeitung zur Eingabe eines angezeigten sichtbaren Bildes. Das erste Feststellprozeßmodul ist ein Programmodul zum Feststellen, daß sich das sichtbare Bild, eingegeben beim Eingabeprozeß, teilweise geändert hat. Das zweite Feststellprozeßmodul ist ein Programmodul zum Feststellen einer bestimmten Position in einem sichtbaren Bild, basierend auf dem Teiländerungsabschnitt des sichtbaren Bildes, der beim ersten Feststellprozeß nachgewiesen wird.

Claims (17)

1. Vorrichtung zur Detektion einer angezeigten Position, mit:
Einem Eingabemittel (11) zur Eingabe eines sichtbaren Bildes;
einem Feststellmittel (12) zum Feststellen eines geänderten Bildbereichs, wobei sich das sichtbare Licht im vom Eingabemittel eingegebenen sichtbaren Bild geändert hat;
einem Erzeugungsmittel zum Erzielen einer Vielzahl von Endpunkten (Q, R), die gegenüberliegende Enden einer Diagonalen eines rechteckigen Bereichs im geänderten Bildbereich festlegen; und
einem Auswahlmittel zur Auswahl eines Endpunktes (Q) aus der Vielzahl von Endpunkten, die nicht in Kontakt mit der Kante des sichtbaren Bildes stehen, als Bestimmungsposition im sichtbaren Bild.
2. Vorrichtung zur Detektion einer angezeigten Position nach Anspruch 1, die des weiteren über ein Anzeigemittel (13) zur Anzeige des sichtbaren Bildes verfügt.
3. Vorrichtung zur Detektion einer angezeigten Position nach Anspruch 2, deren Anzeigemittel das sichtbare Bild beim Auftreten mit einem Projektionsverfahren anzeigt.
4. Vorrichtung zur Detektion einer angezeigten Position nach Anspruch 1, deren Feststellmittel den durch Anzeigen einer gewünschten Position im sichtbaren Bild unter Verwendung eines Zeigestabs (141) geänderten Bildbereich feststellt.
5. Vorrichtung zur Detektion einer angezeigten Position nach Anspruch 4, deren Auswahlmittel eine Spitze des Zeigestabs auswählt, der im vom Feststellmittel als die Bestimmungsposition festgestellten geänderten Bildbereich enthalten ist.
6. Vorrichtung zur Detektion einer angezeigten Position nach Anspruch 1, die des weiteren über ein Speichermittel (4) verfügt zum Speichern des sichtbaren Bildes, eingegeben vom Eingabemittel als ein Originalbild, wobei das Feststellmittel den geänderten Bildbereich feststellt durch Vergleichen eines sichtbaren Bildes, das das Eingabemittel mit dem Originalbild eingibt.
7. Vorrichtung zur Detektion einer angezeigten Position nach Anspruch 1, deren Eingabemittel eine Bildleseeinrichtung ist.
8. Verfahren zur Detektion einer angezeigten Position, mit den Verfahrensschritten:
Eingeben eines sichtbaren Bildes;
Feststellen eines geänderten Bildbereichs, wobei das sichtbare Bild im sichtbaren Bild geändert ist, das im Verfahrensschritt des Eingebens eingegeben wurde;
Gewinnen einer Vielzahl von Endpunkten (Q, R), die gegenüberliegende Enden einer Diagonalen eines rechteckigen Bereichs vom geänderten Bildbereich festlegen; und
Auswählen eines Endpunktes aus der Vielzahl von Endpunkten, die nicht in Kontakt mit einer Kante des sichtbaren Bildes stehen, als Bestimmungsposition im sichtbaren Bild.
9. Verfahren zur Detektion einer angezeigten Position nach Anspruch 8, mit dem weiteren Verfahrensschritt des Anzeigens (3) des sichtbaren Bildes.
10. Verfahren zur Detektion einer angezeigten Position nach Anspruch 9, bei dem der Verfahrensschritt des Anzeigens das sichtbare Bild gemäß einem Projektionsverfahren erfolgt.
11. Verfahren zur Detektion einer angezeigten Position nach Anspruch 8, bei dem beim Feststellen des geänderten Bildbereichs eine Änderung durch Anzeigen einer gewünschten Position im sichtbaren Bild unter Verwendung eines Zeigestabs erfolgt.
12. Verfahren zur Detektion einer angezeigten Position nach Anspruch 11, bei dem im Verfahrensschritt des Auswählens eine im geänderten Bildbereich enthaltene Spitze des Zeigestabs festgestellt wird im Verfahrensschritt des Feststellens, ausgewählt als Bestimmungsposition.
13. Verfahren zur Detektion einer angezeigten Position nach Anspruch 8, das des weiteren über den Verfahrensschritt des Speicherns des sichtbaren Bildes, eingegeben als ein Originalbild im Verfahrensschritt des Eingebens, wobei im Verfahrensschritt des Feststellens der geänderte Bildbereich festgestellt wird durch Vergleichen des sichtbaren Bildes, eingegeben im Verfahrensschritt des Eingebens, mit dem Originalbild.
14. Verfahren zur Detektion einer angezeigten Position nach Anspruch 8, bei dem im Verfahrensschritt des Eingebens eine Bildleseeinrichtung Verwendung findet.
15. Computerprogrammprodukt mit einem computerverwendbaren Medium mit computerlesbarem Programmcodemittel, eingebettet im Medium zum Feststellen einer angezeigten Position, mit:
Eingabeprozeßprozedurcodes zur Eingabe eines angezeigten sichtbaren Bildes;
Feststellen von Prozeßprozedurcodes zum Feststellen eines geänderten Bildbereichs, wobei das im Eingabeprozeß eingegebene sichtbare Bild sich geändert hat;
Erzeugen von Prozeßprozedurcodes zum Erzielen einer Vielzahl von Punkten (Q, R), die gegenüberliegende Ende einer Diagonalen in einem rechteckigen Bereich vom geänderten Bildbereich festlegen; und
Auswählen von Prozeßprozedurcodes zur Auswahl eines Endpunktes aus der Vielzahl von Endpunkten, die nicht in Kontakt mit der Kante des sichtbaren Bildes stehen, als eine Bestimmungsposition im sichtbaren Bild.
16. Vorrichtung zur Detektion einer angezeigten Position nach Anspruch 1, deren Auswahlmittel einen Punkt des geänderten Bildbereichs auswählt, wobei der Endpunkt nicht in Kontakt mit einer Kante des sichtbaren Bildes steht, und ein Pixelwert des Punktes vor und nach der Feststellung eines geänderten Bildbereichs geändert ist.
17. Verfahren zur Detektion einer angezeigten Position nach Anspruch 8, bei dem der Verfahrensschritt des Auswählens einen Endpunkt des geänderten Bildes auswählt, wobei der Endpunkt nicht in Kontakt mit der Kante des sichtbaren Bildes steht, und ein Pixelwert des Punktes vor und nach der Feststellung des geänderten Bildbereichs geändert ist.
DE69526779T 1994-12-22 1995-12-21 Vorrichtung und Verfahren zur Detektion einer angezeigten Position Expired - Lifetime DE69526779T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32094694A JP3270643B2 (ja) 1994-12-22 1994-12-22 指示位置検出方法及び装置

Publications (2)

Publication Number Publication Date
DE69526779D1 DE69526779D1 (de) 2002-06-27
DE69526779T2 true DE69526779T2 (de) 2002-10-24

Family

ID=18127059

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69526779T Expired - Lifetime DE69526779T2 (de) 1994-12-22 1995-12-21 Vorrichtung und Verfahren zur Detektion einer angezeigten Position

Country Status (4)

Country Link
US (1) US6323839B1 (de)
EP (1) EP0718748B1 (de)
JP (1) JP3270643B2 (de)
DE (1) DE69526779T2 (de)

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5936615A (en) * 1996-09-12 1999-08-10 Digital Equipment Corporation Image-based touchscreen
US6512507B1 (en) * 1998-03-31 2003-01-28 Seiko Epson Corporation Pointing position detection device, presentation system, and method, and computer-readable medium
DE19880483C1 (de) * 1998-10-21 2000-03-30 Vlg Virtual Laser Systems Gmbh Eingabevorrichtung für einen Computer
US6275214B1 (en) * 1999-07-06 2001-08-14 Karl C. Hansen Computer presentation system and method with optical tracking of wireless pointer
US6952198B2 (en) * 1999-07-06 2005-10-04 Hansen Karl C System and method for communication with enhanced optical pointer
JP2001075736A (ja) * 1999-09-06 2001-03-23 Canon Inc 座標入力装置
JP2001222375A (ja) * 2000-02-08 2001-08-17 Seiko Epson Corp 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体
JP3640156B2 (ja) 2000-02-22 2005-04-20 セイコーエプソン株式会社 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体
JP2001274208A (ja) * 2000-03-23 2001-10-05 Mitsubishi Electric Corp マップデータ生成装置およびマップデータ生成方法
WO2001099045A1 (en) * 2000-06-19 2001-12-27 Temasek Polytechnic A system and method for use in determining a cursor position
JP4018326B2 (ja) * 2000-08-07 2007-12-05 キヤノン株式会社 座標入力装置及びその制御方法、コンピュータ可読メモリ
US6600475B2 (en) * 2001-01-22 2003-07-29 Koninklijke Philips Electronics N.V. Single camera system for gesture-based input and target indication
US6731330B2 (en) * 2001-01-30 2004-05-04 Hewlett-Packard Development Company, L.P. Method for robust determination of visible points of a controllable display within a camera view
GB2374663A (en) 2001-04-18 2002-10-23 Nokia Corp Presentation of images
JP2003108305A (ja) * 2001-09-28 2003-04-11 Fuji Photo Optical Co Ltd プレゼンテーションシステム
US6803907B2 (en) * 2001-10-04 2004-10-12 Inventec Corporation Wireless beam-pen pointing device
US7348946B2 (en) * 2001-12-31 2008-03-25 Intel Corporation Energy sensing light emitting diode display
US6909406B2 (en) * 2002-03-15 2005-06-21 Dell Products L.P. System and method for selecting a presentation mode
US20040001082A1 (en) * 2002-06-26 2004-01-01 Amir Said System and method of interaction with a computer controlled image display system using a projected light source
US7161579B2 (en) 2002-07-18 2007-01-09 Sony Computer Entertainment Inc. Hand-held computer interactive device
US7646372B2 (en) 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US7883415B2 (en) 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US8797260B2 (en) 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US7623115B2 (en) 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US7102615B2 (en) 2002-07-27 2006-09-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
US9474968B2 (en) 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US7627139B2 (en) 2002-07-27 2009-12-01 Sony Computer Entertainment Inc. Computer image and audio processing of intensity and input devices for interfacing with a computer program
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US8686939B2 (en) 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US9682319B2 (en) 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
US20040119690A1 (en) * 2002-12-24 2004-06-24 Watters Scott W. System and method to interact remotely with an application displayed on a display device
US9177387B2 (en) 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US8287373B2 (en) 2008-12-05 2012-10-16 Sony Computer Entertainment Inc. Control device for communicating visual information
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US10279254B2 (en) 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
US9573056B2 (en) 2005-10-26 2017-02-21 Sony Interactive Entertainment Inc. Expandable control device via hardware attachment
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
TWI226784B (en) * 2003-10-20 2005-01-11 Ind Tech Res Inst Multi-trails spot click-event detection method
US7663689B2 (en) 2004-01-16 2010-02-16 Sony Computer Entertainment Inc. Method and apparatus for optimizing capture device settings through depth information
US7221356B2 (en) 2004-02-26 2007-05-22 Microsoft Corporation Data input device and method for detecting an off-surface condition by a laser speckle size characteristic
US7242466B2 (en) * 2004-03-31 2007-07-10 Microsoft Corporation Remote pointing system, device, and methods for identifying absolute position and relative movement on an encoded surface by remote optical method
US7292232B2 (en) * 2004-04-30 2007-11-06 Microsoft Corporation Data input devices and methods for detecting movement of a tracking surface by a laser speckle pattern
US7683881B2 (en) * 2004-05-24 2010-03-23 Keytec, Inc. Visual input pointing device for interactive display system
US8547401B2 (en) 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
NO323926B1 (no) * 2004-11-12 2007-07-23 New Index As Visuelt system samt styringsobjekt og apparat til bruk i systemet.
US8781151B2 (en) 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
US20080170033A1 (en) * 2007-01-15 2008-07-17 International Business Machines Corporation Virtual pointer
TW200903306A (en) * 2007-07-12 2009-01-16 Utechzone Co Ltd System, control module, and method for remotely controlling a computer with optical tracking of an optical pointer
US20090058805A1 (en) * 2007-08-25 2009-03-05 Regina Eunice Groves Presentation system and method for making a presentation
JP4829855B2 (ja) * 2007-09-04 2011-12-07 キヤノン株式会社 画像投影装置及びその制御方法
JP4964729B2 (ja) * 2007-10-01 2012-07-04 任天堂株式会社 画像処理プログラムおよび画像処理装置
TWI355511B (en) * 2007-10-08 2012-01-01 Opus Microsystems Corp Laser pointer with the pattern and size of project
US8542907B2 (en) 2007-12-17 2013-09-24 Sony Computer Entertainment America Llc Dynamic three-dimensional object mapping for user-defined control device
KR101335346B1 (ko) 2008-02-27 2013-12-05 소니 컴퓨터 엔터테인먼트 유럽 리미티드 장면의 심도 데이터를 포착하고, 컴퓨터 액션을 적용하기 위한 방법들
DE102008014143B4 (de) * 2008-03-14 2011-05-12 Wilke, Hans-Jürgen, Dipl.-Ing. Beleuchtungssystem
US8368753B2 (en) 2008-03-17 2013-02-05 Sony Computer Entertainment America Llc Controller with an integrated depth camera
US20110025925A1 (en) * 2008-04-10 2011-02-03 Karl Christopher Hansen Simple-to-use optical wireless remote control
US8961313B2 (en) 2009-05-29 2015-02-24 Sony Computer Entertainment America Llc Multi-positional three-dimensional controller
WO2010070870A1 (ja) * 2008-12-18 2010-06-24 日本電気株式会社 情報取得装置、情報取得方法およびプログラム
US8527657B2 (en) 2009-03-20 2013-09-03 Sony Computer Entertainment America Llc Methods and systems for dynamically adjusting update rates in multi-player network gaming
US8342963B2 (en) 2009-04-10 2013-01-01 Sony Computer Entertainment America Inc. Methods and systems for enabling control of artificial intelligence game characters
US8142288B2 (en) 2009-05-08 2012-03-27 Sony Computer Entertainment America Llc Base station movement detection and compensation
US8393964B2 (en) 2009-05-08 2013-03-12 Sony Computer Entertainment America Llc Base station for position location
JP5292210B2 (ja) * 2009-07-16 2013-09-18 株式会社エルモ社 資料提示装置
KR20110058438A (ko) * 2009-11-26 2011-06-01 삼성전자주식회사 프리젠테이션 녹화 장치 및 방법
KR20110069958A (ko) * 2009-12-18 2011-06-24 삼성전자주식회사 프로젝터 기능의 휴대 단말기의 데이터 생성 방법 및 장치
KR20110121125A (ko) * 2010-04-30 2011-11-07 삼성전자주식회사 인터랙티브 디스플레이 장치 및 이의 동작 방법
JP2013070368A (ja) * 2011-09-05 2013-04-18 Panasonic Corp テレビ対話システム、端末および方法
KR20140031758A (ko) * 2012-09-05 2014-03-13 삼성전자주식회사 포인팅 디바이스를 이용하여 aⅴ 데이터의 메뉴를 제어하기 위한 인터랙티브 그래픽 데이터를 기록한 정보저장매체, 그 재생방법 및 장치
JP6255810B2 (ja) * 2013-09-06 2018-01-10 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
US9188426B2 (en) * 2013-04-23 2015-11-17 Bradley Allen Safranski Non-contact visual measurement device
CN106445195B (zh) 2015-08-11 2019-05-24 华为技术有限公司 屏幕中激光点的位置检测方法、装置及系统
DE102018110644B4 (de) * 2018-05-03 2024-02-15 Carl Zeiss Meditec Ag Digitales Mikroskop und digitales Mikroskopieverfahren

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5115230A (en) * 1989-07-19 1992-05-19 Bell Communications Research, Inc. Light-pen system for projected images
US5502459A (en) * 1989-11-07 1996-03-26 Proxima Corporation Optical auxiliary input arrangement and method of using same
US5504501A (en) * 1989-11-07 1996-04-02 Proxima Corporation Optical input arrangement and method of using same
JP2622620B2 (ja) * 1989-11-07 1997-06-18 プロクシマ コーポレイション コンピュータにより発生されたデイスプレイ可視像を変更するためのコンピュータ入力システム
US5138304A (en) * 1990-08-02 1992-08-11 Hewlett-Packard Company Projected image light pen
JPH07117868B2 (ja) * 1991-04-30 1995-12-18 インターナショナル・ビジネス・マシーンズ・コーポレイション タツチ型作動キーボード定義方法及び装置
JPH05303467A (ja) * 1991-10-04 1993-11-16 Shigumatsukusu Kk 操作入力装置
IT1268511B1 (it) * 1993-02-23 1997-03-04 Zeltron Spa Sistema di interfaccia uomo-macchina

Also Published As

Publication number Publication date
JPH08179875A (ja) 1996-07-12
EP0718748A3 (de) 1996-08-21
JP3270643B2 (ja) 2002-04-02
DE69526779D1 (de) 2002-06-27
EP0718748B1 (de) 2002-05-22
US6323839B1 (en) 2001-11-27
EP0718748A2 (de) 1996-06-26

Similar Documents

Publication Publication Date Title
DE69526779T2 (de) Vorrichtung und Verfahren zur Detektion einer angezeigten Position
DE69922076T2 (de) Vorrichtung zur Feststellung einer Hinweisposition, Anzeigesystem und Verfahren
DE60028894T2 (de) Präsentationssystem mit einer interaktiven Darstellung
DE69530395T2 (de) Interaktives projektiertes videobildanzeigesystem
DE60205662T2 (de) Vorrichtung und Verfahren zur Berechnung einer Position einer Anzeige
DE69629144T2 (de) Verfahren und Vorrichtung zur Kamerakontrolle
DE60023900T2 (de) Darstellungssysem für rechner und optisches spurfolgeverfahren eines drahtlosen zeigers
DE69430967T2 (de) Interaktives Kopiersystem
DE3427658C2 (de)
DE69320746T2 (de) Rasterbildverbesserung unter Verwendung eines reduzierten Schablonenspeichers
DE2801536C2 (de) Zeichenformkodiervorrichtung
DE69513756T2 (de) Anlage zur Umschreibung von Wandtafelbildern mittels eines kamerabasierten Abtasters
DE60127644T2 (de) Lehrvorrichtung für einen Roboter
DE69317153T2 (de) Elektronische Schreibtafel
DE3809676C2 (de) Anzeige- und Eingabeeinheit für ein Druck- und Kopiergerät
DE10241400B4 (de) Verfahren zum Verwalten eines sequentiellen Prozesses unter Verwendung einer graphischen Benutzerschnittstelle
DE69125654T2 (de) Fernsteueranordnung zur Steuerung eines Fernsehempfängers
DE3536603C2 (de)
DE69519548T2 (de) Verfahren zum Interpretieren handgeschriebener schematischer Benutzerschnittstellenbefehle
DE19530829C2 (de) Verfahren zum elektronischen Wiederauffinden von einem Dokument hinzugefügter Information
DE102009032637A1 (de) Bildvergrößerungssystem für eine Computerschnittstelle
DE3615906A1 (de) Bildinformationserkennungsgeraet
DE69721887T2 (de) Koordinatenleser, Zustandsumwandlungsverfahren, Interfacegerät und zugehöriges Koordinaten-Lesesystem
DE69618913T2 (de) Eichung eines interaktiven Bürosystems
DE69021759T2 (de) Vorrichtung zur Erzeugung einer Bewegungsinformation.

Legal Events

Date Code Title Description
8364 No opposition during term of opposition