DE60222380T2 - System und verfahren zum extrahieren eines interessierenden punktes bei einem objekt, das sich vor einer computersteuerbaren anzeige befindet und von einem bildgebenden gerät aufgenommen wird - Google Patents

System und verfahren zum extrahieren eines interessierenden punktes bei einem objekt, das sich vor einer computersteuerbaren anzeige befindet und von einem bildgebenden gerät aufgenommen wird Download PDF

Info

Publication number
DE60222380T2
DE60222380T2 DE60222380T DE60222380T DE60222380T2 DE 60222380 T2 DE60222380 T2 DE 60222380T2 DE 60222380 T DE60222380 T DE 60222380T DE 60222380 T DE60222380 T DE 60222380T DE 60222380 T2 DE60222380 T2 DE 60222380T2
Authority
DE
Germany
Prior art keywords
pixels
display area
point
pixel
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE60222380T
Other languages
English (en)
Other versions
DE60222380D1 (de
Inventor
I-Jong Woodside LIN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Application granted granted Critical
Publication of DE60222380D1 publication Critical patent/DE60222380D1/de
Publication of DE60222380T2 publication Critical patent/DE60222380T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf ein computersteuerbares Anzeigesystem und insbesondere auf die Wechselwirkung eines Benutzers mit einem computergesteuerten angezeigten Bild.
  • Hintergrund der Erfindung
  • Computergesteuerte Projektionssysteme umfassen im Allgemeinen ein Computersystem zum Erzeugen von Bilddaten und einen Projektor zum Projizieren der Bilddaten auf einen Projektionsschirm. Typischerweise wird das computergesteuerte Projektionssystem verwendet, um zu ermöglichen, dass ein Vorführer Präsentationen, die mit dem Computersystem erzeugt wurden, auf einen größeren Schirm projizieren kann, so dass mehr als ein Betrachter die Präsentation ohne weiteres sehen kann. Häufig tritt der Vorführer mit dem projizierten Bild durch ein Zeigen auf beachtenswerte Bereiche an dem projizierten Bild mit dem Finger, einem Laserzeiger oder einer anderen Zeigevorrichtung oder einem Instrument in Wechselwirkung.
  • Das Problem bei dieser Art von System besteht darin, dass, falls ein Benutzer wünscht, irgendeine Veränderung an dem projizierten Bild zu bewirken, er/sie mit dem Computersystem (nicht dem projizierten Bild) unter Verwendung eines Eingabegeräts wie einer Maus, einer Tastatur oder einer entfernten Vorrichtung in Wechselwirkung treten muss. Beispielsweise wird durch einen Vorführer häufig eine Vorrichtung eingesetzt, um das Computersystem über Infrarotsignale entfernt zu steuern, um das nächste Dia in einer Präsentation anzuzeigen. Dies kann jedoch für die Betrachter der Präsentation ablenkend sein, da der Vorführer nicht mehr mit ihnen und der projizierten Präsentation in Wechselwirkung steht und anstelle dessen mit dem Computersystem in Wechselwirkung steht. Häufig kann diese Wechselwirkung zu erheblichen Unterbrechungen in der Präsentation führen.
  • Daher wurde eine Variation des obigen Systems entwickelt, um das Nur-Computer-Wechselwirkungsproblem zu überwinden, um zu ermöglichen, dass der Vorführer direkt mit dem projizierten Bild in Wechselwirkung treten kann, und somit dem Vorführer eine bessere Wechselwirkung mit dem Publikum zu geben. Bei diesem System erzeugt der Computer Bilddaten (z. B. Präsentationsdias), die mit einem Bildprojektor auf einen Projektionsschirm projiziert werden. Das System umfasst ferner eine Digitalbildaufnahmevorrichtung, wie beispielsweise eine Digitalkamera zum Aufnehmen des projizierten Bilds. Die aufgenommenen projizierten Bilddaten werden zurück an das Rechensystem übertragen und werden verwendet, um die Position irgendwelcher Objekte (z. B. einer Zeigevorrichtung) vor dem Schirm zu bestimmen. Das Computersystem kann dann abhängig von der bestimmten Position der Zeigevorrichtung gesteuert werden. In dem US-Patent Nr. 5,138,304 , das an die Anmelderin der vorliegenden Anmeldung übertragen ist, wird beispielsweise ein Lichtstrahl auf den Schirm projiziert und wird durch eine Kamera erfasst. Um die Position des Lichtstrahls zu bestimmen, werden die aufgenommenen Bilddaten des projizierten Bilds und die ursprünglichen Bilddaten verglichen, um die Zeigerposition zu bestimmen. Dann wird bewirkt, dass der Computer einen Cursor in dem Videobild an der Zeigerposition positioniert, oder es wird bewirkt, dass derselbe die projizierten Bilddaten ansprechend auf die Zeigerposition modifiziert.
  • Um ein benutzerinteraktives, computergesteuertes Anzeige- oder Projektionssystem zu implementieren, ist es nötig, zuerst die Position des angezeigten oder projizierten Bilds innerhalb der aufgenommenen Bilddaten zu identifizieren und dann die aufgenommenen Daten, die dem angezeigten oder projizierten Bild entsprechen, zu analysieren, um Objekte vor dem Bild zu identifizieren und zu lokalisieren. Die Objektpositionsinformationen können dann durch das Computersystem verwendet werden, um auf die Position der Objekte anzusprechen, um das angezeigte oder projizierte Bild zu modifizieren, wie es durch den Vorführer gewünscht wird.
  • Bei diesem Systemtyp ist es auch erwünscht, dass das System zusätzlich in der Lage ist, den interessierenden Punkt des Objekts zu identifizieren und zu lokalisieren. Beispielsweise wäre der interessierende Punkt des Zeigers die Spitze eines Zeigers oder die Spitze eines Fingers eines Vorführers. Daher kann der Vorführer dann genau auf eine spezifische Position innerhalb des angezeigten Bilds zeigen, um zu bewirken, dass das System abhängig von dieser spezifischen Position des interessierenden Punkts anspricht.
  • Vorhergehend wurde die Identifikation und Lokalisierung des interessierenden Punkts eines Objekts vor der Anzeige durch ein Durchführen einer detaillierten Bildanalyse der aufgenommenen Bilddaten erreicht, was aufwändige mathematische Manipulation erfordert.
  • Was daher benötigt wird, ist eine Technik zum Lokalisieren des interessierenden Punkts eines Objekts, das vor einem angezeigten oder projizierten Bild positioniert ist, in einem benutzerinteraktiven, computergesteuerten Anzeigesystem, das einfach genug ist, um während eines Echtzeitbetriebs durchgeführt zu werden.
  • Das Dokument EP 0947948 offenbart ein Verfahren und ein System, bei dem die Position einer Zeigevorrichtung bestimmt wird.
  • Zusammenfassung der Erfindung
  • Es sind ein System und ein Verfahren zum Identifizieren eines interessierenden Punkts eines Objekts beschrieben, das vor einem computergesteuerten Anzeigebereich positioniert ist, der durch eine Bildaufnahmevorrichtung aufgenommen wird. Gemäß dem System und Verfahren ist der interessierende Punkt eines Objekts, der sich in den aufgenommenen Anzeigebereich erstreckt, der Punkt des Objekts, der sich bei dem weitesten Abstand von der peripheren Begrenzung des Anzeigebereichs befindet, der den kürzesten Weg von benachbarten Pixeln der aufgenommenen Anzeigebereichsdaten zu der Begrenzung aufweist.
  • Gemäß einem Aspekt der vorliegenden Erfindung ist ein Verfahren gemäß Anspruch 1 vorgesehen.
  • Gemäß einem anderen Aspekt der vorliegenden Erfindung ist ein System gemäß Anspruch 8 vorgesehen.
  • Bei einem Ausführungsbeispiel weist die Einrichtung zum Durchsuchen einen Breite-Zuerst-Durchsuchalgorithmus auf, der in einer Software, in einer Hardware oder einer Kombination einer Software und einer Hardware implementierbar ist.
  • Kurze Beschreibung der Zeichnungen
  • Die Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden einem Fachmann auf dem Gebiet angesichts der folgenden detaillierten Beschreibungen ersichtlich, in denen:
  • 1 ein erstes Ausführungsbeispiel des Systems zum Identifizieren eines interessierenden Punkts eines Objekts, das vor einem computergesteuerten Anzeigebereich positioniert ist, der durch eine Bildaufnahmevorrichtung aufgenommen wird, gemäß der vorliegenden Erfindung darstellt;
  • 2 ein erstes Ausführungsbeispiel des Verfahrens zum Identifizieren eines interessierenden Punkts eines Objekts, das vor einem computergesteuerten Anzeigebereich positioniert ist, der durch eine Bildaufnahmevorrichtung aufgenommen wird, gemäß der vorliegenden Erfindung darstellt;
  • 3 ein Identifizieren von Pixeln gemäß dem System und dem Verfahren der vorliegenden Erfindung darstellt;
  • 4 ein Array von Pixeln zeigt, das den aufgenommenen Bildbereich darstellt, einschließlich der peripheren Begrenzung des Anzeigebereichs und des Objekts innerhalb des Anzeigebereichs; und
  • 5 ein Flussdiagramm zum Durchführen einer Breite-Zuerst-Suche an den Pixeln darstellt, die in 4 gezeigt sind; und
  • 6 einen exemplarischen FIFO darstellt, der erzeugt wird, wenn ein Breite-Zuerst-Suchalgorithmus an dem in 4 gezeigten Array durchgeführt wird.
  • Detaillierte Beschreibung der Erfindung
  • Ein System und ein Verfahren zum Identifizieren eines interessierenden Punkts eines Objekts, das vor einem computergesteuerten Anzeigebereich positioniert ist, der durch eine Bildaufnahmevorrichtung aufgenommen wird. Gemäß dem System und Verfahren ist der interessierende Punkt eines Objekts, das sich in den aufgenommenen Anzeigebereich erstreckt, der Punkt des Objekts, der sich bei dem weitesten Abstand von der peripheren Begrenzung des Anzeigebe reichs befindet, der den kürzesten Weg benachbarter Pixel zu der Begrenzung aufweist. Ein Definieren des interessierenden Punkts auf diese Weise erleichtert die Verwendung eines einfachen, berechnungsunaufwändigen Suchalgorithmus zum Lokalisieren des interessierenden Punkts des Objekts, wodurch ein System und ein Verfahren geliefert werden, die auf Echtzeitanzeigepräsentationen anwendbar sind.
  • Ein Ausführungsbeispiel des Systems zum Identifizieren des interessierenden Punkts eines Objekts ist in einem Blockdiagramm (1) gezeigt, einschließlich eines Rechensystems 10 zum Erzeugen von Bilddaten 10A und einer Grafikschnittstelle 11 zum Bewirken, dass Bilder 10B, die den Bilddaten 10A entsprechen, in einem Anzeigebereich 12 angezeigt werden. Es ist klar, dass die Grafikschnittstelle ein Abschnitt des Rechensystems sein kann oder ein gesondertes Element außerhalb des Rechensystems sein kann. Das System umfasst ferner eine Bildaufnahmevorrichtung 13, die einen zugeordneten Bildaufnahmebereich 13A zum Aufnehmen der angezeigten Bilder 10B aufweist. Die aufgenommenen Bilder umfassen ferner Bilder 10C von Objekten oder Regionen, die außerhalb des Anzeigebereichs 10B liegen. Die aufgenommenen Bilder können auch Objekte 10D umfassen, die innerhalb des Bildaufnahmebereichs 13A vor dem Anzeigebereich 12 positioniert sind. Die aufgenommenen Bilder werden in digitale Bilddaten 13B umgewandelt und werden an einen Interessierender-Punkt-Lokalisierer 14 übertragen. Der Interessierender-Punkt-Lokalisierer 14 umfasst einen Begrenzungspixelidentifizierer 15, einen Objektpixelidentifizierer 16, einen Gemeinsames-Objekt- und Begrenzungspixelidentifizierer 17 und einen Interessierender-Punkt-Sucher 18.
  • Der Begrenzungspixelidentifizierer 15 empfängt die aufgenommenen Bilddaten 13B und identifiziert den Teilsatz von Pixeln 15A in den Daten 13B, der der peripheren Begrenzung des Anzeigebereichs 12 entspricht. Gemäß einem Ausführungsbeispiel der vorliegenden Erfindung werden periphere Be grenzungspixel unter Verwendung des Systems und des Verfahrens bestimmt, die in der US-Anmeldung Nr.: 09/774,452 beschrieben sind, die hierin durch Bezugnahme aufgenommen ist. Gemäß dieser Technik wird die periphere Begrenzung des Anzeigebereichs durch ein Ableiten konstruktiver und destruktiver Rückkopplungsdaten aus Bilddaten entsprechend einer Mehrzahl von angezeigten und aufgenommenen Bildern identifiziert. Bei einem Ausführungsbeispiel wird der Begrenzungspixelidentifizierer 15 während der Kalibrierung des Systems, das in 1 gezeigt ist, vor einer Echtzeitpräsentationsverwendung verwendet.
  • Der Objektpixelidentifizierer 16 empfängt die aufgenommenen Bilddaten 13B und identifiziert den Teilsatz von Pixeln 16A in den Daten 13B, der dem Abschnitt des Objekts 10E (abgedunkelter Abschnitt des Objekts 10D) entspricht, das im Vordergrund des Anzeigebereichs 12 positioniert ist. Gemäß einem Ausführungsbeispiel der vorliegenden Erfindung werden Objektpixel unter Verwendung des Systems und des Verfahrens bestimmt, die in der US-Anmeldung Nr.: 09/775,032 beschrieben sind, die hierin durch Bezugnahme aufgenommen ist. Gemäß dieser Technik werden die Objektpixel durch ein anfängliches Kalibrieren des Systems, um eine Koordinatenpositionsabbildungsfunktion und eine Intensitätsabbildungsfunktion zwischen dem Anzeigebereich und dem aufgenommenen Anzeigebereich in dem Aufnahmebereich einer Bildaufnahmevorrichtung zu erhalten, identifiziert. Wenn die Kalibrierung einmal durchgeführt wurde, können Objekte während eines Echtzeitsystembetriebs lokalisiert werden durch a) ein Umwandeln von Anzeigebereichsbilddaten unter Verwendung der Abbildungsfunktionen, um erwartete aufgenommene Anzeigebereichsdaten zu erhalten, b) ein Aufnehmen des Anzeigebereichsbilds, um tatsächliche aufgenommene Anzeigebereichsdaten zu erhalten, und c) ein Vergleichen der erwarteten und der tatsächlichen Daten, um die Position von Objekten vor dem Anzeigebereich in dem Aufnahmebereich zu bestimmen, wodurch Pixel in den aufgenommenen Bilddaten 13B identifiziert werden, die den Objekten entsprechen.
  • Der Gemeinsames-Objekt- und Begrenzungspixelidentifizierer 17 identifiziert einen Teilsatz von Pixeln 17A, der sowohl den Objekt- als auch den Begrenzungspixeln (d. h. den Teilsätzen 15A und 16A) gemeinsam ist. Eine Weise, in der diese Identifikation durchgeführt wird, ist durch ein Vergleichen des Teilsatzes von Objektpixeln 15A mit dem Teilsatz von Begrenzungspixeln 16A auf einer Basis von Pixel für Pixel. Sobald der Teilsatz 17 identifiziert ist, wird derselbe in einem Zuerst-Hinein/Zuerst-Heraus-Speicherbereich (FIFO-Speicherbereich; FIFO = First In/First Out), nicht gezeigt, gespeichert. Es ist klar, dass der FIFO ein Speicherbereich in dem Interessierender-Punkt-Sucher 18, einem Abschnitt des Rechensystems 10 oder einer externen Speichereinheit sein kann.
  • Der Interessierender-Punkt-Sucher 18 sucht unter Verwendung des gespeicherten Teilsatzes von Pixeln 17A und des Teilsatzes von Objektpixeln 16A, um den Objektpixelwert entsprechend dem interessierenden Punkt des Objekts zu bestimmen. Bei einem Ausführungsbeispiel umfasst der Sucher 18 eine Breite-Zuerst-Sucheinheit zum Durchsuchen des Teilsatzes von Objektpixeln 16A unter Verwendung des gespeicherten Teilsatzes 17A. Die Positionsinformationen 18A des interessierenden Punkts können an das Rechensystem 10 für eine Verwendung bei dem benutzerinteraktiven, computergesteuerten Anzeigesystem übertragen werden.
  • Bei diesem Ausführungsbeispiel umfasst das Rechensystem 10 zumindest eine zentrale Verarbeitungseinheit (CPU; CPU = Central Processing Unit) und einen Speicher zum Speichern digitaler Daten (z. B. Bilddaten) und weist die Fähigkeit eines Erzeugens von zumindest drei Pegeln von Graustufenbildern auf. Der Anzeigebereich kann ein Computermonitor sein, der durch die Grafikschnittstelle getrieben ist, oder kann ein Bereich an einem Projektionsschirm oder Projektionsbereich (z. B. einer Wand) sein. In dem Fall, in dem Bilder unter Verwendung einer Projektion angezeigt werden, umfasst das System einen Bildprojektor (nicht in 1 gezeigt), der auf Bilddaten anspricht, die von der Grafikschnittstelle geliefert werden.
  • Bei einem Ausführungsbeispiel ist die Bildaufnahmevorrichtung eine digitale Standbild- oder Videokamera, die so angeordnet ist, um zumindest alle Bilder 10B aufzunehmen, die in dem Anzeigebereich 12 innerhalb einer bekannten Zeitverzögerung angezeigt werden. Es ist auf dem Gebiet einer digitalen Bildaufnahme gut bekannt, dass ein Bild durch eine Digitalkamera unter Verwendung eines Arrays von Sensoren aufgenommen wird, die die Intensität des Lichts erfassen, das auf die Sensoren innerhalb des Aufnahmebereichs der Kamera auftrifft. Die Lichtintensitätssignale werden dann in digitale Bilddaten umgewandelt, die dem aufgenommenen Bild entsprechen. Daher sind die aufgenommenen Bilddaten 13B digitale Bilddaten, die dem aufgenommenen Bild entsprechen. Bei einem anderen Ausführungsbeispiel ist die Bildaufnahmevorrichtung eine analoge Standbild- oder Videokamera und werden aufgenommene analoge Bilddaten in aufgenommene digitale Bilddaten 13B umgewandelt.
  • Bei einem Ausführungsbeispiel entsprechen die Bilder 10B einer Mehrzahl von Dias in einer computererzeugten Diapräsentation eines Benutzers.
  • Es ist klar, dass alle oder ein Teil der Funktionen des Interessierender-Punkt-Lokalisierers 14 durch das Rechensystem durchgeführt werden können. Folglich kann alles oder können Teile des Interessierender-Punkt-Lokalisierers 14 innerhalb des Rechensystems implementiert sein, obwohl derselbe außerhalb des Rechensystems gezeigt ist.
  • Es ist ferner klar, dass der Interessierender-Punkt-Lokalisierer 14 in einer Softwareimplementierung, in einer Hardwareimplementierung oder irgendeiner Kombination von Software- und Hardwareimplementierungen implementiert sein kann.
  • 2 zeigt ein Ausführungsbeispiel des Verfahrens zum Identifizieren des interessierenden Punkts eines Objekts, das in dem Vordergrund eines Anzeigebereichs positioniert ist, der durch eine Bildaufnahmevorrichtung aufgenommen wird, und 3 stellt Bilder dar, die sich auf den in 2 gezeigten Prozess beziehen. Mit Bezug auf 3 umfasst ein Aufnahmebereich 30 einen Anzeigebereich 31. Der Anzeigebereich 31 umfasst ein Bild, das gemäß den Bilddaten 10A angezeigt wird, die durch das Rechensystem 10 erzeugt werden. In den Aufnahmebereich und in den Anzeigebereich erstreckt sich ein Objekt 33, das einen interessierenden Punkt 32 aufweist. Anfänglich wird ein Bild aufgenommen (Block 20). 3 zeigt die aufgenommenen Bilddaten 34, die Daten, die dem Bild entsprechen, das in dem Anzeigebereich 31 angezeigt wird, den Abschnitt des Objekts 33A, der sich in den Aufnahmebereich 30 erstreckt, und Regionen außerhalb des Anzeigebereichs aber innerhalb des Aufnahmebereichs umfassen.
  • Dann werden Teilsätze von Pixeln innerhalb der aufgenommenen Bilddaten identifiziert, die der peripheren Begrenzung des Anzeigebereichs (Block 21) sowie dem Objekt in dem Vordergrund des Anzeigebereichs (Block 22) entsprechen. 3 zeigt den Teilsatz von Objektpixeln 36 und den Teilsatz von Begrenzungspixeln 35. Der Teilsatz von Pixeln (37, 3), der sowohl dem Objekt- als dem Periphere-Begrenzung-Pixelwertteilsatz gemeinsam ist, wird dann bestimmt und wird in einem FIFO (Block 23) gespeichert. Der Teilsatz von gemeinsamen Pixeln und der Teilsatz von Objektpixeln werden dann verwendet, um die Objektpixel zu durchsuchen, um den interessierenden Punkt des Objekts in dem Vordergrund der Anzeige zu finden (Block 24).
  • Gemäß einem Ausführungsbeispiel des Systems und des Verfahrens der vorliegenden Erfindung werden die gemeinsamen Pixel und der Teilsatz von Objektpixeln unter Verwendung eines Breite-Zuerst-Suchalgorithmus durchsucht, der in einer Software, einer Hardware oder einer Kombination von Software und Hardware implementiert sein kann. Ein Breite-Zuerst-Suchalgorithmus ist ein gut bekannter Algorithmus, der zum Durchsuchen eines Graphen verwendet wird. 4 zeigt ein Beispiel eines Anwendens eines Breite-Zuerst-Suchalgorithmus auf ein Array von Pixeln, das einem aufgenommenen Anzeigebereich entspricht. Das Array umfasst Pixel, die einem Objekt in dem Vordergrund des Anzeigebereichs entsprechen (d. h. B1, B2, B3, 1–9), und Pixel, die der peripheren Begrenzung des Anzeigebereichs entsprechen (Pixel, die mit einem x, B1, B2, B3 markiert sind). 5 zeigt den Prozess zum Durchführen einer Breite-Zuerst-Suche an den in 4 gezeigten Pixeln, und 6 zeigt einen exemplarischen FIFO, der dem in 4 gezeigten Array entspricht und der bei einem Durchführen des in 5 gezeigten Verfahrens erzeugt wird.
  • Anfänglich sind die Gemeinsames-Objekt- und die Periphere-Begrenzung-Pixel (d. h. B1, B2, B3) in einem FIFO gespeichert (Block 50). Jedem Pixel, das in dem FIFO gespeichert ist, wird ein Indikator N = 1 zugewiesen (Block 51), wobei N einem Abstandsindikator des Pixels zu der peripheren Begrenzung des Anzeigebereichs entspricht. Daher wird dem ersten, dem zweiten und dem dritten Eintrag in dem FIFO (6), B1, B2 und B3, N = 1 zugewiesen. Es ist zu beachten, dass Pixel 10 und 11 einem Rauschen entsprechen, das irrtümlicherweise als Objektpixel in dem in 4 gezeigten Array erscheint. Da jedoch diese Pixel keine Begrenzungspixel sind und in der vertikalen oder horizontalen Richtung nicht benachbart zu irgendwelchen Begrenzungspixeln liegen, werden dieselben nicht in dem FIFO gespeichert und weisen keine Auswirkung auf den in 5 gezeigten Prozess auf.
  • Beginnend bei dem ersten Pixeleintrag in dem FIFO (Block 52), B1, wird bestimmt, ob es irgendwelche anderen Objektpixel benachbart zu demselben gibt (Block 53), wobei ein benachbartes Pixel als ein Pixel definiert ist, das in der vertikalen oder horizontalen Richtung unmittelbar benach bart zu dem interessierenden Pixeleintrag liegt. Wie es in 4 zu sehen ist, ist B2 das einzige benachbarte Pixel zu B1. Jedes benachbarte Pixel wird überprüft, um zu bestimmen, ob dasselbe bereits in dem FIFO gespeichert ist (Block 54). Da B2 bereits in dem FIFO gespeichert ist, wird der nächste Pixeleintrag verarbeitet (Blöcke 55 und 56). Der in den Blöcken 5355 beschriebene Prozess wird an dem zweiten FIFO-Eintrag, B2, durchgeführt. Wie es in 4 zu sehen ist, sind B1, B3 und Pixel 1 benachbart zu dem Pixel B2. Als nächstes für jedes Pixel (ap) benachbart zu dem interessierenden Pixeleintrag (p), der in dem FIFO gespeichert ist, in dem FIFO speichern und N(ap) = N(p) + 1 zuweisen (Blöcke 5355). Da das Pixel 1 das einzige benachbarte Pixel ist, das nicht in dem FIFO gespeichert ist, wird dasselbe gespeichert und wird demselben Npixel1 = NB2 + 1 = 1 + 1 = 2 zugewiesen. In dem Fall, in dem ein gegebenes Pixel, das in dem FIFO gespeichert ist, keine benachbarten Pixel aufweist, wird zu dem nächsten Pixeleintrag übergegangen (Block 57). Es wird mit einem Verarbeiten des Rests der Objektpixel fortgefahren, wie es in 5 angegeben ist, während der in 6 gezeigte FIFO erzeugt wird:
    • – der dritte Eintrag, B3, ist benachbart zu B2 und Pixel 2. Pixel B2 ist bereits in dem FIFO gespeichert, Pixel 2 ist in dem FIFO gespeichert und demselben ist Npixel2 = NB3 + 1 = 1 + 1 = 2 zugewiesen;
    • – der vierte Eintrag, Pixel 1, ist benachbart zu B2 und Pixel 2. Beide sind bereits in dem FIFO gespeichert, gehe zu nächstem Eintrag;
    • – der fünfte Eintrag, Pixel 2, ist benachbart zu B3, Pixel 1, 3 und 4. Pixel B3 und 1 sind bereits gespeichert, so dass Pixel 3 und 4 in dem FIFO gespeichert werden und denselben jeweils Npixel3 = Npixel3 = Npixel2 + 1 = 2 + 1 = 3 zugewiesen wird;
    • – der sechste Eintrag, Pixel 3, ist benachbart zu Pixel 2 und 5. Pixel 2 ist bereits gespeichert, so dass Pixel 5 in dem FIFO gespeichert wird und demselben Npixel5 = Npixel3 + 1 = 3 + 1 = 4 zugewiesen wird;
    • – der siebte Eintrag, Pixel 4, ist benachbart zu Pixel 2 und 5. Die beiden Pixel 2 und 5 sind bereits gespeichert, also gehe zu nächstem Eintrag;
    • – der achte Eintrag, Pixel 5, ist benachbart zu Pixel 3, 4 und 6. Die beiden Pixel Pixel 3 und 4 sind bereits gespeichert, so dass Pixel 6 in dem FIFO gespeichert wird und demselben Npixel6 = Npixel5 + 1 = 4 + 1 = 5 zugewiesen wird;
    • – der neunte Eintrag, Pixel 6, ist benachbart zu Pixel 5, 7 und 8. Pixel 5 ist bereits gespeichert, so dass Pixel 7 und 8 in dem FIFO gespeichert werden und denselben Npixel7 = Npixel8 = Npixel6 + 1 = 5 + 1 = 6 zugewiesen wird;
    • – der zehnte Eintrag, Pixel 7, ist benachbart zu Pixel 6 und 9. Pixel 6 ist bereits gespeichert, so dass Pixel 9 in dem FIFO gespeichert wird und demselben Npixel9 = Npixel7 + 1 = 6 + 1 = 7 zugewiesen wird;
    • – der elfte Eintrag, Pixel 8, ist benachbart zu Pixel 6 und 9. Pixel 6 und 9 sind bereits gespeichert, also gehe zu nächstem Pixel; und
    • – der zwölfte Eintrag, Pixel 9, ist benachbart zu Pixel 7 und 8. Pixel 7 und 8 sind bereits gespeichert und es gibt keine weiteren Pixeleinträge.
  • Das Pixel mit dem größten N (d. h. Pixel 9) ist das Pixel, das dem interessierenden Punkt entspricht (Block 58).
  • Es ist klar, dass der Breite-Zuerst-Suchalgorithmus eine einfache Version von Suchalgorithmen mit dynamischer Programmierung ist und dass andere Suchalgorithmen zum Lokalisieren des interessierenden Punkts eines Objekts, wie es definiert ist, verwendet werden können, wie beispielsweise andere Suchalgorithmen mit dynamischer Programmierung mit Variationen bei Definitionen einer Pixeladjazenz und eines Pixelabstands.
  • Es ist ferner zu beachten, dass gemäß dem in 16 gezeigten System und Verfahren die Bewegung und Position von nichtstatischen Objekten, die vor dem angezeigten Bild positioniert sind, ständig bestimmt werden. Während der Teilsatz der Pixel, die der peripheren Begrenzung des Anzeigeschirms entsprechen, einmal bestimmt wird, wird daher der Teilsatz von Pixeln, die dem Objekt entsprechen, auf einer kontinuierlichen Basis bestimmt, um die Bewegung und Position des Objekts während einer Echtzeitpräsentation zu erfassen. Beispielsweise kann die Bildaufnahmevorrichtung 13 den Anzeigebereich auf einer kontinuierlichen Basis aufnehmen, und die Bilddaten, die jedem neuen aufgenommenen Bild entsprechen, werden verwendet, um den Teilsatz von Objektpixeln (2, Block 22) zu den unterschiedlichen Zeitintervallen zu lokalisieren. Folglich kann ein interessierender Punkt der Objektpixel in jedem Zeitintervall bestimmt werden. Da der Breite-Zuerst-Suchalgorithmus eine rechenmäßig einfache Suchtechnik ist, kann eine Interessierender-Punkt-Bestimmung auf einer Echtzeitbasis durchgeführt werden.
  • Somit ist ein vereinfachtes Echtzeitsystem und -Verfahren zum Finden des interessierenden Punkts eines Objekts in dem Vordergrund eines Anzeigebereichs, der durch eine Bildaufnahmevorrichtung aufgenommen wird, beschrieben.
  • In der vorstehenden Beschreibung sind zahlreiche spezifische Einzelheiten dargelegt, um ein gründliches Verständnis der vorliegenden Erfindung zu liefern. Es ist jedoch einem Fachmann auf dem Gebiet ersichtlich, dass diese spezifischen Einzelheiten nicht eingesetzt werden müssen, um die vorliegende Erfindung zu praktizieren. In anderen Fällen wurden gut bekannte Bilderzeugungstechniken nicht detailliert beschrieben, um ein unnötiges Verschleiern der vorliegenden Erfindung zu vermeiden.
  • Obwohl Elemente der vorliegenden Erfindung in Verbindung mit bestimmten Ausführungsbeispielen beschrieben wurden, ist zusätzlich klar, dass die Erfindung in einer Vielfalt anderer Arten implementiert werden kann. Folglich ist klar, dass die speziellen Ausführungsbeispiele, die durch eine Darstellung gezeigt und beschrieben sind, in keiner Weise als einschränkend betrachtet werden sollen. Eine Bezugnahme auf die Einzelheiten dieser Ausführungsbeispiele soll den Schutzbereich der Ansprüche nicht begrenzen, die selbst lediglich diese Merkmale wiedergaben, die als wesentlich für die Erfindung erachtet werden.

Claims (10)

  1. Ein Verfahren zum Identifizieren eines interessierenden Punkts eines Objekts, das vor einem computergesteuerten Anzeigebereich positioniert ist, der durch eine Bildaufnahmevorrichtung aufgenommen wird, das folgende Schritte aufweist: Aufnehmen eines Bilds (20) des Anzeigebereichs, um aufgenommene Daten zu erhalten, die ein Array von Pixeln aufweisen; Identifizieren von Pixeln, die dem Objekt (22) innerhalb der aufgenommenen Daten entsprechen; gekennzeichnet durch: Identifizieren von Pixeln, die einer peripheren Begrenzung (21) des Anzeigebereichs innerhalb der aufgenommenen Daten entsprechen; Identifizieren und Speichern eines Teilsatzes von Pixeln (23), die den Objektpixeln und den peripheren Begrenzungspixeln gemeinsam sind; Durchsuchen unter Verwendung der gemeinsamen Pixel und der Objektpixel (24), um ein Pixel zu identifizieren, das dem interessierenden Punkt entspricht, wobei der interessierende Punkt der Punkt des Objekts ist, der sich bei dem weitesten Abstand von der peripheren Begrenzung des Anzeigebereichs befindet, der den kürzesten Weg von benachbarten Pixeln der aufgenommenen Anzeigebereichsdaten zu der Begrenzung aufweist.
  2. Das Verfahren gemäß Anspruch 1, bei dem das Durchsuchen unter Verwendung eines Breite-Zuerst-Durchsuchens durchgeführt wird.
  3. Das Verfahren gemäß Anspruch 1, bei dem das Durchsuchen unter Verwendung von Suchalgorithmen mit dynamischer Programmierung durchgeführt wird.
  4. Das Verfahren gemäß Anspruch 1, das ferner ein Aufnehmen einer Mehrzahl von Bildern in einer Echtzeitbilddarstellung aufweist, um den interessierenden Punkt des Objekts vor dem Anzeigebereich innerhalb jedes aufgenommenen Bilds zu lokalisieren.
  5. Das Verfahren gemäß Anspruch 1, das ferner ein Liefern der Position des Pixels des interessierenden Punkts zu dem Computer zum Steuern des Anzeigebereichs aufweist.
  6. Das Verfahren gemäß Anspruch 1, bei dem der Anzeigebereich ein Projektionsschirm ist.
  7. Das Verfahren gemäß Anspruch 1, bei dem die Bildaufnahmevorrichtung eine digitale Standbildkamera, eine digitale Videokamera, eine analoge Standbildkamera oder eine analoge Videokamera ist.
  8. Ein System zum Identifizieren eines interessierenden Punkts eines Objekts, das vor einer computergesteuerten Anzeige positioniert ist, das folgende Merkmale aufweist: eine Bildaufnahmevorrichtung (13) zum Aufnehmen eines Bilds des Anzeigebereichs innerhalb des Aufnahmebereichs, um aufgenommene Daten zu erhalten, die ein Array von Pixeln umfassen; eine Einrichtung (16) zum Identifizieren von Pixeln innerhalb der aufgenommenen Daten, die dem Objekt entsprechen; gekennzeichnet durch: eine Einrichtung (15) zum Identifizieren von Pixeln innerhalb der aufgenommenen Daten, die einer peripheren Begrenzung des Anzeigebereichs entsprechen; eine Einrichtung (17) zum Identifizieren und Speichern des Teilsatzes von Pixeln, die den Objektpixeln und den Begrenzungspixeln gemeinsam sind; eine Einrichtung (18) zum Durchsuchen unter Verwendung der gemeinsamen Pixel und der Objektpixel, um ein Pixel zu identifizieren, das dem interessierenden Punkt entspricht, wobei der interessierende Punkt der Punkt des Objekts ist, der sich bei dem weitesten Abstand von der peripheren Begrenzung des der peripheren Begrenzung des Anzeigebereichs befindet, der den kürzesten Weg von benachbarten Pixeln der Daten des aufgenommenen Anzeigebereichs zu der Begrenzung aufweist.
  9. Das System gemäß Anspruch 8, bei dem die Einrichtung zum Durchsuchen ein Breite-Zuerst-Durchsuchalgorithmus ist.
  10. Das System gemäß Anspruch 8, bei dem die Einrichtung zum Durchsuchen ein Durchsuchalgorithmus mit dynamischer Programmierung ist.
DE60222380T 2001-01-31 2002-01-29 System und verfahren zum extrahieren eines interessierenden punktes bei einem objekt, das sich vor einer computersteuerbaren anzeige befindet und von einem bildgebenden gerät aufgenommen wird Expired - Fee Related DE60222380T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US09/775,394 US6542087B2 (en) 2001-01-31 2001-01-31 System and method for extracting a point of interest of an object in front of a computer controllable display captured by an imaging device
US775394 2001-01-31
PCT/US2002/002697 WO2002061672A2 (en) 2001-01-31 2002-01-29 System and method for extracting a point of interest of an object in front of a computer controllable display captured by an imaging device

Publications (2)

Publication Number Publication Date
DE60222380D1 DE60222380D1 (de) 2007-10-25
DE60222380T2 true DE60222380T2 (de) 2008-05-21

Family

ID=25104273

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60222380T Expired - Fee Related DE60222380T2 (de) 2001-01-31 2002-01-29 System und verfahren zum extrahieren eines interessierenden punktes bei einem objekt, das sich vor einer computersteuerbaren anzeige befindet und von einem bildgebenden gerät aufgenommen wird

Country Status (6)

Country Link
US (1) US6542087B2 (de)
EP (1) EP1356423B1 (de)
JP (1) JP2004532441A (de)
AU (1) AU2002243728A1 (de)
DE (1) DE60222380T2 (de)
WO (1) WO2002061672A2 (de)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3938532B2 (ja) * 2002-09-05 2007-06-27 本田技研工業株式会社 車両制御装置、プログラム及び方法
US7420540B2 (en) * 2003-12-01 2008-09-02 Olbrich Craig A Determining positioning and/or relative movement of graphical-user interface element based on display images
WO2006036842A2 (en) 2004-09-24 2006-04-06 The University Of North Carolina At Chapel Hill Methods, systems, and computer program products for hierarchical registration between a blood vessel and tissue surface model for a subject and blood vessel and tissue surface image for the subject
US7555164B2 (en) * 2004-12-23 2009-06-30 Hewlett-Packard Development Company, L.P. Robust estimation of pixel values
US8386909B2 (en) * 2005-04-07 2013-02-26 Hewlett-Packard Development Company, L.P. Capturing and presenting interactions with image-based media
AT503008B1 (de) * 2005-12-16 2008-09-15 Dobler & Stampfl Audite Oeg Interaktives optisches system und verfahren zum extrahieren und verwerten von interaktionen in einem optischen system
WO2007107874A2 (en) 2006-03-22 2007-09-27 Home Focus Development Ltd Interactive playmat
US7984995B2 (en) * 2006-05-24 2011-07-26 Smart Technologies Ulc Method and apparatus for inhibiting a subject's eyes from being exposed to projected light
JP5491182B2 (ja) * 2006-10-12 2014-05-14 コーニンクレッカ フィリップス エヌ ヴェ 光制御のためのシステム及び方法
US20090096810A1 (en) * 2007-10-11 2009-04-16 Green Brian D Method for selectively remoting windows
US20100292955A1 (en) * 2009-05-15 2010-11-18 University Of Delaware Method and Apparatus for Measuring Microrelief of an Object
US8538367B2 (en) * 2009-06-29 2013-09-17 Qualcomm Incorporated Buffer circuit with integrated loss canceling
JP5292210B2 (ja) * 2009-07-16 2013-09-18 株式会社エルモ社 資料提示装置
US20110119638A1 (en) * 2009-11-17 2011-05-19 Babak Forutanpour User interface methods and systems for providing gesturing on projected images
US20120209561A1 (en) * 2011-02-10 2012-08-16 University Of Delaware Methods and systems for identifying a point of interest on the periphery of an object
WO2014065544A1 (ko) * 2012-10-22 2014-05-01 Lee Moon Key 차분 카메라를 이용한 영상처리 장치

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5502568A (en) * 1993-03-23 1996-03-26 Wacom Co., Ltd. Optical position detecting unit, optical coordinate input unit and optical position detecting method employing a pattern having a sequence of 1's and 0's
US5528263A (en) 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
US6281878B1 (en) * 1994-11-01 2001-08-28 Stephen V. R. Montellese Apparatus and method for inputing data
CA2158384C (en) * 1994-12-27 1999-09-28 Alexander Gibson Fraser Multimedia program editing system and method
EP0818930B1 (de) * 1996-07-08 2002-05-22 Hyundai Curitel, Inc. Verfahren zur Videokodierung
DE19708240C2 (de) * 1997-02-28 1999-10-14 Siemens Ag Anordnung und Verfahren zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich
US6392665B1 (en) * 1997-05-29 2002-05-21 Sun Microsystems, Inc. Capture mechanism for computer generated motion video images
JP3853034B2 (ja) * 1997-08-13 2006-12-06 シスメックス株式会社 物体の境界決定方法および装置並びに物体の境界決定プログラムを記録した記録媒体
US6512507B1 (en) 1998-03-31 2003-01-28 Seiko Epson Corporation Pointing position detection device, presentation system, and method, and computer-readable medium

Also Published As

Publication number Publication date
WO2002061672A3 (en) 2002-11-14
DE60222380D1 (de) 2007-10-25
US20020101364A1 (en) 2002-08-01
JP2004532441A (ja) 2004-10-21
WO2002061672A2 (en) 2002-08-08
EP1356423B1 (de) 2007-09-12
US6542087B2 (en) 2003-04-01
AU2002243728A1 (en) 2002-08-12
EP1356423A2 (de) 2003-10-29

Similar Documents

Publication Publication Date Title
DE60222380T2 (de) System und verfahren zum extrahieren eines interessierenden punktes bei einem objekt, das sich vor einer computersteuerbaren anzeige befindet und von einem bildgebenden gerät aufgenommen wird
DE112017002799B4 (de) Verfahren und system zum generieren multimodaler digitaler bilder
DE60205662T2 (de) Vorrichtung und Verfahren zur Berechnung einer Position einer Anzeige
DE102017111203B4 (de) Videoverarbeitungsvorrichtung, videoverarbeitungsverfahren und programm
DE60028894T2 (de) Präsentationssystem mit einer interaktiven Darstellung
DE69032971T2 (de) Stellungssteuerungsgerät eines visuellen Punktes
DE69530395T2 (de) Interaktives projektiertes videobildanzeigesystem
DE69617072T2 (de) Verfahren und Vorrichtung zur Erfassung von Wechselstellen in bewegten Bildern
DE60313412T2 (de) Video-Überlagerungsvorrichtung und -verfahren
DE3587738T2 (de) Sich selbst regelndes Beobachtungssystem.
DE112006001017B4 (de) Verfahren und Vorrichtung zum Eingliedern von Irisfarbe in eine Rotes-Auge-Korrektur
DE112016002043T5 (de) Durchlaufanzeige von erfassten bildern
DE69021948T2 (de) Bildverarbeitungssystem.
DE102008024462A1 (de) Interaktives Bildsystem, interaktive Vorrichtung und Betriebsverfahren derselben
DE112016001794T5 (de) Gestenerkennungsvorrichtung, Gestenerkennungsverfahren und Informationsverarbeitungsvorrichtung
DE112012005481T5 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungssystem, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
JP2020102012A (ja) 画像処理装置、画像処理方法およびプログラム
DE69229036T2 (de) Methode und Vorrichtung zur automatischen Zellanalyse
DE69732089T2 (de) Vorrichtung und verfahren zur zeitlichen und räumlichen integration und verwaltung einer vielzahl von videos sowie speichermedium zur speicherung eines programms dafür
DE102017012116A1 (de) Vorschauerzeugung aus panoramischen Bildern
US20020136455A1 (en) System and method for robust foreground and background image data separation for location of objects in front of a controllable display within a camera view
DE69432544T2 (de) Verfahren und Gerät zum Wiederauffinden von dynamischen Bildern und zur Verwaltung von Bildern
DE102020108972A1 (de) System und verfahren zur verfolgung der sich bewegenden objekte
DE112016002252T5 (de) Automatische erkennung von panoramagesten
DE102016123149A1 (de) Bilddatenbasierte rekonstruktion dreidimensionaler oberflächen

Legal Events

Date Code Title Description
8327 Change in the person/name/address of the patent owner

Owner name: HEWLETT-PACKARD DEVELOPMENT COMPANY, L.P., HOU, US

8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee