DE69831181T2 - Positionsbestimmung - Google Patents

Positionsbestimmung Download PDF

Info

Publication number
DE69831181T2
DE69831181T2 DE69831181T DE69831181T DE69831181T2 DE 69831181 T2 DE69831181 T2 DE 69831181T2 DE 69831181 T DE69831181 T DE 69831181T DE 69831181 T DE69831181 T DE 69831181T DE 69831181 T2 DE69831181 T2 DE 69831181T2
Authority
DE
Germany
Prior art keywords
camera
positions
mark
marks
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69831181T
Other languages
English (en)
Other versions
DE69831181D1 (de
Inventor
Richard Thomas Orsett Russell
Graham Alexander Uckfield Thomas
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
British Broadcasting Corp
Original Assignee
British Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GB9711316A external-priority patent/GB2325807B/en
Priority claimed from GBGB9711373.2A external-priority patent/GB9711373D0/en
Application filed by British Broadcasting Corp filed Critical British Broadcasting Corp
Application granted granted Critical
Publication of DE69831181D1 publication Critical patent/DE69831181D1/de
Publication of DE69831181T2 publication Critical patent/DE69831181T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • G01S17/875Combinations of systems using electromagnetic waves other than radio waves for determining attitude
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Description

  • Die vorliegende Erfindung betrifft eine Positionsbestimmung und betrifft insbesondere, aber nicht ausschließlich, die Ableitung der Position einer Kamera für eine so genannte "Virtual Studio"-Fernsehproduktion. In solchen Anwendungen wird eine virtuelle Szene, beispielsweise ein mit einem Computer generierter Hintergrund, einer realen Szene überlagert, beispielsweise mit Schauspielern. Es ist wichtig, die exakte Position und Orientierung der Fernsehkamera in dem Studio zu kennen, so dass die virtuelle Szene so berechnet werden kann, dass diese dem Gesichtspunkt der realen Kamera entspricht, um eine korrekte Übereinstimmung zwischen realen und virtuellen Elementen in der Szene sicherzustellen.
  • Es gibt eine Vielzahl von kommerziell erhältlichen Systemen, die Information über die Position einer Kamera bereitstellen können. Die meisten basieren auf mechanischen Kamerahalterungen, wie beispielsweise robotischen Sockeln, Sockeln, die auf Schienen montiert sind, oder Roboterarmen, die Sensoren aufweisen, um die Position und Orientierung zu messen. Diese Systeme können nicht für von Hand gehaltene Kameras verwendet werden und können voluminös und schwierig in der Verwendung sein.
  • Es gibt auch Verfahren, die mit mechanischen Sensoren arbeiten, aber stattdessen einen mit einem Muster versehenen blauen Hintergrund verwenden, der in dem Kamerabild sichtbar ist. Durch Analysieren des Videosignals können diese Verfahren auf die Orientierung und Position der Kamera schließen. Ein Beispiel für ein solches Verfahren ist in unserer früheren Patentanmeldung GB-A-2271241 beschrieben, die einen Kameraschwenk, eine Kameraverkippung und einen Zoomfaktor unter Verwendung eines beliebig gemusterten Hintergrunds ableitet. Ein weiteres Beispiel, das dieselbe Technik einsetzt, ist in WO-A-95/30312 beschrieben, die einen speziellen Mustertyp verwendet, um eine Bestimmung des Kameraschwenks, der Verkippung, des Zooms und der Position zu ermöglichen. Diese Verfahren beruhen jedoch auf dem Vorhandensein eines blauen Hintergrunds mit zwei Farbtönen. Dies ist in gewissen Situationen unzweckmäßig, beispielsweise dann, wenn es gewünscht ist, Schatten von Objekten aus dem Vordergrundbild zu extrahieren. In gewissen Situationen kann auch nur sehr wenig oder gar kein blauer Hintergrund sichtbar sein, beispielsweise während einer Nahaufnahme eines Schauspielers. Manchmal kann es auch erforderlich sein, ein virtuelles Objekt gegen einen realen Hintergrund zu platzieren, in welchem Fall es überhaupt keinen blauen Hintergrund geben wird.
  • WO-A-9711386 offenbart eine Vorrichtung zur Bestimmung einer Position und Orientierung, bei der eine Kamera auf ein optisch moduliertes Zielobjekt gerichtet wird.
  • EP-A-706105 offenbart ein Navigationssystem für einen autonomen mobilen Roboter, bei dem codierte Zeichen an verschiedenen Positionen angeordnet werden. Die Marken werden anhand des Verhältnisses der Radien von Ringen unterschieden.
  • Ein Verfahren zur Bestimmung der Position eines aufrecht montierten Displays, das auf dem Gebiet der verbesserten Wirklichkeit (augmented reality) eingesetzt worden ist, wird in dem Artikel von Azuma u. a. mit dem Titel "A Demonstrated Optical Tracker with Scalable Work Area for Head-Mounted Display Systems", beschrieben, veröffentlicht in ACM Computer Graphics: Proceedings of the 1992 Symposium on Interactive 3D Graphics (Cambridge, Massachusetts, April 1992), S. 43–52. Dieses Verfahren verwendet eine Mehrzahl von infraroten LEDs, die in Deckenpaneelen eingebaut sind, die mit vier nach oben schauenden Sensoren betrachtet werden, die auf dem Kopfhörer eines Nutzers montiert sind. Die Sensoren stellen jeweils Information der Koordinaten von hellen Punkten in dem Bild (die LEDs) bereit und aus diesen Koordinaten wird anhand der bekannten Position der LEDs und der Geometrie der Sensoren die Position des Kopfhörers berechnet. Von den Erfindern wurde angedacht, das Verfahren von Azuma auf das Problem der Bestimmung einer Kameraposition anzuwenden. Das Verfahren von Azuma ist jedoch nicht dafür gedacht, um zur Bestimmung der Position einer Kamera in einem großen Studio verwendet zu werden, sondern ist stattdessen ausgelegt, um in einem vergleichsweise kleinen Volumen zu arbeiten, wo die Gesamtzahl von LEDs klein ist. Die Erfinder haben einige potenzielle Probleme bei der Anwendung einer solchen Technik auf das Gebiet der Kamerapositionsbestimmung identifiziert.
  • In einem Fernsehstudio könnte die Kamera sich mehrere zehn Meter bewegen, so dass das Verfahren von Azuma u. a. eine sehr große Anzahl von Deckenmarken erfordern würde, von denen nur ein kleiner Teil zu irgendeinem Zeitpunkt sichtbar wäre. Das Verfahren von Azuma beruht auf einer aktiven Kon trolle der LEDs, um die LEDs zu identifizieren. Die Kontrollelektronik und -verdrahtung, die erforderlich sind, um dies in einem großen Studio umzusetzen, wäre komplex und nicht praktikabel. Außerdem enthält die Decke eines Fernsehstudios für gewöhnlich eine Vielzahl von Lampen und anderen Objekten, die die Identifizierung der Marken viel schwieriger machen könnte als in den sorgfältig kontrollierten Bedingungen, für die das Verfahren von Azuma ausgelegt ist, zu funktionieren; die Hellpunktsensoren, die von Azuma verwendet werden, würden falsche Signale erzeugen. Ein weiteres Problem, das die Erfinder identifiziert haben, besteht darin, dass der Satz von Marken, welche die Kamera sehen kann, sich nicht nur deshalb ändern wird, weil sich die Marken in das Gesichtsfeld der Kamera hinein bewegen und aus diesem heraus bewegen, sondern auch deshalb, weil die Marken durch Objekte, wie beispielsweise Mikrofonarme und Studioleuchten, verdeckt werden. Bei Verwendung des Verfahrens von Azuma ist es jedes Mal dann, wenn eine Marke auftaucht oder verschwindet, wahrscheinlich, dass es eine kleine aber plötzliche Änderung in der berechneten Position und Orientierung der Kamera geben wird, weil jegliche Fehler in der Kamerakalibrierung oder der Messung der Markerpositionen zu Ergebnissen führen werden, die davon abhängen, welche Marken gerade verwendet werden.
  • Somit kann das Verfahren von Azuma nicht direkt auf das erfindungsgemäße Problem angewendet werden. Die Erfinder haben neue Techniken entwickelt, die besonders geeignet für die anspruchsvollen Anforderungen an die Bestimmung der Kameraposition in einem Fernsehstudio geeignet sind, welche die Nachteile konventioneller Techniken überwinden oder mindern. Verweise in dieser Patentbeschreibung auf eine Videokamera sollen jegliche Kamera beinhalten, die in der Lage ist, Videobilder zu verfassen; obwohl die Videokamera vorteilhaft eine konventionelle Fernsehstudiokamera ist, ist keine Beschränkung auf einen speziellen Typ von Kamera oder auf einen beabsichtigten Einsatzzweck impliziert.
  • Gesichtspunkte der Erfindung werden in den unabhängigen Patentansprüchen dargelegt. Bevorzugte Merkmale werden in den abhängigen Patentansprüchen dargelegt.
  • Ein Gesichtspunkt der Erfindung stellt ein Verfahren zur Bestimmung der Position eines Objekts, relativ zu einer Vielzahl von Referenzpositionen bereit, basierend auf der Identifizierung einer entsprechenden Vielzahl von Markierungen an jenen Referenzpositionen, wobei das Verfahren die Anwendung von Korrekturfaktoren auf gespeicherte oder gemessene Positionen der Markierungen relativ zu dem Objekt umfasst, um entsprechende, korrigierte Markierungspositionen zu erzeugen, und um die Objektposition relativ zu den Referenzpositionen, basierend auf den korrigierten Referenzpositionen, zu ermitteln, wobei die Korrekturfaktoren auf der Basis der Differenz zwischen gemessenen Markierungspositionen und erwarteten Markierungspositionen berechnet werden, so dass die korrigierten Markierungspositionen korrigiert werden, um gegenseitig selbstkonsistente Werte zu werden, wobei die Korrekturfaktoren zeitlich Tiefpass gefiltert werden, um die Rate der Änderungen von Korrekturfaktoren zu reduzieren.
  • Das Verfahren kann den Schritt einer Anpassung der bestimmten Position umfassen, um plötzliche Änderungen der bestimmten Position auszuglätten, wenn Marken zum Vorschein kommen oder verdeckt werden. Dies kann das Problem von kleinen, aber dennoch plötzlichen und sehr sichtbaren Änderungen in der bestimmten Objektposition auf Grund von kleinen Fehlern in der Positionsbestimmung der Marken mindern, wenn sich verschiedene Marken in das Gesichtsfeld der Kamera hinein bewegen oder aus diesen heraus bewegen.
  • Eine Anpassung kann dadurch erzielt werden, dass eine Bewegung der Marken verfolgt wird, wenn sich die Objektposition ändert, und dass dreidimensionale Korrekturvektoren erzeugt werden. Auf diese Weise können stabile genauere Markenpositionen bestimmt werden. Eine Verfolgung der Marken über mehrere Bilder kann jedoch rechenaufwändig sein und dabei versagen, stabile Werte für die Markenpositionen zu erzeugen, wenn Fehler auf irgendeine Nichtlinearität in der Kamera oder in dem Objektiv zurückgehen. Somit umfasst eine bevorzugte einfachere Realisierung der Anpassung den Schritt, dass Korrekturfaktoren mit zwei Freiheitsgraden erzeugt werden (beispielsweise Verschiebungsvektoren parallel zu der Bildebene oder parallel zu der Referenzoberfläche) und dass die Markenposition korrigiert werden, so dass diese dazu neigen, die Markenpositionen selbstkonsistent für ein Bild oder für eine Folge von Bildern zu machen.
  • Die Änderungsrate kann beschränkt sein, so dass eine Anpassung der Korrekturfaktoren über eine Periode von einigen Sekunden erfolgt (vorzugsweise von zumindest 2 Sekunden, vorzugsweise von weniger als etwa 15 Sekunden, typischerweise etwa 5–10 Sekunden), so dass eine allmähliche Drift in der bestimmten Position auftritt, die weniger gut wahrgenommen werden kann wie eine plötzliche Verschiebung.
  • Ein Maß für den Fehler oder die Genauigkeit der Positionsbestimmung kann auf der Grundlage der Selbstkonsistenz der bestimmten Position, die für jede Marke berechnet wird, bereitgestellt werden. Diese kann auf der Größe der Korrekturfaktoren basieren.
  • Obwohl die Marken an einer ebenen Referenzoberfläche anhaften können, sind die Marken vorzugsweise unter variierenden Abständen zu einer Referenzoberfläche positioniert, vorzugsweise der Decke eines Raums, in welchem sich das Objekt bewegt; dies hat sich als eine überraschende Verbesserung der Genauigkeit der Detektion der Bewegung des Objekts herausgestellt. Insbesondere in einem solchen Fall enthält die gespeicherte Information vorzugsweise ein Maß für den Abstand von jeder Marke von der Referenzoberfläche. Dies kann dadurch erzielt werden, dass die dreidimensionalen Koordinaten von jeder Marke relativ zu einem definierten Ursprung gespeichert werden (in kartesischer oder irgendeiner polaren oder krummlinigen Form, welche für den Algorithmus zur Positionsbestimmung geeignet ist).
  • Vorzugsweise wird von einer Kamera, die mit dem Objekt in Verbindung gebracht wird, ein Bild von mindestens einer Teilmenge der besagten Vielzahl von Markierungen erhalten.
  • Vorzugsweise ist das besagte Objekt eine Videokamera, die ein Bildfeld bzw. Blickfeld aufweist, welches vom Bildfeld bzw. Gesichtsfeld der besagten Kameramittel abweicht.
  • Bei der bevorzugten Anwendung ist das Objekt eine Videokamera und umfasst das Kameramittel eine separate, für gewöhnlich nach oben gerichtete Kamera, die auf der Videokamera montiert ist.
  • Bevorzugter stellt das Verfahren ferner zumindest eine zusätzliche Markierung an einer vorgegebenen Position bereit, so dass diese für die Videokamera sichtbar ist, wobei die oder jede Markierung Indentifizierungsinformationen aufweist, die darin in binärer Form als Folge von konzentrischen Ringen von zwei Farbtönen codiert sind, wobei die Farbtöne so gewählt werden, dass die Markierung durch Einblendung bzw. Chroma-Keying aus dem Videokamerabild ausgetastet werden kann, wobei die Bestimmung der Position der Videokamera auf der Position der zusätzlichen Markierung, falls diese vorhanden ist, in dem Videokamerabild basiert.
  • Eine weitere Ausführungsform stellt eine Vorrichtung zur Positionsbestimmung bereit, umfassend eine Kamera zur Montage auf einem Objekt, dessen Position bestimmt werden soll; ein Speichermittel, das ausgelegt ist, um Maßgrößen der Positionen einer Mehrzahl von Marken zu speichern und um Information, die bemusterte codierte Marken identifiziert, zu speichern; ein Bildverarbeitungsmittel, das ausgelegt ist, um ein von der Kamera ausgegebenes Bild zu verarbeiten, um die Positionen der Marken in dem Bild zu identifizieren; Decodierungsmittel, um Information, die in den bemusterten Marken codiert ist, zu decodieren; und ein Positionsbestimmungsmittel, das ausgelegt ist, um die Position des Objekts auf der Grundlage des Ausgangssignals des Bildverarbeitungsmittels, des Decodierungsmittels und auf der Grundlage der in dem Speichermittel gespeicherten Information zu bestimmen.
  • Das Speichermittel, das Bildverarbeitungsmittel und das Positionsbestimmungsmittel können in einem einzigen Computer integriert sein. Vorzugsweise ist jedoch zumindest ein Teil der Funktion des Bildverarbeitungsmittels mit Hilfe eines Hardwarebeschleunigers bereitgestellt, der ausgelegt ist, um eine oder mehrere Marken zu identifizieren oder um eine oder mehrere bemusterte Marken zu decodieren oder um beide Funktionen auszuführen.
  • Die Vorrichtung umfasst vorzugsweise außerdem ein Mittel zum Anwenden von Korrekturfaktoren auf gespeicherte Maßgrößen bzw. Messwerte der Markenpositionen, um jeweils korrigierte Markenpositionen zu erzeugen und um die Objektposition auf der Grundlage der korrigierten Markenpositionen zu bestimmen, wobei die Korrekturfaktoren so berechnet werden, dass die korrigierten Markenpositionen dazu neigen, zueinander selbstkonsistente Werte anzunehmen, wobei die Änderungsrate der Korrekturfaktoren auf einen vorbestimmten Wert begrenzt ist.
  • In Fällen, wo die Position einer Videokamera (eine andere als das Kameramittel) bestimmt wird, kann die Positionsbestimmung durch Information unterstützt werden, die von dem Bild der Videokamera erhalten wird. Außerdem kann Information, welche den Zoom der Videokamera und Fokuseinstellungen betrifft, eingegeben werden. Eine oder mehrere codierte Marken können in dem Gesichtsfeld der Videokamera platziert werden. Die Anordnung von codierten Marken bei speziellen Positionen in dem Gesichtsfeld ist viel einfacher in der Praxis zu realisieren als die Bereitstellung eines mit einem Muster versehenen Hintergrunds für ein gesamtes Studio, welches Verfahren im Stand der Technik verwendet wurde. Außerdem können die codierten Marken eine genauere Messung als im Falle eines konventionellen Hintergrunds ermöglichen, wo es schwierig ist, für eine genaue Bemusterung über einen großen Bereich zu sorgen.
  • Somit kann das Verfahren außerdem die Schritte umfassen, dass zumindest eine zusätzliche Marke bei einer vorgegebenen Position bereitgestellt wird, so dass diese von der Videokamera gesehen werden kann, wobei die oder jede Marke eine Identifizierungsinformation aufweist, die darauf in binärer Form als Folge von konzentrischen Ringen von zwei Farbtönen codiert ist, wobei die Farbtöne ausgewählt werden, so dass die Marke aus dem Bild der Videokamera mit Hilfe einer Einblendung bzw. Chroma-Keying ausgetastet werden kann, wobei die Positionsbestimmung der Videokamera auf der Position der zusätzlichen Marke beruht, falls diese in dem Bild der Videokamera vorhanden ist.
  • Für die zusätzliche Positionierung kann unabhängig in einem Verfahren zur Bestimmung oder Korrektur einer Maßgröße oder eines Messwerts der Position einer Videokamera gesorgt werden, welches Verfahren die Schritte umfasst, dass zumindest eine Marke bei einer Position bereitgestellt wird, die von der Kamera gesehen werden kann, wobei die oder jede Marke eine Identifizierungsinformation aufweist, die darauf in binärer Form als Folge von konzentrischen Ringen mit zwei Farbtönen codiert ist, wobei die Farbtöne so gewählt werden, dass die Marke aus dem Bild der Videokamera mit Hilfe einer Einblendung bzw. Chroma-Keying ausgetastet werden kann, wobei eine Maßgröße bzw. ein Messwert der Position der Videokamera auf der Grundlage der Position der Marke, falls diese in dem Bild der Videokamera vorhanden ist, bestimmt wird. Eine vollständige Positionsbestimmung kann dadurch bewerkstelligt werden, dass mehrere solche Markierungen so verwendet werden, dass vorzugsweise zumindest drei einzelne Marken stets sichtbar sind, oder dadurch, dass eine mechanische Abtastung oder andere optische Verfahren verwendet werden, wo die codierten Marken für einen Prüf- bzw. Referenzpunkt sorgen. Vorzugsweise ist ein Satz von vorzugsweise zumindest drei einzelnen Marken auf einer im Wesentlichen steifen Halterung montiert, um ein Cluster von Marken zu bilden, wobei die Marken vorzugsweise nicht in einer Ebene liegen.
  • Eine Ausführungsform wird nun ausführlicher unter Bezugnahme auf die beigefügten Figuren beschrieben werden, worin:
  • 1 ein Beispiel einer Studioanordnung zeigt;
  • 2 ein Beispiel einer Marke zeigt;
  • 3 ein Schemadiagramm eines Algorithmus zeigt, der dazu verwendet werden kann, um Marken in dem Bild zu lokalisieren;
  • 4 die Öffnung der Filter zeigt, die in dem Markendetektionssystem verwendet werden;
  • 5 im Detail das Verfahren zum Zählen der Anzahl von Proben oberhalb eines vorgegebenen Schwellenwerts in einem rechteckigen Bildbereich zeigt;
  • 6 das Verfahren gemäß einem Gesichtspunkt der vorliegenden Erfindung zeigt;
  • 7 eine Marke darstellt, die dazu geeignet ist, um in dem Gesichtsfeld einer Videokamera platziert zu werden.
  • Die 1 bis 5 und die ihnen zugeordnete Beschreibung umreißen als Hintergrund eine Ausführungsform eines Systems, in dem die vorliegende Erfindung realisiert werden kann. Die 6 und 7 und die zugeordnete Beschreibung umreißen eine Ausführungsform der vorliegenden Erfindung.
  • Eine Ausführungsform der vorliegenden Erfindung kann in einem virtuellen Studio angewendet werden, wie es in der 1 gezeigt ist. Eine Anzahl von Marken 1 sind auf der Studiodecke befestigt. Weitere Marken sind in einem geringen Abstand unterhalb der Decke befestigt, und zwar sind diese an steifen Stangen 2 befestigt. Obwohl das System mit Marken in einer Ebene arbeiten kann, kann man eine größere Genauigkeit mit Marken erzielen, die auf unterschiedlichen Höhen angeordnet sind, wie dies dargestellt ist. Das System kann alternativ mit Hilfe von Marken realisiert werden, die an anderen Positionen als an der Decke angeordnet sind (beispielsweise auf einer Wand oder sogar auf dem Boden), obwohl die Anordnung von diesen auf der Decke wahrscheinlich am praktikabelsten in vielen Situationen ist.
  • Die Marken werden von einer nach oben schauenden Kamera 3 gesehen, die auf der Seite der normalen Studiokamera 4 befestigt ist. Die nach oben schauende Kamera, die als zusätzliche Kamera bezeichnet wird, ist vorzugsweise eine monochrome Kamera und wird vorzugsweise mit dem Zeilenfolgeverfahren abgetastet. Die Marken können von einem Licht 12 beleuchtet werden. Das Signal von der Kamera wird von einer Analyseeinrichtung 5 analysiert, um die Kameraposition und -orientierung der zusätzlichen Kamera zu berechnen. Die Analyseeinrichtung berechnet dann die Position und Orientierung 6 der Studiokamera, wobei die relative Orientierung und Position der zusätzlichen Kamera 3 und der Studiokamera 4 ausgeglichen wird.
  • Die Analyseeinrichtung kann unter Verwendung entweder von spezieller Hardware oder durch Kombination eines Frame-Grabbers und eines Mehrzweckcomputers realisiert werden. Information bezüglich der Einstellungen von Zoom und Fokus der Studiokamera kann unter Verwendung von konventionellen Sensoren erhalten werden und mit Hilfe einer Verzögerungseinrichtung 8 verzögert werden, um die Verzögerung durch die Verarbeitungseinrichtung 5 zu kompensieren. Die Darstellungseinrichtung 9 berechnet die Ansicht der virtuellen Welt entsprechend der gemessenen Positions-, Orientierungs- und Zoom-Werte. Solche Darstellungseinrichtungen sind kommerziell erhältlich und basieren für gewöhnlich auf Graphikcomputern. Das normale Videosignal von der Kamera wird mit Hilfe der Verzögerungseinrichtung 10 verzögert, um die Verzögerungen bei der Berechnung der Kameraposition und bei der Bilddarstellung auszugleichen, bevor dieses mit dem dargestellten Bild unter Verwendung der herkömmlichen Tasteinrichtung 11 verknüpft wird.
  • Ein Beispiel einer Marke, die in einer Ausführungsform der vorliegenden Erfindung verwendet werden kann, ist in der 2 gezeigt. Die gezeigte Marke weist helle konzentrische Ringe auf einem dunklen Hintergrund auf. Die hellen Teile bestehend vorzugsweise aus einem rückstrahlenden Material, das von einem Licht nahe der Kamera beleuchtet wird, die die Marken sieht, wie dies in der 1 gezeigt ist. Eine geeignete Form von rückstrahlendem Material ist der "reflektierende Silberadhäsionsübertragungsfilm", Teil Nr. 8850, hergestellt von 3M. Bei dem in der 2 gezeigten Beispiel ist die Marke in eine Anzahl von konzentrischen Ringen mit gleicher Breite unterteilt. Der äußere Ring ist stets weiß und dient dazu, den Rand der Marke zu begrenzen. Jeder innere Ring ist entweder dunkel oder hell, um eine "1" oder "0" in dem entsprechenden Bit der Markennummer anzuzeigen. Andere Arten von Streifencode, beispielsweise basierend auf dem Abstand zwischen Übergängen anstelle der Helligkeit von bestimmten Bändern, sind ebenfalls möglich. Das Beispiel in der 2 hat sechs innere Ringe, was einen 6-Bit-Code ergibt, der Zahlen in dem Bereich von 0–63 repräsentieren kann. Es wird bevorzugt, dass nicht sämtliche möglichen Codenummern verwendet werden, was eine gewisse Redundanz ermöglicht. Beispielsweise könnte ein Bit als Paritätsbit verwendet werden, so dass ein Fehler beim Lesen von einem Bit detektiert werden kann. Es wird auch bevorzugt, dass nicht der Code verwendet wird, dessen Darstellung ein massiver weißer Kreis (63 in diesem Fall) ist, weil andere Objekte, beispielsweise eine Studioleuchte vor einem schwarzen Hintergrund, fälschlicherweise als Marke interpretiert werden könnten.
  • Die Positionierung der Marken für eine typische Anwendung wird nun beschrieben. Für Studios mit Bodenflächen von bis zu etwa 50 qm reicht ein 9-Bit-Streifencode aus, um jede erforderliche Marke eineindeutig zu identifizieren. Für größere Studios können gewisse Markennummern wieder verwendet werden und das System kann darauf schließen, bei welcher Marke es sich um welche Marke handelt, indem beispielsweise auf die nächste eineindeutig bezifferte Marke Bezug genommen wird. Die minimale Größe der Marken muss gewählt werden, um zu gewährleisten, dass der Streifencode mit Hilfe der zusätzlichen Kamera erfolgreich gelesen werden kann. Der erfindungsgemäße Streifencodeentwurf und Lesealgorithmus erfordern vorzugsweise einen minimalen Abstand zwischen den Ringen, der etwa 1,5 Pixel auf dem Kamerasensor entspricht, um ein zuverlässiges Auslesen zu erlauben. Falls sich beispielsweise die Marken etwa 4 m oberhalb der zusätzlichen Kamera befinden, jede in einem 9-Bit-Streifencode enthalten, und falls eine Kamera mit herkömmlicher Auflösung mit einem minimalen Blickfeld von 30 Grad verwendet wird, beträgt der minimale Markendurchmesser etwa 12 cm. Die Marken sollten so positioniert sein, dass die zusätzliche Kamera mindestens 3 und Idealerweise 10 oder mehr gleichzeitig sehen kann. Es muss möglich sein, dass gewisse Marken von Leuchten, Mikrofonhaltern usw. verdeckt werden. Beispielsweise würde in einer Situation mit Marken auf Höhen von 4 und 4,5 m, wenn eine maximale Arbeitshöhe der Kamera 2 m beträgt und das minimale Blickfeld der zusätzlichen Kamera 30 Grad beträgt, eine Positionierung der Marken in einem quadratischen Gitter mit Intervallen von 0,4 m gewährleisten, dass mindestens 12 potenziell sichtbar sind, was ein gutes Leistungsverhalten ermöglichen sollte, selbst wenn die Hälfte von diesen von Hindernissen, beispielsweise von Leuchten, verdeckt werden. Obwohl die Marken so positioniert werden können, dass diese in einer Ebene liegen, wird die Genauigkeit der berechneten Kameraposition deutlich verbessert, falls die Marken unter verschiedenen Abständen zu der Kamera angeordnet werden, beispielsweise könnten gewisse Marken direkt an der Decke eines Studios angebracht werden, wobei andere auf Balken oder Stangen montiert etwas herunterhängen. Die Position von jeder Marke sollte idealerweise bis auf eine Genauigkeit von etwa 1 mm bekannt sein, um die Gesamtanforderungen an die Genauigkeit zu erfüllen. Dies könnte dadurch erzielt werden, dass die Position der Marken unter Verwendung eines Theodolits gemessen wird, obwohl dies zeitaufwändig wäre. Ein alternatives Verfahren ist entwickelt worden. Zunächst werden die Positionen der Marken grob gemessen, mit einer Genauigkeit von einigen Zentimetern. Eine Anzahl von Bildern der Marken werden dann analysiert, um genaue Positionen zu ergeben.
  • Die erste Aufgabe, welche die Analysevorrichtung 5 in der 1 ausführt, besteht darin, mögliche Marken in dem Bild zu identifizieren. Das in der 2 gezeigte Aussehen der Marke ermöglicht es, dass dies mit Hilfe eines einfachen Algorithmus bewerkstelligt werden kann, der vergleichsweise wenig Rechenzeit erfordert. Ein schematisches Diagramm eines solchen Algorithmus ist in der 3 gezeigt. Dieser basiert auf der Verwendung von Filtern mit rechteckigen Öffnungen, die unter Verwendung von eindimensionalen, horizontalen und vertikalen Filtern realisiert werden können. Man beachte, dass aus Gründen der Übersichtlichkeit die 3 nicht irgendwelche zusätzlichen Verzögerungen zeigt, um die Unterschiede in der Verarbeitungsverzögerung der verschiedenen Elemente zu kompensieren. Ein Beispiel der verwendeten Öffnungen ist in der 4 gezeigt. Das innerste Rechteck A wird gewählt, so dass dieses groß genug ist, um sämtliche Ringe der Marke komplett zu überdecken, und zwar für die größte erwartete Größe einer Marke in dem Bild. Das äußere Rechteck B wird so gewählt, dass es zu der schwarzen äußeren Umgebung der Marke passt, und zwar für die kleinste erwartete Größe einer Marke in dem Bild.
  • Nun wird die in der 3 gezeigte Betriebsweise des Markendetektors im Detail beschrieben. Das Videosignal von der nach oben schauenden Kamera wird in einen Probenzähler 20 eingegeben, der die Anzahl von Proben oberhalb eines Schwellenwertes T1 in einem Rechteck A zählt, das auf dem aktuellen Pixel zentriert ist. Dieser Schwellenwert wird so gewählt, dass er einem Helligkeitswert zwischen den Werten von schwarz und weiß entspricht, wie diese auf dem Zielobjekt auftreten. Dies kann unter Verwendung der in der 5 gezeigten Schaltung realisiert werden, die nun beschrieben wird. Ein Komparator 40 vergleicht das Eingangssignal 39 mit einem Schwellenwert T und erzeugt ein Signal 41, das für Proben, deren Werte größer oder gleich T sind, 1 ist und 0 für Proben, die kleiner sind als T. Dieses Signal wird einem vertikalen Summierer 46 zugeführt, der die Summe seiner Eingangsproben über eine vertikale Öffnung der Höhe "h" berechnet. Dieses Signal wird dann an einen horizontalen Summierer 47 weitergeleitet, der eine vergleichbare Operation für eine horizontale Öffnung einer Breite "w" vornimmt. Summierer wie diese werden in vielen Bildverarbeitungsoperationen verwendet, aber aus Gründen der Vollständigkeit wird deren Betriebsweise beschrieben. Die folgende Beschreibung bezieht sich auf den vertikalen Summierer; der horizontale Summierer arbeitet in ähnlicher Weise. Die Verzögerung 42 verzögert das Signal um die Anzahl von Zeilen, die gleich der Höhe des Rechtecks A ist. Der Subtrahierer 43 bildet die Differenz zwischen dem Eingang und dem Ausgang der Verzögerung. Die Zeilenverzögerung 44 und der Addierer 45 bilden einen Integrierer, der das Ausgangssignal des Subtrahierers 43 integriert. Wenn Proben in den Bereich mit einer Höhe von h Zeilen eintreten, werden diese in dem Integrator integriert, und wenn diese den Bereich verlassen, werden diese von dem integrierten Wert subtrahiert. Das Ausgangssignal des Addierers 45 wird somit gleich der Anzahl von Proben oberhalb des Schwellenwertes T in einer Spalte von Pixeln mit einer Höhe von h Zeilen. In ähnlicher Weise ist das Ausgangssignal des horizontalen Summierers 48 gleich der Anzahl von Proben, deren Werte gleich dem oder größer dem Schwellenwert T über einem rechteckigen Bereich von h Zeilen mal w Pixeln sind.
  • Das Ausgangssignal des Probenzählers 20 in der 3 wird einem Komparator 24 zugeführt. Der Komparator erzeugt ein "wahres" Ausgangssignal, wann immer es mehr als N1 Proben in dem Rechteck A über dem Schwellenwert T1 gibt. Die Werte von T1 und N1 werden so gewählt, dass diese Bedingung erfüllt wird, wann immer eine Marke sich innerhalb des Rechtecks A befindet. Eine ähnliche Verarbeitung wird dazu verwendet, um zu überprüfen, ob die Marke von einem schwarzen Rand umgeben ist. Der Probenzähler 21 zählt die Anzahl von Proben oberhalb eines Schwellenwertes T2 in dem Rechteck A. T2 ist kleiner als T1 und wird so gewählt, um gerade oberhalb der nominellen Helligkeit des schwarzen von dem Hintergrund zu sein. Der Probenzähler 22 führt dieselbe Aufgabe für das Rechteck B aus. Die Differenz zwischen den zwei Werten entspricht der Anzahl von Proben oberhalb des Schwellenwertes T2 in dem Bereich zwischen den Rechtecken A und B in der 4. Der Komparator 25 testet, ob diese Zahl kleiner ist als N2, welche eine kleinere Zahl als im Vergleich zu der Anzahl von Pixeln in diesem Bereich sein sollte. Sein Ausgangssignal wird "wahr", wann immer diese Bedingung erfüllt ist.
  • Das mögliche Vorhandensein einer Marke wird angedeutet, wenn die Ausgangssignale der Komponenten 24 und 25 beide "wahr" sind. Dies wird jedoch wahrscheinlich für viele benachbarte Probenpositionen auftreten, die um die Mitte der aktuellen Marke zentriert sind. Um die exakte Position der Markenmitte zu identifizieren, werden einige weitere Verarbeitungsschritte ausgeführt. Das Bilddarstellungssystem wird zuerst zwischen zwei Werten T3 und T4 von der Abschneidevorrichtung 23 abgeschnitten. Das heißt, falls das Eingangssignal an die Abschneidevorrichtung zwischen T3 und T4 liegt, ist das Ausgangssignal gleich dem Eingangssignal. Falls das Eingangssignal kleiner als T3 ist, ist das Ausgangssignal T3, und falls das Eingangssignal größer ist als T4, ist das Ausgangssignal T4. Die Werte T3 und T4 werden gewählt, um zu gewährleisten, dass die schwarze Umgebung der Marken unterhalb von T3 liegt und dass der weiße Wert der Ringe oberhalb von T4 liegt. Dies verhindert jegliche geringfügigen Änderungen in dem Beleuchtungswert über die Marke, was die Messung der Mittenposition stören würde. Das abgeschnittene Signal wird dann verarbeitet, um die Position der Mitte der Marke abzuschätzen. Die Verarbeitung wird separat für die horizontale und vertikale Position ausgeführt. Um die horizontal Position zu bestimmen, werden die Werte des abgeschnittenen Bildsignals unabhängig in der linken und rechten Hälfte des Rechtecks A aufsummiert. Dies kann mit Hilfe einer Anordnung ausgeführt werden, die ähnlich zu derjenigen ist, die in der 5 gezeigt ist, ohne den anfänglichen Komparator 40. Die Summe von Werten in der rechten Hälfte wird von der auf der linken Hälfte subtrahiert. Dies wird mit Hilfe des Prozessschrittes 26 in der 3 ausgeführt. Dieser Wert wird positiv sein, wenn die Marke überwiegend auf der rechten Hälfte auftritt, und wird andererseits negativ sein, wenn diese überwiegend in der linken Hälfte liegt. Das Signal wird auf sein Vorzeichen hin untersucht, was sich von positiv auf negativ ändert, und zwar für aufeinander folgende Pixel und mit Hilfe des Vorzeichenänderungsdetektors 29, der anzeigt, dass sich die Position des Rechtecks A von einer Position unmittelbar auf der linken Seite zu einer Position unmittelbar auf der rechten Seite der Mitte der Marke bewegt hat. Dieser Detektor erzeugt ein "wahres" Ausgangssignal, wenn dies auftritt. Die horizontale Position der Markenmitte wird mit Hilfe des Interpolators 31 auf eine Genauigkeit von unter einem Pixel geschätzt, der die Position schätzt, bei der das Ausgangssignal von 26 durch 0 geht. Dies kann beispielsweise dadurch erzielt werden, dass eine lineare Interpolation zwischen den zwei Werten zu beiden Seiten von 0 ausgeführt wird. Eine vergleichbare Verarbeitung (27, 30) wird dazu verwendet, um die vertikale Position der Markenmitte zu lokalisieren.
  • Dieses Verfahren zum Auffinden der Mitte einer Marke hat den Vorteil, dass es recheneffizient ist, weil die Mehrzahl der Verarbeitungsschritte nur eine geringe Anzahl von Addierern, Subtrahierern und Verzögerungselementen erfordert. Aufwändigere Verfahren zum Auffinden der Mitte des Bildes eines Kreises können jedoch auch verwendet werden. Viele mögliche Verfahren sind aus der Literatur bekannt, die beispielsweise auf einer Berechnung des Schwerpunkts oder auf einem Nachzeichnen der Randkontur beruhen. Solche Verfahren können auf eine Ausführungsform angewendet werden und können die Möglichkeit bieten, eine größere Genauigkeit zulasten von höheren Rechenanforderungen zu erzielen.
  • Das Vorhandensein einer Marke wird angezeigt, wenn die Ausgangssignale von 24, 25, 29 und 30 sämtlich "wahr" sind. Wenn dies geschieht, kann die Position der Marke, die mit einer Genauigkeit von unter einem Pixel interpoliert wurde, von dem Interpolator 31 gelesen werden.
  • Wenn einmal die Mitte einer Marke aufgefunden worden ist, kann das Bild um diese Position herum verarbeitet werden, um die Markennummer, die durch den Strichcode repräsentiert wird, zu lesen. Der Algorithmus, der dazu verwendet wird, um dies auszuführen, wird von dem verwendeten Streifencodetyp abhängen. Beispielsweise ist bei dem Typ von Streifencode, der in der 2 gezeigt ist, ein Weg, um voranzukommen, wie folgt. Eine Anzahl von aufeinander folgenden Videoproben wird ausgewählt, beginnend bei dem Pixel am nächsten zu der Markenmitte und bis hin zu dem Rand des Rechtecks A. Diese Pixel werden Proben entlang eines Radius der Marke repräsentieren. Der Außenrand der Marke wird durch Untersuchen der Proben lokalisiert, und zwar beginnend von der äußersten und davon fortschreitend nach innen, wobei nach einer Probe oberhalb eines vorgegebenen Schwellenwerts gesucht wird. Der Schwellenwert würde normalerweise gewählt werden, so dass dieser sich in der Mitte zwischen den Videowerten von weiß und schwarz befindet. Wenn einmal der Rand lokalisiert wurde, können die Positionen entlang des Radius, die den Mitten von jedem Bit des Streifencodes entsprechen, untersucht werden und mit dem Schwellenwert verglichen werden. Dieser Prozess kann Verwendung machen von einer Interpolation, um die Videowerte bei Positionen zwischen existierenden Proben zu schätzen. Für jede Bitposition wird das Bit in dem Code auf 1 gesetzt, falls der Videowert oberhalb des Schwellenwertes liegt, und ansonsten auf 0. Dieser Prozess kann für einige Sätze von Proben, beginnend bei der Mitte, wiederholt werden, beispielsweise in Richtung nach links, nach rechts oberhalb und unterhalb der Mitte. Dies ermöglicht, dass eine Anzahl von unabhängigen Auslesevorgängen des Streifencodes ausgeführt werden können. Die Ausleseergebnisse können verglichen werden und die Marke kann entweder akzeptiert oder zurückgewiesen werden. Beispielsweise könnte eine Marke als gültig akzeptiert werden, falls drei oder vier Auslesewerte des Streifencodes übereinstimmen, oder alternativ kann eine einstimmige Vorhersage erforderlich sein. Weitere Modifikationen sind möglich, beispielsweise eine Änderung der Schwellenwerte, die bei dem Vorgang zum Auslesen des Streifencodes verwendet werden, um die bestmögliche Übereinstimmung zwischen Auslesewerten und den verschiedenen Radien zu erhalten.
  • Falls der Vorgang zum Auslesen des Streifencodes ein akzeptables Ergebnis erzeugt, wird eine Datenbank, die alle Marken in dem Studio auflistet, untersucht, um zu überprüfen, ob die Marke existiert, und falls dies so ist, um deren Koordinaten in dem Studio zu bestimmen. Falls die Marke nicht in der Tabelle vorliegt, braucht diese nicht berücksichtigt zu werden, was einem fehlerhaften Auslesevorgang entspricht. Alternativ könnten gewisse Fehlerkorrekturtechni ken dazu verwendet werden, um zu versuchen, falsch ausgelesene Bits in dem Streifencode zu korrigieren. Es gibt verschiedene wohlbekannte Fehlerkorrekturverfahren, die verwendet werden können, was zulasten der Tatsache geht, dass eine Redundanz in den Streifencode eingebaut werden muss. Dies erfordert außerdem das Hinzufügen von mehr Bits zu dem Code, was größere Marken erfordert. Andere Information könnte dazu verwendet werden, um für eine bekannte Kameraposition, die auf dem vorherigen Bild gemessen wurde, dabei zu helfen, einen nicht erfolgreich gelesenen Streifencode aufzulösen, beispielsweise eine Abschätzung, welche Marke bei dieser Position in dem Bild erwartet werden könnte.
  • Aus der Liste der Markenpositionen in dem Bild und aus den entsprechenden Positionen der Marken in dem Studio ist es möglich, die Kameraposition und -orientierung zu berechnen. Dies kann beispielsweise dadurch ausgeführt werden, dass die photogrammetrische Standardtechnik einer "Bündelanpassung" ("bundles adjustment") verwendet wird, die die Kameraposition und -orientierung berechnet, die die Summe der Quadrate der Abstände zwischen den Positionen in dem Bild minimiert, bei denen (unter der Annahme der bekannten Position der Marken in dem Studio und der internen Kameraparameter) erwartet würde, dass die Marken auftauchen und bei denen diese tatsächlich gefunden werden. Geeignete Techniken zum Ausführen der Bündelanpassung sind im "Manual of Photogrammetry, 4. Auflage", American Society of Photogrammetry, Falls Church, VA, 1980, herausgegeben von Slama, C. C., beschrieben. Aufwändigere Verfahren können alternativ verwendet werden, die keine vollständige Kenntnis der internen Kameraparameter oder der Markenpositionen erfordern.
  • Eine Ausführung dieser Berechnung unter Verwendung der Markenpositionen, die in jedem Bild exakt gefunden werden, kann jedoch zu einer plötzlichen Änderung in der berechneten Kameraposition führen, wenn verschiedene Marken in das Blickfeld hinein gelangen oder aus diesem sich hinaus bewegen, was zuvor erläutert wurde. Es hat sich herausgestellt, dass es für die berechnete Kameraposition viel akzeptabler ist, wenn diese sich unter gewissen Umständen langsam ändert. Dies ist besonders hilfreich in einer Situation, wo eine Marke vorübergehend detektiert wird, weil der Effekt ihres Verschwindens von einem Bild und des erneuten Auftauchens erheblich verringert werden kann. Die Weise, auf die dies erzielt wird, ist in der 6 gezeigt, die nachfol gend erklärt wird.
  • Die Positionen und Streifencodenummern der in dem Bild gefundenen Marken werden zuerst an einen Prozessschritt 40 weitergeleitet, der die Kameraposition auf der Grundlage dieser Information unter Verwendung von photogrammetrischen Standardtechniken berechnet. Die berechnete Position und Orientierung, 47, wird abhängen von einer plötzlichen Änderung, falls eine Marke verschwindet oder wieder auftaucht, wie dies zuvor erklärt wurde. Die Position und Orientierung wird in einen Prozessschritt 41 eingegeben, der die Positionen in dem Bild berechnet, bei denen das Verschwinden der Marken erwartet würde, und zwar basierend auf der gemessenen Kameraposition, den internen Parametern der Kamera und den Positionen der Marken in dem Studio. Die Differenz zwischen den erwarteten und tatsächlichen Markenpositionen wird mit Hilfe eines Subtrahierers 42 berechnet. Die Subtraktionsoperationen sind für jede sichtbare Marke notwendig, und zwar eine für die horizontale Koordinate und eine für die vertikale Koordinate. Falls die Kamerakalibrierung und die absoluten Markenpositionen perfekt genau sind, wird das Ausgangssignal dieses Subtrahierers für jede Marke 0 sein; in einer praktischen Situation wird dieses jedoch eine kleine Differenz sein. Es sei angemerkt, dass der Prozessschritt 40 typischerweise darauf abzielt, die Summe der Quadrate dieser Differenzen zu minimieren. In gewissen Anwendungen von 40 werden die Differenzen während des Berechnungsprozesses erzeugt, so dass ein separater Prozessschritt nicht erforderlich ist. Diese Differenzsignale (umfassend horizontale und vertikale Verschiebungsdifferenzen für jede Marke) werden mit Hilfe eines seitlichen Tiefpassfilters 43 gefiltert. Dieses Filter kann beispielsweise ein rekursives Filter erster Ordnung sein. Das Filter kann separat auf die horizontalen und vertikalen Positionsdifferenzen für jede Marke angewendet werden, obwohl auch eine aufwändigere Verarbeitung möglich ist, die beide Komponenten gemeinsam behandelt. Die gefilterten Positionsdifferenzen werden zu den beobachteten Markenpositionen mit Hilfe eines Addierers 44 addiert, um einen Satz von "angepassten" Markenpositionen 50 zu bilden. Die Position und Orientierung werden aus diesen angepassten Positionen mit Hilfe eines Prozessschrittes 45 berechnet, der im Wesentlichen auf dieselbe Weise wie der Prozessschritt 40 arbeitet. Es sei angemerkt, dass es in gewissen Anwendungen der Prozessschritte 40 und 45 nützlich ist, einen Schätzwert der Kameraposition zu haben, beispielsweise um eine rekursive Minimierungsprozedur zu initialisieren. Falls dies der Fall ist, kann es zweckmäßig sein, die von 40 berechnete Kameraposition zu verwenden, um den Prozess 45 zu initialisieren. Die durch 45 berechnete Position kann dazu verwendet werden, um den Prozess 40 auf dem nächsten Bild zu initialisieren.
  • In einem Bereitschaftszustand ohne Kamerabewegung und ohne Marken, die auftauchen oder verschwinden, wird das Ausgangssignal des Tiefpassfilters 43 dasselbe sein wie dessen Eingangssignal, so dass die angepassten Markenpositionen 50 gleich den von 41 berechneten erwarteten Positionen sein werden. Der Prozess 45 zur Berechnung der Kameraposition wird somit Werte für die Position und Orientierung berechnen, die identisch zu denjenigen sind, die von 40 berechnet werden, und deshalb denjenigen entsprechen, die direkt von den beobachteten Markenpositionen abgeleitet werden.
  • Falls eine Marke verschwindet, kann sich die aus den Markenrohdaten berechnete Kameraposition und -orientierung 47 geringfügig ändern. Dies wird zu einer Änderung der erwarteten Markenpositionen führen, die von 41 berechnet werden. Diese Änderung wird jedoch sofort bei dem Ausgang des Filters 43 auftreten, und zwar wegen der Natur des zeitlichen Tiefpasses. Die angepassten Markenpositionen 50 werden deshalb im Wesentlichen unverändert zu den angepassten Positionen sein, die der Situation entsprechen, bevor die Marke verschwand, obwohl eine Markenposition weniger vorhanden sein wird. (Es sei angemerkt, dass der Subtrahierer 42 und der Addierer 44 nur ein gültiges Ausgangssignal für Marken erzeugt, die bei den beiden Eingangssignalen vorhanden sind.) Die Kameraposition, die von dem Prozessschritt 45 berechnet wird, wird deshalb im Wesentlichen unverändert zu derjenigen sein, die berechnet worden wäre, wenn die Marke nicht verschwunden wäre. Dies ist deshalb der Fall, weil die Markenpositionen 50 selbstkonsistent sind; d. h. jegliche Kombination von Marken wird dieselbe berechnete Kameraposition und -orientierung erzeugen. Während die Zeit verstreicht (und unter der Annahme, dass nicht mehr Marken verschwinden oder auftauchen), wird das Ausgangssignal des Filters 43 allmählich zu seinem Eingangswert hin tendieren. Die angepassten Markenpositionen werden sich somit langsam in Richtung zu den Positionen, die von dem Prozess 41 berechnet wurden, bewegen. Deshalb wird die zum Schluss berechnete Kameraposition 48 langsam zu derjenigen bei 47 tendieren, die aus den Markenrohdaten berechneten wurde.
  • Falls eine neue Marke in dem Bild auftaucht, muss das Filter 43 initialisiert werden, so dass diese Marke gefiltert werden kann. Das heißt, es müssen Werte für die vorherige Anpassungsgröße für die neue Marke angenommen werden, weil diese erforderlich sind, damit das zeitliche Filter arbeiten kann. Die einfachste Option wäre es, anzunehmen, dass eine vorherige Anpassungsgröße 0 ist, aber dies würde wahrscheinlich zu einem Sprung in der berechneten Kameraposition führen, weil die Anpassungsgröße wahrscheinlich exakt 0 ist. Eine bevorzugte Option besteht darin, einen Wert abzuleiten, der gewährleisten wird, dass es keinen plötzlichen Sprung in der berechneten Kameraposition gibt. Eine Weise, auf die dies ausgeführt wird, ist wie folgt. Wenn die Marke zuerst in dem Bild auftaucht, wird ihre Präsenz von den Prozessschritten zur Berechnung der Kameraposition und -orientierung und von dem Filter ignoriert, der nur auf die Marken einwirkt, die sowohl in dem augenblicklichen als auch in dem vorhergehenden Bild sichtbar sind. Die erwartete Position der neuen Marke wird dann auf der Grundlage der berechneten Kameraposition und -orientierung von dem Prozessschritt 46 berechnet. Die Differenz zwischen dieser erwarteten Position und der Position, bei der diese tatsächlich auftaucht, wird von dem Subtrahierer 51 berechnet und dann dazu verwendet, um das Filter 43 zu initialisieren. Dies initialisiert das Filter auf einen Zustand, in welchem dieses sich befunden hätte, wenn die neue Marke stets diese Differenz zwischen der erwarteten und beobachteten Position gehabt hätte. Auf dem nächsten Bild wird die neue Marke von sämtlichen der Prozessstufen verwendet. Ihr Auftauchen führt wahrscheinlich zu einer Änderung der Kameraposition und -orientierung 47, die aus den Markenrohdaten berechnet wird, aber diese Änderung wird das Ausgangssignal des zeitlichen Filters 43 nicht unmittelbar berühren. Der Prozess 45 wird deshalb ein Ergebnis erzeugen, das sehr ähnlich zu demjenigen ist, das erzeugt worden wäre, wenn die neue Marke nicht aufgetaucht wäre. Allmählich werden jedoch die Korrekturverschiebungen bei dem Ausgang des Filters 43 zu denjenigen hin tendieren, die der von 40 berechneten Kameraposition entsprechen, und die bei 45 berechnete Kameraposition wird deshalb zu der bei 40 berechneten hin tendieren.
  • Falls weniger als drei Marken in irgendeinem Bild gesehen werden, wird das System nicht in der Lage sein, eine Position oder einen Winkel zu berechnen, weil die Anzahl von Unbekannten (drei Winkel und drei Positionskoordinaten) größer ist als die Anzahl von beobachteten Werten (zwei Bildkoordinaten für drei Marken). Das System kann auch bei der Berechnung eines gültigen Ergebnisses unter gewissen anderen Umständen versagen, beispielsweise dann, wenn eine Marke falsch identifiziert oder ihre gemessene Position grob fehlerhaft ist. Wenn dies auftritt, ist es von Vorteil, die Ausgabe der zuletzt gültigen Messung solange fortzusetzen, bis ein gültiges Ergebnis erhalten wird. Außerdem kann es ein Vorteil sein, das Filter 43 auf den Zustand zu initialisieren, den dieses gehabt hätte, falls sämtliche Marken Positionsdifferenzen von 0 haben würden. Dies erlaubt es, dass sich das System rasch von einer Situation erholen kann, in der dieses gewisse ungenaue Messungen ausgeführt hat.
  • Eine Variante, bei der Marken in dem Blickfeld der Kamera positioniert sind, wird nun beschrieben werden; diese kann dazu verwendet werden, um die von dem vorgenannten Verfahren erhaltene Positionsinformation zu ergänzen, oder kann dazu verwendet werden, um die Positionsinformation unabhängig zu erhalten. Die Variante verwendet ein optisches System, das auf Clustern bzw. Mengen von Marken beruht, die in der Szene platziert sind. Jeder Cluster enthält vorzugsweise zumindest drei einzelne Markierungen (beispielsweise codierte konzentrische Ringe), vorzugsweise auf unterschiedlichen Höhen oberhalb einer Referenzoberfläche, und bevorzugter enthält dieser zumindest sechs einzelne Markierungen. Die Cluster werden vorzugsweise als starre Einheiten gebildet, auf denen die einzelnen Marken befestigt werden; dies ermöglicht eine Kenntnis der relativen Positionen von jeder Marke innerhalb von jedem Cluster mit einem hohen Grad an Genauigkeit.
  • Bei einer bevorzugten Realisierung, wie sie in der 7 gezeigt ist, besteht jeder Cluster von Marken aus sechs Kreisen in einer Schattierung von blau gegen einen Hintergrund in einer geringfügig anderen Schattierung, so dass diese ausgetastet werden können. Die Verwendung von zwei Blaufarbtönen für eine Messung der Kameraposition ist bereits wirkungsvoll eingesetzt worden. Der Cluster ist so ausgelegt, dass die Kreise nicht alle in einer Ebene liegen; dies ermöglicht eine eindeutige Berechnung der Kameraposition aus einem einzelnen Cluster und erleichtert die automatische Messung der Clusterpositionen. Jede Marke innerhalb des Clusters hat einen Streifencode, um diese eindeutig zu identifizieren.
  • Das Bild wird analysiert, um die exakte Position von jeder Marke innerhalb jedes Clusters zu lokalisieren, woraus bei Kenntnis der Positionen der Marken in dem Studio die Kameraposition und -orientierung (drei Positionskoordinaten und drei Rotationswinkel) berechnet werden kann. Die internen Kameraparameter (einschließlich der Brennweite und Pixelgröße) müssen bekannt sein. Wenn die Kamera ein Zoomobjektiv aufweist, können diese mit Hilfe von Sensoren auf dem Objekt und/oder mit Hilfe von bekannten Verfahren zum Detektieren von Zoom- und Fokuseinstellungen eines Objektivs aus dem Bild bestimmt werden. Falls ein Festobjektiv verwendet wird, können die Einstellungen mit Hilfe einer separaten Anfangskalibrierungsprozedur bestimmt werden, weil diese für eine gegebene Wahl des Objektivs konstant bleiben.
  • Die Cluster brauchen nicht alle dieselbe Anzahl von einzelnen Marken enthalten und einzelne Marken können auch bei bekannten Positionen innerhalb des Bildes angeordnet sein.
  • Die einzige Beschränkung, die dieses System der Positionierung der Markencluster auferlegt, besteht darin, dass zumindest einer und idealerweise ein Minimum von etwa drei gleichzeitig sichtbar sein müssen. So viele Cluster, wie erforderlich sind, um den Aktionsbereich abzudecken, können verwendet werden und so platziert werden, so dass diese nicht die Bewegung der Schauspieler stören. Dieser Ansatz ist inhärent auf sehr große Studios erweiterbar und lässt Szenen zu, die eine beträchtliche Schauspieler- und Kamerabewegung involvieren, wie beispielsweise verfolgende Schauspieler, die lange Korridore entlang rennen.
  • Weil die Cluster erneut positioniert werden können, um zu jeder aufgenommenen Szene zu passen, ist es wichtig, ein Verfahren vorzusehen, um deren Positionen mit hoher Genauigkeit automatisch zu messen. Dies kann dadurch bewerkstelligt werden, dass eine Anzahl von Bildern erfasst wird, die jeweils zwei oder mehr Cluster zeigen. Die Identitäten der Marken in jedem Bild können automatisch bestimmt werden. Eine globale Anpassung mit mittlerem quadratischem Fehler bestimmt die Relativposition und -orientierung von sämtlichen Marken über die verschiedenen Bilder.
  • Das System ist vorzugsweise ausgelegt, um in Echtzeit unter Verwendung einer normalen Workstation zu laufen, die mit einem Frame-Grabber bzw. einer Bildauslesekarte ausgestattet ist. Um dies zu erzielen, ist es wünschenswert, die Position von Marken von einem Bild zu dem nächsten zu verfolgen, so dass nur ein kleiner Teil des Bildes (um die vorhergesagten Markenpositionen herum) gesucht werden müssen. Außerdem erlaubt dies die Verwendung eines einfachen Algorithmus, um die Mitte von jedem Kreis aufzufinden. Bei Verwendung eines solchen Ansatzes hat sich herausgestellt, dass es möglich ist, die Kameraposition mit einer Frequenz von 25 Hz zu messen (wenn 20 Kreise verfolgt werden), wenn ein PC verwendet wird, der auf einem 200 MHz Pentium Pro basiert. Wenn das System jedoch gestartet wird, muss das gesamte Bild durchsucht werden, was einige Sekunden dauern kann.
  • Obwohl die beschriebenen Techniken ideal zur Bestimmung der Position einer Videokamera geeignet sind, können diese beispielsweise auf die Bestimmung der Position von Roboterarmen oder für Virtual Reality angewendet werden, wo die Position eines Kopfhörers bzw. Headsets bestimmt werden soll, der bzw. das von einem Benutzer getragen wird.

Claims (8)

  1. Verfahren zur Bestimmung der Position eines Objekts, relativ zu einer Vielzahl von Referenzpositionen, basierend auf der Identifizierung einer entsprechenden Vielzahl von Markierungen an jenen Referenzpositionen, wobei das Verfahren die Anwendung von Korrekturfaktoren auf gespeicherte oder gemessene Positionen der Markierungen relativ zu dem Objekt umfasst, um entsprechende, korrigierte Markierungspositionen zu erzeugen, und um die Objektposition relativ zu den Referenzpositionen, basierend auf den korrigierten Referenzpositionen, zu ermitteln, wobei die Korrekturfaktoren auf der Basis der Differenz zwischen gemessenen Markierungspositionen und erwarteten Markierungspositionen berechnet werden, so dass die korrigierten Markierungspositionen korrigiert werden, um gegenseitig selbstkonsistente Werte zu werden, wobei die Korrekturfaktoren zeitlich Tiefpass gefiltert werden, um die Rate der Änderungen von Korrekturfaktoren zu reduzieren.
  2. Verfahren nach Anspruch 1, wobei das zeitliche Tiefpass-Filtern die Rate der Änderung von Korrekturfaktoren auf eine vorherbestimmte Höhe reduziert, die so gewählt wurde, dass Übergänge bzw. Wechsel in der bestimmten Objektposition über eine Zeitspanne von mindestens 2 Sekunden geglättet werden, die aus einer oder mehreren identifizierten, unbrauchbar gewordenen Markierungen oder brauchbar gewordenen neuen Markierungen resultieren.
  3. Verfahren nach irgendeinem der vorhergehenden Ansprüche, bei welchem ein Maß für die Genauigkeit einer Positionsbestimmung erzielt wird.
  4. Verfahren nach Anspruch 3, wobei besagtes Maß auf der Bestimmung besagter Korrekturfaktoren basiert.
  5. Verfahren nach irgendeinem der vorhergehenden Ansprüche, bei welchem die Markierungen in unterschiedlichen Entfernungen von einer Referenz-Oberfläche angebracht sind, wobei die gespeicherten Informationen ein Maß für die Entfernung der Markierung von der Referenz-Oberfläche enthalten.
  6. Verfahren nach irgendeinem der vorhergehenden Ansprüche, das ferner ein Bild von mindestens einer Teilmenge der besagten Vielzahl von Markierungen einer Kamera aufweist, die mit dem Objekt in Verbindung gebracht wird.
  7. Verfahren nach Anspruch 6, bei welchem das besagte Objekt eine Videokamera ist, die ein Bildfeld bzw. Blickfeld aufweist, welches vom Bildfeld bzw. Gesichtsfeld der besagten Kamera, die mit dem Objekt in Verbindung gebracht wird, abweicht.
  8. Verfahren nach Anspruch 7, weiterhin umfassend eine Bereitstellung von zumindest einer zusätzlichen Markierung an einer vorgegebenen Position, so dass diese für die Videokamera sichtbar ist, wobei die oder jede Markierung Indentifizierungsinformationen aufweist, die darin in binärer Form als Folge von konzentrischen Ringen von zwei Farbtönen kodiert sind, wobei die Farbtöne so gewählt werden, dass die Markierung durch Einblendung bzw. Chroma-Keying aus dem Videokamerabild ausgetastet werden kann, wobei die Bestimmung der Position der Videokamera auf der Position der zusätzlichen Markierung, falls diese vorhanden ist, in dem Videokamerabild basiert.
DE69831181T 1997-05-30 1998-05-29 Positionsbestimmung Expired - Lifetime DE69831181T2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
GB9711316A GB2325807B (en) 1997-05-30 1997-05-30 Position determination
GB9711316 1997-05-30
GB9711373 1997-06-02
GBGB9711373.2A GB9711373D0 (en) 1997-06-02 1997-06-02 Position determination

Publications (2)

Publication Number Publication Date
DE69831181D1 DE69831181D1 (de) 2005-09-15
DE69831181T2 true DE69831181T2 (de) 2006-05-18

Family

ID=26311636

Family Applications (2)

Application Number Title Priority Date Filing Date
DE69831181T Expired - Lifetime DE69831181T2 (de) 1997-05-30 1998-05-29 Positionsbestimmung
DE69807508T Expired - Lifetime DE69807508T2 (de) 1997-05-30 1998-05-29 Positionsbestimmung

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE69807508T Expired - Lifetime DE69807508T2 (de) 1997-05-30 1998-05-29 Positionsbestimmung

Country Status (6)

Country Link
US (1) US6556722B1 (de)
EP (2) EP1211520B1 (de)
JP (1) JP2002503338A (de)
DE (2) DE69831181T2 (de)
IL (1) IL133233A (de)
WO (1) WO1998054593A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021106488A1 (de) 2020-12-23 2022-06-23 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Hintergrund-Wiedergabeeinrichtung, Hintergrundwiedergabesystem, Aufnahmesystem, Kamerasystem, digitale Kamera und Verfahren zum Steuern einer Hintergrund-Wiedergabeeinrichtung

Families Citing this family (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7453451B1 (en) 1999-03-16 2008-11-18 Maguire Francis J Jr Moveable headrest for viewing images from different directions
US8330812B2 (en) * 1995-05-30 2012-12-11 Simulated Percepts, Llc Method and apparatus for producing and storing, on a resultant non-transitory storage medium, computer generated (CG) video in correspondence with images acquired by an image acquisition device tracked in motion with respect to a 3D reference frame
US6181371B1 (en) * 1995-05-30 2001-01-30 Francis J Maguire, Jr. Apparatus for inducing attitudinal head movements for passive virtual reality
WO1999021134A1 (en) * 1997-10-22 1999-04-29 Spectra Precision Ab Contactless measuring of position and orientation
CA2322020A1 (en) * 1998-02-18 1999-08-26 Gmd - Forschungszentrum Informationstechnik Gmbh Camera tracking system for a virtual television or video studio
US6912293B1 (en) * 1998-06-26 2005-06-28 Carl P. Korobkin Photogrammetry engine for model construction
SE515134C2 (sv) * 1998-09-11 2001-06-11 Qualisys Ab System och metod för kamerapositionering i en virtuell studio
US7474760B2 (en) 1998-10-22 2009-01-06 Trimble Ab Contactless measuring of position and orientation
US7084887B1 (en) * 1999-06-11 2006-08-01 Canon Kabushiki Kaisha Marker layout method, mixed reality apparatus, and mixed reality space image generation method
US8412377B2 (en) 2000-01-24 2013-04-02 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US8788092B2 (en) 2000-01-24 2014-07-22 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US6956348B2 (en) 2004-01-28 2005-10-18 Irobot Corporation Debris sensor for cleaning apparatus
DE10051415C2 (de) * 2000-10-17 2003-10-09 Advanced Realtime Tracking Gmb Optisches Trackingsystem und -verfahren
US7571511B2 (en) 2002-01-03 2009-08-11 Irobot Corporation Autonomous floor-cleaning robot
US6690134B1 (en) 2001-01-24 2004-02-10 Irobot Corporation Method and system for robot localization and confinement
US6704102B2 (en) * 2001-02-06 2004-03-09 Metronics, Inc. Calibration artifact and method of using the same
US8396592B2 (en) 2001-06-12 2013-03-12 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US7429843B2 (en) 2001-06-12 2008-09-30 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
WO2003005303A2 (en) * 2001-07-02 2003-01-16 Matchlight Software, Inc. System and method for discovering and categorizing attributes of a digital image
DE10142457B4 (de) * 2001-08-31 2006-05-04 Daimlerchrysler Ag Digitale Bildmessung retroreflektierender Marken
US9128486B2 (en) 2002-01-24 2015-09-08 Irobot Corporation Navigational control system for a robotic device
US7231063B2 (en) 2002-08-09 2007-06-12 Intersense, Inc. Fiducial detection system
US8386081B2 (en) 2002-09-13 2013-02-26 Irobot Corporation Navigational control system for a robotic device
US8428778B2 (en) 2002-09-13 2013-04-23 Irobot Corporation Navigational control system for a robotic device
FR2846432B1 (fr) * 2002-10-24 2005-03-11 Commissariat Energie Atomique Cible codee et procede de photogrammetre utilisant de telles cibles
EP1422657A1 (de) * 2002-11-20 2004-05-26 Setrix AG Verfahren zur Merkmalenanwesenheitserfassung und Verfahren zur Verwaltung eines Komponentenvorrats
GB0302087D0 (en) * 2003-01-29 2003-02-26 Centurfax Ltd Absolute positioning system
JP4346950B2 (ja) * 2003-05-02 2009-10-21 キヤノン株式会社 情報処理方法および装置
JP2005107247A (ja) * 2003-09-30 2005-04-21 Canon Inc 位置姿勢推定方法および装置
US7332890B2 (en) 2004-01-21 2008-02-19 Irobot Corporation Autonomous robot auto-docking and energy management systems and methods
WO2006002385A1 (en) 2004-06-24 2006-01-05 Irobot Corporation Programming and diagnostic tool for a mobile robot
US8972052B2 (en) 2004-07-07 2015-03-03 Irobot Corporation Celestial navigation system for an autonomous vehicle
US7706917B1 (en) 2004-07-07 2010-04-27 Irobot Corporation Celestial navigation system for an autonomous robot
WO2006065563A2 (en) * 2004-12-14 2006-06-22 Sky-Trax Incorporated Method and apparatus for determining position and rotational orientation of an object
KR101247933B1 (ko) 2005-02-18 2013-03-26 아이로보트 코퍼레이션 습식 및 건식 청소를 위한 자동 표면 청소 로봇
US8392021B2 (en) 2005-02-18 2013-03-05 Irobot Corporation Autonomous surface cleaning robot for wet cleaning
US7620476B2 (en) 2005-02-18 2009-11-17 Irobot Corporation Autonomous surface cleaning robot for dry cleaning
DE102005018336A1 (de) * 2005-02-28 2006-08-31 Osram Opto Semiconductors Gmbh Lichtleiter
US7168174B2 (en) 2005-03-14 2007-01-30 Trimble Navigation Limited Method and apparatus for machine element control
US8930023B2 (en) 2009-11-06 2015-01-06 Irobot Corporation Localization by learning of wave-signal distributions
JP2007139756A (ja) * 2005-10-17 2007-06-07 Ricoh Co Ltd 相対位置検出装置、回転体走行検出装置及び画像形成装置
EP2816434A3 (de) 2005-12-02 2015-01-28 iRobot Corporation Roboter mit autonomem Wirkungsbereich
KR101099808B1 (ko) 2005-12-02 2011-12-27 아이로보트 코퍼레이션 로봇 시스템
US8584305B2 (en) 2005-12-02 2013-11-19 Irobot Corporation Modular robot
EP2065774B1 (de) 2005-12-02 2013-10-23 iRobot Corporation Roboternavigationssystem mit autonomer Abdeckung
KR101300493B1 (ko) 2005-12-02 2013-09-02 아이로보트 코퍼레이션 커버리지 로봇 이동성
US8381982B2 (en) * 2005-12-03 2013-02-26 Sky-Trax, Inc. Method and apparatus for managing and controlling manned and automated utility vehicles
US7681796B2 (en) * 2006-01-05 2010-03-23 International Business Machines Corporation Mobile device tracking
US8528157B2 (en) 2006-05-19 2013-09-10 Irobot Corporation Coverage robots and associated cleaning bins
US8417383B2 (en) 2006-05-31 2013-04-09 Irobot Corporation Detecting robot stasis
JP4802112B2 (ja) * 2007-02-08 2011-10-26 株式会社東芝 トラッキング方法及びトラッキング装置
KR101414321B1 (ko) 2007-05-09 2014-07-01 아이로보트 코퍼레이션 자동 커버리지 로봇
JP4949134B2 (ja) * 2007-06-18 2012-06-06 富士フイルム株式会社 カメラ位置認識システム
US8210435B2 (en) * 2008-01-14 2012-07-03 Sky-Trax, Inc. Optical position marker apparatus
US8565913B2 (en) * 2008-02-01 2013-10-22 Sky-Trax, Inc. Apparatus and method for asset tracking
JP5081014B2 (ja) * 2008-02-28 2012-11-21 株式会社トプコン ターゲット及びこれを用いた三次元形状測定装置
US10155156B2 (en) 2008-06-03 2018-12-18 Tweedletech, Llc Multi-dimensional game comprising interactive physical and virtual components
US8602857B2 (en) 2008-06-03 2013-12-10 Tweedletech, Llc Intelligent board game system with visual marker based game object tracking and identification
US10265609B2 (en) * 2008-06-03 2019-04-23 Tweedletech, Llc Intelligent game system for putting intelligence into board and tabletop games including miniatures
US9649551B2 (en) 2008-06-03 2017-05-16 Tweedletech, Llc Furniture and building structures comprising sensors for determining the position of one or more objects
US8974295B2 (en) 2008-06-03 2015-03-10 Tweedletech, Llc Intelligent game system including intelligent foldable three-dimensional terrain
US8357444B2 (en) * 2008-09-09 2013-01-22 Branham Michael James Visual effects screen
US8422777B2 (en) * 2008-10-14 2013-04-16 Joshua Victor Aller Target and method of detecting, identifying, and determining 3-D pose of the target
US8310663B2 (en) * 2009-07-31 2012-11-13 Lightcraft Technology, Llc Methods and systems for calibrating an adjustable lens
US20110039573A1 (en) * 2009-08-13 2011-02-17 Qualcomm Incorporated Accessing positional information for a mobile station using a data code label
US8988505B2 (en) * 2009-10-20 2015-03-24 Imris Inc Imaging system using markers
KR101266362B1 (ko) * 2009-10-22 2013-05-23 한국전자통신연구원 카메라 트래킹 시스템, 트래킹 방법 및 이를 이용한 실사영상 합성 시스템
JP5315226B2 (ja) * 2009-12-25 2013-10-16 パナソニック株式会社 撮影システム
US8855929B2 (en) * 2010-01-18 2014-10-07 Qualcomm Incorporated Using object to align and calibrate inertial navigation system
EP3192419B1 (de) 2010-02-16 2021-04-07 iRobot Corporation Staubsaugerbürste
US8602893B2 (en) * 2010-06-02 2013-12-10 Sony Computer Entertainment Inc. Input for computer device using pattern-based computer vision
US9229089B2 (en) 2010-06-10 2016-01-05 Qualcomm Incorporated Acquisition of navigation assistance information for a mobile station
JP5993856B2 (ja) 2010-09-09 2016-09-14 トウィードルテック リミテッド ライアビリティ カンパニー 動的特徴追跡を有するボードゲーム
DE102011015987A1 (de) * 2011-04-04 2012-10-04 EXTEND3D GmbH System und Verfahren zur visuellen Darstellung von Informationen auf realen Objekten
US8689255B1 (en) 2011-09-07 2014-04-01 Imdb.Com, Inc. Synchronizing video content with extrinsic data
US20130123009A1 (en) * 2011-11-10 2013-05-16 Tweedletech, Llc Intelligent board game system with visual marker based object tracking and identification
DE102012107153A1 (de) * 2012-08-03 2014-02-27 Hendrik Fehlis Vorrichtung und Verfahren zur Bestimmung der Eigenlage einer bildaufnehmenden Kamera
US8955021B1 (en) 2012-08-31 2015-02-10 Amazon Technologies, Inc. Providing extrinsic data for video content
US9113128B1 (en) 2012-08-31 2015-08-18 Amazon Technologies, Inc. Timeline interface for video content
US9389745B1 (en) 2012-12-10 2016-07-12 Amazon Technologies, Inc. Providing content via multiple display devices
US10424009B1 (en) 2013-02-27 2019-09-24 Amazon Technologies, Inc. Shopping experience using multiple computing devices
DE102013106345A1 (de) * 2013-06-18 2014-12-18 Ergoneers Gmbh Objekterfassungssystem und Untersuchungsanordnung für Sehstörungen
US9838740B1 (en) 2014-03-18 2017-12-05 Amazon Technologies, Inc. Enhancing video content with personalized extrinsic data
US9791865B2 (en) 2014-10-29 2017-10-17 Amazon Technologies, Inc. Multi-scale fiducials
US9924103B2 (en) * 2015-04-09 2018-03-20 The Boeing Company Automated local positioning system calibration using optically readable markers
FR3034940B1 (fr) * 2015-04-10 2018-04-13 Solidanim Systeme et procede de tournage de film video, et environnement utilise
US9758305B2 (en) 2015-07-31 2017-09-12 Locus Robotics Corp. Robotic navigation utilizing semantic mapping
EP3564620A4 (de) * 2016-12-27 2020-09-16 Sony Corporation Nach oben gerichtete markierung, bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und programm
US11205283B2 (en) * 2017-02-16 2021-12-21 Qualcomm Incorporated Camera auto-calibration with gyroscope
GB2569267A (en) * 2017-10-13 2019-06-19 Mo Sys Engineering Ltd Lighting integration
US10685197B2 (en) 2017-11-17 2020-06-16 Divine Logic, Inc. Systems and methods for tracking items
JP7075252B2 (ja) * 2018-03-23 2022-05-25 キヤノン株式会社 情報処理装置およびその制御方法、プログラム
JP7404011B2 (ja) * 2019-09-24 2023-12-25 東芝テック株式会社 情報処理装置
CN113325437A (zh) * 2020-02-29 2021-08-31 华为技术有限公司 图像生成方法及装置
GB2599159A (en) * 2020-09-28 2022-03-30 Mastercard International Inc Location determination
WO2022136849A2 (en) * 2020-12-24 2022-06-30 Mo-Sys Engineering Limited Optical markers
EP4345805A1 (de) 2022-09-27 2024-04-03 Galijasevic, Senad Verfahren und systeme zur steuerung des aussehens einer led-wand und zur erzeugung digital erweiterter kamerabilder

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2005950B (en) 1977-10-07 1982-02-10 Secretary Industry Brit Position detecting apparatus
US4736109A (en) * 1986-08-13 1988-04-05 Bally Manufacturing Company Coded document and document reading system
EP0265542A1 (de) * 1986-10-28 1988-05-04 Richard R. Rathbone Optisches Navigationssystem
GB2218590B (en) 1988-05-13 1992-05-20 Gen Electric Co Plc Automated vehicle control
US4942539A (en) 1988-12-21 1990-07-17 Gmf Robotics Corporation Method and system for automatically determining the position and orientation of an object in 3-D space
US5227985A (en) * 1991-08-19 1993-07-13 University Of Maryland Computer vision system for position monitoring in three dimensions using non-coplanar light sources attached to a monitored object
GB2259823A (en) 1991-09-17 1993-03-24 Radamec Epo Limited Navigation system
GB2267360B (en) 1992-05-22 1995-12-06 Octec Ltd Method and system for interacting with floating objects
AU6251894A (en) * 1993-03-01 1994-09-26 United Parcel Service Of America, Inc. Method and apparatus for locating a two-dimensional symbol using a double template
GB2284907B (en) 1993-12-18 1998-06-24 Central Systems & Automation L Navigation system for automatically guided vehicle
WO1996007929A1 (de) 1994-09-09 1996-03-14 Siemens Aktiengesellschaft Anordnung zur automatischen positionserfassung eines container-transportfahrzeuges
IT1271241B (it) * 1994-10-04 1997-05-27 Consorzio Telerobot Sistema di navigazione per robot mobile autonomo
GB2305050A (en) * 1995-09-08 1997-03-26 Orad Hi Tec Systems Ltd Determining the position of a television camera for use in a virtual studio employing chroma keying
EP0852732A1 (de) * 1995-09-21 1998-07-15 Omniplanar, Inc. Verfahren und gerät zur bestimmung der position und lage
US5768443A (en) * 1995-12-19 1998-06-16 Cognex Corporation Method for coordinating multiple fields of view in multi-camera

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021106488A1 (de) 2020-12-23 2022-06-23 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Hintergrund-Wiedergabeeinrichtung, Hintergrundwiedergabesystem, Aufnahmesystem, Kamerasystem, digitale Kamera und Verfahren zum Steuern einer Hintergrund-Wiedergabeeinrichtung

Also Published As

Publication number Publication date
EP1015909A1 (de) 2000-07-05
WO1998054593A1 (en) 1998-12-03
EP1211520B1 (de) 2005-08-10
JP2002503338A (ja) 2002-01-29
IL133233A0 (en) 2001-03-19
DE69807508T2 (de) 2003-02-27
EP1211520A9 (de) 2003-08-06
EP1211520A8 (de) 2003-07-09
DE69807508D1 (de) 2002-10-02
EP1015909B1 (de) 2002-08-28
EP1211520A3 (de) 2003-06-04
DE69831181D1 (de) 2005-09-15
IL133233A (en) 2005-05-17
US6556722B1 (en) 2003-04-29
EP1211520A2 (de) 2002-06-05

Similar Documents

Publication Publication Date Title
DE69831181T2 (de) Positionsbestimmung
DE102012112322B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
CN109151439B (zh) 一种基于视觉的自动追踪拍摄系统及方法
DE102012112321B4 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
EP0758515B1 (de) Verbessertes chromakey-system
DE112005000929B4 (de) Automatisches Abbildungsverfahren und Vorrichtung
EP2087459B1 (de) Vorrichtung, verfahren und computerprogramm zum bestimmen einer position basierend auf einem kamerabild
EP1348148B2 (de) Kamera
US5073819A (en) Computer assisted video surveying and method thereof
DE69635558T2 (de) Verfahren und Vorrichtung zum automatischen elektronischen Einfügen von Reklameschildern in einem Videobild
DE69728687T2 (de) Verfahren und Vorrichtung zur Hervorhebung von Signalteilen bei der Fernseh-Direktübertragung
WO2011160962A1 (de) Optisches messverfahren und messsystem zum bestimmen von 3d-koordinaten auf einer messobjekt-oberfläche
EP2728374B1 (de) Erfindung betreffend die Hand-Auge-Kalibrierung von Kameras, insbesondere Tiefenbildkameras
DE112016006262B4 (de) Dreidimensionaler Scanner und Verarbeitungsverfahren zur Messunterstützung für diesen
EP3104330B1 (de) Verfahren zum nachverfolgen zumindest eines objektes und verfahren zum ersetzen zumindest eines objektes durch ein virtuelles objekt in einem von einer kamera aufgenommenen bewegtbildsignal
US9881377B2 (en) Apparatus and method for determining the distinct location of an image-recording camera
EP2710331A1 (de) Optisches messverfahren und messsystem zum bestimmen von 3d-koordinaten auf einer messobjekt-oberfläche
CN109034185A (zh) 一种街景图像差异对比方法及装置
DE19922321A1 (de) Verfahren und Anordnung zur Durchführung von geodätischen Messungen mittels Videotachymeter
DE102006055758A1 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE10312249A1 (de) Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern
DE19536691B4 (de) Verfahren und Anordnung zur Korrektur von Bildstandsfehlern bei der fernsehmäßigen Filmabtastung
AT511460B1 (de) Verfahren zur bestimmung der position eines luftfahrzeugs
WO2018087392A1 (de) 3d-referenzierung
DE102015106838A1 (de) Verfahren zur Steuerung einer 3D-Messvorrichtung mittels des Bewegungspfades und Vorrichtung hierzu

Legal Events

Date Code Title Description
8364 No opposition during term of opposition