DE10051415C2 - Optisches Trackingsystem und -verfahren - Google Patents

Optisches Trackingsystem und -verfahren

Info

Publication number
DE10051415C2
DE10051415C2 DE10051415A DE10051415A DE10051415C2 DE 10051415 C2 DE10051415 C2 DE 10051415C2 DE 10051415 A DE10051415 A DE 10051415A DE 10051415 A DE10051415 A DE 10051415A DE 10051415 C2 DE10051415 C2 DE 10051415C2
Authority
DE
Germany
Prior art keywords
information
image
unit
tracking system
image sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE10051415A
Other languages
English (en)
Other versions
DE10051415A1 (de
Inventor
Konrad Zuerl
Kurt Achatz
Armin Weis
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ADVANCED REALTIME TRACKING GMBH, 82211 HERRSCHING,
Original Assignee
ADVANCED REALTIME TRACKING GMB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ADVANCED REALTIME TRACKING GMB filed Critical ADVANCED REALTIME TRACKING GMB
Priority to DE10051415A priority Critical patent/DE10051415C2/de
Priority to CA002358735A priority patent/CA2358735A1/en
Priority to US09/976,287 priority patent/US20020044204A1/en
Priority to GB0124832A priority patent/GB2373941A/en
Publication of DE10051415A1 publication Critical patent/DE10051415A1/de
Application granted granted Critical
Publication of DE10051415C2 publication Critical patent/DE10051415C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • G01S17/875Combinations of systems using electromagnetic waves other than radio waves for determining attitude
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

Die Erfindung betrifft ein optisches Trackingsystem zur Po­ sitions- und/oder Orientierungsbestimmung eines mit wenigs­ tens einem Marker ausgestatteten Objektes mit mindestens zwei Bildaufnehmern zur bildlichen Erfassung des wenigstens einen Markers und mit mindestens einer Recheneinheit zur Auswertung der von den Bildaufnehmern erfassten Bilder zur Berechnung der Position und/oder der Orientierung des Ob­ jektes. Die Erfindung betrifft weiterhin ein entsprechendes Trackingverfahren, ein Computerprogramm, um das Verfahren auf einem Computer zu implementieren sowie ein dieses Programm aufweisendes Computerprogramm-Produkt.
Ein gattungsgemäßes Trackingsystem und -verfahren ist aus der DE-198 06 646 C1 zur Bestimmung der Position und Orien­ tierung einer Aufnahmekamera bekannt. Um beispielsweise ei­ ne aufgenommene Person präzise und lagegetreu in einen vir­ tuell erstellten Hintergrund integrieren zu können, muss die jeweils bestehende Position und Orientierung der Auf­ nahmekamera bekannt sein. Es wird dort ein Trackingsystem vorgeschlagen mit mindestens zwei an der Kamera anzubrin­ genden Lichtquellen, mindestens zwei Erfassungskameras zur bildlichen Erfassung der Lichtquellen und mit einer Rechen­ einheit zur Auswertung dieser Bilder. Bei einer optimalen Anzahl von Lichtquellen und Erfassungskameras können mit hinreichender Genauigkeit Position (dreidimensionaler Ort) sowie die Orientierung (Roll-, Nick- und Schwenkwinkel) der Kamera bestimmt werden. Vorteilhafterweise handelt es sich um Lichtquellen im Infrarotbereich, um diese von den ande­ ren in einem Studio vorhandenen Lichtquellen zu entkoppeln. Als Erfassungskameras werden handelsübliche CCD-Kameras vorgeschlagen. Die Berechnung von Position und Orientierung der Aufnahmekamera erfolgt in einer Datenverarbeitungsanla­ ge mittels trigonometrischer Berechnungen.
Aus der WO 99/52094 A1 ist ein Trackingsystem bekannt, bei dem von lichtemittierenden Dioden in bestimmten Zeitfenstern abgegebene Infrarotblitze zeitaufgelöst von einer synchro­ nisierten Kamera empfangen werden.
Weiterhin ist in der WO 99/30182 A1 ein Trackingsystem be­ schrieben, bei dem die mindestens drei Marker eines Objek­ tes, die miteinander in einer vorbestimmten geometrischen Beziehung angeordnet sind, beispielsweise anhand von an diesen Markern reflektierten Strahlen erfasst werden, wor­ aus sich durch Vergleich mit gespeicherten Markeranordnun­ gen die Position und Orientierung der Objekte berechnen lassen.
Aus der WO 99/17133 A1 ist die Verwendung von aktiven (energie­ emittierenden) und passiven (energiereflektierenden) Tar­ gets zur Verfolgung eines mit solchen Targets ausgestatte­ ten Objektes bekannt.
Bei einem Verfahren gemäß der WO 98/54593 A1 dient eine Rück­ kopplungsschleife innerhalb des Rechenprozesses zur Positi­ onsbestimmung dazu, plötzliche Datensprünge zu vermeiden und einen Tiefpassfilter zu initialisieren. Diesen Tief­ passfilter wird die Differenz zwischen erwarteter und beo­ bachteter Markerposition zugeführt. Hierdurch können die Markerpositionen derart korrigiert werden, dass beim Auf­ tauchen oder beim Heraustreten eines Markers in bzw. aus dem Bild sich die Kameraposition nicht sprunghaft, sondern langsam ändert.
In der DE 197 22 397 A1 wird ein Strobe-Lichtgerät mit va­ riablem, steuerbaren Emissionswinkel beschrieben. Hierzu wird die Position einer Lichtquelle innerhalb eines Reflek­ tors variiert. Aus der DE 198 22 846 C2 ist ein optisches System mit mehreren optischen Elementen zum Erzielen einer veränderbaren Lichtstärkeverteilung bekannt, wobei der Strahlengang des von einer Lichtquelle abgestrahlten Lich­ tes jeweils über ein optisches Element verläuft, wobei die Strukturen dieses Elements als Mikrostrukturen ausgebildet sind, deren optische Daten als Funktion ihrer Ortskoordina­ tion in Abhängigkeit von der angestrebten Lichtstärkever­ teilung variieren. Als optisches Element werden ein diffraktives optisches Element oder ein Mikrolinsenfeld vorgeschlagen.
Bei vorliegender Erfindung wird ein mit mindestens einem Marker ausgestattetes beliebiges Objekt gleichzeitig von mindestens zwei Trackingkameras oder Bildaufnehmer beobach­ tet, deren Position und Orientierung im Raum bekannt ist, so dass aus den Bildern, die diese Kameras liefern, mit Hilfe trigonometrischer Methoden der Ort des Markers und damit des Objektes im Raum bestimmt werden kann. Hierzu werden für einen Marker Sehstrahlen konstruiert, die vom Ort jeder Trackingkamera ausgehen und deren Schnittpunkt im Raum den dreidimensionalen Ort des Markers angibt. Bei Ver­ wendung mehrerer Marker pro Objekt kann neben der dreidi­ mensionalen Position auch die Orientierung des Objekts im Raum, d. h. eine "6D-Position", berechnet werden. Die Ori­ entierung eines Objekts wird durch die relative Drehung des Objekts im Raum sowie die Drehung um sich selbst bestimmt.
Bei den bekannten und oben beschriebenen Trackingsystemen wird meist der gesamte von einem Bildaufnehmer (Trackingka­ mera) aufgenommene Bildbereich ausgelesen, digitalisiert und nach Markern durchsucht. Die Positionen der gefundenen Marker werden anschließend in zwei Dimensionen (in den Bildkoordinaten) exakt berechnet. Diese Daten werden an ei­ nen zentralen Rechner oder eine zentrale Rechenprozedur weitergegeben, wo die von mehreren Bildaufnehmern zu einem Zeitpunkt aufgenommenen Daten gesammelt werden. Hierauf bauen die weiteren Rechnungen auf, die die Position und/oder Orientierung der zu trackenden Objekte zum Ergeb­ nis haben.
Diese Trennung der einzelnen Arbeitsschritte weist mehrere Nachteile auf. So erfolgt beispielsweise das Auslesen des Bildaufnehmers in Bildbereichen, in denen sich keine Marker befinden, auf dieselbe Weise, wie in den eigentlich inte­ ressierenden Bildbereichen, in denen Marker vorhanden sind. Das Auslesen des Bildaufnehmers ist jedoch eine der wesent­ lichen Zeitrestriktionen für derartige Präzisions- Trackingsysteme, da die Pixelinformationen sequentiell zu einem A/D-Wandler geführt werden, und da sich andererseits im allgemeinen eine Erhöhung der Auslesefrequenz negativ auf die erreichbare Genauigkeit auswirkt.
Aufgabe vorliegender Erfindung ist daher, die oben genann­ ten Nachteile von zeit- und speicherintensiven Tracking­ systemen zu vermeiden und bei unverminderter oder erhöhter Tracking-Genauigkeit wesentliche Zeitgewinne zu erzielen. Insbesondere soll beim Einsatz reflektierender Marker eine erhöhte Genauigkeit bei der Bestimmung der Markerpositionen im Bild im Vergleich zu den bekannten Systemen erzielt wer­ den.
Diese Aufgabe wird durch die Merkmale eines optischen Tra­ ckingsystems gemäß Anspruch 1 sowie durch ein Verfahren zur Positions- und/oder Orientierungsbestimmung gemäß Anspruch 11 und ein entsprechendes Computerprogramm oder Computer­ programm-Produkt gemäß Anspruch 21 bzw. 22 gelöst. Vorteile der Erfindung ergeben sich aus den jeweiligen Unteransprü­ chen sowie der nachfolgenden Beschreibung.
Beim erfindungsgemäßen Trackingsystem ist mindestens eine Recheneinheit zur Auswertung der von den Bildaufnehmern er­ fassten Bilder sowie Mittel vorgesehen, um von einer sol­ chen Recheneinheit errechnete Informationen zurück zu einer anderen Recheneinheit und/oder zurück zum Bildaufnehmer zu übermitteln. Hierdurch wird eine bidirektionale Datenüber­ tragung möglich, die im Vergleich zur bisherigen unidirek­ tionalen Datenübertragung wesentliche Vorteile bringt. Die rückübertragenen Informationen werden zur Steuerung der Bildaufnahme und/oder der Bildauswertung verwendet. Hier­ durch können beispielsweise Informationen über Ort, Größe und Helligkeit der interessierenden Marker dazu genutzt werden, die Bildaufnahme zu optimieren, sowie die für den Auslesevorgang interessierende und nicht interessierende Bildbereiche unterschiedlich zu behandeln. Weiterhin können Informationen über Position oder Orientierung des Objektes zur Extrapolation auf zu erwartende Positionen oder Orien­ tierungen genutzt werden und die Bildaufnahme sowie - auswertung daraufhin ausgerichtet werden.
Durch die Erfindung werden die Nachteile der Trennung der einzelnen Rechenschritte in Richtung von Bildaufnahme zu der Tracking-Ergebnisausgabe überwunden, indem Informatio­ nen insbesondere von dem Ort, an dem erste Tracking- Ergebnisse zur Verfügung stehen, an die Orte, an denen die Bildaufnahme und die ersten Schritte der Bildverarbeitung vorgenommen werden (im allgemeinen die Bildaufnehmer und die die Markerpositionen im Bild bestimmenden Rechenstu­ fen), rückgeführt werden.
Häufig sind die Rechenstufen zur Bildauswertung nicht nur logisch, sondern auch physikalisch in eine 2D-Rechenstufe und eine nachgeschaltete zentrale 3D-/6D-Rechenstufe ge­ trennt. In der 2D-Rechenstufe werden die Markerpositionen in den Bildkoordinaten des Bildaufnehmers berechnet, so dass häufig jedem Bildaufnehmer eine solche Rechenstufe un­ mittelbar zugeordnet ist. Aus den ermittelten Daten werden dann in einer zentralen Recheneinheit die dreidimensionalen Positions- oder sechsdimensionalen Positions- und Orientie­ rungsdaten berechnet. Bei einer solchen Anordnung werden Informationen von der zentralen Recheneinheit an die einem Bildaufnehmer zugeordnete Recheneinheit und gegebenenfalls auch an den Bildaufnehmer selbst zurückge­ leitet. Hierdurch können Parameter zur Bildaufnahme beim Bildaufnehmer selbst gesteuert und optimal eingestellt wer­ den sowie die nachfolgende Bildverarbeitung in der 2D- Rechenstufe optimiert werden, wobei die Optimierung in Ab­ hängigkeit von der errechneten Position und/oder Orientie­ rung des Objekts folgen kann.
Generell kann es sich bei der rückgeführten Information um aktuelle Trackingdaten handeln, die für die unmittelbare Vergangenheit ermittelt wurden, und die Rückschlüsse auf den aktuellen Zeitpunkt zulassen. Es kann sich weiterhin um von außen in das System eingebrachte aktuelle Daten handeln, die für das Tracking relevant sind. Schließlich kann es sich auch um a-priori-Informationen bezüglich der Aus­ gangssituation handeln. Werden aktuelle Trackingdaten rück­ geführt, so entsteht ein geschlossener Regelkreis, der in zahlreichen Situationen Verbesserungspotential gegenüber der bisherigen Arbeitsweise mit unidirektionalem Informati­ onsfluss bietet.
Sowohl beim Auslesevorgang des Bildaufnehmers als auch bei der Erkennung von Markern und der Berechnung ihrer zweidi­ mensionalen Positionen kann durch die Rückführung von In­ formationen wertvolle Rechenzeit gespart und die Genauig­ keit erhöht werden.
Es ist auch denkbar, zu diesem Zweck die 2D-Rechenstufen, also die den einzelnen Bildaufnehmern zugeordneten Rechen­ einheiten, zum Zuführen von Informationen oder zum Weiter­ leiten von Informationen von der zentralen Recheneinheit miteinander zu verbinden.
Es ist vorteilhaft, eine Prädiktionseinheit in die Informa­ tionsrückführung einzubauen, durch die Daten der unmittel­ bar vergangenen Bildaufnahmen auf die in der aktuellen Bildaufnahme zu erwartenden Daten extrapoliert werden. Hierdurch lassen sich beispielsweise zu erwartende Marker­ positionen im zweidimensionalen Bild berechnen und die fol­ gende Bildverarbeitung auf den Bereich beschränken, in dem Marker zu erwarten sind. In den Bereichen, in denen keine Marker erwartet werden, können das Auslesen des Bildaufneh­ mers und die Markererkennung und Positionsbestimmung entwe­ der ganz entfallen oder mit geringerer Genauigkeit oder nur in gewissen Zeitabständen durchgeführt werden. Dies erhöht die Verarbeitungsgeschwindigkeit und spart Speicherplatz.
Rückzuführende Informationen können auch die aktuellen oder zu erwartenden Markergrößen sein. Unspezifische Reflexe können dann allein aufgrund einer Größeninformation ausge­ blendet werden. Die Rechenzeit für die aufwendige Positi­ onsbestimmung solcher Reflexe entfällt und kann für eine Verbesserung der Berechnung bei den interessierenden Mar­ kern eingesetzt werden.
Auch Informationen über das aktuelle oder zu erwartende Auftreten von Artefakten (häufig aufgrund sich gegenseitig teilweise verdeckender Marker) können rückgeführt werden. Dadurch kann die Berechnung der Markerpositionen im zweidi­ mensionalen Bild bereits mit an diese Situation angepassten Algorithmen erfolgen. Die Sicherheit, Schnelligkeit und Ge­ nauigkeit der Positionsberechnung für Marker, die von Arte­ fakten betroffen sind, steigt hierdurch.
Es ist von Vorteil für die Datenübertragung in beide Rich­ tungen, d. h. von der Bildaufnahme zur Bildverarbeitung und Trackingberechnung und umgekehrt, physikalisch denselben Informationskanal zu benutzen. Die Informationsübertragung kann dann durch Verwendung getrennter Frequenz- oder Zeit­ fenster erfolgen. Geeignet ist eine Informationsübertragung über Ethernet-Verbindungen.
Eine besonders günstige Anwendungsmöglichkeit ergibt sich durch die Erfindung für Trackingsysteme, die mit passiven Markern arbeiten, d. h. solchen Markern, die elektromagne­ tische Strahlung im sichtbaren oder Infrarotbereich reflek­ tieren. Bei solchen Systemen wird mindestens eine Beleuch­ tungseinheit zur Bestrahlung der Marker eingesetzt, die ei­ nem der Bildaufnehmer zugeordnet ist. Retroreflektoren als Marker besitzen den Vorteil, den Hauptteil des einfallenden Lichts in Einfallsrichtung zurückzureflektieren.
Bei den meisten Anwendungen optischer Trackingsysteme muss ein weiter Entfernungsbereich zwischen Bildaufnehmer (Kame­ ra) und Objekt (Target) überdeckt werden. Das System muss folglich bei geringen Abständen genauso wie bei großen Ab­ ständen zwischen Kamera und Target Ergebnisse ausreichender Genauigkeit liefern. Die für optische Trackingsysteme gän­ gigen Bildaufnehmer (CCD-Chips) haben jedoch einen nach un­ ten und oben begrenzten Aussteuerbereich, d. h., ein Signal kann unterhalb einer unteren Intensitätsgrenze des einfal­ lenden Signals nicht mehr ausreichend vom Hintergrund sepa­ riert werden, und oberhalb einer oberen Intensitätsgrenze treten Übersteuerungseffekte auf. Hierdurch wird die Genau­ igkeit der Positionsbestimmung verschlechtert. Für optische Trackingsysteme mit passiven (retroreflektierenden) Markern und einer nicht variablen Beleuchtungsintensität ist der zu überdeckende Entfernungsbereich zwischen Kamera und Target in vielen Anwendungsfällen so groß, dass im Normalbetrieb beide Grenzen des Aussteuerbereichs unter- bzw. überschrit­ ten werden.
Zwei Lösungen für dieses Problem liegen nahe, ohne jedoch das Problem zufriedenstellend zu lösen: Das Arbeiten mit automatischer Blende und die Steuerung der Beleuchtungsin­ tensität nach Art eines Computerblitzes. Beide Lösung sind jedoch nicht praktikabel. Für Kameras mit automatischer Blende kann die nötige Genauigkeit der Abbildungskorrektur nicht mehr garantiert werden. Der Einsatz eines "Computer­ blitzes", der die eingehende Lichtenergie aufsummiert und bei Erreichen eines Grenzwertes die Beleuchtung stoppt, wird in sehr vielen Fällen aufgrund unspezifischer Reflexe (spiegelnde Oberflächen) oder externer Störquellen (z. B. Scheinwerfer) unbrauchbare Ergebnisse liefern. Auch eine in der Praxis typische Situation, die Ausleuchtung von z. B. zweier Targets, von denen sich eines nahe der Trackingkame­ ra (Bildaufnehmer) und eines weit davon entfernt befindet, kann durch diese Art von Computerblitz nicht hinreichend gemeistert werden.
Die erfindungsgemäße Datenrückführung ermöglicht die Lösung dieses Problems. Die Trackingkameras (Bildaufnehmer) erhal­ ten von einer Recheneinheit (zentrale Recheneinheit) Infor­ mationen über den momentanen Abstand der Marker zu den ein­ zelnen Bildaufnehmern und über die Art der Marker. Die Be­ leuchtungsstärke kann dann für jeden einzelnen Bildaufneh­ mer auf die Erfordernisse eingestellt werden. Dadurch ist sichergestellt, dass innerhalb des Aussteuerbereichs des Bildaufnehmers gearbeitet wird.
Die Information, welche Beleuchtungsstärke für welchen Ab­ stand und für welchen Markertyp nötig ist, kann einer vor­ gegebenen Look-up-Tabelle entnommen werden, die das Ergeb­ nis von vorhergehenden Laborexperimenten ist.
Eine andere Ausführungsmöglichkeit besteht darin, die nöti­ ge Beleuchtungsstärke nicht oder nicht ausschließlich einer vorgegebenen Tabelle zu entnehmen, sondern wie folgt zu re­ geln: Als Ergebnis der Rechnungen zu einem aufgenommenen Bild liegen in der Trackingkamera (Bildaufnehmer) oder der nachgeschalteten zugehörigen Recheneinheit (2D-Rechenstufe) bereits Informationen über die Helligkeit der einzelnen Marker vor. Es ist dann möglich, die Beleuchtungsstärke von Bild zu Bild so nachzuregeln, dass die maximale Helligkeit (hellstes Pixel) der interessierenden Marker in der Nähe eines vorgegebenen Wertes bleibt. Dieser Wert beträgt bei­ spielsweise 80 Prozent der Maximalaussteuerung. Erfindungs­ gemäß werden hierzu Informationen über die aktuellen oder erwarteten Orte der interessierenden Marker zusammen mit Informationen über die Helligkeiten dieser Marker an die Beleuchtungssteuerung zurückgeführt. Hierzu werden bei­ spielsweise die Daten über die zu erwartenden Markerorte von der zentralen Recheneinheit, die Informationen über die Markerhelligkeiten auf kürzerem Weg direkt von der Bildauf­ nahmeeinheit oder der nachgeschalteten ersten (2D-) Rechenstufe an die Beleuchtungssteuerung weitergegeben.
Neben der Steuerung der Beleuchtungsstärke kann auch eine Steuerung der räumlichen Lichtverteilung im Bildbereich der Bildaufnehmer erfolgen. Hierzu wird eine Beleuchtungsein­ heit mit einem in mehrere Segmente unterteilten Licht emit­ tierenden Bereich verwendet, wobei die einzelnen Segmente separat ansteuerbar sind. Die einzelnen Segmente leuchten verschiedene Bildbereiche des Bildaufnehmers aus, so dass durch die erfindungsgemäße Rückführung von Informationen über den Ort der interessierenden Marker an die Steuerein­ heit der Beleuchtungseinheit durch entsprechende Ansteue­ rung der Segmente nur die interessierenden Bildbereiche ausgeleuchtet werden können. Zusätzlich kann durch diffrak­ tive oder refraktive optische Elemente die Strahlungsrich­ tung gesteuert werden, da Trackingkameras üblicherweise mit nahezu monochromatischem Licht arbeiten. Als refraktive E­ lemente sind z. B. an die Geometrie der Beleuchtungseinheit angepasste Fresnel-Prismenscheiben geeignet.
Die gesamte erfindungsgemäße Informationsrückführung, die Berechnung der jeweils zurückgeführten Information, die Steuerung und Regelung der einzelnen Komponenten, wie Bild­ aufnehmer, Recheneinheiten und Steuereinheiten, anhand der rückgeführten Informationen kann vorteilhafterweise mittels eines Computerprogramms erfolgen, das in einer eigens dafür vorgesehenen Recheneinheit oder in der bereits erwähnten zentralen Recheneinheit zur Bestimmung von Ort und/oder Po­ sition der Objekte ausgeführt wird. Ein entsprechendes Com­ puterprogramm-Produkt enthält das Computerprogramm auf ei­ nem geeigneten Datenträger, wie EEPROMs, Flash-Memories, CD-ROMs, Disketten oder Festplattenlaufwerken.
Im folgenden soll die Erfindung und ihre Vorteile anhand von in den beigefügten Figuren schematisch dargestellten Ausführungsbeispielen näher erläutert werden.
Fig. 1 zeigt in schematischer Form eine Ausführungsform des Datenflussschemas eines erfindungsgemäßen op­ tischen Trackingsystems.
Fig. 2 zeigt in schematischer Form das Datenflussschema einer Ausgestaltung eines erfindungsgemäßen Tra­ ckingsystems, das mit einer Beleuchtungseinheit für passive Marker arbeitet.
Fig. 1 zeigt ein allgemeines Datenflussschema für die er­ findungsgemäße Informationsrückführung. Das Trackingsystem besteht aus mehreren Bildaufnehmern 1, den Bildaufnehmern zugeordneten Recheneinheiten 2 für die zweidimensionale Po­ sitionsbestimmung von Markern im aufgenommenen Bild und ei­ ner zentralen Recheneinheit 3, in der die Markerpositions­ daten der einzelnen Bildaufnehmer 1 gesammelt und für die Berechnung der Positions- und/oder Orientierungsdaten des Objektes genutzt werden. Es sei darauf hingewiesen, dass die in Fig. 1 dargestellten Komponenten den Datenfluss repräsentieren, was sich in einer logischen Trennung der verschiedenen Verarbeitungsstufen äußert, und dass diese logische Trennung nicht notwendigerweise mit einer physika­ lischen Trennung einhergeht. Es ist folglich in der Praxis möglich, z. B. jeweils die Einheiten Bildaufnehmer 1 und 2D-Recheneinheit 2 oder die Einheiten 2D-Recheneinheit 2 und 3D/6D-Recheneinheit 3 oder aber alle drei Einheiten in einem Gerät zusammenzufassen. Die zentrale Rechenstufe 3 liefert die Trackingergebnisse meist an eine weitere nicht dargestellte Recheneinheit zur Weiterverarbeitung der Er­ gebnisse oder an ein nicht dargestelltes Speichermedium.
Erfindungsgemäß werden in diesem Ausführungsbeispiel von der zentralen Recheneinheit 3 nutzbare Daten zu den vorher­ gehenden Verarbeitungsstufen, nämlich in diesem Fall zum Bildaufnehmer 1 sowie der diesem zugeordneten Recheneinheit 2, zurückgeführt. Der Informationsrückführungskanal ist mit 6 bezeichnet. Physikalisch können die Informationsrückfüh­ rungskanäle dasselbe Datenübertragungsmedium nutzen wie dasjenige zur Übermittlung der Daten von Bildaufnehmern zu zugeordneten Recheneinheiten 2 weiter zur zentralen Rechen­ einheit 3. Zur besseren Veranschaulichung sind im Daten­ flussschema gemäß Fig. 1 die Datenkanäle gesondert einge­ zeichnet.
In diesem Ausführungsbeispiel umfassen die Mittel zur In­ formationsrückführung auch eine Prädiktionsstufe 5, die aus den Ergebnisdaten der unmittelbaren Vergangenheit Erwar­ tungswerte für das aktuell zu erfassende Bild berechnet. Die gewonnen Daten werden dann an die Bildaufnehmer 1 und die zugeordnete Recheneinheiten 2 geleitet. Durch die Prä­ diktion wird der Wert der rückgeführten Daten weiter er­ höht.
Ein mit Markern 4 gekennzeichnetes Objekt wird während sei­ ner Bewegung im Raum von den Bildaufnehmern 1, die CCD- Kameras darstellen, erfasst. Die einzelnen Bilder werden in einer nachgeschalteten Recheneinheit 2 (2D-Rechenstufe) da­ hingehend ausgewertet, dass die Position der Marker 4 im Bild bestimmt wird. Da Ort und Orientierung der Bildaufneh­ mer 1 bekannt ist, kann aus den Positionsdaten der Marker 4 in den aufgenommenen Bildern die Position, d. h. der drei­ dimensionale Ort, des Objektes in einer zentralen Rechen­ einheit 3 durch entsprechende trigonometrische Algorithmen bestimmt werden. Bei Verwendung von mehr als zwei Markern 4 können zusätzlich noch Informationen über die Orientierung des Objektes gewonnen werden. Die Trackingergebnisse werden je nach Art der Anwendung in einer weiteren Recheneinheit beispielsweise zur Produktion von virtuellen Filmsequenzen weiterverwendet.
In einer Prädiktionseinheit 5, die physikalisch Bestandteil der zentralen Recheneinheit 3 sein kann, werden aus den Trackingergebnissen eines vorgegebenen Zeitraums Erwar­ tungswerte für die jeweils zu erfassenden Bilder berechnet. Als Erwartungswerte können zu erwartende Markerorte, zu er­ wartende Markergrößen und/oder zu erwartende Artefakte be­ rechnet werden. Dies macht es möglich, nur interessierende Bildausschnitte, in denen Marker zu erwarten sind, auszule­ sen, unspezifische Reflexe auszublenden oder ein gegensei­ tiges Verdecken von Markern vorherzusagen. Dies erlaubt, die Genauigkeit und Schnelligkeit bei der Bildauswertung zu erhöhen. Hierzu werden erfindungsgemäß die entsprechenden Informationen von der Prädiktionseinheit 5 direkt zum Bild­ aufnehmer 1 und/oder zur jeweiligen dem Bildaufnehmer 1 zu­ geordneten Recheneinheit 2 zugeführt.
Eine besonders geeignete Nutzung der erfindungsgemäßen In­ formationsrückführung ist in Form eines Datenflussschemas in Fig. 2 dargestellt. Gleiche Komponenten sind mit glei­ chen Bezugszeichen bezeichnet. Dem Bildaufnehmer 1 ist hier eine Beleuchtungseinheit zugeordnet, die eine Steuereinheit 8 mit Treiberstufe, eine in mehrere Segmente unterteilte Lichtemissionseinheit 9 sowie eine Strahlablenkungseinrich­ tung 10 aufweist. Das von den Segmenten der Lichtemissions­ einheit 9 emittierte Licht wird mittels diffraktiver oder refraktiver Elemente der Strahlablenkungseinrichtung 10 in verschiedene Raumrichtungen verteilt. Mit einer solchen Be­ leuchtungseinheit ist es möglich, die Marker 4 derart zu beleuchten, dass diese mit optimaler Helligkeit vom Bild­ aufnehmer 1 abgebildet werden. Hierzu werden erfindungsge­ mäß Daten nicht nur an den Bildaufnehmer 1 und die diesem zugeordnete Rechenstufe 2 sondern auch an die Steuereinheit 8 der Beleuchtungseinheit rückgeführt.
Ausgewählte Daten wie Helligkeitsinformationen aus den ers­ ten Verarbeitungsstufen, dem Bildaufnehmer 1 und der zuge­ ordneten Recheneinheit 2, werden kurzfristig in einem Spei­ cher 7 zwischengespeichert und dann ebenfalls an die Steu­ ereinheit 8 der Beleuchtungseinheit weitergegeben. Anhand der rückgeführten Daten, beispielsweise zu erwartende Mar­ kerpositionen (vergleiche Fig. 1) und Markerhelligkeiten, kann die Treiberstufe der Steuereinheit 8 die einzelnen Segmente der Lichtemissionseinheit 9 mit wählbarer Licht­ leistung ansteuern. Durch die nachgeschaltete Strahlablen­ kungseinrichtung 10 kann dann jedes Segment der Beleuch­ tungseinheit einen anderen Teil des Bildfeldes des zugehö­ rigen Bildaufnehmers 1 ausleuchten. Dadurch kann die räum­ liche Verteilung der Ausleuchtung von Bild zu Bild optimal geregelt werden.
Es ist auch möglich, lediglich die Information über die Entfernungen der Marker 4 zur Steuereinheit 8 der Beleuch­ tungseinheit zu leiten und abhängig vom Abstand und von der Art der Marker 4 die Beleuchtungsleistung und -verteilung zu steuern. Die hierzu notwendigen Ansteuerwerte können ei­ ner Look-up-Tabelle entnommen werden, die durch vorherge­ hende Laborexperimente aufgestellt worden ist.
Bei der erfindungsgemäßen Ausgestaltung der Beleuchtungsre­ gelung für passive Marker ist es vorteilhaft, die Beleuch­ tungsstärke jeweils so zu steuern, dass die Helligkeit der abgebildeten Marker innerhalb des Aussteuerbereichs des Bildaufnehmers 1, beispielsweise bei einem Wert von 80 Pro­ zent der oberen Aussteuergrenze liegt.
Die erfindungsgemäße Rückführung von relevanten Informatio­ nen bei einem Trackingsystem erhöht die Präzision und die Geschwindigkeit bei der Auswertung der anfallenden Daten.

Claims (22)

1. Optisches Trackingsystem zur Positions- und/oder Ori­ entierungsbestimmung eines mit wenigstens einem Marker (4) ausgestatteten Objektes unter Verwendung mindestens zweier Bildaufnehmer (1) zur bildlichen Erfassung des wenigstens einen Markers (4), wobei den Bildaufnehmern (1) zugeordnete Recheneinheiten (2) zur Bestimmung der Markerpositionen im erfassten Bild vorgesehen sind, und wobei eine zentrale Re­ cheneinheit (3) zur Bestimmung der Position und/oder der Orientierung des Objektes vorgesehen ist, die mit den ein­ zelnen Recheneinheiten (2) zur Übertragung der Bilddaten an die zentrale Recheneinheit (3) in Verbindung steht, dadurch gekennzeichnet, dass Mittel zur Rückführung von in der zentralen Recheneinheit (3) errechneten Informationen zu einer einem Bildaufnehmer (1) zugeordneten Recheneinheit (2) und/oder zu einem Bild­ aufnehmer (1) und/oder Mittel zur Rückführung von in einer einem Bildaufnehmer (1) zugeordneten Recheneinheit (2) er­ rechneten Informationen zu einem Bildaufnehmer (1) vorgese­ hen sind.
2. Optisches Trackingsystem nach Anspruch 1, dadurch ge­ kennzeichnet, dass die Mittel zur Zurückführung von errech­ neten Informationen eine Prädiktionseinheit (5) umfassen, die aus den errechneten Tracking-Ergebnissen eine zu erwar­ tende Positions- und/oder Orientierungsangabe für das Ob­ jekt errechnet.
3. Optisches Trackingsystem nach Anspruch 1 oder 2, da­ durch gekennzeichnet, dass die Mittel zur Zurückführung von errechneten Informationen die Datenübertragungsmittel zur Datenübertragung von einem Bildaufnehmer (1) zu den nachge­ schalteten Recheneinheiten (2, 3) umfassen.
4. Optisches Trackingsystem nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Informationsüber­ tragung über Ethernet-Verbindungen erfolgt.
5. Optisches Trackingsystem nach einem der Ansprüche 1 bis 4 mit mindestens einer einem Bildaufnehmer (1) zugeord­ neten Beleuchtungseinheit (8, 9, 10) zur Beleuchtung von re­ flektierenden Markern (4), dadurch gekennzeichnet, dass Mittel zur Zuführung von in einer Recheneinheit (2, 3) er­ rechneten Informationen zur Beleuchtungseinheit (8, 9, 10) vorgesehen sind.
6. Optisches Trackingsystem nach Anspruch 5, dadurch ge­ kennzeichnet, dass die Mittel zur Zuführung von Informatio­ nen zur Beleuchtungseinheit (8, 9, 10) einen Speicher (7) um­ fassen.
7. Optisches Trackingsystem nach Anspruch 5 oder 6, da­ durch gekennzeichnet, dass die Mittel zur Zuführung von In­ formationen zur Beleuchtungseinheit (8, 9, 10) eine Look-up- Tabelle umfassen.
8. Optisches Trackingsystem nach einem der Ansprüche 5 bis 7, dadurch gekennzeichnet, dass die Beleuchtungseinheit (8, 9, 10) eine in mehrere Segmente aufgeteilte Lichtemissi­ onseinheit (9) aufweist, die getrennt von einer Steuerein­ heit (8) ansteuerbar sind.
9. Optisches Trackingsystem nach einem der Ansprüche 5 bis 8, dadurch gekennzeichnet, dass die Beleuchtungseinheit (8, 9, 10) eine Strahlablenkungseinrichtung (10), insbesonde­ re bestehend aus diffraktiven oder refraktiven Elementen, aufweist.
10. Optisches Trackingsystem nach Anspruch 9, dadurch ge­ kennzeichnet, dass Fresnel-Prismenscheiben die refraktiven Elemente darstellen.
11. Verfahren zur Positions- und/oder Orientierungsbestim­ mung eines mit wenigstens einem Marker (4) ausgestatteten Objektes, bei dem der wenigstens eine Marker (4) von min­ destens zwei Bildaufnehmern (1) bildlich erfasst wird, wo­ bei den Bildaufnehmern (1) zugeordnete Recheneinheiten (2) die Markerpositionen im erfassten Bild bestimmen und eine zentrale Recheneinheit (3) hieraus die Position und/oder Orientierung des Objektes bestimmt, dadurch gekennzeichnet, dass zur Steuerung des Berechnungs- und/oder Bildaufnahmevor­ gangs von der zentralen Recheneinheit (3) berechnete Infor­ mationen an eine einem Bildaufnehmer (1) zugeordnete Re­ cheneinheit (2) und/oder an einen Bildaufnehmer (1) zurück­ geführt und/oder von einer einem Bildaufnehmer (1) zugeord­ neten Recheneinheit (2) berechnete Informationen an einen Bildaufnehmer (1) zurückgeführt werden.
12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass Ausgangsinformationen zurückgeführt werden.
13. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass von außen eingebrachte, für die Positions- und/oder Orientierungsbestimmung relevante Informationen zurückge­ führt werden.
14. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass aktuell ermittelte Positions- und/oder Orientierungs­ informationen zurückgeführt werden.
15. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass auf Grundlage der aktuellen Positions- und/oder Orien­ tierungsinformationen eine Prädiktion zur Berechnung von zu erwartenden Positions- und/oder Orientierungsangaben ausge­ führt wird, und dass letztere Informationen zurückgeführt werden.
16. Verfahren nach einem der Ansprüche 11 bis 15, bei dem reflektierende Marker von einer einem Bildaufnehmer (1) zu­ geordneten Beleuchtungseinheit (8, 9, 10) beleuchtet werden, dadurch gekennzeichnet, dass die rückgeführten Informatio­ nen zur Steuerung der Beleuchtungseinheit (8, 9, 10) verwen­ det werden.
17. Verfahren nach Anspruch 16, dadurch gekennzeichnet, dass die Lichtleistung der Beleuchtungseinheit (8, 9, 10) ge­ steuert wird.
18. Verfahren nach Anspruch 16 oder 17, dadurch gekenn­ zeichnet, dass die räumliche Lichtverteilung der Beleuch­ tungseinheit (8, 9, 10) gesteuert wird.
19. Verfahren nach einem der Ansprüche 16 bis 18, dadurch gekennzeichnet, dass zur Steuerung der Beleuchtungseinheit (8, 9, 10) eine vorgefertigte Look-up-Tabelle verwendet wird.
20. Verfahren nach einem der Ansprüche 16 bis 18, dadurch gekennzeichnet, dass die Beleuchtungsstärke derart gesteuert wird, dass die maximale Helligkeit der abgebildeten Marker (4) in der Nähe eines vorgegebenen Wertes, insbeson­ dere bei etwa 80% der maximal auflösbaren Helligkeit, bleibt.
21. Computerprogramm mit Programmcode-Mitteln, um alle Schritte der Ansprüche 11 bis 20 durchzuführen, wenn das Computerprogramm auf einem Computer oder der mindestens ei­ nen Recheneinheit (2, 3) ausgeführt wird.
22. Computerprogramm-Produkt mit Programmcode-Mitteln, die auf einen computerlesbaren Datenträger gespeichert sind, um ein Verfahren nach einem der Ansprüche 11 bis 20 durchzu­ führen, wenn das Computerprogramm auf einem Computer oder der mindestens einen Recheneinheit (2, 3) ausgeführt wird.
DE10051415A 2000-10-17 2000-10-17 Optisches Trackingsystem und -verfahren Expired - Fee Related DE10051415C2 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE10051415A DE10051415C2 (de) 2000-10-17 2000-10-17 Optisches Trackingsystem und -verfahren
CA002358735A CA2358735A1 (en) 2000-10-17 2001-10-12 Optical tracking system and method
US09/976,287 US20020044204A1 (en) 2000-10-17 2001-10-15 Optical tracking system and method
GB0124832A GB2373941A (en) 2000-10-17 2001-10-16 Stereogrammetry with camera and window tracking

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10051415A DE10051415C2 (de) 2000-10-17 2000-10-17 Optisches Trackingsystem und -verfahren

Publications (2)

Publication Number Publication Date
DE10051415A1 DE10051415A1 (de) 2002-04-25
DE10051415C2 true DE10051415C2 (de) 2003-10-09

Family

ID=7660077

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10051415A Expired - Fee Related DE10051415C2 (de) 2000-10-17 2000-10-17 Optisches Trackingsystem und -verfahren

Country Status (4)

Country Link
US (1) US20020044204A1 (de)
CA (1) CA2358735A1 (de)
DE (1) DE10051415C2 (de)
GB (1) GB2373941A (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012107153A1 (de) * 2012-08-03 2014-02-27 Hendrik Fehlis Vorrichtung und Verfahren zur Bestimmung der Eigenlage einer bildaufnehmenden Kamera
EP3009984A1 (de) 2014-10-14 2016-04-20 Sick Ag Detektionssystem für optische Codes

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3700707B2 (ja) * 2003-03-13 2005-09-28 コニカミノルタホールディングス株式会社 計測システム
US20070248283A1 (en) * 2006-04-21 2007-10-25 Mack Newton E Method and apparatus for a wide area virtual scene preview system
US8717545B2 (en) * 2009-02-20 2014-05-06 Digital Signal Corporation System and method for generating three dimensional images using lidar and video measurements
DE102010018899B4 (de) * 2010-01-04 2014-08-21 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Vorrichtung und Verfahren zur Bewegungskorrektur bei MRT-Messungen
US9804252B2 (en) 2012-01-17 2017-10-31 Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi System and method for measuring tracker system accuracy
US9511243B2 (en) 2012-04-12 2016-12-06 University Of Florida Research Foundation, Inc. Prevention of setup errors in radiotherapy
US10249090B2 (en) 2016-06-09 2019-04-02 Microsoft Technology Licensing, Llc Robust optical disambiguation and tracking of two or more hand-held controllers with passive optical and inertial tracking
EP3882161B1 (de) * 2020-03-20 2023-08-16 Goodrich Lighting Systems GmbH & Co. KG Hubschraubersuchlicht und verfahren zum betrieb eines hubschraubersuchlichts
EP4169473A1 (de) * 2021-10-25 2023-04-26 Erbe Vision GmbH Vorrichtung und verfahren zur registrierung von livebildern und scanbildern

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19722397A1 (de) * 1996-05-30 1997-12-04 West Electric Co Strobe-Lichtgerät mit variablem Emissionswinkel und Steuerverfahren für dieses
WO1998054593A1 (en) * 1997-05-30 1998-12-03 British Broadcasting Corporation Position determination
WO1999017133A1 (en) * 1997-09-26 1999-04-08 Northern Digital Incorporated A system for determining the spatial position of a target
WO1999030182A1 (en) * 1997-12-05 1999-06-17 Northern Digital Inc. A system for determining the spatial position and orientation of a body
DE19806646C1 (de) * 1998-02-18 1999-08-12 Gmd Gmbh Kamera Tracking System für ein virtuelles Fernseh- oder Videostudio
WO1999052094A1 (en) * 1998-04-03 1999-10-14 Image Guided Technologies, Inc. Wireless optical instrument for position measurement and method of use therefor
DE19822846C2 (de) * 1998-05-22 2000-06-08 Metz Werke Gmbh & Co Kg Optisches System mit mehreren optischen Elementen für eine Beleuchtungsanordnung mit veränderbarer Lichtstärkeverteilung

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US81019A (en) * 1868-08-11 Improved curtain-fixture
EP0018673B1 (de) * 1979-05-04 1984-12-27 Günter Löwe Verfahren zum Vermessen von Schussfehlern und Schussfehler-Vermessungsanlage zur Durchführung des Verfahrens
US4649504A (en) * 1984-05-22 1987-03-10 Cae Electronics, Ltd. Optical position and orientation measurement techniques
US4916302A (en) * 1985-02-09 1990-04-10 Canon Kabushiki Kaisha Apparatus for and method of measuring distances to objects present in a plurality of directions
US5026153A (en) * 1989-03-01 1991-06-25 Mitsubishi Denki K.K. Vehicle tracking control for continuously detecting the distance and direction to a preceding vehicle irrespective of background dark/light distribution
US4987044A (en) * 1989-05-31 1991-01-22 E. I. Du Pont De Nemours And Company Method and apparatus for maintaining desired exposure levels
US5179407A (en) * 1989-06-19 1993-01-12 Nikon Corporation Automatic focusing device
US5023709A (en) * 1989-11-06 1991-06-11 Aoi Studio Kabushiki Kaisha Automatic follow-up lighting system
JP2971502B2 (ja) * 1990-03-27 1999-11-08 旭硝子株式会社 コバール封着用ガラス組成物
US5589942A (en) * 1990-04-05 1996-12-31 Intelligent Automation Systems Real time three dimensional sensing system
JPH0812072B2 (ja) * 1990-06-13 1996-02-07 三菱電機株式会社 距離測定装置
US5521843A (en) * 1992-01-30 1996-05-28 Fujitsu Limited System for and method of recognizing and tracking target mark
US5346210A (en) * 1992-08-28 1994-09-13 Teem Systems, Inc. Object locator system
JP3259475B2 (ja) * 1993-10-27 2002-02-25 ミノルタ株式会社 距離測定装置
US5504477A (en) * 1993-11-15 1996-04-02 Wybron, Inc. Tracking system
GB2284957B (en) * 1993-12-14 1998-02-18 Gec Marconi Avionics Holdings Optical systems for the remote tracking of the position and/or orientation of an object
JPH0995194A (ja) * 1995-09-29 1997-04-08 Aisin Seiki Co Ltd 車両前方の物体検出装置
US5729475A (en) * 1995-12-27 1998-03-17 Romanik, Jr.; Carl J. Optical system for accurate monitoring of the position and orientation of an object
EP0814344A3 (de) * 1996-06-19 1998-12-30 Matsushita Electric Works, Ltd. Beleuchtungssystem mit automatischer Nachführung
JP4021026B2 (ja) * 1998-01-29 2007-12-12 富士重工業株式会社 ステレオ画像処理システム
DE19836337C1 (de) * 1998-08-11 2000-02-10 Agfa Gevaert Ag Vorrichtung und Verfahren zum Belichten von Bildinformationen auf lichtempfindliches Aufzeichnungsmaterial
JP3587506B2 (ja) * 1999-08-30 2004-11-10 富士重工業株式会社 ステレオカメラの調整装置
JP3352655B2 (ja) * 1999-09-22 2002-12-03 富士重工業株式会社 車線認識装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19722397A1 (de) * 1996-05-30 1997-12-04 West Electric Co Strobe-Lichtgerät mit variablem Emissionswinkel und Steuerverfahren für dieses
WO1998054593A1 (en) * 1997-05-30 1998-12-03 British Broadcasting Corporation Position determination
WO1999017133A1 (en) * 1997-09-26 1999-04-08 Northern Digital Incorporated A system for determining the spatial position of a target
WO1999030182A1 (en) * 1997-12-05 1999-06-17 Northern Digital Inc. A system for determining the spatial position and orientation of a body
DE19806646C1 (de) * 1998-02-18 1999-08-12 Gmd Gmbh Kamera Tracking System für ein virtuelles Fernseh- oder Videostudio
WO1999052094A1 (en) * 1998-04-03 1999-10-14 Image Guided Technologies, Inc. Wireless optical instrument for position measurement and method of use therefor
DE19822846C2 (de) * 1998-05-22 2000-06-08 Metz Werke Gmbh & Co Kg Optisches System mit mehreren optischen Elementen für eine Beleuchtungsanordnung mit veränderbarer Lichtstärkeverteilung

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012107153A1 (de) * 2012-08-03 2014-02-27 Hendrik Fehlis Vorrichtung und Verfahren zur Bestimmung der Eigenlage einer bildaufnehmenden Kamera
EP3009984A1 (de) 2014-10-14 2016-04-20 Sick Ag Detektionssystem für optische Codes

Also Published As

Publication number Publication date
US20020044204A1 (en) 2002-04-18
GB0124832D0 (en) 2001-12-05
CA2358735A1 (en) 2002-04-17
GB2373941A (en) 2002-10-02
DE10051415A1 (de) 2002-04-25

Similar Documents

Publication Publication Date Title
DE4317772C2 (de) Blendlichtsensor für Fahrzeuge
DE3709907C2 (de)
DE3886267T2 (de) Anordnung zum Messen einer Winkelverschiebung eines Gegenstandes.
EP2695785B1 (de) Kraftfahrzeug mit Fahrerassistenzsystem und Verfahren zum Betrieb eines Fahrerassistenzsystems
DE102014107488B4 (de) Vorrichtung zur bestimmung der umgebung
DE3787003T2 (de) Lenkvorrichtung für sich unbemannt bewegende körper.
DE102008025458B4 (de) Verfahren und Vorrichtung zur Kalibrierung einer durch einen Frontscheinwerfer eines Fahrzeugs erzeugten horizontalen Hell-Dunkel-Grenze
DE10051415C2 (de) Optisches Trackingsystem und -verfahren
DE102008008868B4 (de) Fahrzeug-Fahrzeug-Informationsübertragungssystem
DE4006300A1 (de) Radargeraet fuer kraftfahrzeuge
EP1589484A1 (de) Verfahren zur Erkennung und/oder Verfolgung von Objekten
DE102018123363A1 (de) Verfahren zur Kollisionsvermeidung und Laserbearbeitungsmaschine
DE102016117780A1 (de) Fahrzeugaussenumgebung-Erkennungsvorrichtung
EP1067399A2 (de) Verfahren zur Sichtweitenbestimmung
DE102019133642A1 (de) Digitales bildgebungssystem einschliesslich optischer plenoptik-vorrichtung und bilddaten-verarbeitungsverfahren zur erfassung von fahrzeughindernissen und gesten
WO2018095716A1 (de) Erzeugung einer homogenen lichtverteilung in abhängigkeit von der topografie und der gemessenen leuchtdichte
DE102020206006A1 (de) Verfahren zum Kalibrieren und/oder Justieren und Steuereinheit für ein LiDAR-System, LiDAR-System und Arbeitsvorrichtung
EP3663881B1 (de) Verfahren zur steuerung eines autonomen fahrzeugs auf der grundlage von geschätzten bewegungsvektoren
DE4121145C2 (de) Objektdetektionssystem für optisches Instrument
DE69919514T2 (de) Abstandsmessgerät
DE19916175A1 (de) Einrichtung zur Einstellung der Richtung des von wenigstens einm Scheinwerfer eines Fahrzeugs ausgesandten Lichtbündels
DE19946449A1 (de) Entfernungsmeßeinrichtung
DE102007008542B4 (de) Verfahren und Vorrichtung zum Steuern der Lichtabgabe eines Fahrzeugs
DE102011017707A1 (de) Verfahren und Vorrichtung zur Erkennung von einem Objekt in einer Umgebung einer Kamera
DE102019116006A1 (de) Verfahren und vorrichtung zur objekterkennung in kamera-toträumen

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8127 New person/name/address of the applicant

Owner name: ADVANCED REALTIME TRACKING GMBH, 82211 HERRSCHING,

8304 Grant after examination procedure
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20140501