DE10051415C2 - Optisches Trackingsystem und -verfahren - Google Patents
Optisches Trackingsystem und -verfahrenInfo
- Publication number
- DE10051415C2 DE10051415C2 DE10051415A DE10051415A DE10051415C2 DE 10051415 C2 DE10051415 C2 DE 10051415C2 DE 10051415 A DE10051415 A DE 10051415A DE 10051415 A DE10051415 A DE 10051415A DE 10051415 C2 DE10051415 C2 DE 10051415C2
- Authority
- DE
- Germany
- Prior art keywords
- information
- image
- unit
- tracking system
- image sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/87—Combinations of systems using electromagnetic waves other than radio waves
- G01S17/875—Combinations of systems using electromagnetic waves other than radio waves for determining attitude
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
- G01S5/163—Determination of attitude
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Description
Die Erfindung betrifft ein optisches Trackingsystem zur Po
sitions- und/oder Orientierungsbestimmung eines mit wenigs
tens einem Marker ausgestatteten Objektes mit mindestens
zwei Bildaufnehmern zur bildlichen Erfassung des wenigstens
einen Markers und mit mindestens einer Recheneinheit zur
Auswertung der von den Bildaufnehmern erfassten Bilder zur
Berechnung der Position und/oder der Orientierung des Ob
jektes. Die Erfindung betrifft weiterhin ein
entsprechendes Trackingverfahren, ein Computerprogramm, um
das Verfahren auf einem Computer zu implementieren sowie
ein dieses Programm aufweisendes Computerprogramm-Produkt.
Ein gattungsgemäßes Trackingsystem und -verfahren ist aus
der DE-198 06 646 C1 zur Bestimmung der Position und Orien
tierung einer Aufnahmekamera bekannt. Um beispielsweise ei
ne aufgenommene Person präzise und lagegetreu in einen vir
tuell erstellten Hintergrund integrieren zu können, muss
die jeweils bestehende Position und Orientierung der Auf
nahmekamera bekannt sein. Es wird dort ein Trackingsystem
vorgeschlagen mit mindestens zwei an der Kamera anzubrin
genden Lichtquellen, mindestens zwei Erfassungskameras zur
bildlichen Erfassung der Lichtquellen und mit einer Rechen
einheit zur Auswertung dieser Bilder. Bei einer optimalen
Anzahl von Lichtquellen und Erfassungskameras können mit
hinreichender Genauigkeit Position (dreidimensionaler Ort)
sowie die Orientierung (Roll-, Nick- und Schwenkwinkel) der
Kamera bestimmt werden. Vorteilhafterweise handelt es sich
um Lichtquellen im Infrarotbereich, um diese von den ande
ren in einem Studio vorhandenen Lichtquellen zu entkoppeln.
Als Erfassungskameras werden handelsübliche CCD-Kameras
vorgeschlagen. Die Berechnung von Position und Orientierung
der Aufnahmekamera erfolgt in einer Datenverarbeitungsanla
ge mittels trigonometrischer Berechnungen.
Aus der WO 99/52094 A1 ist ein Trackingsystem bekannt, bei dem
von lichtemittierenden Dioden in bestimmten Zeitfenstern
abgegebene Infrarotblitze zeitaufgelöst von einer synchro
nisierten Kamera empfangen werden.
Weiterhin ist in der WO 99/30182 A1 ein Trackingsystem be
schrieben, bei dem die mindestens drei Marker eines Objek
tes, die miteinander in einer vorbestimmten geometrischen
Beziehung angeordnet sind, beispielsweise anhand von an
diesen Markern reflektierten Strahlen erfasst werden, wor
aus sich durch Vergleich mit gespeicherten Markeranordnun
gen die Position und Orientierung der Objekte berechnen
lassen.
Aus der WO 99/17133 A1 ist die Verwendung von aktiven (energie
emittierenden) und passiven (energiereflektierenden) Tar
gets zur Verfolgung eines mit solchen Targets ausgestatte
ten Objektes bekannt.
Bei einem Verfahren gemäß der WO 98/54593 A1 dient eine Rück
kopplungsschleife innerhalb des Rechenprozesses zur Positi
onsbestimmung dazu, plötzliche Datensprünge zu vermeiden
und einen Tiefpassfilter zu initialisieren. Diesen Tief
passfilter wird die Differenz zwischen erwarteter und beo
bachteter Markerposition zugeführt. Hierdurch können die
Markerpositionen derart korrigiert werden, dass beim Auf
tauchen oder beim Heraustreten eines Markers in bzw. aus
dem Bild sich die Kameraposition nicht sprunghaft, sondern
langsam ändert.
In der DE 197 22 397 A1 wird ein Strobe-Lichtgerät mit va
riablem, steuerbaren Emissionswinkel beschrieben. Hierzu
wird die Position einer Lichtquelle innerhalb eines Reflek
tors variiert. Aus der DE 198 22 846 C2 ist ein optisches
System mit mehreren optischen Elementen zum Erzielen einer
veränderbaren Lichtstärkeverteilung bekannt, wobei der
Strahlengang des von einer Lichtquelle abgestrahlten Lich
tes jeweils über ein optisches Element verläuft, wobei die
Strukturen dieses Elements als Mikrostrukturen ausgebildet
sind, deren optische Daten als Funktion ihrer Ortskoordina
tion in Abhängigkeit von der angestrebten Lichtstärkever
teilung variieren. Als optisches Element werden ein
diffraktives optisches Element oder ein Mikrolinsenfeld
vorgeschlagen.
Bei vorliegender Erfindung wird ein mit mindestens einem
Marker ausgestattetes beliebiges Objekt gleichzeitig von
mindestens zwei Trackingkameras oder Bildaufnehmer beobach
tet, deren Position und Orientierung im Raum bekannt ist,
so dass aus den Bildern, die diese Kameras liefern, mit
Hilfe trigonometrischer Methoden der Ort des Markers und
damit des Objektes im Raum bestimmt werden kann. Hierzu
werden für einen Marker Sehstrahlen konstruiert, die vom
Ort jeder Trackingkamera ausgehen und deren Schnittpunkt im
Raum den dreidimensionalen Ort des Markers angibt. Bei Ver
wendung mehrerer Marker pro Objekt kann neben der dreidi
mensionalen Position auch die Orientierung des Objekts im
Raum, d. h. eine "6D-Position", berechnet werden. Die Ori
entierung eines Objekts wird durch die relative Drehung des
Objekts im Raum sowie die Drehung um sich selbst bestimmt.
Bei den bekannten und oben beschriebenen Trackingsystemen
wird meist der gesamte von einem Bildaufnehmer (Trackingka
mera) aufgenommene Bildbereich ausgelesen, digitalisiert
und nach Markern durchsucht. Die Positionen der gefundenen
Marker werden anschließend in zwei Dimensionen (in den
Bildkoordinaten) exakt berechnet. Diese Daten werden an ei
nen zentralen Rechner oder eine zentrale Rechenprozedur
weitergegeben, wo die von mehreren Bildaufnehmern zu einem
Zeitpunkt aufgenommenen Daten gesammelt werden. Hierauf
bauen die weiteren Rechnungen auf, die die Position
und/oder Orientierung der zu trackenden Objekte zum Ergeb
nis haben.
Diese Trennung der einzelnen Arbeitsschritte weist mehrere
Nachteile auf. So erfolgt beispielsweise das Auslesen des
Bildaufnehmers in Bildbereichen, in denen sich keine Marker
befinden, auf dieselbe Weise, wie in den eigentlich inte
ressierenden Bildbereichen, in denen Marker vorhanden sind.
Das Auslesen des Bildaufnehmers ist jedoch eine der wesent
lichen Zeitrestriktionen für derartige Präzisions-
Trackingsysteme, da die Pixelinformationen sequentiell zu
einem A/D-Wandler geführt werden, und da sich andererseits
im allgemeinen eine Erhöhung der Auslesefrequenz negativ
auf die erreichbare Genauigkeit auswirkt.
Aufgabe vorliegender Erfindung ist daher, die oben genann
ten Nachteile von zeit- und speicherintensiven Tracking
systemen zu vermeiden und bei unverminderter oder erhöhter
Tracking-Genauigkeit wesentliche Zeitgewinne zu erzielen.
Insbesondere soll beim Einsatz reflektierender Marker eine
erhöhte Genauigkeit bei der Bestimmung der Markerpositionen
im Bild im Vergleich zu den bekannten Systemen erzielt wer
den.
Diese Aufgabe wird durch die Merkmale eines optischen Tra
ckingsystems gemäß Anspruch 1 sowie durch ein Verfahren zur
Positions- und/oder Orientierungsbestimmung gemäß Anspruch
11 und ein entsprechendes Computerprogramm oder Computer
programm-Produkt gemäß Anspruch 21 bzw. 22 gelöst. Vorteile
der Erfindung ergeben sich aus den jeweiligen Unteransprü
chen sowie der nachfolgenden Beschreibung.
Beim erfindungsgemäßen Trackingsystem ist mindestens eine
Recheneinheit zur Auswertung der von den Bildaufnehmern er
fassten Bilder sowie Mittel vorgesehen, um von einer sol
chen Recheneinheit errechnete Informationen zurück zu einer
anderen Recheneinheit und/oder zurück zum Bildaufnehmer zu
übermitteln. Hierdurch wird eine bidirektionale Datenüber
tragung möglich, die im Vergleich zur bisherigen unidirek
tionalen Datenübertragung wesentliche Vorteile bringt. Die
rückübertragenen Informationen werden zur Steuerung der
Bildaufnahme und/oder der Bildauswertung verwendet. Hier
durch können beispielsweise Informationen über Ort, Größe
und Helligkeit der interessierenden Marker dazu genutzt
werden, die Bildaufnahme zu optimieren, sowie die für den
Auslesevorgang interessierende und nicht interessierende
Bildbereiche unterschiedlich zu behandeln. Weiterhin können
Informationen über Position oder Orientierung des Objektes
zur Extrapolation auf zu erwartende Positionen oder Orien
tierungen genutzt werden und die Bildaufnahme sowie -
auswertung daraufhin ausgerichtet werden.
Durch die Erfindung werden die Nachteile der Trennung der
einzelnen Rechenschritte in Richtung von Bildaufnahme zu
der Tracking-Ergebnisausgabe überwunden, indem Informatio
nen insbesondere von dem Ort, an dem erste Tracking-
Ergebnisse zur Verfügung stehen, an die Orte, an denen die
Bildaufnahme und die ersten Schritte der Bildverarbeitung
vorgenommen werden (im allgemeinen die Bildaufnehmer und
die die Markerpositionen im Bild bestimmenden Rechenstu
fen), rückgeführt werden.
Häufig sind die Rechenstufen zur Bildauswertung nicht nur
logisch, sondern auch physikalisch in eine 2D-Rechenstufe
und eine nachgeschaltete zentrale 3D-/6D-Rechenstufe ge
trennt. In der 2D-Rechenstufe werden die Markerpositionen
in den Bildkoordinaten des Bildaufnehmers berechnet, so
dass häufig jedem Bildaufnehmer eine solche Rechenstufe un
mittelbar zugeordnet ist. Aus den ermittelten Daten werden
dann in einer zentralen Recheneinheit die dreidimensionalen
Positions- oder sechsdimensionalen Positions- und Orientie
rungsdaten berechnet. Bei einer solchen Anordnung werden
Informationen von der zentralen Recheneinheit
an die einem Bildaufnehmer zugeordnete Recheneinheit und
gegebenenfalls auch an den Bildaufnehmer selbst zurückge
leitet. Hierdurch können Parameter zur Bildaufnahme beim
Bildaufnehmer selbst gesteuert und optimal eingestellt wer
den sowie die nachfolgende Bildverarbeitung in der 2D-
Rechenstufe optimiert werden, wobei die Optimierung in Ab
hängigkeit von der errechneten Position und/oder Orientie
rung des Objekts folgen kann.
Generell kann es sich bei der rückgeführten Information um
aktuelle Trackingdaten handeln, die für die unmittelbare
Vergangenheit ermittelt wurden, und die Rückschlüsse auf
den aktuellen Zeitpunkt zulassen. Es kann sich weiterhin um
von außen in das System eingebrachte aktuelle Daten handeln,
die für das Tracking relevant sind. Schließlich kann
es sich auch um a-priori-Informationen bezüglich der Aus
gangssituation handeln. Werden aktuelle Trackingdaten rück
geführt, so entsteht ein geschlossener Regelkreis, der in
zahlreichen Situationen Verbesserungspotential gegenüber
der bisherigen Arbeitsweise mit unidirektionalem Informati
onsfluss bietet.
Sowohl beim Auslesevorgang des Bildaufnehmers als auch bei
der Erkennung von Markern und der Berechnung ihrer zweidi
mensionalen Positionen kann durch die Rückführung von In
formationen wertvolle Rechenzeit gespart und die Genauig
keit erhöht werden.
Es ist auch denkbar, zu diesem Zweck die 2D-Rechenstufen,
also die den einzelnen Bildaufnehmern zugeordneten Rechen
einheiten, zum Zuführen von Informationen oder zum Weiter
leiten von Informationen von der zentralen Recheneinheit
miteinander zu verbinden.
Es ist vorteilhaft, eine Prädiktionseinheit in die Informa
tionsrückführung einzubauen, durch die Daten der unmittel
bar vergangenen Bildaufnahmen auf die in der aktuellen
Bildaufnahme zu erwartenden Daten extrapoliert werden.
Hierdurch lassen sich beispielsweise zu erwartende Marker
positionen im zweidimensionalen Bild berechnen und die fol
gende Bildverarbeitung auf den Bereich beschränken, in dem
Marker zu erwarten sind. In den Bereichen, in denen keine
Marker erwartet werden, können das Auslesen des Bildaufneh
mers und die Markererkennung und Positionsbestimmung entwe
der ganz entfallen oder mit geringerer Genauigkeit oder nur
in gewissen Zeitabständen durchgeführt werden. Dies erhöht
die Verarbeitungsgeschwindigkeit und spart Speicherplatz.
Rückzuführende Informationen können auch die aktuellen oder
zu erwartenden Markergrößen sein. Unspezifische Reflexe
können dann allein aufgrund einer Größeninformation ausge
blendet werden. Die Rechenzeit für die aufwendige Positi
onsbestimmung solcher Reflexe entfällt und kann für eine
Verbesserung der Berechnung bei den interessierenden Mar
kern eingesetzt werden.
Auch Informationen über das aktuelle oder zu erwartende
Auftreten von Artefakten (häufig aufgrund sich gegenseitig
teilweise verdeckender Marker) können rückgeführt werden.
Dadurch kann die Berechnung der Markerpositionen im zweidi
mensionalen Bild bereits mit an diese Situation angepassten
Algorithmen erfolgen. Die Sicherheit, Schnelligkeit und Ge
nauigkeit der Positionsberechnung für Marker, die von Arte
fakten betroffen sind, steigt hierdurch.
Es ist von Vorteil für die Datenübertragung in beide Rich
tungen, d. h. von der Bildaufnahme zur Bildverarbeitung und
Trackingberechnung und umgekehrt, physikalisch denselben
Informationskanal zu benutzen. Die Informationsübertragung
kann dann durch Verwendung getrennter Frequenz- oder Zeit
fenster erfolgen. Geeignet ist eine Informationsübertragung
über Ethernet-Verbindungen.
Eine besonders günstige Anwendungsmöglichkeit ergibt sich
durch die Erfindung für Trackingsysteme, die mit passiven
Markern arbeiten, d. h. solchen Markern, die elektromagne
tische Strahlung im sichtbaren oder Infrarotbereich reflek
tieren. Bei solchen Systemen wird mindestens eine Beleuch
tungseinheit zur Bestrahlung der Marker eingesetzt, die ei
nem der Bildaufnehmer zugeordnet ist. Retroreflektoren als
Marker besitzen den Vorteil, den Hauptteil des einfallenden
Lichts in Einfallsrichtung zurückzureflektieren.
Bei den meisten Anwendungen optischer Trackingsysteme muss
ein weiter Entfernungsbereich zwischen Bildaufnehmer (Kame
ra) und Objekt (Target) überdeckt werden. Das System muss
folglich bei geringen Abständen genauso wie bei großen Ab
ständen zwischen Kamera und Target Ergebnisse ausreichender
Genauigkeit liefern. Die für optische Trackingsysteme gän
gigen Bildaufnehmer (CCD-Chips) haben jedoch einen nach un
ten und oben begrenzten Aussteuerbereich, d. h., ein Signal
kann unterhalb einer unteren Intensitätsgrenze des einfal
lenden Signals nicht mehr ausreichend vom Hintergrund sepa
riert werden, und oberhalb einer oberen Intensitätsgrenze
treten Übersteuerungseffekte auf. Hierdurch wird die Genau
igkeit der Positionsbestimmung verschlechtert. Für optische
Trackingsysteme mit passiven (retroreflektierenden) Markern
und einer nicht variablen Beleuchtungsintensität ist der zu
überdeckende Entfernungsbereich zwischen Kamera und Target
in vielen Anwendungsfällen so groß, dass im Normalbetrieb
beide Grenzen des Aussteuerbereichs unter- bzw. überschrit
ten werden.
Zwei Lösungen für dieses Problem liegen nahe, ohne jedoch
das Problem zufriedenstellend zu lösen: Das Arbeiten mit
automatischer Blende und die Steuerung der Beleuchtungsin
tensität nach Art eines Computerblitzes. Beide Lösung sind
jedoch nicht praktikabel. Für Kameras mit automatischer
Blende kann die nötige Genauigkeit der Abbildungskorrektur
nicht mehr garantiert werden. Der Einsatz eines "Computer
blitzes", der die eingehende Lichtenergie aufsummiert und
bei Erreichen eines Grenzwertes die Beleuchtung stoppt,
wird in sehr vielen Fällen aufgrund unspezifischer Reflexe
(spiegelnde Oberflächen) oder externer Störquellen (z. B.
Scheinwerfer) unbrauchbare Ergebnisse liefern. Auch eine in
der Praxis typische Situation, die Ausleuchtung von z. B.
zweier Targets, von denen sich eines nahe der Trackingkame
ra (Bildaufnehmer) und eines weit davon entfernt befindet,
kann durch diese Art von Computerblitz nicht hinreichend
gemeistert werden.
Die erfindungsgemäße Datenrückführung ermöglicht die Lösung
dieses Problems. Die Trackingkameras (Bildaufnehmer) erhal
ten von einer Recheneinheit (zentrale Recheneinheit) Infor
mationen über den momentanen Abstand der Marker zu den ein
zelnen Bildaufnehmern und über die Art der Marker. Die Be
leuchtungsstärke kann dann für jeden einzelnen Bildaufneh
mer auf die Erfordernisse eingestellt werden. Dadurch ist
sichergestellt, dass innerhalb des Aussteuerbereichs des
Bildaufnehmers gearbeitet wird.
Die Information, welche Beleuchtungsstärke für welchen Ab
stand und für welchen Markertyp nötig ist, kann einer vor
gegebenen Look-up-Tabelle entnommen werden, die das Ergeb
nis von vorhergehenden Laborexperimenten ist.
Eine andere Ausführungsmöglichkeit besteht darin, die nöti
ge Beleuchtungsstärke nicht oder nicht ausschließlich einer
vorgegebenen Tabelle zu entnehmen, sondern wie folgt zu re
geln: Als Ergebnis der Rechnungen zu einem aufgenommenen
Bild liegen in der Trackingkamera (Bildaufnehmer) oder der
nachgeschalteten zugehörigen Recheneinheit (2D-Rechenstufe)
bereits Informationen über die Helligkeit der einzelnen
Marker vor. Es ist dann möglich, die Beleuchtungsstärke von
Bild zu Bild so nachzuregeln, dass die maximale Helligkeit
(hellstes Pixel) der interessierenden Marker in der Nähe
eines vorgegebenen Wertes bleibt. Dieser Wert beträgt bei
spielsweise 80 Prozent der Maximalaussteuerung. Erfindungs
gemäß werden hierzu Informationen über die aktuellen oder
erwarteten Orte der interessierenden Marker zusammen mit
Informationen über die Helligkeiten dieser Marker an die
Beleuchtungssteuerung zurückgeführt. Hierzu werden bei
spielsweise die Daten über die zu erwartenden Markerorte
von der zentralen Recheneinheit, die Informationen über die
Markerhelligkeiten auf kürzerem Weg direkt von der Bildauf
nahmeeinheit oder der nachgeschalteten ersten (2D-)
Rechenstufe an die Beleuchtungssteuerung weitergegeben.
Neben der Steuerung der Beleuchtungsstärke kann auch eine
Steuerung der räumlichen Lichtverteilung im Bildbereich der
Bildaufnehmer erfolgen. Hierzu wird eine Beleuchtungsein
heit mit einem in mehrere Segmente unterteilten Licht emit
tierenden Bereich verwendet, wobei die einzelnen Segmente
separat ansteuerbar sind. Die einzelnen Segmente leuchten
verschiedene Bildbereiche des Bildaufnehmers aus, so dass
durch die erfindungsgemäße Rückführung von Informationen
über den Ort der interessierenden Marker an die Steuerein
heit der Beleuchtungseinheit durch entsprechende Ansteue
rung der Segmente nur die interessierenden Bildbereiche
ausgeleuchtet werden können. Zusätzlich kann durch diffrak
tive oder refraktive optische Elemente die Strahlungsrich
tung gesteuert werden, da Trackingkameras üblicherweise mit
nahezu monochromatischem Licht arbeiten. Als refraktive E
lemente sind z. B. an die Geometrie der Beleuchtungseinheit
angepasste Fresnel-Prismenscheiben geeignet.
Die gesamte erfindungsgemäße Informationsrückführung, die
Berechnung der jeweils zurückgeführten Information, die
Steuerung und Regelung der einzelnen Komponenten, wie Bild
aufnehmer, Recheneinheiten und Steuereinheiten, anhand der
rückgeführten Informationen kann vorteilhafterweise mittels
eines Computerprogramms erfolgen, das in einer eigens dafür
vorgesehenen Recheneinheit oder in der bereits erwähnten
zentralen Recheneinheit zur Bestimmung von Ort und/oder Po
sition der Objekte ausgeführt wird. Ein entsprechendes Com
puterprogramm-Produkt enthält das Computerprogramm auf ei
nem geeigneten Datenträger, wie EEPROMs, Flash-Memories,
CD-ROMs, Disketten oder Festplattenlaufwerken.
Im folgenden soll die Erfindung und ihre Vorteile anhand
von in den beigefügten Figuren schematisch dargestellten
Ausführungsbeispielen näher erläutert werden.
Fig. 1 zeigt in schematischer Form eine Ausführungsform
des Datenflussschemas eines erfindungsgemäßen op
tischen Trackingsystems.
Fig. 2 zeigt in schematischer Form das Datenflussschema
einer Ausgestaltung eines erfindungsgemäßen Tra
ckingsystems, das mit einer Beleuchtungseinheit
für passive Marker arbeitet.
Fig. 1 zeigt ein allgemeines Datenflussschema für die er
findungsgemäße Informationsrückführung. Das Trackingsystem
besteht aus mehreren Bildaufnehmern 1, den Bildaufnehmern
zugeordneten Recheneinheiten 2 für die zweidimensionale Po
sitionsbestimmung von Markern im aufgenommenen Bild und ei
ner zentralen Recheneinheit 3, in der die Markerpositions
daten der einzelnen Bildaufnehmer 1 gesammelt und für die
Berechnung der Positions- und/oder Orientierungsdaten des
Objektes genutzt werden. Es sei darauf hingewiesen, dass
die in Fig. 1 dargestellten Komponenten den Datenfluss
repräsentieren, was sich in einer logischen Trennung der
verschiedenen Verarbeitungsstufen äußert, und dass diese
logische Trennung nicht notwendigerweise mit einer physika
lischen Trennung einhergeht. Es ist folglich in der Praxis
möglich, z. B. jeweils die Einheiten Bildaufnehmer 1 und
2D-Recheneinheit 2 oder die Einheiten 2D-Recheneinheit 2
und 3D/6D-Recheneinheit 3 oder aber alle drei Einheiten in
einem Gerät zusammenzufassen. Die zentrale Rechenstufe 3
liefert die Trackingergebnisse meist an eine weitere nicht
dargestellte Recheneinheit zur Weiterverarbeitung der Er
gebnisse oder an ein nicht dargestelltes Speichermedium.
Erfindungsgemäß werden in diesem Ausführungsbeispiel von
der zentralen Recheneinheit 3 nutzbare Daten zu den vorher
gehenden Verarbeitungsstufen, nämlich in diesem Fall zum
Bildaufnehmer 1 sowie der diesem zugeordneten Recheneinheit
2, zurückgeführt. Der Informationsrückführungskanal ist mit
6 bezeichnet. Physikalisch können die Informationsrückfüh
rungskanäle dasselbe Datenübertragungsmedium nutzen wie
dasjenige zur Übermittlung der Daten von Bildaufnehmern zu
zugeordneten Recheneinheiten 2 weiter zur zentralen Rechen
einheit 3. Zur besseren Veranschaulichung sind im Daten
flussschema gemäß Fig. 1 die Datenkanäle gesondert einge
zeichnet.
In diesem Ausführungsbeispiel umfassen die Mittel zur In
formationsrückführung auch eine Prädiktionsstufe 5, die aus
den Ergebnisdaten der unmittelbaren Vergangenheit Erwar
tungswerte für das aktuell zu erfassende Bild berechnet.
Die gewonnen Daten werden dann an die Bildaufnehmer 1 und
die zugeordnete Recheneinheiten 2 geleitet. Durch die Prä
diktion wird der Wert der rückgeführten Daten weiter er
höht.
Ein mit Markern 4 gekennzeichnetes Objekt wird während sei
ner Bewegung im Raum von den Bildaufnehmern 1, die CCD-
Kameras darstellen, erfasst. Die einzelnen Bilder werden in
einer nachgeschalteten Recheneinheit 2 (2D-Rechenstufe) da
hingehend ausgewertet, dass die Position der Marker 4 im
Bild bestimmt wird. Da Ort und Orientierung der Bildaufneh
mer 1 bekannt ist, kann aus den Positionsdaten der Marker 4
in den aufgenommenen Bildern die Position, d. h. der drei
dimensionale Ort, des Objektes in einer zentralen Rechen
einheit 3 durch entsprechende trigonometrische Algorithmen
bestimmt werden. Bei Verwendung von mehr als zwei Markern 4
können zusätzlich noch Informationen über die Orientierung
des Objektes gewonnen werden. Die Trackingergebnisse werden
je nach Art der Anwendung in einer weiteren Recheneinheit
beispielsweise zur Produktion von virtuellen Filmsequenzen
weiterverwendet.
In einer Prädiktionseinheit 5, die physikalisch Bestandteil
der zentralen Recheneinheit 3 sein kann, werden aus den
Trackingergebnissen eines vorgegebenen Zeitraums Erwar
tungswerte für die jeweils zu erfassenden Bilder berechnet.
Als Erwartungswerte können zu erwartende Markerorte, zu er
wartende Markergrößen und/oder zu erwartende Artefakte be
rechnet werden. Dies macht es möglich, nur interessierende
Bildausschnitte, in denen Marker zu erwarten sind, auszule
sen, unspezifische Reflexe auszublenden oder ein gegensei
tiges Verdecken von Markern vorherzusagen. Dies erlaubt,
die Genauigkeit und Schnelligkeit bei der Bildauswertung zu
erhöhen. Hierzu werden erfindungsgemäß die entsprechenden
Informationen von der Prädiktionseinheit 5 direkt zum Bild
aufnehmer 1 und/oder zur jeweiligen dem Bildaufnehmer 1 zu
geordneten Recheneinheit 2 zugeführt.
Eine besonders geeignete Nutzung der erfindungsgemäßen In
formationsrückführung ist in Form eines Datenflussschemas
in Fig. 2 dargestellt. Gleiche Komponenten sind mit glei
chen Bezugszeichen bezeichnet. Dem Bildaufnehmer 1 ist hier
eine Beleuchtungseinheit zugeordnet, die eine Steuereinheit
8 mit Treiberstufe, eine in mehrere Segmente unterteilte
Lichtemissionseinheit 9 sowie eine Strahlablenkungseinrich
tung 10 aufweist. Das von den Segmenten der Lichtemissions
einheit 9 emittierte Licht wird mittels diffraktiver oder
refraktiver Elemente der Strahlablenkungseinrichtung 10 in
verschiedene Raumrichtungen verteilt. Mit einer solchen Be
leuchtungseinheit ist es möglich, die Marker 4 derart zu
beleuchten, dass diese mit optimaler Helligkeit vom Bild
aufnehmer 1 abgebildet werden. Hierzu werden erfindungsge
mäß Daten nicht nur an den Bildaufnehmer 1 und die diesem
zugeordnete Rechenstufe 2 sondern auch an die Steuereinheit
8 der Beleuchtungseinheit rückgeführt.
Ausgewählte Daten wie Helligkeitsinformationen aus den ers
ten Verarbeitungsstufen, dem Bildaufnehmer 1 und der zuge
ordneten Recheneinheit 2, werden kurzfristig in einem Spei
cher 7 zwischengespeichert und dann ebenfalls an die Steu
ereinheit 8 der Beleuchtungseinheit weitergegeben. Anhand
der rückgeführten Daten, beispielsweise zu erwartende Mar
kerpositionen (vergleiche Fig. 1) und Markerhelligkeiten,
kann die Treiberstufe der Steuereinheit 8 die einzelnen
Segmente der Lichtemissionseinheit 9 mit wählbarer Licht
leistung ansteuern. Durch die nachgeschaltete Strahlablen
kungseinrichtung 10 kann dann jedes Segment der Beleuch
tungseinheit einen anderen Teil des Bildfeldes des zugehö
rigen Bildaufnehmers 1 ausleuchten. Dadurch kann die räum
liche Verteilung der Ausleuchtung von Bild zu Bild optimal
geregelt werden.
Es ist auch möglich, lediglich die Information über die
Entfernungen der Marker 4 zur Steuereinheit 8 der Beleuch
tungseinheit zu leiten und abhängig vom Abstand und von der
Art der Marker 4 die Beleuchtungsleistung und -verteilung
zu steuern. Die hierzu notwendigen Ansteuerwerte können ei
ner Look-up-Tabelle entnommen werden, die durch vorherge
hende Laborexperimente aufgestellt worden ist.
Bei der erfindungsgemäßen Ausgestaltung der Beleuchtungsre
gelung für passive Marker ist es vorteilhaft, die Beleuch
tungsstärke jeweils so zu steuern, dass die Helligkeit der
abgebildeten Marker innerhalb des Aussteuerbereichs des
Bildaufnehmers 1, beispielsweise bei einem Wert von 80 Pro
zent der oberen Aussteuergrenze liegt.
Die erfindungsgemäße Rückführung von relevanten Informatio
nen bei einem Trackingsystem erhöht die Präzision und die
Geschwindigkeit bei der Auswertung der anfallenden Daten.
Claims (22)
1. Optisches Trackingsystem zur Positions- und/oder Ori
entierungsbestimmung eines mit wenigstens einem Marker (4)
ausgestatteten Objektes unter Verwendung mindestens zweier
Bildaufnehmer (1) zur bildlichen Erfassung des wenigstens
einen Markers (4), wobei den Bildaufnehmern (1) zugeordnete
Recheneinheiten (2) zur Bestimmung der Markerpositionen im
erfassten Bild vorgesehen sind, und wobei eine zentrale Re
cheneinheit (3) zur Bestimmung der Position und/oder der
Orientierung des Objektes vorgesehen ist, die mit den ein
zelnen Recheneinheiten (2) zur Übertragung der Bilddaten an
die zentrale Recheneinheit (3) in Verbindung steht,
dadurch gekennzeichnet, dass
Mittel zur Rückführung von in der zentralen Recheneinheit
(3) errechneten Informationen zu einer einem Bildaufnehmer
(1) zugeordneten Recheneinheit (2) und/oder zu einem Bild
aufnehmer (1) und/oder Mittel zur Rückführung von in einer
einem Bildaufnehmer (1) zugeordneten Recheneinheit (2) er
rechneten Informationen zu einem Bildaufnehmer (1) vorgese
hen sind.
2. Optisches Trackingsystem nach Anspruch 1, dadurch ge
kennzeichnet, dass die Mittel zur Zurückführung von errech
neten Informationen eine Prädiktionseinheit (5) umfassen,
die aus den errechneten Tracking-Ergebnissen eine zu erwar
tende Positions- und/oder Orientierungsangabe für das Ob
jekt errechnet.
3. Optisches Trackingsystem nach Anspruch 1 oder 2, da
durch gekennzeichnet, dass die Mittel zur Zurückführung von
errechneten Informationen die Datenübertragungsmittel zur
Datenübertragung von einem Bildaufnehmer (1) zu den nachge
schalteten Recheneinheiten (2, 3) umfassen.
4. Optisches Trackingsystem nach einem der Ansprüche 1
bis 3, dadurch gekennzeichnet, dass die Informationsüber
tragung über Ethernet-Verbindungen erfolgt.
5. Optisches Trackingsystem nach einem der Ansprüche 1
bis 4 mit mindestens einer einem Bildaufnehmer (1) zugeord
neten Beleuchtungseinheit (8, 9, 10) zur Beleuchtung von re
flektierenden Markern (4), dadurch gekennzeichnet, dass
Mittel zur Zuführung von in einer Recheneinheit (2, 3) er
rechneten Informationen zur Beleuchtungseinheit (8, 9, 10)
vorgesehen sind.
6. Optisches Trackingsystem nach Anspruch 5, dadurch ge
kennzeichnet, dass die Mittel zur Zuführung von Informatio
nen zur Beleuchtungseinheit (8, 9, 10) einen Speicher (7) um
fassen.
7. Optisches Trackingsystem nach Anspruch 5 oder 6, da
durch gekennzeichnet, dass die Mittel zur Zuführung von In
formationen zur Beleuchtungseinheit (8, 9, 10) eine Look-up-
Tabelle umfassen.
8. Optisches Trackingsystem nach einem der Ansprüche 5
bis 7, dadurch gekennzeichnet, dass die Beleuchtungseinheit
(8, 9, 10) eine in mehrere Segmente aufgeteilte Lichtemissi
onseinheit (9) aufweist, die getrennt von einer Steuerein
heit (8) ansteuerbar sind.
9. Optisches Trackingsystem nach einem der Ansprüche 5
bis 8, dadurch gekennzeichnet, dass die Beleuchtungseinheit
(8, 9, 10) eine Strahlablenkungseinrichtung (10), insbesonde
re bestehend aus diffraktiven oder refraktiven Elementen,
aufweist.
10. Optisches Trackingsystem nach Anspruch 9, dadurch ge
kennzeichnet, dass Fresnel-Prismenscheiben die refraktiven
Elemente darstellen.
11. Verfahren zur Positions- und/oder Orientierungsbestim
mung eines mit wenigstens einem Marker (4) ausgestatteten
Objektes, bei dem der wenigstens eine Marker (4) von min
destens zwei Bildaufnehmern (1) bildlich erfasst wird, wo
bei den Bildaufnehmern (1) zugeordnete Recheneinheiten (2)
die Markerpositionen im erfassten Bild bestimmen und eine
zentrale Recheneinheit (3) hieraus die Position und/oder
Orientierung des Objektes bestimmt,
dadurch gekennzeichnet, dass
zur Steuerung des Berechnungs- und/oder Bildaufnahmevor
gangs von der zentralen Recheneinheit (3) berechnete Infor
mationen an eine einem Bildaufnehmer (1) zugeordnete Re
cheneinheit (2) und/oder an einen Bildaufnehmer (1) zurück
geführt und/oder von einer einem Bildaufnehmer (1) zugeord
neten Recheneinheit (2) berechnete Informationen an einen
Bildaufnehmer (1) zurückgeführt werden.
12. Verfahren nach Anspruch 11, dadurch gekennzeichnet,
dass Ausgangsinformationen zurückgeführt werden.
13. Verfahren nach Anspruch 11, dadurch gekennzeichnet,
dass von außen eingebrachte, für die Positions- und/oder
Orientierungsbestimmung relevante Informationen zurückge
führt werden.
14. Verfahren nach Anspruch 11, dadurch gekennzeichnet,
dass aktuell ermittelte Positions- und/oder Orientierungs
informationen zurückgeführt werden.
15. Verfahren nach Anspruch 11, dadurch gekennzeichnet,
dass auf Grundlage der aktuellen Positions- und/oder Orien
tierungsinformationen eine Prädiktion zur Berechnung von zu
erwartenden Positions- und/oder Orientierungsangaben ausge
führt wird, und dass letztere Informationen zurückgeführt
werden.
16. Verfahren nach einem der Ansprüche 11 bis 15, bei dem
reflektierende Marker von einer einem Bildaufnehmer (1) zu
geordneten Beleuchtungseinheit (8, 9, 10) beleuchtet werden,
dadurch gekennzeichnet, dass die rückgeführten Informatio
nen zur Steuerung der Beleuchtungseinheit (8, 9, 10) verwen
det werden.
17. Verfahren nach Anspruch 16, dadurch gekennzeichnet,
dass die Lichtleistung der Beleuchtungseinheit (8, 9, 10) ge
steuert wird.
18. Verfahren nach Anspruch 16 oder 17, dadurch gekenn
zeichnet, dass die räumliche Lichtverteilung der Beleuch
tungseinheit (8, 9, 10) gesteuert wird.
19. Verfahren nach einem der Ansprüche 16 bis 18, dadurch
gekennzeichnet, dass zur Steuerung der Beleuchtungseinheit
(8, 9, 10) eine vorgefertigte Look-up-Tabelle verwendet wird.
20. Verfahren nach einem der Ansprüche 16 bis 18, dadurch
gekennzeichnet, dass die Beleuchtungsstärke derart gesteuert
wird, dass die maximale Helligkeit der abgebildeten
Marker (4) in der Nähe eines vorgegebenen Wertes, insbeson
dere bei etwa 80% der maximal auflösbaren Helligkeit,
bleibt.
21. Computerprogramm mit Programmcode-Mitteln, um alle
Schritte der Ansprüche 11 bis 20 durchzuführen, wenn das
Computerprogramm auf einem Computer oder der mindestens ei
nen Recheneinheit (2, 3) ausgeführt wird.
22. Computerprogramm-Produkt mit Programmcode-Mitteln, die
auf einen computerlesbaren Datenträger gespeichert sind, um
ein Verfahren nach einem der Ansprüche 11 bis 20 durchzu
führen, wenn das Computerprogramm auf einem Computer oder
der mindestens einen Recheneinheit (2, 3) ausgeführt wird.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10051415A DE10051415C2 (de) | 2000-10-17 | 2000-10-17 | Optisches Trackingsystem und -verfahren |
CA002358735A CA2358735A1 (en) | 2000-10-17 | 2001-10-12 | Optical tracking system and method |
US09/976,287 US20020044204A1 (en) | 2000-10-17 | 2001-10-15 | Optical tracking system and method |
GB0124832A GB2373941A (en) | 2000-10-17 | 2001-10-16 | Stereogrammetry with camera and window tracking |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10051415A DE10051415C2 (de) | 2000-10-17 | 2000-10-17 | Optisches Trackingsystem und -verfahren |
Publications (2)
Publication Number | Publication Date |
---|---|
DE10051415A1 DE10051415A1 (de) | 2002-04-25 |
DE10051415C2 true DE10051415C2 (de) | 2003-10-09 |
Family
ID=7660077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10051415A Expired - Fee Related DE10051415C2 (de) | 2000-10-17 | 2000-10-17 | Optisches Trackingsystem und -verfahren |
Country Status (4)
Country | Link |
---|---|
US (1) | US20020044204A1 (de) |
CA (1) | CA2358735A1 (de) |
DE (1) | DE10051415C2 (de) |
GB (1) | GB2373941A (de) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102012107153A1 (de) * | 2012-08-03 | 2014-02-27 | Hendrik Fehlis | Vorrichtung und Verfahren zur Bestimmung der Eigenlage einer bildaufnehmenden Kamera |
EP3009984A1 (de) | 2014-10-14 | 2016-04-20 | Sick Ag | Detektionssystem für optische Codes |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3700707B2 (ja) * | 2003-03-13 | 2005-09-28 | コニカミノルタホールディングス株式会社 | 計測システム |
US20070248283A1 (en) * | 2006-04-21 | 2007-10-25 | Mack Newton E | Method and apparatus for a wide area virtual scene preview system |
US8717545B2 (en) * | 2009-02-20 | 2014-05-06 | Digital Signal Corporation | System and method for generating three dimensional images using lidar and video measurements |
DE102010018899B4 (de) * | 2010-01-04 | 2014-08-21 | MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. | Vorrichtung und Verfahren zur Bewegungskorrektur bei MRT-Messungen |
US9804252B2 (en) | 2012-01-17 | 2017-10-31 | Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi | System and method for measuring tracker system accuracy |
US9511243B2 (en) | 2012-04-12 | 2016-12-06 | University Of Florida Research Foundation, Inc. | Prevention of setup errors in radiotherapy |
US10249090B2 (en) | 2016-06-09 | 2019-04-02 | Microsoft Technology Licensing, Llc | Robust optical disambiguation and tracking of two or more hand-held controllers with passive optical and inertial tracking |
EP3882161B1 (de) * | 2020-03-20 | 2023-08-16 | Goodrich Lighting Systems GmbH & Co. KG | Hubschraubersuchlicht und verfahren zum betrieb eines hubschraubersuchlichts |
EP4169473A1 (de) * | 2021-10-25 | 2023-04-26 | Erbe Vision GmbH | Vorrichtung und verfahren zur registrierung von livebildern und scanbildern |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19722397A1 (de) * | 1996-05-30 | 1997-12-04 | West Electric Co | Strobe-Lichtgerät mit variablem Emissionswinkel und Steuerverfahren für dieses |
WO1998054593A1 (en) * | 1997-05-30 | 1998-12-03 | British Broadcasting Corporation | Position determination |
WO1999017133A1 (en) * | 1997-09-26 | 1999-04-08 | Northern Digital Incorporated | A system for determining the spatial position of a target |
WO1999030182A1 (en) * | 1997-12-05 | 1999-06-17 | Northern Digital Inc. | A system for determining the spatial position and orientation of a body |
DE19806646C1 (de) * | 1998-02-18 | 1999-08-12 | Gmd Gmbh | Kamera Tracking System für ein virtuelles Fernseh- oder Videostudio |
WO1999052094A1 (en) * | 1998-04-03 | 1999-10-14 | Image Guided Technologies, Inc. | Wireless optical instrument for position measurement and method of use therefor |
DE19822846C2 (de) * | 1998-05-22 | 2000-06-08 | Metz Werke Gmbh & Co Kg | Optisches System mit mehreren optischen Elementen für eine Beleuchtungsanordnung mit veränderbarer Lichtstärkeverteilung |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US81019A (en) * | 1868-08-11 | Improved curtain-fixture | ||
EP0018673B1 (de) * | 1979-05-04 | 1984-12-27 | Günter Löwe | Verfahren zum Vermessen von Schussfehlern und Schussfehler-Vermessungsanlage zur Durchführung des Verfahrens |
US4649504A (en) * | 1984-05-22 | 1987-03-10 | Cae Electronics, Ltd. | Optical position and orientation measurement techniques |
US4916302A (en) * | 1985-02-09 | 1990-04-10 | Canon Kabushiki Kaisha | Apparatus for and method of measuring distances to objects present in a plurality of directions |
US5026153A (en) * | 1989-03-01 | 1991-06-25 | Mitsubishi Denki K.K. | Vehicle tracking control for continuously detecting the distance and direction to a preceding vehicle irrespective of background dark/light distribution |
US4987044A (en) * | 1989-05-31 | 1991-01-22 | E. I. Du Pont De Nemours And Company | Method and apparatus for maintaining desired exposure levels |
US5179407A (en) * | 1989-06-19 | 1993-01-12 | Nikon Corporation | Automatic focusing device |
US5023709A (en) * | 1989-11-06 | 1991-06-11 | Aoi Studio Kabushiki Kaisha | Automatic follow-up lighting system |
JP2971502B2 (ja) * | 1990-03-27 | 1999-11-08 | 旭硝子株式会社 | コバール封着用ガラス組成物 |
US5589942A (en) * | 1990-04-05 | 1996-12-31 | Intelligent Automation Systems | Real time three dimensional sensing system |
JPH0812072B2 (ja) * | 1990-06-13 | 1996-02-07 | 三菱電機株式会社 | 距離測定装置 |
US5521843A (en) * | 1992-01-30 | 1996-05-28 | Fujitsu Limited | System for and method of recognizing and tracking target mark |
US5346210A (en) * | 1992-08-28 | 1994-09-13 | Teem Systems, Inc. | Object locator system |
JP3259475B2 (ja) * | 1993-10-27 | 2002-02-25 | ミノルタ株式会社 | 距離測定装置 |
US5504477A (en) * | 1993-11-15 | 1996-04-02 | Wybron, Inc. | Tracking system |
GB2284957B (en) * | 1993-12-14 | 1998-02-18 | Gec Marconi Avionics Holdings | Optical systems for the remote tracking of the position and/or orientation of an object |
JPH0995194A (ja) * | 1995-09-29 | 1997-04-08 | Aisin Seiki Co Ltd | 車両前方の物体検出装置 |
US5729475A (en) * | 1995-12-27 | 1998-03-17 | Romanik, Jr.; Carl J. | Optical system for accurate monitoring of the position and orientation of an object |
EP0814344A3 (de) * | 1996-06-19 | 1998-12-30 | Matsushita Electric Works, Ltd. | Beleuchtungssystem mit automatischer Nachführung |
JP4021026B2 (ja) * | 1998-01-29 | 2007-12-12 | 富士重工業株式会社 | ステレオ画像処理システム |
DE19836337C1 (de) * | 1998-08-11 | 2000-02-10 | Agfa Gevaert Ag | Vorrichtung und Verfahren zum Belichten von Bildinformationen auf lichtempfindliches Aufzeichnungsmaterial |
JP3587506B2 (ja) * | 1999-08-30 | 2004-11-10 | 富士重工業株式会社 | ステレオカメラの調整装置 |
JP3352655B2 (ja) * | 1999-09-22 | 2002-12-03 | 富士重工業株式会社 | 車線認識装置 |
-
2000
- 2000-10-17 DE DE10051415A patent/DE10051415C2/de not_active Expired - Fee Related
-
2001
- 2001-10-12 CA CA002358735A patent/CA2358735A1/en not_active Abandoned
- 2001-10-15 US US09/976,287 patent/US20020044204A1/en not_active Abandoned
- 2001-10-16 GB GB0124832A patent/GB2373941A/en not_active Withdrawn
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19722397A1 (de) * | 1996-05-30 | 1997-12-04 | West Electric Co | Strobe-Lichtgerät mit variablem Emissionswinkel und Steuerverfahren für dieses |
WO1998054593A1 (en) * | 1997-05-30 | 1998-12-03 | British Broadcasting Corporation | Position determination |
WO1999017133A1 (en) * | 1997-09-26 | 1999-04-08 | Northern Digital Incorporated | A system for determining the spatial position of a target |
WO1999030182A1 (en) * | 1997-12-05 | 1999-06-17 | Northern Digital Inc. | A system for determining the spatial position and orientation of a body |
DE19806646C1 (de) * | 1998-02-18 | 1999-08-12 | Gmd Gmbh | Kamera Tracking System für ein virtuelles Fernseh- oder Videostudio |
WO1999052094A1 (en) * | 1998-04-03 | 1999-10-14 | Image Guided Technologies, Inc. | Wireless optical instrument for position measurement and method of use therefor |
DE19822846C2 (de) * | 1998-05-22 | 2000-06-08 | Metz Werke Gmbh & Co Kg | Optisches System mit mehreren optischen Elementen für eine Beleuchtungsanordnung mit veränderbarer Lichtstärkeverteilung |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102012107153A1 (de) * | 2012-08-03 | 2014-02-27 | Hendrik Fehlis | Vorrichtung und Verfahren zur Bestimmung der Eigenlage einer bildaufnehmenden Kamera |
EP3009984A1 (de) | 2014-10-14 | 2016-04-20 | Sick Ag | Detektionssystem für optische Codes |
Also Published As
Publication number | Publication date |
---|---|
US20020044204A1 (en) | 2002-04-18 |
GB0124832D0 (en) | 2001-12-05 |
CA2358735A1 (en) | 2002-04-17 |
GB2373941A (en) | 2002-10-02 |
DE10051415A1 (de) | 2002-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE4317772C2 (de) | Blendlichtsensor für Fahrzeuge | |
DE3709907C2 (de) | ||
DE3886267T2 (de) | Anordnung zum Messen einer Winkelverschiebung eines Gegenstandes. | |
EP2695785B1 (de) | Kraftfahrzeug mit Fahrerassistenzsystem und Verfahren zum Betrieb eines Fahrerassistenzsystems | |
DE102014107488B4 (de) | Vorrichtung zur bestimmung der umgebung | |
DE3787003T2 (de) | Lenkvorrichtung für sich unbemannt bewegende körper. | |
DE102008025458B4 (de) | Verfahren und Vorrichtung zur Kalibrierung einer durch einen Frontscheinwerfer eines Fahrzeugs erzeugten horizontalen Hell-Dunkel-Grenze | |
DE10051415C2 (de) | Optisches Trackingsystem und -verfahren | |
DE102008008868B4 (de) | Fahrzeug-Fahrzeug-Informationsübertragungssystem | |
DE4006300A1 (de) | Radargeraet fuer kraftfahrzeuge | |
EP1589484A1 (de) | Verfahren zur Erkennung und/oder Verfolgung von Objekten | |
DE102018123363A1 (de) | Verfahren zur Kollisionsvermeidung und Laserbearbeitungsmaschine | |
DE102016117780A1 (de) | Fahrzeugaussenumgebung-Erkennungsvorrichtung | |
EP1067399A2 (de) | Verfahren zur Sichtweitenbestimmung | |
DE102019133642A1 (de) | Digitales bildgebungssystem einschliesslich optischer plenoptik-vorrichtung und bilddaten-verarbeitungsverfahren zur erfassung von fahrzeughindernissen und gesten | |
WO2018095716A1 (de) | Erzeugung einer homogenen lichtverteilung in abhängigkeit von der topografie und der gemessenen leuchtdichte | |
DE102020206006A1 (de) | Verfahren zum Kalibrieren und/oder Justieren und Steuereinheit für ein LiDAR-System, LiDAR-System und Arbeitsvorrichtung | |
EP3663881B1 (de) | Verfahren zur steuerung eines autonomen fahrzeugs auf der grundlage von geschätzten bewegungsvektoren | |
DE4121145C2 (de) | Objektdetektionssystem für optisches Instrument | |
DE69919514T2 (de) | Abstandsmessgerät | |
DE19916175A1 (de) | Einrichtung zur Einstellung der Richtung des von wenigstens einm Scheinwerfer eines Fahrzeugs ausgesandten Lichtbündels | |
DE19946449A1 (de) | Entfernungsmeßeinrichtung | |
DE102007008542B4 (de) | Verfahren und Vorrichtung zum Steuern der Lichtabgabe eines Fahrzeugs | |
DE102011017707A1 (de) | Verfahren und Vorrichtung zur Erkennung von einem Objekt in einer Umgebung einer Kamera | |
DE102019116006A1 (de) | Verfahren und vorrichtung zur objekterkennung in kamera-toträumen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8127 | New person/name/address of the applicant |
Owner name: ADVANCED REALTIME TRACKING GMBH, 82211 HERRSCHING, |
|
8304 | Grant after examination procedure | ||
8364 | No opposition during term of opposition | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20140501 |