DE4320485A1 - Intelligente Entfernungsbildkamera zur Objektivermessung - Google Patents
Intelligente Entfernungsbildkamera zur ObjektivermessungInfo
- Publication number
- DE4320485A1 DE4320485A1 DE4320485A DE4320485A DE4320485A1 DE 4320485 A1 DE4320485 A1 DE 4320485A1 DE 4320485 A DE4320485 A DE 4320485A DE 4320485 A DE4320485 A DE 4320485A DE 4320485 A1 DE4320485 A1 DE 4320485A1
- Authority
- DE
- Germany
- Prior art keywords
- distance
- measurement
- image
- evaluation
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Geophysics And Detection Of Objects (AREA)
- Image Processing (AREA)
Description
Die Erfindung betrifft die Vermessung von Objekten mittels intelligenter Ent
fernungsbildkamera.
Bei der praktischen Vermessung realer Objekte ist zwischen kooperativer und
nicht-kooperativer Szene zu unterscheiden.
Bei kooperativer Szene lassen sich Bildauswertesysteme einsetzen, die aus
einzelnen Videobildern oder aus Videobildpaaren automatisch die 3d-Kontur
eines Objektes berechnen. Dazu müssen jedoch bestimmte Voraussetzungen
geschaffen werden: Die Objektoberfläche muß in der Regel behandelt wer
den, das Objekt muß in bestimmter Weise beleuchtet werden (mit einem
Muster oder dergleichen), die Hintergrundhelligkeit muß angepaßt werden.
Bei kooperativer Szene lassen sich auch die Funktionen der Positions- und
Lagebestimmung sowie der Objektklassifikation mit derartigen Systemen rea
lisieren. Die Robustheit und Genauigkeit hängt dabei vom Umfang der Sze
nenunterstützung ab.
Bei nicht-kooperativer Szene versagen die oben angegebenen Systeme oft
mals. Statt dessen werden am Objekt mehr oder weniger Einzelmessungen
an bestimmten Sollpunkten durchgeführt. Dies kann mechanisch (mit Koordi
natenmeßmaschinen) oder berührungslos optisch (mit Triangulationsmetho
den) geschehen. Um die gewünschten Sollpunkte anzupeilen, wird ein
Mensch benötigt. Für eine flächendeckende Vermessung ist dieses Verfahren
daher in der Regel nicht zu gebrauchen, ebensowenig für eine automatische
Objektklassifikation.
Aufgabe der Erfindung ist die berührungslose und vollautomatische Erfassung
von Objekten in nicht-kooperativer, natürlicher Umgebung; insbesondere
Objektvermessung, Positions- und Lagebestimmung und Objektklassifikation.
Diese Aufgabe wird erfindungsgemäß durch den Gegenstand des Patent
anspruchs gelöst.
Die Vorteile der Erindung sind vor allem bei nicht-kooperativer Szene zu fin
den. Die Funktionen der berührungslosen Objektvermessung, der Positions-
und Lagebestimmung sowie der Objektklassifikation lassen sich mit der Erfin
dung vollautomatisch realisieren. Dies führt zu größerer Effizienz und weni
ger Fehlern als mit den herkömmlichen Methoden. Darüber hinaus lassen
sich ganze Objektflächen anstelle einzelner Sollpunkte vermessen. Schließ
lich ist die automatische Objektklassifikation für Anwendungen des "Rechner
sehens" von Bedeutung.
Die Erfindung kann auch bei kooperativer Szene vorteilhaft sein, wenn das
Präparieren einer Szene zu aufwendig ist.
Die Erfindung wird nachfolgend anhand von Figuren näher erläutert.
Es zeigt
Fig. 1 ein Funktionsschema der Erfindung und
Fig. 2 ein Ablaufschema eines Auswerteprogramms.
Die intelligente Kamera zur Objektvermessung besteht aus einer Entfernungs
bildkamera und einem speziell programmierten Auswerterechner.
Diese Komponenten werden in den folgenden Abschnitten beschrieben. Ein
Funktionsschema ist in Fig. 1 dargestellt.
Als Sensor für das Objektvermessungssystem kann ein beliebiger 3d-abbil
dender Sensor mit hoher Bildauflösung und Absolutmeßfähigkeit eingesetzt
werden. Das momentan realisierte System nutzt eine weiterentwickelte Ent
fernungsbildkamera der Firma Dornier. Es handelt sich dabei im wesentlichen
um den abbildenden Laserradarsensor, dessen Merkmale bereits in der
Patentschrift Nr. DE 39 42 770 C2 vom 16.01.1992 ausführlich dargelegt
wurden und dessen Eigenschaften hier deshalb nur stichpunktartig aufgezählt
werden:
- - 3d-abbildender Sensor
- - Entfernungsmessung über Licht-Laufzeitmessung
- - Entfernungsauflösung im cm-Bereich
- - Strahlablenkung in zwei Dimensionen
- - Zeilenscanner, zum Beispiel realisiert als faseroptischer Scanner, beschrieben in Patentschrift DE 39 42 771 C1 vom 04.07.1991
- - Spaltenscan, zum Beispiel realisiert durch geregelte Spiegelbewegung
- - Generierung von Entfernungsbildern.
Für die beschriebene Anwendung wurde dieses Gerät weiterentwickelt wie
folgt, um absolut geeichte Entfernungswerte und eine höhere Bildauflösung
zu erhalten.
Eine fest in den Sensor integrierte Lichtleitfaser wird in regelmäßigen Abstän
den in den optischen Strahlengang eingeblendet und die Lichtlaufzeit durch
den Lichtleiter mit der Sensorelektronik vermessen. Das Meßergebnis wird
benutzt, um die Absolutkalibrierung der Entfernungsmeßwerte durchzuführen.
Damit werden systematische Entfernungsmeßfehler, z. B. verursacht durch
Temperaturempfindlichkeit elektronischer Bauteile, erkannt und kompensiert.
Außerdem wird damit ein kontinuierlicher Selbsttest des Laserradas erreicht.
Bei statischen Szenen kann die Genauigkeit der Entfernungsmessungen er
höht werden, indem man über mehrere Sensorbilder mittelt. Die Entfernungs
bildkamera ist so konstruiert, daß bei aufeinanderfolgenden Aufnahmen der
selben Szene die Scangeometrie leicht variiert wird. Die entsprechenden
Sensorbilder sind also gegenseitig leicht im Winkel verschoben, so daß nach
mehreren Aufnahmen eine lückenlose Abbildung der Szene erreicht wird. Die
jeweilige Verschiebung wird z. B. über Winkelencoder genau vermessen.
Durch diese konstruktive Maßnahme in Verbindung mit einer geeigneten Aus
wertung wird erreicht, daß nicht nur die Genauigkeit der Entfernungsmessung
durch Aufnahme mehrerer Bilder erhöht wird, sondern auch die Bildauflösung.
Der Auswerterechner ist hardwaremäßig konventionell konfiguriert als Ein-
oder Multiprozessorsystem mit folgender Peripherie:
- (1) Diskettenstation zur Eingabe von Programmen und Daten;
- (2) Festplatte zur Speicherung von Programmen und Daten;
- (3) Schnittstelle zum Sensor für den Entfernungsbildtransfer;
- (4) eventuell zusätzliche anwendungsspezifische Schnittstelle zu Outputdatenübergabe.
Die erforderliche Größe des Speichermediums (2) richtet sich nach Größe und
Anzahl der zu vermessenden Objekte.
Die Software des Auswerterechners besteht aus
- (1) Betriebssystem;
- (2) Treiberroutine für die Schnittstelle zum Entfernungsbildsensor;
- (3) Auswerteprogramm mit den Funktionen: Objektvermessung, Positions- und Lagebestimmung, Objektklassifikation;
- (4) eventuell Treiberroutine für die Outputschnittstelle.
Das Auswerteprogramm (3) ist speziell auf den Informationsgehalt des Entfer
nungsbildes ausgelegt und daher nur in Verbindung mit einer Entfernungs
bildkamera funktionsfähig. Das Auswerteprogramm wird im folgenden näher
beschrieben.
Die Hauptfunktion des Programmes besteht im Vergleich der vom Sensor
erfaßten 3d-Objektgeometrie mit einem oder mehreren, im Rechner vorhan
denen 3d-Geometriemodellen (CATIA o. ä.).
Der Prozeßablauf des Auswerteprogrammes ist in Fig. 2 schematisch dar
gestellt. Nach der Aufnahme eines Entfernungsbildes des zu vermessenden
Objektes wird zunächst vom Programm eine Hypothese gemacht bezüglich
des Objekttyps. Bei der sich anschließenden Positions- und Lagebestimmung
wird das der Hypothese entsprechende Geometriemodell mit den Entfer
nungsbilddaten durch ein Optimierungsverfahren bestmöglich zu Überein
stimmung gebracht. Gegebenenfalls stellt das Verfahren fest, daß keine auch
nur annähernd optimale Lösung zu finden ist; in diesem Fall wird die aktuelle
Objekttyphypothese verworfen (s. u.). Andernfalls erlaubt die errechnete Ob
jektposition und -lage - auf der Grundlage der aktuellen Objekttyphypothese -
die Berechnung eines "Soll-Entfernungsbildes". Der Vergleich dieses Soll-
Entfernungsbildes mit dem "lst-Entfernungsbild" führt auf eine der drei folgen
den Alternativen:
- (1) Alle Meßpunkte, die auf dem Objekt liegen, stimmen bei Soll-Bild und Ist-Bild im Rahmen der Meßgenauigkeit überein.
- (2) Eine große Zahl von Meßpunkten, die auf dem Objekt liegen, stimmt bei Soll-Bild und lst-Bild überein; bei einer kleineren Zahl geht die Abweichung über die Ungenauigkeit der Messung hinaus.
- (3) Für eine große Zahl von Meßpunkten läßt sich keine Über einstimmung zwischen Soll-Bild und lst-Bild feststellen.
Aus diesen drei Alternativen ergeben sich folgende Feststellung und
Aktionen:
- (1) Die aktuelle Objekttyphypothese ist korrekt; die aktuell berechnete Position und Lage des Objektes ist korrekt; das vermessene Objekt stimmt mit dem Geometriemodell im vom Sensor erfaßten Bereich und im Rahmen der Sensormeßgenauigkeit überein. Das Programm ist beendet.
- (2) Die aktuell berechnete Position und Lage des Objektes ist korrekt; die aktuelle Objekttyphypothese ist grundsätzlich korrekt, allerdings gibt es partiell Unterschiede zwischen Objektmodell und realem Objekt. Es kann entweder mit einem geringfügig anderen Geometriemodell neu gerechnet werden (sofern vorhanden), und der zugehörige Soll-/lst-Vergleich erneut durchgeführt erden; oder das Programm ist beendet, und Ort und Ausmaß der Abweichungen werden ausgegeben.
- (3) Die aktuelle Objekttyphypothese ist falsch; es muß mit einer neuen Objekttyphypothese weitergerechnet werden.
Der Programmablauf vereinfacht sich, wenn zusätzliches Vorwissen vorhan
den ist. Steht beispielsweise der Objekttyp von vornherein fest, entfällt dessen
Variation, und das Programm liefert nur die Objektposition und -lage sowie
Unterschiede zwischen realem Objekt und Modell.
Das Modul zur Positions- und Lagebestimmung ist von zentraler Bedeutung.
Es muß einerseits ohne Startwert auskommen und schnell sein, da es in einer
Schleife mit variablem Objekttyp aufgerufen wird. Andererseits muß es voll
automatisch ablaufen und die Datenredundanz beim Input (Entfernungsbild)
gegenüber dem Output (6 Koordinaten für Position und Lage) für optimale
Genauigkeit nutzen. Es wird im folgenden Abschnitt genauer beschrieben.
Die einzelnen Meßwerte eines Entfernungsbildes lassen sich nach einfachen
Transformationsgesetzen in 3d-Vektoren überführen, die die Orte der zugehö
rigen Szenenpunkte im Koordinatensystem des Sensors festlegen. Eine der
artige 3d-Rekonstruktion der Szene ist wegen des verwendeten Meßprinzips
invariant gegen variable externe Beleuchtungsverhältnisse und variable
Objektoberflächenreflektivitäten.
Um eine im Rahmen des Verfahrens auftretende Positions- und Lage
hypothese des Objektes zu bewerten, muß das vorgegebene Geometrie
modell des Objektes lediglich der Hypothese entsprechend in die 3d-Rekon
struktion der Szene gelegt werden; dann muß nachgeprüft werden, ob eine
ausreichende Anzahl von Szenenpunkten tatsächlich auf der Objektober
fläche liegt. Mit Hilfe der sogenannten Abstandsfunktion läßt sich die Güte
einer beliebigen Positions- und Lagehypothese quantifizieren: Es wird der
räumliche Abstand aller Szenenpunkte von der Objektoberfläche als Funktion
der betreffenden Positions- und Lagekoordinaten berechnet, und es wird über
die Gesamtheit dieser Abstände (sofern sie nicht zu groß sind) gemittelt.
Bei korrekter Positions- und Lagehypothese nimmt die Abstandsfunktion den
Minimalwert O an (im idealisierten Fall einer fehlerfreien Messung). Mathema
tisch gesprochen besteht die Positions- und Lageberechnung beim vorliegen
den Auswerteverfahren in der globalen Minimierung der Abstandsfunktion
(sogenannte Extremalwertaufgabe). Wir gehen im folgenden auf die Beson
derheiten bei Formulierung und Lösung dieser Extremalwertaufgabe ein.
Im Bereich der Lösung kann die Abstandsfunktion als Taylorreihe zweiter Ord
nung des Positions- und Lagefehlers approximiert werden. Zur Verbesserung
eines guten Schätzwertes für die Lösung (sogenannter Startwert) stehen
somit direkte und iterative Standardverfahren zur Verfügung, von denen das
direkte der aktuellen Aufgabenstellung angepaßt wurde und als zweite Stufe
des Verfahrens realisiert wurde ("Feinpositionierung"). Die Besonderheiten
des Feinpositionierungsverfahrens sind in Abs. (2.2.2.2) zusammengefaßt.
Der der Feinpositionierung vorangestellte Verfahrensbestandteil "Grobpositio
nierung" dient zur Gewinnung einer brauchbaren Positions- und Lagehypo
these, wie sie von der Feinpositionierung als Startwert benötigt wird. Im Rah
men der Grobpositionierung lassen sich keine Annahmen über den Verlauf
der Abstandsfunktion machen, die zu allgemeingültigen Lösungsverfahren
wie bei der Feinpositionierung führen. Da die Behandlung solcher willkürlich
verlaufender Funktionen aufwendig ist, beschränkt man sich bei der Grob
positionierung auf die Lösung der Extremalwertaufgabe in 3 Variablen, was
bei vielen Anwendungen (z. B. bei Fahrzeugen auf ebener Fahrbahn, wo verti
kale Positionskoordinate, Nick- und Rollwinkel der Fahrzeuge näherungs
weise feststehen) zu ausreichender Genauigkeit für den Startwert der Fein
positionierung führt. Im Gegensatz zur Feinpositionierung löst das Grobposi
tionierungsverfahren also nur die Extremalwertaufgabe in Variablen und mit
eingeschränkter Genauigkeit, benötigt dafür aber keinen Startwert. Die Be
sonderheiten der Grobpositionierung sind in Abs. (2.2.2.1) zusammengefaßt.
Beide Verfahren zusammengenommen lösen die oben genannte Extremal
wertaufgabe (Minimierung der Abstandsfunktion) ohne Schätzwert für die
Position und Lage des Objektes hochgenau und in allen sechs Freiheitsgra
den; sie liegen der im Auswerterechner implementierten Software zugrund.
- - näherungsweise Bestimmung von horizontaler Position und vertikaler Drehlage eines Objektes; übrige drei Positions- und Lagekoordinaten werden als (näherungsweise) bekannt voraus gesetzt
- - kein Startwert erforderlich
- - Positions-/Lagebestimmung durch kombinatorische Korrelation von horizontaler Objektkontur in Modell und Bild
- - Einschränkung der Kombinationsvielfalt durch Konsistenzprüfung
- - Konsistenzprüfung durch Vergleich der paarweisen Abstände von je drei Konturpunkten im Bild und im Modell
- - off-line Aufbereitung einer Datentabelle mit allen Abständen und Punktepaaren der (diskretisierten) Modellkontur zur Reduktion des Rechenaufwandes bei der Konsistenzprüfung
- - Rechenzeit im Sekundenbereich
- - Einzelbildauswertung
- - hochgenaue Bestimmung aller sechs Positions- und Lage koordinaten des Objektes
- - angenäherter Schätzwert für Position und Lage als Startwert erforderlich
- - Positions-/Lagebestimmung durch Minimierung des mittleren Abstandes von Bildpunkten zur Referenzoberfläche
- - Beschränkung der Referenzoberfläche Approximation der Objektoberfläche erlaubt analytische Darstellung und Minimierung der Abstandsfunktion für einen festen Satz von Bezugspunkten
- - iterative Bezugspunktwahl
- - Identifikation von Nebenminima der Abstandsfunktion
- - Verfahren parallel auf Multiprozessorsystem implementiert
- - Rechenzeit im Minutenbereich
- - Auswertung gemittelter Entfernungsbilder für hohe Genauigkeit.
Die Funktion der hochgenauen Positions- und Lageerkennung eines nicht
speziell markierten, großen Passagierflugzeuges wurde praktisch und erfolg
reich erprobt. Die intelligente Entfernungsbildkamera war dabei Bestandteil
eines Waschroboters, der von den Firmen Deutsche Lufthansa und Putz
meister erprobt wird. Die Erprobung fand im Freien unter verschiedenen
Wetterbedingungen, zu verschiedenen Tageszeiten (auch nachts) und bei
trockener und nasser Flugzeughaut statt. Die Meßzeit lag bei ca. 1,5 Minuten,
die sich anschließende on-line Auswertung zur Positions- und Lageberech
nung ca. 2 Minuten.
Vorliegende, beabsichtigte, mögliche Anwendungen der Erfindung
- - Fahrzeugführung bei der Positionierung eines Waschroboters für Flugzeuge
- - Einmeßvorgang für die Berechnung der Waschbahnen des Waschroboters
- - Arbeitsraumüberwachung während des Waschvorganges beim Waschroboter
- - dto. für einen Enteisungsroboter für Flugzeuge
- - Positions-, Lage- und Typerkennung für das automatische Lotsen von Flugzeugen beim Andocken
- - Generierung von Catiadaten für Flugzeuge o. ä.
- - Überprüfung von Abweichungen realer Flugzeuge von ihren Catiadaten
- - Positions- und Lagebestimmung für die automatische Containerverladung.
Claims (1)
- Objektvermessung mittels intelligenter Entfernungsbildkamera, gekenn zeichnet durch
- - Aufnahme eines hochaufgelösten, digitalen Entfernungsbildes des Objektes in Echtzeit
- - Verwendung eines aktiven, elektrooptischen, scannenden Sensors als Frontend des Systems
- - Auswertung des Entfernungsbildes mit Algorithmen zur Objekt positions- und -lageberechnung, Objektvermessung und Objekt klassifikation, die den speziellen Informationsgehalt des Ent fernungsbildes nutzen und dieses mit einem geometrischen Modell des Objektes vergleichen
- - on-line Auswertung auf einem Rechner, der Bestandteil des Systems ist.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4320485A DE4320485B4 (de) | 1993-06-21 | 1993-06-21 | Verfahren zur Objektvermessung mittels intelligenter Entfernungsbildkamera |
ES94106285T ES2134286T3 (es) | 1993-06-21 | 1994-04-22 | Procedimiento para la exploracion de objetos a distancia mediante una camara inteligente de percepcion de imagenes. |
EP94106285A EP0631154B1 (de) | 1993-06-21 | 1994-04-22 | Verfahren zur Objektvermessung mittels intelligenter Entfernungsbildkamera |
US08/322,343 US5621807A (en) | 1993-06-21 | 1994-10-13 | Intelligent range image camera for object measurement |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4320485A DE4320485B4 (de) | 1993-06-21 | 1993-06-21 | Verfahren zur Objektvermessung mittels intelligenter Entfernungsbildkamera |
Publications (2)
Publication Number | Publication Date |
---|---|
DE4320485A1 true DE4320485A1 (de) | 1994-12-22 |
DE4320485B4 DE4320485B4 (de) | 2007-04-19 |
Family
ID=6490804
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE4320485A Expired - Fee Related DE4320485B4 (de) | 1993-06-21 | 1993-06-21 | Verfahren zur Objektvermessung mittels intelligenter Entfernungsbildkamera |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP0631154B1 (de) |
DE (1) | DE4320485B4 (de) |
ES (1) | ES2134286T3 (de) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19808836A1 (de) * | 1998-03-03 | 1999-09-09 | Ghh Fahrzeuge Gmbh | Verfahren zur Flugzeugmuster- und Bugradlenkwinkelerkennung beim Manövrieren eines Flugzeuges mit einem Flugzeugschlepper |
DE19919925A1 (de) * | 1999-04-30 | 2000-11-16 | Siemens Ag | Anordnung und Verfahren zur gleichzeitigen Messung der Geschwindigkeit sowie der Oberflächengestalt von bewegten Objekten |
DE10133761A1 (de) * | 2001-07-11 | 2003-01-30 | Vitronic Dr Ing Stein Bildvera | Verfahren und Vorrichtung zur virtuellen Lagebestimmung eines Fahrzeugaufbaus |
DE10134975A1 (de) * | 2000-08-01 | 2003-02-06 | Move & Traffic Controls Gmbh | Anordnung eines optischen Bild-Scanners zur Erfassung großer Objekte, bei der die Detektionsobjekte bewegt werden |
DE10148068A1 (de) * | 2001-09-28 | 2003-04-10 | Ibeo Automobile Sensor Gmbh | Verfahren zur Erkennung und Verfolgung von Objekten |
DE10148063A1 (de) * | 2001-09-28 | 2003-04-17 | Ibeo Automobile Sensor Gmbh | Verfahren zur Erkennung und Verfolgung von Objekten |
DE10154861A1 (de) * | 2001-11-08 | 2003-05-22 | Ibeo Automobile Sensor Gmbh | Verfahren zur Bereitstellung von Bildinformationen |
DE102004044973A1 (de) * | 2004-09-16 | 2006-03-30 | Sick Ag | Kontrolle eines Überwachungsbereiches |
EP1972896A2 (de) | 2007-03-23 | 2008-09-24 | EADS Deutschland GmbH | Mensch-Maschinen-Interface zur Pilotenunterstützung bei Start und Landung eines Fluggerät bei verminderter Außensicht |
EP2019283A2 (de) | 2007-07-23 | 2009-01-28 | Steinbichler Optotechnik Gmbh | Verfahren und Vorrichtung zur Vermessung von Ist-Messdaten eines Bauteils |
US7570793B2 (en) | 2001-06-15 | 2009-08-04 | Ibeo Automobile Sensor Gmbh | Correction method for data of a plurality of optoelectronic sensors |
EP2082930A3 (de) * | 2008-01-23 | 2010-05-05 | Otto Christ AG | Behandlungsanlage und Behandlungsverfahren für Landfahrzeuge, insbesondere Autowaschanlage |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU750213B2 (en) * | 1997-12-19 | 2002-07-11 | Carnegie Wave Energy Limited | Incremental recognition of a three dimensional object |
DE10044689A1 (de) * | 2000-09-08 | 2002-03-21 | Idm Gmbh Infrarot Sensoren | Vorrichtung zur Überwachung eines Bereichs eines Raumes |
EP1291674A3 (de) * | 2001-09-03 | 2004-02-04 | IBEO Automobile Sensor GmbH | Verfahren zur Erkennung und Verfolgung von Objekten |
DE10148071A1 (de) * | 2001-09-28 | 2003-04-17 | Ibeo Automobile Sensor Gmbh | Verfahren zur Erkennung und Verfolgung von Objekten |
DE10148060A1 (de) * | 2001-09-28 | 2003-04-10 | Ibeo Automobile Sensor Gmbh | Verfahren zur Erkennung und Verfolgung von Objekten |
DE10148064A1 (de) * | 2001-09-28 | 2003-04-10 | Ibeo Automobile Sensor Gmbh | Verfahren zur Erkennung und Verfolgung von Objekten |
CN106851105A (zh) * | 2017-03-08 | 2017-06-13 | 吕盼稂 | 一种录制高分辨率运动人脸图像的方法和装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SE7703644L (sv) * | 1977-03-30 | 1978-10-01 | Aga Ab | Forfarande vid avstandsmetning |
JPS5816372A (ja) * | 1981-07-22 | 1983-01-31 | Asahi Optical Co Ltd | 光波距離計における信号処理回路 |
DE3432892A1 (de) * | 1984-09-07 | 1986-03-20 | Messerschmitt-Bölkow-Blohm GmbH, 2800 Bremen | Elektrooptisches zielgeraet |
DE3915631A1 (de) * | 1989-05-12 | 1990-11-15 | Dornier Luftfahrt | Navigationsverfahren |
DE3942771C1 (de) * | 1989-12-23 | 1991-07-04 | Dornier Luftfahrt Gmbh, 8031 Wessling, De | |
DE3942770A1 (de) * | 1989-12-23 | 1991-07-11 | Dornier Luftfahrt | Entfernungsbildkamera |
DE4002356C2 (de) * | 1990-01-26 | 1996-10-17 | Sick Optik Elektronik Erwin | Abstandsmeßgerät |
FI87696C (fi) * | 1991-09-30 | 1993-02-10 | Valtion Teknillinen | Foerfarande i en med optisk princip fungerande ankomstkoppling |
US5457639A (en) * | 1991-10-11 | 1995-10-10 | Kaman Aerospace Corporation | Imaging lidar system for shallow and coastal water |
-
1993
- 1993-06-21 DE DE4320485A patent/DE4320485B4/de not_active Expired - Fee Related
-
1994
- 1994-04-22 EP EP94106285A patent/EP0631154B1/de not_active Expired - Lifetime
- 1994-04-22 ES ES94106285T patent/ES2134286T3/es not_active Expired - Lifetime
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19808836B4 (de) * | 1998-03-03 | 2006-03-09 | Ghh Fahrzeuge Gmbh | Verfahren zur Flugzeugmuster- und Bugradlenkwinkelerkennung beim Manövrieren eines Flugzeuges mit einem Flugzeugschlepper |
DE19808836A1 (de) * | 1998-03-03 | 1999-09-09 | Ghh Fahrzeuge Gmbh | Verfahren zur Flugzeugmuster- und Bugradlenkwinkelerkennung beim Manövrieren eines Flugzeuges mit einem Flugzeugschlepper |
DE19919925A1 (de) * | 1999-04-30 | 2000-11-16 | Siemens Ag | Anordnung und Verfahren zur gleichzeitigen Messung der Geschwindigkeit sowie der Oberflächengestalt von bewegten Objekten |
DE19919925C2 (de) * | 1999-04-30 | 2001-06-13 | Siemens Ag | Anordnung und Verfahren zur gleichzeitigen Messung der Geschwindigkeit sowie der Oberflächengestalt von bewegten Objekten |
DE10134975A1 (de) * | 2000-08-01 | 2003-02-06 | Move & Traffic Controls Gmbh | Anordnung eines optischen Bild-Scanners zur Erfassung großer Objekte, bei der die Detektionsobjekte bewegt werden |
DE10134975B4 (de) * | 2000-08-01 | 2005-09-22 | Move & Traffic Controls Gmbh | Anordnung eines optischen Bild-Scanners zur Erfassung großer Objekte, bei der die Detektionsobjekte bewegt werden |
US7570793B2 (en) | 2001-06-15 | 2009-08-04 | Ibeo Automobile Sensor Gmbh | Correction method for data of a plurality of optoelectronic sensors |
DE10133761A1 (de) * | 2001-07-11 | 2003-01-30 | Vitronic Dr Ing Stein Bildvera | Verfahren und Vorrichtung zur virtuellen Lagebestimmung eines Fahrzeugaufbaus |
DE10148068A1 (de) * | 2001-09-28 | 2003-04-10 | Ibeo Automobile Sensor Gmbh | Verfahren zur Erkennung und Verfolgung von Objekten |
DE10148063A1 (de) * | 2001-09-28 | 2003-04-17 | Ibeo Automobile Sensor Gmbh | Verfahren zur Erkennung und Verfolgung von Objekten |
DE10154861A1 (de) * | 2001-11-08 | 2003-05-22 | Ibeo Automobile Sensor Gmbh | Verfahren zur Bereitstellung von Bildinformationen |
DE102004044973A1 (de) * | 2004-09-16 | 2006-03-30 | Sick Ag | Kontrolle eines Überwachungsbereiches |
US7408462B2 (en) | 2004-09-16 | 2008-08-05 | Sick Ag | Control of monitored zone |
DE102004044973B4 (de) * | 2004-09-16 | 2014-12-04 | Sick Ag | Kontrolle eines Überwachungsbereiches |
EP1972896A2 (de) | 2007-03-23 | 2008-09-24 | EADS Deutschland GmbH | Mensch-Maschinen-Interface zur Pilotenunterstützung bei Start und Landung eines Fluggerät bei verminderter Außensicht |
DE102007014015A1 (de) | 2007-03-23 | 2008-09-25 | Eads Deutschland Gmbh | Mensch-Maschinen-Interface zur Pilotenunterstützung bei Start und Landung eines Fluggeräts bei verminderter Außensicht |
DE102007014015B4 (de) * | 2007-03-23 | 2010-07-01 | Eads Deutschland Gmbh | Mensch-Maschinen-Interface zur Pilotenunterstützung bei Start und Landung eines Fluggeräts bei verminderter Außensicht |
EP2019283A2 (de) | 2007-07-23 | 2009-01-28 | Steinbichler Optotechnik Gmbh | Verfahren und Vorrichtung zur Vermessung von Ist-Messdaten eines Bauteils |
DE102007034168A1 (de) * | 2007-07-23 | 2009-02-05 | Steinbichler Optotechnik Gmbh | Verfahren und Vorrichtung zur Vermessung von Ist-Meßdaten eines Bauteils |
EP2082930A3 (de) * | 2008-01-23 | 2010-05-05 | Otto Christ AG | Behandlungsanlage und Behandlungsverfahren für Landfahrzeuge, insbesondere Autowaschanlage |
Also Published As
Publication number | Publication date |
---|---|
ES2134286T3 (es) | 1999-10-01 |
EP0631154A1 (de) | 1994-12-28 |
DE4320485B4 (de) | 2007-04-19 |
EP0631154B1 (de) | 1999-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0631154B1 (de) | Verfahren zur Objektvermessung mittels intelligenter Entfernungsbildkamera | |
DE69213749T2 (de) | Verfahren und vorrichtung zur punktualmessung von raumkoordinaten | |
EP3315986B1 (de) | Verfahren zum bereitstellen einer information zur vorbereitung einer mr-bildgebung | |
DE102013009288B4 (de) | 3D-Aufnahmevorrichtung, Verfahren zur Erstellung eines 3D-Bildes und Verfahren zur Einrichtung einer 3D-Aufnahmevorrichtung | |
DE112014001459B4 (de) | Verfahren zur Ermittlung dreidimensionaler Koordinaten auf einer Oberfläche eines Objekts | |
DE112006003363B4 (de) | Verfahren und Vorrichtung zur Identifizierung der Eigenposition, und Verfahren und Vorrichtung zur Messung einer dreidimensionalen Gestalt | |
EP2105701B1 (de) | Verfahren und Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts | |
DE3784715T2 (de) | Verfahren zur dreidimensionalen ueberwachung des objektraumes. | |
DE69409513T2 (de) | Verfahren zur geometrischen messung | |
DE602005002274T2 (de) | Berührungsloses Messsystem für sphärische und asphärische Oberflächen und Methode zur Benutzung | |
DE112011103632T5 (de) | Automatisiertes Warmlaufen sowie Stabilitätsprüfung für Lasernachführungsgeräte | |
EP1673589B1 (de) | Verfahren und vorrichtung zur bestimmung der aktualposition eines geodätischen instrumentes | |
DE102017116952A1 (de) | System und verfahren für verbessertes scoring von 3d-lagen und entfernen von störpunkten in 3d-bilddaten | |
DE112006003361T5 (de) | Verfahren und Vorrichtung für das Aufzeichnen/Anzeigen von dreidimensionalen Formdaten und Verfahren und Vorrichtung für das Messen einer dreidimensionalen Form | |
EP3782117A1 (de) | Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur verarbeitung von sensordaten | |
DE112006003380T5 (de) | Verfahren und Vorrichtung für die Positionsabgleichung von dreidimensionalen Formdaten | |
DE102019208216A1 (de) | Detektion, 3D-Rekonstruktion und Nachverfolgung von mehreren relativ zueinander bewegten starren Objekten | |
DE102016119626A1 (de) | Automatische dreidimensionale Geolokation von SAR-Targets und gleichzeitige Schätzung troposphärischer Ausbreitungsverzögerungen mittels zweier SAR-Bilder mit langer Apertur | |
DE19637682A1 (de) | Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung und Vorrichtung zur Anwendung dieses Verfahrens | |
DE102018108936A1 (de) | Formmesssystem und Formmessverfahren | |
EP1460454A2 (de) | Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern | |
DE19509962A1 (de) | Verfahren und Vorrichtung zur Erfassung von dreidimensionalen Verschiebungsvektorfeldern | |
DE3786139T2 (de) | Automatisches fokussierungsverfahren fuer mittel zur untersuchung eines objekts. | |
DE102019133754A1 (de) | Systeme und verfahren zum richten eines beleuchtungskörpers in einem veranstaltungsbereich | |
DE102019201134A1 (de) | Einmessung einer Augmented-Reality-Brille zur Verwendung in einem Kraftfahrzeug |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8127 | New person/name/address of the applicant |
Owner name: EADS DEUTSCHLAND GMBH, 85521 OTTOBRUNN, DE |
|
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |